RunPod
RunPod est une plateforme cloud axée sur le GPU, fondée en 2022 et basée à Moorestown, New Jersey. Elle propose des instances GPU à la demande et spot avec une facturation à la seconde, ce qui en fait l'une des plateformes les plus flexibles pour les charges de travail IA/ML. RunPod prend en charge tout, des pods de développement à GPU unique aux clusters multi-nœuds de 64 GPU connectés via InfiniBand.
La plateforme est populaire parmi les chercheurs, les développeurs indépendants et les startups pour ses tarifs compétitifs, son approvisionnement instantané et l'absence de frais de sortie. RunPod propose également des points de terminaison d'inférence sans serveur qui se mettent à l'échelle jusqu'à zéro lorsqu'ils sont inactifs.
GPU Hardware
| GPU Models | B300 B200 H200 H100 SXM H100 PCIe H100 NVL MI300X A100 SXM A100 PCIe RTX 5090 RTX PRO 6000 L40S L40 RTX 6000 Ada RTX 5000 Ada RTX A6000 RTX A5000 RTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 A40 A30 A2 L4 |
| Max VRAM | 288 GB |
| Max GPUs per Instance | 8 |
| Interconnect | NVLink |
| Multi-Node Training | Oui |
Pricing
| Starting Price | $0.06/hr |
| Billing Granularity | Par seconde |
| Spot/Preemptible | Oui |
| Reserved Discounts | 15-29 % (plans de 1 mois à 1 an) |
| Free Credits | Bonus de 5 $ à 500 $ après une première dépense de 10 $ |
| Egress Fees | Aucun (Gratuit) |
| Storage | Conteneur/Volume (0,10 $/Go/mois), Volume inactif (0,20 $/Go/mois), Stockage réseau (0,07 $/Go/mois <1TB, $0.05/GB/mo >1To) |
Community Cloud offre les tarifs les plus bas (par exemple RTX A5000 à partir de 0,16 $/heure) avec du matériel provenant de partenaires distribués. Secure Cloud fonctionne dans des centres de données T3/T4 avec une fiabilité supérieure à des prix légèrement plus élevés.
Les instances Spot offrent des économies importantes (par exemple RTX 3090 à 0,22 $/heure en spot) mais peuvent être interrompues. Les tarifs réservés avec des engagements de 6 mois ou 1 an permettent d'économiser jusqu'à ~30 % (par exemple B200 : 5,98 $/heure à la demande à 4,24 $/heure en réservé 1 an).
Le stockage est facturé séparément : 0,10 $/Go/mois pour les volumes de pod, 0,07 $/Go/mois pour le stockage réseau. Pas de frais de sortie.
Infrastructure
| Regions | 31 régions mondiales |
| Uptime SLA | 99,99 % |
| Serverless / Autoscaling | Oui |
| Private Networking / VPC | Oui |
Developer Experience
| Pre-installed Frameworks | PyTorch TensorFlow JAX ONNX CUDA |
| Docker Support | Oui |
| SSH Access | Oui |
| Jupyter Notebooks | Oui |
| API / CLI | Oui |
| Setup Time | Instantané |
| Kubernetes Support | Non |
| Custom Images / Templates | Oui |
| Persistent Storage | Oui |
Business Terms
| Min Commitment | Aucun |
| Compliance | SOC 2 Type II |
| Best For | Entraînement IA inférence ajustement fin Stable Diffusion traitement par lots rendu recherche service LLM IA générative |
| Support Channels | Discord Email Tickets de support Documentation |
| Payment Methods | Carte de crédit Crypto ACH Virement bancaire Facturation entreprise (>5 000 $) |
How does it compare?
Compare RunPod against other cloud GPU providers.
Retour des Utilisateurs
Il n’y a pas encore d’avis publics d’utilisateurs pour ce fournisseur. Si vous avez utilisé leurs services, soyez le premier à laisser un avis court et honnête pour aider les autres développeurs.
Partagez Votre Expérience
Un retour court et honnête aide les autres développeurs à comprendre ce que c’est vraiment d’utiliser ce fournisseur.