RunPod
RunPod ist eine auf GPUs fokussierte Cloud-Plattform, die 2022 gegründet wurde und ihren Hauptsitz in Moorestown, New Jersey, hat. Sie bietet GPU-Instanzen auf Abruf und Spot-Instanzen mit sekundengenauer Abrechnung, was sie zu einer der flexibelsten Plattformen für KI/ML-Workloads macht. RunPod unterstützt alles von einzelnen GPU-Entwicklungspods bis hin zu 64-GPU-Multi-Knoten-Clustern, die über InfiniBand verbunden sind.
Die Plattform ist bei Forschern, Indie-Entwicklern und Startups aufgrund ihrer wettbewerbsfähigen Preise, der sofortigen Bereitstellung und der fehlenden Ausgangsgebühren beliebt. RunPod bietet außerdem serverlose Inferenzendpunkte, die bei Inaktivität auf null skalieren.
GPU Hardware
| GPU Models | B300 B200 H200 H100 SXM H100 PCIe H100 NVL MI300X A100 SXM A100 PCIe RTX 5090 RTX PRO 6000 L40S L40 RTX 6000 Ada RTX 5000 Ada RTX A6000 RTX A5000 RTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 A40 A30 A2 L4 |
| Max VRAM | 288 GB |
| Max GPUs per Instance | 8 |
| Interconnect | NVLink |
| Multi-Node Training | Ja |
Pricing
| Starting Price | $0.06/hr |
| Billing Granularity | Pro Sekunde |
| Spot/Preemptible | Ja |
| Reserved Discounts | 15-29 % (Pläne von 1 Monat bis 1 Jahr) |
| Free Credits | 5–500 $ Bonus nach den ersten 10 $ Ausgaben |
| Egress Fees | Keine (Kostenlos) |
| Storage | Container/Volumen (0,10 $/GB/Monat), Leerlauf-Volumen (0,20 $/GB/Monat), Netzwerkspeicher (0,07 $/GB/Monat <1TB, $0.05/GB/mo >1TB) |
Community Cloud bietet die niedrigsten Preise (z. B. RTX A5000 ab $0,16/Stunde) mit Hardware von verteilten Partnern. Secure Cloud läuft in T3/T4-Rechenzentren mit höherer Zuverlässigkeit zu leicht höheren Preisen.
Spot-Instanzen bieten erhebliche Einsparungen (z. B. RTX 3090 für $0,22/Stunde Spot), können jedoch unterbrochen werden. Reservierte Preise mit 6-monatigen oder 1-jährigen Verpflichtungen sparen bis zu ~30 % (z. B. B200: $5,98/Stunde On-Demand zu $4,24/Stunde bei 1-jähriger Reservierung).
Speicher wird separat berechnet: $0,10/GB/Monat für Pod-Volumes, $0,07/GB/Monat für Netzwerkspeicher. Keine Ausgabekosten.
Infrastructure
| Regions | 31 globale Regionen |
| Uptime SLA | 99,99 % |
| Serverless / Autoscaling | Ja |
| Private Networking / VPC | Ja |
Developer Experience
| Pre-installed Frameworks | PyTorch TensorFlow JAX ONNX CUDA |
| Docker Support | Ja |
| SSH Access | Ja |
| Jupyter Notebooks | Ja |
| API / CLI | Ja |
| Setup Time | Sofort |
| Kubernetes Support | Nein |
| Custom Images / Templates | Ja |
| Persistent Storage | Ja |
Business Terms
| Min Commitment | Keine |
| Compliance | SOC 2 Typ II |
| Best For | KI-Training Inferenz Feinabstimmung Stable Diffusion Batch-Verarbeitung Rendering Forschung LLM-Bereitstellung generative KI |
| Support Channels | Discord E-Mail Support-Tickets Dokumentation |
| Payment Methods | Kreditkarte Krypto ACH Überweisung Geschäftliche Rechnungsstellung (>$5K) |
How does it compare?
Compare RunPod against other cloud GPU providers.
Nutzerfeedback
Für diesen Anbieter liegen noch keine öffentlichen Nutzerbewertungen vor. Wenn Sie deren Dienste genutzt haben, seien Sie der Erste, der eine kurze, ehrliche Bewertung hinterlässt und anderen Entwicklern hilft.
Teilen Sie Ihre Erfahrung
Kurzes, ehrliches Feedback hilft anderen Entwicklern zu verstehen, wie es wirklich ist, diesen Anbieter zu nutzen.