Vast.ai
Vast.ai ist ein zweiseitiger GPU-Compute-Marktplatz, der Entwickler mit über 1.400 unabhängigen Anbietern verbindet, die ungenutzte GPU-Hardware an mehr als 500 Standorten weltweit anbieten. Durch die Aggregation des Angebots von unabhängigen Rechenzentren und einzelnen Anbietern bietet Vast.ai GPU-Compute zu 40–80 % günstigeren Preisen als traditionelle Hyperscaler wie AWS, Azure und GCP.
Die Plattform unterstützt drei Bereitstellungsmodelle: GPU Cloud (einzelne Instanzen), Serverless (automatisch skalierende Inferenzendpunkte) und Cluster (mehrknotige Trainings). Nutzer können Hochleistungsinstanzen in Sekundenschnelle mit Docker-Containern starten und aus über 35 GPU-Typen wählen, die von Consumer-RTX-Karten bis hin zu Enterprise-B200s reichen. Die Preisgestaltung wird dynamisch vom Marktplatz basierend auf Angebot und Nachfrage festgelegt.
Das 2018 von Jake Cannell gegründete Unternehmen verwaltet über 20.000 GPUs und erzielte 2024 ein Wachstum von 310 %. Es verfügt über die SOC 2 Typ 2-Zertifizierung und ist besonders beliebt bei KI-Forschern, ML-Ingenieuren und Indie-Entwicklern, die erschwingliche Rechenleistung ohne langfristige Verpflichtungen benötigen.
GPU Hardware
| GPU Models | B200 H200 H100 SXM H100 NVL A100 SXM A100 PCIe RTX 5090 RTX 5080 RTX 5070 Ti RTX 6000 Pro RTX 6000 Ada RTX 4500 Ada RTX A6000 RTX A5000 RTX A4000 L40S L40 A40 A10 RTX 4090 RTX 4080 RTX 4070 Ti RTX 4070 RTX 4060 Ti RTX 4060 RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 Ti RTX 3070 Tesla V100 Tesla T4 A2 GTX 1080 |
| Max VRAM | 192 GB |
| Max GPUs per Instance | 8 |
| Interconnect | NVLink, InfiniBand |
| Multi-Node Training | Ja |
Pricing
| Starting Price | $0.06/hr |
| Billing Granularity | Pro Sekunde |
| Spot/Preemptible | Ja |
| Reserved Discounts | Bis zu 50 % (1-6 Monate reserviert) |
| Free Credits | Kleines Testguthaben bei Anmeldung |
| Egress Fees | Variiert je nach Host ($/TB) |
| Storage | Variiert je nach Host ($/GB/Stunde, berechnet solange die Instanz besteht) |
Marktplatzgesteuerte Preisgestaltung: Hosts legen ihre eigenen Preise basierend auf Angebot und Nachfrage fest. Drei Stufen verfügbar — On-Demand (garantierte Betriebszeit), Interruptible (über 50 % günstiger durch Gebotsverfahren) und Reserved (1/3/6-Monatslaufzeiten). Budget: RTX 4060 ab 0,06 $/Std. Mittelklasse: RTX 4090 ab 0,29 $/Std., A100 ab 0,67 $/Std. High-End: H100 ab 1,55 $/Std., H200 ab 1,97 $/Std., B200 ab 2,67 $/Std. Hinweis: Speicher wird auch bei gestoppten Instanzen berechnet, und Bandbreitengebühren fallen pro TB an. Mindesteinzahlung 5 $ zum Start.
Infrastructure
| Regions | 500+ Standorte, 40+ Rechenzentren |
| Uptime SLA | Kein formeller SLA (Zuverlässigkeitsbewertungen des Hosts sichtbar) |
| Serverless / Autoscaling | Ja |
| Private Networking / VPC | Ja |
Developer Experience
| Pre-installed Frameworks | PyTorch TensorFlow CUDA vLLM ComfyUI |
| Docker Support | Ja |
| SSH Access | Ja |
| Jupyter Notebooks | Ja |
| API / CLI | Ja |
| Setup Time | Sekunden |
| Kubernetes Support | Nein |
| Custom Images / Templates | Ja |
| Persistent Storage | Ja |
Business Terms
| Min Commitment | Keine |
| Compliance | SOC 2 Typ 2 HIPAA DSGVO CCPA |
| Best For | KI-Training Inferenz Feinabstimmung Stable Diffusion Batch-Verarbeitung Forschung LLM-Bereitstellung generative KI |
| Support Channels | Live-Chat (24/7) Discord E-Mail Dokumentation |
| Payment Methods | Kreditkarte Krypto (Coinbase Crypto.com) |
Wie schneidet es ab?
Vergleichen Sie Vast.ai mit anderen Cloud-GPU-Anbietern.
Nutzerfeedback
Für diesen Anbieter liegen noch keine öffentlichen Nutzerbewertungen vor. Wenn Sie deren Dienste genutzt haben, seien Sie der Erste, der eine kurze, ehrliche Bewertung hinterlässt und anderen Entwicklern hilft.
Teilen Sie Ihre Erfahrung
Kurzes, ehrliches Feedback hilft anderen Entwicklern zu verstehen, wie es wirklich ist, diesen Anbieter zu nutzen.