Nach Funktion
- 12 Anleitungen verfügbar
- Öffnen Sie eine Anleitung, um passende Anbieter zu sehen
- Verwenden Sie "Vergleichen" auf Anbieter-Karten, um eine Auswahlliste zu erstellen
Cloud-GPU-Anbieter mit API- und CLI-Verwaltung
Eine API- oder CLI-Schnittstelle ermöglicht es Ihnen, GPU-Instanzen programmatisch bereitzustellen, zu verwalten und abzubauen – unerlässlich für MLOps-Pipelines, automatisierte Trainingsabläufe...
Cloud-GPU-Anbieter mit Docker- und benutzerdefinierten Images
Die Docker-Unterstützung ermöglicht es Ihnen, Ihre eigene Umgebung mit vorinstallierten Frameworks, CUDA-Versionen und Abhängigkeiten mitzubringen, wodurch die Reproduzierbarkeit zwischen Entwicklung...
Cloud-GPU-Anbieter mit Jupyter-Notebook-Unterstützung
Jupyter Notebooks bieten eine interaktive Entwicklungsumgebung, die in der Datenwissenschaft und ML-Forschung weit verbreitet ist. Wenn Jupyter auf einer Cloud-GPU-Instanz...
Cloud-GPU-Anbieter mit Kubernetes-Unterstützung
Kubernetes ist zum Standard für die Orchestrierung von ML-Trainings- und Inferenz-Workloads im großen Maßstab geworden. GPU-fähige Kubernetes-Cluster ermöglichen automatisierte Planung,...
Cloud-GPU-Anbieter mit Multi-Node-GPU-Clustern
Das Training von Modellen, die die Speicherkapazität eines einzelnen Knotens überschreiten, erfordert Multi-Node-GPU-Cluster mit schneller Vernetzung zwischen den Knoten. Die...
Cloud-GPU-Anbieter mit NVLink oder InfiniBand
Hochbandbreiten-GPU-Verbindungen wie NVLink (bis zu 900 GB/s) und InfiniBand (bis zu 400 Gb/s) sind für effizientes Multi-GPU- und Multi-Node-Training unerlässlich....
Cloud-GPU-Anbieter mit Abrechnung pro Sekunde
Die Abrechnung pro Sekunde stellt sicher, dass Sie nur für die tatsächlich genutzte Rechenzeit zahlen, was besonders wertvoll für kurze...
Cloud-GPU-Anbieter mit persistentem Speicher
Persistenter Speicher stellt sicher, dass Ihre Datensätze, Modell-Checkpoints und Trainingsergebnisse Neustarts und Abschaltungen von Instanzen überdauern. Ohne persistenten Speicher müssten...
Cloud-GPU-Anbieter mit serverlosem GPU-Inferenz
Serverloses GPU eliminiert Leerlaufkosten, indem Ihre Inferenzendpunkte automatisch auf null skaliert werden, wenn sie nicht verwendet werden, und GPU-Instanzen bei...
Cloud-GPU-Anbieter mit Spot- / vorübergehend verfügbaren Instanzen
Spot- oder vorübergehend verfügbare GPU-Instanzen bieten Einsparungen von 50-90 % im Vergleich zu On-Demand-Preisen, im Austausch für die Möglichkeit einer...
Cloud-GPU-Anbieter mit SSH-Zugang
SSH-Zugang gibt Ihnen vollständige Root-Kontrolle über Ihre GPU-Instanz, sodass Sie benutzerdefinierte Software installieren, Probleme debuggen, Dateien verwalten und lang laufende...
Cloud-GPU-Anbieter ohne Ausgabekosten
Ausgabekosten — Gebühren für die Übertragung von Daten aus der Cloud — können beim Exportieren von Modellgewichten, Bereitstellen von Inferenz-Ergebnissen...