Cloud-GPUs bei 3+ Anbietern — May 2026
GPU-Modelle, die von drei oder mehr Cloud-Anbietern angeboten werden – Multi-Anbieter-Verfügbarkeit senkt das Risiko und unterstützt die regionale Platzierung.
NVIDIA
141 GB
H200 SXM
HBM3e
Hopper
$2.05/hr
NVIDIA
80 GB
H100 SXM
HBM3
Hopper
$1.57/hr
NVIDIA
80 GB
A100 SXM (80GB)
HBM2e
Ampere
$1.10/hr
NVIDIA
48 GB
L40S
GDDR6
Ada Lovelace
$0.55/hr
NVIDIA
48 GB
A40
GDDR6
Ampere
$0.30/hr
NVIDIA
48 GB
RTX 6000 Ada
GDDR6
Ada Lovelace
$0.47/hr
NVIDIA
48 GB
RTX A6000
GDDR6
Ampere
$0.30/hr
NVIDIA
32 GB
RTX 5090
GDDR7
Blackwell
$0.34/hr
NVIDIA
24 GB
RTX 4090
GDDR6X
Ada Lovelace
$0.28/hr
NVIDIA
24 GB
RTX 3090
GDDR6X
Ampere
$0.12/hr
H200 SXM vs H100 SXM vs A100 SXM (80GB) — Top-Auswahl aus dieser Anleitung
|
H200 SXM
Hopper · 141 GB
|
H100 SXM
Hopper · 80 GB
|
A100 SXM (80GB)
Ampere · 80 GB
|
|
|---|---|---|---|
| Spezifikationen | |||
| Hersteller | NVIDIA | NVIDIA | NVIDIA |
| Architektur | Hopper | Hopper | Ampere |
| VRAM | 141 GB HBM3e | 80 GB HBM3 | 80 GB HBM2e |
| Bandbreite | 4,800 GB/s | 3,350 GB/s | 2,039 GB/s |
| FP16 (Tensor) | 990 TFLOPS | 990 TFLOPS | 312 TFLOPS |
| FP32 | 67 TFLOPS | 67 TFLOPS | 19.5 TFLOPS |
| TDP | 700 W | 700 W | 400 W |
| Erscheinungsjahr | 2024 | 2023 | 2020 |
| Segment | Rechenzentrum | Rechenzentrum | Rechenzentrum |
| Cloud-Preise | |||
| Günstigste On-Demand | $2.05/hr | $1.57/hr | $1.10/hr |
| Anbieter | 3 | 7 | 6 |
Erstellen Sie Ihren eigenen GPU-Vergleich
Wählen Sie genau 2 GPUs aus dieser Anleitung aus und öffnen Sie sie nebeneinander.
Tipp: GPU-Vergleiche werden paarweise durchgeführt. Wählen Sie genau 2 aus – wenn Sie keine Auswahl treffen, öffnen wir die Top 2 aus dieser Anleitung.