Meilleures GPU Cloud HBM2e — May 2026
HBM2e (génération A100) — la mémoire HBM la plus rentable disponible dans le cloud aujourd'hui.
A100 SXM (80GB) vs A100 SXM (40GB) vs A30 — meilleurs choix de ce guide
|
A100 SXM (80GB)
Ampère · 80 GB
|
A100 SXM (40GB)
Ampère · 40 GB
|
A30
Ampère · 24 GB
|
|
|---|---|---|---|
| Spécifications | |||
| Fabricant | NVIDIA | NVIDIA | NVIDIA |
| Architecture | Ampère | Ampère | Ampère |
| VRAM | 80 GB HBM2e | 40 GB HBM2e | 24 GB HBM2e |
| Bande passante | 2,039 GB/s | 1,555 GB/s | 933 GB/s |
| FP16 (Tensor) | 312 TFLOPS | 312 TFLOPS | 165 TFLOPS |
| FP32 | 19.5 TFLOPS | 19.5 TFLOPS | 10.3 TFLOPS |
| TDP | 400 W | 400 W | 165 W |
| Année de sortie | 2020 | 2020 | 2021 |
| Segment | Centre de données | Centre de données | Centre de données |
| Tarification Cloud | |||
| Le moins cher à la demande | $1.10/hr | $0.80/hr | $0.25/hr |
| Fournisseurs | 6 | 2 | 2 |
Créez votre propre comparaison de GPU
Sélectionnez 2 GPU de ce guide et ouvrez-les côte à côte.
Astuce : les comparaisons de GPU se font par paires. Choisissez exactement 2 — si vous ne sélectionnez rien, nous ouvrirons les 2 premiers de ce guide.