Meilleures GPU Cloud HBM2e — May 2026

HBM2e (génération A100) — la mémoire HBM la plus rentable disponible dans le cloud aujourd'hui.

Mis à jour Mai 2026 Affichage de 3 modèles de GPU mémoire HBM2e

A100 SXM (80GB) vs A100 SXM (40GB) vs A30 — meilleurs choix de ce guide

A100 SXM (80GB) vs A100 SXM (40GB) vs A30
A100 SXM (80GB)
Ampère · 80 GB
A100 SXM (40GB)
Ampère · 40 GB
A30
Ampère · 24 GB
Spécifications
Fabricant NVIDIA NVIDIA NVIDIA
Architecture Ampère Ampère Ampère
VRAM 80 GB HBM2e 40 GB HBM2e 24 GB HBM2e
Bande passante 2,039 GB/s 1,555 GB/s 933 GB/s
FP16 (Tensor) 312 TFLOPS 312 TFLOPS 165 TFLOPS
FP32 19.5 TFLOPS 19.5 TFLOPS 10.3 TFLOPS
TDP 400 W 400 W 165 W
Année de sortie 2020 2020 2021
Segment Centre de données Centre de données Centre de données
Tarification Cloud
Le moins cher à la demande $1.10/hr $0.80/hr $0.25/hr
Fournisseurs 6 2 2

Créez votre propre comparaison de GPU

Sélectionnez 2 GPU de ce guide et ouvrez-les côte à côte.

Astuce : les comparaisons de GPU se font par paires. Choisissez exactement 2 — si vous ne sélectionnez rien, nous ouvrirons les 2 premiers de ce guide.