Louez NVIDIA H200 SXM dans le Cloud — Comparez 3 fournisseurs
Enhanced H100 with 141GB HBM3e memory and 43% more bandwidth. Ideal for models that need more VRAM than the H100 provides.
Le moins cher à la demande
$2.05/hr
Moyenne à la demande
$3.03/hr
Le moins cher en Spot
$3.59/hr
Fournisseurs
3
Comparez les prix Cloud de NVIDIA H200 SXM — 3 fournisseurs
À la demande
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$2.05/hr | Available | Marketplace avg | Visiter le fournisseur ↗ |
|
|
$3.44/hr | Available | HGX H200 | Visiter le fournisseur ↗ |
|
|
$3.59/hr | Available | Secure Cloud | Visiter le fournisseur ↗ |
Spot / Préemptible
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$3.59/hr | Available | Community Cloud | Visiter le fournisseur ↗ |
Prix vérifiés pour la dernière fois : April 13, 2026
Spécifications techniques de NVIDIA H200 SXM
| Fabricant | NVIDIA |
|---|---|
| Architecture | Hopper |
| VRAM | 141 GB HBM3e |
| Bande passante | 4,800 GB/s |
| FP16 (Tensor) | 990.0 TFLOPS |
| FP32 | 67.0 TFLOPS |
| TDP | 700W |
| Année de sortie | 2024 |
| Segment | Data center |
| Idéal pour | Large model training, inference for 70B+ parameter models |