Louez NVIDIA H100 SXM dans le Cloud — Comparez 7 fournisseurs
The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.
Le moins cher à la demande
$1.57/hr
Moyenne à la demande
$2.44/hr
Le moins cher en Spot
$1.49/hr
Fournisseurs
7
Comparez les prix Cloud de NVIDIA H100 SXM — 7 fournisseurs
À la demande
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$1.57/hr | Available | GPU VM, NVLink | Visiter le fournisseur ↗ |
|
|
$1.99/hr | Available | 24-month contract | Visiter le fournisseur ↗ |
|
|
$2.20/hr | Available | Marketplace avg | Visiter le fournisseur ↗ |
|
|
$2.35/hr | Available | PCIe | Visiter le fournisseur ↗ |
|
|
$2.59/hr | Available | — | Visiter le fournisseur ↗ |
|
|
$2.99/hr | Available | Secure Cloud, SXM | Visiter le fournisseur ↗ |
|
|
$3.39/hr | Available | HGX H100 | Visiter le fournisseur ↗ |
Spot / Préemptible
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$1.49/hr | Available | Spot, 1hr guaranteed | Visiter le fournisseur ↗ |
|
|
$2.69/hr | Available | Community Cloud | Visiter le fournisseur ↗ |
Réservé
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$2.50/hr | Available | 12-month, 8-GPU | Visiter le fournisseur ↗ |
Prix vérifiés pour la dernière fois : April 13, 2026
Spécifications techniques de NVIDIA H100 SXM
| Fabricant | NVIDIA |
|---|---|
| Architecture | Hopper |
| VRAM | 80 GB HBM3 |
| Bande passante | 3,350 GB/s |
| FP16 (Tensor) | 990.0 TFLOPS |
| FP32 | 67.0 TFLOPS |
| TDP | 700W |
| Année de sortie | 2023 |
| Segment | Data center |
| Idéal pour | Large-scale AI training, distributed workloads, LLM pre-training |