Louez NVIDIA H100 SXM dans le Cloud — Comparez 7 fournisseurs

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Bande passante 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Architecture Hopper
Le moins cher à la demande $1.57/hr
Moyenne à la demande $2.44/hr
Le moins cher en Spot $1.49/hr
Fournisseurs 7

Comparez les prix Cloud de NVIDIA H100 SXM — 7 fournisseurs

À la demande

Fournisseur Prix / GPU / heure Disponibilité Notes
Latitude.sh $1.57/hr Available GPU VM, NVLink Visiter le fournisseur ↗
Vultr $1.99/hr Available 24-month contract Visiter le fournisseur ↗
Vast.ai $2.20/hr Available Marketplace avg Visiter le fournisseur ↗
Massed Compute $2.35/hr Available PCIe Visiter le fournisseur ↗
Novita AI $2.59/hr Available Visiter le fournisseur ↗
RunPod $2.99/hr Available Secure Cloud, SXM Visiter le fournisseur ↗
DigitalOcean $3.39/hr Available HGX H100 Visiter le fournisseur ↗

Spot / Préemptible

Fournisseur Prix / GPU / heure Disponibilité Notes
Novita AI $1.49/hr Available Spot, 1hr guaranteed Visiter le fournisseur ↗
RunPod $2.69/hr Available Community Cloud Visiter le fournisseur ↗

Réservé

Fournisseur Prix / GPU / heure Disponibilité Notes
DigitalOcean $2.50/hr Available 12-month, 8-GPU Visiter le fournisseur ↗

Prix vérifiés pour la dernière fois : April 13, 2026

Spécifications techniques de NVIDIA H100 SXM

FabricantNVIDIA
ArchitectureHopper
VRAM80 GB HBM3
Bande passante3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Année de sortie2023
SegmentData center
Idéal pourLarge-scale AI training, distributed workloads, LLM pre-training