Închiriați NVIDIA H100 SXM în Cloud — Comparați 7 Furnizori

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Lățime de bandă 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Arhitectură Hopper
Cel mai ieftin On-Demand $1.57/hr
Medie On-Demand $2.44/hr
Cel mai ieftin Spot $1.49/hr
Furnizori 7

Comparați Prețurile Cloud pentru NVIDIA H100 SXM — 7 Furnizori

On-Demand

Furnizor Preț / GPU / oră Disponibilitate Note
Latitude.sh $1.57/hr Available GPU VM, NVLink Vizitați Furnizorul ↗
Vultr $1.99/hr Available 24-month contract Vizitați Furnizorul ↗
Vast.ai $2.20/hr Available Marketplace avg Vizitați Furnizorul ↗
Massed Compute $2.35/hr Available PCIe Vizitați Furnizorul ↗
Novita AI $2.59/hr Available Vizitați Furnizorul ↗
RunPod $2.99/hr Available Secure Cloud, SXM Vizitați Furnizorul ↗
DigitalOcean $3.39/hr Available HGX H100 Vizitați Furnizorul ↗

Spot / Preemptibil

Furnizor Preț / GPU / oră Disponibilitate Note
Novita AI $1.49/hr Available Spot, 1hr guaranteed Vizitați Furnizorul ↗
RunPod $2.69/hr Available Community Cloud Vizitați Furnizorul ↗

Rezervat

Furnizor Preț / GPU / oră Disponibilitate Note
DigitalOcean $2.50/hr Available 12-month, 8-GPU Vizitați Furnizorul ↗

Prețuri verificate ultima dată: April 13, 2026

Specificații Tehnice NVIDIA H100 SXM

ProducătorNVIDIA
ArhitecturăHopper
VRAM80 GB HBM3
Lățime de bandă3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Anul lansării2023
SegmentData center
Cel mai potrivit pentruLarge-scale AI training, distributed workloads, LLM pre-training