Mieten Sie NVIDIA H100 SXM in der Cloud — Vergleichen Sie 7 Anbieter

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Bandbreite 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Architektur Hopper
Günstigste On-Demand $1.57/hr
Durchschnittliche On-Demand $2.44/hr
Günstigste Spot $1.49/hr
Anbieter 7

Vergleichen Sie NVIDIA H100 SXM Cloud-Preise — 7 Anbieter

On-Demand

Anbieter Preis / GPU / Std. Verfügbarkeit Hinweise
Latitude.sh $1.57/hr Available GPU VM, NVLink Anbieter besuchen ↗
Vultr $1.99/hr Available 24-month contract Anbieter besuchen ↗
Vast.ai $2.20/hr Available Marketplace avg Anbieter besuchen ↗
Massed Compute $2.35/hr Available PCIe Anbieter besuchen ↗
Novita AI $2.59/hr Available Anbieter besuchen ↗
RunPod $2.99/hr Available Secure Cloud, SXM Anbieter besuchen ↗
DigitalOcean $3.39/hr Available HGX H100 Anbieter besuchen ↗

Spot / Vorübergehend

Anbieter Preis / GPU / Std. Verfügbarkeit Hinweise
Novita AI $1.49/hr Available Spot, 1hr guaranteed Anbieter besuchen ↗
RunPod $2.69/hr Available Community Cloud Anbieter besuchen ↗

Reserviert

Anbieter Preis / GPU / Std. Verfügbarkeit Hinweise
DigitalOcean $2.50/hr Available 12-month, 8-GPU Anbieter besuchen ↗

Preise zuletzt überprüft: April 13, 2026

Technische Spezifikationen von NVIDIA H100 SXM

HerstellerNVIDIA
ArchitekturHopper
VRAM80 GB HBM3
Bandbreite3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Erscheinungsjahr2023
SegmentData center
Am besten geeignet fürLarge-scale AI training, distributed workloads, LLM pre-training