Wynajmij NVIDIA H100 SXM w chmurze — Porównaj 7 dostawców

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Przepustowość 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Architektura Hopper
Najtańsze na żądanie $1.57/hr
Średnia cena na żądanie $2.44/hr
Najtańsze spot $1.49/hr
Dostawcy 7

Porównaj ceny NVIDIA H100 SXM w chmurze — 7 dostawców

Na żądanie

Dostawca Cena / GPU / godz. Dostępność Uwagi
Latitude.sh $1.57/hr Available GPU VM, NVLink Odwiedź dostawcę ↗
Vultr $1.99/hr Available 24-month contract Odwiedź dostawcę ↗
Vast.ai $2.20/hr Available Marketplace avg Odwiedź dostawcę ↗
Massed Compute $2.35/hr Available PCIe Odwiedź dostawcę ↗
Novita AI $2.59/hr Available Odwiedź dostawcę ↗
RunPod $2.99/hr Available Secure Cloud, SXM Odwiedź dostawcę ↗
DigitalOcean $3.39/hr Available HGX H100 Odwiedź dostawcę ↗

Spot / Przerywalne

Dostawca Cena / GPU / godz. Dostępność Uwagi
Novita AI $1.49/hr Available Spot, 1hr guaranteed Odwiedź dostawcę ↗
RunPod $2.69/hr Available Community Cloud Odwiedź dostawcę ↗

Zarezerwowane

Dostawca Cena / GPU / godz. Dostępność Uwagi
DigitalOcean $2.50/hr Available 12-month, 8-GPU Odwiedź dostawcę ↗

Ceny ostatnio zweryfikowane: April 13, 2026

Specyfikacje techniczne NVIDIA H100 SXM

ProducentNVIDIA
ArchitekturaHopper
VRAM80 GB HBM3
Przepustowość3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Rok wydania2023
SegmentData center
Najlepsze doLarge-scale AI training, distributed workloads, LLM pre-training