Noleggi NVIDIA H100 SXM nel Cloud — Confronta 7 Provider

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Larghezza di banda 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Architettura Hopper
Più economico On-Demand $1.57/hr
Prezzo medio On-Demand $2.44/hr
Più economico Spot $1.49/hr
Provider 7

Confronta i Prezzi Cloud di NVIDIA H100 SXM — 7 Provider

On-Demand

Provider Prezzo / GPU / ora Disponibilità Note
Latitude.sh $1.57/hr Available GPU VM, NVLink Visita il Provider ↗
Vultr $1.99/hr Available 24-month contract Visita il Provider ↗
Vast.ai $2.20/hr Available Marketplace avg Visita il Provider ↗
Massed Compute $2.35/hr Available PCIe Visita il Provider ↗
Novita AI $2.59/hr Available Visita il Provider ↗
RunPod $2.99/hr Available Secure Cloud, SXM Visita il Provider ↗
DigitalOcean $3.39/hr Available HGX H100 Visita il Provider ↗

Spot / Preemptible

Provider Prezzo / GPU / ora Disponibilità Note
Novita AI $1.49/hr Available Spot, 1hr guaranteed Visita il Provider ↗
RunPod $2.69/hr Available Community Cloud Visita il Provider ↗

Riservato

Provider Prezzo / GPU / ora Disponibilità Note
DigitalOcean $2.50/hr Available 12-month, 8-GPU Visita il Provider ↗

Prezzi verificati l'ultima volta: April 13, 2026

Specifiche Tecniche di NVIDIA H100 SXM

ProduttoreNVIDIA
ArchitetturaHopper
VRAM80 GB HBM3
Larghezza di banda3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Anno di rilascio2023
SegmentoData center
Ideale perLarge-scale AI training, distributed workloads, LLM pre-training