Alugue NVIDIA H100 SXM na Nuvem — Compare 7 Provedores

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Largura de Banda 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Arquitetura Hopper
Mais Barato Sob Demanda $1.57/hr
Média Sob Demanda $2.44/hr
Mais Barato Spot $1.49/hr
Provedores 7

Compare Preços de NVIDIA H100 SXM na Nuvem — 7 Provedores

Sob Demanda

Provedor Preço / GPU / hr Disponibilidade Notas
Latitude.sh $1.57/hr Available GPU VM, NVLink Visitar Provedor ↗
Vultr $1.99/hr Available 24-month contract Visitar Provedor ↗
Vast.ai $2.20/hr Available Marketplace avg Visitar Provedor ↗
Massed Compute $2.35/hr Available PCIe Visitar Provedor ↗
Novita AI $2.59/hr Available Visitar Provedor ↗
RunPod $2.99/hr Available Secure Cloud, SXM Visitar Provedor ↗
DigitalOcean $3.39/hr Available HGX H100 Visitar Provedor ↗

Spot / Preemptível

Provedor Preço / GPU / hr Disponibilidade Notas
Novita AI $1.49/hr Available Spot, 1hr guaranteed Visitar Provedor ↗
RunPod $2.69/hr Available Community Cloud Visitar Provedor ↗

Reservado

Provedor Preço / GPU / hr Disponibilidade Notas
DigitalOcean $2.50/hr Available 12-month, 8-GPU Visitar Provedor ↗

Preços verificados pela última vez: April 13, 2026

Especificações Técnicas de NVIDIA H100 SXM

FabricanteNVIDIA
ArquiteturaHopper
VRAM80 GB HBM3
Largura de Banda3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Ano de Lançamento2023
SegmentoData center
Melhor ParaLarge-scale AI training, distributed workloads, LLM pre-training