Rente NVIDIA H100 SXM en la Nube — Compare 7 Proveedores

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
Ancho de Banda 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
Arquitectura Hopper
Más Barato Bajo Demanda $1.57/hr
Promedio Bajo Demanda $2.44/hr
Más Barato Spot $1.49/hr
Proveedores 7

Compare Precios de NVIDIA H100 SXM en la Nube — 7 Proveedores

Bajo Demanda

Proveedor Precio / GPU / hr Disponibilidad Notas
Latitude.sh $1.57/hr Available GPU VM, NVLink Visitar Proveedor ↗
Vultr $1.99/hr Available 24-month contract Visitar Proveedor ↗
Vast.ai $2.20/hr Available Marketplace avg Visitar Proveedor ↗
Massed Compute $2.35/hr Available PCIe Visitar Proveedor ↗
Novita AI $2.59/hr Available Visitar Proveedor ↗
RunPod $2.99/hr Available Secure Cloud, SXM Visitar Proveedor ↗
DigitalOcean $3.39/hr Available HGX H100 Visitar Proveedor ↗

Spot / Preemptible

Proveedor Precio / GPU / hr Disponibilidad Notas
Novita AI $1.49/hr Available Spot, 1hr guaranteed Visitar Proveedor ↗
RunPod $2.69/hr Available Community Cloud Visitar Proveedor ↗

Reservado

Proveedor Precio / GPU / hr Disponibilidad Notas
DigitalOcean $2.50/hr Available 12-month, 8-GPU Visitar Proveedor ↗

Precios verificados por última vez: April 13, 2026

Especificaciones Técnicas de NVIDIA H100 SXM

FabricanteNVIDIA
ArquitecturaHopper
VRAM80 GB HBM3
Ancho de Banda3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
Año de Lanzamiento2023
SegmentoData center
Mejor ParaLarge-scale AI training, distributed workloads, LLM pre-training