클라우드에서 NVIDIA H100 SXM 대여 — 7개 공급업체 비교

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
대역폭 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
아키텍처 Hopper
가장 저렴한 온디맨드 $1.57/hr
평균 온디맨드 $2.44/hr
가장 저렴한 스팟 $1.49/hr
공급업체 7

NVIDIA H100 SXM 클라우드 가격 비교 — 7개 공급업체

온디맨드

공급업체 가격 / GPU / 시간 가용성 참고 사항
Latitude.sh $1.57/hr Available GPU VM, NVLink 공급업체 방문 ↗
Vultr $1.99/hr Available 24-month contract 공급업체 방문 ↗
Vast.ai $2.20/hr Available Marketplace avg 공급업체 방문 ↗
Massed Compute $2.35/hr Available PCIe 공급업체 방문 ↗
Novita AI $2.59/hr Available 공급업체 방문 ↗
RunPod $2.99/hr Available Secure Cloud, SXM 공급업체 방문 ↗
DigitalOcean $3.39/hr Available HGX H100 공급업체 방문 ↗

스팟 / 선점 가능

공급업체 가격 / GPU / 시간 가용성 참고 사항
Novita AI $1.49/hr Available Spot, 1hr guaranteed 공급업체 방문 ↗
RunPod $2.69/hr Available Community Cloud 공급업체 방문 ↗

예약

공급업체 가격 / GPU / 시간 가용성 참고 사항
DigitalOcean $2.50/hr Available 12-month, 8-GPU 공급업체 방문 ↗

가격 최종 확인: April 13, 2026

NVIDIA H100 SXM 기술 사양

제조사NVIDIA
아키텍처Hopper
VRAM80 GB HBM3
대역폭3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
출시 연도2023
세그먼트Data center
최적 용도Large-scale AI training, distributed workloads, LLM pre-training