클라우드에서 NVIDIA H100 SXM 대여 — 7개 공급업체 비교
The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.
가장 저렴한 온디맨드
$1.57/hr
평균 온디맨드
$2.44/hr
가장 저렴한 스팟
$1.49/hr
공급업체
7
NVIDIA H100 SXM 클라우드 가격 비교 — 7개 공급업체
온디맨드
| 공급업체 | 가격 / GPU / 시간 | 가용성 | 참고 사항 | |
|---|---|---|---|---|
|
|
$1.57/hr | Available | GPU VM, NVLink | 공급업체 방문 ↗ |
|
|
$1.99/hr | Available | 24-month contract | 공급업체 방문 ↗ |
|
|
$2.20/hr | Available | Marketplace avg | 공급업체 방문 ↗ |
|
|
$2.35/hr | Available | PCIe | 공급업체 방문 ↗ |
|
|
$2.59/hr | Available | — | 공급업체 방문 ↗ |
|
|
$2.99/hr | Available | Secure Cloud, SXM | 공급업체 방문 ↗ |
|
|
$3.39/hr | Available | HGX H100 | 공급업체 방문 ↗ |
스팟 / 선점 가능
예약
| 공급업체 | 가격 / GPU / 시간 | 가용성 | 참고 사항 | |
|---|---|---|---|---|
|
|
$2.50/hr | Available | 12-month, 8-GPU | 공급업체 방문 ↗ |
가격 최종 확인: April 13, 2026
NVIDIA H100 SXM 기술 사양
| 제조사 | NVIDIA |
|---|---|
| 아키텍처 | Hopper |
| VRAM | 80 GB HBM3 |
| 대역폭 | 3,350 GB/s |
| FP16 (Tensor) | 990.0 TFLOPS |
| FP32 | 67.0 TFLOPS |
| TDP | 700W |
| 출시 연도 | 2023 |
| 세그먼트 | Data center |
| 최적 용도 | Large-scale AI training, distributed workloads, LLM pre-training |