최고의 Hopper 클라우드 GPU — May 2026
호퍼급 GPU들(H100, H200, GH200)은 여전히 대형 모델 학습과 추론의 핵심입니다. 클라우드에서 모든 호퍼 GPU를 비교해 보세요.
H200 SXM 대 GH200 Superchip 대 H100 SXM — 이 가이드의 주요 추천
|
H200 SXM
호퍼 · 141 GB
|
GH200 Superchip
호퍼 · 96 GB
|
H100 SXM
호퍼 · 80 GB
|
|
|---|---|---|---|
| 사양 | |||
| 제조사 | NVIDIA | NVIDIA | NVIDIA |
| 아키텍처 | 호퍼 | 호퍼 | 호퍼 |
| VRAM | 141 GB HBM3e | 96 GB HBM3 | 80 GB HBM3 |
| 대역폭 | 4,800 GB/s | 4,000 GB/s | 3,350 GB/s |
| FP16 (텐서) | 990 TFLOPS | 989 TFLOPS | 990 TFLOPS |
| FP32 | 67 TFLOPS | 494.5 TFLOPS | 67 TFLOPS |
| TDP | 700 W | 700 W | 700 W |
| 출시 연도 | 2024 | 2023 | 2023 |
| 세그먼트 | 데이터 센터 | 데이터 센터 | 데이터 센터 |
| 클라우드 가격 | |||
| 가장 저렴한 온디맨드 | $2.05/hr | — | $1.57/hr |
| 공급업체 | 3 | 0 | 7 |
나만의 GPU 비교 만들기
이 가이드에서 GPU 2개를 선택하여 나란히 비교하세요.
팁: GPU 비교는 2개씩 진행됩니다. 정확히 2개를 선택하세요 — 선택하지 않으면 이 가이드 상위 2개를 자동으로 엽니다.