80+ GB VRAM 클라우드 GPU 최고 — May 2026
80GB 이상 VRAM은 프론티어 AI 훈련의 기본 사양입니다 (A100 80GB, H100, H200, B200, MI300X). 모든 옵션을 나란히 비교해 보세요.
NVIDIA
384 GB
GB200 Superchip
HBM3e
Blackwell
NVIDIA
288 GB
B300
HBM3e
Blackwell Ultra
AMD
288 GB
MI350X
HBM3e
CDNA 4
AMD
288 GB
MI355X
HBM3e
CDNA 4
$2.59/hr
AMD
256 GB
MI325X
HBM3e
CDNA 3
$2.00/hr
NVIDIA
192 GB
B200
HBM3e
Blackwell
$1.99/hr
NVIDIA
192 GB
B100
HBM3e
Blackwell
AMD
192 GB
MI300X
HBM3
CDNA 3
$1.85/hr
NVIDIA
141 GB
H200 SXM
HBM3e
Hopper
$2.05/hr
NVIDIA
96 GB
GH200 Superchip
HBM3
Hopper
NVIDIA
80 GB
H100 SXM
HBM3
Hopper
$1.57/hr
NVIDIA
80 GB
A100 SXM (80GB)
HBM2e
Ampere
$1.10/hr
NVIDIA
96 GB
RTX PRO 6000
GDDR7
Blackwell
$1.71/hr
GB200 Superchip 대 B300 대 MI350X — 이 가이드의 주요 추천
|
GB200 Superchip
블랙웰 · 384 GB
|
B300
블랙웰 울트라 · 288 GB
|
MI350X
CDNA 4 · 288 GB
|
|
|---|---|---|---|
| 사양 | |||
| 제조사 | NVIDIA | NVIDIA | AMD |
| 아키텍처 | 블랙웰 | 블랙웰 울트라 | CDNA 4 |
| VRAM | 384 GB HBM3e | 288 GB HBM3e | 288 GB HBM3e |
| 대역폭 | 16,000 GB/s | 8,000 GB/s | 8,000 GB/s |
| FP16 (텐서) | 4,500 TFLOPS | 2,250 TFLOPS | 1,800 TFLOPS |
| FP32 | 150 TFLOPS | 75 TFLOPS | 72 TFLOPS |
| TDP | 2700 W | 1400 W | 1000 W |
| 출시 연도 | 2024 | 2025 | 2025 |
| 세그먼트 | 데이터 센터 | 데이터 센터 | 데이터 센터 |
| 클라우드 가격 | |||
| 가장 저렴한 온디맨드 | — | — | — |
| 공급업체 | 0 | 1 | 1 |
나만의 GPU 비교 만들기
이 가이드에서 GPU 2개를 선택하여 나란히 비교하세요.
팁: GPU 비교는 2개씩 진행됩니다. 정확히 2개를 선택하세요 — 선택하지 않으면 이 가이드 상위 2개를 자동으로 엽니다.