LLM Workloads용 최고의 클라우드 GPU — May 2026
LLM에 최적화된 GPU — 일반적으로 최대 VRAM과 대역폭을 갖춘 H/H200/B 시리즈 및 AMD MI300+ 클래스입니다.
MI300X 대 H100 SXM — 이 가이드의 주요 추천
|
MI300X
CDNA 3 · 192 GB
|
H100 SXM
호퍼 · 80 GB
|
|
|---|---|---|
| 사양 | ||
| 제조사 | AMD | NVIDIA |
| 아키텍처 | CDNA 3 | 호퍼 |
| VRAM | 192 GB HBM3 | 80 GB HBM3 |
| 대역폭 | 5,300 GB/s | 3,350 GB/s |
| FP16 (텐서) | 1,307 TFLOPS | 990 TFLOPS |
| FP32 | 163.4 TFLOPS | 67 TFLOPS |
| TDP | 750 W | 700 W |
| 출시 연도 | 2023 | 2023 |
| 세그먼트 | 데이터 센터 | 데이터 센터 |
| 클라우드 가격 | ||
| 가장 저렴한 온디맨드 | $1.85/hr | $1.57/hr |
| 공급업체 | 2 | 7 |
나만의 GPU 비교 만들기
이 가이드에서 GPU 2개를 선택하여 나란히 비교하세요.
팁: GPU 비교는 2개씩 진행됩니다. 정확히 2개를 선택하세요 — 선택하지 않으면 이 가이드 상위 2개를 자동으로 엽니다.