최고의 HBM2e 클라우드 GPU — May 2026
HBM2e (A100 세대) — 오늘날 클라우드에서 가장 비용 효율적인 HBM입니다.
A100 SXM (80GB) 대 A100 SXM (40GB) 대 A30 — 이 가이드의 주요 추천
|
A100 SXM (80GB)
암페어 · 80 GB
|
A100 SXM (40GB)
암페어 · 40 GB
|
A30
암페어 · 24 GB
|
|
|---|---|---|---|
| 사양 | |||
| 제조사 | NVIDIA | NVIDIA | NVIDIA |
| 아키텍처 | 암페어 | 암페어 | 암페어 |
| VRAM | 80 GB HBM2e | 40 GB HBM2e | 24 GB HBM2e |
| 대역폭 | 2,039 GB/s | 1,555 GB/s | 933 GB/s |
| FP16 (텐서) | 312 TFLOPS | 312 TFLOPS | 165 TFLOPS |
| FP32 | 19.5 TFLOPS | 19.5 TFLOPS | 10.3 TFLOPS |
| TDP | 400 W | 400 W | 165 W |
| 출시 연도 | 2020 | 2020 | 2021 |
| 세그먼트 | 데이터 센터 | 데이터 센터 | 데이터 센터 |
| 클라우드 가격 | |||
| 가장 저렴한 온디맨드 | $1.10/hr | $0.80/hr | $0.25/hr |
| 공급업체 | 6 | 2 | 2 |
나만의 GPU 비교 만들기
이 가이드에서 GPU 2개를 선택하여 나란히 비교하세요.
팁: GPU 비교는 2개씩 진행됩니다. 정확히 2개를 선택하세요 — 선택하지 않으면 이 가이드 상위 2개를 자동으로 엽니다.