최고의 HBM2e 클라우드 GPU — May 2026

HBM2e (A100 세대) — 오늘날 클라우드에서 가장 비용 효율적인 HBM입니다.

5월 2026 업데이트됨 3개 GPU 모델 표시 중 HBM2e 메모리

A100 SXM (80GB) 대 A100 SXM (40GB) 대 A30 — 이 가이드의 주요 추천

A100 SXM (80GB) vs A100 SXM (40GB) vs A30
A100 SXM (80GB)
암페어 · 80 GB
A100 SXM (40GB)
암페어 · 40 GB
A30
암페어 · 24 GB
사양
제조사 NVIDIA NVIDIA NVIDIA
아키텍처 암페어 암페어 암페어
VRAM 80 GB HBM2e 40 GB HBM2e 24 GB HBM2e
대역폭 2,039 GB/s 1,555 GB/s 933 GB/s
FP16 (텐서) 312 TFLOPS 312 TFLOPS 165 TFLOPS
FP32 19.5 TFLOPS 19.5 TFLOPS 10.3 TFLOPS
TDP 400 W 400 W 165 W
출시 연도 2020 2020 2021
세그먼트 데이터 센터 데이터 센터 데이터 센터
클라우드 가격
가장 저렴한 온디맨드 $1.10/hr $0.80/hr $0.25/hr
공급업체 6 2 2

나만의 GPU 비교 만들기

이 가이드에서 GPU 2개를 선택하여 나란히 비교하세요.

팁: GPU 비교는 2개씩 진행됩니다. 정확히 2개를 선택하세요 — 선택하지 않으면 이 가이드 상위 2개를 자동으로 엽니다.