클라우드에서 NVIDIA A100 SXM (40GB) 대여 — 2개 공급업체 비교
Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.
가장 저렴한 온디맨드
$0.80/hr
평균 온디맨드
$0.97/hr
공급업체
2
NVIDIA A100 SXM (40GB) 클라우드 가격 비교 — 2개 공급업체
온디맨드
가격 최종 확인: April 13, 2026
NVIDIA A100 SXM (40GB) 기술 사양
| 제조사 | NVIDIA |
|---|---|
| 아키텍처 | Ampere |
| VRAM | 40 GB HBM2e |
| 대역폭 | 1,555 GB/s |
| FP16 (Tensor) | 312.0 TFLOPS |
| FP32 | 19.5 TFLOPS |
| TDP | 400W |
| 출시 연도 | 2020 |
| 세그먼트 | Data center |
| 최적 용도 | AI training, fine-tuning, inference on smaller models |