클라우드에서 NVIDIA A100 SXM (40GB) 대여 — 2개 공급업체 비교

Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.

VRAM 40 GB HBM2e
대역폭 1,555 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
아키텍처 Ampere
가장 저렴한 온디맨드 $0.80/hr
평균 온디맨드 $0.97/hr
공급업체 2

NVIDIA A100 SXM (40GB) 클라우드 가격 비교 — 2개 공급업체

온디맨드

공급업체 가격 / GPU / 시간 가용성 참고 사항
Vast.ai $0.80/hr Available Marketplace avg 공급업체 방문 ↗
RunPod $1.14/hr Available Secure Cloud, SXM 공급업체 방문 ↗

가격 최종 확인: April 13, 2026

NVIDIA A100 SXM (40GB) 기술 사양

제조사NVIDIA
아키텍처Ampere
VRAM40 GB HBM2e
대역폭1,555 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
출시 연도2020
세그먼트Data center
최적 용도AI training, fine-tuning, inference on smaller models