Wynajmij NVIDIA A100 SXM (40GB) w chmurze — Porównaj 2 dostawców

Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.

VRAM 40 GB HBM2e
Przepustowość 1,555 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
Architektura Ampere
Najtańsze na żądanie $0.80/hr
Średnia cena na żądanie $0.97/hr
Dostawcy 2

Porównaj ceny NVIDIA A100 SXM (40GB) w chmurze — 2 dostawców

Na żądanie

Dostawca Cena / GPU / godz. Dostępność Uwagi
Vast.ai $0.80/hr Available Marketplace avg Odwiedź dostawcę ↗
RunPod $1.14/hr Available Secure Cloud, SXM Odwiedź dostawcę ↗

Ceny ostatnio zweryfikowane: April 13, 2026

Specyfikacje techniczne NVIDIA A100 SXM (40GB)

ProducentNVIDIA
ArchitekturaAmpere
VRAM40 GB HBM2e
Przepustowość1,555 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
Rok wydania2020
SegmentData center
Najlepsze doAI training, fine-tuning, inference on smaller models