Louez NVIDIA A100 SXM (40GB) dans le Cloud — Comparez 2 fournisseurs

Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.

VRAM 40 GB HBM2e
Bande passante 1,555 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
Architecture Ampere
Le moins cher à la demande $0.80/hr
Moyenne à la demande $0.97/hr
Fournisseurs 2

Comparez les prix Cloud de NVIDIA A100 SXM (40GB) — 2 fournisseurs

À la demande

Fournisseur Prix / GPU / heure Disponibilité Notes
Vast.ai $0.80/hr Available Marketplace avg Visiter le fournisseur ↗
RunPod $1.14/hr Available Secure Cloud, SXM Visiter le fournisseur ↗

Prix vérifiés pour la dernière fois : April 13, 2026

Spécifications techniques de NVIDIA A100 SXM (40GB)

FabricantNVIDIA
ArchitectureAmpere
VRAM40 GB HBM2e
Bande passante1,555 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
Année de sortie2020
SegmentData center
Idéal pourAI training, fine-tuning, inference on smaller models