Noleggi NVIDIA A100 SXM (40GB) nel Cloud — Confronta 2 Provider

Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.

VRAM 40 GB HBM2e
Larghezza di banda 1,555 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
Architettura Ampere
Più economico On-Demand $0.80/hr
Prezzo medio On-Demand $0.97/hr
Provider 2

Confronta i Prezzi Cloud di NVIDIA A100 SXM (40GB) — 2 Provider

On-Demand

Provider Prezzo / GPU / ora Disponibilità Note
Vast.ai $0.80/hr Available Marketplace avg Visita il Provider ↗
RunPod $1.14/hr Available Secure Cloud, SXM Visita il Provider ↗

Prezzi verificati l'ultima volta: April 13, 2026

Specifiche Tecniche di NVIDIA A100 SXM (40GB)

ProduttoreNVIDIA
ArchitetturaAmpere
VRAM40 GB HBM2e
Larghezza di banda1,555 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
Anno di rilascio2020
SegmentoData center
Ideale perAI training, fine-tuning, inference on smaller models