Noleggi NVIDIA A100 SXM (80GB) nel Cloud — Confronta 6 Provider

Previous-generation workhorse for AI training and inference. Still widely available at lower cost than H100.

VRAM 80 GB HBM2e
Larghezza di banda 2,039 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
Architettura Ampere
Più economico On-Demand $1.10/hr
Prezzo medio On-Demand $1.67/hr
Più economico Spot $0.79/hr
Provider 6

Confronta i Prezzi Cloud di NVIDIA A100 SXM (80GB) — 6 Provider

On-Demand

Provider Prezzo / GPU / ora Disponibilità Note
Vast.ai $1.10/hr Available Marketplace avg Visita il Provider ↗
Massed Compute $1.23/hr Available SXM4 Visita il Provider ↗
RunPod $1.49/hr Available Secure Cloud, SXM Visita il Provider ↗
Novita AI $1.60/hr Available SXM Visita il Provider ↗
Cherry Servers $2.18/hr Available Bare metal Visita il Provider ↗
Vultr $2.40/hr Available PCIe Visita il Provider ↗

Spot / Preemptible

Provider Prezzo / GPU / ora Disponibilità Note
Novita AI $0.79/hr Available Spot, 1hr guaranteed Visita il Provider ↗
RunPod $1.39/hr Available Community Cloud Visita il Provider ↗

Prezzi verificati l'ultima volta: April 13, 2026

Specifiche Tecniche di NVIDIA A100 SXM (80GB)

ProduttoreNVIDIA
ArchitetturaAmpere
VRAM80 GB HBM2e
Larghezza di banda2,039 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
Anno di rilascio2020
SegmentoData center
Ideale perAI training, fine-tuning, HPC, inference