Louez NVIDIA A100 SXM (80GB) dans le Cloud — Comparez 6 fournisseurs

Previous-generation workhorse for AI training and inference. Still widely available at lower cost than H100.

VRAM 80 GB HBM2e
Bande passante 2,039 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
Architecture Ampere
Le moins cher à la demande $1.10/hr
Moyenne à la demande $1.67/hr
Le moins cher en Spot $0.79/hr
Fournisseurs 6

Comparez les prix Cloud de NVIDIA A100 SXM (80GB) — 6 fournisseurs

À la demande

Fournisseur Prix / GPU / heure Disponibilité Notes
Vast.ai $1.10/hr Available Marketplace avg Visiter le fournisseur ↗
Massed Compute $1.23/hr Available SXM4 Visiter le fournisseur ↗
RunPod $1.49/hr Available Secure Cloud, SXM Visiter le fournisseur ↗
Novita AI $1.60/hr Available SXM Visiter le fournisseur ↗
Cherry Servers $2.18/hr Available Bare metal Visiter le fournisseur ↗
Vultr $2.40/hr Available PCIe Visiter le fournisseur ↗

Spot / Préemptible

Fournisseur Prix / GPU / heure Disponibilité Notes
Novita AI $0.79/hr Available Spot, 1hr guaranteed Visiter le fournisseur ↗
RunPod $1.39/hr Available Community Cloud Visiter le fournisseur ↗

Prix vérifiés pour la dernière fois : April 13, 2026

Spécifications techniques de NVIDIA A100 SXM (80GB)

FabricantNVIDIA
ArchitectureAmpere
VRAM80 GB HBM2e
Bande passante2,039 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
Année de sortie2020
SegmentData center
Idéal pourAI training, fine-tuning, HPC, inference