Noleggi NVIDIA A100 SXM (80GB) nel Cloud — Confronta 6 Provider
Previous-generation workhorse for AI training and inference. Still widely available at lower cost than H100.
Più economico On-Demand
$1.10/hr
Prezzo medio On-Demand
$1.67/hr
Più economico Spot
$0.79/hr
Provider
6
Confronta i Prezzi Cloud di NVIDIA A100 SXM (80GB) — 6 Provider
On-Demand
| Provider | Prezzo / GPU / ora | Disponibilità | Note | |
|---|---|---|---|---|
|
|
$1.10/hr | Available | Marketplace avg | Visita il Provider ↗ |
|
|
$1.23/hr | Available | SXM4 | Visita il Provider ↗ |
|
|
$1.49/hr | Available | Secure Cloud, SXM | Visita il Provider ↗ |
|
|
$1.60/hr | Available | SXM | Visita il Provider ↗ |
|
|
$2.18/hr | Available | Bare metal | Visita il Provider ↗ |
|
|
$2.40/hr | Available | PCIe | Visita il Provider ↗ |
Spot / Preemptible
| Provider | Prezzo / GPU / ora | Disponibilità | Note | |
|---|---|---|---|---|
|
|
$0.79/hr | Available | Spot, 1hr guaranteed | Visita il Provider ↗ |
|
|
$1.39/hr | Available | Community Cloud | Visita il Provider ↗ |
Prezzi verificati l'ultima volta: April 13, 2026
Specifiche Tecniche di NVIDIA A100 SXM (80GB)
| Produttore | NVIDIA |
|---|---|
| Architettura | Ampere |
| VRAM | 80 GB HBM2e |
| Larghezza di banda | 2,039 GB/s |
| FP16 (Tensor) | 312.0 TFLOPS |
| FP32 | 19.5 TFLOPS |
| TDP | 400W |
| Anno di rilascio | 2020 |
| Segmento | Data center |
| Ideale per | AI training, fine-tuning, HPC, inference |