Noleggi NVIDIA A100 SXM (40GB) nel Cloud — Confronta 2 Provider
Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.
Più economico On-Demand
$0.80/hr
Prezzo medio On-Demand
$0.97/hr
Provider
2
Confronta i Prezzi Cloud di NVIDIA A100 SXM (40GB) — 2 Provider
On-Demand
| Provider | Prezzo / GPU / ora | Disponibilità | Note | |
|---|---|---|---|---|
|
|
$0.80/hr | Available | Marketplace avg | Visita il Provider ↗ |
|
|
$1.14/hr | Available | Secure Cloud, SXM | Visita il Provider ↗ |
Prezzi verificati l'ultima volta: April 13, 2026
Specifiche Tecniche di NVIDIA A100 SXM (40GB)
| Produttore | NVIDIA |
|---|---|
| Architettura | Ampere |
| VRAM | 40 GB HBM2e |
| Larghezza di banda | 1,555 GB/s |
| FP16 (Tensor) | 312.0 TFLOPS |
| FP32 | 19.5 TFLOPS |
| TDP | 400W |
| Anno di rilascio | 2020 |
| Segmento | Data center |
| Ideale per | AI training, fine-tuning, inference on smaller models |