Louez NVIDIA A100 SXM (40GB) dans le Cloud — Comparez 2 fournisseurs
Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.
Le moins cher à la demande
$0.80/hr
Moyenne à la demande
$0.97/hr
Fournisseurs
2
Comparez les prix Cloud de NVIDIA A100 SXM (40GB) — 2 fournisseurs
À la demande
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$0.80/hr | Available | Marketplace avg | Visiter le fournisseur ↗ |
|
|
$1.14/hr | Available | Secure Cloud, SXM | Visiter le fournisseur ↗ |
Prix vérifiés pour la dernière fois : April 13, 2026
Spécifications techniques de NVIDIA A100 SXM (40GB)
| Fabricant | NVIDIA |
|---|---|
| Architecture | Ampere |
| VRAM | 40 GB HBM2e |
| Bande passante | 1,555 GB/s |
| FP16 (Tensor) | 312.0 TFLOPS |
| FP32 | 19.5 TFLOPS |
| TDP | 400W |
| Année de sortie | 2020 |
| Segment | Data center |
| Idéal pour | AI training, fine-tuning, inference on smaller models |