Rente NVIDIA A100 SXM (40GB) en la Nube — Compare 2 Proveedores
Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.
Más Barato Bajo Demanda
$0.80/hr
Promedio Bajo Demanda
$0.97/hr
Proveedores
2
Compare Precios de NVIDIA A100 SXM (40GB) en la Nube — 2 Proveedores
Bajo Demanda
| Proveedor | Precio / GPU / hr | Disponibilidad | Notas | |
|---|---|---|---|---|
|
|
$0.80/hr | Available | Marketplace avg | Visitar Proveedor ↗ |
|
|
$1.14/hr | Available | Secure Cloud, SXM | Visitar Proveedor ↗ |
Precios verificados por última vez: April 13, 2026
Especificaciones Técnicas de NVIDIA A100 SXM (40GB)
| Fabricante | NVIDIA |
|---|---|
| Arquitectura | Ampere |
| VRAM | 40 GB HBM2e |
| Ancho de Banda | 1,555 GB/s |
| FP16 (Tensor) | 312.0 TFLOPS |
| FP32 | 19.5 TFLOPS |
| TDP | 400W |
| Año de Lanzamiento | 2020 |
| Segmento | Data center |
| Mejor Para | AI training, fine-tuning, inference on smaller models |