Rente NVIDIA A100 SXM (40GB) en la Nube — Compare 2 Proveedores

Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.

VRAM 40 GB HBM2e
Ancho de Banda 1,555 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
Arquitectura Ampere
Más Barato Bajo Demanda $0.80/hr
Promedio Bajo Demanda $0.97/hr
Proveedores 2

Compare Precios de NVIDIA A100 SXM (40GB) en la Nube — 2 Proveedores

Bajo Demanda

Proveedor Precio / GPU / hr Disponibilidad Notas
Vast.ai $0.80/hr Available Marketplace avg Visitar Proveedor ↗
RunPod $1.14/hr Available Secure Cloud, SXM Visitar Proveedor ↗

Precios verificados por última vez: April 13, 2026

Especificaciones Técnicas de NVIDIA A100 SXM (40GB)

FabricanteNVIDIA
ArquitecturaAmpere
VRAM40 GB HBM2e
Ancho de Banda1,555 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
Año de Lanzamiento2020
SegmentoData center
Mejor ParaAI training, fine-tuning, inference on smaller models