What discount can I expect on NVIDIA L40S with spot or reserved pricing?

Respuesta

Expect NVIDIA L40S cloud price to begins at $0.55 per hour on-demand. According to our April 21, 2026 snapshot, the market's lowest-priced on-demand option is Vast.ai, while RunPod offers the lowest spot rate at $0.79 per hour — a up to 60% saving for interruption-tolerant jobs. Reserved contracts add another ~up to 40% discount for multi-month bookings.

Typical one-month on-demand bills run into four figures at full utilization, which is why production inference services usually migrate to reserved and experimental work stays on-demand or spot.

Top cloud providers offering NVIDIA L40S: Vast.ai (from $0.55/hr), Novita AI, and Latitude.sh. Start comparing live rates.

Más FAQs sobre NVIDIA L40S

Vast.ai vs Novita AI vs Latitude.sh vs RunPod vs Massed Compute vs DigitalOcean - Comparación de Proveedores de GPU (Abril 2026)

Comparación lado a lado de Vast.ai vs Novita AI vs Latitude.sh vs RunPod vs Massed Compute vs DigitalOcean. Revise rápidamente financiamiento máximo, repartición de ganancias, reglas de riesgo, apalancamiento, plataformas, instrumentos, calendarios de pago, opciones de pago, permisos de trading y restricciones KYC para reducir su lista de firmas de trading propietarias. Datos actualizados Abril 2026.

Vast.ai vs Novita AI vs Latitude.sh vs RunPod vs Massed Compute vs DigitalOcean - Comparación de Proveedores de GPU (Abril 2026)
Vast.ai
GPUs instantáneas. Precios transparentes.
Visit Vast.ai
Novita AI
Plataforma en la nube de IA y agentes con más de 200 API de modelos, instancias GPU e inferencia sin servidor a gran escala.
Visit Novita AI
Latitude.sh
Nube de GPU bare metal en 23 ubicaciones globales
Visit Latitude.sh
RunPod
La nube creada para IA — despliegue y escalamiento de cargas de trabajo GPU desde inferencia sin servidor hasta clústeres instantáneos multinodo bajo demanda.
Visit RunPod
Massed Compute
Nube GPU con soporte directo de ingenieros
Visit Massed Compute
DigitalOcean
Nube GPU simple y escalable para IA/ML
Visit DigitalOcean
Resumen
Calificación en Trustpilot 4.4 3.3 3.7 3.7 0 4.6
Sede United States United States Brazil United States United States United States
Tipo de Proveedor Mercado de GPUs Enfocado en GPU Bare Metal Enfocado en GPU Enfocado en GPU No aplica
Mejor Para Entrenamiento de IA inferencia ajuste fino Stable Diffusion procesamiento por lotes investigación servicio de LLM IA generativa Entrenamiento de IA inferencia ajuste fino IA generativa investigación servicio de LLM Stable Diffusion Entrenamiento de IA inferencia GPU bare metal ajuste fino investigación cargas de trabajo dedicadas IA generativa Entrenamiento de IA inferencia ajuste fino Stable Diffusion procesamiento por lotes renderizado investigación servicio de LLM IA generativa Entrenamiento de IA inferencia renderizado VFX IA generativa ajuste fino HPC Stable Diffusion investigación Entrenamiento de IA inferencia ajuste fino despliegue de LLM servicio de LLM visión por computadora startups IA generativa investigación
Hardware de GPU
Modelos de GPU B200 H200 H100 SXM H100 NVL A100 SXM A100 PCIe RTX 5090 RTX 5080 RTX 5070 Ti RTX 6000 Pro RTX 6000 Ada RTX 4500 Ada RTX A6000 RTX A5000 RTX A4000 L40S L40 A40 A10 RTX 4090 RTX 4080 RTX 4070 Ti RTX 4070 RTX 4060 Ti RTX 4060 RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 Ti RTX 3070 Tesla V100 Tesla T4 A2 GTX 1080 H100 SXM A100 SXM L40S RTX 4090 RTX 6000 Ada RTX 5090 RTX 3090 A30 RTX A5000 RTX A6000 L40S RTX 6000 Ada A100 SXM H100 SXM GH200 RTX PRO 6000 B300 B200 H200 H100 SXM H100 PCIe H100 NVL MI300X A100 SXM A100 PCIe RTX 5090 RTX PRO 6000 L40S L40 RTX 6000 Ada RTX 5000 Ada RTX A6000 RTX A5000 RTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 A40 A30 A2 L4 A30 RTX A5000 RTX A6000 L40S A100 SXM H100 PCIe H100 SXM H100 NVL RTX PRO 6000 H200 NVL RTX 4000 Ada RTX 6000 Ada L40S MI300X H100 SXM H200
Máximo VRAM (GB) 192 80 96 288 141 192
Máximo de GPUs/Instancia 8 8 8 8 8 8
Interconexión NVLink, InfiniBand NVLink NVLink NVLink NVLink NVLink
Precios
Precio Inicial ($/hr) $0.06/hr $0.11/hr $0.35/hr $0.06/hr $0.35/hr $0.76/hr
Granularidad de Facturación Por segundo Por segundo Por hora Por segundo Por minuto Por segundo
Spot/Preemptible No No No
Descuentos Reservados Hasta 50% (reservado por 1-6 meses) No aplica No aplica 15-29% (planes de 1 mes a 1 año) No aplica No aplica
Créditos Gratis Crédito pequeño de prueba al registrarse Hasta $10,000 para startups $200 mediante programa de referidos Bono de $5 a $500 después del primer gasto de $10 Ninguno $200 de crédito gratis por 60 días
Tarifas de Salida Varía según el host ($/TB) Ninguno (Gratis) Ninguno Ninguno (Gratis) Ninguno Ninguno (incluido en el plan)
Almacenamiento Varía según el host ($/GB/hora, se cobra mientras la instancia exista) Disco de contenedor (60GB gratis), disco de volumen, volúmenes de red NVMe local incluido (hasta 4x 3.8TB), Almacenamiento en bloque $0.10/GB/mes, Almacenamiento en sistema de archivos $0.05/GB/mes Contenedor/Volumen ($0.10/GB/mes), Volumen inactivo ($0.20/GB/mes), Almacenamiento en red ($0.07/GB/mes 1TB) NVMe local incluido con las instancias Arranque NVMe de 500-720 GiB (incluido), scratch NVMe de 5 TiB en configuraciones más grandes, volúmenes a $0.10/GiB/mes
Infraestructura
Regiones Más de 500 ubicaciones, más de 40 centros de datos EE. UU., UE, APAC, Sudamérica, África, Medio Oriente (más de 20 ubicaciones) 23 ubicaciones: EE. UU. (8 ciudades), LATAM (5), Europa (5), APAC (4), Ciudad de México. GPU en Dallas, Frankfurt, Sídney, Tokio 31 regiones globales Estados Unidos (centros de datos Tier III) Nueva York (NYC2), Toronto (TOR1), Atlanta (ATL1), Richmond (RIC1), Ámsterdam (AMS3)
SLA de Disponibilidad Sin SLA formal (puntuaciones de confiabilidad del host visibles) 99.9% 99.9% 99.99% Tier III (diseño 99.98%) 99%
Experiencia del Desarrollador
Frameworks PyTorch TensorFlow CUDA vLLM ComfyUI PyTorch TensorFlow CUDA cuDNN TensorRT Imágenes optimizadas para ML PyTorch TensorFlow (instalado por el usuario) CUDA PyTorch TensorFlow JAX ONNX CUDA PyTorch TensorFlow CUDA cuDNN ComfyUI plantillas ML preconfiguradas PyTorch TensorFlow Jupyter Miniconda CUDA ROCm Hugging Face
Soporte Docker
Acceso SSH
Jupyter Notebooks No No
API / CLI
Tiempo de Configuración Segundos No aplica Segundos Instantáneo Minutos Minutos
Soporte de Kubernetes No No No No No
Términos Comerciales
Compromiso Mínimo Ninguno Ninguno Ninguno Ninguno Ninguno Ninguno
Cumplimiento SOC 2 Tipo 2 HIPAA GDPR CCPA SOC 2 Aislamiento de inquilino único DPA disponible SOC 2 Tipo II SOC 2 Tipo II HIPAA SOC 2 Tipo II SOC 3 HIPAA (con BAA) CSA STAR Nivel 1
Vast.ai Novita AI Latitude.sh RunPod Massed Compute DigitalOcean

Explorar NVIDIA L40S