Which provider has the most NVIDIA L40S regions?

Válasz

NVIDIA L40S is listed by 7 cloud GPU providers: DigitalOcean, Latitude.sh, Massed Compute, Novita AI, RunPod, Vast.ai, and others. Entry on-demand pricing starts at $0.55 per hour via Vast.ai, while spot capacity starts at $0.79 per hour via RunPod.

That's a relatively crowded market, which keeps rates competitive but also means provider-level differences in support, uptime, and egress policies are the real decision criteria. Serverless GPU offerings (where available) further reduce cost by billing only for the inference seconds you actually consume.

Ready to deploy? Vast.ai has NVIDIA L40S from $0.55/hr. Novita AI and Latitude.sh also carry it.

További GYIK-ek a(z) NVIDIA L40S témában

Vast.ai vs Novita AI vs Latitude.sh vs RunPod vs Massed Compute vs DigitalOcean – GPU szolgáltató összehasonlítás (Április 2026)

Oldalankénti összehasonlítás Vast.ai vs Novita AI vs Latitude.sh vs RunPod vs Massed Compute vs DigitalOcean-ről. Gyorsan áttekintheti a maximális finanszírozást, nyereségmegosztást, kockázati szabályokat, tőkeáttételt, platformokat, eszközöket, kifizetési ütemezéseket, fizetési lehetőségeket, kereskedési jogosultságokat és KYC korlátozásokat, hogy leszűkítse a kereskedési céglistáját. Adatok frissítve Április 2026.

Vast.ai vs Novita AI vs Latitude.sh vs RunPod vs Massed Compute vs DigitalOcean – GPU szolgáltató összehasonlítás (Április 2026)
Vast.ai
Azonnali GPU-k. Átlátható árképzés.
Visit Vast.ai
Novita AI
AI és ügynök felhőplatform több mint 200 modell API-val, GPU példányokkal és skálázható szerver nélküli következtetéssel.
Visit Novita AI
Latitude.sh
Bare metal GPU felhő 23 globális helyszínen
Visit Latitude.sh
RunPod
A mesterséges intelligenciához épített felhő — telepítsen és méretezzen GPU-munkaterheléseket a szerver nélküli következtetéstől az azonnali többcsomópontos klaszterekig igény szerint.
Visit RunPod
Massed Compute
GPU felhő közvetlen mérnöki támogatással
Visit Massed Compute
DigitalOcean
Egyszerű, skálázható GPU felhő AI/ML számára
Visit DigitalOcean
Áttekintés
Trustpilot értékelés 4.4 3.3 3.7 3.7 0 4.6
Székhely United States United States Brazil United States United States United States
Szolgáltató típusa GPU piactér GPU-központú Bare Metal GPU-központú GPU-központú Nem alkalmazható
Legalkalmasabb Mesterséges intelligencia képzés következtetés finomhangolás Stable Diffusion kötegelt feldolgozás kutatás LLM szolgáltatás generatív MI Mesterséges intelligencia képzés következtetés finomhangolás generatív MI kutatás LLM szolgáltatás Stable Diffusion Mesterséges intelligencia képzés következtetés bare metal GPU finomhangolás kutatás dedikált munkaterhelések generatív MI Mesterséges intelligencia képzés következtetés finomhangolás Stable Diffusion kötegelt feldolgozás renderelés kutatás LLM szolgáltatás generatív MI Mesterséges intelligencia képzés következtetés VFX renderelés generatív AI finomhangolás HPC Stable Diffusion kutatás Mesterséges intelligencia képzés következtetés finomhangolás nagynyelvű modellek telepítése nagynyelvű modellek kiszolgálása számítógépes látás startupok generatív MI kutatás
GPU Hardver
GPU modellek B200 H200 H100 SXM H100 NVL A100 SXM A100 PCIe RTX 5090 RTX 5080 RTX 5070 Ti RTX 6000 Pro RTX 6000 Ada RTX 4500 Ada RTX A6000 RTX A5000 RTX A4000 L40S L40 A40 A10 RTX 4090 RTX 4080 RTX 4070 Ti RTX 4070 RTX 4060 Ti RTX 4060 RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 Ti RTX 3070 Tesla V100 Tesla T4 A2 GTX 1080 H100 SXM A100 SXM L40S RTX 4090 RTX 6000 Ada RTX 5090 RTX 3090 A30 RTX A5000 RTX A6000 L40S RTX 6000 Ada A100 SXM H100 SXM GH200 RTX PRO 6000 B300 B200 H200 H100 SXM H100 PCIe H100 NVL MI300X A100 SXM A100 PCIe RTX 5090 RTX PRO 6000 L40S L40 RTX 6000 Ada RTX 5000 Ada RTX A6000 RTX A5000 RTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 A40 A30 A2 L4 A30 RTX A5000 RTX A6000 L40S A100 SXM H100 PCIe H100 SXM H100 NVL RTX PRO 6000 H200 NVL RTX 4000 Ada RTX 6000 Ada L40S MI300X H100 SXM H200
Max VRAM (GB) 192 80 96 288 141 192
Max GPU/instancia 8 8 8 8 8 8
Összeköttetés NVLink, InfiniBand NVLink NVLink NVLink NVLink NVLink
Árazás
Kezdő ár ($/óra) $0.06/hr $0.11/hr $0.35/hr $0.06/hr $0.35/hr $0.76/hr
Számlázási részletesség Másodpercenként Másodpercenként Óradíj Másodpercenként Percenként Másodpercenként
Spot/előzetesen megszakítható Igen Igen Nem Igen Nem Nem
Foglalt kedvezmények Akár 50% (1-6 hónapos előfoglalás esetén) Nem alkalmazható Nem alkalmazható 15-29% (1 hónapos és 1 éves tervek esetén) Nem alkalmazható Nem alkalmazható
Ingyenes kreditek Kis tesztkredit regisztrációkor Akár 10 000 dollár induló vállalkozásoknak 200 USD ajánlói programon keresztül 5-500 dolláros bónusz az első 10 dolláros költés után Nincs 200 dollár ingyenes kredit 60 napra
Kimenő díjak Gazdagépenként változó (USD/TB) Nincs (Ingyenes) Nincs Nincs (Ingyenes) Nincs Nincs (a csomag része)
Tárolás Gazdagépenként változó (USD/GB/óra, az instance létezése alatt felszámítva) Konténer lemez (60 GB ingyenes), kötet lemez, hálózati kötetek Helyi NVMe tartozék (akár 4x 3,8TB), blokk tárhely 0,10 USD/GB/hó, fájlrendszer tárhely 0,05 USD/GB/hó Konténer/Tároló ($0,10/GB/hó), Inaktív tároló ($0,20/GB/hó), Hálózati tároló ($0,07/GB/hó 1TB) Helyi NVMe a példányokhoz tartozóan 500-720 GiB NVMe boot (beleértve), 5 TiB NVMe ideiglenes tároló nagyobb konfigurációkban, kötetek 0,10 $/GiB/hó áron
Infrastruktúra
Régiók Több mint 500 helyszín, több mint 40 adatközpont USA, EU, APAC, Dél-Amerika, Afrika, Közel-Kelet (20+ helyszín) 23 helyszín: USA (8 város), LATAM (5), Európa (5), APAC (4), Mexikóváros. GPU elérhető Dallasban, Frankfurtban, Sydneyben, Tokióban 31 globális régió Egyesült Államok (Tier III adatközpontok) New York (NYC2), Toronto (TOR1), Atlanta (ATL1), Richmond (RIC1), Amszterdam (AMS3)
Üzemidő SLA Nincs hivatalos SLA (a gazdagép megbízhatósági pontszámai láthatók) 99,9% 99,9% 99,99% Tier III (99,98%-os tervezett rendelkezésre állás) 99%
Fejlesztői élmény
Keretrendszerek PyTorch TensorFlow CUDA vLLM ComfyUI PyTorch TensorFlow CUDA cuDNN TensorRT ML-optimalizált képek PyTorch TensorFlow (felhasználó által telepített) CUDA PyTorch TensorFlow JAX ONNX CUDA PyTorch TensorFlow CUDA cuDNN ComfyUI előre konfigurált gépi tanulási sablonok PyTorch TensorFlow Jupyter Miniconda CUDA ROCm Hugging Face
Docker támogatás Igen Igen Igen Igen Igen Igen
SSH hozzáférés Igen Igen Igen Igen Igen Igen
Jupyter jegyzetfüzetek Igen Igen Nem Igen Nem Igen
API / CLI Igen Igen Igen Igen Igen Igen
Beállítási idő Másodpercek Nem alkalmazható Másodpercek Azonnali Percek Percek
Kubernetes támogatás Nem Nem Nem Nem Nem Igen
Üzleti feltételek
Minimális elköteleződés Nincs Nincs Nincs Nincs Nincs Nincs
Megfelelőség SOC 2 Type 2 HIPAA GDPR CCPA SOC 2 Egybérlős izoláció DPA elérhető SOC 2 Type II SOC 2 Type II HIPAA SOC 2 Type II SOC 3 HIPAA (BAA-val) CSA STAR 1. szint
Vast.ai Novita AI Latitude.sh RunPod Massed Compute DigitalOcean

Fedezd fel a(z) NVIDIA L40S témát