Vast.ai
Vast.ai è un mercato di calcolo GPU a doppia faccia che collega sviluppatori con oltre 1.400 host indipendenti che offrono hardware GPU sottoutilizzato in più di 500 località in tutto il mondo. Aggregando l'offerta da data center indipendenti e fornitori individuali, Vast.ai offre calcolo GPU a un costo inferiore del 40-80% rispetto ai tradizionali hyperscaler come AWS, Azure e GCP.
La piattaforma supporta tre modelli di distribuzione: GPU Cloud (istanze individuali), Serverless (endpoint di inferenza con autoscaling) e Clusters (addestramento multi-nodo). Gli utenti possono avviare istanze ad alte prestazioni in pochi secondi utilizzando container Docker, scegliendo tra oltre 35 tipi di GPU che vanno dalle schede consumer RTX alle enterprise B200. I prezzi sono stabiliti dinamicamente dal mercato in base all'offerta e alla domanda.
Fondata nel 2018 da Jake Cannell, l'azienda gestisce oltre 20.000 GPU e ha raggiunto una crescita del 310% nel 2024. Possiede la certificazione SOC 2 Tipo 2 ed è particolarmente popolare tra ricercatori AI, ingegneri ML e sviluppatori indipendenti che necessitano di calcolo accessibile senza impegni a lungo termine.
GPU Hardware
| GPU Models | B200 H200 H100 SXM H100 NVL A100 SXM A100 PCIe RTX 5090 RTX 5080 RTX 5070 Ti RTX 6000 Pro RTX 6000 Ada RTX 4500 Ada RTX A6000 RTX A5000 RTX A4000 L40S L40 A40 A10 RTX 4090 RTX 4080 RTX 4070 Ti RTX 4070 RTX 4060 Ti RTX 4060 RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 Ti RTX 3070 Tesla V100 Tesla T4 A2 GTX 1080 |
| Max VRAM | 192 GB |
| Max GPUs per Instance | 8 |
| Interconnect | NVLink, InfiniBand |
| Multi-Node Training | Sì |
Pricing
| Starting Price | $0.06/hr |
| Billing Granularity | Per secondo |
| Spot/Preemptible | Sì |
| Reserved Discounts | Fino al 50% (prenotazione da 1 a 6 mesi) |
| Free Credits | Piccolo credito di prova all'iscrizione |
| Egress Fees | Varia in base all'host ($/TB) |
| Storage | Varia in base all'host ($/GB/ora, addebitato mentre l'istanza esiste) |
Prezzi guidati dal mercato: gli host stabiliscono le proprie tariffe in base all'offerta e alla domanda. Tre livelli disponibili — On-Demand (disponibilità garantita), Interruptible (oltre il 50% più economico tramite offerta), e Reserved (contratti di 1/3/6 mesi). Budget: RTX 4060 da $0,06/ora. Fascia media: RTX 4090 da $0,29/ora, A100 da $0,67/ora. Fascia alta: H100 da $1,55/ora, H200 da $1,97/ora, B200 da $2,67/ora. Nota: lo storage viene addebitato anche quando le istanze sono ferme, e le tariffe per la larghezza di banda si applicano per TB. Deposito minimo di $5 per iniziare.
Infrastructure
| Regions | Oltre 500 sedi, oltre 40 data center |
| Uptime SLA | Nessun SLA formale (punteggi di affidabilità dell'host visibili) |
| Serverless / Autoscaling | Sì |
| Private Networking / VPC | Sì |
Developer Experience
| Pre-installed Frameworks | PyTorch TensorFlow CUDA vLLM ComfyUI |
| Docker Support | Sì |
| SSH Access | Sì |
| Jupyter Notebooks | Sì |
| API / CLI | Sì |
| Setup Time | Secondi |
| Kubernetes Support | No |
| Custom Images / Templates | Sì |
| Persistent Storage | Sì |
Business Terms
| Min Commitment | Nessuno |
| Compliance | SOC 2 Tipo 2 HIPAA GDPR CCPA |
| Best For | Addestramento AI inferenza fine-tuning Stable Diffusion elaborazione batch ricerca erogazione LLM AI generativa |
| Support Channels | Chat Live (24/7) Discord Email Documentazione |
| Payment Methods | Carta di credito Cripto (Coinbase Crypto.com) |
Come si confronta?
Confronta Vast.ai con altri fornitori di GPU cloud.
Feedback degli Utenti
Non ci sono ancora recensioni pubbliche degli utenti per questo fornitore. Se ha utilizzato i loro servizi, sia il primo a lasciare una recensione breve e onesta per aiutare altri sviluppatori.
Condivida la Sua Esperienza
Un feedback breve e onesto aiuta altri sviluppatori a capire com'è realmente utilizzare questo fornitore.