Vast.ai 的 GPU 实例最大显存是多少?
答案
Vast.ai 的 GPU 队列包括数据中心和工作站级加速器:
B200,H200,H100 SXM,H100 NVL,A100 SXM,A100 PCIe,RTX 5090,RTX 5080,RTX 5070 Ti,RTX 6000 Pro,RTX 6000 Ada,RTX 4500 Ada,RTX A6000,RTX A5000,RTX A4000,L40S,L40,A40,A10,RTX 4090,RTX 4080,RTX 4070 Ti,RTX 4070,RTX 4060 Ti,RTX 4060,RTX 3090 Ti,RTX 3090,RTX 3080 Ti,RTX 3080,RTX 3070 Ti,RTX 3070,Tesla V100,Tesla T4,A2,GTX 1080
每个 GPU 的最大显存:192 GB
每个实例的最大 GPU 数量:8
互联技术:NVLink,InfiniBand
该硬件选择涵盖了从基于消费级 GPU 的经济型推理到企业级加速器的大规模分布式训练的使用场景。
有关详细的 GPU 规格、显存配置和多 GPU 选项,请查看 Vast.ai 官方网站。
更多关于 Vast.ai 的常见问题
包含 Vast.ai 的指南
- 具备无服务器GPU推理的云GPU提供商
- 具有 NVLink 或 InfiniBand 的云 GPU 提供商
- 具有持久存储的云GPU提供商
- 推理与模型服务的最佳云GPU
- 提供 SSH 访问的云 GPU 服务商
- 提供API和CLI管理的云GPU服务商
- 提供免费额度的云GPU服务商
- 提供抢占式/可中断实例的云GPU供应商
- 提供按秒计费的云GPU服务商
- 支持 Docker 和自定义镜像的云 GPU 提供商
- 支持 Jupyter Notebook 的云 GPU 提供商
- 支持 Kubernetes 的云 GPU 提供商
- 支持多节点GPU集群的云GPU提供商
- 每小时低于0.50美元的最便宜云GPU
- 配备NVIDIA L40S的最佳云GPU提供商
- 零出站费用的云GPU提供商
这些指南将 Vast.ai 与其他云GPU提供商一起列出,按GPU特性、框架、可用性和开发者需求分组。
Vast.ai vs Vultr - GPU提供商比较(四月 2026)
Vast.ai与Vultr的正面比较。购买挑战前请查看最大资金、利润分成、每日及总体回撤规则、杠杆、可交易资产、支付频率、支付及提款方式、交易权限和KYC限制。数据更新于四月 2026。
|
Vast.ai
即时GPU。透明定价。
|
Vultr
跨越32个全球区域的高性能云GPU
|
|
|---|---|---|
| 概览 | ||
| Trustpilot 评分 | 4.4 | 1.8 |
| 总部 | United States | United States |
| 供应商类型 | GPU市场 | 多云 |
| 适用场景 | AI训练,推理,微调,Stable Diffusion,批处理,研究,大型语言模型服务,生成式AI | 人工智能训练、推理、视频渲染、高性能计算、稳定扩散、游戏开发、生成式人工智能、微调、研究 |
| GPU Hardware | ||
| GPU 型号 | B200,H200,H100 SXM,H100 NVL,A100 SXM,A100 PCIe,RTX 5090,RTX 5080,RTX 5070 Ti,RTX 6000 Pro,RTX 6000 Ada,RTX 4500 Ada,RTX A6000,RTX A5000,RTX A4000,L40S,L40,A40,A10,RTX 4090,RTX 4080,RTX 4070 Ti,RTX 4070,RTX 4060 Ti,RTX 4060,RTX 3090 Ti,RTX 3090,RTX 3080 Ti,RTX 3080,RTX 3070 Ti,RTX 3070,Tesla V100,Tesla T4,A2,GTX 1080 | A16、A40、L40S、A100 PCIe、GH200、A100 SXM、H100 SXM、B200、B300、MI300X、MI325X、MI355X |
| 最大显存 (GB) | 192 | 288 |
| 每实例最大 GPU 数 | 8 | 16 |
| 互联 | NVLink,InfiniBand | NVLink |
| Pricing | ||
| 起始价格 ($/小时) | $0.06/hr | $0.47/hr |
| 计费粒度 | 每秒 | 按小时计费 |
| 竞价/可抢占 | 1 | 1 |
| 预留折扣 | 最高可达50%(1-6个月预订) | 不适用 |
| 免费额度 | 注册时赠送少量测试积分 | 最高300美元免费额度,期限30天 |
| 出站费用 | 根据主机不同而异($/TB) | 标准(根据计划不同而异) |
| 存储 | 根据主机不同而异($/GB/小时,实例存在期间计费) | 350 GB - 61 TB NVMe(包含),块存储每月0.10美元/GB,兼容S3的对象存储 |
| Infrastructure | ||
| 区域 | 500+地点,40+数据中心 | 覆盖6大洲32个区域(美洲、欧洲、亚洲、澳大利亚、非洲) |
| 正常运行时间 SLA | 无正式SLA(可见主机可靠性评分) | 100% |
| Developer Experience | ||
| 框架 | PyTorch,TensorFlow,CUDA,vLLM,ComfyUI | PyTorch、TensorFlow、CUDA、cuDNN、ROCm、Hugging Face、NVIDIA NGC |
| Docker 支持 | 1 | 1 |
| SSH 访问 | 1 | 1 |
| Jupyter 笔记本 | 1 | 1 |
| API / 命令行界面 | 1 | 1 |
| 设置时间 | 秒 | 分钟 |
| Kubernetes Support | 0 | 1 |
| Business Terms | ||
| 最小承诺 | 无 | 无 |
| 合规性 | SOC 2 类型2,HIPAA,GDPR,CCPA | SOC 2+(HIPAA)、PCI、ISO 27001、ISO 27017、ISO 27018、ISO 20000-1、CSA STAR 1级 |
Vultr