Starting Price
$0.06/hr
Per hour
Max VRAM
288 GB
Per GPU
Max GPUs
8
Per instance
Billing
每秒
Granularity
GPU Hardware
| GPU Models | B300 B200 H200 H100 SXM H100 PCIe H100 NVL MI300X A100 SXM A100 PCIe RTX 5090 RTX PRO 6000 L40S L40 RTX 6000 Ada RTX 5000 Ada RTX A6000 RTX A5000 RTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 A40 A30 A2 L4 |
| Max VRAM | 288 GB |
| Max GPUs per Instance | 8 |
| Interconnect | NVLink |
| Multi-Node Training | 是 |
Pricing
| Starting Price | $0.06/hr |
| Billing Granularity | 每秒 |
| Spot/Preemptible | 是 |
| Reserved Discounts | 15-29%(1个月至1年计划) |
| Free Credits | 首次消费满10美元后奖励5-500美元 |
| Egress Fees | 无(免费) |
| Storage | 容器/卷(每GB每月0.10美元),空闲卷(每GB每月0.20美元),网络存储(每GB每月0.07美元 <1TB, $0.05/GB/mo >1TB) |
社区云 提供最低价格(例如 RTX A5000 每小时 $0.16),硬件来自分布式合作伙伴。 安全云 运行于 T3/T4 数据中心,可靠性更高,价格略高。
竞价实例 提供显著节省(例如 RTX 3090 竞价价为每小时 $0.22),但可能会被中断。 预留定价 通过 6 个月或 1 年承诺可节省约 30%(例如 B200:按需 $5.98/小时,1 年预留 $4.24/小时)。
存储单独计费:Pod 卷为 $0.10/GB/月,网络存储为 $0.07/GB/月。无出口费用。
Infrastructure
| Regions | 31个全球区域 |
| Uptime SLA | 99.99% |
| Serverless / Autoscaling | 是 |
| Private Networking / VPC | 是 |
Developer Experience
| Pre-installed Frameworks | PyTorch TensorFlow JAX ONNX CUDA |
| Docker Support | 是 |
| SSH Access | 是 |
| Jupyter Notebooks | 是 |
| API / CLI | 是 |
| Setup Time | 即时 |
| Kubernetes Support | 否 |
| Custom Images / Templates | 是 |
| Persistent Storage | 是 |
Business Terms
| Min Commitment | 无 |
| Compliance | SOC 2 类型 II |
| Best For | AI训练、推理、微调、Stable Diffusion、批处理、渲染、研究、大型语言模型服务、生成式AI |
| Support Channels | Discord,电子邮件,支持工单,文档 |
| Payment Methods | 信用卡,加密货币,ACH,电汇,企业开票(> $5K) |
VS
How does it compare?
Compare RunPod against other cloud GPU providers.
用户反馈
该供应商尚无公开用户评价。如果您使用过他们的服务,请成为首位留下简短诚实评价的人,帮助其他开发者。
分享您的体验
简短、诚实的反馈有助于其他开发者了解使用该供应商的真实体验。