How many providers offer NVIDIA A30?
回答
2 providers currently offer NVIDIA A30 in their cloud catalogues: Massed Compute, RunPod. Massed Compute is the cheapest on-demand option ($0.25 per hour); is the cheapest spot option ( per hour).
Before committing, verify three things: 1) current availability (stocks change daily on community clouds), 2) whether the listed price is per GPU or per instance (this matters for multi-GPU configurations), and 3) the billing granularity — per-second and per-minute billing meaningfully reduce costs on bursty workloads.
Two tracked cloud providers currently offer NVIDIA A30: Massed Compute and RunPod. Massed Compute has the cheaper rate at $0.25/hr.
NVIDIA A30に関するさらに多くのFAQ
マストコンピュート vs RunPod - GPUプロバイダー比較 (4月 2026)
マストコンピュートとRunPodの直接比較。最大資金、利益分配、日次・総合ドローダウン規則、レバレッジ、取引可能資産、支払い頻度、支払い方法、取引許可、KYC制限を購入前に確認。データ更新日 4月 2026。
|
マストコンピュート
エンジニアによる直接サポート付きGPUクラウド
|
RunPod
AIのために構築されたクラウド — サーバーレス推論から即時のマルチノードクラスタまで、GPUワークロードをオンデマンドで展開・スケール可能。
|
|
|---|---|---|
| 概要 | ||
| Trustpilot評価 | 0 | 3.7 |
| 本社所在地 | United States | United States |
| プロバイダータイプ | GPU特化型 | GPU特化型 |
| 最適用途 | AIトレーニング、推論、VFXレンダリング、生成AI、ファインチューニング、HPC、Stable Diffusion、研究 | AIトレーニング、推論、ファインチューニング、Stable Diffusion、バッチ処理、レンダリング、研究、LLMサービング、生成AI |
| GPUハードウェア | ||
| GPUモデル | A30、RTX A5000、RTX A6000、L40S、A100 SXM、H100 PCIe、H100 SXM、H100 NVL、RTX PRO 6000、H200 NVL | B300、B200、H200、H100 SXM、H100 PCIe、H100 NVL、MI300X、A100 SXM、A100 PCIe、RTX 5090、RTX PRO 6000、L40S、L40、RTX 6000 Ada、RTX 5000 Ada、RTX A6000、RTX A5000、RTX 4090、RTX 4080 SUPER、RTX 4080、RTX 4070 Ti、RTX 3090 Ti、RTX 3090、RTX 3080 Ti、RTX 3080、RTX 3070、A40、A30、A2、L4 |
| 最大VRAM(GB) | 141 | 288 |
| インスタンスあたり最大GPU数 | 8 | 8 |
| インターコネクト | NVLink | NVLink |
| 価格 | ||
| 開始価格($/時) | $0.35/hr | $0.06/hr |
| 請求単位 | 分単位 | 毎秒 |
| スポット/プリエンプティブル | いいえ | はい |
| 予約割引 | 該当なし | 15〜29%(1ヶ月〜1年プラン) |
| 無料クレジット | なし | 最初の10ドル使用後に5〜500ドルのボーナス |
| 転送料金 | なし | なし(無料) |
| ストレージ | インスタンスにローカルNVMeを含む | コンテナ/ボリューム(0.10ドル/GB/月)、アイドルボリューム(0.20ドル/GB/月)、ネットワークストレージ(0.07ドル/GB/月 1TB) |
| インフラストラクチャ | ||
| リージョン | アメリカ合衆国(Tier IIIデータセンター) | 31のグローバルリージョン |
| 稼働率SLA | Tier III(設計稼働率99.98%) | 99.99% |
| 開発者体験 | ||
| フレームワーク | PyTorch、TensorFlow、CUDA、cuDNN、ComfyUI、事前構成済みMLテンプレート | PyTorch、TensorFlow、JAX、ONNX、CUDA |
| Docker対応 | はい | はい |
| SSHアクセス | はい | はい |
| Jupyterノートブック | いいえ | はい |
| API / CLI | はい | はい |
| セットアップ時間 | 分 | 即時 |
| Kubernetesサポート | いいえ | いいえ |
| ビジネス条件 | ||
| 最低利用期間 | なし | なし |
| コンプライアンス | SOC 2 タイプII、HIPAA | SOC 2 タイプII |
RunPod