ラティチュード.shからどのGPUハードウェアをレンタルできますか?

回答

ラティチュード.shのGPU在庫は以下のモデルをカバーしています:

A30、RTX A5000、RTX A6000、L40S、RTX 6000 Ada、A100 SXM、H100 SXM、GH200、RTX PRO 6000

主要ハードウェア仕様:
- 最大VRAM:96 GB(GPUあたり)
- 最大GPU数:8(インスタンスあたり)
- インターコネクト:NVLink

このアクセラレータのラインナップにより、ラティチュード.shは予算GPUでのプロトタイピングから本番推論や分散トレーニングジョブの実行まで幅広く対応可能です。

すべてのGPU構成とクラスタオプションはラティチュード.sh公式ウェブサイトでご覧いただけます。

ラティチュード.sh に関するその他のFAQ

ラティチュード.sh が掲載されているガイド

これらのガイドには、GPUの特徴、フレームワーク、可用性、開発者要件ごとに分類された他のクラウドGPUプロバイダーと共に ラティチュード.sh が含まれています。

ラティチュード.sh 対 Vultr 対 マストコンピュート - GPU Provider Comparison (4月 2026)

Side-by-side comparison of ラティチュード.sh 対 Vultr 対 マストコンピュート. Quickly scan maximum funding, profit splits, risk rules, leverage, platforms, instruments, payout schedules, payment options, trading permissions and KYC restrictions to narrow down your prop trading firm shortlist. Data updated 4月 2026.

ラティチュード.sh 対 Vultr 対 マストコンピュート - GPU Provider Comparison (4月 2026)
ラティチュード.sh
23の世界各地で展開するベアメタルGPUクラウド
Visit ラティチュード.sh
Vultr
32のグローバルリージョンにまたがる高性能クラウドGPU
Visit Vultr
マストコンピュート
エンジニアによる直接サポート付きGPUクラウド
Visit マストコンピュート
概要
Trustpilot評価 3.7 1.8 0
本社所在地 Brazil United States United States
プロバイダータイプ ベアメタル マルチクラウド GPU特化型
最適用途 AIトレーニング、推論、ベアメタルGPU、ファインチューニング、研究、専用ワークロード、生成AI AIトレーニング、推論、ビデオレンダリング、HPC、Stable Diffusion、ゲーム開発、生成AI、ファインチューニング、研究 AIトレーニング、推論、VFXレンダリング、生成AI、ファインチューニング、HPC、Stable Diffusion、研究
GPU Hardware
GPUモデル A30、RTX A5000、RTX A6000、L40S、RTX 6000 Ada、A100 SXM、H100 SXM、GH200、RTX PRO 6000 A16、A40、L40S、A100 PCIe、GH200、A100 SXM、H100 SXM、B200、B300、MI300X、MI325X、MI355X A30、RTX A5000、RTX A6000、L40S、A100 SXM、H100 PCIe、H100 SXM、H100 NVL、RTX PRO 6000、H200 NVL
最大VRAM(GB) 96 288 141
インスタンスあたり最大GPU数 8 16 8
インターコネクト NVLink NVLink NVLink
Pricing
開始価格($/時) $0.35/hr $0.47/hr $0.35/hr
請求単位 時間単位 時間単位 分単位
スポット/プリエンプティブル 0 1 0
予約割引 該当なし 該当なし 該当なし
無料クレジット 紹介プログラムで200ドル 30日間で最大300ドルの無料クレジット なし
転送料金 なし 標準(プランにより異なる) なし
ストレージ ローカルNVMe込み(最大4台×3.8TB)、ブロックストレージは月額0.10ドル/GB、ファイルシステムストレージは月額0.05ドル/GB 350 GB~61 TBのNVMe(含む)、ブロックストレージは月額0.10ドル/GB、S3互換オブジェクトストレージ インスタンスにローカルNVMeを含む
Infrastructure
リージョン 23拠点:米国(8都市)、ラテンアメリカ(5)、ヨーロッパ(5)、アジア太平洋(4)、メキシコシティ。GPUはダラス、フランクフルト、シドニー、東京に配置 6大陸(アメリカ、ヨーロッパ、アジア、オーストラリア、アフリカ)にまたがる32リージョン アメリカ合衆国(Tier IIIデータセンター)
稼働率SLA 99.9% 100% Tier III(設計稼働率99.98%)
Developer Experience
フレームワーク ML最適化イメージ、PyTorch、TensorFlow(ユーザーインストール)、CUDA PyTorch、TensorFlow、CUDA、cuDNN、ROCm、Hugging Face、NVIDIA NGC PyTorch、TensorFlow、CUDA、cuDNN、ComfyUI、事前構成済みMLテンプレート
Docker対応 1 1 1
SSHアクセス 1 1 1
Jupyterノートブック 0 1 0
API / CLI 1 1 1
セットアップ時間 秒単位 数分
Kubernetes Support 0 1 0
Business Terms
最低利用期間 なし なし なし
コンプライアンス シングルテナント分離、DPA対応可能 SOC 2+(HIPAA)、PCI、ISO 27001、ISO 27017、ISO 27018、ISO 20000-1、CSA STAR レベル1 SOC 2 タイプII、HIPAA
ラティチュード.sh Vultr マストコンピュート