クラウドでNVIDIA H100 SXMをレンタル — 7プロバイダーを比較
The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.
最安オンデマンド
$1.57/hr
平均オンデマンド
$2.44/hr
最安スポット
$1.49/hr
プロバイダー
7
NVIDIA H100 SXMクラウド価格比較 — 7プロバイダー
オンデマンド
| プロバイダー | 価格 / GPU / 時間 | 利用可能性 | 備考 | |
|---|---|---|---|---|
|
|
$1.57/hr | Available | GPU VM, NVLink | プロバイダーを訪問 ↗ |
|
|
$1.99/hr | Available | 24-month contract | プロバイダーを訪問 ↗ |
|
|
$2.20/hr | Available | Marketplace avg | プロバイダーを訪問 ↗ |
|
|
$2.35/hr | Available | PCIe | プロバイダーを訪問 ↗ |
|
|
$2.59/hr | Available | — | プロバイダーを訪問 ↗ |
|
|
$2.99/hr | Available | Secure Cloud, SXM | プロバイダーを訪問 ↗ |
|
|
$3.39/hr | Available | HGX H100 | プロバイダーを訪問 ↗ |
スポット / プリエンプティブル
| プロバイダー | 価格 / GPU / 時間 | 利用可能性 | 備考 | |
|---|---|---|---|---|
|
|
$1.49/hr | Available | Spot, 1hr guaranteed | プロバイダーを訪問 ↗ |
|
|
$2.69/hr | Available | Community Cloud | プロバイダーを訪問 ↗ |
リザーブド
| プロバイダー | 価格 / GPU / 時間 | 利用可能性 | 備考 | |
|---|---|---|---|---|
|
|
$2.50/hr | Available | 12-month, 8-GPU | プロバイダーを訪問 ↗ |
価格最終確認日: April 13, 2026
NVIDIA H100 SXM 技術仕様
| 製造元 | NVIDIA |
|---|---|
| アーキテクチャ | Hopper |
| VRAM | 80 GB HBM3 |
| 帯域幅 | 3,350 GB/s |
| FP16 (Tensor) | 990.0 TFLOPS |
| FP32 | 67.0 TFLOPS |
| TDP | 700W |
| 発売年 | 2023 |
| セグメント | Data center |
| 最適用途 | Large-scale AI training, distributed workloads, LLM pre-training |