クラウドでNVIDIA H100 SXMをレンタル — 7プロバイダーを比較

The flagship data center GPU for AI training. Industry standard for large language model training with 80GB HBM3 memory and NVLink interconnects.

VRAM 80 GB HBM3
帯域幅 3,350 GB/s
FP16 990.0 TFLOPS
FP32 67.0 TFLOPS
TDP 700W
アーキテクチャ Hopper
最安オンデマンド $1.57/hr
平均オンデマンド $2.44/hr
最安スポット $1.49/hr
プロバイダー 7

NVIDIA H100 SXMクラウド価格比較 — 7プロバイダー

オンデマンド

プロバイダー 価格 / GPU / 時間 利用可能性 備考
Latitude.sh $1.57/hr Available GPU VM, NVLink プロバイダーを訪問 ↗
Vultr $1.99/hr Available 24-month contract プロバイダーを訪問 ↗
Vast.ai $2.20/hr Available Marketplace avg プロバイダーを訪問 ↗
Massed Compute $2.35/hr Available PCIe プロバイダーを訪問 ↗
Novita AI $2.59/hr Available プロバイダーを訪問 ↗
RunPod $2.99/hr Available Secure Cloud, SXM プロバイダーを訪問 ↗
DigitalOcean $3.39/hr Available HGX H100 プロバイダーを訪問 ↗

スポット / プリエンプティブル

プロバイダー 価格 / GPU / 時間 利用可能性 備考
Novita AI $1.49/hr Available Spot, 1hr guaranteed プロバイダーを訪問 ↗
RunPod $2.69/hr Available Community Cloud プロバイダーを訪問 ↗

リザーブド

プロバイダー 価格 / GPU / 時間 利用可能性 備考
DigitalOcean $2.50/hr Available 12-month, 8-GPU プロバイダーを訪問 ↗

価格最終確認日: April 13, 2026

NVIDIA H100 SXM 技術仕様

製造元NVIDIA
アーキテクチャHopper
VRAM80 GB HBM3
帯域幅3,350 GB/s
FP16 (Tensor)990.0 TFLOPS
FP3267.0 TFLOPS
TDP700W
発売年2023
セグメントData center
最適用途Large-scale AI training, distributed workloads, LLM pre-training