最高のHBM3クラウドGPU — May 2026

HBM3はH100、GH200、MI300Xを駆動し、現在の最先端AIトレーニングの主力です。

更新日 5月 2026 3 GPUモデルを表示中 HBM3 メモリ

MI300X vs GH200 Superchip vs H100 SXM — このガイドのおすすめ

MI300X vs GH200 Superchip vs H100 SXM
MI300X
CDNA 3 · 192 GB
GH200 Superchip
ホッパー · 96 GB
H100 SXM
ホッパー · 80 GB
仕様
製造元 AMD NVIDIA NVIDIA
アーキテクチャ CDNA 3 ホッパー ホッパー
VRAM 192 GB HBM3 96 GB HBM3 80 GB HBM3
帯域幅 5,300 GB/s 4,000 GB/s 3,350 GB/s
FP16(テンソル) 1,307 TFLOPS 989 TFLOPS 990 TFLOPS
FP32 163.4 TFLOPS 494.5 TFLOPS 67 TFLOPS
TDP 750 W 700 W 700 W
発売年 2023 2023 2023
セグメント データセンター データセンター データセンター
クラウド価格
最安オンデマンド $1.85/hr $1.57/hr
プロバイダー 2 0 7

自分だけのGPU比較を作成

このガイドから任意の2つのGPUを選び、並べて表示。

ヒント:GPU比較は2台ずつ行います。必ず2つ選択してください。未選択の場合はこのガイドの上位2つを表示します。