最高のHBM3クラウドGPU — May 2026
HBM3はH100、GH200、MI300Xを駆動し、現在の最先端AIトレーニングの主力です。
MI300X vs GH200 Superchip vs H100 SXM — このガイドのおすすめ
|
MI300X
CDNA 3 · 192 GB
|
GH200 Superchip
ホッパー · 96 GB
|
H100 SXM
ホッパー · 80 GB
|
|
|---|---|---|---|
| 仕様 | |||
| 製造元 | AMD | NVIDIA | NVIDIA |
| アーキテクチャ | CDNA 3 | ホッパー | ホッパー |
| VRAM | 192 GB HBM3 | 96 GB HBM3 | 80 GB HBM3 |
| 帯域幅 | 5,300 GB/s | 4,000 GB/s | 3,350 GB/s |
| FP16(テンソル) | 1,307 TFLOPS | 989 TFLOPS | 990 TFLOPS |
| FP32 | 163.4 TFLOPS | 494.5 TFLOPS | 67 TFLOPS |
| TDP | 750 W | 700 W | 700 W |
| 発売年 | 2023 | 2023 | 2023 |
| セグメント | データセンター | データセンター | データセンター |
| クラウド価格 | |||
| 最安オンデマンド | $1.85/hr | — | $1.57/hr |
| プロバイダー | 2 | 0 | 7 |
自分だけのGPU比較を作成
このガイドから任意の2つのGPUを選び、並べて表示。
ヒント:GPU比較は2台ずつ行います。必ず2つ選択してください。未選択の場合はこのガイドの上位2つを表示します。