LLM Workloads向け最高のクラウドGPU — May 2026

LLM向けに調整されたGPU — 通常は最大VRAMと帯域幅を持つH/H200/BシリーズおよびAMD MI300+クラス。

更新日 5月 2026 2 GPUモデルを表示中 LLMに最適

MI300X vs H100 SXM — このガイドのおすすめ

MI300X vs H100 SXM
MI300X
CDNA 3 · 192 GB
H100 SXM
ホッパー · 80 GB
仕様
製造元 AMD NVIDIA
アーキテクチャ CDNA 3 ホッパー
VRAM 192 GB HBM3 80 GB HBM3
帯域幅 5,300 GB/s 3,350 GB/s
FP16(テンソル) 1,307 TFLOPS 990 TFLOPS
FP32 163.4 TFLOPS 67 TFLOPS
TDP 750 W 700 W
発売年 2023 2023
セグメント データセンター データセンター
クラウド価格
最安オンデマンド $1.85/hr $1.57/hr
プロバイダー 2 7

自分だけのGPU比較を作成

このガイドから任意の2つのGPUを選び、並べて表示。

ヒント:GPU比較は2台ずつ行います。必ず2つ選択してください。未選択の場合はこのガイドの上位2つを表示します。