AMD Instinct MI350X 対 NVIDIA B100 — GPU 比較 (Apr 2026)

AMD Instinct MI350X (288GB HBM3e, 1,800 TFLOPS FP16, CDNA 4) vs NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell)

AMD Instinct MI350X 対 NVIDIA B100 — GPU 比較 (Apr 2026)
AMD Instinct MI350X
288GB HBM3e · CDNA 4
View AMD Instinct MI350X Pricing
NVIDIA B100
192GB HBM3e · Blackwell
View NVIDIA B100 Pricing
仕様
製造元 AMD NVIDIA
アーキテクチャ CDNA 4 Blackwell
VRAM 288 GB HBM3e 192 GB HBM3e
帯域幅 8,000 GB/s 8,000 GB/s
FP16 (Tensor) 1800.0 TFLOPS 1750.0 TFLOPS
FP32 72.0 TFLOPS 60.0 TFLOPS
TDP 1000W 700W
発売年 2025 2024
セグメント Data center Data center
最適用途 Next-gen AI training inference at scale AI training large-scale inference
クラウド価格
最安オンデマンド
最安スポット
プロバイダー 1 0
AMD Instinct MI350X NVIDIA B100