AMD Instinct MI350X 対 NVIDIA B100 — GPU 比較 (Apr 2026)
AMD Instinct MI350X (288GB HBM3e, 1,800 TFLOPS FP16, CDNA 4) vs NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell)
|
AMD Instinct MI350X
288GB HBM3e · CDNA 4
|
NVIDIA B100
192GB HBM3e · Blackwell
|
||
|---|---|---|---|
| 仕様 | |||
| 製造元 | AMD | NVIDIA | |
| アーキテクチャ | CDNA 4 | Blackwell | |
| VRAM | 288 GB HBM3e | 192 GB HBM3e | |
| 帯域幅 | 8,000 GB/s | 8,000 GB/s | |
| FP16 (Tensor) | 1800.0 TFLOPS | 1750.0 TFLOPS | |
| FP32 | 72.0 TFLOPS | 60.0 TFLOPS | |
| TDP | 1000W | 700W | |
| 発売年 | 2025 | 2024 | |
| セグメント | Data center | Data center | |
| 最適用途 | Next-gen AI training inference at scale | AI training large-scale inference | |
| クラウド価格 | |||
| 最安オンデマンド | — | — | |
| 最安スポット | — | — | |
| プロバイダー | 1 | 0 | |