AMD Instinct MI350X 대 NVIDIA B100 — GPU 비교 (Apr 2026)

AMD Instinct MI350X (288GB HBM3e, 1,800 TFLOPS FP16, CDNA 4) vs NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell)

AMD Instinct MI350X 대 NVIDIA B100 — GPU 비교 (Apr 2026)
AMD Instinct MI350X
288GB HBM3e · CDNA 4
View AMD Instinct MI350X Pricing
NVIDIA B100
192GB HBM3e · Blackwell
View NVIDIA B100 Pricing
사양
제조사 AMD NVIDIA
아키텍처 CDNA 4 Blackwell
VRAM 288 GB HBM3e 192 GB HBM3e
대역폭 8,000 GB/s 8,000 GB/s
FP16 (Tensor) 1800.0 TFLOPS 1750.0 TFLOPS
FP32 72.0 TFLOPS 60.0 TFLOPS
TDP 1000W 700W
출시 연도 2025 2024
세그먼트 Data center Data center
최적 용도 Next-gen AI training inference at scale AI training large-scale inference
클라우드 가격
가장 저렴한 온디맨드
가장 저렴한 스팟
공급업체 1 0
AMD Instinct MI350X NVIDIA B100