最佳 HBM3 云GPU — May 2026
HBM3为H100、GH200和MI300X提供动力——目前前沿AI训练的主力军。
MI300X 对比 GH200 Superchip 对比 H100 SXM — 本指南精选
|
MI300X
CDNA 3 · 192 GB
|
GH200 Superchip
霍普 · 96 GB
|
H100 SXM
霍普 · 80 GB
|
|
|---|---|---|---|
| 规格 | |||
| 制造商 | AMD | NVIDIA | NVIDIA |
| 架构 | CDNA 3 | 霍普 | 霍普 |
| 显存 | 192 GB HBM3 | 96 GB HBM3 | 80 GB HBM3 |
| 带宽 | 5,300 GB/s | 4,000 GB/s | 3,350 GB/s |
| FP16(张量) | 1,307 TFLOPS | 989 TFLOPS | 990 TFLOPS |
| FP32 | 163.4 TFLOPS | 494.5 TFLOPS | 67 TFLOPS |
| 热设计功耗 | 750 W | 700 W | 700 W |
| 发布年份 | 2023 | 2023 | 2023 |
| 细分市场 | 数据中心 | 数据中心 | 数据中心 |
| 云端价格 | |||
| 最便宜的按需 | $1.85/hr | — | $1.57/hr |
| 供应商 | 2 | 0 | 7 |
自定义 GPU 比较
从本指南中选择任意 2 款 GPU 并并排展示。
提示:GPU 比较成对进行。请选择恰好 2 款 — 若未选择,我们将打开本指南中的前 2 款。