GPUs en la nube con ancho de banda de memoria de 2 TB/s+ — May 2026
Más de 2 TB/s — el estándar para el rendimiento de memoria en aceleradores de IA serios.
NVIDIA
384 GB
GB200 Superchip
HBM3e
Blackwell
NVIDIA
288 GB
B300
HBM3e
Blackwell Ultra
AMD
288 GB
MI350X
HBM3e
CDNA 4
AMD
288 GB
MI355X
HBM3e
CDNA 4
$2.59/hr
AMD
256 GB
MI325X
HBM3e
CDNA 3
$2.00/hr
NVIDIA
192 GB
B200
HBM3e
Blackwell
$1.99/hr
NVIDIA
192 GB
B100
HBM3e
Blackwell
AMD
192 GB
MI300X
HBM3
CDNA 3
$1.85/hr
NVIDIA
141 GB
H200 SXM
HBM3e
Hopper
$2.05/hr
NVIDIA
96 GB
GH200 Superchip
HBM3
Hopper
NVIDIA
80 GB
H100 SXM
HBM3
Hopper
$1.57/hr
NVIDIA
80 GB
A100 SXM (80GB)
HBM2e
Ampere
$1.10/hr
GB200 Superchip vs B300 vs MI350X — mejores opciones de esta guía
|
GB200 Superchip
Blackwell · 384 GB
|
B300
Blackwell Ultra · 288 GB
|
MI350X
CDNA 4 · 288 GB
|
|
|---|---|---|---|
| Especificaciones | |||
| Fabricante | NVIDIA | NVIDIA | AMD |
| Arquitectura | Blackwell | Blackwell Ultra | CDNA 4 |
| VRAM | 384 GB HBM3e | 288 GB HBM3e | 288 GB HBM3e |
| Ancho de Banda | 16,000 GB/s | 8,000 GB/s | 8,000 GB/s |
| FP16 (Tensor) | 4,500 TFLOPS | 2,250 TFLOPS | 1,800 TFLOPS |
| FP32 | 150 TFLOPS | 75 TFLOPS | 72 TFLOPS |
| TDP | 2700 W | 1400 W | 1000 W |
| Año de Lanzamiento | 2024 | 2025 | 2025 |
| Segmento | Centro de datos | Centro de datos | Centro de datos |
| Precios en la Nube | |||
| Más Barato Bajo Demanda | — | — | — |
| Proveedores | 0 | 1 | 1 |
Construya su propia comparación de GPU
Seleccione cualquier 2 GPUs de esta guía y ábralas lado a lado.
Consejo: Las comparaciones de GPU se hacen en pares. Elija exactamente 2 — si no selecciona, abriremos las 2 principales de esta guía.