NVIDIA B100 vs NVIDIA GH200 Superchip — Confronto GPU (Apr 2026)

NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell) vs NVIDIA GH200 Superchip (96GB HBM3, 989 TFLOPS FP16, Hopper)

NVIDIA B100 vs NVIDIA GH200 Superchip — Confronto GPU (Apr 2026)
NVIDIA B100
192GB HBM3e · Blackwell
View NVIDIA B100 Pricing
NVIDIA GH200 Superchip
96GB HBM3 · Hopper
View NVIDIA GH200 Superchip Pricing
Specifiche
Produttore NVIDIA NVIDIA
Architettura Blackwell Hopper
VRAM 192 GB HBM3e 96 GB HBM3
Larghezza di banda 8,000 GB/s 4,000 GB/s
FP16 (Tensor) 1750.0 TFLOPS 989.0 TFLOPS
FP32 60.0 TFLOPS 494.5 TFLOPS
TDP 700W 700W
Anno di rilascio 2024 2023
Segmento Data center Data center
Ideale per AI training large-scale inference Large-scale AI training HPC
Prezzi Cloud
Più economico On-Demand
Più economico Spot
Provider 0 0
NVIDIA B100 NVIDIA GH200 Superchip