NVIDIA B100 против NVIDIA L4 — сравнение GPU (Apr 2026)
NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell) vs NVIDIA L4 (24GB GDDR6, 121 TFLOPS FP16, Ada Lovelace). Cloud pricing: NVIDIA L4 from $0.39/hr. Compare specs, VRAM, performance, and pricing across 1 cloud providers to find the best GPU for your AI workload.
|
NVIDIA B100
192GB HBM3e · Blackwell
|
NVIDIA L4
24GB GDDR6 · Ada Lovelace
|
||
|---|---|---|---|
| Характеристики | |||
| Производитель | NVIDIA | NVIDIA | |
| Архитектура | Blackwell | Ada Lovelace | |
| VRAM | 192 GB HBM3e | 24 GB GDDR6 | |
| Пропускная способность | 8,000 GB/s | 300 GB/s | |
| FP16 (Tensor) | 1750.0 TFLOPS | 121.0 TFLOPS | |
| FP32 | 60.0 TFLOPS | 30.3 TFLOPS | |
| TDP | 700W | 72W | |
| Год выпуска | 2024 | 2023 | |
| Сегмент | Data center | Data center | |
| Лучшее для | AI training large-scale inference | Inference video transcoding lightweight AI workloads | |
| Облачные цены | |||
| Самый дешёвый On-Demand | — | $0.39/hr | |
| Самый дешёвый Spot | — | — | |
| Провайдеры | 0 | 1 | |
| Цены провайдера (по запросу) | |||
|
Н/Д | $0.39/hr | |