NVIDIA B100 против NVIDIA L4 — сравнение GPU (Apr 2026)

NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell) vs NVIDIA L4 (24GB GDDR6, 121 TFLOPS FP16, Ada Lovelace). Cloud pricing: NVIDIA L4 from $0.39/hr. Compare specs, VRAM, performance, and pricing across 1 cloud providers to find the best GPU for your AI workload.

NVIDIA B100 против NVIDIA L4 — сравнение GPU (Apr 2026)
NVIDIA B100
192GB HBM3e · Blackwell
View NVIDIA B100 Pricing
NVIDIA L4
24GB GDDR6 · Ada Lovelace
View NVIDIA L4 Pricing
Характеристики
Производитель NVIDIA NVIDIA
Архитектура Blackwell Ada Lovelace
VRAM 192 GB HBM3e 24 GB GDDR6
Пропускная способность 8,000 GB/s 300 GB/s
FP16 (Tensor) 1750.0 TFLOPS 121.0 TFLOPS
FP32 60.0 TFLOPS 30.3 TFLOPS
TDP 700W 72W
Год выпуска 2024 2023
Сегмент Data center Data center
Лучшее для AI training large-scale inference Inference video transcoding lightweight AI workloads
Облачные цены
Самый дешёвый On-Demand $0.39/hr
Самый дешёвый Spot
Провайдеры 0 1
Цены провайдера (по запросу)
RunPod Н/Д $0.39/hr
NVIDIA B100 NVIDIA L4