NVIDIA B100 対 NVIDIA L4 — GPU 比較 (Apr 2026)
NVIDIA B100 (192GB HBM3e, 1,750 TFLOPS FP16, Blackwell) vs NVIDIA L4 (24GB GDDR6, 121 TFLOPS FP16, Ada Lovelace). Cloud pricing: NVIDIA L4 from $0.39/hr. Compare specs, VRAM, performance, and pricing across 1 cloud providers to find the best GPU for your AI workload.
|
NVIDIA B100
192GB HBM3e · Blackwell
|
NVIDIA L4
24GB GDDR6 · Ada Lovelace
|
||
|---|---|---|---|
| 仕様 | |||
| 製造元 | NVIDIA | NVIDIA | |
| アーキテクチャ | Blackwell | Ada Lovelace | |
| VRAM | 192 GB HBM3e | 24 GB GDDR6 | |
| 帯域幅 | 8,000 GB/s | 300 GB/s | |
| FP16 (Tensor) | 1750.0 TFLOPS | 121.0 TFLOPS | |
| FP32 | 60.0 TFLOPS | 30.3 TFLOPS | |
| TDP | 700W | 72W | |
| 発売年 | 2024 | 2023 | |
| セグメント | Data center | Data center | |
| 最適用途 | AI training large-scale inference | Inference video transcoding lightweight AI workloads | |
| クラウド価格 | |||
| 最安オンデマンド | — | $0.39/hr | |
| 最安スポット | — | — | |
| プロバイダー | 0 | 1 | |
| プロバイダー価格(オンデマンド) | |||
|
該当なし | $0.39/hr | |