48+ GB VRAM搭載最高のクラウドGPU — May 2026
48 GB以上のVRAMは、30B〜70Bモデルの単一GPUでのファインチューニングや、プロダクションのマルチテナント推論に最適です。
NVIDIA
384 GB
GB200 Superchip
HBM3e
Blackwell
NVIDIA
288 GB
B300
HBM3e
Blackwell Ultra
AMD
288 GB
MI350X
HBM3e
CDNA 4
AMD
288 GB
MI355X
HBM3e
CDNA 4
$2.59/hr
AMD
256 GB
MI325X
HBM3e
CDNA 3
$2.00/hr
NVIDIA
192 GB
B200
HBM3e
Blackwell
$1.99/hr
NVIDIA
192 GB
B100
HBM3e
Blackwell
AMD
192 GB
MI300X
HBM3
CDNA 3
$1.85/hr
NVIDIA
141 GB
H200 SXM
HBM3e
Hopper
$2.05/hr
NVIDIA
96 GB
GH200 Superchip
HBM3
Hopper
NVIDIA
80 GB
H100 SXM
HBM3
Hopper
$1.57/hr
NVIDIA
80 GB
A100 SXM (80GB)
HBM2e
Ampere
$1.10/hr
NVIDIA
64 GB
A16
GDDR6
Ampere
$0.47/hr
NVIDIA
48 GB
L40S
GDDR6
Ada Lovelace
$0.55/hr
NVIDIA
48 GB
L40
GDDR6
Ada Lovelace
NVIDIA
48 GB
A40
GDDR6
Ampere
$0.30/hr
NVIDIA
96 GB
RTX PRO 6000
GDDR7
Blackwell
$1.71/hr
NVIDIA
48 GB
RTX 6000 Ada
GDDR6
Ada Lovelace
$0.47/hr
NVIDIA
48 GB
RTX A6000
GDDR6
Ampere
$0.30/hr
GB200 Superchip vs B300 vs MI350X — このガイドのおすすめ
|
GB200 Superchip
ブラックウェル · 384 GB
|
B300
ブラックウェル ウルトラ · 288 GB
|
MI350X
CDNA 4 · 288 GB
|
|
|---|---|---|---|
| 仕様 | |||
| 製造元 | NVIDIA | NVIDIA | AMD |
| アーキテクチャ | ブラックウェル | ブラックウェル ウルトラ | CDNA 4 |
| VRAM | 384 GB HBM3e | 288 GB HBM3e | 288 GB HBM3e |
| 帯域幅 | 16,000 GB/s | 8,000 GB/s | 8,000 GB/s |
| FP16(テンソル) | 4,500 TFLOPS | 2,250 TFLOPS | 1,800 TFLOPS |
| FP32 | 150 TFLOPS | 75 TFLOPS | 72 TFLOPS |
| TDP | 2700 W | 1400 W | 1000 W |
| 発売年 | 2024 | 2025 | 2025 |
| セグメント | データセンター | データセンター | データセンター |
| クラウド価格 | |||
| 最安オンデマンド | — | — | — |
| プロバイダー | 0 | 1 | 1 |
自分だけのGPU比較を作成
このガイドから任意の2つのGPUを選び、並べて表示。
ヒント:GPU比較は2台ずつ行います。必ず2つ選択してください。未選択の場合はこのガイドの上位2つを表示します。