最高のAmpereクラウドGPU — May 2026
Ampere — A100、A40、A30、A10、A2、RTX A6000、RTX 30シリーズ — はクラウドで最も広く利用可能なGPUファミリーで、しばしば最高の$/時間を提供します。
NVIDIA
80 GB
A100 SXM (80GB)
HBM2e
Ampere
$1.10/hr
NVIDIA
64 GB
A16
GDDR6
Ampere
$0.47/hr
NVIDIA
48 GB
A40
GDDR6
Ampere
$0.30/hr
NVIDIA
40 GB
A100 SXM (40GB)
HBM2e
Ampere
$0.80/hr
NVIDIA
24 GB
A30
HBM2e
Ampere
$0.25/hr
NVIDIA
24 GB
A10G
GDDR6
Ampere
NVIDIA
16 GB
A2
GDDR6
Ampere
$0.22/hr
NVIDIA
48 GB
RTX A6000
GDDR6
Ampere
$0.30/hr
NVIDIA
24 GB
RTX A5000
GDDR6
Ampere
NVIDIA
16 GB
RTX A4000
GDDR6
Ampere
NVIDIA
24 GB
RTX 3090
GDDR6X
Ampere
$0.12/hr
NVIDIA
24 GB
RTX 3090 Ti
GDDR6X
Ampere
NVIDIA
12 GB
RTX 3080 Ti
GDDR6X
Ampere
NVIDIA
10 GB
RTX 3080
GDDR6X
Ampere
NVIDIA
8 GB
RTX 3070 Ti
GDDR6X
Ampere
NVIDIA
8 GB
RTX 3070
GDDR6
Ampere
A100 SXM (80GB) vs A16 vs A40 — このガイドのおすすめ
|
A100 SXM (80GB)
アンペア · 80 GB
|
A16
アンペア · 64 GB
|
A40
アンペア · 48 GB
|
|
|---|---|---|---|
| 仕様 | |||
| 製造元 | NVIDIA | NVIDIA | NVIDIA |
| アーキテクチャ | アンペア | アンペア | アンペア |
| VRAM | 80 GB HBM2e | 64 GB GDDR6 | 48 GB GDDR6 |
| 帯域幅 | 2,039 GB/s | 800 GB/s | 696 GB/s |
| FP16(テンソル) | 312 TFLOPS | 72 TFLOPS | 150 TFLOPS |
| FP32 | 19.5 TFLOPS | 18 TFLOPS | 37.4 TFLOPS |
| TDP | 400 W | 250 W | 300 W |
| 発売年 | 2020 | 2021 | 2020 |
| セグメント | データセンター | データセンター | データセンター |
| クラウド価格 | |||
| 最安オンデマンド | $1.10/hr | $0.47/hr | $0.30/hr |
| プロバイダー | 6 | 2 | 5 |
自分だけのGPU比較を作成
このガイドから任意の2つのGPUを選び、並べて表示。
ヒント:GPU比較は2台ずつ行います。必ず2つ選択してください。未選択の場合はこのガイドの上位2つを表示します。