最高のHBM2eクラウドGPU — May 2026

HBM2e(A100世代)— 現在クラウドで利用可能な最もコスト効率の高いHBM。

更新日 5月 2026 3 GPUモデルを表示中 HBM2e メモリ

A100 SXM (80GB) vs A100 SXM (40GB) vs A30 — このガイドのおすすめ

A100 SXM (80GB) vs A100 SXM (40GB) vs A30
A100 SXM (80GB)
アンペア · 80 GB
A100 SXM (40GB)
アンペア · 40 GB
A30
アンペア · 24 GB
仕様
製造元 NVIDIA NVIDIA NVIDIA
アーキテクチャ アンペア アンペア アンペア
VRAM 80 GB HBM2e 40 GB HBM2e 24 GB HBM2e
帯域幅 2,039 GB/s 1,555 GB/s 933 GB/s
FP16(テンソル) 312 TFLOPS 312 TFLOPS 165 TFLOPS
FP32 19.5 TFLOPS 19.5 TFLOPS 10.3 TFLOPS
TDP 400 W 400 W 165 W
発売年 2020 2020 2021
セグメント データセンター データセンター データセンター
クラウド価格
最安オンデマンド $1.10/hr $0.80/hr $0.25/hr
プロバイダー 6 2 2

自分だけのGPU比較を作成

このガイドから任意の2つのGPUを選び、並べて表示。

ヒント:GPU比較は2台ずつ行います。必ず2つ選択してください。未選択の場合はこのガイドの上位2つを表示します。