クラウドでNVIDIA A100 SXM (80GB)をレンタル — 6プロバイダーを比較

Previous-generation workhorse for AI training and inference. Still widely available at lower cost than H100.

VRAM 80 GB HBM2e
帯域幅 2,039 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
アーキテクチャ Ampere
最安オンデマンド $1.10/hr
平均オンデマンド $1.67/hr
最安スポット $0.79/hr
プロバイダー 6

NVIDIA A100 SXM (80GB)クラウド価格比較 — 6プロバイダー

オンデマンド

プロバイダー 価格 / GPU / 時間 利用可能性 備考
Vast.ai $1.10/hr Available Marketplace avg プロバイダーを訪問 ↗
Massed Compute $1.23/hr Available SXM4 プロバイダーを訪問 ↗
RunPod $1.49/hr Available Secure Cloud, SXM プロバイダーを訪問 ↗
Novita AI $1.60/hr Available SXM プロバイダーを訪問 ↗
Cherry Servers $2.18/hr Available Bare metal プロバイダーを訪問 ↗
Vultr $2.40/hr Available PCIe プロバイダーを訪問 ↗

スポット / プリエンプティブル

プロバイダー 価格 / GPU / 時間 利用可能性 備考
Novita AI $0.79/hr Available Spot, 1hr guaranteed プロバイダーを訪問 ↗
RunPod $1.39/hr Available Community Cloud プロバイダーを訪問 ↗

価格最終確認日: April 13, 2026

NVIDIA A100 SXM (80GB) 技術仕様

製造元NVIDIA
アーキテクチャAmpere
VRAM80 GB HBM2e
帯域幅2,039 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
発売年2020
セグメントData center
最適用途AI training, fine-tuning, HPC, inference