クラウドでNVIDIA A100 SXM (80GB)をレンタル — 6プロバイダーを比較
Previous-generation workhorse for AI training and inference. Still widely available at lower cost than H100.
最安オンデマンド
$1.10/hr
平均オンデマンド
$1.67/hr
最安スポット
$0.79/hr
プロバイダー
6
NVIDIA A100 SXM (80GB)クラウド価格比較 — 6プロバイダー
オンデマンド
| プロバイダー | 価格 / GPU / 時間 | 利用可能性 | 備考 | |
|---|---|---|---|---|
|
|
$1.10/hr | Available | Marketplace avg | プロバイダーを訪問 ↗ |
|
|
$1.23/hr | Available | SXM4 | プロバイダーを訪問 ↗ |
|
|
$1.49/hr | Available | Secure Cloud, SXM | プロバイダーを訪問 ↗ |
|
|
$1.60/hr | Available | SXM | プロバイダーを訪問 ↗ |
|
|
$2.18/hr | Available | Bare metal | プロバイダーを訪問 ↗ |
|
|
$2.40/hr | Available | PCIe | プロバイダーを訪問 ↗ |
スポット / プリエンプティブル
| プロバイダー | 価格 / GPU / 時間 | 利用可能性 | 備考 | |
|---|---|---|---|---|
|
|
$0.79/hr | Available | Spot, 1hr guaranteed | プロバイダーを訪問 ↗ |
|
|
$1.39/hr | Available | Community Cloud | プロバイダーを訪問 ↗ |
価格最終確認日: April 13, 2026
NVIDIA A100 SXM (80GB) 技術仕様
| 製造元 | NVIDIA |
|---|---|
| アーキテクチャ | Ampere |
| VRAM | 80 GB HBM2e |
| 帯域幅 | 2,039 GB/s |
| FP16 (Tensor) | 312.0 TFLOPS |
| FP32 | 19.5 TFLOPS |
| TDP | 400W |
| 発売年 | 2020 |
| セグメント | Data center |
| 最適用途 | AI training, fine-tuning, HPC, inference |