クラウドでNVIDIA A100 SXM (40GB)をレンタル — 2プロバイダーを比較

Budget A100 variant with 40GB VRAM. Good for training models under 13B parameters and batch inference.

VRAM 40 GB HBM2e
帯域幅 1,555 GB/s
FP16 312.0 TFLOPS
FP32 19.5 TFLOPS
TDP 400W
アーキテクチャ Ampere
最安オンデマンド $0.80/hr
平均オンデマンド $0.97/hr
プロバイダー 2

NVIDIA A100 SXM (40GB)クラウド価格比較 — 2プロバイダー

オンデマンド

プロバイダー 価格 / GPU / 時間 利用可能性 備考
Vast.ai $0.80/hr Available Marketplace avg プロバイダーを訪問 ↗
RunPod $1.14/hr Available Secure Cloud, SXM プロバイダーを訪問 ↗

価格最終確認日: April 13, 2026

NVIDIA A100 SXM (40GB) 技術仕様

製造元NVIDIA
アーキテクチャAmpere
VRAM40 GB HBM2e
帯域幅1,555 GB/s
FP16 (Tensor)312.0 TFLOPS
FP3219.5 TFLOPS
TDP400W
発売年2020
セグメントData center
最適用途AI training, fine-tuning, inference on smaller models