Beste HBM2e Cloud-GPUs — April 2026

HBM2e (A100-Generation) — der kosteneffektivste HBM-Speicher, der heute in der Cloud verfügbar ist.

Aktualisiert April 2026 Zeige 3 GPU-Modelle HBM2e Speicher

A100 SXM (80GB) vs A100 SXM (40GB) vs A30 — Top-Auswahl aus dieser Anleitung

A100 SXM (80GB) vs A100 SXM (40GB) vs A30
A100 SXM (80GB)
Ampere · 80 GB
A100 SXM (40GB)
Ampere · 40 GB
A30
Ampere · 24 GB
Spezifikationen
Hersteller NVIDIA NVIDIA NVIDIA
Architektur Ampere Ampere Ampere
VRAM 80 GB HBM2e 40 GB HBM2e 24 GB HBM2e
Bandbreite 2,039 GB/s 1,555 GB/s 933 GB/s
FP16 (Tensor) 312 TFLOPS 312 TFLOPS 165 TFLOPS
FP32 19.5 TFLOPS 19.5 TFLOPS 10.3 TFLOPS
TDP 400 W 400 W 165 W
Erscheinungsjahr 2020 2020 2021
Segment Rechenzentrum Rechenzentrum Rechenzentrum
Cloud-Preise
Günstigste On-Demand $1.10/hr $0.80/hr $0.25/hr
Anbieter 6 2 2

Erstellen Sie Ihren eigenen GPU-Vergleich

Wählen Sie genau 2 GPUs aus dieser Anleitung aus und öffnen Sie sie nebeneinander.

Tipp: GPU-Vergleiche werden paarweise durchgeführt. Wählen Sie genau 2 aus – wenn Sie keine Auswahl treffen, öffnen wir die Top 2 aus dieser Anleitung.