GPU-Modell-Leitfäden

Cloud-GPU-Leitfäden

Kuratierte Cloud-GPU-Auswahllisten nach Anbieter, Architektur, VRAM, Leistung, Anwendungsfall und Budget. Jeder Leitfaden aktualisiert sich automatisch, sobald neue GPUs in die Datenbank aufgenommen werden.
Schnelle Aktionen
  • Nach VRAM durchsuchen (24 GB → 288 GB+)
  • Nach Architektur durchsuchen (Hopper, Blackwell, …)
  • Die günstigsten Cloud-GPUs unter $1/Stunde finden

Nach Architektur

Hopper, Blackwell, Ada Lovelace, Ampere, CDNA — jede GPU-Generation in der Cloud verfügbar.

Hopper Blackwell Architecture 10 Leitfäden

Nach Cloud-Preisen

Günstigste Cloud-GPUs nach On-Demand-Preis + Spot-Verfügbarkeit + Multi-Provider-Abdeckung.

Under $1/hr Spot pricing Multi-provider 5 Leitfäden

Nach Speicherbandbreite

Speicherbandbreite von 1 TB/s bis 8 TB/s — entscheidend für speicherintensive LLM-Services.

1 – 8 TB/s Bandwidth tiers LLM ready 5 Leitfäden

Nach Speichertyp

Vergleiche GPUs nach Speicherklasse — HBM3e, HBM3, GDDR7, GDDR6X.

HBM GDDR Memory class 6 Leitfäden

Nach Leistung

FP16 TFLOPS-Leistungsstufen — finde Compute-Hardware für deine Workload.

100 – 2000+ TFLOPS Tensor perf Throughput 6 Leitfäden

Nach Energieeffizienz

Energieeffiziente GPUs mit geringem Stromverbrauch — TDP-Optionen von 75W bis 250W.

<=75W <=150W <=250W 3 Leitfäden

Nach Veröffentlichungszeitraum

Neueste GPUs (2025+), moderne (2024+) oder ältere Hardware vor 2020.

2025 2024+ Legacy 4 Leitfäden

Nach Segment

Rechenzentrum-, professionelle und Consumer-GPU-Segmente nebeneinander.

Data-center Professional Consumer 3 Leitfäden

Nach Anwendungsfall

Inferenz, Training, Feinabstimmung, Bildgenerierung, Rendering, Gaming, HPC und mehr.

Inference Training Use cases 16 Leitfäden

Nach Anbieter

Durchsuche Cloud-GPUs nach Hersteller — NVIDIA und AMD.

NVIDIA AMD Vendor split 2 Leitfäden

Nach VRAM

Filtere Cloud-GPUs nach VRAM-Kapazität, von 12 GB bis 288 GB+.

12 – 288 GB VRAM tiers Memory size 12 Leitfäden