Najlepsze HBM2e GPU w chmurze — May 2026
HBM2e (generacja A100) — najbardziej opłacalna pamięć HBM dostępna obecnie w chmurze.
A100 SXM (80GB) kontra A100 SXM (40GB) kontra A30 — najlepsze wybory z tego przewodnika
|
A100 SXM (80GB)
Ampere · 80 GB
|
A100 SXM (40GB)
Ampere · 40 GB
|
A30
Ampere · 24 GB
|
|
|---|---|---|---|
| Specyfikacje | |||
| Producent | NVIDIA | NVIDIA | NVIDIA |
| Architektura | Ampere | Ampere | Ampere |
| VRAM | 80 GB HBM2e | 40 GB HBM2e | 24 GB HBM2e |
| Przepustowość | 2,039 GB/s | 1,555 GB/s | 933 GB/s |
| FP16 (Tensor) | 312 TFLOPS | 312 TFLOPS | 165 TFLOPS |
| FP32 | 19.5 TFLOPS | 19.5 TFLOPS | 10.3 TFLOPS |
| TDP | 400 W | 400 W | 165 W |
| Rok wydania | 2020 | 2020 | 2021 |
| Segment | Centrum danych | Centrum danych | Centrum danych |
| Cennik w chmurze | |||
| Najtańsze na żądanie | $1.10/hr | $0.80/hr | $0.25/hr |
| Dostawcy | 6 | 2 | 2 |
Stwórz własne porównanie GPU
Wybierz dowolne 2 GPU z tego przewodnika i otwórz je obok siebie.
Wskazówka: porównania GPU odbywają się parami. Wybierz dokładnie 2 — jeśli nie wybierzesz, otworzymy 2 najlepsze z tego przewodnika.