Noleggi AMD Instinct MI300X nel Cloud — Confronta 2 Provider
AMD flagship AI accelerator. 192GB HBM3 competes directly with H100 for large model workloads.
Più economico On-Demand
$1.85/hr
Prezzo medio On-Demand
$1.92/hr
Provider
2
Confronta i Prezzi Cloud di AMD Instinct MI300X — 2 Provider
On-Demand
| Provider | Prezzo / GPU / ora | Disponibilità | Note | |
|---|---|---|---|---|
|
|
$1.85/hr | Available | — | Visita il Provider ↗ |
|
|
$1.99/hr | Available | — | Visita il Provider ↗ |
Riservato
| Provider | Prezzo / GPU / ora | Disponibilità | Note | |
|---|---|---|---|---|
|
|
$1.88/hr | Available | 12-month, 8-GPU | Visita il Provider ↗ |
Prezzi verificati l'ultima volta: April 13, 2026
Specifiche Tecniche di AMD Instinct MI300X
| Produttore | AMD |
|---|---|
| Architettura | CDNA 3 |
| VRAM | 192 GB HBM3 |
| Larghezza di banda | 5,300 GB/s |
| FP16 (Tensor) | 1307.0 TFLOPS |
| FP32 | 163.4 TFLOPS |
| TDP | 750W |
| Anno di rilascio | 2023 |
| Segmento | Data center |
| Ideale per | Large-scale AI training, LLM inference, HPC |