Louez AMD Instinct MI300X dans le Cloud — Comparez 2 fournisseurs
AMD flagship AI accelerator. 192GB HBM3 competes directly with H100 for large model workloads.
Le moins cher à la demande
$1.85/hr
Moyenne à la demande
$1.92/hr
Fournisseurs
2
Comparez les prix Cloud de AMD Instinct MI300X — 2 fournisseurs
À la demande
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$1.85/hr | Available | — | Visiter le fournisseur ↗ |
|
|
$1.99/hr | Available | — | Visiter le fournisseur ↗ |
Réservé
| Fournisseur | Prix / GPU / heure | Disponibilité | Notes | |
|---|---|---|---|---|
|
|
$1.88/hr | Available | 12-month, 8-GPU | Visiter le fournisseur ↗ |
Prix vérifiés pour la dernière fois : April 13, 2026
Spécifications techniques de AMD Instinct MI300X
| Fabricant | AMD |
|---|---|
| Architecture | CDNA 3 |
| VRAM | 192 GB HBM3 |
| Bande passante | 5,300 GB/s |
| FP16 (Tensor) | 1307.0 TFLOPS |
| FP32 | 163.4 TFLOPS |
| TDP | 750W |
| Année de sortie | 2023 |
| Segment | Data center |
| Idéal pour | Large-scale AI training, LLM inference, HPC |