GPU คลาวด์ HBM3 ที่ดีที่สุด — May 2026
HBM3 ขับเคลื่อน H100, GH200, และ MI300X — เครื่องมือหลักสำหรับการฝึกสอน AI ขั้นสูงในขณะนี้
MI300X กับ GH200 Superchip กับ H100 SXM — ตัวเลือกยอดนิยมจากคำแนะนำนี้
|
MI300X
ซีดีเอ็นเอ 3 · 192 GB
|
GH200 Superchip
ฮอปเปอร์ · 96 GB
|
H100 SXM
ฮอปเปอร์ · 80 GB
|
|
|---|---|---|---|
| สเปค | |||
| ผู้ผลิต | AMD | NVIDIA | NVIDIA |
| สถาปัตยกรรม | ซีดีเอ็นเอ 3 | ฮอปเปอร์ | ฮอปเปอร์ |
| VRAM | 192 GB HBM3 | 96 GB HBM3 | 80 GB HBM3 |
| แบนด์วิดท์ | 5,300 GB/s | 4,000 GB/s | 3,350 GB/s |
| FP16 (Tensor) | 1,307 TFLOPS | 989 TFLOPS | 990 TFLOPS |
| FP32 | 163.4 TFLOPS | 494.5 TFLOPS | 67 TFLOPS |
| TDP | 750 W | 700 W | 700 W |
| ปีที่เปิดตัว | 2023 | 2023 | 2023 |
| กลุ่มตลาด | ศูนย์ข้อมูล | ศูนย์ข้อมูล | ศูนย์ข้อมูล |
| ราคาบริการคลาวด์ | |||
| ราคาถูกที่สุดแบบ On-Demand | $1.85/hr | — | $1.57/hr |
| ผู้ให้บริการ | 2 | 0 | 7 |
สร้างการเปรียบเทียบ GPU ของคุณเอง
เลือก GPU 2 ตัวจากคำแนะนำนี้แล้วเปิดเปรียบเทียบข้างกัน
เคล็ดลับ: การเปรียบเทียบ GPU ทำเป็นคู่ เลือก 2 ตัวเท่านั้น — หากไม่เลือก เราจะเปิด 2 อันดับแรกจากคำแนะนำนี้ให้