Чи підтримує DigitalOcean багатографічні інстанції з NVLink або InfiniBand?

Відповідь

DigitalOcean підтримує багатографічні конфігурації з такими характеристиками:

Технологія інтерконекту: NVLink
Максимальна кількість GPU на інстанс: 8
Навчання на кількох вузлах: 1

Вибір інтерконекту є критичним для продуктивності розподіленого навчання. NVLink забезпечує до 900 ГБ/с двонапрямної пропускної здатності між GPU, тоді як InfiniBand дозволяє високошвидкісну комунікацію між вузлами. Конфігурації лише з PCIe підходять для інференсу, але можуть створювати вузькі місця при багатографічному навчанні.

Доступні моделі GPU: RTX 4000 Ada, RTX 6000 Ada, L40S, MI300X, H100 SXM, H200

Для детальних характеристик інтерконекту та схем топології багатографічних систем див. офіційний вебсайт DigitalOcean .

Більше запитань і відповідей про DigitalOcean

Посібники, де представлено DigitalOcean

Ці посібники включають DigitalOcean разом з іншими провайдерами хмарних GPU, згрупованими за характеристиками GPU, фреймворками, доступністю та вимогами розробників.

DigitalOcean проти RunPod проти Latitude.sh - GPU Provider Comparison (Квітень 2026)

Side-by-side comparison of DigitalOcean проти RunPod проти Latitude.sh. Quickly scan maximum funding, profit splits, risk rules, leverage, platforms, instruments, payout schedules, payment options, trading permissions and KYC restrictions to narrow down your prop trading firm shortlist. Data updated Квітень 2026.

DigitalOcean проти RunPod проти Latitude.sh - GPU Provider Comparison (Квітень 2026)
DigitalOcean
Простий, масштабований хмарний GPU для ШІ/МЛ
Visit DigitalOcean
RunPod
Хмара, створена для штучного інтелекту — розгортайте та масштабовуйте GPU-навантаження від безсерверного виведення до миттєвих багатокористувацьких кластерів за запитом.
Visit RunPod
Latitude.sh
Хмара з bare metal GPU у 23 глобальних локаціях
Visit Latitude.sh
Огляд
Рейтинг Trustpilot 4.6 3.8 3.7
Штаб-квартира United States United States Brazil
Тип провайдера Н/д Орієнтовано на GPU Bare Metal
Найкраще для Навчання ШІ висновки тонке налаштування розгортання LLM обслуговування LLM комп’ютерний зір стартапи генеративний ШІ дослідження Навчання ШІ висновок тонке налаштування Stable Diffusion пакетна обробка рендеринг дослідження обслуговування LLM генеративний ШІ Навчання ШІ висновки bare metal GPU тонке налаштування дослідження спеціалізовані навантаження генеративний ШІ
GPU Hardware
Моделі GPU RTX 4000 Ada RTX 6000 Ada L40S MI300X H100 SXM H200 B300 B200 H200 H100 SXM H100 PCIe H100 NVL MI300X A100 SXM A100 PCIe RTX 5090 RTX PRO 6000 L40S L40 RTX 6000 Ada RTX 5000 Ada RTX A6000 RTX A5000 RTX 4090 RTX 4080 SUPER RTX 4080 RTX 4070 Ti RTX 3090 Ti RTX 3090 RTX 3080 Ti RTX 3080 RTX 3070 A40 A30 A2 L4 A30 RTX A5000 RTX A6000 L40S RTX 6000 Ada A100 SXM H100 SXM GH200 RTX PRO 6000
Макс. VRAM (ГБ) 192 288 96
Макс. кількість GPU на інстанс 8 8 8
Інтерконект NVLink NVLink NVLink
Pricing
Початкова ціна ($/год) $0.76/hr $0.06/hr $0.35/hr
Гранулярність білінгу За секунду За секунду За годину
Spot/Preemptible 0 1 0
Резервовані знижки Н/д 15-29% (плани від 1 місяця до 1 року) Н/д
Безкоштовні кредити $200 безкоштовного кредиту на 60 днів Бонус від $5 до $500 після першої витрати $10 $200 через реферальну програму
Плата за вихідні дані Відсутні (включено в план) Відсутній (Безкоштовно) Відсутні
Сховище 500-720 ГіБ NVMe для завантаження (включено), 5 ТіБ NVMe для тимчасових файлів у більших конфігураціях, томи за $0.10/ГіБ/місяць Контейнер/Об’єм ($0.10/ГБ/місяць), Неактивний об’єм ($0.20/ГБ/місяць), Мережеве сховище ($0.07/ГБ/місяць 1ТБ) Локальний NVMe включено (до 4x 3.8 ТБ), блочне сховище $0.10/ГБ/місяць, файлове сховище $0.05/ГБ/місяць
Infrastructure
Регіони Нью-Йорк (NYC2), Торонто (TOR1), Атланта (ATL1), Річмонд (RIC1), Амстердам (AMS3) 31 глобальний регіон 23 локації: США (8 міст), Латинська Америка (5), Європа (5), Азіатсько-Тихоокеанський регіон (4), Мехіко. GPU у Далласі, Франкфурті, Сіднеї, Токіо
SLA часу роботи 99% 99.99% 99.9%
Developer Experience
Фреймворки PyTorch TensorFlow Jupyter Miniconda CUDA ROCm Hugging Face PyTorch TensorFlow JAX ONNX CUDA Оптимізовані для ML образи PyTorch TensorFlow (встановлюється користувачем) CUDA
Підтримка Docker 1 1 1
Доступ через SSH 1 1 1
Jupyter Notebook 1 1 0
API / CLI 1 1 1
Час налаштування Хвилини Миттєво Секунди
Kubernetes Support 1 0 0
Business Terms
Мінімальне зобов’язання Відсутні Відсутній Відсутні
Відповідність стандартам SOC 2 Тип II SOC 3 HIPAA (з BAA) CSA STAR Рівень 1 SOC 2 Тип II Ізоляція для одного орендаря доступний DPA
DigitalOcean RunPod Latitude.sh