Quais GPUs NVIDIA e AMD estão disponíveis no Cherry Servers?

Resposta

A partir de April 12, 2026, Cherry Servers oferece acesso aos seguintes modelos de GPU:

A100, A40, A16, A10, A2, Tesla P4

Para cargas de trabalho que exigem muita memória, como treinamento de grandes modelos de linguagem, a maior opção de VRAM na Cherry Servers é de 80 GB. Instâncias multi-GPU suportam até 2 GPUs com interconexão PCIe para computação paralela eficiente.

Veja quais modelos de GPU estão atualmente em estoque no site oficial Cherry Servers .

Mais FAQs sobre Cherry Servers

Guias onde Cherry Servers está em destaque

Estes guias incluem Cherry Servers junto com outros provedores de GPU na nuvem, agrupados por recursos de GPU, frameworks, disponibilidade e requisitos para desenvolvedores.

Cherry Servers vs Latitude.sh vs Massed Compute - Comparação de Provedores de GPU (Abril 2026)

Comparação lado a lado de Cherry Servers vs Latitude.sh vs Massed Compute. Analise rapidamente financiamento máximo, divisão de lucros, regras de risco, alavancagem, plataformas, instrumentos, cronogramas de pagamento, opções de pagamento, permissões de negociação e restrições de KYC para reduzir sua lista de firmas de trading proprietárias. Dados atualizados em Abril 2026.

Cherry Servers vs Latitude.sh vs Massed Compute - Comparação de Provedores de GPU (Abril 2026)
Cherry Servers
Servidores GPU bare metal com 24 anos de experiência em hospedagem e controle completo em nível de hardware.
Visit Cherry Servers
Latitude.sh
Nuvem de GPU bare metal em 23 locais globais
Visit Latitude.sh
Massed Compute
Nuvem GPU com suporte direto de engenheiros
Visit Massed Compute
Visão geral
Avaliação no Trustpilot 4.6 3.7 0
Sede Lithuania Brazil United States
Tipo de Provedor N/D Bare Metal Focado em GPU
Melhor Para Treinamento de IA inferência fine-tuning renderização pesquisa HPC IA generativa deep learning Treinamento de IA inferência GPU bare metal fine-tuning pesquisa cargas de trabalho dedicadas IA generativa Treinamento de IA inferência renderização VFX IA generativa fine-tuning HPC Stable Diffusion pesquisa
GPU Hardware
Modelos de GPU A100 A40 A16 A10 A2 Tesla P4 A30 RTX A5000 RTX A6000 L40S RTX 6000 Ada A100 SXM H100 SXM GH200 RTX PRO 6000 A30 RTX A5000 RTX A6000 L40S A100 SXM H100 PCIe H100 SXM H100 NVL RTX PRO 6000 H200 NVL
Máx VRAM (GB) 80 96 141
Máx GPUs/Instância 2 8 8
Interconexão PCIe NVLink NVLink
Pricing
Preço Inicial ($/hr) $0.16/hr $0.35/hr $0.35/hr
Granularidade de Cobrança Por hora Por hora Por minuto
Spot/Preemptível 0 0 0
Descontos Reservados N/D N/D N/D
Créditos Gratuitos Nenhum $200 via programa de indicação Nenhum
Taxas de Saída N/D Nenhum Nenhum
Armazenamento NVMe SSD, Armazenamento em Bloco Elástico (R$0,071/GB/mês) NVMe local incluído (até 4x 3,8TB), Armazenamento em bloco $0,10/GB/mês, Armazenamento em sistema de arquivos $0,05/GB/mês NVMe local incluído com as instâncias
Infrastructure
Regiões Lituânia, Holanda, Alemanha, Suécia, EUA, Singapura (6 locais) 23 locais: EUA (8 cidades), LATAM (5), Europa (5), APAC (4), Cidade do México. GPU em Dallas, Frankfurt, Sydney, Tóquio Estados Unidos (data centers Tier III)
SLA de Disponibilidade 99,97% 99,9% Tier III (99,98% de design)
Developer Experience
Frameworks PyTorch TensorFlow CUDA (bare metal — controle total da pilha) Imagens otimizadas para ML PyTorch TensorFlow (instalado pelo usuário) CUDA PyTorch TensorFlow CUDA cuDNN ComfyUI templates ML pré-configurados
Suporte Docker 1 1 1
Acesso SSH 1 1 1
Jupyter Notebooks 0 0 0
API / CLI 1 1 1
Tempo de Configuração Minutos Segundos Minutos
Kubernetes Support 1 0 0
Business Terms
Compromisso Mínimo Nenhum Nenhum Nenhum
Conformidade ISO 27001 ISO 20000-1 GDPR PCI DSS Isolamento single-tenant DPA disponível SOC 2 Tipo II HIPAA
Cherry Servers Latitude.sh Massed Compute