Instâncias GPU H200
Acelere os seus projetos IA com as instâncias GPU H200
Desempenhos de ponta para o treino, a inferência e as cargas de trabalho de dados mais exigentes numa cloud europeia, fiável e transparente.
Porquê escolher os GPU NVIDIA H200?
Potentes
Até 1,4 vezes mais veloz do que o H100 para o treino e a inferência de modelos GenAI.
Eficientes
141 GB de memória HBM3e super-rápida: 2 vezes maior largura de banda da memória, ideal para modelos volumosos.
Compatíveis
Compatibilidade com H100: tire partido dos frameworks e otimizações existentes sem uma migração complexa.
Soberanos
Disponíveis no nosso Public Cloud, garantindo flexibilidade, transparência e conformidade europeia.
Otimização para cargas de trabalho de dados e IA
LLM em grande escala.
Treine e implemente modelos com até 175 B de parâmetros (GPT-3, Llama 3, Falcon 180 B), graças a 141 GB de memória HBM3e e a uma largura de banda de 4,8 TB/s.
IA generativa avançada
Produza texto, imagem, áudio e vídeo com tempos de resposta estáveis, mesmo em contextos longos.
Contexto alargado e RAG
Melhore os seus assistentes IA e chatbots com janelas contextuais alargadas.
Características
Características técnicas
GPU
De 1 a 8 GPU por instância
Memória GPU
141 GB de HBM3 ultraveloz por GPU
Armazenamento eficiente
Passthrough NVMe local na maioria das instâncias
Rede pública e privada
Até 25 Gbps incluídos
Automatização
Gestão através da Área de Cliente, API, OVHcloud CLI, etc.
Segurança e privacidade
Certificações ISO27001, SOC, alojamento de dados de saúde, etc.
Maximize o seu ROI com uma infraestrutura GPU flexível
Faturação transparente
Pague apenas pelos recursos que usa, sem custos ocultos. Mantenha o controlo de custos ao mesmo tempo que usufrui de desempenhos máximos.
Escalabilidade instantânea
Em apenas alguns cliques, aumente ou reduza os recursos GPU a pedido. Adapte as capacidades às cargas de trabalho de dados e IA com toda a simplicidade.
Soberania e conformidade
Os seus dados são alojados numa cloud europeia certificada, garantindo segurança, transparência e respeito das regulamentações (RGPD, ISO, HDS).
Acessibilidade sem barreiras à entrada
GPU H200 acessíveis a todos: da prova de conceito à implementação em produção, sem compromissos de volume nem constrangimentos de hardware.
Como escolher um GPU para fazer inferência?
Modelos compactos
Com até 7 B de parâmetros, um A100 oferece uma excelente relação preço/desempenho.
Modelos volumosos
Com 65 B+ ou janelas contextuais alargadas, o H200 traz a largura de banda de memória necessária para tempos de resposta estáveis.
Configure as suas instâncias GPU
Respostas a questões frequentes
Que compromisso de nível de serviço (SLA) é garantido pela OVHcloud numa instância GPU?
O compromisso de nível de serviço (SLA) é de 99,99% de disponibilidade mensal nas instâncias GPU. Para mais informações, consulte as Condições Gerais de Serviço.
Qual é o hipervisor utilizado para a virtualização das instâncias?
Tal como as outras instâncias, as instâncias GPU são virtualizadas pelo hipervisor KVM do kernel Linux.
O que é o PCI Passthrough?
As placas com processadores gráficos são servidas através do bus PCI do servidor físico. O PCI Passthrough é uma funcionalidade do hipervisor que permite dedicar um hardware a uma máquina virtual ao dar diretamente acesso ao bus PCI sem passar pela virtualização.
É possível redimensionar uma instância Cloud GPU?
Sim, as instâncias Cloud GPU podem passar para um modelo superior após uma reinicialização. No entanto, não têm capacidade para evoluir para um modelo inferior.
As instâncias Cloud GPU beneficiam de uma proteção Anti-DDoS?
Sim, a nossa proteção Anti-DDoS está incluída em todas as soluções da OVHcloud, sem custos adicionais.
É possível migrar uma instância atualmente faturada mensalmente para uma faturação à hora?
Se tiver sido escolhida uma faturação mensal, não é possível mudar para uma faturação à hora. Antes de iniciar a instância, escolha cuidadosamente o método de faturação mais adequado ao seu projeto.
O que é uma Cloud GPU?
Uma Cloud GPU designa um serviço de cálculo na cloud que fornece unidades de tratamento gráfico (GPU) para a execução de tarefas que requerem uma grande potência de cálculo. Estas tarefas podem incluir renderização gráfica, aprendizagem automática, análise de dados e simulações científicas. Ao contrário das GPU locais, que exigem um grande investimento em termos de hardware, as Cloud GPU oferecem uma certa flexibilidade e escalabilidade. Desta forma, os utilizadores podem aceder, a pedido, a recursos de cálculo de alto desempenho e pagar apenas por aquilo que usam.
O que é um servidor H100 e A100?
Os servidores equipados com GPU NVIDIA H100 e A100 são sistemas concebidos para fornecer desempenhos excecionais nos domínios da computação de alto desempenho (HPC), da inteligência artificial (IA) e da análise de dados.
O que é a NGC?
O NVIDIA Cloud GPU (NGC) é uma plataforma de cloud computing disponibilizada pela NVIDIA, que fornece um catálogo completo de programas otimizados para a aceleração por GPU e destinados à inteligência artificial (IA), ao machine learning (ML) e ao cálculo de alto desempenho (HPC). A NGC visa simplificar e acelerar a implementação das aplicações de IA e de cálculo científico, disponibilizando containers, modelos pré-treinados, SDK e outras ferramentas otimizadas para tirar o máximo proveito das GPU NVIDIA.
Porquê utilizar uma Cloud GPU?
A utilização de um Cloud GPU apresenta numerosas vantagens, nomeadamente para as empresas, os investigadores e os programadores, em domínios exigentes como a inteligência artificial (IA), a renderização gráfica, o machine learning (ML) e o cálculo de alto desempenho (HPC).