Instâncias GPU L4
Implemente cargas de trabalho de inferência e gráficos com os GPU NVIDIA L4
Um desempenho ideal para a inferência IA, o processamento de vídeo e a renderização 3D numa cloud europeia, fiável e transparente.
Porquê escolher os GPU NVIDIA L4?
Económicos
Uma excelente relação preço/desempenho para implementar inferência IA e processamento de vídeo em grande escala.
Otimizados
Descrição: perfeitos para inferência de modelos compactos (até 7B) e cargas de trabalho multimédia.
Sustentáveis
Redução da pegada de carbono e controlo dos custos.
Soberanos
Disponíveis no nosso Public Cloud, garantindo flexibilidade, transparência e conformidade europeia.
Otimização para cargas de trabalho de inferência e gráficos
Inferência IA em grande escala
Implemente modelos de visão, NLP ou classificação em GPU de baixo custo.
Processamento e streaming de vídeo
Tire partido de uma codificação/descodificação AV1, HEVC e H.264 de hardware, ideal para transcodificação, deteção de objetos ou transmissão em direto.
Criação e IA generativa ligeira
Produza imagens, avatares ou conteúdos multimédia com a potência gráfica Ada Lovelace, mantendo um consumo energético mínimo.
Características
Características técnicas
GPU
De 1 a 4 GPU por instância
Memória GPU
24 GB por GPU
Armazenamento eficiente
NVMe local na maioria das instâncias
Rede pública e privada
Até 25 Gbps incluídos
Automatização
Gestão através da Área de Cliente, API, OVHcloud CLI, etc.
Segurança e privacidade
Certificações ISO27001, SOC, alojamento de dados de saúde, etc.
Maximize o seu ROI com uma infraestrutura GPU flexível
Faturação transparente
Usufrua do GPU mais económico da gama, perfeito para inferência de IA e vídeo.
Polivalência gráfica e de IA
Explore um único GPU para as suas cargas de trabalho de IA generativa, de renderização 3D e de inferência IA. Assim, poderá usufruir de uma flexibilidade única para os seus pipelines de produção.
Soberania e conformidade
Os seus dados são alojados numa cloud europeia certificada, garantindo segurança, transparência e respeito das regulamentações (RGPD, ISO, HDS).
Acessibilidade total
GPU L4 disponíveis sem obrigação de compromisso, para acelerar projetos IA e multimédia em grande escala.
Como escolher um GPU para fazer inferência?
Inferência ligeira
L4: económico e energeticamente eficiente.
Modelos volumosos
A100/H100/H200, em função das suas necessidades de largura de banda e de desempenho.
Configure as suas instâncias GPU
Respostas a questões frequentes
Que compromisso de nível de serviço (SLA) é garantido pela OVHcloud numa instância GPU?
O compromisso de nível de serviço (SLA) é de 99,99% de disponibilidade mensal nas instâncias GPU. Para mais informações, consulte as Condições Gerais de Serviço.
Qual é o hipervisor utilizado para a virtualização das instâncias?
Tal como as outras instâncias, as instâncias GPU são virtualizadas pelo hipervisor KVM do kernel Linux.
O que é o PCI Passthrough?
As placas com processadores gráficos são servidas através do bus PCI do servidor físico. O PCI Passthrough é uma funcionalidade do hipervisor que permite dedicar um hardware a uma máquina virtual ao dar diretamente acesso ao bus PCI sem passar pela virtualização.
É possível redimensionar uma instância Cloud GPU?
Sim, as instâncias Cloud GPU podem passar para um modelo superior após uma reinicialização. No entanto, não têm capacidade para evoluir para um modelo inferior.
As instâncias Cloud GPU beneficiam de uma proteção Anti-DDoS?
Sim, a nossa proteção Anti-DDoS está incluída em todas as soluções da OVHcloud, sem custos adicionais.
É possível migrar uma instância atualmente faturada mensalmente para uma faturação à hora?
Se tiver sido escolhida uma faturação mensal, não é possível mudar para uma faturação à hora. Antes de iniciar a instância, escolha cuidadosamente o método de faturação mais adequado ao seu projeto.
O que é uma Cloud GPU?
Uma Cloud GPU designa um serviço de cálculo na cloud que fornece unidades de tratamento gráfico (GPU) para a execução de tarefas que requerem uma grande potência de cálculo. Estas tarefas podem incluir renderização gráfica, aprendizagem automática, análise de dados e simulações científicas. Ao contrário das GPU locais, que exigem um grande investimento em termos de hardware, as Cloud GPU oferecem uma certa flexibilidade e escalabilidade. Desta forma, os utilizadores podem aceder, a pedido, a recursos de cálculo de alto desempenho e pagar apenas por aquilo que usam.
O que é um servidor H100 e A100?
Os servidores equipados com GPU NVIDIA H100 e A100 são sistemas concebidos para fornecer desempenhos excecionais nos domínios da computação de alto desempenho (HPC), da inteligência artificial (IA) e da análise de dados.
O que é a NGC?
O NVIDIA Cloud GPU (NGC) é uma plataforma de cloud computing disponibilizada pela NVIDIA, que fornece um catálogo completo de programas otimizados para a aceleração por GPU e destinados à inteligência artificial (IA), ao machine learning (ML) e ao cálculo de alto desempenho (HPC). A NGC visa simplificar e acelerar a implementação das aplicações de IA e de cálculo científico, disponibilizando containers, modelos pré-treinados, SDK e outras ferramentas otimizadas para tirar o máximo proveito das GPU NVIDIA.
Porquê utilizar uma Cloud GPU?
A utilização de um Cloud GPU apresenta numerosas vantagens, nomeadamente para as empresas, os investigadores e os programadores, em domínios exigentes como a inteligência artificial (IA), a renderização gráfica, o machine learning (ML) e o cálculo de alto desempenho (HPC).