public cloud compute  gpu

Servidores cloud concebidos para o tratamento de tarefas maciçamente paralelas

As instâncias GPU integram processadores gráficos NVIDIA Tesla V100 para responder às exigências do cálculo maciçamente paralelo. Integradas na oferta OVHcloud, estas instâncias oferecem as vantagens dos recursos a pedido e da faturação à hora, e adaptam-se às necessidades de Machine Learning ou Deep Learning.​

NVIDIA Tesla V100

Estas GPU, entre as mais potentes do mercado, foram concebidas para a exploração em datacenter. Aceleram os cálculos no que diz respeito à inteligência artificial (AI) e ao cálculo gráfico.

NVIDIA GPU Cloud

De forma a oferecer a melhor experiência de utilizador, a OVHcloud e a NVIDIA associaram-se para criar a plataforma acelerada por GPU mais potente do mercado para o Deep Learning, o cálculo de alto rendimento e a inteligência artificial (AI), dando lugar à forma mais simples de implementar e manter containers acelerados por GPU, graças a um catálogo completo. Saber mais.

1 a 4 placas com desempenhos garantidos

As placas Tesla são diretamente fornecidas à instância através de PCI Passthrough, sem camada de virtualização, para que toda a potência seja dedicada à sua utilização. Além disso, podem ser ligadas até 4 placas para juntar os rendimentos de cada uma delas. Assim, o material fornece toda a sua capacidade de cálculo à sua aplicação.

Icons/concept/Page/Page Certificate Created with Sketch.

Certificações ISO/IEC 27001, 27701 e conformidade para o alojamento de dados de saúde

As nossas infraestruturas e serviços cloud têm a certificação ISO/IEC 27001, 27017, 27018 e 27701. Estas certificações asseguram a existência de um sistema de gestão da segurança da informação (WSIS) para a gestão dos riscos, das vulnerabilidades e da continuidade da atividade, bem como de um sistema de gestão da informação sobre a privacidade (PIMS). A nossa conformidade permite-lhe alojar dados de saúde com toda a segurança.

* Disponível em breve

Características das placas NVIDIA Tesla V100

Desempenho com o impulso da GPU NVIDIA

Largura de banda de interligação bidirecional

Memória CoWoS Stacked HBM2
  • Precisão dupla: 7 teraflops;
  • Precisão única: 14 teraflops;
  • Deep Learning: 112 teraflops.
  • PCIe 32 GB/s.
  • Capacidade: 16 GB HBM2;
  • Largura de banda: 900 GB/s.

 

Casos de uso

Reconhecimento de imagens

Extrair informações de imagens para as classificar, para identificar um elemento ou para criar documentos mais complexos é necessário em muitos domínios. Imagiologia, redes sociais, proteção e segurança do público... Graças às frameworks como Caffe2, aliadas às GPU Tesla V100, isto já é possível e facilmente acessível.

Análise de situações

O tempo real impõe-se em certos casos, onde é esperada uma reação apropriada face a situações variadas e imprevisíveis. Este tipo de necessidade surge, por exemplo, para os carros autónomos ou a análise de tráfego da rede da Internet. É aí que o Deep Learning intervém para formar redes de neurónios que aprendem de forma autónoma, através de uma fase de treino.

Interação humana

No passado, o ser humano aprendeu a comunicar com máquinas e, atualmente, encontramo-nos numa era onde as máquinas aprendem a comunicar connosco. Quer seja por reconhecimento de voz ou por identificação de emoções por som ou vídeo, as ferramentas como TensorFlow permitem ultrapassar os limites dessas interações e possibilitam uma imensidão de utilizações.

Precisa de treinar a sua inteligência artificial com GPU?

Graças à nossa solução AI Training, poderá treinar de forma eficaz e simples os seus modelos de inteligência artificial e otimizar os seus recursos de cálculo GPU.

Concentre-se na sua atividade e não na infraestrutura que a suporta. Execute os seus treinos através de uma linha de comandos e pague ao minuto os recursos utilizados.

Descobrir o OVHcloud AI Training

Modo de utilização

1

Começar

Execute a sua instância selecionando o modelo T1 mais adequado para si, assim como a imagem NGC.

2

Configurar

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Utilizar

A framework AI já está disponível para iniciar os cálculos.

Pronto para começar?

Crie uma conta e lance os seus serviços imediatamente

Preço Public Cloud

Faturação de GPU

As instâncias GPU são faturadas da mesma forma que as outras instâncias: paga o que utiliza no final de cada mês. O preço depende do tamanho da instância utilizada e da duração de utilização.

FAQ

Qual é o SLA garantido pela OVHcloud numa instância GPU?

O SLA é de 99,999% de disponibilidade mensal nas instâncias GPU. Para obter mais informações, consulte as condições gerais de venda.

Qual é o hipervisor utilizado para a virtualização das instâncias?

Tal como as outras instâncias, as instâncias GPU são virtualizadas pelo hipervisor KVM do kernel Linux.

O que é o PCI Passthrough?

As placas com processadores gráficos são servidas através do bus PCI do servidor físico. O PCI Passthrough é uma funcionalidade do hypervisor que permite dedicar um hardware a uma máquina virtual ao dar diretamente acesso ao bus PCI, sem passar pela virtualização.

É possível redimensionar uma instância GPU?

Sim, as instâncias GPU podem passar para um modelo superior após uma reinicialização. No entanto, não têm capacidade para evoluir para um modelo inferior.

As instâncias GPU beneficiam de uma proteção Anti-DDoS?

Sim, a nossa proteção anti-DDoS está incluída em todas as soluções da OVHcloud, sem custos adicionais.

É possível migrar uma instância atualmente faturada mensalmente para uma faturação à hora, a meio do mês?

Se estiver implementada uma faturação mensal, não é possível mudar para uma faturação à hora a meio do mês. Antes de iniciar a instância, selecione cuidadosamente o método de faturação mais adaptado ao seu projeto.