Big data & Analytics
Big data e Analytics em servidores Bare Metal
Os projetos Big Data requerem infraestruturas concebidas para o tratamento de informações em massa. Explore os seus dados de forma otimizada graças à potência bruta dos servidores dedicados Bare Metal da OVHcloud.

Responda aos desafios do big data com os servidores da OVHcloud
Os servidores Bare Metal cloud foram concebidos para responder aos desafios do big data, estando a segurança no centro da arquitetura. Oferecem toda a potência de cálculo e o armazenamento necessários para um tratamento em tempo real dos seus dados.
Desempenhos brutos
Fornecidos sem camada virtual, os nossos servidores Bare Metal oferecem um desempenho bruto máximo. Estão equipados com discos NVMe e processadores Intel e AMD de última geração: o melhor hardware para uma utilização big data. Pode muito facilmente adicionar recursos para aumentar a sua infraestrutura.
Rede resiliente
A nossa rede de alta velocidade baseada em 4 ligações assegura uma continuidade de serviço em caso de necessidade e uma resiliência ótima garantida por um SLA de 99,99%. O tráfego é ilimitado, pelo que não está previsto qualquer custo adicional.
Infraestrutura totalmente isolada
Os seus servidores são 100% dedicados à sua utilização, garantindo desempenhos estáveis e constantes, bem como o máximo de segurança para os seus dados sensíveis.
Grande capacidade de disco
Com até 360 TB de espaço de armazenamento, beneficie de uma elevada taxa de leitura/escrita (IOPS) graças à potência da tecnologia SSD.
Big Data

Descrição
Os servidores Bare Metal OVHcloud adequam-se à construção de clusters Hadoop. Implemente e interligue vários nós de dados através da nossa rede interna (vRack) de 50 Gbit/s garantidos na gama High Grade. Também pode utilizar algumas ferramentas e projetos do ecossistema Hadoop (como Apache Spark, Kettle, Ouzi ou Mawazo) para simplificar os processos de gestão da informação e de análise comercial.
Desenvolva a sua capacidade a pedido: ou adicionando discos de armazenamento pela mudança de discos a quente (hot swap) disponível em High Grade, ou aumentando os nós do seu cluster através do vRack.
Opções e serviços incluídos
- Várias opções de memória e de armazenamento.
- Largura de banda privada de 50 Gbit/s garantidos em High Grade (como opção).
- OVHcloud Link Aggregation (OLA) disponível, sem custos adicionais.
Servidores Bare Metal recomendados

Gama de servidores concebidos para infraestruturas complexas de alta resiliência. Processadores e biprocessadores de 24 a 48 núcleos, armazenamento máximo de 24 TB SSD NVMe, largura de banda privada garantida até 25 Gbps.

Os servidores mais potentes e escaláveis, otimizados para as cargas críticas.
Bi-processadores de 32 a 64 cores, armazenamento máximo de 92 TB SSD NVMe ou SSD SAS, até 24 discos (hot swap), largura de banda privada garantida até 50 Gbps.

Recomendados para as necessidades de armazenamento distribuído importante.
Processadores de 20 e 24 cores, armazenamento máximo de 360 TB, SSD NVMe ou SSD SAS, até 24 discos (hot swap) e largura de banda privada garantida até 50 Gbps.
Como se constrói uma infraestrutura big data?
Baseada parcialmente nas necessidades do projeto, qualquer infraestrutura de big data tem uma base comum: o hardware. Esta utilização requer servidores com uma grande potência de cálculo (CPU), grandes quantidades de memória viva (RAM) e espaços de armazenamento consequentes (discos rígidos, SSD e NVMe). Estes servidores devem comunicar numa rede de alta velocidade que ofereça uma velocidade de transferência suficiente para não abrandar os múltiplos tratamentos necessários ao funcionamento do projeto de big data. A infraestrutura big data recolhe e armazena grandes quantidades de dados, analisa-as com tempos de tratamento mais curtos quanto possível e, por último, proporciona um resultado que pode ser utilizado pela equipa de IT responsável pelo projeto. A construção da infraestrutura big data varia em função da tecnologia utilizada. Existem várias, sendo que algumas delas oferecem vantagens, complexidades e respostas às necessidades das empresas. Estas tecnologias incluem Apache Hadoop, Apache Spark, MongoDB, Cassandra, Rapidminer e muitas outras.