hadoop big data ovh

Despliegue su cluster big data Hadoop en solo unos clics

Desplegar un cluster big data suele ser un proceso largo y tedioso. Ahora Big Data Cluster de OVHcloud se lo pone fácil: en menos de una hora le entregamos un stack Apache Hadoop preconfigurado y listo para usar.

Basándonos en un estándar de distribución Hadoop de código abierto, preconfiguramos todos los servicios necesarios para el procesamiento de datos y protegemos el tráfico con el exterior.

Big Data Cluster de OVHcloud tiene múltiples usos: análisis de mercado, inteligencia empresarial, IoT o incluso mantenimiento preventivo. ¡La elección está en sus manos!

Servicios disponibles

Una vez desplegado el cluster, tendrá acceso completo a los servicios que se indican más abajo.

Nuestra solución se basa en una distribución Apache Hadoop open source combinada con una capa de seguridad y gestión que incluye:

  • una pasarela de red y un bastión para proteger el tráfico con el exterior;
  • un servicio de gestión de identidades (Kerberos y LDAP), WebSSH y Apache Ambari para proteger sus operaciones;
  • el programa de software Ambari para facilitar la administración a través de una interfaz web.
Transferencia de datos Sqoop, Flume
Seguridad Ranger, Kerberos, Know, FreelPAidM
Storage HDFS, HBase
Monitorización Ambari, Logs Search, Ambari Infra
Programación de tareas Oozie
Mensajería Kafka
Procesamiento yarn, MapReduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto

 

Arquitectura

OVHcloud Data Analytics Platform

Modo de utilización

1

Crear un proyecto de Public Cloud

El cluster se basa en una infraestructura de Public Cloud flexible, potente y disponible en numerosas regiones. El servicio se factura por consumo, en función del precio de las instancias utilizadas.

2

Desplegar el cluster

Lance el despliegue de un Big Data Cluster completo en solo unos clics. OVHcloud se encarga de configurarlo.

3

Conectarse a la interfaz

En menos de una hora, su cluster estará listo para usar. Conéctese a la interfaz gráfica y ¡empiece a disfrutar de la potencia del big data!

¿Empezamos?

Cree una cuenta y lance sus servicios en cuestión de minutos

Pricing Public Cloud

Facturación de Big Data Cluster

El cluster Hadoop se entrega preconfigurado en aproximadamente una hora. La facturación depende de las instancias y los volúmenes utilizados. Se aplica un recargo sobre el precio de las instancias por la gestión del servicio.

Solución big data 100% administrada

Cloudera

¿Necesita una solución 100% administrada, alojada en una infraestructura de cloud dedicado? Descubra cómo nuestra solución Cloudera Managed se adapta a todos los usos, incluidos los más críticos.

 

La respuesta a sus preguntas

¿Cuál es el SLA garantizado por OVHcloud para el acceso al servicio Big Data Cluster?

Pese a la constatación de una alta calidad del servicio, esta solución no es gestionada, por lo que OVHcloud no puede garantizar la disponibilidad del servicio. Para más información, consulte las condiciones generales del servicio.

¿Qué garantías ofrecen los recursos (procesamiento, almacenamiento u otros) utilizados por el servicio Big Data Cluster?

Este servicio se basa en otros recursos cloud con sus propios SLA. Para consultarlos, acceda a sus respectivas páginas.

¿Cuál es la versión del software utilizada?

Big Data Cluster despliega la suite de software Hortonworks Data Platform en versión 2.6.2.

¿En qué localizaciones está disponible el servicio Big Data Cluster?

El servicio está disponible en las siguientes localizaciones: Francia (Gravelines, Estrasburgo), Alemania (Fráncfort), Reino Unido (Londres), Polonia (Varsovia) y Canadá (Beauharnois).

¿Cuál es el tamaño mínimo de un cluster?

Un cluster incluye como mínimo 12 servidores repartidos de la siguiente manera: 4 worker nodes, 1 edge node, 3 master nodes, 3 utility nodes y 1 bastion node. Las instancias más pequeñas son las B2-60 para los worker nodes, las B2-15 para los edge nodes y las B2-30 para los master nodes.

¿Cuál es el tamaño máximo de un cluster?

Un cluster puede llegar a tener hasta 107 servidores: 50 worker nodes, 50 edge nodes, 3 master nodes, 3 utility nodes y 1 bastion node. Las instancias más voluminosas son las R2-240 para los edge nodes y los worker nodes, así como las B2-120 para los master nodes.

¿Qué es el big data?

El big data es un concepto más que una tecnología. Consiste en recopilar y reunir una gran cantidad de datos procedentes de diversas fuentes para poder analizarlos.

¿Qué es Hadoop?

Apache Hadoop es un conjunto de programas de software que permite analizar grandes volúmenes de datos. Esta solución está diseñada para desplegarse a gran escala y garantizar una alta disponibilidad de los datos y los servicios.

¿Qué es Hortonworks Data Platform?

Hortonworks Data Platform es una integración de Apache Hadoop y otros componentes realizada por la empresa Cloudera que ofrece una experiencia de usuario optimizada.

¿Tendré acceso a los diferentes nodos tras el despliegue?

Sí, la llave SSH se añade a los servidores desplegados. Así pues, si lo necesita, podrá conectarse a cada uno de los nodos.