Solution Big Data Cluster

hadoop big data ovh

Votre grappe big data Hadoop déployée en quelques clics

Déployer une grappe big data est un processus long et contraignant. La solution Big Data Cluster vous simplifie votre métier. En moins d’une heure, nous vous livrons un socle technique Apache Hadoop, préconfiguré et prêt à l’usage.

En nous basant sur un standard ouvert de distribution Hadoop, nous préconfigurons tous les services nécessaires à vos traitements de données et sécurisons vos flux avec le monde externe ainsi que vos utilisateurs.

Déployez la solution Big Data Cluster pour de nombreux usages : l'analyse des marchés, l'informatique décisionnelle, l’IoT ou encore la maintenance prévisionnelle. À vous de jouer !

Services disponibles

Une fois la grappe déployée, vous disposerez d’un accès total à l’ensemble des services listés ci-dessous.

Nous basons notre offre sur une distribution Apache Hadoop open source accompagnée d’une surcouche de sécurisation et de gestion comportant :

  • une passerelle réseau et un bastion pour sécuriser vos flux avec le monde externe ;
  • un service de gestion de l'identité (Kerberos et LDAP), WebSSH et Apache Ambari pour sécuriser vos opérations ;
  • le logiciel Ambari pour une gestion simplifiée via une interface web.
Flux de données Sqoop, Flume
Sécurité Ranger, Kerberos, Know, FreelPAidM
Stockage HDFS, HBase
Monitorage Ambari, Logs Search, Ambari Infra
Planification Oozie
Message Kafka
Traitement YARN, Map Reduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto

 

Architecture

OVHcloud Data Analytics Platform

Usage

1

Je crée un projet Cloud Public

Votre grappe repose sur une infrastructure Cloud Public flexible et performante, disponible dans de nombreuses régions. Votre service vous est facturé à l’usage suivant les tarifs des instances utilisées.

2

Je déploie ma grappe

En quelques clics, lancez le déploiement d’une grappe Big Data complète. OVHcloud s’occupe de toute sa configuration.

3

Je me connecte à l'interface

En moins d’une heure, votre grappe est prête à l’emploi. Il ne reste plus qu’à vous connecter à l’interface graphique et à profiter de la puissance du big data !

Prêt à commencer ?

Créez un compte et lancez vos services dans la minute

Pricing Public Cloud

Facturation de la solution Big Data Cluster

La grappe Hadoop est livrée préconfigurée en environ 1 heure. La facturation est en fonction des instances et des volumes utilisés. Pour le fonctionnement de la grappe, une majoration est appliquée sur le prix des instances.

Besoin d'une offre big data 100 % infogérée ?

Cloudera

Besoin d’un accompagnement, d’une solution 100 % infogérée et hébergée sur une infrastructure cloud dédiée ? Découvrez notre offre Cloudera Managed, adaptée à tous vos usages, même les plus critiques.

 

Quel SLA est garanti par OVHcloud concernant l'accès au service Big data cluster ?

Malgré la constatation d’une qualité de service élevée, cette solution n’est pas managée et OVHcloud ne lui garantit donc pas de disponibilité. Pour plus d'informations, veuillez consulter les conditions générales de vente.

Quelles sont les garanties pour les ressources (compute, storage ou autre) utilisées par le service Big data cluster ?

Le service Big data cluster s’appuie sur d'autres ressources cloud qui possèdent leurs propres SLA, consultables depuis leurs pages respectives.

Quelle est la version du logiciel déployée ?

Big data cluster déploie la suite logicielle Hortonworks Data Platform en version 2.6.2.

Quelles sont les localisations disponibles pour Big data cluster ?

Big data cluster est disponible dans les localisations suivantes : France (Gravelines, Strasbourg), Allemagne (Francfort), Royaume-Uni (Londres), Pologne (Varsovie), Canada (Beauharnois).

Quelle est la taille minimale d’un cluster ?

Un cluster comprend a minima 12 serveurs répartis de la manière suivante : 4 worker nodes, 1 edge node, 3 master nodes, 3 utility nodes, 1 bastion node. Les plus petites instances sont des B2-60 pour les worker nodes, des B2-15 pour les edge nodes et des B2-30 pour les master nodes.

Quelle est la taille maximale d’un cluster ?

La taille d'un cluster peut aller jusqu’à 107 serveurs dont 50 worker nodes, 50 edge nodes, 3 master nodes, 3 utility nodes et 1 bastion node. Les plus grosses instances sont des R2-240 pour les edge nodes et les worker nodes ainsi que des B2-120 pour les master nodes.

Qu'est-ce que le big data ?

Le big data est un concept plus qu'une technologie. Cela consiste à collecter et rassembler une grande quantité de données venant de multiples sources afin de pouvoir les analyser.

Qu'est-ce que Hadoop ?

Apache Hadoop est une collection de logiciels permettant l'analyse de gros volumes de données. Cette solution est conçue pour pouvoir être déployée à grande échelle et assurer une haute disponibilité des données et des services.

Qu'est-ce que Hortonworks Data Platform ?

Hortonworks Data Platform est une intégration d’Apache Hadoop et d'autres composants, faite par la société Cloudera. Elle propose une expérience utilisateur améliorée.

Ai-je accès aux différents nodes après le déploiement ?

Oui, votre clé SSH est ajoutée aux serveurs déployés. Vous pouvez vous connecter sur chacun des nœuds si besoin.