hadoop big data ovh

Uw Hadoop big data cluster - opgezet in slechts enkele klikken

Het opzetten van een big data cluster is een langdurig en complex proces. OVHcloud Big Data Cluster maakt uw werk eenvoudiger. Binnen 1 uur leveren we een vooraf geconfigureerde en gebruiksklare Apache Hadoop stack.

Op basis van de standaard open-source Hadoop distributie, configureren we vooraf alle diensten die nodig zijn om uw data te verwerken en hun uitwisseling met het openbare netwerk en uw gebruikers te beveiligen.

Implementeer OVHcloud Big Data Cluster voor talrijke doeleinden: marktanalyse, business intelligence, IoT of predictief onderhoud. Het is aan u!

Beschikbare diensten

Zodra uw cluster actief is, hebt u toegang tot alle onderstaande diensten.

Onze oplossing is gebaseerd op een open source distributie van Apache Hadoop met een extra beveiligings- en beheerlaag, waaronder:

  • Network gateway en bastion host om uw verkeer op het openbare netwerk te beveiligen.
  • Identity Management Service (Kerberos en LDAP), WebSSH en Apache Ambari om uw processen te beveiligen.
  • Ambari software voor vereenvoudigd beheer via een webinterface.
Dataflow Sqoop, Flume
Security Ranger, Kerberos, Know, FreelPAidM
Storage HDFS, HBase
Monitoring Ambari, Logs Search, Ambari Infra
Scheduling Oozie
Messaging Kafka
Processing YARN, Map Reduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto

 

Architectuur

OVHcloud Data Analytics Platform

Gebruik

1

Creëer Public Cloud project

Uw cluster is gebaseerd op een flexibele en krachtige Public Cloud infrastructuur, die beschikbaar is in verschillende regio's. Uw dienst wordt gefactureerd op basis van uw gebruik en de prijzen van de gebruikte instances.

2

Cluster implementeren

Implementeer een complete Big Data-cluster in slechts een paar klikken. OVHcloud neemt de volledige configuratie over.

3

Inloggen op de interface

U kunt uw cluster binnen een uur gebruiken. Maak verbinding met de grafische interface en krijg de kracht van big data!

Klaar om te beginnen?

Maak een account aan en start uw services binnen een minuut

Pricing Public Cloud

Facturering van Big Data Cluster

De Hadoop cluster wordt in ongeveer 1 uur vooraf geconfigureerd geleverd. De facturering gebeurt op basis van de gebruikte instances en volumes. Voor het laten functioneren van een cluster wordt een toeslag op de prijs van de instances gehanteerd.

Bent u op zoek naar een volledig beheerde big data oplossing?

Cloudera

U hebt uitgebreide ondersteuning en een 100% beheerde oplossing nodig die wordt gehost op een dedicated cloud infrastructuur? Ontdek onze Cloudera Managed oplossing die is aangepast aan alle soorten gebruik - zelfs voor uw meest kritische toepassingen.

 

Welke SLA wordt door OVHcloud gegarandeerd voor toegang tot de Big Data Cluster-service?

Ondanks dat de servicekwaliteit in het algemeen zeer goed is, is deze oplossing niet gemanaged en OVHcloud garandeert daarom geen beschikbaarheidsniveau ervoor. We verwijzen u voor meer informatie naar de algemene voorwaarden.

Welke garanties biedt de Big Data Cluster-service voor de resources (compute, storage of anderszins)?

De Big Data Cluster-service is gebaseerd op andere cloud-resources die hun eigen SLA hebben. Deze kunt u raadplegen op hun respectievelijke pagina's.

Welke versie van de software wordt geïmplementeerd?

Voor Big Data Cluster wordt versie 2.6.2 van het softwarepakket Hortonworks Data Platform geïmplementeerd.

Welke locaties zijn beschikbaar voor Big Data Cluster?

Big Data Cluster is beschikbaar op de volgende locaties: Frankrijk (Gravelines, Straatsburg), Duitsland (Frankfurt), het Verenigd Koninkrijk (Londen), Polen (Warschau), Canada (Beauharnois).

Wat is de minimale grootte van een cluster?

Een cluster bestaat uit minstens 12 servers, die als volgt worden verdeeld: 4 worker-nodes, 1 edge-node, 3 master-nodes, 3 utility-nodes, 1 bastion-node. De kleinste instances zijn B2-60's voor worker-nodes, B2-15's voor edge-nodes en B2-30's voor master-nodes.

Wat is de maximale grootte van een cluster?

De grootte van een cluster kan maximaal 107 servers bedragen, waarvan 50 worker-nodes, 50 edge-nodes, 3 master-nodes, 3 utility-nodes en 1 bastion-node. De grootste instances zijn R2-240's voor edge- en worker-nodes en B2-120's voor master-nodes.

Wat is big data?

Big data is eerder een concept dan een technologie. Dit is het verzamelen en bijeenbrengen van grote hoeveelheden gegevens uit meerdere bronnen om ze te kunnen analyseren.

Wat is Hadoop?

Apache Hadoop is een verzameling software waarmee grote hoeveelheden gegevens kunnen worden geanalyseerd. Deze oplossing is ontworpen voor grootschalige implementatie en om hoge beschikbaarheid van gegevens en services te garanderen.

Wat is Hortonworks Data Platform?

Hortonworks Data Platform is een integratie van Apache Hadoop en andere componenten, gemaakt door het bedrijf Cloudera. Het biedt een verbeterde gebruikerservaring.

Heb ik toegang tot de nodes na de implementatie?

Ja, uw SSH-key wordt toegevoegd aan de geïmplementeerde servers. U kunt indien nodig verbinding maken met elk van de nodes.