hadoop big data ovh

Ihr Hadoop Big Data Cluster − eingerichtet in wenigen Klicks

Einen Big Data Cluster einzurichten ist ein langwieriger und komplexer Vorgang. OVHcloud Big Data Cluster macht Ihnen die Arbeit einfacher. In weniger als einer Stunde liefern wir Ihnen einen vorkonfigurierten und einsatzbereiten Apache Hadoop Stack.

Basierend auf einem Open Source Hadoop-Betriebssystemstandard sind alle für die Datenverarbeitung notwendigen Dienste von uns vorkonfiguriert und schützen Ihre Datenströme im öffentlichen Netz sowie zu Ihren Benutzern.

Richten Sie OVHcloud Big Data Cluster für verschiedene Verwendungszwecke ein: Marktanalysen, Business Intelligence, IoT oder Predictive Maintenance. Jetzt sind Sie an der Reihe!

Verfügbare Dienste

Sobald Ihr Cluster eingerichtet ist, erhalten Sie Zugriff auf alle nachstehenden Dienste.

Unsere Lösung basiert auf einer Apache Hadoop Open-Source-Distribution mit einer zusätzlichen Sicherheits- und Verwaltungsschicht inklusive:

  • Netzwerk-Gateway und Bastion-Host, um Ihren Traffic im öffentlichen Netz zu sichern.
  • Identity Management Service (Kerberos und LDAP), WebSSH und Apache Ambari, um Ihre Prozesse zu schützen.
  • Ambari-Software für die vereinfachte Verwaltung über ein Webinterface.
Dataflow Sqoop, Flume
Sicherheit Ranger, Kerberos, Know, FreelPAidM
Storage HDFS, HBase
Monitoring Ambari, Logs Search, Ambari Infra
Scheduling Oozie
Messaging Kafka
Processing YARN, MapReduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto

 

Architektur

OVHcloud Data Analytics Platform

Verwendung

1

Public Cloud Projekt erstellen

Ihr Cluster basiert auf einer flexiblen und leistungsstarken Public Cloud Infrastruktur, die in verschiedenen Regionen verfügbar ist. Ihr Dienst wird anhand Ihres Verbrauchs und nach den Preisen der verwendeten Instanzen abgerechnet.

2

Cluster einrichten

Starten Sie mit nur wenigen Klicks die Bereitstellung eines kompletten Big Data Clusters. OVHcloud übernimmt die gesamte Konfiguration.

3

Mit dem Interface verbinden

Sie können Ihren Cluster in weniger als einer Stunde verwenden. Verbinden Sie sich mit dem grafischen Interface und nutzen Sie die Power von Big Data!

Sind Sie startklar?

Erstellen Sie einen Account und starten Sie Ihre Dienste in Minutenschnelle.

Public Cloud Preise

Abrechnung von Big Data Cluster

Der Hadoop-Cluster wird in ungefähr einer Stunde vorkonfiguriert geliefert. Die Abrechnung erfolgt entsprechend den verwendeten Instanzen und Storage-Lösungen. Für den Betrieb des Clusters wird ein Zuschlag auf den Preis der Instanzen erhoben.

Sie suchen eine vollständig gemanagte Big-Data-Lösung?

Cloudera

Sie benötigen umfangreichen Support und eine zu 100 % gemanagte Lösung, die auf einer dedizierten Cloud-Infrastruktur gehostet ist? Entdecken Sie unser Cloudera Managed Angebot, das an alle Verwendungszwecke angepasst ist − auch für Ihre kritischsten Anwendungen.

 

Häufig gestellte Fragen

Welches SLA garantiert OVHcloud für die Verfügbarkeit des Big Data Cluster Dienstes?

Trotz der hohen Dienstqualität handelt es sich hierbei nicht um eine verwaltete Lösung und OVHcloud übernimmt daher auch keine Garantie für deren Verfügbarkeit. Weitere Informationen finden Sie in den allgemeinen Verkaufsbedingungen.

Welche Garantien gelten für die vom Big Data Cluster Dienst verwendeten Ressourcen (Compute, Storage oder andere)?

Big Data Cluster basiert auf anderen Cloud-Ressourcen, für die jeweils eigene SLAs gelten, die Sie auf den entsprechenden Produktseiten einsehen können.

Welche Software-Version wird verwendet?

Big Data Cluster deployt die Hortonworks Data Platform Software-Suite in der Version 2.6.2.

Welche Standorte sind für Big Data Cluster verfügbar?

Big Data Cluster ist an folgenden Standorten verfügbar: Frankreich (Roubaix, Straßburg), Deutschland (Frankfurt), Vereinigtes Königreich (London), Polen (Warschau), Kanada (Beauharnois).

Was ist die Mindestgröße eines Clusters?

Ein Cluster umfasst mindestens 12 Server, die wie folgt verteilt sind: 4 Worker-Nodes, 1 Edge-Node, 3 Master-Nodes, 3 Utility-Nodes, 1 Bastion-Node. Die kleinsten Instanzen sind B2-60 für Worker-Nodes, B2-15 für Edge-Nodes und B2-30 für Master-Nodes.

Was ist die maximale Größe eines Clusters?

Ein Cluster kann bis zu 107 Server umfassen, darunter 50 Worker-Nodes, 50 Edge-Nodes, 3 Master-Nodes, 3 Utility-Nodes und 1 Bastion-Node. Die größten Instanzen sind R2-240 für Edge-Nodes und Worker-Nodes sowie B2-120 für Master-Nodes.

Was ist Big Data?

Big Data ist eher ein Konzept als eine Technologie. Hierbei werden große Mengen an Daten aus verschiedenen Quellen gesammelt und zusammengetragen, um sie anschließend zu analysieren.

Was ist Hadoop?

Apache Hadoop ist eine Sammlung von Programmen zur Analyse großer Datenmengen. Diese Lösung ist so konzipiert, dass sie in großem Maßstab deployt werden kann und dabei eine hohe Verfügbarkeit von Daten und Diensten gewährleistet.

Was ist Hortonworks Data Platform?

Hortonworks Data Platform ist eine von dem Unternehmen Cloudera entwickelte Integration von Apache Hadoop mit anderen Komponenten. Sie sorgt für ein verbessertes Benutzererlebnis.

Habe ich nach dem Deployment Zugriff auf die verschiedenen Nodes?

Ja, Ihr SSH-Schlüssel wird zu den deployten Servern hinzugefügt. Sie können sich bei Bedarf auf jedem Node einloggen.