hadoop big data ovh

Klaster Big Data Hadoop uruchomiony w jednej chwili

Uruchomienie klastra Big data jest zazwyczaj długim i wymagającym procesem. Big Data Cluster pomaga uprościć Twoje projekty. W czasie krótszym niż jedna godzina dostarczamy wstępnie skonfigurowany i gotowy do użytku stos oprogramowania Apache Hadoop.

Opierając się na standardowej dystrybucji open source Hadoop, wstępnie konfigurujemy wszystkie usługi niezbędne do analizy Twoich danych oraz zabezpieczamy wymianę ruchu z siecią publiczną i Twoimi użytkownikami.

Wykorzystuj Big Data Cluster do realizacji wielu zadań, takich jak: analiza rynków, Business Intelligence, Internet rzeczy lub konserwacja predykcyjna. Nie zwlekaj!

Dostępne usługi

Po wdrożeniu klastra będziesz miał pełny dostęp do wszystkich wymienionych poniżej usług.

Rozwiązanie OVHcloud zbudowane jest w oparciu o dystrybucję open source Apache Hadoop rozszerzoną o dodatkową warstwę zapewniającą bezpieczeństwo i możliwość zarządzania danymi:

  • brama sieciowa i bastion do zabezpieczenia wymiany ruchu z siecią publiczną;
  • Identity Management Service (Kerberos i LDAP), WebSSH i Apache Ambari do zabezpieczenia Twoich operacji;
  • oprogramowanie Ambari do zarządzania za pośrednictwem interfejsu webowego.
Dataflow Sqoop, Flume
Security Ranger, Kerberos, Know, FreelPAidM
Storage HDFS, HBase
Monitoring Ambari, Logs Search, Ambari Infra
Scheduling Oozie
Messaging Kafka
Processing YARN, Map Reduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto

 

Architektura

OVHcloud Data Analytics Platform

Wdrożenie

1

Utwórz projekt Public Cloud

Twój klaster zbudowany jest w oparciu o elastyczną i wydajną infrastrukturę Public Cloud, dostępną w wielu lokalizacjach. Usługa fakturowana jest  według zużycia zgodnie z obowiązującym cennikiem instancji.

2

Uruchom klaster

Za pomocą kilku kliknięć uruchom w pełni funkcjonalny Big Data Cluster. OVHcloud zajmie się jego konfiguracją.

3

Zaloguj się do interfejsu

Klaster jest gotowy do użytku w czasie krótszym niż jedna godzina. Teraz zaloguj się do interfejsu graficznego i wykorzystaj pełną moc Big Data!

Rozpocznij pracę na Public Cloud

Załóż konto i zacznij od razu korzystać z usług

Cennik Public Cloud

Płatności za Big Data Cluster

Klaster Hadoop jest dostarczany z wstępną konfiguracją w ciągu około jednej godziny. Płatności zależą od użytych instancji i wolumenów. Cena instancji obejmuje dodatkowe koszty związane z działaniem klastra.

Potrzebujesz w pełni zarządzanego rozwiązania do analizy Big Data?

Cloudera

Potrzebujesz wsparcia oraz w pełni zarządzanego rozwiązania hostowanego w dedykowanej infrastrukturze chmurowej? Odkryj ofertę Cloudera Managed stworzoną na miarę Twoich potrzeb i idealną do realizacji najbardziej krytycznych projektów.

 

Odpowiedzi na Twoje pytania

Jaki poziom SLA OVHcloud gwarantuje w zakresie dostępności usługi Big Data Cluster?

Potwierdzamy wysoką jakość usługi Big Data Cluster, ale ponieważ nie jest to usługa zarządzana przez OVHcloud, nie możemy gwarantować określonego poziomu jej dostępności. Więcej informacji znajdziesz w regulaminach dotyczących świadczenia usług.

Jakie gwarancje dotyczące zasobów (mocy obliczeniowej, przestrzeni dyskowej, etc.) oferuje OVHcloud w przypadku usługi Big Data Cluster?

Usługa korzysta z innych zasobów cloud, dla których określone zostały warunki SLA - znajdziesz je na stronach dedykowanych każdemu z tych zasobów.

Jaka wersja oprogramowania została wdrożona?

Wdrożone oprogramowanie to Hortonworks Data Platform w wersji 2.6.2.

W których lokalizacjach dostępna jest usługa Big Data Cluster?

Usługa Big Data Cluster dostępna jest w następujących lokalizacjach: Polska (Warszawa), Francja (Gravelines, Strasburg), Niemcy (Frankfurt), Wielka Brytania (Londyn), Kanada (Beauharnois).

Jaki jest minimalny rozmiar klastra?

Klaster składa się z co najmniej 12 serwerów: 4 worker nodes, 1 edge node, 3 master nodes, 3 utility nodes, 1 bastion node. Najmniejsze instancje to B2-60 dla worker nodes, B2-15 dla edge nodes oraz B2-30 dla master nodes.

Jaki jest maksymalny rozmiar klastra?

Klaster może składać się z maksymalnie 107 serwerów, w tym z 50 worker nodes, 50 edge nodes, 3 master nodes, 3 utility nodes i 1 bastion node. Największe instancje to R2-240 dla edge nodes i worker nodes oraz B2-120 dla master nodes.

Co to jest Big Data?

Big Data to technologia, która umożliwia przechowywanie, przetwarzanie i analizę w czasie rzeczywistym ogromnych zbiorów danych pochodzących z wielu źródeł.

Co to jest Hadoop ?

Apache Hadoop to stos oprogramowania umożliwiający analizę dużych zbiorów danych. Rozwiązanie przeznaczone jest do wdrożeń na dużą skalę, zapewnia wysoką dostępność danych i usług.

Co to jest Hortonworks Data Platform?

Hortonworks Data Platform to rozwiązanie open source do rozproszonego przechowywania i przetwarzania dużych zbiorów danych. Jest kombinacją Apache Hadoop i innych komponentów opracowaną przez firmę Cloudera.

Czy po wdrożeniu klastra będę miał dostęp do poszczególnych węzłów?

Tak, Twój klucz SSH został dodany do wdrożonych serwerów. W razie potrzeby możesz połączyć się z każdym z węzłów.