hadoop big data ovh

Cluster Big Data Hadoop disponibili in pochi click

Il processo per creare un cluster Big Data è lungo e impegnativo. OVHcloud semplifica questa operazione: in meno di un’ora viene consegnato uno stack Apache Hadoop preconfigurato e pronto all’uso.

Basandoci su uno standard di distribuzione Hadoop open source, preconfiguriamo tutti i servizi necessari all’elaborazione dei dati e proteggiamo il traffico dal mondo esterno.

OVHcloud Big Data Cluster può essere configurato per diversi utilizzi: analisi di mercato, business intelligence, IoT o manutenzioni preventive. A te la scelta!

Servizi disponibili

Dopo aver avviato il cluster, l’utente dispone di un accesso totale a tutti i servizi elencati di seguito.

La nostra soluzione si basa su una distribuzione Apache Hadoop open source, combinata con un livello di protezione e gestione che include:

  • un gateway di rete e un bastione per proteggere il traffico dei dati dal mondo esterno
  • un Identity Management Service (Kerberos e LDAP), WebSSH e Apache Ambari per rendere sicure le operazioni
  • il software Ambari per una gestione semplificata tramite interfaccia Web
Flusso di dati Sqoop, Flume
Sicurezza Ranger, Kerberos, Know, FreelPAidM
Storage HDFS, HBase
Monitoraggio Ambari, Logs Search, Ambari Infra
Pianificazione Oozie
Messaggistica Kafka
Elaborazione YARN, Map Reduce 2, Tea, Pig, Slider, Hive, Spark 2, Presto

 

Architettura

OVHcloud Data Analytics Platform

Come funziona

1

Crea un progetto Public Cloud

Il cluster si basa su un’infrastruttura Public Cloud flessibile e performante disponibile in numerose Region. Il servizio viene fatturato in base al consumo, secondo le tariffe applicabili alle istanze utilizzate.

2

Avvia il cluster

In pochi click è possibile avviare un Big Data Cluster completo. OVHcloud si occupa della configurazione.

3

Accedi all’interfaccia

Il cluster è pronto all’uso in meno di un’ora. Non resta che accedere all’interfaccia grafica e approfittare di tutta la potenza del Big Data!

Pronto per iniziare?

Crea un account e attiva i tuoi servizi in un minuto

Tariffazione Public Cloud

Fatturazione Big Data Cluster

Il cluster Hadoop è disponibile in circa 1 ora. La fatturazione dipende da istanze e volumi utilizzati. Per il funzionamento del cluster viene applicato un costo supplementare alle tariffe delle istanze.

Bisogno di una soluzione Big Data gestita al 100%?

Cloudera

Se sei alla ricerca di una soluzione completamente gestita e ospitata su un’infrastruttura Cloud dedicata, scopri il nostro servizio Cloudera Managed che si adatta a tutte le esigenze, anche le più critiche.

 

Le risposte alle tue domande

Qual è lo SLA garantito da OVHcloud per l'accesso al servizio Big Data Cluster?

Nonostante l’elevata qualità del servizio, questa soluzione non è gestita e OVHcloud non ne garantisce quindi la disponibilità. Per maggiori informazioni, consulta le condizioni generali del servizio.

Quali sono le garanzie relative alle risorse (di calcolo, storage o altro) utilizzate dalla soluzione Big Data Cluster?

Il servizio Big Data Cluster si basa su altre risorse Cloud che dispongono di SLA propri, indicati nelle rispettive pagine.

Qual è la versione del software utilizzata?

Big Data Cluster utilizza la versione 2.6.2 della suite software Hortonworks Data Platform.

Quali sono le localizzazioni disponibili per Big Data Cluster?

Big Data Cluster è disponibile nelle seguenti localizzazioni: Francia (Gravelines, Strasburgo), Germania (Francoforte), Regno Unito (Londra), Polonia (Varsavia), Canada (Beauharnois).

Qual è la dimensione minima di un cluster?

Un cluster comprende almeno 12 server ripartiti in questo modo: 4 nodi worker, 1 nodo edge, 3 nodi master, 3 nodi utility, 1 nodo bastion. Le istanze più piccole sono B2-60 per i nodi worker, B2-15 per i nodi edge e B2-30 per i nodi master.

Qual è la dimensione massima di un cluster?

La dimensione di un cluster può raggiungere fino a 107 server di cui 50 nodi worker, 50 nodi edge, 3 nodi master, 3 nodi utility e 1 nodo bastion. Le istanze più grandi sono R2-240 per i nodi edge e worker e B2-120 per i nodi master.

Cos’è il Big Data?

Più che una tecnologia, il Big Data è un concetto: consiste nel raccogliere e aggregare una grande quantità di dati provenienti da diverse sorgenti per poterli analizzare.

Cos'è Hadoop?

Apache Hadoop è una raccolta di software che permette l'analisi di grandi volumi di dati. Questa soluzione è pensata per essere utilizzata su larga scala e garantire la massima disponibilità di informazioni e servizi.

Cos'è Hortonworks Data Platform?

Hortonworks Data Platform è un'integrazione di Apache Hadoop e altri componenti sviluppata dalla società Cloudera, che offre una user experience ottimizzata.

È possibile accedere ai diversi nodi dopo il deploy?

Sì, la chiave SSH viene aggiunta ai server creati e può essere utilizzata per connettersi a tutti i nodi, se necessario.