Data Processing OVHcloud

Analisi dei dati semplice e rapida con Apache Spark

L’elaborazione di dati aziendali implica la presenza da una parte di una certa quantità di informazioni e dall’altra di una richiesta sotto forma di poche righe di codice. Con Data Processing, OVHcloud si occupa di implementare in pochi minuti un cluster Apache Spark dedicato che risponde a queste richieste.

Parallelizzazione delle elaborazioni

Apache Spark è il framework di riferimento per l’elaborazione massiva di dati. Permette di utilizzare numerosi nodi di calcolo salvando allo stesso tempo le operazioni in RAM. In questo modo l’utente è libero di scegliere in autonomia il livello di parallelizzazione desiderato.

Tu scrivi il codice, noi lo eseguiamo

Per semplificare la vita degli utenti, OVHcloud gestisce il deploy del cluster mentre si concentrano sulle proprie esigenze aziendali. Una volta generato, il codice Java o Python viene eseguito direttamente sul cluster.

Riduzione dei costi

Invece che mantenere sempre attivo un cluster Apache Spark per eseguire operazioni di calcolo occasionali, Data Processing permette di creare un cluster dedicato in pochi minuti, quando necessario. Ad analisi completata, le risorse del cluster vengono liberate.

Modalità di utilizzo della soluzione Data Processing

Report delle performance

Milioni di righe di dati tabulari da elaborare, migliaia di tweet da analizzare, KPI da calcolare... Data Processing permette di aggregare informazioni massive per effettuare report strategici nell’ambito data science o altro.

Conoscere i propri clienti

Individuare i principali utilizzi della propria clientela europea o gli interessi degli utenti è possibile: la libreria MLib integrata ad Apache Spark permette di recuperare informazioni utili sui clienti come percorsi, abitudini e distribuzione.

Migliorare l’esperienza di acquisto

Nel settore e-commerce, poter consigliare ai propri clienti potenziali prodotti di loro interesse è fondamentale. Per farlo è però necessario analizzare il carrello degli acquisti per individuare i servizi complementari da proporre durante la navigazione.

Come funziona la soluzione Data Processing

Grazie a un'ottimizzazione accurata dei deploy, OVHcloud è in grado di creare ed eliminare al volo i cluster Apache Spark utilizzati per elaborare grandi volumi di dati. Una volta implementato, Spark sfoglierà direttamente le informazioni, le caricherà in memoria ed eseguirà tutti i calcoli in una sola volta prima di restituire il risultato e liberare le risorse.

1

Inizializzazione

Con i dati e il proprio codice a disposizione, è possibile richiedere la creazione di un cluster con dimensioni adeguate alle proprie esigenze.

2

Invio del job

Apache Spark distribuirà il carico nel cluster appena creato.

3

Recupero del risultato

Una volta eseguiti i calcoli è possibile recuperare il risultato dell’analisi.

Pricing Public Cloud

Fatturazione Data Compute