Data Processing OVHcloud

Analisi dei dati semplice e rapida con Apache Spark

L’elaborazione di dati aziendali implica la presenza da una parte di una certa quantità di informazioni e dall’altra di una richiesta sotto forma di poche righe di codice. Con Data Processing, OVHcloud si occupa di implementare in pochi minuti un cluster Apache Spark dedicato che risponde a queste richieste.

Parallelizzazione delle elaborazioni

Apache Spark è il framework di riferimento per l’elaborazione massiva di dati. Permette di utilizzare numerosi nodi di calcolo salvando allo stesso tempo le operazioni in RAM. In questo modo l’utente è libero di scegliere in autonomia il livello di parallelizzazione desiderato.

Tu scrivi il codice, noi lo eseguiamo

Per semplificare la vita degli utenti, OVHcloud gestisce il deploy del cluster mentre si concentrano sulle proprie esigenze aziendali. Una volta generato, il codice Java o Python viene eseguito direttamente sul cluster.

Riduzione dei costi

Invece che mantenere sempre attivo un cluster Apache Spark per eseguire operazioni di calcolo occasionali, Data Processing permette di creare un cluster dedicato in pochi minuti, quando necessario. Ad analisi completata, le risorse del cluster vengono liberate.

Certificazioni ISO/IEC 27001, 27701 e conformità* all’hosting di dati sanitari

Le nostre infrastrutture e servizi Cloud sono certificati ISO/IEC 27001, 27017, 27018 e 27701. La nostra conformità* normativa ti consente di ospitare i dati sanitari in totale sicurezza.

* Presto disponibile

Modalità di utilizzo della soluzione Data Processing

Report delle performance

Milioni di righe di dati tabulari da elaborare, migliaia di tweet da analizzare, KPI da calcolare... Data Processing permette di aggregare informazioni massive per effettuare report strategici nell’ambito data science o altro.

Conoscere i propri clienti

Individuare i principali utilizzi della propria clientela europea o gli interessi degli utenti è possibile: la libreria MLib integrata ad Apache Spark permette di recuperare informazioni utili sui clienti come percorsi, abitudini e distribuzione.

Migliorare l’esperienza di acquisto

Nel settore e-commerce, poter consigliare ai propri clienti potenziali prodotti di loro interesse è fondamentale. Per farlo è però necessario analizzare il carrello degli acquisti per individuare i servizi complementari da proporre durante la navigazione.

Come funziona la soluzione Data Processing?

Grazie a un'ottimizzazione accurata dei deploy, OVHcloud è in grado di creare ed eliminare al volo i cluster Apache Spark utilizzati per elaborare grandi volumi di dati. Una volta implementato, Spark sfoglierà direttamente le informazioni, le caricherà in memoria ed eseguirà tutti i calcoli in una sola volta prima di restituire il risultato e liberare le risorse.

1

Inizializzazione

Con i dati e il proprio codice a disposizione, è possibile richiedere la creazione di un cluster con dimensioni adeguate alle proprie esigenze.

2

Invio del job

Apache Spark distribuirà il carico nel cluster appena creato.

3

Recupero del risultato

Una volta eseguiti i calcoli è possibile recuperare il risultato dell’analisi.

Tariffazione Public Cloud

Fatturazione Data Compute

Cos'è il data processing?

Il Data Processing, o elaborazione di dati, è il processo di analisi dei dati grezzi. Questa vasta quantità di informazioni è fondamentale per le aziende: una volta elaborate, permettono di comprendere meglio i dati di vendita, l'efficacia di una campagna di marketing e i rischi finanziari. Questa operazione prevede vari step:

Raccolta di informazioni. La quantità di dati raccolti determina la qualità del risultato. Le fonti di provenienza sono numerose: file cliente, inventari, studi precedenti, ecc. Per poter essere utilizzate, queste informazioni devono essere affidabili. Preparazione delle informazioni. Fase di "pulizia" dei database che elimina gli elementi di qualità scadente e gli errori. Importazione dei dati elaborati e avvio del trattamento. L’automatizzazione di questa analisi richiede un algoritmo di Machine Learning. Interpretazione dei dati. Questa operazione permette di ottenere informazioni chiare e utilizzabili da tutti. Archiviazione dei dati. In questo modo le informazioni potranno essere utilizzate per studi futuri.

 

Ti ricordiamo che l'archiviazione delle informazioni è regolamentata. Ad esempio, il GDPR richiede una soluzione sicura e conforme per tutti i tuoi dati.

 

Come creare un cluster Spark?

Per implementare un data processing efficace nella propria azienda, è possibile creare un cluster Apache Spark dedicato in pochi minuti, accedendo allo Spazio Cliente OVHcloud e implementando il cluster. A quel punto è possibile avviare il trattamento dei dati.