
L'analyse de vos données simple et rapide sur Apache Spark
Lorsque vous souhaitez traiter vos données métier, vous disposez d'une certaine quantité d'informations d'une part et d'une question d'autre part, sous la forme de quelques lignes de code. Avec Data Processing, OVHcloud s'occupe de déployer en quelques minutes un cluster Apache Spark dédié pour répondre à votre question.
Parallélisation des traitements
Apache Spark est le framework de référence pour le traitement massif de données. Il permet d'exploiter de multiples nœuds de calcul, tout en stockant les opérations en mémoire vive. Ainsi, vous choisissez vous-même le niveau de parallélisation souhaité.
Vous codez, nous déployons
Simplifiez-vous la vie. Nous gérons le déploiement du cluster pendant que vous vous concentrez sur vos besoins métier. Une fois votre code Java ou Python généré, celui-ci est directement exécuté sur votre cluster.
Réduction des coûts
Au lieu de conserver en permanence un cluster Apache Spark pour des opérations de calcul occasionnelles, Data Processing permet de créer en quelques minutes un cluster dédié chaque fois que vous en avez besoin. Une fois l'analyse terminée, le cluster est libéré.
Cas d’utilisation de notre solution de Data Processing
Comment fonctionne la solution de Data Processing ?
Grâce à une optimisation fine du déploiement, OVHcloud est capable de créer et détruire à la volée des clusters Apache Spark utilisés pour traiter d'importants volumes de données. Une fois déployé, Spark va directement parcourir les informations, les charger en mémoire, puis effectuer l'ensemble des calculs en une fois avant de fournir le résultat et libérer les ressources.
Initialisation
Avec vos données d'une part et votre code d'autre part, demandez la création d'un cluster dont la taille répond à vos besoins.
Soumettez votre job
Apache Spark distribuera la charge à travers le cluster fraîchement déployé.
Récupérez le résultat
Une fois les calculs effectués, récupérez simplement le résultat de votre analyse.
