
Serveurs bare metal pour des charges de travail de haute performance
Ces serveurs bare-metal de haute performance sont spécifiquement configurés pour fournir les meilleures performances possibles pour vos charges de travail. Utilisées seules ou dans le cadre d'un cluster, une gamme de configurations matérielles à haute densité et à faible latence peut être utilisée pour le machines learning, l’informatique en grille, les bases de données en mémoire, ou les applications d'intelligence artificielle. Explorez les différents cas d'utilisation et personnalisez vos serveurs en fonction de vos objectifs et de vos besoins.


Serveurs de haute disponibilité pour les clusters à usage critique
Architecture redondante pour les circuits électriques, le refroidissement par eau, le réseau et la puissance.
Conçu pour prendre en charge les environnements de production gourmands en ressources.
Connectez vos clusters au Public Cloud ou au Hosted Private Cloud d’OVHcloud.
Choisissez et personnalisez vos serveurs pour construire vos clusters.
Choisissez vos serveurs

Serveurs optimisés pour un accès disque extrêmement rapide et une latence minimale
Certaines applications spécifiques nécessitent un support de stockage très performant en termes d'IOPS (E/S par seconde). Le serveur HG IOPS Intensive est conçu pour les tâches d'analyse de masse, les projets de simulation numérique et les applications vidéo de très haute définition. C'est aussi une base idéale sur laquelle construire, alimenter et maintenir un site de commerce électronique de haute performance. Grâce à leur faible latence et leur vitesse extrême, les SSD NVMe dont ce modèle est équipé seront plus que capables de répondre à vos besoins, étant, en moyenne, six fois plus efficaces que les SSDs en SATA.

Serveurs de haute densité, conçus pour le traitement massif de données
Utilisé seul ou en cluster, le serveur HG haute densité, configuré pour les données et les analyses volumineuses, vous permettra de gérer efficacement vos charges dynamiques. Il convient aussi bien aux applications de calcul intensif (HPC) qu'aux solutions d'analyse de données. Ce modèle, spécialement conçu pour les données volumineuses, est compatible avec les plates-formes de traitement de données les plus courantes, telles que les bases de données Hadoop, SQL et NoSQL. Il facilite également la gestion de bases de données telles que Apache Cassandra, Microsoft SQL Server et MongoDB.

Serveurs pour intelligence artificielle et le machine learning
Conçus pour le traitement des calculs parallèles nécessaires à l'apprentissage automatique, les configurations HG AI et machine learning sont équipés de composants de haute performance de la dernière génération. Ces configurations permettent de libérer tout le potentiel des processeurs Nvidia Tesla P100, l'accélérateur le plus utilisé dans le monde pour le calcul intensif parallèle. Profitez de tous les cadres d'apprentissage profonds accélérés par le Tesla P100 et de plus de 450 applications HPC.

Serveurs optimisés pour exécuter des bases de données en mémoire
Les données sont généralement stockées sur un disque dur ou un SSD, puis transférées en RAM lorsqu'elles sont utilisées. Ces nombreux accès disques peuvent ralentir les serveurs, surtout si la RAM n'est pas assez grande. La configuration HG de base de données en mémoire est la solution idéale si vous cherchez un serveur optimisé pour supporter un système de gestion de base de données en mémoire (In-Memory DBMS). Ce système est utilisé pour améliorer la performance des demandes et des applications qui accèdent aux données lorsqu'elles sont stockées en mémoire.
Fonctionnalités clés
Réseau haute performance
Conçus pour la haute disponibilité et la tolérance aux pannes, ces serveurs s'appuient sur le réseau privé vRack d'OVHcloud pour assurer des échanges fluides entre machines (jusqu'à 10 Gbit/s) dans un VLAN sécurisé. Ils sont donc idéaux pour construire un data lake, tout en l'interconnectant avec les solutions Public Cloud d'OVHcloud.
Écosystème ouvert
Pour l'IA et le machine learning, utilisez des frameworks tels que Caffe2, Cognitive Toolkit, PyTorch ou encore TensorFlow. Ceux-ci sont basés sur des bibliothèques accélérées par le GPU NVIDIA Tesla P100, comme cuDNN et NCCL, qui se spécialisent dans la fourniture de performances d'apprentissage optimales.
Accès rapide au disque et latence minimale
Avec des scores allant jusqu'à 587 000 IOPS en lecture et 184 000 IOPS en écriture, vous pouvez accélérer les bases de données NoSQL, les moteurs de recherche, les entrepôts de données, les analyses en temps réel, ainsi que les applications de cache sur disque.
Remplacement à chaud
Nos différents disques durs et SSD (SAS, SATA, NVMe) peuvent être remplacés sans avoir besoin de redémarrer votre serveur. Par conséquent, si vous avez besoin d'augmenter la capacité disque de votre serveur, vous ne subirez aucune interruption de service.
Des services professionnels pour aider votre organisation


Qu'est-ce que le cluster computing?
Le cluster computing est simplement la pratique consistant à relier plusieurs ordinateurs ou serveurs entre eux, afin de maximiser les performances et la disponibilité. La principale différence entre le Cloud Computing et le Cluster Computing est que le Cluster Computing est basé sur l'interconnexion de solutions physiques plutôt que virtuelles. Cependant, OVHcloud vous permet de relier vos clusters de serveurs dans n'importe lequel de nos datacenters à n'importe laquelle de vos solutions cloud, en utilisant les connexions privées sécurisées du vRack.
Les utilisations potentielles de ces architectures sont nombreuses : équilibrage des charges de travail entre serveurs, pour maximiser la cohérence, assurer la redondance en cas de défaillance matérielle ou fournir le niveau de performance le plus élevé, en particulier pour les applications intensives.
Quel que soit le cas d'utilisation spécifique, le matériel est un élément clé de toute solution de cluster computing de haute performance. Comme ces solutions sont généralement utilisées pour les charges de travail les plus exigeantes, tous les composants (y compris les processeurs et les GPU) doivent être de la plus haute qualité et toutes les connexions entre serveurs doivent être rapides et sécurisées. La personnalisation est essentielle à cet égard, car tout serveur utilisé comme élément d'un cluster de haute performance doit offrir la liberté d'adapter le matériel à des cas d'utilisation spécifiques et être entièrement compatible avec toutes les plates-formes de traitement de données les plus largement utilisées.
En quoi le cluster computing est-il important pour votre organisation ?
Alors que de plus en plus d'entreprises exigent le plus haut niveau de performance pour leurs charges de travail les plus intensives et explorent souvent les possibilités offertes par le big data, l'intelligence artificielle et le machine learning, la puissance brute et la flexibilité imbattable du cluster computing est devenue précieuse, pour un large éventail de domaines d'utilisation.
Par contre, la mise en place, la gestion et la maintenance d'une architecture de cluster computing en interne peuvent s'avérer extrêmement coûteuses et longues, quel que soit le niveau actuel d'expertise interne d'une organisation. C'est particulièrement difficile lorsque le déploiement rapide est essentiel pour répondre à une charge de travail spécifique ou à un pic de trafic anticipé.
Un cluster préconfiguré dans n'importe quel datacenter de classe mondiale d'OVHcloud élimine ces problèmes, tout en vous offrant la flexibilité, la sécurité et le contrôle que vous offre une solution sur site. Vous avez la liberté de configurer vos serveurs de haute performance en fonction de vos charges de travail; après cela, votre cluster sera déployé et configuré aussi rapidement que possible par nos experts internes.
De cette façon, vos équipes peuvent se concentrer sur vos projets et leur croissance continue, en toute autonomie pour gérer vos clusters depuis l’espace client d’OVHcloud, tout en ayant l'assurance que votre matériel est géré et maintenu par nos experts en centre de données.