custom background image

Instances GPU H200


Accélérez vos projets IA avec les instances GPU H200

Des performances de pointe pour l’entraînement, l’inférence et les workloads data les plus exigeants dans un cloud européen, fiable et transparent.

Pourquoi choisir les GPU NVIDIA H200 ?

Puissants

Jusqu’à 1,4 × plus rapide que le H100 pour l’entraînement et l’inférence de modèles GenAI.

Performants

141 Go de mémoire HBM3e ultra rapide : 2 × plus de bande passante mémoire, l’idéal pour les modèles volumineux.

Compatibles

Compatible H100 : exploitez vos frameworks et optimisations existantes sans migration complexe.

Souverain

Disponibles dans notre Public Cloud, assurant flexibilité, transparence et conformité européenne.

Optimisé pour vos workloads IA et data

LLM à très grande échelle

Entraînez et déployez des modèles jusqu’à 175 B de paramètres (GPT-3, Llama 3, Falcon 180 B) grâce à ses 141 Go de mémoire HBM3e et à une bande passante de 4,8 To/s.

IA générative avancée

Générez du texte, de l’image, de l’audio et de la vidéo avec des temps de réponse stables, même dans des contextes longs.

Contexte étendu et RAG

Améliorez vos assistants IA et chatbots avec de longues fenêtres contextuelles.

Spécifications

Caractéristiques techniques

GPU

De 1 à 8 GPU par instance

Mémoire GPU

141 Go de HBM3 ultra rapide par GPU

Stockage performant

Passthrough NVMe local sur la majorité des instances

Réseau public et privé

Jusqu'à 25 Gbit/s inclus

Automatisation

Gestion via votre espace client, API, OVHcloud CLI…

Sécurisé et privé

Certifications ISO27001, SOC, hébergement de données de santé…

Maximisez votre ROI avec une infrastructure GPU flexible

Transparence tarifaire

Payez uniquement pour les ressources que vous utilisez, sans frais cachés. Vous gardez le contrôle de vos coûts tout en profitant de performances optimales.

Évolutivité instantanée

Augmentez ou réduisez vos ressources GPU à la demande, en quelques clics. Adaptez votre capacité à vos workloads IA et data en toute simplicité.

Souveraineté et conformité

Vos données sont hébergées sur un cloud européen certifié, garantissant sécurité, transparence et respect des réglementations (RGPD, ISO, HDS).

Accessibilité sans barrière à l’entrée

Des GPU H200 accessibles à toutes et tous : du proof of concept au déploiement en production, sans engagement de volume ni contrainte matérielle.

Comment choisir son GPU pour faire de l'inférence ?

Modèles compacts

Jusqu’à 7 B de paramètres, un A100 offre un excellent ratio performance-prix.

Modèles volumineux

De 65 B+ ou fenêtres contextuelles étendues, le H200 apporte la bande passante mémoire nécessaire pour des temps de réponse stables.

Les questions que vous vous posez

Quel engagement de niveau de service (SLA) est garanti par OVHcloud sur une instance GPU ?

L’engagement de niveau de service (SLA) est de 99,99 % de disponibilité mensuelle sur les instances GPU. Pour plus d’informations, veuillez consulter les Conditions générales de service.

Quel est l’hyperviseur utilisé pour la virtualisation des instances ?

Tout comme les autres instances, les instances GPU sont virtualisées par l’hyperviseur KVM du noyau Linux.

Qu’est-ce que le PCI Passthrough ?

Les cartes proposant des processeurs graphiques sont desservies via le bus PCI du serveur physique. Le PCI Passthrough est une fonctionnalité de l’hyperviseur qui permet de dédier un matériel à une machine virtuelle en donnant directement l’accès au bus PCI, sans passer par la virtualisation.

Peut-on redimensionner une instance Cloud GPU ?

Oui, les instances Cloud GPU peuvent passer au modèle supérieur après un redémarrage. Toutefois, elles n’ont pas la capacité d’évoluer vers un modèle inférieur.

Les instances Cloud GPU bénéficient-elles d’une protection Anti-DDoS ?

Oui, notre protection Anti-DDoS est incluse dans toutes les solutions OVHcloud sans surcoût.

Est-il possible de basculer une instance facturée mensuellement vers une facturation horaire ?

Si la facturation mensuelle est en place, il n’est pas possible de changer pour une facturation horaire. Avant le démarrage de l’instance, sélectionnez donc soigneusement le mode de facturation le plus adapté à votre projet.

Qu’est-ce qu’un Cloud GPU ?

Un Cloud GPU désigne un service de calcul dans le cloud qui fournit des unités de traitement graphique (GPU) pour l’exécution de tâches nécessitant une grande puissance de calcul. Ces tâches peuvent inclure le rendu graphique, l’apprentissage automatique, l’analyse de données et les simulations scientifiques. Contrairement aux GPU sur site, qui nécessitent un investissement important en matériel, les Cloud GPU offrent une certaine flexibilité et une évolutivité. Les utilisateurs et utilisatrices peuvent ainsi accéder à des ressources de calcul haute performance sur demande et payer uniquement pour ce qu’ils utilisent.

Qu’est-ce qu’un serveur H100 et A100 ?

Les serveurs équipés de GPU NVIDIA H100 et A100 sont des systèmes conçus pour fournir des performances exceptionnelles dans les domaines du calcul haute performance (HPC), de l’intelligence artificielle (IA) et de l’analyse de données.

Qu’est-ce que NGC ?

NVIDIA Cloud GPU (NGC) est une plateforme de cloud computing proposée par NVIDIA. Elle fournit un catalogue complet de logiciels optimisés pour l’accélération par GPU destinés à l’intelligence artificielle (IA), au machine learning (ML) et au calcul haute performance (HPC). NGC vise à simplifier et à accélérer le déploiement des applications d’IA et de calcul scientifique en fournissant des conteneurs, des modèles pré-entraînés, des SDK et d’autres outils qui sont tous optimisés pour tirer pleinement parti des GPU NVIDIA.

Pourquoi utiliser un Cloud GPU ?

L’utilisation d’un Cloud GPU présente de nombreux avantages, notamment pour les entreprises, les équipes de recherche et celles de développement qui évoluent dans des domaines exigeants comme l’intelligence artificielle (IA), le rendu graphique, le machine learning (ML) et le calcul haute performance (HPC).