Instances GPU H200
Accélérez vos projets IA avec les instances GPU H200
Des performances de pointe pour l’entraînement, l’inférence et les workloads data les plus exigeants dans un cloud européen, fiable et transparent.
Pourquoi choisir les GPU NVIDIA H200 ?
Puissants
Jusqu’à 1,4 × plus rapide que le H100 pour l’entraînement et l’inférence de modèles GenAI.
Performants
141 Go de mémoire HBM3e ultra rapide : 2 × plus de bande passante mémoire, l’idéal pour les modèles volumineux.
Compatibles
Compatible H100 : exploitez vos frameworks et optimisations existantes sans migration complexe.
Souverain
Disponibles dans notre Public Cloud, assurant flexibilité, transparence et conformité européenne.
Optimisé pour vos workloads IA et data
LLM à très grande échelle
Entraînez et déployez des modèles jusqu’à 175 B de paramètres (GPT-3, Llama 3, Falcon 180 B) grâce à ses 141 Go de mémoire HBM3e et à une bande passante de 4,8 To/s.
IA générative avancée
Générez du texte, de l’image, de l’audio et de la vidéo avec des temps de réponse stables, même dans des contextes longs.
Contexte étendu et RAG
Améliorez vos assistants IA et chatbots avec de longues fenêtres contextuelles.
Spécifications
Caractéristiques techniques
GPU
De 1 à 8 GPU par instance
Mémoire GPU
141 Go de HBM3 ultra rapide par GPU
Stockage performant
Passthrough NVMe local sur la majorité des instances
Réseau public et privé
Jusqu'à 25 Gbit/s inclus
Automatisation
Gestion via votre espace client, API, OVHcloud CLI…
Sécurisé et privé
Certifications ISO27001, SOC, hébergement de données de santé…
Maximisez votre ROI avec une infrastructure GPU flexible
Transparence tarifaire
Payez uniquement pour les ressources que vous utilisez, sans frais cachés. Vous gardez le contrôle de vos coûts tout en profitant de performances optimales.
Évolutivité instantanée
Augmentez ou réduisez vos ressources GPU à la demande, en quelques clics. Adaptez votre capacité à vos workloads IA et data en toute simplicité.
Souveraineté et conformité
Vos données sont hébergées sur un cloud européen certifié, garantissant sécurité, transparence et respect des réglementations (RGPD, ISO, HDS).
Accessibilité sans barrière à l’entrée
Des GPU H200 accessibles à toutes et tous : du proof of concept au déploiement en production, sans engagement de volume ni contrainte matérielle.
Comment choisir son GPU pour faire de l'inférence ?
Modèles compacts
Jusqu’à 7 B de paramètres, un A100 offre un excellent ratio performance-prix.
Modèles volumineux
De 65 B+ ou fenêtres contextuelles étendues, le H200 apporte la bande passante mémoire nécessaire pour des temps de réponse stables.
Configurez vos instances GPU
Les questions que vous vous posez
Quel engagement de niveau de service (SLA) est garanti par OVHcloud sur une instance GPU ?
L’engagement de niveau de service (SLA) est de 99,99 % de disponibilité mensuelle sur les instances GPU. Pour plus d’informations, veuillez consulter les Conditions générales de service.
Quel est l’hyperviseur utilisé pour la virtualisation des instances ?
Tout comme les autres instances, les instances GPU sont virtualisées par l’hyperviseur KVM du noyau Linux.
Qu’est-ce que le PCI Passthrough ?
Les cartes proposant des processeurs graphiques sont desservies via le bus PCI du serveur physique. Le PCI Passthrough est une fonctionnalité de l’hyperviseur qui permet de dédier un matériel à une machine virtuelle en donnant directement l’accès au bus PCI, sans passer par la virtualisation.
Peut-on redimensionner une instance Cloud GPU ?
Oui, les instances Cloud GPU peuvent passer au modèle supérieur après un redémarrage. Toutefois, elles n’ont pas la capacité d’évoluer vers un modèle inférieur.
Les instances Cloud GPU bénéficient-elles d’une protection Anti-DDoS ?
Oui, notre protection Anti-DDoS est incluse dans toutes les solutions OVHcloud sans surcoût.
Est-il possible de basculer une instance facturée mensuellement vers une facturation horaire ?
Si la facturation mensuelle est en place, il n’est pas possible de changer pour une facturation horaire. Avant le démarrage de l’instance, sélectionnez donc soigneusement le mode de facturation le plus adapté à votre projet.
Qu’est-ce qu’un Cloud GPU ?
Un Cloud GPU désigne un service de calcul dans le cloud qui fournit des unités de traitement graphique (GPU) pour l’exécution de tâches nécessitant une grande puissance de calcul. Ces tâches peuvent inclure le rendu graphique, l’apprentissage automatique, l’analyse de données et les simulations scientifiques. Contrairement aux GPU sur site, qui nécessitent un investissement important en matériel, les Cloud GPU offrent une certaine flexibilité et une évolutivité. Les utilisateurs et utilisatrices peuvent ainsi accéder à des ressources de calcul haute performance sur demande et payer uniquement pour ce qu’ils utilisent.
Qu’est-ce qu’un serveur H100 et A100 ?
Les serveurs équipés de GPU NVIDIA H100 et A100 sont des systèmes conçus pour fournir des performances exceptionnelles dans les domaines du calcul haute performance (HPC), de l’intelligence artificielle (IA) et de l’analyse de données.
Qu’est-ce que NGC ?
NVIDIA Cloud GPU (NGC) est une plateforme de cloud computing proposée par NVIDIA. Elle fournit un catalogue complet de logiciels optimisés pour l’accélération par GPU destinés à l’intelligence artificielle (IA), au machine learning (ML) et au calcul haute performance (HPC). NGC vise à simplifier et à accélérer le déploiement des applications d’IA et de calcul scientifique en fournissant des conteneurs, des modèles pré-entraînés, des SDK et d’autres outils qui sont tous optimisés pour tirer pleinement parti des GPU NVIDIA.
Pourquoi utiliser un Cloud GPU ?
L’utilisation d’un Cloud GPU présente de nombreux avantages, notamment pour les entreprises, les équipes de recherche et celles de développement qui évoluent dans des domaines exigeants comme l’intelligence artificielle (IA), le rendu graphique, le machine learning (ML) et le calcul haute performance (HPC).