Instances GPU L40s
Libérez la puissance de l’IA générative et du rendu 3D avec les GPU NVIDIA L40s
Le GPU idéal pour l’inférence, la génération multimodale et les workloads graphiques — dans un cloud européen, fiable et transparent.
Pourquoi choisir les GPU NVIDIA L40S ?
Puissants
Jusqu’à 1,2× plus rapide que le L4 pour les workloads d’inférence IA.
Performants
Architecture Ada Lovelace avec Tensor Cores de 4ᵉ génération : un gain de performance majeur pour la GenAI, la diffusion d’images et le rendu 3D.
Optimisé
Optimisé pour la virtualisation et le rendu GPU (vGPU) : idéal pour les studios 3D, l’ingénierie et les environnements cloud hybrides.
Souverain
Disponibles dans notre Public Cloud, garantissant flexibilité, transparence et conformité européenne.
Optimisé pour vos workloads IA & Graphiques
Inférence IA et GenAI multimodale
Accélérez la génération d’images, de vidéos et d’audio avec les Tensor Cores 4ᵉ génération Ada Lovelace, optimisés pour la diffusion et la GenAI.
Rendu 3D et visualisation
Bénéficiez de performances de rendu exceptionnelles pour la CAO, le design, la simulation ou la création temps réel.
Workloads hybrides IA + graphique
Le L40S offre la puissance nécessaire pour combiner inférence IA et rendu GPU dans un même environnement cloud.
SPECIFICATIONS
Les caractéristiques techniques
GPU
De 1 à 4 GPU par instance
Mémoire GPU
48 Go par GPU
Stockage performant
NVMe local sur la majorité des instances
Réseau public & privé
Jusqu'à 25 Gbit/s inclus
Automatisation
Gestion via votre espace client, API, OVHcloud CLI, ...
Sécurisé et Privé
Certifications ISO27001, SOC, Données de santé, ...
Notre gamme CloudGPU
Maximisez votre ROI avec une infrastructure GPU flexible
Transparence tarifaire
Profitez d’un excellent rapport performance/prix pour la génération d’images, de vidéos ou de modèles IA. Aucune surprise sur la facture.
Polyvalence IA & graphique
Exploitez un seul GPU pour vos workloads de GenAI, rendu 3D et inférence IA — une flexibilité unique pour vos pipelines de production.
Souveraineté et conformité
Vos données sont hébergées sur un cloud européen certifié, garantissant sécurité, transparence et respect des réglementations (RGPD, ISO, HDS).
Efficacité énergétique
Réduisez vos coûts d’exploitation grâce à une architecture Ada Lovelace économe, sans sacrifier les performances.
Comment choisir son GPU pour faire de l'inférence ?
Inférence légère
L4 : économique et économe en énergie.
Modèles volumineux
A100 / H100 / H200 selon vos besoins de bande passante et de performance.
Configurez vos instances GPU
Les questions que vous vous posez
Quel Accord de niveau de service (SLA) est garanti par OVHcloud sur une instance GPU ?
Le Accord de niveau de service (SLA) est de 99,99 % de disponibilité mensuelle sur les instances GPU. Pour plus d’informations, veuillez consulter les conditions générales de vente.
Quel est l’hyperviseur utilisé pour la virtualisation des instances ?
Qu’est-ce que PCI Passthrough ?
Les cartes proposant des processeurs graphiques sont desservies via le bus PCI du serveur physique. Le PCI Passthrough est une fonctionnalité de l’hyperviseur qui permet de dédier un matériel à une machine virtuelle en donnant directement l’accès au bus PCI, sans passer par la virtualisation.
Peut-on redimensionner une instance Cloud GPU ?
Oui, les instances Cloud GPU peuvent passer au modèle supérieur après un redémarrage. Toutefois, elles n’ont pas la capacité d’évoluer vers un modèle inférieur.
Les instances Cloud GPU bénéficient-elles d’une protection Anti-DDoS ?
Est-il possible de basculer une instance facturée mensuellement vers une facturation horaire ?
Qu’est-ce qu’un Cloud GPU ?
Qu’est-ce qu’un serveur H100 et A100 ?
Les serveurs équipés de GPU NVIDIA H100 et A100 sont des systèmes conçus pour fournir des performances exceptionnelles dans les domaines du calcul haute performance (HPC), de l’intelligence artificielle (IA) et de l’analyse de données.
Qu’est-ce que NGC ?
NVIDIA Cloud GPU (NGC) est une plateforme de infonuagique proposée par NVIDIA . Elle fournit un catalogue complet de logiciels optimisés pour l’accélération par GPU destinés à l’intelligence artificielle (IA), à l’apprentissage automatique (ML) et aux calculs haute performance (HPC). NGC vise à simplifier et à accélérer le déploiement des applications d’IA et de calcul scientifique en fournissant des conteneurs, des modèles pré-entraînés, des SDK et d’autres outils qui sont tous optimisés pour tirer pleinement parti des GPU NVIDIA.