GPU-Instanzen L40s
Entfesseln Sie die Leistung der generativen KI und des 3D-Renderings mit den NVIDIA L40s GPUs
Die ideale GPU für Inferenz, multimodale Generierung und grafikintensive Workloads – in einer europäischen, zuverlässigen und transparenten Cloud.
Warum die NVIDIA L40S GPUs wählen?
Leistungsstark
Bis zu 1,2× schneller als der L4 für KI-Inferenz-Workloads.
Effizient
Ada Lovelace Architektur mit Tensor Cores der 4. Generation: ein erheblicher Leistungszuwachs für GenAI, Bildübertragung und 3D-Rendering.
Optimiert
Optimiert für Virtualisierung und GPU-Rendering (vGPU): ideal für 3D-Studios, Ingenieurwesen und hybride Cloud-Umgebungen.
Souverän
Verfügbar in unserer Public Cloud, die Flexibilität, Transparenz und europäische Konformität garantiert.
Optimiert für Ihre KI- und Grafik-Workloads
Multimodale KI-Inferenz und GenAI
Beschleunigen Sie die Generierung von Bildern, Videos und Audio mit den Tensor Cores der 4. Generation Ada Lovelace, optimiert für Streaming und GenAI.
3D-Rendering und Visualisierung
Profitieren Sie von außergewöhnlicher Rendering-Leistung für CAD, Design, Simulation oder Echtzeit-Erstellung.
Hybride KI- und Grafik-Workloads
Der L40S bietet die notwendige Leistung, um KI-Inferenz und GPU-Rendering in einer einzigen Cloud-Umgebung zu kombinieren.
SPEZIFIKATIONEN
Die technischen Eigenschaften
GPU
Von 1 bis 4 GPUs pro Instanz
GPU Speicher
48 GB pro GPU
Leistungsstarker Speicher
Lokales NVMe auf den meisten Instanzen
Öffentliches & privates Netzwerk
Bis zu 25 Gbit/s inklusive
Automatisierung
Verwaltung über Ihren Kundenbereich, API, OVHcloud CLI, ...
Sicher und privat
Zertifizierungen ISO27001, SOC, Gesundheitsdaten, ...
Unsere CloudGPU-Reihe
Maximieren Sie Ihren ROI mit einer flexiblen GPU-Infrastruktur
Preistransparenz
Profitieren Sie von einem hervorragenden Preis-Leistungs-Verhältnis für die Generierung von Bildern, Videos oder KI-Modellen. Keine Überraschungen auf der Rechnung.
Vielseitigkeit in KI & Grafik
Nutzen Sie eine einzige GPU für Ihre GenAI-Workloads, 3D-Rendering und KI-Inferenz – eine einzigartige Flexibilität für Ihre Produktionspipelines.
Souveränität und Konformität
Ihre Daten werden in einer zertifizierten europäischen Cloud gehostet, die Sicherheit, Transparenz und die Einhaltung von Vorschriften (DSGVO, ISO, HDS) gewährleistet.
Energieeffizienz
Reduzieren Sie Ihre Betriebskosten mit einer sparsamen Ada Lovelace Architektur, ohne die Leistung zu opfern.
Wie wählt man seine GPU für die Inferenz aus?
Leichte Inferenz
L4: wirtschaftlich und energieeffizient.
Große Modelle
A100 / H100 / H200 je nach Ihren Anforderungen an Bandbreite und Leistung.
GPU Instanzen konfigurieren
Häufig gestellte Fragen
Welches SLA garantiert OVHcloud für GPU Instanzen?
Das SLA sieht 99,99 % monatliche Verfügbarkeit für GPU Instanzen vor. Weitere Informationen finden Sie in den allgemeinen Geschäftsbedingungen.
Welcher Hypervisor wird für die Virtualisierung der Instanzen verwendet?
Was ist PCI Passthrough?
Karten mit Grafikprozessoren sind über den PCI-Bus des physischen Servers erreichbar. PCI Passthrough ist eine Hypervisor-Funktion, mit der Sie Hardware einer virtuellen Maschine zuweisen können, indem Sie direkten Zugriff auf den PCI-Bus gewähren, das heißt ohne dazwischenliegende Virtualisierungsschicht.
Kann ich die Größe einer Cloud GPU Instanz ändern?
Cloud GPU Instanzen können nach einem Neustart auf ein höheres Modell umgestellt werden. Es ist jedoch nicht möglich, zu einem niedrigeren Modell zu wechseln.
Verfügen Cloud GPU Instanzen über DDoS-Schutz?
Kann eine monatlich abgerechnete Instanz auf stündliche Abrechnung umgestellt werden?
Was ist eine Cloud GPU?
Was sind H100- und A100-Server?
Die Server mit NVIDIA H100- und A100-GPU sind für außergewöhnliche Leistung in den Bereichen High Performance Computing (HPC), künstliche Intelligenz (Artificial Intelligence, AI) und Datenanalyse konzipiert.
Was ist NGC?
NVIDIA GPU Cloud (NGC) ist eine von NVIDIA angebotene Cloud-Computing-Plattform. Sie bietet einen umfassenden Katalog an für GPU-Beschleunigung optimierter Software für künstliche Intelligenz (AI), maschinelles Lernen (ML) und High Performance Computing (HPC). NGC zielt darauf ab, die Bereitstellung von AI- und wissenschaftlichen Computing-Anwendungen zu vereinfachen und zu beschleunigen, indem Container, vortrainierte Modelle, SDKs und andere Tools bereitgestellt werden, die allesamt für die Nutzung von NVIDIA-GPUs optimiert sind.