custom background image

L40S-GPU-Instanzen


Mit den NVIDIA L40S-GPUs das Potenzial der generativen AI und des 3D-Renderings nutzen

Die ideale GPU für Inferenz, multimodale Generierung und grafikintensive Workloads in einer zuverlässigen und transparenten europäischen Cloud.

Was spricht für die NVIDIA L40S-GPUs?

Schnell

Bis zu 1,2-mal schneller als L4 für AI-Inferenz-Workloads.

Leistungsstark

Ada Lovelace-Architektur mit Tensor Cores der 4. Generation: ein erheblicher Leistungszuwachs für GenAI, die Bildübertragung und das 3D-Rendering.

Optimiert

Optimiert für Virtualisierung und GPU-Rendering (vGPU): ideal für 3D-Studios, das Engineering und Hybrid-Cloud-Umgebungen.

Souverän

Verfügbar in unserer Public Cloud, die Flexibilität, Transparenz und europäische Konformität gewährleistet.

Optimiert für Ihre AI- und Grafik-Workloads

Multimodale AI- und GenAI-Inferenz

Beschleunigen Sie die Bild-, Video und Audiogenerierung mit den Ada Lovelace Tensor Cores der 4. Generation, die für Streaming und GenAI optimiert sind.

3D-Rendering und Visualisierung

Profitieren Sie von außergewöhnlicher Rendering-Leistung für CAD, Design, Simulation oder die Echtzeit-Erstellung.

Hybride AI- und Grafik-Workloads

Die L40S bietet die nötige Leistung, um die AI-Inferenz und das GPU-Rendering in einer einzigen Cloud-Umgebung zu kombinieren.

Spezifikationen

Technische Eigenschaften

GPU

1 bis 4 GPUs pro Instanz

GPU-Speicher

48 GB pro GPU

Leistungsfähiger Storage

Lokaler NVMe bei den meisten Instanzen

Öffentliches und privates Netzwerk

Bis zu 25 Gbit/s inklusive

Automatisierung

Verwaltung über Ihr Kundencenter, API, OVHcloud CLI …

Abgesichert und privat

Verschiedene Zertifizierungen: ISO27001, SOC, HDS …

Mit einer flexiblen GPU-Infrastruktur Ihren ROI maximieren

Preistransparenz

Profitieren Sie von einem hervorragenden Preis-Leistungs-Verhältnis für die Generierung von Bildern, Videos oder AI-Modellen. Es gibt keine Überraschungen auf der Rechnung.

Vielseitigkeit in AI und Grafik

Nutzen Sie eine einzige GPU für Ihre Workloads im Bereich generative AI, 3D-Rendering und AI-Inferenz. So profitieren Sie von erstklassiger Flexibilität für Ihre Produktionspipelines.

Souveränität und Konformität

Ihre Daten werden in einer zertifizierten europäischen Cloud gehostet, die Sicherheit, Transparenz und die Einhaltung von Vorschriften (DSGVO, ISO, HDS) gewährleistet.

Energieeffizienz

Reduzieren Sie Ihre Betriebskosten mit einer energieeffizienten Ada Lovelace-Architektur, ohne Abstriche bei der Leistung zu machen.

Wie wähle ich meine GPU für die Inferenz aus?

Leichte Inferenz

L4: wirtschaftlich und energieeffizient.

Große Modelle

A100/H100/H200 je nach Ihren Bandbreiten- und Leistungsanforderungen.

Häufig gestellte Fragen

Welches Service Level Agreement bietet OVHcloud für eine GPU-Instanz?

Das Service Level Agreement (SLA) sieht 99,99 % monatliche Verfügbarkeit für GPU-Instanzen vor. Weitere Informationen finden Sie in den allgemeinen Nutzungsbedingungen des Dienstes.

Welcher Hypervisor wird für die Virtualisierung der Instanzen verwendet?

Wie alle anderen Instanzen werden auch die GPU-Instanzen über den KVM-Hypervisor des Linux-Kernels virtualisiert.

Was ist PCI Passthrough?

Karten mit Grafikprozessoren sind über den PCI-Bus des physischen Servers erreichbar. PCI Passthrough ist eine Hypervisor-Funktion, mit der Sie Hardware einer virtuellen Maschine zuweisen können, indem Sie direkten Zugriff auf den PCI-Bus gewähren, das heißt ohne dazwischenliegende Virtualisierungsschicht.

Kann ich die Größe einer Cloud-GPU-Instanz ändern?

Ja, Cloud-GPU-Instanzen können nach einem Neustart auf ein höheres Modell umgestellt werden. Es ist jedoch nicht möglich, zu einem niedrigeren Modell zu wechseln.

Verfügen Cloud-GPU-Instanzen über DDoS-Schutz?

Ja, unser DDoS-Schutz ist bei allen OVHcloud Lösungen inklusive – ohne zusätzliche Kosten.

Kann eine monatlich abgerechnete Instanz auf stündliche Abrechnung umgestellt werden?

Ist die monatliche Abrechnung einmal eingerichtet, können Sie nicht zur stündlichen Abrechnung wechseln. Wählen Sie also vor dem Starten der Instanz sorgfältig den für Ihr Projekt am besten geeigneten Abrechnungsmodus aus.

Was ist eine Cloud GPU?

Eine Cloud GPU bezeichnet einen Computing-Dienst in der Cloud, der Grafikprozessoren (GPUs) für die Ausführung von Aufgaben bereitstellt, die eine hohe Rechenleistung erfordern. Zu diesen Aufgaben können grafisches Rendering, maschinelles Lernen, Datenanalysen und wissenschaftliche Simulationen gehören. Im Gegensatz zu On-Premise-GPUs, für die erhebliche Hardwareinvestitionen erforderlich sind, bieten Cloud-GPU-Lösungen eine gewisse Flexibilität und Skalierbarkeit. User können damit on demand auf leistungsstarke Ressourcen zugreifen und zahlen nur für das, was sie verwenden.

Was sind H100- und A100-Server?

Die Server mit NVIDIA H100- und A100-GPU sind für außergewöhnliche Leistung in den Bereichen High Performance Computing (HPC), künstliche Intelligenz (Artificial Intelligence, AI) und Datenanalyse konzipiert.

Was ist NGC?

NVIDIA GPU Cloud (NGC) ist eine von NVIDIA angebotene Cloud-Computing-Plattform. Sie bietet einen umfassenden Katalog an für GPU-Beschleunigung optimierter Software für künstliche Intelligenz (KI, oder Artificial Intelligence, AI), maschinelles Lernen (ML) und High Performance Computing (HPC). NGC zielt darauf ab, die Bereitstellung von AI- und wissenschaftlichen Computing-Anwendungen zu vereinfachen und zu beschleunigen, indem Container, vortrainierte Modelle, SDKs und andere Tools bereitgestellt werden, die allesamt für die Nutzung von NVIDIA-GPUs optimiert sind.

Was spricht für die Verwendung einer Cloud GPU?

Die Verwendung einer Cloud GPU bietet zahlreiche Vorteile, insbesondere für Unternehmen, Forschungs- und Entwicklungsteams in anspruchsvollen Bereichen wie künstliche Intelligenz, grafisches Rendering, maschinelles Lernen und High Performance Computing.