GPU-Instanzen L4
Setzen Sie Ihre Inferenz- und Grafik-Workloads mit den NVIDIA L4 GPUs ein
Eine optimale Leistung für KI-Inferenz, Videobearbeitung und 3D-Rendering – in einer europäischen, zuverlässigen und transparenten Cloud.
Warum die NVIDIA L4 GPUs wählen?
Kosteneffizient
Ein hervorragendes Preis-Leistungs-Verhältnis für die Bereitstellung von KI-Inferenz und Videobearbeitung in großem Maßstab.
Optimiert
Description: Ideal für die Inferenz von kompakten Modellen (bis zu 7B) und Multimedia-Workloads.
Nachhaltig
Ein reduzierter CO2-Fußabdruck und kontrollierte Kosten.
Souverän
Verfügbar in unserer Public Cloud, die Flexibilität, Transparenz und europäische Konformität garantiert.
Optimiert für Ihre Inferenz- und Grafik-Workloads
KI-Inferenz in großem Maßstab
Setzen Sie Ihre Modelle für Vision, NLP oder Klassifikation auf kostengünstigen GPUs ein.
Videoverarbeitung und Streaming
Profitieren Sie von hardwarebasiertem AV1-, HEVC- und H.264-Encoding/Decoding, ideal für Transcoding, Objekterkennung oder Live-Streaming.
Erstellung und leichte generative KI
Erzeugen Sie visuelle Inhalte, Avatare oder Multimedia-Inhalte mit der Grafikleistung von Ada Lovelace, während Sie einen minimalen Energieverbrauch beibehalten.
SPEZIFIKATIONEN
Die technischen Eigenschaften
GPU
Von 1 bis 4 GPUs pro Instanz
GPU Speicher
24 GB pro GPU
Leistungsstarker Speicher
Lokales NVMe auf den meisten Instanzen
Öffentliches und privates Netzwerk
Bis zu 25 Gbit/s inklusive
Automatisierung
Verwaltung über Ihren Kundenbereich, API, OVHcloud CLI, ...
Sicher und privat
Zertifizierungen ISO27001, SOC, Gesundheitsdaten, ...
Unsere CloudGPU-Reihe
Maximieren Sie Ihren ROI mit einer flexiblen GPU-Infrastruktur
Preistransparenz
Profitieren Sie von der kostengünstigsten GPU der Reihe, perfekt für KI-Inferenz und Video.
KI- und Grafikvielfalt
Nutzen Sie eine einzige GPU für Ihre GenAI-Workloads, 3D-Rendering und KI-Inferenz – eine einzigartige Flexibilität für Ihre Produktions-Pipelines.
Souveränität und Konformität
Ihre Daten werden in einer zertifizierten europäischen Cloud gehostet, die Sicherheit, Transparenz und die Einhaltung von Vorschriften (DSGVO, ISO, HDS) gewährleistet.
Vollständige Zugänglichkeit
L4-GPUs ohne Verpflichtungen verfügbar, um Ihre KI- und Multimedia-Projekte in großem Maßstab zu beschleunigen.
Wie wählt man seine GPU für die Inferenz aus?
Leichte Inferenz
L4: kostengünstig und energieeffizient.
Große Modelle
A100 / H100 / H200 je nach Ihren Anforderungen an Bandbreite und Leistung.
GPU Instanzen konfigurieren
Häufig gestellte Fragen
Welches SLA garantiert OVHcloud für GPU Instanzen?
Das SLA sieht 99,99 % monatliche Verfügbarkeit für GPU Instanzen vor. Weitere Informationen finden Sie in den allgemeinen Geschäftsbedingungen.
Welcher Hypervisor wird für die Virtualisierung der Instanzen verwendet?
Wie alle anderen Instanzen werden auch die GPU Instanzen über den KVM-Hypervisor des Linux-Kernels virtualisiert.
Was ist PCI Passthrough?
Karten mit Grafikprozessoren sind über den PCI-Bus des physischen Servers erreichbar. PCI Passthrough ist eine Hypervisor-Funktion, mit der Sie Hardware einer virtuellen Maschine zuweisen können, indem Sie direkten Zugriff auf den PCI-Bus gewähren, das heißt ohne dazwischenliegende Virtualisierungsschicht.
Kann ich die Größe einer Cloud GPU Instanz ändern?
Cloud GPU Instanzen können nach einem Neustart auf ein höheres Modell umgestellt werden. Es ist jedoch nicht möglich, zu einem niedrigeren Modell zu wechseln.
Verfügen Cloud GPU Instanzen über DDoS-Schutz?
Ja, unser DDoS-Schutz ist bei allen OVHcloud Lösungen inklusive – ohne zusätzliche Kosten.
Kann eine monatlich abgerechnete Instanz auf stündliche Abrechnung umgestellt werden?
Ist die monatliche Abrechnung einmal eingerichtet, können Sie nicht zur stündlichen Abrechnung wechseln. Wählen Sie vor dem Starten der Instanz sorgfältig den für Ihr Projekt am besten geeigneten Abrechnungsmodus aus.
Was ist eine Cloud GPU?
Eine Cloud GPU bezeichnet einen Computing-Dienst in der Cloud, der Grafikprozessoren (GPUs) für die Ausführung von Aufgaben bereitstellt, die eine hohe Rechenleistung erfordern. Zu diesen Aufgaben können grafisches Rendering, maschinelles Lernen, Datenanalysen und wissenschaftliche Simulationen gehören. Im Gegensatz zu On-Premise-GPUs, für die erhebliche Hardwareinvestitionen erforderlich sind, bieten Cloud-GPU-Lösungen eine gewisse Flexibilität und Skalierbarkeit. User können damit on demand auf leistungsstarke Ressourcen zugreifen und zahlen nur für das, was sie verwenden.
Was sind H100- und A100-Server?
Die Server mit NVIDIA H100- und A100-GPU sind für außergewöhnliche Leistung in den Bereichen High Performance Computing (HPC), künstliche Intelligenz (Artificial Intelligence, AI) und Datenanalyse konzipiert.
Was ist NGC?
NVIDIA GPU Cloud (NGC) ist eine von NVIDIA angebotene Cloud-Computing-Plattform. Sie bietet einen umfassenden Katalog an für GPU-Beschleunigung optimierter Software für künstliche Intelligenz (AI), maschinelles Lernen (ML) und High Performance Computing (HPC). NGC zielt darauf ab, die Bereitstellung von AI- und wissenschaftlichen Computing-Anwendungen zu vereinfachen und zu beschleunigen, indem Container, vortrainierte Modelle, SDKs und andere Tools bereitgestellt werden, die allesamt für die Nutzung von NVIDIA-GPUs optimiert sind.
Was spricht für die Verwendung einer Cloud GPU?
Die Verwendung einer Cloud GPU bietet zahlreiche Vorteile, insbesondere für Unternehmen, Forscher:innen und Entwickler:innen in anspruchsvollen Bereichen wie künstliche Intelligenz (AI), grafisches Rendering, maschinelles Lernen (ML) und High Performance Computing (HPC).