GPU-Instanzen H200
Beschleunigen Sie Ihre KI-Projekte mit den GPU-Instanzen H200
Spitzenleistungen für das Training, die Inferenz und die anspruchsvollsten Daten-Workloads in einer zuverlässigen und transparenten europäischen Cloud.
Warum die NVIDIA H200 GPUs wählen?
Leistungsstark
Bis zu 1,4 × schneller als der H100 für das Training und die Inferenz von GenAI-Modellen.
Leistungsfähig
141 GB ultra-schneller HBM3e-Speicher: 2 × mehr Speicherbandbreite, ideal für große Modelle.
Kompatibel
Kompatibel mit H100: Nutzen Sie Ihre bestehenden Frameworks und Optimierungen ohne komplexe Migration.
Souverän
Verfügbar in unserer Public Cloud, die Flexibilität, Transparenz und europäische Konformität gewährleistet.
Optimiert für Ihre KI- und Daten-Workloads
LLM in sehr großem Maßstab
Trainieren und Bereitstellen von Modellen mit bis zu 175 B Parametern (GPT-3, Llama 3, Falcon 180 B) dank 141 GB HBM3e-Speicher und einer Bandbreite von 4,8 To/s.
Fortgeschrittene generative KI
Generieren Sie Text, Bilder, Audio und Video mit stabilen Antwortzeiten, selbst in langen Kontexten.
Erweiterter Kontext und RAG
Verbessern Sie Ihre KI-Assistenten und Chatbots mit langen Kontextfenstern.
Spezifikationen
Technische Merkmale
GPU
Von 1 bis 8 GPUs pro Instanz
GPU Speicher
141 GB ultra-schnelles HBM3 pro GPU
Leistungsstarker Speicher
Lokales NVMe-Passthrough auf den meisten Instanzen
Öffentliches und privates Netzwerk
Bis zu 25 Gbit/s inklusive
Automatisierung
Verwaltung über Ihr Kundenportal, API, OVHcloud CLI…
Sicher und privat
Zertifizierungen ISO27001, SOC, Hosting von Gesundheitsdaten…
Unsere Cloud-GPU-Reihe
Maximieren Sie Ihren ROI mit einer flexiblen GPU-Infrastruktur
Preistransparenz
Zahlen Sie nur für die Ressourcen, die Sie nutzen, ohne versteckte Kosten. Sie behalten die Kontrolle über Ihre Kosten und profitieren gleichzeitig von optimalen Leistungen.
Sofortige Skalierbarkeit
Erhöhen oder reduzieren Sie Ihre GPU-Ressourcen nach Bedarf mit nur wenigen Klicks. Passen Sie Ihre Kapazität ganz einfach an Ihre KI- und Daten-Workloads an.
Souveränität und Konformität
Ihre Daten werden in einer zertifizierten europäischen Cloud gehostet, die Sicherheit, Transparenz und die Einhaltung von Vorschriften (DSGVO, ISO, HDS) gewährleistet.
Barrierefreie Zugänglichkeit
Zugängliche H200 GPUs für alle: vom Proof of Concept bis zum Produktionsdeployment, ohne Volumenverpflichtung oder Hardwareeinschränkungen.
Wie wählt man seine GPU für die Inferenz aus?
Kompakte Modelle
Bis zu 7 B von Parametern bietet ein A100 ein hervorragendes Preis-Leistungs-Verhältnis.
Große Modelle
Von 65 B+ oder erweiterten Kontextfenstern bringt das H200 die erforderliche Speicherbandbreite für stabile Reaktionszeiten.
GPU Instanzen konfigurieren
Häufig gestellte Fragen
Welches Service Level Agreement (SLA) garantiert OVHcloud für eine GPU-Instanz?
Das Service Level Agreement (SLA) beträgt 99,99 % monatliche Verfügbarkeit auf GPU-Instanzen. Weitere Informationen finden Sie in den allgemeinen Nutzungsbedingungen des Dienstes.
Welcher Hypervisor wird für die Virtualisierung der Instanzen verwendet?
Wie alle anderen Instanzen werden auch die GPU Instanzen über den KVM-Hypervisor des Linux-Kernels virtualisiert.
Was ist PCI Passthrough?
Karten mit Grafikprozessoren sind über den PCI-Bus des physischen Servers erreichbar. PCI Passthrough ist eine Hypervisor-Funktion, mit der Sie Hardware einer virtuellen Maschine zuweisen können, indem Sie direkten Zugriff auf den PCI-Bus gewähren, das heißt ohne dazwischenliegende Virtualisierungsschicht.
Kann ich die Größe einer Cloud GPU Instanz ändern?
Cloud GPU Instanzen können nach einem Neustart auf ein höheres Modell umgestellt werden. Es ist jedoch nicht möglich, zu einem niedrigeren Modell zu wechseln.
Verfügen Cloud GPU Instanzen über DDoS-Schutz?
Ja, unser DDoS-Schutz ist bei allen OVHcloud Lösungen inklusive – ohne zusätzliche Kosten.
Kann eine monatlich abgerechnete Instanz auf stündliche Abrechnung umgestellt werden?
Ist die monatliche Abrechnung einmal eingerichtet, können Sie nicht zur stündlichen Abrechnung wechseln. Wählen Sie vor dem Start der Instanz sorgfältig den Abrechnungsmodus aus, der am besten zu Ihrem Projekt passt.
Was ist eine Cloud GPU?
Eine Cloud GPU bezeichnet einen Computing-Dienst in der Cloud, der Grafikprozessoren (GPUs) für die Ausführung von Aufgaben bereitstellt, die eine hohe Rechenleistung erfordern. Zu diesen Aufgaben können grafisches Rendering, maschinelles Lernen, Datenanalysen und wissenschaftliche Simulationen gehören. Im Gegensatz zu On-Premise-GPUs, für die erhebliche Hardwareinvestitionen erforderlich sind, bieten Cloud-GPU-Lösungen eine gewisse Flexibilität und Skalierbarkeit. Benutzer können damit on demand auf leistungsstarke Ressourcen zugreifen und zahlen nur für das, was sie verwenden.
Was sind H100- und A100-Server?
Die Server mit NVIDIA H100- und A100-GPU sind für außergewöhnliche Leistung in den Bereichen High Performance Computing (HPC), künstliche Intelligenz (Artificial Intelligence, AI) und Datenanalyse konzipiert.
Was ist NGC?
NVIDIA GPU Cloud (NGC) ist eine von NVIDIA angebotene Cloud-Computing-Plattform. Sie bietet einen umfassenden Katalog an für GPU-Beschleunigung optimierter Software für künstliche Intelligenz (AI), maschinelles Lernen (ML) und High Performance Computing (HPC). NGC zielt darauf ab, die Bereitstellung von AI- und wissenschaftlichen Computing-Anwendungen zu vereinfachen und zu beschleunigen, indem Container, vortrainierte Modelle, SDKs und andere Tools bereitgestellt werden, die allesamt für die Nutzung von NVIDIA-GPUs optimiert sind.
Was spricht für die Verwendung einer Cloud GPU?
Die Verwendung einer Cloud GPU bietet zahlreiche Vorteile, insbesondere für Unternehmen, Forscher:innen und Entwickler:innen in anspruchsvollen Bereichen wie künstliche Intelligenz (AI), grafisches Rendering, maschinelles Lernen (ML) und High Performance Computing (HPC).