custom background image

GPU-Instanzen H100


Beschleunigen Sie Ihre KI-Projekte mit den GPU-Instanzen H100

Spitzenleistungen für das Training, die Inferenz und die anspruchsvollsten Daten-Workloads – in einer zuverlässigen und transparenten europäischen Cloud.

Warum die NVIDIA H100 GPUs wählen?

Leistungsstark

Bis zu 4× schneller als die A100 beim Training komplexer KI-Modelle und der Erstellung von Inhalten.

Effizient

Der Transformer Engine FP8 optimiert die Berechnung für LLM und GenAI und bietet einen signifikanten Leistungs- und Energiegewinn.

Kompatibel

Vollständig kompatibel mit CUDA, PyTorch, TensorFlow und JAX: Nutzen Sie Ihre bestehenden Optimierungen ohne Anpassung.

Souverän

Verfügbar in unserer Public Cloud, die Flexibilität, Transparenz und europäische Konformität garantiert.

Optimiert für Ihre KI- und Daten-Workloads

Training und Inferenz von LLM

Beschleunigen Sie Ihre Modelle mit bis zu 70B Parametern (Llama 2, Mistral, Falcon usw.) dank der Leistung des Transformer Engines und der Speicherbandbreite des H100.

Multimodale generative KI

Erstellen, trainieren und implementieren Sie Ihre Modelle zur Generierung von Bildern, Audio und Video in großem Maßstab, ganz einfach.

Datenwissenschaft & HPC

Optimieren Sie Ihre rechenintensiven Berechnungen: Simulationen, wissenschaftliche Modellierung oder massives paralleles Processing – mit konstanten Leistungen und geringer Latenz.

SPEZIFIKATIONEN

Die technischen Eigenschaften

GPU

Von 1 bis 4 GPUs pro Instanz

GPU Speicher

80 GB ultra-schnelles HBM3 pro GPU

Leistungsfähiger Storage

Lokales NVMe Passthrough auf den meisten Instanzen

Öffentliches & privates Netzwerk

Bis zu 25 Gbit/s inklusive

Automatisierung

Verwaltung über Ihren Kundenbereich, API, OVHcloud CLI, ...

Sicher und privat

Zertifizierungen ISO27001, SOC, Gesundheitsdaten, ...

Maximieren Sie Ihren ROI mit einer flexiblen GPU-Infrastruktur

Preistransparenz

Zahlen Sie nur für die Ressourcen, die Sie nutzen, ohne versteckte Kosten. Sie behalten die Kontrolle über Ihre Kosten und profitieren gleichzeitig von optimaler Leistung.

Sofortige Skalierbarkeit

Erhöhen oder reduzieren Sie Ihre GPU-Ressourcen nach Bedarf mit nur wenigen Klicks. Passen Sie Ihre Kapazität ganz einfach an Ihre KI- und Daten-Workloads an.

Souveränität und Konformität

Ihre Daten werden in einer zertifizierten europäischen Cloud gehostet, die Sicherheit, Transparenz und die Einhaltung von Vorschriften (DSGVO, ISO, HDS) gewährleistet.

Barrierefreier Zugang

Zugängliche H100-GPUs für alle: vom Proof of Concept bis zur Produktion, ohne Volumenverpflichtung oder Hardwareeinschränkungen.

Wie wählt man seine GPU für Inferenz aus?

Kompakte Modelle

Bis zu 7B Parameter bietet ein A100 ein hervorragendes Preis-Leistungs-Verhältnis.

Mittlere LLMs

Bis zu 30B, der H100 ist das beste Gleichgewicht zwischen Geschwindigkeit, Energieeffizienz und Framework-Kompatibilität.

Große Modelle

Von 65B+ oder erweiterten Kontextfenstern bringt der H200 die erforderliche Speicherbandbreite für stabile Antwortzeiten.

Häufig gestellte Fragen

Welches SLA garantiert OVHcloud für GPU Instanzen?

Das SLA sieht 99,99 % monatliche Verfügbarkeit für GPU Instanzen vor. Weitere Informationen finden Sie in den allgemeinen Geschäftsbedingungen.

Welcher Hypervisor wird für die Virtualisierung der Instanzen verwendet?

Wie alle anderen Instanzen werden auch die GPU Instanzen über den KVM-Hypervisor des Linux-Kernels virtualisiert.

Was ist PCI Passthrough?

Karten mit Grafikprozessoren sind über den PCI-Bus des physischen Servers erreichbar. PCI Passthrough ist eine Hypervisor-Funktion, mit der Sie Hardware einer virtuellen Maschine zuweisen können, indem Sie direkten Zugriff auf den PCI-Bus gewähren, das heißt ohne dazwischenliegende Virtualisierungsschicht.

Kann ich die Größe einer Cloud GPU Instanz ändern?

Cloud GPU Instanzen können nach einem Neustart auf ein höheres Modell umgestellt werden. Es ist jedoch nicht möglich, zu einem niedrigeren Modell zu wechseln.

Verfügen Cloud GPU Instanzen über DDoS-Schutz?

Ja, unser DDoS-Schutz ist bei allen OVHcloud Lösungen inklusive – ohne zusätzliche Kosten.

Kann eine monatlich abgerechnete Instanz auf stündliche Abrechnung umgestellt werden?

Ist die monatliche Abrechnung einmal eingerichtet, können Sie nicht zur stündlichen Abrechnung wechseln. Wählen Sie vor dem Starten der Instanz sorgfältig den für Ihr Projekt am besten geeigneten Abrechnungsmodus aus.

Was ist eine Cloud GPU?

Eine Cloud GPU bezeichnet einen Computing-Dienst in der Cloud, der Grafikprozessoren (GPUs) für die Ausführung von Aufgaben bereitstellt, die eine hohe Rechenleistung erfordern. Zu diesen Aufgaben können grafisches Rendering, maschinelles Lernen, Datenanalysen und wissenschaftliche Simulationen gehören. Im Gegensatz zu On-Premise-GPUs, für die erhebliche Hardwareinvestitionen erforderlich sind, bieten Cloud-GPU-Lösungen eine gewisse Flexibilität und Skalierbarkeit. User können damit on demand auf leistungsstarke Ressourcen zugreifen und zahlen nur für das, was sie verwenden.

Was sind H100- und A100-Server?

Die Server mit NVIDIA H100- und A100-GPU sind für außergewöhnliche Leistung in den Bereichen High Performance Computing (HPC), künstliche Intelligenz (Artificial Intelligence, AI) und Datenanalyse konzipiert.

Was ist NGC?

NVIDIA GPU Cloud (NGC) ist eine von NVIDIA angebotene Cloud-Computing-Plattform. Sie bietet einen umfassenden Katalog an für GPU-Beschleunigung optimierter Software für künstliche Intelligenz (AI), maschinelles Lernen (ML) und High Performance Computing (HPC). NGC zielt darauf ab, die Bereitstellung von AI- und wissenschaftlichen Computing-Anwendungen zu vereinfachen und zu beschleunigen, indem Container, vortrainierte Modelle, SDKs und andere Tools bereitgestellt werden, die allesamt für die Nutzung von NVIDIA-GPUs optimiert sind.

Was spricht für die Verwendung einer Cloud GPU?

Die Verwendung einer Cloud GPU bietet zahlreiche Vorteile, insbesondere für Unternehmen, Forscher:innen und Entwickler:innen in anspruchsvollen Bereichen wie künstliche Intelligenz (AI), grafisches Rendering, maschinelles Lernen (ML) und High Performance Computing (HPC).