
Cloudserver optimiert für Massiv Parallel Processing
GPU Instanzen enthalten Tesla-V100S-Grafikprozessoren von NVIDIA, um den hohen Anforderungen von Massiv Parallel Processing gerecht zu werden. Und wie alle OVHcloud Instanzen bieten auch sie die Vorteile von Ressourcen on demand und stündlicher Abrechnung. Darüber hinaus sind diese Cloudserver ideal für Machine Learning und Deep Learning geeignet.
Auf der Grundlage von NVIDIA Tesla V100S
Diese GPUs gehören zu den leistungsstärksten auf dem Markt und sind speziell für den Betrieb im Rechenzentrum konzipiert. Sie beschleunigen die Rechenoperationen in den Bereichen der Künstliche Intelligenz (KI) und Grafikberechnungen.
NVIDIA GPU Cloud
Mit der besten Nutzererfahrung als Zielsetzung haben sich OVHcloud und NVIDIA zusammengetan, um die leistungsstärkste von GPU beschleunigte Plattform für Deep Learning, High-Performance-Computing und Künstliche Intelligenz (KI) zu entwickeln. Dies ist der einfachste Weg, um mit GPU beschleunigte Container von einem kompletten Katalog aus bereitzustellen und zu warten. Mehr erfahren
1 bis 4 Karten mit garantierter Leistung
Die Tesla-Karten werden via PCI Passthrough direkt mit der Instanz verbunden. Es gibt also keine Virtualisierungsschicht, so dass Ihnen die gesamte Leistung zur Verfügung steht. Darüber hinaus können bis zu 4 Karten hinzugefügt werden, um deren Leistung zu bündeln. Auf diese Weise stellt die Hardware ihre gesamte Rechenkapazität Ihrer Anwendung zur Verfügung.
Zertifizierungen ISO/IEC 27001 und 27701 sowie Compliance für das Hosting von Gesundheitsdaten
Unsere Cloud-Infrastrukturen und -Dienste sind nach ISO/IEC 27001, 27017, 27018 und 27701 zertifiziert. Diese Zertifizierungen gewährleisten ein Informationssicherheitsmanagementsystem (ISMS) für das Management der Risiken, der Schwachstellen und der Business Continuity. Ebenso garantiert wird dadurch ein Managementsystem für den Datenschutz. Wir werden allen Compliance-Anforderungen gerecht. So können Sie Gesundheitsdaten sicher hosten.
Eigenschaften der NVIDIA Tesla V100S
Leistung mit NVIDIA GPU Boost |
Bandbreite für bidirektionale Verbindungen |
CoWoS Stacked HBM2 Memory |
---|---|---|
|
|
|
Einsatzzwecke
Bilderkennung
Informationen aus Bildern extrahieren, um diese zu kategorisieren, ein bestimmtes Element identifizieren oder aussagekräftigere Dokumente erstellen: das sind Anforderungen in vielen Bereichen. Bildgebende Verfahren in der Medizin, soziale Netzwerke, Schutz und Sicherheit der Öffentlichkeit: Mit Frameworkswie Caffe2 in Verbindung mit Tesla V100S GPUs wird dies möglich und sogar einfach zugänglich.
Situationsanalyse
In manchen Fällen braucht es Echtzeit, wenn eine angemessene Reaktion angesichts unterschiedlicher und unvorhersehbarer Situationen erforderlich ist. Dies gilt beispielsweise bei autonomen Autos oder Analysen von Netzwerk-Traffic im Internet. Hier setzt Deep Learning an: Neuronale Netzwerke werden ausgebildet, die in einer Trainingsphase eigenständig lernen.
Menschliche Interaktion
In der Vergangenheit hat der Mensch gelernt, mit Maschinen zu kommunizieren. Heute leben wir in der Zeit, in der Maschinen lernen, mit dem Menschen zu kommunizieren. Ob durch Spracherkennung oder Identifizieren von Emotionen durch Intonation und Bild − Tools wie TensorFlow machen es möglich, die Grenzen dieser Interaktionen zu erweitern, und eröffnen eine Vielzahl neuer Einsatzmöglichkeiten.
Sie benötigen GPUs für das Training Ihrer künstlichen Intelligenz?
Nutzen Sie unsere AI Training Lösung für das effiziente und unkomplizierte Training Ihrer KI-Modelle und optimieren Sie dabei Ihre GPU-Rechenressourcen.
Konzentrieren Sie sich ganz auf Ihr Business statt auf die zugrundeliegende Infrastruktur. Starten Sie Ihre Trainings über eine Befehlszeile und bezahlen Sie die genutzten Ressourcen auf die Minute genau.
Verwendung
Starten
Starten Sie Ihre Instanz, indem Sie das gewünschte T2-Modell und ein passendes NGC-Image auswählen.
Konfigurieren
$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t2
Verwenden
Ihr KI-Framework ist bereit für erste Rechenoperationen.


Erstellen Sie einen Account und starten Sie Ihre Dienste in Minutenschnelle.

Abrechnung der GPU
GPU Instanzen werden wie alle unsere Instanzen abgerechnet: Nach dem Prinzip Pay-as-you-go am Ende jeden Monats. Der Preis ist abhängig von Größe und Nutzungsdauer der gestarteten Instanz.
Andere Produkte
Häufig gestellte Fragen
Welches SLA garantiert OVHcloud für die Verfügbarkeit der GPU Instanzen?
Das SLA beinhaltet 99,999 % monatliche Verfügbarkeit für GPU Instanzen. Weitere Informationen finden Sie in den allgemeinen Verkaufsbedingungen.
Welcher Hypervisor wird für die Virtualisierung der Instanzen verwendet?
Wie alle anderen Instanzen werden auch die GPU Instanzen über den KVM-Hypervisor des Linux-Kernels virtualisiert.
Was ist PCI Passthrough?
Karten mit Grafikprozessoren sind über den PCI-Bus des physischen Servers erreichbar. PCI Passthrough ist eine Hypervisor-Funktion, mit der Sie Hardware einer virtuellen Maschine zuweisen können, indem Sie direkten Zugriff auf den PCI-Bus gewähren, das heißt ohne dazwischenliegende Virtualisierungsschicht.
Kann ich die Größe der GPU Instanzen anpassen?
GPU Instanzen können nach einem Neustart auf ein höheres Modell abgeändert werden. Es ist jedoch nicht möglich, auf ein niedrigeres Modell zu wechseln.
Verfügen GPU Instanzen über DDoS-Schutz?
Ja, unser DDoS-Schutz ist bei allen OVHcloud Lösungen inklusive – ohne zusätzliche Kosten.
Kann eine monatlich abgerechnete Instanz im Laufe eines Monats auf stündliche Abrechnung umgestellt werden?
Ist die monatliche Abrechnung einmal eingerichtet, können Sie nicht während des laufenden Monats zur stündlichen Abrechnung zurückkehren. Wählen Sie vor dem Start der Instanz sorgfältig den Abrechnungsmodus aus, der am besten zu Ihrem Projekt passt.