public cloud compute  gpu

Cloud Server - optimiert für die parallele Bearbeitung von Aufträgen in großem Umfang (Massiv Parallel Processing)

GPU Instanzen enthalten Tesla-V100-Grafikprozessoren von NVIDIA, um den hohen Anforderungen von Massiv Parallel Processing gerecht zu werden. Als Bestandteil des Angebots von OVHcloud bieten auch sie die Vorteile von Ressourcen on demand und stundengenauer Abrechnung. Diese Cloud Server sind angepasst an die Anforderungen von Machine Learning und Deep Learning.

Auf der Grundlage von NVIDIA Tesla V100

Diese GPUs gehören zu den leistungsstärksten auf dem Markt und sind speziell für den Betrieb im Rechenzentrum konzipiert. Sie beschleunigen die Rechenoperationen in den Bereichen der Künstliche Intelligenz (KI) und Grafikberechnungen.

NVIDIA GPU Cloud

Mit der besten Nutzererfahrung als Zielsetzung haben sich OVHcloud und NVIDIA zusammengetan, um die leistungsstärkste von GPU beschleunigte Plattform für Deep Learning, High-Performance-Computing und Künstliche Intelligenz (KI) zu entwickeln. Dies ist der einfachste Weg, um mit GPU beschleunigte Container von einem kompletten Katalog aus bereitzustellen und zu warten. Mehr erfahren

1 bis 4 Karten mit garantierter Leistung

Die Tesla-Karten werden via PCI Passthrough direkt mit der Instanz verbunden. Es gibt also keine Virtualisierungsschicht, so dass Ihnen die gesamte Leistung zur Verfügung steht. Darüber hinaus können bis zu 4 Karten hinzugefügt werden, um deren Leistung zu bündeln. Auf diese Weise stellt die Hardware ihre gesamte Rechenkapazität Ihrer Anwendung zur Verfügung.

Eigenschaften der NVIDIA Tesla V100

Leistung mit NVIDIA GPU Boost

Bandbreite für bidirektionale Verbindungen

CoWoS Stacked HBM2 Memory
  • Double-Precision, 7 TeraFLOPS
  • Single-Precision, 14 TeraFLOPS
  • Deep Learning, 112 TeraFLOPS
  • PCIe 32 GB/s.
  • Kapazität: 16 GB HBM2
  • Bandbreite: 900 GB/s

 

Einsatzzwecke

Bilderkennung

Informationen aus Bildern extrahieren, um diese zu kategorisieren, ein bestimmtes Element identifizieren oder aussagekräftigere Dokumente erstellen: das sind Anforderungen in vielen Bereichen. Bildgebende Verfahren in der Medizin, soziale Netzwerke, Schutz und Sicherheit der Öffentlichkeit: Mit Frameworkswie Caffe2 in Verbindung mit Tesla V100 GPUs wird dies möglich und sogar einfach zugänglich.

Situationsanalyse

In manchen Fällen braucht es Echtzeit, wenn eine angemessene Reaktion angesichts unterschiedlicher und unvorhersehbarer Situationen erforderlich ist. Dies gilt beispielsweise bei autonomen Autos oder Analysen von Netzwerk-Traffic im Internet. Hier setzt Deep Learning an: Neuronale Netzwerke werden ausgebildet, die in einer Trainingsphase eigenständig lernen.

Menschliche Interaktion

In der Vergangenheit hat der Mensch gelernt, mit Maschinen zu kommunizieren. Heute leben wir in der Zeit, in der Maschinen lernen, mit dem Menschen zu kommunizieren. Ob durch Spracherkennung oder Identifizieren von Emotionen durch Intonation und Bild − Tools wie TensorFlow machen es möglich, die Grenzen dieser Interaktionen zu erweitern, und eröffnen eine Vielzahl neuer Einsatzmöglichkeiten.

Sie müssen Ihre Modelle mit künstlicher Intelligenz mit GPUs trainieren?

Trainieren Sie mit unserer Lösung „AI Training“ Ihre KI-Modelle effizient und einfach. Optimieren Sie dabei Ihre GPU-Rechenressourcen.

Konzentrieren Sie sich ganz auf Ihre Geschäftsaktivitäten - nicht auf die Infrastruktur darunter. Starten Sie Ihre Trainings über eine Befehlszeile und bezahlen Sie die genutzten Ressourcen auf die Minute genau.

OVHcloud AI Training

Verwendung

1

Starten

Starten Sie Ihre Instanz, indem Sie das gewünschte T1-Modell und ein passendes NGC-Image auswählen.

2

Konfigurieren

$ docker pull nvcr.io/nvidia/tensorflow
$ nvidia-docker run nvidia/tensorflow t1

3

Verwenden

Ihr Framework für KI ist bereit, um die Rechenoperationen zu beginnen.

Bereit loszulegen?

Erstellen Sie einen Account und starten Sie Ihre Dienste in nur wenigen Minuten

Pricing Public Cloud

Abrechnung der GPU

GPU Instanzen werden wie alle unsere Instanzen abgerechnet: Nach dem Prinzip Pay-as-you-go am Ende jeden Monats. Der Preis ist abhängig von Größe und Nutzungsdauer der gestarteten Instanz.