
Einfaches und schnelles Training von Modellen mit künstlicher Intelligenz
Starten Sie das Training Ihrer künstlichen Intelligenz in der Cloud - sorgen Sie sich nicht darum, wie die Infrastruktur funktioniert. AI Training ermöglicht es Data Scientists, sich auf ihr Kerngeschäft zu konzentrieren - ohne sich um die Orchestrierung von Rechenressourcen zu kümmern.
Diese Lösung basiert auf der Open Source Plattform Kubernetes. Mit ihr trainieren Sie Ihre Modelle einfach mit nur wenigen Klicks oder über die Befehlszeile. Sie sparen Zeit, steigern die Produktivität Ihres Teams und wahren dabei die Integrität Ihrer sensiblen Daten.
Für Entwickler und Data Scientists
Entwickeln Sie Ihre Modelle mit Ihrem bevorzugten Framework wie Scikit-learn, XGBoost oder TensorFlow. Starten Sie Trainings innerhalb weniger Sekunden auf einem oder mehreren CPU/GPU-Nodes. Eine einfache Codezeile oder ein API-Aufruf genügen.
Ressourcennutzung optimieren
Unsere Lösung plant automatisch die optimale Nutzung Ihrer GPU-Rechenressourcen. Es ist also nicht notwendig, diesen Schritt in Ihre Abläufe zu integrieren.
GPU-Leistung zum Bestpreis
AI Training bietet Ihnen die besten Preise auf dem Markt für GPU-Ressourcen. Die minutengenaue Abrechnung ist transparent. So verwalten Sie Ihr Budget und tätigen Ihre Ausgaben optimal.
Zertifizierungen ISO/IEC 27001 und 27701 sowie Compliance für das Hosten von Gesundheitsdaten
Unsere Cloud-Infrastrukturen und -Dienste sind nach ISO/IEC 27001, 27017, 27018 und 27701 zertifiziert. Wir erfüllen natürlich alle relevanten Compliance-Anforderungen. So hosten Sie zum Beispiel Gesundheitsdaten absolut sicher.
Unsere GPU-Rechenressourcen
CPU |
GPU |
|
---|---|---|
Beschreibung | Profitieren Sie von garantierten CPU-Ressourcen. Sie sind an Ihre Test- und Vorproduktionsphasen oder auch Ihre Basisphase des Machine Learning angepasst. | Setzen Sie GPU-Ressourcen für alle Anwendungsfälle von AI-Training und Deep Learning ein, die hohe Rechenleistungen erfordern. |
Name | ai1-*-cpu | ai1-*-gpu |
Einsatzmöglichkeiten | Basistraining für Machine Learning, Tests, Vorproduktion | Training von Deep Learning (NLP, Computer Vision...) |
vCPU Architektur | Intel-Xeon-Prozessoren 1 bis 12 vCores +2 GHz |
Intel-Xeon-Prozessoren 13 vCores +2,9 GHz |
RAM | 4 GB RAM | 40 GB RAM |
GPU Architektur | Nicht verfügbar | NVIDIA TESLA V100s RAM für GPU: 32 GiB GPU-Leistung (FP32) 16,4 TFLOPS |
Nicht-persistenter lokaler Storage | 40 GiB | 750 GiB |
Object Storage | Unbegrenzt | Unbegrenzt |
Öffentliches Netzwerk | 500 Mbit/s | 1,5 Gbit/s |
Maximale Anzahl an Ressourcen je Trainingsauftrag oder Notebook | 12 CPU | 4 GPU |
Anwendungsbeispiele
Was ist das Besondere an der Lösung AI Training?

Ihre AI-Projekte - einfach und schneller.
AI Training ist eine technologieneutrale Plattform. Sie basiert auf der Open-Source-Plattform Kubernetes. Nutzen Sie die Ressourcen für Ihre Trainings optimal und nach Bedarf. Diese Public Cloud Lösung steht ohne Vertragsbindung zur Verfügung und wird nach Nutzung abgerechnet. Sie passt sich dynamisch Ihrem Verbrauch an, für größte Flexibilität und höchste Leistung. Mit AI Training arbeiten Sie als Data Scientist weitaus produktiver. Ihre alltägliche Arbeit wird einfacherer, da nun komplizierte Ingenieuraufgaben wegfallen.

Kosten reduziert, Abrechnung im Griff
Mit AI Training profitieren Sie von einer transparenten Preisgestaltung und einem Kundencenter, damit Sie die Kosten für die durchgeführten Trainings einfach nachvollziehen können. Einfache Nutzung und Berechenbarkeit sind dadurch garantiert.

Eine europäische Cloud, die Ihre Daten achtet
Die künstliche Intelligenz eröffnet große Möglichkeiten der Wertschöpfung aus Daten. Die Daten müssen jedoch durchgehend verwaltet werden. Die Wahl eines europäischen Cloud-Anbieters wie OVHcloud geht mit der Garantie für die Achtung Ihrer Daten (DSGVO) einher - ohne das Risiko einer Wettbewerbsverzerrung aufgrund von Gesetzen wie dem US-amerikanischen CLOUD Act.

Entwickelt auf Grundlage offener Standards und Open Source
AI Training ist nativ kompatibel mit marktführenden Anwendungen und Frameworks wie Scikit-learn, TensorFlow, Pytorch oder Jupyter Notebook. Transparenz ist Teil unserer DNA. Für Sie bedeutet das die vollständige Reversibilität Ihrer Trainingsprozesse.
Verwendung
Sie haben Ihr Public Cloud Projekt erstellt? Starten Sie Ihre Trainings nun mit Rechenressourcen - direkt über das Kundencenter auf einem Jupyter Notebook, über eine API oder die Kommandozeile.
Mit ein paar Klicks stellen Sie ein Jupyter Notebook bereit, das mit dem gewünschten Framework (TensorFlow, PyTorch, MxNet usw.) verbunden ist, oder Ihren Trainingscode in einem Container isolieren.
Vom Kundencenter aus
Unser Webinterface bietet Ihnen zahlreiche Funktionen: Ein Dashboard für die Nachverfolgung und den Start neuer Trainings, die Verwaltung Ihrer Datensätze und vieles mehr.
Per Kommandozeile
Beispiel: Sie möchten ein neuronales Netzwerk optimieren, um Ihre Support-Tickets verschiedenen Kategorien zuzuordnen. So nehmen Sie ein JupyterLab mit Pytorch und Ihren Daten in Betrieb. Zwei Befehlszeilen genügen.
Erhalten Sie hier die Liste der Ressourcen, die auf der AI Training Plattform verfügbar sind:./ovhai capability
gpus:
- model: Tesla-V100S
max_gpus: 4
default: true
cpus:
- max_cpus: 12
Synchronisierung Ihrer lokalen Daten mit Ihrem Object Storage./ovhai data upload GRA myBucket train.zip
Ausführung eines JupyterLab mit vorinstalliertem Pytorch und Anordnung der Daten in /data im Lese/Schreib-Modus mit 2 GPUs./ovhai job run \
--gpu 2 \
--name ai-training-pytorch-short-feynman \
--volume myBucket@GRA:/data:RW \
ovhcom/ai-training-pytorch:1.6.0
Abruf der Ergebnisse
Automatisch nach Beendigung des Auftrags
Mehr erfahren
In unserer technischen Dokumentation erfahren Sie, wie Sie AI Training nutzen können.
Mit der offiziellen API haben Sie alle Verwaltungsfunktionen für AI Training zur Verfügung.


Erstellen Sie einen Account und starten Sie Ihre Dienste in Minutenschnelle.
Funktionen
Eingabe von Trainingsaufgaben
Legen Sie die notwendigen Ressourcen für Ihre Rechenaufgaben fest und speisen Sie sie in AI Training ein. Das Lösung funktioniert mit Docker-Images öffentlicher oder privater Modelle. Nutzen Sie für Ihren Start einen umfangreichen Katalog an Vorlagen.
Orchestrierung und Parallelisierung
AI Training orchestriert die Trainings auf unserer Infrastruktur. So starten Sie eine oder mehrere Tasks parallel. Ihre Teams müssen sich dabei nicht um die Zuweisung physischer Ressourcen oder die Kompatibilität der GPU-Treiber kümmern.
Kompatibilität mit TensorFlow, PyTorch, Scikit-learn, XGBoost und weiteren
Wenn Ihre Modelle für künstliche Intelligenz GPU-Ressourcen in einer containerisierten Umgebung nutzen können, ist AI Training das ideale Werkzeug. Unabhängig von der verwendeten Anwendung bietet Ihnen unsere Lösung eine unübertroffen einfache Handhabung Ihrer GPU-Trainings.
Kompatibilität mit einem großen Katalog an vorinstallierten Modellen
Wir stellen Ihnen ein breites Spektrum öffentlicher und kostenlos verfügbarer Docker-Images zur Verfügung, um Ihnen den Start noch einfacher zu machen.
Setzen Sie für Deep Learning konzipierte Bilder ein (autoML für Text, Bild oder Video). Diese sind so konfiguriert, dass sie die Leistung unserer GPUs nutzen können.
Code mit Notebooks
Setzen Sie vorkonfigurierte Jupyter-Notebooks für die Frameworks Ihrer Wahl ein - TensorFlow, PyTorch, Scikit-learn und weitere.
Verwaltung über Kundencenter, API oder Befehlszeile
Starten und verfolgen Sie Ihre GPU-Tasks über Webinterface, API oder Befehlszeile - ganz nach Ihren Vorlieben und Technikkenntnissen. Python, Java, Scala, C++ mit Cuda, Golang... die Programmiersprache spielt keine Rolle, alles ist möglich.
Protokolldateien (Logdateien)
Mit einem schnellen Zugriff auf Ihre Ereignisprotokolle überwachen Sie die Ausführung ganz unkompliziert.

Abrechnung von AI Training
Für jedes gestartete Training bezahlen Sie die verwendeten Rechenressourcen je nach deren Lebensdauer und der Anzahl der zugewiesenen GPUs. Die Abrechnung erfolgt auf die Minute genau.
Für die Nutzung dieser Dienstleistung ist kein Vertrag erforderlich.