Was ist MLOps?


MLOps, kurz für Machine Learning Operations, steht für eine Reihe von Verfahren, die den Prozess der Erstellung, Bereitstellung und Wartung von Machine-Learning-Modellen automatisieren. Im Wesentlichen werden die DevOps-Prinzipien der Zusammenarbeit und Automatisierung auf den Lebenszyklus des maschinellen Lernens angewendet, einschließlich Training, Testen, Bereitstellen und Überwachen von Modellen.

AI and machine learning dedicated servers OVHcloud

MLOps zielt darauf ab, sicherzustellen, dass Machine-Learning-Modelle zuverlässig und effizient sind und einen echten Mehrwert bieten. Es unterstützt Unternehmen dabei, Machine-Learning-Modelle reibungslos in der Produktion zu implementieren und deren effektiven Betrieb zu gewährleisten.

Was ist Machine Learning?

Machine Learning (oder maschinelles Lernen) ist ein Bereich der künstlichen Intelligenz (KI, oder Artificial Intelligence, AI), der es Computern ermöglicht, aus Erfahrungen zu lernen und sich zu verbessern, ohne explizit programmiert zu werden. Es umfasst die Entwicklung von Algorithmen und statistischen Modellen, die es Systemen ermöglichen, bestimmte Aufgaben effektiv auszuführen, indem sie Daten analysieren, Muster identifizieren und Vorhersagen oder Entscheidungen treffen.

Der Kerngedanke hinter maschinellem Lernen als Teil von AI-Lösungen besteht darin, Programme zu entwickeln, die auf Daten zugreifen, daraus lernen und dieses Wissen dann nutzen können, um fundierte Entscheidungen oder Vorhersagen zu treffen, ohne sich auf regelbasierte Programmierung zu stützen.

Maschinelles Lernen umfasst eine Vielzahl von Ansätzen, mit jeweils eigenen Stärken und Anwendungsbereichen. Hier sind einige gängige Arten:

Überwachtes Lernen:

Bei diesem Ansatz sind die für das Training verwendeten Daten gelabelt. Stellen Sie sich vor, Sie zeigen einem Machine-Learning-Algorithmus Tausende von Bildern von Katzen und Hunden, wobei jedes Bild ein klares Label hat. Dadurch kann der Algorithmus die Merkmale lernen, die Katzen von Hunden unterscheiden, und dieses Wissen dann anwenden, um neue, bisher unbekannte Bilder zu identifizieren.

Unüberwachtes Lernen:

Hier sind die Daten nicht gelabelt. Der ML-Algorithmus muss unabhängig Muster und Beziehungen innerhalb der Daten finden. Das kann für Aufgaben wie die Anomalieerkennung oder das Datenclustering nützlich sein.

Bestärkendes Lernen:

Diese Methode wird auch als Reinforcement Learning bezeichnet und beinhaltet das Training eines Algorithmus durch einen Trial-and-Error-Prozess. Der Algorithmus interagiert mit einer simulierten Umgebung und erhält Belohnungen für gewünschte Verhaltensweisen, was es ihm ermöglicht, im Laufe der Zeit optimale Strategien zu lernen.

Maschinelles Lernen im Kontext von KI

Künstliche Intelligenz (KI, oder Artificial Intelligence, AI) ist im Kern die Wissenschaft, Maschinen zu schaffen, die in der Lage sind, Aufgaben auszuführen, für die in der Regel menschliche Intelligenz erforderlich ist. Diese Aufgaben reichen von der Problemlösung und Entscheidungsfindung bis hin zur Spracherkennung und Übersetzung. AI umfasst viele Techniken und Methoden, unter denen sich das maschinelle Lernen als besonders leistungsfähiges und vielseitiges Tool hervorgetan hat. Die grundlegende Idee hinter ML ist, dass Systeme aus Daten lernen, Muster erkennen und Entscheidungen mit minimalem menschlichem Eingreifen treffen können.

Das Machine Learning beschleunigt die Weiterentwicklung der AI, indem es einen dynamischeren Ansatz zur Datenanalyse bietet. Diese Fähigkeit ermöglicht es AI-Systemen, sich an neue Umstände anzupassen und sich im Laufe der Zeit zu verbessern, was entscheidend für Anwendungen ist, die häufige Aktualisierungen erfordern oder mit komplexen, variablen Datensätzen arbeiten.

Durch ihre Lernalgorithmen können ML-Modelle große Datenmengen mit einer Geschwindigkeit und in einem Ausmaß verarbeiten, die für menschliche Analyst:innen unerreichbar sind. Diese Effizienz ist der Grund, warum ML das Rückgrat von vielen der heutigen AI-Systeme geworden ist, die Fortschritte in sehr unterschiedlichen Bereichen wie dem Gesundheitswesen, der Finanzwelt, autonome Fahrzeuge und Smart Citys voranbringen.

Das maschinelle Lernen ist ein bedeutendes Schwerpunktgebiet in der AI und Teil eines breiteren Ökosystems von AI-Technologien, einschließlich Deep Learning, natürlicher Sprachverarbeitung (Natural Language Processing, NLP) und Robotik. Deep Learning, ein Teilbereich von ML, ermöglicht komplexe Aufgaben wie die Bild- und Spracherkennung durch neuronale Netze, die menschliche Gehirnfunktionen nachahmen.

NLP, das Maschinen das Verstehen und Interpretieren menschlicher Sprache ermöglicht, nutzt oft maschinelles Lernen, um Algorithmen zu verbessern. In der Robotik helfen ML-Algorithmen Robotern, aus ihrer Umgebung und ihren Erfahrungen zu lernen, was ihre Autonomie verbessert. Diese Wechselbeziehung zeigt, wie ML nicht nur von anderen Bereichen der AI profitiert, sondern auch zu deren Fortschritt beiträgt.

AI notebooks

Wie funktioniert MLOps?

Der MLOps-Lebenszyklus besteht aus vier primären Zyklen. Jeder Zyklus bereitet den Weg für die Durchführung erfolgreicher ML-Operationen. Die vier Zyklen oder Phasen sind:

Datenzyklus:

Dies umfasst das Sammeln und Vorbereiten von Daten für das Training von ML-Modellen. Rohdaten werden aus verschiedenen Quellen gesammelt, und Techniken wie Feature Engineering transformieren und organisieren sie in gelabelte Daten für das Modelltraining.

Icons/concept/Cloud/Cloud Infinity Created with Sketch.

Modellzyklus:

In diesem Zyklus wird das ML-Modell mit den vorbereiteten Daten trainiert. Es ist entscheidend, die verschiedenen Versionen des Modells während seines Lebenszyklus zu verfolgen, was mit Tools wie MLflow gemacht werden kann.

Entwicklungszyklus:

Das trainierte Modell wird weiterentwickelt, getestet und validiert, um sicherzustellen, dass es für den Einsatz in einer Produktionsumgebung geeignet ist. Automatisierte CI/CD-Pipelines (Continuous Integration/Continuous Delivery) können manuelle Aufgaben reduzieren.

Icons/concept/Cloud/Cloud Hand Created with Sketch.

Betriebszyklus:

Dieser Überwachungsprozess stellt sicher, dass das Produktionsmodell weiterhin gut funktioniert und bei Bedarf neu trainiert wird, um sich im Laufe der Zeit zu verbessern. MLOps kann das Modell nach einem Zeitplan oder wenn die Leistungskennzahlen unter einen Schwellenwert fallen, automatisch neu trainieren.

Kernprinzipien hinter MLOps

MLOps basiert auf einer Grundlage von Kernprinzipien, die die Zuverlässigkeit, Effizienz und Skalierbarkeit von Machine-Learning-Modellen in der realen Welt sicherstellen. Hier ist eine Aufschlüsselung einiger grundlegender Prinzipien:

Automatisierung:

Ein zentrales Prinzip von MLOps ist die Automatisierung wiederkehrender Aufgaben im gesamten Lebenszyklus des maschinellen Lernens. Das beinhaltet das Management von Datenpipelines, das Training von Modellen, Tests, Bereitstellungen und die Überwachung. Die Automatisierung minimiert menschliche Fehler und ermöglicht es Data Scientists, sich auf höherwertige Aufgaben wie die Entwicklung und Verbesserung von Modellen zu konzentrieren.

Versionskontrolle und Reproduzierbarkeit:

MLOps ist auf die Verfolgung jeder Änderung an Daten, Code und Modellen bedacht. Dies ermöglicht einfache Rollbacks zu früheren Versionen (falls erforderlich) und gewährleistet, dass Experimente reproduzierbar sind. Jeder im Team kann die Herkunft des Modells und seine Entwicklung nachvollziehen.

Kontinuierliche Integration und Bereitstellung (CI/CD):

Modernes MLOps lässt sich mit den von Data Scientists verwendeten Entwicklungstools integrieren.  Wenn Änderungen vorgenommen werden, sorgt automatisiertes Testen dafür, dass alles wie erwartet funktioniert. Dadurch werden Bugs früh im Entwicklungszyklus erkannt und verhindert, dass Probleme die Bereitstellung verzögern.

Zusammenarbeit:

MLOps fördert die Zusammenarbeit zwischen Data-Science-, Engineering- und Betriebsteams. Durch die Optimierung von Workflows und die Bereitstellung einer gemeinsamen Sicht auf den Lebenszyklus des Modells baut MLOps Silos ab und sorgt dafür, dass alle auf dasselbe Ziel hinarbeiten.

Überwachung und Feedbackzyklen:

Der MLOps-Prozess überwacht kontinuierlich die Leistung der bereitgestellten Modelle. Er verfolgt Metriken wie Genauigkeit, Fairness und potenzielle Vorurteile.  Wenn etwas schiefgeht, werden Warnungen ausgelöst, die eine Untersuchung anstoßen und Korrekturmaßnahmen ermöglichen. Dieser Feedbackzyklus ist entscheidend für die Aufrechterhaltung der Modellleistung und die Anpassung an reale Veränderungen.

Governance und regulatorische Compliance:

Es ist auch wichtig, dass MLOps Richtlinien und Verfahren für die Modellentwicklung und -bereitstellung durchsetzt. Das gewährleistet die Einhaltung von Fairness-, Erklärungs- und Datenschutzvorschriften. MLOps-Tools können die Herkunft der Daten verfolgen, die zum Trainieren von Modellen verwendet werden, und den Entscheidungsprozess für Audits dokumentieren.

Skalierbarkeit und Effizienz:

MLOps-Praktiken stellen sicher, dass die gesamte Machine-Learning-Pipeline mit wachsenden Datenmengen und zunehmender Modellkomplexität umgehen kann. Dies umfasst die Nutzung von Cloud-basierter Infrastruktur und Containertechnologien für eine effiziente Ressourcennutzung und Modellbereitstellung in verschiedenen Umgebungen.

Was sind die Vorteile von MLOps?

MLOps bietet eine Reihe von Vorteilen, die den Lebenszyklus des maschinellen Lernens optimieren und das wahre Potenzial Ihrer Modelle freisetzen. Die Automatisierung wiederkehrender Aufgaben wie die Datenvorbereitung, das Training und die Bereitstellung gibt Data Scientists mehr Zeit für strategische Arbeit. CI/CD-Praktiken beschleunigen die Entwicklung, indem Fehler frühzeitig erkannt und reibungslose Implementierungen gewährleistet werden. Das führt zu einer schnelleren Time-to-Value für Ihre Machine-Learning-Projekte.

Es fördert auch die Zusammenarbeit zwischen Data-Science-, Engineering- und Betriebsteams. Gemeinsame Tools und Prozesse geben allen Einblick in den Lebenszyklus des Modells, was eine bessere Kommunikation und optimierte Arbeitsabläufe ermöglicht.

Mit MLOps-Praktiken wie der Containerisierung und Cloud-basierte Infrastruktur sind Sie imstande, wachsende Datenmengen und zunehmende Modellkomplexität zu bewältigen. Sie können also Ihre Machine-Leanring-Aktivitäten effektiv skalieren, wenn Ihre Anforderungen sich ändern.

Teams, die MLOps anstelle einer der anderen Möglichkeiten für Erfolg im maschinellen Lernen nutzen, profitieren auch davon, dass MLOps Richtlinien und Verfahren für die Modellentwicklung und -bereitstellung durchsetzt. Damit ist sichergestellt, dass Ihre Modelle den Vorgaben rund um Fairness, Erklärbarkeit und Datenschutz entsprechen. MLOps-Tools können die Datenherkunft verfolgen und Entscheidungsprozesse für Audits dokumentieren.

Insgesamt verzeichnen Teams, die MLOps nutzen, durch die Automatisierung von Aufgaben und die Optimierung der Ressourcennutzung mit MLOps-Praktiken erhebliche Kosteneinsparungen. Darüber hinaus können Sie durch das frühzeitige Erkennen von Fehlern und die Bereitstellung hochwertiger Modelle kostspielige Nacharbeit und Leistungsprobleme vermeiden.

Schließlich ermöglicht MLOps einen Feedbackzyklus, in dem bereitgestellte Modelle kontinuierlich überwacht werden. Dadurch sind Sie in der Lage, Leistungsverschlechterungen, Datendrift oder potenzielle Vorurteile zu identifizieren. Die proaktive Behandlung dieser Probleme sorgt dafür, dass Ihre Modelle relevant bleiben und im Laufe der Zeit optimale Ergebnisse liefern.

bm_benefits

Wie man MLOps implementiert

Organisationen sollten damit beginnen, die notwendige Infrastruktur für die Implementierung von MLOps einzurichten. Dies umfasst die Verwendung eines Versionskontrollsystems zur Verwaltung von Code, Daten und Modellartefakten, die Implementierung einer CI/CD-Pipeline zum Automatisieren der Erstellung, Tests und Bereitstellung von Modellen, die Bereitstellung eines Modellregisters zur Speicherung und Versionierung trainierter Modelle sowie die Einrichtung von Überwachungs- und Benachrichtigungsmechanismen zum Verfolgen der Modellleistung in der Produktion.

Monitoring OVHcloud

Als nächstes sollten Organisationen ihre MLOps-Workflows definieren. Das umfasst die Etablierung eines iterativen inkrementellen Prozesses für das Design, die Entwicklung und den Betrieb von ML-Anwendungen, die Automatisierung der durchgängigen ML-Pipeline (einschließlich Datenvorbereitung, Modelltraining, Bewertung und Deployment) sowie die Implementierung kontinuierlicher Neutrainings- und Modellaktualisierungsprozesse auf Basis der Produktionsüberwachung.

Schließlich sollten Organisationen bewährte MLOps-Praktiken einführen, wie z. B. die Verwendung von Containerisierung, um konsistente Entwicklungs- und Bereitstellungsumgebungen sicherzustellen, rigoroses Testen in jeder Phase der ML-Pipeline, die Pflege eines Feature-Stores für die Verwaltung und Versionierung von Eingabedaten-Features, die Nutzung von MLOps-Plattformen oder -Tools zur Vereinfachung der Implementierung und die Förderung der Zusammenarbeit zwischen Data Scientists, ML-Ingenieur:innen und DevOps-Teams.

Was sind die Herausforderungen in Zusammenhang mit MLOps?

Die Implementierung von MLOps ist zwar äußerst vorteilhaft, geht aber auch mit besonderen Herausforderungen einher. Datenbezogene Probleme stellen eine große Hürde dar. Die Gewährleistung der Datenqualität in der gesamten Pipeline ist von größter Bedeutung, da schlechte Daten zu schlecht funktionierenden und potenziell schädlichen Modellen führen. Darüber hinaus sind das Management der Datenversionierung für die Reproduzierbarkeit von Modellen und die Governance-Prozesse rund um Sicherheit, Datenschutz und ethische Bedenken komplexe Teile des MLOps-Puzzles.

Der Mangel an qualifiziertem Personal schafft ebenfalls Hindernisse.  MLOps erfordert funktionsübergreifende Expert:innen in Datenwissenschaft, Software-Engineering und DevOps-Prinzipien – und diese Personen zu finden, kann ziemlich schwierig sein. Zudem hängt der Erfolg von MLOps tatsächlich von der Förderung der Zusammenarbeit zwischen zuvor isolierten Teams ab.

Das Abbauen von Barrieren zwischen Data Scientists, Entwickler:innen und Betriebspersonal, während man sich auf Ziele und Prozesse einigt, erfordert einen bewussten kulturellen Wandel innerhalb der Organisationen.

Die Überwachung von Modellen nach der Bereitstellung ist ein weiterer häufig vernachlässigter Bereich. Die reale Welt ist dynamisch und die Leistung eines Modells wird im Laufe der Zeit aufgrund von Concept Drift abnehmen.

Proaktive Überwachungssysteme und -mechanismen sind erforderlich, um Nutzerfeedback zu sammeln, damit Modelle kontinuierlich verbessert werden können und sichergestellt ist, dass sie immer den Geschäftsanforderungen entsprechen. Schließlich können das Experimentieren und die Reproduzierbarkeit komplex werden. Die Verfolgung der Vielzahl von Experimenten, Variationen in den Daten und der damit verbundenen Ergebnisse ist entscheidend, um den Prozess der Modellentwicklung zu verstehen und künftige Aktualisierungen zu optimieren.

Diese Herausforderungen sollten nicht unterschätzt werden, Sie können sie aber durchaus erfolgreich bewältigen. Investitionen in spezialisierte MLOps-Plattformen, die Bereitstellung von Schulungsmöglichkeiten für bestehendes Personal und die Priorisierung klarer Kommunikation und Zusammenarbeit zwischen den Teams helfen, den Weg für eine reibungslosere Implementierung von MLOps zu ebnen.

Der Unterschied zwischen MLOps und DevOps

Der entscheidende Unterschied zwischen DevOps und MLOps besteht darin, dass sich MLOps speziell auf die einzigartigen Herausforderungen bei der Bereitstellung und Verwaltung von ML-Modellen in der Produktion konzentriert. Im Gegensatz dazu ist DevOps eine breitere Palette an Praktiken zur Optimierung des Softwareentwicklungszyklus.

Während sowohl DevOps als auch MLOps darauf abzielen, die Kluft zwischen Entwicklung und Betrieb zu überbrücken, gibt es bei MLOps noch weitere Überlegungen speziell zum Machine Learning. Dazu gehört das Management der Daten, die zum Trainieren von Modellen verwendet werden, die Validierung der Modellleistung und die Überwachung von Modellen auf Leistungsabfall im Laufe der Zeit, da sich die Daten ändern.

In einer DevOps-Pipeline liegt der Fokus auf der Automatisierung der Builds, Tests und Bereitstellung von Softwareanwendungen. In einer MLOps-Pipeline müssen zusätzliche Schritte zur Datenvorbereitung, zum Modelltraining und zur Modellevaluierung automatisiert und in den Bereitstellungsprozess integriert werden.

Ein weiterer wichtiger Unterschied ist die Notwendigkeit bei MLOps, verantwortungsvolle und ethische AI-Prinzipien einzubeziehen. Die Gewährleistung, dass ML-Modelle unvoreingenommen und transparent agieren, ist ein kritisches Anliegen, das in der traditionellen Softwareentwicklung weniger prominent ist.

Während DevOps und MLOps viele gemeinsame Prinzipien in Bezug auf Zusammenarbeit, Automatisierung und kontinuierliche Verbesserung teilen, bringt MLOps zusätzliche Komplexitäten in Bezug auf Daten, Modelle und Modell-Governance mit sich, die spezialisierte Tools und Praktiken erfordern, die über das in einer DevOps-Umgebung im Allgemeinen Vorhandene hinausgehen.

devOps community - OVHcloud

Beispiele für MLOps

MLOps wird von großen und kleinen Unternehmen genutzt. Ein führendes Bankinstitut hat beispielsweise MLOps implementiert, um seinen Kunden-Onboarding-Prozess zu optimieren. Die Bank verwendete ML-Modelle, um die Überprüfung von Kundeninformationen zu automatisieren und Betrug in Echtzeit zu erkennen. Dies verbesserte das Kundenerlebnis, da der Onboarding-Prozess schneller und effizienter wurde. Die Bank reduzierte auch das Betrugsrisiko, was das Vertrauen der Kund:innen erhöhte.

Ebenso nutzte ein großes Einzelhandelsunternehmen MLOps, um sein Lieferkettenmanagement zu verbessern. Das Unternehmen verwendete ML-Modelle, um die Produktnachfrage vorherzusagen und die Zuteilung von Ressourcen in seinen Lagern zu optimieren. Dies führte zu einer höheren Genauigkeit der Nachfrageprognosen, weniger Abfall und einer erhöhten Effizienz in der Lieferkette.

MLOps helfen auch im Gesundheitswesen. Ein Gesundheitsdienstleister nutzte MLOps, um die Patientenergebnisse zu verbessern. Der Anbieter verwendete ML-Modelle, um Patientendaten zu analysieren und Patient:innen zu identifizieren, die einem Risiko für unerwünschte Ereignisse ausgesetzt sind. Diese Informationen wurden genutzt, um einzugreifen und unerwünschte Ereignisse zu verhindern.Der Anbieter verzeichnete infolgedessen eine signifikante Verbesserung der Patientenergebnisse.

Ein großes Logistikunternehmen nutzte MLOps mit der Google Cloud-AI-Plattform, um seine Lieferkettenprozesse zu optimieren. Das Unternehmen entwickelte und deployte ML-Modelle, die die Nachfrage genau vorhersagen, Routen optimieren und die Lieferzeiten verkürzen konnten. Das verbesserte die Gesamteffizienz der Lieferkette und senkte die Kosten.

Diese Beispiele zeigen, wie Organisationen in verschiedenen Branchen MLOps genutzt haben, um ihre Machine-Learning-Workflows zu optimieren, die betriebliche Effizienz zu verbessern und echten geschäftlichen Mehrwert zu schaffen.

Die Power der künstlichen Intelligenz, für alle zugänglich

Oft wird künstliche Intelligenz als ein Aspekt der Data Science betrachtet, der nur Spezialist:innen vorbehalten ist. Bei OVHcloud sind wir vom enormen Potenzial dieser Technologie für alle Branchen überzeugt. Und wir glauben, dass die Komplexität dabei kein Hindernis für die Nutzung von Big Data und Machine Learning sein sollte. Daher konzentrieren wir uns auf die Bereitstellung von Tools, die Unternehmen bei der Bewältigung ihrer Herausforderungen unterstützen, zum Beispiel für die prädiktive Analyse von Datensätzen. Die Verwendung soll dabei so weit vereinfacht werden, dass diese Technologie von allen Nutzertypen eingesetzt werden kann.

machine learning

OVHcloud und MLOps

OVHcloud bietet neben einer breiten Palette an Speicherlösungen auch erstklassige Machine-Learning-Lösungen und Datenanalysedienste, mit denen Sie Ihre Datensätze mit minimalem Aufwand verarbeiten und gleichzeitig verwertbare Erkenntnisse für ein besseres Unternehmensmanagement und -wachstum gewinnen können.

public cloud data ovh

Data Processing

Wenn Sie Ihre Geschäftsdaten verarbeiten möchten, haben Sie eine bestimme Menge an Daten an einem Ort und eine Abfrage in Form einiger Codezeilen an einem anderen. Mit Data Processing stellt OVHcloud in wenigen Minuten einen Apache Spark-Cluster bereit, um Ihre Anfrage zu beantworten.

produits Data OVH

Data Analytics

Ein umfassendes Dienstportfolio für die optimale Nutzung Ihrer Daten.
Zusätzlich zu unseren verschiedenen Storage- und Machine-Learning-Lösungen bietet Ihnen OVHcloud ein Portfolio an Datenanalysediensten für eine unkomplizierte Analyse Ihrer Daten. Von der Datenerfassung bis hin zur Nutzung haben wir klare Lösungen erstellt, mit denen Sie Ihre Kosten kontrollieren und schnell durchstarten können.

Orchestration

Orchestrierung und Container

Beschleunigen Sie Ihre Geschäftsanwendungen mit Cloud-Tools zur Ressourcenautomatisierung. Eine Cloud-Plattform liefert nicht nur mit dem Netzwerk verbundene Computing-Ressourcen on demand, sondern auch flexiblen Speicher. Außerdem umfasst sie Tools zum Ausführen und Automatisieren verschiedener Aktionen, z. B. für Deployments, Wartungsarbeiten und die Skalierung bei Lastspitzen.