Machine Learning Operations DevOps-Tools mit KI und Machine Learning optimieren

Ein Gastbeitrag von Fred Simon * 4 min Lesedauer

Anbieter zum Thema

In Machine Learning Operations, kurz MLOps, verschmelzen DevOps-Prinzipien mit Maschinellem Lernen. Doch wie genau lässt sich der manuelle Prozess der ML-Modellierung und -Implementierung durch Automatisierung, Kontinuität und Qualitätssicherung automatisieren?

DevOps-Prinzipien helfen dabei, den Prozess zur Erstellung von Machine-Learning-Modellen zu automatisieren.
DevOps-Prinzipien helfen dabei, den Prozess zur Erstellung von Machine-Learning-Modellen zu automatisieren.
(Bild: Gerd Altmann / Pixabay)

In den aktuellen Diskussionen innerhalb der DevOps-Welt scheint Automatisierung die Zauberformel zur Lösung aller Probleme und zur Sicherung des Erfolgs zu sein. Es geht darum, Prozesse zu etablieren, die schnelle, sichere und kontinuierliche Veröffentlichungen neuer Softwareversionen ermöglichen.

Entgegen der öffentlichen Wahrnehmung wird in der Softwareentwicklung immer noch ein erheblicher manueller Arbeitsaufwand betrieben. Sowohl künstliche Intelligenz (KI) als auch Machine Learning (ML) erfordern Feature Engineering und die Anpassung von Parametern.

Die Bedeutung der Automatisierungen nimmt jedoch stetig zu, und in diesem Zusammenhang kann es sich lohnen, Machine Learning Operations (MLOps) einzuführen. Das Ziel ist es, Forschung und Modellerstellung zu automatisieren, um die Zusammenarbeit und Versionskontrolle während des gesamten Entwicklungsprozesses zu erleichtern.

Die Umsetzung ist aufgrund der dynamischen Natur von KI-basierter Modelle nicht immer einfach. Das Bereitstellen eines ML-Modells kann sowohl den Feedback-Loop als auch die Daten verändern, was kontinuierliche Umschulungen und ständige Aktualisierungen erfordert. Daher ist Automatisierung ein entscheidender Faktor, um Modelle sicher und kontinuierlich ohne übermäßigen manuellen Aufwand bereitstellen zu können.

Nutzungsoptimierung bei DevOps-Praktiken

Wenn man die Nutzungsmuster im Kontext von DevOps betrachtet, können zwei grundlegende realistische Szenarien erwartet werden:

1. Klassifizierung von Unternehmen basierend auf ihren DevOps-Praktiken

Das Ziel ist es, den spezifischen Reifegrad zu identifizieren und Lücken in der Produktverwendung aufzudecken. Entscheidungsträger im DevOps-Bereich benötigen personalisierte Empfehlungen auf der Grundlage der Nutzungsmustern ihrer Teams, um die Effizienz zu optimieren.

2. Vorhersage von Nutzungsmustern und Anomalien

Es geht darum, Anomalien zu identifizieren, sobald sie auftreten, und schon vorab Einblicke in die nächsten ein bis drei Monate zu gewinnen. Dies hilft bei der Bewertung der Leistung von DevOps-Workflows sowie bei der Ermittlung positiver oder negativer Trends und erleichtert die Behebung plötzlich auftretender Anomalien erheblich. Laufende Analysen und Arbeiten an Bereitstellung und Überwachung stellen sicher, dass hochwertige Modelle in der Entwicklung verwendet werden.

Diese Arten von Klassifizierungsmodellen können mithilfe von Tools wie z. B. CatBoost, einem leistungsstarken Python-Paket für maschinelles Lernen, erstellt werden. Sie unterstützen bei der Kennzeichnung sowie bei fehlenden Werten und vereinfachen den Modellierungsprozess.

Um den Reifegrad von DevOps in einem Unternehmen zu bestimmen, können verschiedene Inputs wie Website-Besuche, Teilnahme an Veranstaltungen, Textanalyse, Standort, Nutzungsmuster und Daten von Drittanbietern berücksichtigt werden. Selbst wenn ein Datensatz unvollständig ist, können diese Faktoren wertvolle Erkenntnisse liefern.

Optimierung der Nutzung von Zeitreihendaten

Zeitreihenmodelle lassen sich ebenfalls zur Vorhersage von Nutzungsmustern heranziehen. Sie zielen darauf ab, die Nutzung für den Rest eines bestimmten Monats und mehrere Monate im Voraus vorherzusagen, indem sie historische Nutzungsdaten analysieren und Trends und Anomalien erkennen.

Intelligente Tools für Zeitreihendaten ermöglichen es Entwicklerteams, historische Nutzungsdaten in einem Diagramm zu visualisieren. Durch die Analyse dieser Daten kann das Modell zukünftige Trends vorhersagen und Einblicke in die Leistung der Organisation geben.

Wird beispielsweise ein Rückgang der Nutzung vorhergesagt, kann das Unternehmen aktiv Maßnahmen ergreifen, um das Problem anzugehen. Signifikante Unterschiede zwischen vorhergesagten und tatsächlichen Daten weisen auf Anomalien hin, die verschiedene Bedeutungen haben können: z. B. erhöhte Nutzung oder falsche Produktverwendung.

Vorteile von LSTM-Modellen

„Long Short-Term Memory“ oder kurz LSTM-Modelle haben sich als ausgezeichnetes Mittel zur Optimierung der Nutzung erwiesen. Zum Zweck der Nutzung besteht der Input des Modells in der Regel aus drei Hauptkomponenten: historische tägliche Nutzungsdaten, Informationen über Feiertage und Wochentags-/Wochenendindikatoren. Mit diesen Inputs kann das Modell äußerst präzise Vorhersagen generieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ein LSTM-Modell kann Momentaufnahmen bestimmter Zeitpunkte generieren, wobei Datensätze aus verschiedenen Zeiträumen erstellt werden, um die Leistung des Modells unter unterschiedlichen Konfigurationen zu testen. Tools wie Alation, die SQL-Abfragen generieren, können zur Verwaltung dieser Datensätze und zur einfachen gemeinsamen Nutzung mit internen Teammitgliedern verwendet werden.

Verifikations- und Testprozesse müssen ebenfalls implementiert werden, um die Zuverlässigkeit des Modells sicherzustellen. Für diesen Prozess kommt Features ein hoher Stellenwert zu, der im Laufe der Zeit konstant bleiben sollte. Änderungen in dieser Phase können auf Probleme mit den Daten oder dem Modell selbst hinweisen.

Moderne ML-Tools – Modelle effektiv konfigurieren

Geht es – insbesondere bei LSTM-Modellen – um den Vergleich verschiedener Konfigurationen, ermöglichen Tools wie Valohai Teams die Durchführung einer Rastersuche mit mehreren Parametern aus verschiedenen Zeiträumen, um die beste Modellkonfiguration zu ermitteln.

Moderne ML-Tools sind wertvoll in Bezug auf Dokumentation, gemeinsame Nutzung und die Möglichkeit, Ausführungen und Ergebnisse zu überprüfen. Sie ermöglichen auch Anpassungen an Performance-Metriken des Modells, ohne alles neu ausführen zu müssen.

Abweichungen von erwarteten Metriken und signifikante Änderungen des Umfangs sollten genau überwacht werden und automatische Alarme auslösen, damit zeitnah Maßnahmen eingeleitet werden können. Darüber hinaus ermöglicht die Einrichtung eines Feedback-Loops kontinuierliche Verbesserungen auf der Grundlage von Echtzeit-Nutzerfahrungen.

Steigerung von Wert und Effizienz

Das Erstellen validierter und sicherer Datenwissenschafts- und Modellierungspipelines ist eine Herausforderung, der sich viele moderne Unternehmen stellen müssen. Die Anwendung bewährter und effektiver DevOps-Praktiken in Kombination mit der Automatisierung durch KI- und ML-Programme kann Unternehmen einen erheblichen Mehrwert bieten.

Letztendlich ergibt es aus geschäftlicher Sicht Sinn, diese Methoden einzusetzen. Sie können die Bilanz verbessern, indem übermäßige Ausgaben für ungenutzte Tools oder Features vermieden werden.

Vielleicht noch wichtiger ist, dass sie die Teammoral, die Produktivität und die Bindung von Talenten steigern, da Teammitglieder nicht gezwungen sind, sich wiederholende, mühsame und zeitaufwändige DevOps-Aufgaben auszuführen. Dies ist ein Schritt in die richtige Richtung, um eine Arbeitsumgebung zu schaffen, die jeder Entwickler und Sicherheitsexperte zu schätzen weiß.

* Über den Autor
Fred Simon ist Mitbegründer und Chief Data Scientist bei JFrog.

Bildquelle: JFrog

(ID:49738766)