Kommentar von Andrej Nikonov, Cloudflight Machine Learning – die Zeit ist reif

Ein Gastbeitrag von Andrej Nikonov 4 min Lesedauer

Anbieter zum Thema

Machine Learning (ML) birgt neue Möglichkeiten, komplexe Problemen anzugehen und Entscheidungen zu treffen. Denn Daten sind keine starre Basis mehr, sondern Muster und Erfahrungen, aus denen sich lernen lässt. ML-Modelle professionell zu entwickeln und zu pflegen, ist jedoch mindestens so komplex, wie einen Software-Lebenszyklus zu managen. Machine Learning Operations (MLOps) sollen Struktur und Effizienz bringen und bedienen sich dabei bewährter DevOps-Prinzipien.

Der Autor: Andrej Nikonov ist KI-Experte und Geschäftsführer von Cloudflight München
Der Autor: Andrej Nikonov ist KI-Experte und Geschäftsführer von Cloudflight München
(Bild: Cloudflight)

DevOps-Prinzipien haben die Art und Weise, wie Software entwickelt wird, stark verändert. Die strukturierte und enge Zusammenarbeit zwischen den Bereichen Entwicklung und Operations führt zu mehr Automation, kürzeren Release-Zyklen und einer schnelleren Umsetzung konkreter User-Anforderungen. Einige DevOps-Techniken gehören heute zu den De-facto-Standards der Softwareentwicklung – häufig werden sie in den Unternehmen gar nicht explizit als DevOps bezeichnet, sondern einfach so gestaltet, dass sie zu den eigenen Teams passen und entsprechend in den Entwicklungsprozess integriert werden.

Bei DevOps geht es vor allem um Continuous Delivery and Integration (CD/CI), agile Verfahren mit Feedbackschleifen und die Automatisierung von Teilprozessen, um sie zu beschleunigen und zu standardisieren. Diese Art, Projekte anzugehen, lässt sich auf andere Bereiche übertragen – vor allem dort, wo Abläufe, Prozesse, Modelle oder Algorithmen kontinuierlich weiterentwickelt werden und mehrere Teams beteiligt sind, wie beispielsweise beim Machine Learning.

Von DevOps zu MLOps

Mithilfe von Datenanalysen werden Prozesse optimiert, geschäftliche Entscheidungen untermauert, Wartungsfenster geplant oder Dienstleistungen abgerechnet. Daten, ihre Analyse und die entsprechende Interpretation sind längst zu einer geschäftskritischen Basis in Unternehmen geworden. Machine Learning (ML) erweitert diese Möglichkeiten in Richtung Künstliche Intelligenz: Denn mithilfe dieser Technologie können Algorithmen Muster in großen, auch unstrukturierten Datenmengen erkennen. Aus diesem wachsenden Erfahrungsschatz entwickelt der Algorithmus schließlich Lösungsansätze und sich selbst weiter.

Sobald ML-Modelle ihr Teststadium hinter sich lassen und in größerem Umfang verwendet, weiterentwickelt und bereitgestellt werden sollen, ist es sinnvoll, Strukturen in den Lebenszyklus zu etablieren. Genau wie bei der DevOps-Bewegung gibt es dabei wichtige Aspekte zu berücksichtigen:

  • Standardisierung und Automatisierung helfen dabei, reproduzierbare und skalierbare Modelle und Bereitstellungsprozesse zu entwickeln. Das bedeutet, dass eine KI-Initiative sich nur dann sinnvoll entwickeln kann, wenn die beteiligten Teams auf bisherige Modelle zurückgreifen können und wenn alle weiteren Schritte nachvollziehbar hinterlegt werden. Ein Set an Werkzeugen, Best Practices und klar definierten Vorgehensweisen für das Testen und die Überwachung erleichtern den Beteiligten die Arbeit und machen das Gesamtprojekt effizienter.
  • Kollaboration und Kommunikation sind entscheidend, damit die ML-Initiative gelingt. Denn – genau wie bei DevOps – sind ganz verschiedene Rollen und Teams am ML-Lebenszyklus beteiligt. Datenanalysten treffen auf Spezialisten für KI, Software-Entwickler und nicht zuletzt auf Business-Entscheider, die alle aus unterschiedlichen Perspektiven agieren. Wenn schnelle Entscheidungen getroffen werden müssen, ist es wichtig geeignete Formate zu definieren, um die Zusammenarbeit zu erleichtern und Anforderungen schnell und unkompliziert umzusetzen. Aus dem DevOps-Bereich bewährte Formate, wie etwa agiles Projektmanagement (z. B. Scrum) mit Projektsprints und ähnlichem, eignen sich hier beispielsweise sehr gut.
  • Die kontinuierliche Integration und Bereitstellung (CI/CD) zählen zu den Grundprinzipien von DevOps. Sie helfen auch, ML-Modelle schnell und zuverlässig weiterzuentwickeln sowie automatisierte Test- und Bereitstellungspipelines zu implementieren. Das reduziert den Zeit- und Arbeitsaufwand bei der Überführung neuer Modelle in die Produktion.
  • Die Überwachung und Steuerung der ML-Modelle sollte von Anfang an als strukturierter Prozess betrachtet werden. Während der Betriebsphase der Modelle, Algorithmen und Anwendungen können Optimierungen und Anpassungen vorgenommen werden. Durch eine strukturierte und nachvollziehbare Vorgehensweise können die gewonnenen Erkenntnisse wieder in den Entwicklungsprozess einbezogen werden.

Aus diesen Überlegungen heraus entstehen MLOps. Dabei handelt es sich um eine Sammlung von Prinzipien und Praktiken, die darauf abzielen, eine generelle Struktur, transparente Zusammenarbeit und regelbasierte Automatisierung in die ML-Initiative zu bringen. Doch wo ist der geeignete Startpunkt und wie lassen sich bereits begonnene ML-Projekte unter einen Hut bringen?

MLOps Reifegradmodelle nutzen

Welchen Stellenwert ML hat oder welchen es künftig haben soll, hängt maßgeblich davon ab, was ein Unternehmen mit dieser Technologie erreichen will. Je ambitionierter die Ziele sind, desto wichtiger ist die Einführung einer professionellen Entwicklungs- und Betriebspraxis. Ein MLOps-Reifegradmodell (MLOps Maturity Model) hilft dabei, das eigene MLOps-Niveau zu bewerten, verbesserungswürdige Bereiche zu identifizieren und eine Roadmap zu planen.

Einige IT-Dienstleister (darunter Google, Microsoft und Cloudflight) haben MLOps-Reifegradmodelle entwickelt, die Unternehmen nutzen können. Mithilfe von Checklisten und Fragebögen werden Ziele, der Status quo und ähnliches abgefragt. Im Anschluss zeigt eine Bewertung den Reifegrad der jeweiligen Organisation, der in der Regel vier bis fünf Stufen umfasst, von Null = noch keine MLOps-Praktiken in Benutzung bis hin zu Reifegrad 3 oder 4 = MLOps in optimaler Ausprägung. Aus den Erkenntnissen können Schlüsse gezogen werden, welche Maßnahmen zur weiteren Professionalisierung des Prozesses geeignet wären.

Natürlich liegt die Wahrheit irgendwo zwischen den Zeilen. Dennoch lassen sich mit solch einer Reifegradermittlung einige Schwachstellen und Verbesserungspotenziale aufdecken. Ein Beispiel: Haben Data Scientists und Entwickler etwa bisher kaum zusammengesessen und arbeiten immer nur mit dem fertigen Entwurf des jeweils anderen, ist dies ein deutlicher Hinweis darauf, dass MLOps-Techniken fehlen. Wenn Code zwar geschrieben, aber nur manchmal kontrolliert wird, die Release-Zyklen unregelmäßig und bisweilen langwierig sind und wenn Tests zwar stattfinden, aber keinem automatisierten Schema folgen und deshalb auch nicht rekonstruierbar sind, dann wäre die ML-Initiative eher mit dem Reifegrad Null zu bewerten.

Das bedeutet keineswegs, dass bisher alles falsch lief und das ML-Engagement umsonst war. Vielmehr sollen Ansatzpunkte erkannt werden, die die ML-Initiative von nun an effizienter und zielorientierter machen. Denn genau wie bei DevOps geht es darum, eben jene verschiedenen Perspektiven und Expertisen so ineinandergreifen zu lassen, dass dabei schneller ein besseres Ergebnis entsteht.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Artikelfiles und Artikellinks

(ID:49802399)