Der Einsatz von KI und ML in Unternehmen nimmt kontinuierlich zu. Er ist aber mit zahlreichen Herausforderungen verbunden, die von der Entwicklung über die Bereitstellung bis zur Verwaltung von KI- und ML-Modellen reichen. Folglich muss ein Unternehmen eine KI-Initiative immer als abteilungsübergreifende Teamaufgabe betrachten.
Andreas Bergqvist, EMEA SSP, OpenShift AI bei Red Hat, zeigt, wie eine offene Hybrid-Cloud-Plattform als ideales Fundament für den Aufbau und Betrieb einer KI-Umgebung sowie die Einbindung aller Prozessbeteiligten fungieren kann.
Die kontinuierliche Weiterentwicklung der generativen KI hat dazu geführt, dass sich immer mehr Unternehmen mit dem Thema beschäftigen. Schließlich versprechen KI- und ML-Technologien zahlreiche Vorteile wie eine Prozessbeschleunigung, eine höhere Qualität von Produkten und Services oder auch eine Entlastung der Mitarbeiterinnen und Mitarbeiter.
Für die erfolgreiche Umsetzung einer KI-Strategie sind verschiedene Prozessschritte notwendig: von der Strategieentwicklung bis hin zur Überwachung und Verwaltung der Modelle zur Messung der Performance und Reaktion auf potenzielle Datenabweichungen in der Produktion. Diese verschiedenen Aufgaben betreffen unterschiedlichste Abteilungen und Stakeholder eines Unternehmens.
In einem typischen KI-Projekt findet sich folgende Aufgabenteilung: die Geschäftsleitung legt die Ziele fest, Data Engineers sowie Data Scientists sammeln und bereiten die zu verwendenden Daten auf und ML-Engineers entwickeln die Modelle für die Anwendungen, die die Entwickler erstellen – und das alles in einer Umgebung, die von IT Operations verwaltet wird.
Nun stellt sich die Frage, wie eine ideale technologische Basis für diese heterogenen Aufgaben und Herausforderungen aussieht, also ein gemeinsames Fundament für alle Prozessbeteiligten. Hier rücken zunehmend offene Kubernetes-basierte Hybrid-Cloud-Plattformen ins Blickfeld der Unternehmen, denn sie bieten eine konsistente Infrastruktur für die KI-Modellentwicklung, das KI-Modelltraining und auch die KI-Modelleinbettung in Anwendungen.
Um den Weg vom Experiment zum produktiven Betrieb für alle Prozessbeteiligten zuverlässig zu organisieren und eine konsistente Zusammenarbeit zu ermöglichen, sollten zu den wesentlichen Funktionen einer solchen Plattform gehören:
- eine Modellentwicklung mit einer interaktiven, kollaborativen Benutzeroberfläche für Data Science und Modelltraining, -optimierung und -bereitstellung
- ein Modell-Serving mit einem Modell-Serving-Routing für die Bereitstellung von Modellen in Produktionsumgebungen
- ein Modell-Monitoring mit einer zentralisierten Überwachung zur Überprüfung der Performance und Genauigkeit der Modelle
Der Plattformansatz bietet zahlreiche Vorteile wie
- eine hohe Flexibilität durch das Hybrid-Cloud-Modell: Unternehmen können containerisierte, intelligente Applikationsmodelle flexibel on-premises, in der Cloud oder an der Edge bereitstellen.
- eine einfache Verwaltung und Konfiguration mit hoher Skalierbarkeit: IT Operations kann eine zentrale Infrastruktur für Data Engineers und Data Scientists zur Verfügung stellen, die damit von der Wartung und Verwaltung der Umgebung entlastet werden.
- eine kollaborative Zusammenarbeit: Eine gemeinsame Plattform bringt Daten, IT und Teams zusammen. Damit werden auch Prozessbrüche zwischen Entwicklern, Data Engineers, Data Scientists und DevOps-Teams vermieden sowie ein integrierter Handover-Support zwischen ML-Teams und App-Entwicklern bereitgestellt.
- die Open-Source-Innovation: Unternehmen erhalten Zugang zu Upstream-Innovationen bei Open-Source-basierten KI/ML-Tools.
Insgesamt bietet eine offene Hybrid-Cloud-Plattform eine funktionsübergreifende Teamgrundlage für KI-Initiativen. Eine solche Infrastruktur unterstützt die Entwicklung, das Training, die Bereitstellung und Überwachung sowie das Management des Lebenszyklus von KI/ML-Modellen und -Anwendungen – und zwar von der Experimentier- und Proof-of-Concept-Phase bis hin zum Produktivbetrieb. Die Plattform fügt KI in die bestehende DevOps-Struktur eines Unternehmens auf komplementäre, integrierte Weise ein, ohne dass eine separate Lösung implementiert werden muss.