Ein altes Problem nähert sich endlich der Lösung: Bislang galt es als gesichert, dass kein Unternehmen weiß, was es eigentlich alles weiß. Doch damit dürfte jetzt Schluss sein – dank interner EnterpriseGPT-Systeme, die GenAI (generative Künstliche Intelligenz) gezielt für das Wissensmanagement einsetzen. adesso beleuchtet die Hintergründe.
Die sinnvolle Nutzung interner Wissensressourcen ist ein Dauerthema. Häufig wird vom „verborgenen Datenschatz“ gesprochen, der gehoben werden muss. Doch verschiedene Dateiformate, undurchsichtige Ablagesysteme und mangelhafte Verschlagwortung erschweren den einfachen Zugang zu Informationen ebenso wie Silodenken, unsaubere Prozesse, komplexe Organigramme oder parallele Datenhaltung.
Die daraus resultierenden Probleme sind nur allzu bekannt: Teams arbeiten unwissentlich parallel an der gleichen Aufgabe, die Projekte dauern länger als nötig und die Ergebnisse bleiben hinter den Erwartungen zurück. Die Suche nach Wissen kostet Unternehmen viel Zeit und Geld, das sie meist gar nicht beziffern können, weil die Transparenz fehlt.
Dank Künstlicher Intelligenz (KI) kommt jetzt Licht in dieses chronische Datendunkel. Genauer gesagt: Mit Hilfe generativer KI übernehmen unternehmensspezifische EnterpriseGPT-Systeme die anspruchsvolle Aufgabe, den internen Datenschatz zugänglich zu machen, aufzubereiten, gezielt bereitzustellen und damit die unternehmensinterne Datenverarbeitung auf ein neues Niveau zu heben. adesso erklärt die drei typischen Phasen beim Aufbau eines solchen Systems:
1. Aufbau eines internen KI-Chatbots
In einem ersten Schritt wird ein eigener interner KI-Chatbot entwickelt. Dadurch werden die Datenschutzprobleme umgangen, die mit der Nutzung externer KI-Chat-Systeme verbunden sind. Unternehmenskritische Informationen verlassen nicht die Grenzen der Unternehmens-IT, auch nicht für das Training der LLMs. Statt die Daten an den Provider zu senden, werden Sprachmodelle verwendet, die für die interne Nutzung als Software-as-a-Service von verschiedenen Anbietern verfügbar sind, darunter beispielsweise Google, Microsoft oder Aleph Alpha.
2. Ausbau zum „Domain Knowledge Agent“
Zuerst einen eigenen internen KI-Chatbot aufzubauen, hat zudem den Vorteil, dass die Modelle mit eigenen praxisnahen Daten wie Dokumentationen, Protokollen, Präsentationen oder Handbüchern, also auf Basis der internen Knowledge Base, trainiert werden können. Das unternehmensspezifische Wissen wird in Form von Domain Knowledge Agents für verschiedene Wissensgebiete und Nutzergruppen aufbereitet.
Ein entsprechendes Berechtigungsmanagement stellt sicher, dass die jeweiligen Informationen nur für die vorgesehenen Anwender zugänglich sind. Typische Beispiele für Domain Knowledge Agents sind die übersichtliche Zusammenfassung und Klassifizierung interner Forschungsprojekte oder die Beantwortung häufig gestellter Fragen beim Onboarding von Mitarbeitenden in natürlicher Sprache.
3. Entwicklung von „Process Agents“
Während Domain Knowledge Agents gezielte Fragen beantworten und Quellennachweise liefern, gehen Process Agents den Schritt in Richtung Automatisierung. Ein Process Agent kann beispielsweise selbstständig das Dispatching von Anfragen an die IT übernehmen oder auf Basis einer Kundenpräsentation ein Angebotsformular erstellen und dieses anschließend im CRM zur Verfügung stellen. Diese fortgeschrittene Automatisierung von Workflows stellt allerdings hohe Anforderungen an die IT-Prozesse und erfordert eine tiefere Integration des Systems in die IT-Landschaft des Unternehmens.
„Das Potenzial von EnterpriseGPTs ist enorm“, erklärt Benedikt Bonnmann, Mitglied des Vorstands und verantwortlich für das KI-Geschäft bei adesso SE. „Sie können internes Wissen auf neue Weise zugänglich machen, gleichzeitig die Souveränität über die eigenen Daten sichern und damit endlich Probleme lösen, die Unternehmen schon viel zu lange mit sich herumschleppen.“