Die Künstliche Intelligenz prescht weiter voran und wandelt sich vom Experiment zur Praxis. Für 2025 stellen sich damit zwei Fragen: Was funktioniert? Und wo lohnt es sich? Während auf der einen Seite bereits am nächsten KI-Coup gearbeitet wird, kämpfen Unternehmen auf der anderen Seite noch mit der Integration. Die Experten von Neo4j werfen einen Blick auf neue Formen von KI, die Rolle von Graphen und zukünftige Killerkriterien.
1. KI-Adoption zwischen Vision und Wirklichkeit
Manchmal wirkt KI wie ein einziges großes Wagnis mit unsicherem Ausgang. Die exorbitanten Investitionen sind im Jahr 2024 keineswegs zurückgegangen. Die Cloud-Hyperscaler bauen ihre Rechenkapazitäten aus, die KI-Anbieter füttern ihre Modelle und Superchip-Hersteller Nvidia eilt von einem Rekord zum nächsten. Im Arbeitsumfeld ist GenAI längst kein Neuling mehr, sondern täglicher Assistent.
Kaum ein Entwickler, der beim Programmieren nicht darauf zugreift. In Deutschland sind ChatGPT & Co. sogar so beliebt, dass fast die Hälfte der Arbeitnehmenden (49%) ihre KI-Lösungen sogar trotz Verbot vom Chef weiter nutzen würde. Und dennoch: Die Einführung von KI in Unternehmen gestaltet sich vielerorts als schwierig.
Europa hinkt im weltweiten Vergleich hinterher. In Deutschland kämpfen Unternehmen mit regulatorischen Unsicherheiten, fehlenden Strategien und geeigneten Use Cases. Die Ausgaben für KI-Lösungen und -Features steigen ungeachtet dessen kontinuierlich und drücken auf IT-Budgets.
Der erwartete Nutzen von Investitionen lässt dabei oft noch auf sich warten. Das Wunderwerkzeug GenAI ist damit laut Gartner Hype Cycle auf dem Weg ins Tal der Ernüchterung und muss im nächsten Jahr erst einmal beweisen, was es wirklich kann.
2. Agentic AI: Agenten auf dem Vormarsch
Während Unternehmen noch an der praktischen Umsetzung arbeiten, geht die Entwicklung von KI ungebremst weiter. 2023 plauderten Anwender mit Chatbots. 2024 übernehmen KI-Agenten gleich komplette Workflows und Routineaufgaben. Die Rede ist von Agentic AI, die Zugriff auf eine Reihe von Werkzeugen erhält (z. B. Datenbank, Schnittstellen oder Service-Integrationen).
Die agentenbasierte KI verfügt über „Chaining“-Fähigkeit und kann so eine Abfrage in einzelne Schritte aufteilen und sie der Reihe nach und zudem iterativ abarbeiten. Dabei agiert sie dynamisch, plant und ändert Aktionen kontextbedingt und delegiert Teilaufgaben an diverse Tools.
Agentic AI ist nicht neu. Im nächsten Jahr könnte die KI jedoch eine ähnliche Erfolgsstory wie GenAI hinlegen. Anthropic stellte im Herbst KI-Agenten in Claude vor, die den Computer fast wie ein Mensch bedienen und dort selbständig tippen, klicken und im Internet nach Informationen surfen. Auch Microsoft hat eigene Agenten am Start, die zukünftig Aufgaben im Vertrieb, Kundensupport und Buchhaltung erledigen sollen.
Das Outsourcen von Routineaufgaben an die KI klingt verführerisch, stimmt aber zugleich mulmig. Wie lassen sich die Agenten kontrollieren und im Notfall bändigen? Wer übernimmt die Verantwortung, wenn etwas schief geht? Einen Chatbot um Antwortvorschläge für eine E-Mail zu bitten, ist eine Sache. Eine andere ist es, wenn die KI die Nachricht an den Geschäftspartner auf eigene Faust verfasst und abschickt.
Zumal die Agenten Fehler machen und sich sogar ablenken lassen. Anthropics Claude zum Beispiel legte in einer Demo plötzlich eine Pause ein und fing an, im Internet nach Fotos des Yellowstone-Nationalparks zu suchen. Hier gilt es noch, Kriterien zu definieren, wie die korrekte Ausführung zu überprüfen und wie im Fehlerfall zu reagieren ist.
3. Reasoning AI: Lautes Nachdenken in der Blackbox
Ebenfalls nicht ganz neu, aber hochinteressant ist Reasoning AI. Wie bei GenAI generieren hier LLMs Antworten, nehmen sich dabei jedoch deutlich mehr Zeit, um über die Frage in gewisser Weise „laut nachzudenken“. Die Modelle erwägen Optionen, entwerfen Lösungen und verwerfen sie wieder, ehe sie mit einem Vorschlag herausrücken.
Das dauert zwar länger, die Qualität der Ergebnisse ist dafür aber deutlich höher. OpenAIs KI-Modell o1 schaffte es mit solchen logisch angelegten, mathematischen Fähigkeiten sogar unter die Top 500 der US-Mathematik-Olympiade (AIME).
Auch Reasoning AI hat ein Problem: Der „Denkprozess“ (Chain of Thought) findet versteckt im LLM statt und ist von außen nicht einsehbar. Das „laute Nachdenken“ der KI verläuft also tatsächlich im Stillen und kratzt deutlich an der Vertrauenswürdigkeit. Darüber hinaus sind die erhöhte Laufzeit und Kosten eher für individuelle Forschungs-aufgaben geeignet als für Endnutzer.
4. Artificial General Intelligence (AGI)
Während sich Agentic AI und Reasoning AI bereits in der Realität wiederfinden, bleibt Artificial General Intelligence (AGI) zumindest vorerst Science-Fiction. Es ist noch ein langer und größtenteils hypothetischer Weg, bis Künstliche Intelligenz mit der generischen menschlichen Intelligenz gleichzieht oder sie sogar übertrifft. So beeindruckend der KI-Sprung der letzten Jahre erscheint, gibt es immer noch sehr einfache Aufgaben, bei denen die KI dramatisch versagt (z. B. Scrollen und Drag-Drop-Funktionen).
Zudem ist unklar, ob der Weg, auf dem sich die KI-Entwicklung momentan befindet, letztendlich überhaupt zu AGI führt und – vielleicht viel wichtiger – ob diese Art generelle höhere Intelligenz überhaupt nötig und gewollt ist. In vielen Fällen wird es eher darum gehen, Spezialisierung der KI vorzunehmen.
5. Small Language Models (SML): Vertikal und sparsam
Statt Science-Fiction wird es im Jahr 2025 für Unternehmen vornehmlich darum gehen, bestehende KI-Technologien effektiv in der Praxis zu nutzen. Die Integration ist nicht nur eine Frage von Compliance und Expertise, sondern auch eine Frage der Kosten. Sobald KI in großem Maßstab zum Einsatz kommt, ist sie (ähnlich wie die Cloud) nicht gerade billig.
Zudem schaffen auf öffentlich verfügbaren Daten trainierte LLMs wenig Raum, um sich von anderen Anwendern und Wettbewerbern am Markt zu differenzieren. Unternehmen richten ihr Interesse daher verstärkt auf vertikale KIs, die zielgenau auf individuelle Use Cases und Bedürfnisse ausgerichtet ist und kontinuierlich verfeinert, optimiert und angepasst wird (Post Training).
Statt Large Language Models fällt immer öfter die Wahl auf Small Language Models (SLMs), die es in Sachen Leistung in domänen- und branchenspezifischen Bereichen getrost mit den Großen aufnehmen können. Ihr Vorteil: Die kleinen Modelle lassen sich besser kontrollieren und validieren (z. B. via Knowledge Graphen), das Training mit hochqualitativen Daten verläuft schneller, und sie benötigen weniger als 5% des Energieverbrauchs von LLMs.
Angesichts von EU Green Deal und ESG-Reporting ist das für Unternehmen kein unerheblicher Punkt. Zudem lassen sich mit guten LLMs hochwertige synthetische Trainingsdaten für SLMs erzeugen, so dass diese praktisch „angelernt“ werden können.
6. All you need is Data
Während KI-Anbietern wie OpenAI, Anthropic, IBM oder Google langsam die öffentlichen Daten ausgehen, beschäftigt Unternehmen vor allem die Verwendung ihrer eigenen Daten. Wie leistungsstark die KI konkret ist, hängt von der Fähigkeit der Verantwortlichen ab, die Modelle mit ihren eigenen Datensätzen zu verknüpfen und anzureichern – von Retrieval Augmented Generation (RAG) über Fine-Tuning bis hin zum Training eigener Modelle.
Datenqualität ist deshalb grundentscheidend. In den meisten Fällen liegen in Organisationen ausreichend strukturierte Daten vor, in denen schon die Essenz ihres Geschäftsbetriebs repräsentiert ist. So wichtig strukturierte Daten sind, machen sie doch nur 10% der verfügbaren Daten aus. Die anderen 90% bestehen aus unstrukturierten Daten (z. B. Dokumente, Video, Bild).
GenAI, Natural Language Processing und Graphtechnologie helfen, diese Daten nutzbar zu machen. Knowledge Graphen beispielsweise repräsentieren unstrukturierte Daten so, dass LLMs sie als Kontext „verstehen“ können. Dabei erhalten sie dank der Graphstruktur ihre Reichhaltigkeit.
7. Graphtechnologie im Mittelpunkt
Überhaupt bieten Graphen als Netzwerk von Informationen auf allen Ebenen eine ideale Repräsentation von Daten – egal ob strukturiert oder unstrukturiert. GraphRAG ist dafür ein gutes Beispiel. Der RAG-Ansatz stellt in GenAI-Anwendungen einen Knowledge Graphen als zusätzliche Quelle domänenspezifischer Daten zur Seite.
Das macht Ergebnisse genauer, aktueller, erklärbarer und transparenter. Eine zunehmend wichtige Rolle spielen dabei Graph Patterns. Diese Muster stellen differenzierte Informationen dar und können bestimmten Arten von komplexen Fragen beantworten.
Ein weiteres Beispiel für die Verzahnung von KI und Graphen sind Graph Neural Networks (GNN). Die neuronalen Netze versuchen besonders schwierige Probleme zu lösen. Google DeepMind arbeitet mit GNNs seit Jahren an zahlreichen Projekten, zum Beispiel an einer intelligenten Wettervorhersage (GraphCast) oder einem KI-gestützten Design von Halbleitern (AlphaChip).
Im November 2024 veröffentlichte das Unternehmen die dritte Version von AlphaFold, einem KI-System, das die Struktur von Proteinen sowie deren Interaktionen mit anderen Biomolekülen präzise vorhersagen kann.
Das Zusammenspiel zwischen Graphen und KI verläuft zudem in die andere Richtung. So helfen LLMs beispielsweise bei der Graph-Modellierung, verbessern das Domain- und Modellverständnis, kommunizieren bzw. agieren mit den im Graphen abgelegten Daten und identifizieren und erstellen neue Verknüpfungen.
8. Evaluation der KI durch KI
Der Startpunkt, um KI-Anwendungen zu entwickeln, ist angesichts solcher Technologien mittlerweile recht einfach. Die Anwendung zu validieren und zuverlässig in die Produktion zu überführen, kostet hingegen viel Zeit und Aufwand. LLMs arbeiten probabilistisch, generieren also Aussagen lediglich mit einer bestimmten Wahrscheinlichkeit.
Evaluation ist 2025 daher das Thema. Kontroll- und Feedbackmechanismen sind dringend nötig, um Fehlerfortpflanzung zu vermeiden, die Datenqualität zu prüfen und regulatorische Richtlinien zu erfüllen.
Herkömmliche Ansätze greifen oft zu kurz. Um die KI zu kontrollieren, kommt wieder KI zum Einsatz. Schiedsrichter-LLMs können zum Beispiel die Ergebnisse einer anderen LLM hinterfragen und auf die Korrektheit bzw. Angemessenheit der Frage sowie auf unangemessene oder illegale Inhalte untersuchen. KI-basierte Fairness-Toolkits testen auf Data Bias.
Anthropic forscht momentan an sogenannten Interpretable Features, die in den Modellen selbst enthalten sind und GenAI-Resultate in eine gewisse Richtung beeinflussen. Richtig umgesetzt, könnten diese Tendenzen gesteuert werden und dann als Sicherheitsmechanismen dienen.
9. Lingua franca für die KI-Welt
KI interagiert mit Menschen, Maschinen und anderen KI-Modellen. Klar, im Chatbot antwortet die KI in natürlicher Sprache. Doch die Tech-Welt ist multilingual, andere Systeme nutzen andere Sprachen (z. B. Abfragesprachen, API-Code) und in Zukunft kommunizieren die KI-Modelle verstärkt auch untereinander. Je mehr die Integration von KI in bestehende IT-Infrastrukturen zunimmt, desto wichtiger ist es, entsprechende „Sprach“-Schnittstellen zu entwickeln.
Im Graph-Umfeld beispielsweise dienen LLMs als Dolmetscher, um Fragen in natürlicher Sprache in die Abfragesprache Cypher zu übersetzen (Text2Cypher). Langfristig stellt sich die Frage, ob es eine einheitliche Verkehrssprache braucht, um eine dauerhafte Verständigung sicherzustellen und ein Sprachchaos á la Turm von Babel zu vermeiden. Oder ob gerade die Flexibilität der natürlichen und technischen Sprachen einen großen Vorteil in der Verwendung von LLMs darstellt.
10. Integration statt großer Neuentwurf
In den letzten zwei Jahren war viel die Rede davon, GenAI-Systeme gänzlich neu zu bauen und quasi auf der grünen Wiese anzufangen. Die Realität sieht jedoch anders aus: Unternehmen blicken auf eine bestehende und komplexe IT-Infrastruktur, die sich nicht einfach auswechseln lässt. In der Praxis wird es daher hauptsächlich darum gehen, KI-Komponenten sinnvoll einzubinden bzw. bestehende Lösungen und Systeme mit KI-Fähigkeiten zu versehen.
Auf operationaler Ebene braucht es ein Basis-Framework, in dem Richtlinien festgelegt, Prozesse vereinheitlicht und Ziele definiert sind, idealerweise unter Einbeziehung aller KI-Stakeholder im Unternehmen (z. B. C-Level, Entwicklerteam, IT, Compliance, Fachbereiche).
Auf technischer Ebene gilt es, KI in Form gekapselter und integrierbarer Komponenten zu verpacken und diese an ausgesuchten Stellen (z. B. Nutzerinteraktion, Datenanalyse) zu integrieren. Wie man diese wachsende Komplexität an Architekturen managt, wird eine der großen Fragen der nächsten Jahre bleiben – bei der vielleicht auch die KI weiterhelfen kann.