Die menschliche Kommunikation ist komplex: Wir drücken uns über Wort, Tonfall und Körpersprache aus. Zudem gilt es Erfahrungen, soziale Beziehungen oder die aktuelle Situation einer Person zu berücksichtigen. Diesen Kontext benötigen wir, um Äußerungen verstehen und einordnen zu können. Ähnlich verhält es sich mit generativer KI. Sie braucht Kontext, damit virtuelle Assistenten menschennah reagieren oder Systeme personalisierte Empfehlungen geben können.

Aerospike erläutert, warum das so ist und wie generative KI an Kontext gelangt.

Kontext in der Linguistik
In der Sprachwissenschaft bezieht sich Kontext auf alles, was die Bedeutung eines sprachlichen Ausdrucks beeinflusst. Der linguistische Kontext umfasst den Sinn, der sich aus dem umgebenden Text oder Gesagten und der grammatischen Struktur ergibt. Situativer Kontext berücksichtigt Faktoren wie Ort, Zeit oder die Beziehung der Gesprächsteilnehmer zueinander.

Kulturelle Hintergründe, soziale Rolle oder Status prägen die Kommunikation ebenso wie der pragmatische Kontext, der implizite Bedeutungen und Intentionen hinter einer Äußerung berücksichtigt. Gemeinsam helfen uns die verschiedenen Kontext-Aspekte, Mehrdeutigkeiten zu klären und die beabsichtigte Bedeutung einer sprachlichen Äußerung zu verstehen.

Kontext in der KI
Auch KI-basierte personalisierte Kundenerlebnisse sind untrennbar mit Kontext verbunden. Indem KI sowohl das historische Verhalten eines Nutzers als auch seine aktuelle Situation und die derzeitigen Vorlieben kennt und einbezieht, können Systeme maßgeschneiderte Antworten und User-Erfahrungen bieten.

„Dieses Konzept geht über die direkte Interaktion eines Users mit einer Anwendung hinaus. Denn es bezieht das Internet der Dinge (IoT) ein, welches der KI zusätzlichen Kontext wie Standort, Umfeld oder historische Daten liefert“, erklärt Lenley Hensarling, Chief Product Officer bei Aerospike.

Detailliertes Wissen durch Retrieval-Augmented Generation
Large Language Models (LLMs) bilden die Grundlage für generative KI-Tools und werden anhand riesiger Datenmengen trainiert. Um Kontext hinzuzufügen und so die Ausgabequalität von LLM-basierten Systemen zu verbessern, braucht es Retrieval-Augmented Generation (RAG). Denn RAG greift auf externe, verlässliche Wissensquellen außerhalb der Trainingsdaten des LLM zu.

Ohne RAG beantwortet ein LLM Fragestellungen lediglich auf Basis der Daten, mit denen es trainiert wurde beziehungsweise basierend auf dem, was es bereits gelernt hat. Mit RAG werden nun die Informationen der externen Quellen zusammen mit der Benutzeranfrage an das LLM übermittelt. Und dieses generiert aus den neuen Daten und seinen Trainingsdaten die Antwort für den User.

Damit erweitert Retrieval-Augmented Generation die ohnehin schon leistungsstarken LLMs um zusätzliches Wissen. Ganz ohne, dass das Modell dafür neu trainiert werden muss. Dieser Ansatz ist daher nicht nur kostensparend, er liefert vor allem auch deutlich bessere Ergebnisse.

Vektordatenbanken als Voraussetzung für generative KI
Vektoren spielen eine zentrale Rolle beim Erfassen und Nutzen von Kontext. Denn RAG bedient sich externer Daten aus unterschiedlichen Quellen wie beispielsweise aus Datenbanken oder Dokumentenablagen. Da diese Daten in unterschiedlichsten Formaten vorliegen können, hat sich das Kodieren als mehrdimensionale Vektoren und Speichern in einer Vektordatenbank bewährt.

Vektordatenbanken sind äußerst performant und nutzen zum Durchsuchen der Informationen spezielle Algorithmen. So meistern sie selbst komplexe Zusammenhänge wie semantische Suchen, kontextbezogene Bild- und Texterkennung oder die Suche nach ähnlichen Assets in Millisekunden.

Die kontinuierliche Ansammlung von Vektoren, die sowohl historische Muster als auch aktuelle Situationen widerspiegelt, bereichert das Verständnis der generativen KI und ermöglicht es ihr, präzisere und differenziertere Antworten zu geben. Vektoren und LLMs gehen daher eine symbiotische Beziehung ein: Vektoren liefern den umfassenden, kontextuellen Hintergrund, der das semantische Verständnis von Large Language Models mit Hilfe von RAG erweitert und präzisiert.

Die nächste Phase
In der generativen KI ist Kontext der Dreh- und Angelpunkt für sinnvolle Interaktionen und nützliche, richtige Ergebnisse. Indem KI-Systeme die Synergien von LLM, RAG und Vektordatenbanken nutzen, verstehen sie spezifischen und momentanen Kontext und sind in der Lage, optimale Personalisierung und relevantere Ergebnisse zu bieten. Davon profitieren alle Unternehmen, die Online-Services bieten – wie etwa eCommerce- und Streaming-Anbieter, Banken oder Suchmaschinen.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.