Der Begriff „Zeitenwende“ ist das Wort des Jahres 2022. Er gilt nicht nur für den mindestens 100 Milliarden Euro schweren Strategiewechsel deutscher Sicherheitspolitik, sondern offensichtlich auch für die jüngst gezündete nächste Evolutionsstufe von KI. Die hitzigen Debatten über ChatGPT werfen die Frage auf, was in der Blackbox eines Chatbots tatsächlich passiert.

Beitrag von Florian Lauck-Wunderlich, Senior Project Delivery Leader bei Pegasystems.

Der erste Hype um ChatGPT ist abgeebbt, Innovationseuphoriker wie Berufspessimisten haben ihre Statements lanciert – Zeit für eine kühle Betrachtung. Klar ist, Fortschritt und Veränderungen sind nicht immer und ausschließlich positiv. Als die Erfindung des Automobils verhinderte, dass Paris, London, Berlin und New York im Kot der Pferdekutschen ersticken, wurden viele Arbeitsplätze im Droschken-Business obsolet.

Das illustriert den Zielkonflikt zwischen Fortschritt im Großen und partiellem Rückschritt im Kleinen. Die Betroffenen finden das verständlicherweise gar nicht lustig. Ende der letzten Dekade wurden in einigen Redaktionen intelligente Textgeneratoren getestet. Ergebnis: Die Texte waren praktisch unlesbar, kritisch-kreative Redakteure durch nicht zu ersetzen. Ein Experiment mit sehr überschaubarer Halbwertszeit.

Der Fortschritt und seine Folgen
Die vielstimmigen Einschätzungen über die Konsequenzen von intelligenten Chatbots wie ChatGPT reichen von Disruption und Revolution bis zu potenzieller Arbeitsplatzkiller und totalitäres Machtinstrument. Fakt ist, dass wir die Tragweite noch gar nicht richtig abschätzen können. Der Philosoph Georg Wilhelm Friedrich Hegel hat die Erfindung von Schusswaffen einmal als demokratischen Fortschritt gefeiert.

Die Anonymisierung der Kombattanten, die sich nicht mehr wie „12 Uhr mittags“ Mann gegen Mann gegenüberstehen, entziehe dem Ideal des adeligen Ritters und damit der feudalen Herrschaft insgesamt die Legitimation, so seine Schlussfolgerung. Das mag aus akademischer Vogelperspektive stimmen, sagt aber nichts über die verheerenden Folgen der Entmenschlichung des Krieges durch Massenvernichtungswaffen aus.

Umgekehrt ist es gängige Praxis geworden, technische Innovationen fast schon reflexartig mit der moralischen Keule zu bearbeiten und in Bausch und Bogen zu verdammen, bevor ihr potenzieller Nutzen überhaupt klar ist. Hüten wir uns also vor vorschnellen Urteilen und wohlfeilem Alarmismus.

Eine Frage der Intelligenz
Die zu klärende Frage ist also: Wie intelligent sind Chatbots wirklich? Intelligenz ist ein originär menschliches Phänomen. Es passiert jedoch selten, dass ein Mensch auf die Frage nach seiner eigenen Intelligenz mit einem konkreten Koeffizienten aus einem Intelligenztest aufwarten kann. Die Selbsteinschätzung ist daher in der Regel eher verhalten. Meist schwankt sie um einen soliden Mittelwert.

Kaum jemand möchte sich mit einem hohen Wert hervortun oder mit einem niedrigen Wert blamieren. Hier laufen bereits höchst individuelle soziale Einflussfaktoren wie Scham und Bescheidenheit oder, anders herum, Prahlerei und Geltungssucht in die Selbstbewertung ein, die der KI (noch) fremd sind.

Anders ist es mit sozialen Kompetenzen wie Empathie oder Diskriminierungsfreiheit, die von Künstlicher Intelligenz bereits versucht wird zu erlernen und nachzuahmen. Im Chatbot-unterstützten Kundendialog spielt beispielsweise die Bias-Freiheit, also die generelle Gleichbehandlung ungeachtet von Alter, Geschlecht, Herkunft, Religion, Status und mehr eine wichtige Rolle.

Wenn KI sich selbst bewertet
Aber zurück zur Intelligenzfrage. Was passiert, wenn KI-Anwendungen wie Chatbots ihr eigenes Intelligenzniveau einschätzen sollen? ChatGPT antwortet auf die Frage: „Wie intelligent sind Chatbots wirklich?“ mit: „Chatbots sind künstliche Intelligenzen, die darauf programmiert sind, bestimmte Aufgaben auszuführen, indem sie natürliche Sprache verwenden, um mit Benutzern zu interagieren.“

Beim zweiten Versuch eine Woche später heißt es dann: „Chatbots sind Programme, die darauf ausgelegt sind, menschenähnliche Konversationen zu führen und Fragen zu beantworten.“ Der Soziologe und Systemtheoretiker Niklas Luhmann würde diesen Befund wahrscheinlich als typische Form von Kontingenz analysieren. Die Offenheit und Ungewissheit, die er für private Lebenserfahrungen und soziale Systeme diagnostiziert hat, gilt offensichtlich auch für Künstliche Intelligenz und deren Anwendungen.

Wahrheiten können und sollten wir von Chatbots deshalb auch gar nicht erwarten. Denn sie arbeiten eben nicht mit Wahrheiten, sondern mit Wahrscheinlichkeiten auf der Basis einer Unmenge von Daten. Deren Qualität, Aussagekraft und Wahrheitsgehalt kann tendenziell zwischen 0 und 100 Prozent oszillieren. Auch hier also bestenfalls ein solider Mittelwert.

Mehr muss es aber auch gar nicht sein, weil allein die schiere dafür herangezogene Datenmenge für die Praxistauglichkeit und die Überlegenheit gegenüber der für einen Menschen in der gleichen Zeitspanne verfügbaren Datenbasis völlig ausreicht. Chatbots denken (noch) nicht wie Menschen, künstliche Intelligenz folgt anderen Mustern.

Die Lösung von komplexen, mehrstufigen und multidimensionalen Zielkonflikten, das Verständnis durch erfahrungsbasierte und transferierbare „Weltmodelle“ sowie Empathie bringt der aktuelle Stand der KI nicht mit. Sie sind Reiz-Reaktions-Maschinen, und für ihre jeweiligen Einsatzzwecke reicht das völlig aus.

Im Umkehrschluss bedeutet das: Die Verantwortung tragen nach wie vor wir Menschen. Auf der Ebene der Algorithmen und Trainingsdaten sind das die Data Scientist und KI-Experten, auf der Ebene der Anwendungen und deren Auswirkungen sind wir das alle.

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.