Die Mystifizierung Künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich.
Von Andrea Wörrlein, Geschäftsführerin von VNC in Berlin und Verwaltungsrätin der VNC AG in Zug.
Jede neue Technologie ist von sich aus weder gut noch böse. Diese Dimension ergibt sich erst aus der Art und Weise, wie wir sie nutzen. Bei Künstlicher Intelligenz ist das nicht anders. Darin unterscheidet sie sich nicht von anderen bahnbrechenden Entwicklungen wie der Bändigung des Feuers oder der Nutzung der Atomenergie.
Wie diese eröffnet uns die KI bislang ungeahnte Möglichkeiten – und stellt uns folgerichtig auch vor bisher unbekannte Herausforderungen. Unabhängig davon, ob sie nun technischer, wirtschaftlicher, rechtlicher, politischer, moralischer oder ethischer Natur sind, oft müssen wir praktisch bei null anfangen. Dem müssen wir uns stellen. Und das angesichts eines geradezu irrwitzigen Entwicklungstempos.
Leider ist der Begriff der Technologiefolgenabschätzung ebenso in Vergessenheit geraten wie ihre Anwendung. Ein erster Schritt wäre es beispielsweise, KI als obligatorisches Lernfach in die Lehrpläne einzuführen. Zum Stundenplan sollten neben der Kenntnisvermittlung über die elementaren Funktionsweisen von analytischer, prädiktiver und generativer KI auch konkrete Hinweise für ihre verantwortungsvolle Anwendung gehören.
Und das gilt nicht nur in Schulen, sondern für uns alle. Denn niemand entbindet uns von der Pflicht, uns mit einer so elementaren Kulturkompetenz kritisch zu befassen und entsprechende Fertigkeiten zu entwickeln.
Eigene Daten versus proprietäre Systeme
Bei KI geht es in erster Linie um zwei elementare Dinge: Daten und Modelle. Der Kern generativer KI-Systeme sind die Sprachmodelle oder Large Language Models (LLMs). Doch die sind in der Regel an proprietäre Strukturen gebunden. So ist ChatGPT exklusiv nur über die Azure-Plattform zugänglich.
Das Kalkül dahinter ist klar: Die Daten landen automatisch beim Plattform-Betreiber und können zum ständigen Finetuning der LLMs genutzt, analysiert und weiterverwendet werden. So entstehen Abhängigkeiten. Proprietäre Plattformen sollten daher von vornherein gemieden werden, um den Abfluss von Daten und deren unkontrollierte Nutzung zu verhindern.
Alternativ besteht die Option, LLMs herunterzuladen und auf eigener Hardware zu nutzen. So behalten Nutzer und Unternehmen die Kontrolle über ihr geistiges Eigentum. Das setzt allerdings voraus, dass sie eigene KI-Kompetenz aufbauen und strukturiert damit umgehen. Wir müssen also sehr genau darauf achten, welchen Modellen wir die eigenen sensiblen Daten überlassen.
Das gilt sowohl für den privaten als auch den beruflichen Bereich. Wenn vertrauliche Unternehmensinformationen auf proprietären Plattformen bearbeitet werden, ist Missbrauch vorprogrammiert. Unternehmen sollten also ein hohes Eigeninteresse haben, ihre Mitarbeiter im Umgang mit Daten und Modellen zu schulen.
Eigenverantwortung versus Regulierung von oben
Vor einer Illusion sollten wir uns allerdings hüten: Staaten, Regierungen und Behörden werden uns diese Aufgabe nicht abnehmen und alles für uns regeln. Niemand schützt uns davor, dass beispielsweise die Kombination aus Sentiment Analysis und öffentlicher Kameraüberwachung, wie sie in China und einigen europäischen Staaten schon üblich ist, in staatlicher Hand zu einem gefährlichen Machtinstrument wird.
Das müssen wir schon selbst tun. Wer zulässt, dass die eigene Datensouveränität untergraben wird, hat schon verloren. Deshalb müssen wir uns aktiv und kritisch mit KI auseinandersetzen und den Umgang damit erlernen wie mit einem spannenden neuen Werkzeug. Wir stehen also alle gemeinsam erneut vor der Frage, ob wir eine revolutionäre Technologie kreativ und produktiv zum Wohle der Menschheit nutzen oder uns von ihr beherrschen lassen.