Die Petition einiger KI-Forscher, die Entwicklung von GPT-4 zu stoppen, beruht auf berechtigten Bedenken. Ihr liegt das nachvollziehbare Ziel zugrunde, vertrauenswürdige und verantwortungsvolle KI-Systeme zu schaffen. Peter van der Putten, Director AI Lab bei Pegasystems, behandelt nachfolgend die Frage ob eine Petition, die die Weiterentwicklung großer KI-Modelle einschränkt, dafür der richtige Weg ist.
(K)eine praktikable Forderung
Große Sprachmodelle bergen Risiken, darüber lässt sich nicht streiten. Sie halluzinieren zuweilen, sind voreingenommen und es mangelt ihnen an Transparenz. Erschwerend findet ein Wettlauf um immer größere Modelle statt. Erweitert man sie um Plug-ins, wie OpenAI es vorschlägt, steigt das Schadenspotenzial dieser Systeme ins Unermessliche. Es ist daher logisch und sinnvoll, dass Forscher dazu aufrufen, die Entwicklung noch leistungsfähigerer KIs als GPT-4 zu stoppen, oder? Nun, nicht unbedingt.
Mir stellt sich zunächst die Frage, was genau mit „leistungsfähiger als GPT-4“ gemeint ist. Vielleicht meinen die Initiatoren der Petition ja größere Modelle. Bis dato hat OpenAI allerdings noch keine Details zur Architektur ihrer aktuellen KI-Iteration veröffentlicht. Das Modell PanGu-Σ, das dessen Entwickler Ende März veröffentlichten, ist aber beispielsweise bereits mehr als sechs Mal größer als GPT-3.
Und was genau meinen die Verfasser des Brandbriefes mit „stoppen“? Selbst wenn KI-Entwickler einem sechsmonatigen Moratorium zustimmen würden, wirklich sinnvoll scheint es nicht: Die Entwicklungszeit so großer Modelle beträgt in der Regel über ein Jahr und einzelne Akteure könnten sich über ein solches Gebot ohne gesetzliche Grundlage auch einfach hinwegsetzen.
Es wird außerdem schwer sein, eine solche Pause durchzusetzen. Viele Organisationen weltweit arbeiten bereits an ähnlichen Modellen wie ChatGPT, darunter Google, DeepMind, Amazon, Meta, Baidu und eine Reihe von Start-ups und Open-Source-Kollektiven wie Eulether.ai und das Big-Science-Konsortium.
Entwicklungsstopp ist der falsche Ansatz
Wir können OpenAI jedenfalls keinen Vorwurf machen, ein unzulängliches Produkt veröffentlicht zu haben. Sie haben große Mühe in die Bewertung und die Verbesserung von GPT investiert – etwa im Hinblick auf Sicherheit und die Anpassung der KI an menschliche Werte.
Dennoch liegt sehr viel, vielleicht zu viel Macht in den Händen eines einzelnen Unternehmens. Diese Kritik muss sich OpenAI gefallen lassen, zumal das Unternehmen zumindest vorerst noch so wenige Details wie möglich über die verwendeten Daten und die Architektur ihrer Anwendung preisgeben möchte.
Ich bin der Meinung, wir sollten der Entwicklung von Modellen auf dem Niveau von GPT-4 nicht aus Prinzip im Wege stehen. Was wir eher brauchen, sind sowohl neue Marktteilnehmer als auch wettbewerbsfähige Forschungs- und Open-Source-Modelle – neue KIs also, die nicht nur über den Preis konkurrieren, sondern auch über Sicherheit, Offenheit und den Reifegrad ihrer „menschlichen Gesinnung“. Ganz zu schweigen von Marktteilnehmern, die Modelle mit ähnlicher Leistung wie GPT-4, aber viel geringerer Komplexität und geringerer Umweltbelastung bieten.
Amazon hat zum Beispiel gerade das Projekt Bedrock angekündigt, das Nutzern die Wahl aus einer Reihe von Modellen ermöglicht – darunter auch die neuen Foundation Models von Amazon Titan. Ein guter Schritt, denn Auswahl ist eine gute Sache.
Sie ermöglicht es Unternehmen, den Einsatz von KI-Modellen je nach Leistung, Kosten, ethischen Grundsätzen und deren Auswirkungen auf das Klima abzuwägen. Als einer der Early Adopter wird Pega seine GPT-basierten Use Cases auf deren Kompatibilität und Performance mit einer Reihe alternativer Modelle vergleichen.
Sich ausschließlich auf die Gefahren großer Sprachmodelle, Superintelligenzen oder Künstlicher allgemeiner Intelligenzen (sogenannte AGIs) zu fokussieren, ist wenig sinnvoll. Dann nämlich verlieren wir die „künstliche Unintelligenz“, also nicht-generative KIs, aus den Augen.
Auf ihnen basieren rund 99 Prozent der KI-Systeme, die sich aktuell im Einsatz befinden. Es ergibt daher eher Sinn, die KI-Regulierung voranzutreiben, etwa mit der US-amerikanischen „AI Bill of Rights“ und dem EU AI Act. Zudem bedarf es Richtlinien für den sinnvollen Einsatz von KI im Rahmen des gesetzlich Zulässigen.
Es gibt Stimmen innerhalb der Europäischen Kommission, nach denen der EU AI Act sich nicht verzögern soll, trotz des Aufsehens, den die Petition erregt hat. Allein die Tatsache, dass die Politik sich zu dieser Art der Kommunikation genötigt sieht, zeigt deutlich, dass die ganze Aktion eher eine Ablenkung ist. Die Petition trägt somit eher nicht zur Verabschiedung einer gründlichen Gesetzgebung bei, die die Europäische Kommission bereits 2018 eingeleitet hat. Sie lenkt eher davon ab.
Statt die Entwicklung neuer KI-Modelle temporär auf Eis zu legen, sollten wir uns auf andere Bereiche konzentrieren. Etwa darauf, gemeinnütze Einsatzzwecke für sie zu ersinnen. Wir sollten zudem an der Robustheit und Genauigkeit der Modelle arbeiten, angelernte Vorurteile beseitigen und Wege finden, das Schadenspotenzial zu senken und automatisierte Entscheidungen transparenter zu machen. Viele der Bedenken gegenüber Diensten im Stil von ChatGPT fußen auf diesen Problemen.
Mit anderen Worten: Wir brauchen mehr, nicht weniger Alternativen zu GPT-4. Dazu gehört allerdings auch eine intensivere Forschung in Bezug auf die ethischen Grundlagen und die Sicherheit dieser mächtigsten Klasse von KI-Modellen. Vor allem aber müssen wir an unserer Vorstellung arbeiten, wie eine „gute“ Nutzung Künstlicher Intelligenz in Zukunft aussehen sollte. Nur so können wir sicherstellen, dass KI uns allen gleichermaßen zugutekommt.