Während generative KI – angeführt vom Branchenpionier ChatGPT – in einem rasanten Tempo Einzug in die Gesellschaft hält, stellen sich immer noch viele Fragen, wenn es darum geht, einen sicheren Rahmen für den Einsatz der Technologie zu schaffen. In einem Punkt sind sich Experten allerdings einig: Es braucht ein gewisses Mindestmaß an Regulierung.
Inwieweit die großen Technologieunternehmen jedoch bereit sind, nachhaltig in die Selbstregulierung zu investieren, ist angesichts der bisherigen Entwicklungen in diesem Bereich fraglich. Ökonomische Interessen sind oft konträr, ganz zu schweigen von der Frage, welche ethisch-moralische Deutungshoheit einem von marktwirtschaftlichen Interessen getriebenen System zugestanden wird.
Bei der Frage, ob Selbstregulierung sinnvoll eingesetzt werden kann oder nicht, ist der Gesetzgeber gefordert, die Rahmenbedingungen für den Einsatz von KI zu definieren. Die EU beschäftigt sich bereits seit einigen Jahren mit dem Thema Regulierung.
Jedoch ist fraglich, ob generative KI nach den derzeitigen Entwürfen als Hochrisikoanwendung eingestuft werden sollte ist, da der Einsatz solcher Anwendungen infolgedessen mit erheblichen Auflagen verbunden wäre. Gleichzeitig warnen Branchenverbände vor einer pauschalen Regulierung von KI und plädieren für eine sektorspezifische Betrachtung.
Der Wert der generativen KI liegt allerdings gerade in ihrer allgemeinen Anwendbarkeit, so dass eine sektorspezifische Regulierung als zu ineffizient angesehen werden muss. Die Wissenschaft schlägt daher zusätzlich eine technologieunabhängige Regulierung vor, für die es bislang jedoch kaum gesetzgeberische Initiativen gibt.
Diese sollen wesentliche Aspekte der Entwicklung und Nutzung generativer KI übergreifend regulieren. Solche Kombinationen aus sektorspezifischer und übergreifender Regulierung sind dringend erforderlich. Bis geeignete rechtliche Rahmenbedingungen für den Einsatz von generativer KI zur Verfügung stehen, wird jedoch noch einige Zeit vergehen.
Generative KI als Cyberrisiko
Eine KnowBe4-Umfrage zeigt, dass fast die Hälfte der Befragten ChatGPT als Bedrohung ansehen, insbesondere im Arbeitsumfeld (23 Prozent) und im Bereich Politik und Recht (20 Prozent). Die größte Sorge gilt der Zunahme von Cyber-Bedrohungen und -Angriffen (31 Prozent) sowie dem Verlust des Arbeitsplatzes (29 Prozent).
Obwohl mehr als drei Viertel der Befragten (77 Prozent) die Qualität der Antworten des Chatbots als gut bewerten, korrelieren diese Einschätzungen mit der Angst vor einer möglichen Ausnutzung durch Hacker oder dem Verlust des Arbeitsplatzes. Die Angst vor einer Zunahme von Cyberangriffen ist nicht unbegründet, da KI bereits erfolgreich zur Erstellung von Phishing-E-Mails und bösartigem Code für Angriffe eingesetzt wird.
Die Verfügbarkeit von KI-Tools bedeutet, dass man leicht auf funktionierende Angriffstechniken zugreifen kann, wodurch die Bedrohungslandschaft in der Cyberwelt immer unberechenbarer wird. Auch aus Sicht des Datenschutzes stellt die Technologie eine Herausforderung dar. Obwohl bisher keine formellen Beschwerden eingegangen sind, werden mögliche Verstöße von ChatGPT gegen die DSGVO bereits von den Datenschutzbehörden untersucht.
Die Regulierung generativer KI erfordert dabei sowohl die Beteiligung der Datenschutzbehörden als auch der Politik. Die Ergebnisse der zuvor genannten Umfrage zeigen auch, dass die Mehrheit der Befragten die KI-Entwickler in der Verantwortung sieht, wobei ein Drittel die Politik und den Gesetzgeber in der Pflicht sieht.
Während über die Frage, wer für die Regulierung verantwortlich sein sollte, weiterhin diskutiert wird, sind reale Risiken bereits jetzt vorhanden. Aus diesem Grund ist es an Unternehmen und Einzelpersonen, die Initiative zu ergreifen, um sich gegen aktuelle und kommende Gefahren zu schützen. Eine wichtige Maßnahme stellen Security Awareness Trainings dar, die dabei helfen Nutzer auf den Umgang mit und die Gefahren von generativer KI vorzubereiten.