Die Revolution der generativen KI hat einen Paradigmenwechsel im Bereich der künstlichen Intelligenz ausgelöst und ermöglicht es Maschinen, Inhalte mit bemerkenswerter Raffinesse zu erstellen und zu generieren. Generative KI bezieht sich auf die Untergruppe der KI-Modelle und -Algorithmen, die in der Lage sind, selbstständig Texte, Bilder, Musik und sogar Videos zu erzeugen, die menschliche Kreationen imitieren.
Diese bahnbrechende Technologie hat eine Vielzahl kreativer Möglichkeiten eröffnet, von der Unterstützung von Künstlern und Designern bis hin zur Steigerung der Produktivität in verschiedenen Branchen. Die Verbreitung der generativen KI hat jedoch auch zu erheblichen Bedenken und ethischen Überlegungen geführt. Eine der Hauptsorgen dreht sich um den möglichen Missbrauch dieser Technologie für böswillige Zwecke, wie z. B. Cyberkriminalität.
In früheren Berichten hat Check Point Research ausführlich darüber berichtet, wie Cyberkriminelle die revolutionäre Technologie für böswillige Zwecke ausnutzen, insbesondere für die Erstellung von bösartigem Code und Inhalten über OpenAIs generative KI-Plattform ChatGPT. In diesem Bericht wandten sich die Forscher der generativen KI-Plattform „Bard“ von Google zu.
Ziel der Untersuchung
Ausgehend von diesem Gedanken und im Anschluss an frühere Analysen haben die Sicherheitsforscher die Plattform mit zwei Hauptzielen analysiert: Zu überprüfen, ob es möglich ist, Bard für bösartige Zwecke zu nutzen (z. B. Erstellung von Phishing-E-Mails / Malware / Ransomware) und im zweiten Schritt Google Bard mit ChatGPT im Hinblick auf die Erstellung von bösartigen Inhalten zu vergleichen.
- Was konnte CPR mit Google Bard erstellen?
- Phishing-E-Mails
- Malware-Keylogger (ein Überwachungswerkzeug, das jeden Tastenanschlag auf einem Computer überwacht und aufzeichnet)
- Einfacher Ransomware-Code
- Phishing-E-Mails
ChatGPT vs. Google Bard – Die Befunde
Zunächst versuchte CPR die einfachste Anfrage zur Erstellung einer Phishing-E-Mail, die sowohl von ChatGPT als auch von Bard abgelehnt wurde. CPR versuchte es erneut, fragte nach einem Beispiel für eine Phishing-E-Mail und während ChatGPT die Anfrage ablehnte, lieferte Bard eine gut geschriebene Phishing-E-Mail, die sich als ein Finanzdienstleister ausgab.
Nach weiteren Versuchen und mit einer Begründung der Anfrage lieferten beide KI-Bots schließlich einen Keylogger, der „meine“ Tastenanschläge (die des Forschers bzw. Nutzers) aufzeichnete, mit dem Unterschied, dass ChatGPT eine Art Haftungsausschluss über bösartige Verwendung hinzufügte.
In einem zweiten Versuch zeigte sich, dass Bard über Umwege auch einfachen Ransomware-Code erstellt. Nachdem eine erste simple Anfrage fehlschlug, fragten die Forscher Bard nach den häufigsten Aktionen, die von einer Ransomware ausgeführt werden.
CPR erhielt eine stichpunkteartige Liste, wie Ransomware vorgeht und wandelte diese durch simples Kopieren und Einfügen in Anforderungen an ein Script um. Das funktionierte: Mit Angabe der Anforderungen an das Script erhielt CPR den Code.
Nachdem die Forscher das Skript mit Hilfe von Bard ein wenig modifizierten und einige zusätzliche Funktionen und Ausnahmen hinzugefügten, erhielten sie ein funktionierendes Ransomware-Skript.
Zusammenfassung der Beobachtungen von Check Point Research zu Bard:
- Die Missbrauchsschutzmechanismen von Bard im Bereich der Cybersicherheit sind im Vergleich zu denen von ChatGPT deutlich geringer. Folglich ist es viel einfacher, mit den Möglichkeiten von Bard bösartige Inhalte zu erzeugen.
- Bard enthält fast keine Beschränkungen für die Erstellung von Phishing-E-Mails, was Raum für potenziellen Missbrauch und Ausnutzung dieser Technologie lässt.
- Mit minimalen Manipulationen kann Bard zur Entwicklung von Malware-Keyloggern verwendet werden, was ein Sicherheitsrisiko darstellt.
- Die Experimente von CPR haben gezeigt, dass es möglich ist, mit den Funktionen von Bard einfache Ransomware zu erstellen.
Insgesamt hat es den Anschein, dass Googles Bard noch nicht vollständig aus den Lektionen gelernt hat, die ChatGPT bei der Implementierung von Missbrauchsschutzbeschränkungen in Cyber-Bereichen gezeigt hat. Die bestehenden Beschränkungen in Bard sind relativ simpel und ähneln denen, die CPR bei ChatGPT in der Anfangsphase vor einigen Monaten beobachtete.
Es ist zu hoffen, dass dies nur die ersten Schritte auf einem langen Weg sind und dass die Plattform alsbald die erforderlichen Beschränkungen und Sicherheitsgrenzen einführen wird.