ChatGPT hat das Potenzial, viele Prozesse zu automatisieren und die Interaktionen zwischen Bot und Mensch zu vereinfachen. Es wird daher nicht mehr lange dauern, bis die Verwendung fortschrittlicher KI-Technologien wie ChatGPT, Baidus ERNIE oder Googles BARD in Unternehmen zum täglichen Instrument werden, um Inhalte zu generieren. Und zwar ähnlich alltäglich, wie die Verwendung von Textverarbeitungsprogrammen oder einer Tabellenkalkulation.

Allerdings birgt die Verwendung von Chatbots auch Sicherheitsrisiken, die IT Security Teams schon jetzt schlaflose Nächste bescheren. Es ist daher besonders wichtig, dass sich Unternehmen frühzeitig wappnen. Welche Gefahren durch ChatGPT & Co tatsächlich lauern und wie sich Unternehmen rüsten können, erklärt Sicherheitsexperte Joey Stanford von platform.sh.

Ein Bot, der umfangreiche Wissensfragen in Sekundenschnelle beantwortet und lästiges Research für einen übernimmt, klingt zunächst attraktiv. Einer aktuellen Blackberry-Umfrage zufolge glaubt allerdings über die Hälfte der IT-Experten, dass die Wahrscheinlichkeit eines durch ChatGPT ausgelösten Cyberangriffs noch in diesem Jahr hoch ist. Und 71 Prozent glauben, dass Chat GPT bereits von Staaten genutzt werden könnte, um andere Länder durch Hacking- und Phishing-Versuche anzugreifen.

Sicherheitsrisiken, die durch intelligente ChatBots zunehmen

  • Betrugsmaschen beim Phishing werden effektiver
    Phishing Attacken starten häufig mit einer Nachricht im E-Mail-Postfach. Heute erkennt man die Betrugsversuche oftmals an der mangelhaften Grammatik in den E-Mails. Daran merkten selbst ahnungslose Nutzer, dass etwas nicht stimmen kann. Mithilfe der künstlichen Intelligenz könnte sich das ändern. Auf Knopfdruck könnte ChatGPT etwa täuschend echte Phishing-Mails verfassen. Betrugsmaschen werden also weniger offensichtlich und damit effektiver.

  • Cyberkriminelle nutzen ChatGPT für Malware-Angriffe
    Auch die Erstellung von Malware könnte mit KI einfacher werden. Forscher von Check Pointii glauben, dass ChatGPT ein effektives Werkzeug für die automatisierte Erstellung von Malware sein könnte. Cyberkriminelle könnten den Chatbot beispielsweise nutzen, um ein Python-Skript zu erstellen, das für einen Malware-Angriff verwendet werden kann.

    Bisher verfügt ChatGPT zwar nur über begrenzte Programmierfähigkeiten. Laut Sicherheitsexperten ist es aber nur eine Frage der Zeit, bis korrekte Codes erstellt werden können. Das Wettrüsten hat begonnen – es besteht also ein dringender Bedarf an automatisierten, möglicherweise KI-gesteuerten Sicherheitstools und -prozessen, die KI-generierte Malware-Angriffe schnell erkennen und abwehren können.

  • Sensible Daten fließen in Nutzereingaben ein
    Neue KI-Methoden wie ChatGPT beantworten Fragen mit eigenständig formulierten Antworten. Der Algorithmus wurde an einem großen Textkorpus trainiert und ist in der Lage, jede Art von Text zu generieren, einschließlich der Antworten auf Fragen. Dabei lernt das Tool von den Nutzereingaben und sammelt eine Menge persönlicher Daten, die Nutzer unbedarft eingeben.

    Angesichts der hohen Nutzungsrate und der Geschwindigkeit, mit der KI in viele Lebensbereiche Einzug erhält, ist hier größte Vorsicht geboten. Mit verschiedenen Angriffsmethoden können Unternehmensinterna und private Informationen aus den Daten extrahiert werden.

Maßnahmen, um den Sicherheitsrisiken entgegenzuwirken
Der Einsatz von KI- und AI-basierten Chatbots birgt also auch eine Menge an Risiken. Um sich bestmöglich zu schützen, sollten Unternehmen folgende Maßnahmen berücksichtigen:

  • Netzwerk-Überwachung ausbauen
    Dringend empfohlen ist die Implementierung eines Echtzeit-Netzwerküberwachungssystems, das bösartige Aktivitäten sofort nach ihrem Auftreten erkennt und darauf reagiert. Dabei gibt es eine Reihe von Schlüsselanforderungen, wie die Zwei-Faktor-Authentifizierung, die eine zusätzliche Sicherheitsebene bietet.

    Eine ständige Aktualisierung der Software stellt sicher, dass alle bekannten Schwachstellen beseitigt werden. Antiviren-Software hilft bei der Erkennung und Blockierung von Malware und die Überwachung des Netzwerkverkehrs hilft bei der Erkennung bösartiger Aktivitäten.

  • Kampf der KIs: Investition in KI-Schutztechnologie
    Unternehmen müssen in Zukunft damit rechnen, dass Angreifer vermehrt auf künstliche Intelligenz setzen. Man kann KI jedoch mit KI bekämpfen: Das Wettrüsten hat begonnen und beschleunigt sich immer mehr. Am Ende gewinnt die KI mit dem besseren Algorithmus. Gerade deshalb sollten Unternehmen schon jetzt in eine sichere Zukunft mit moderner KI-Schutztechnologie investieren, die Muster und Daten erkennen, und potenzielle KI-basierte Cyberbedrohungen besser erkennen.

  • Gezielte Aus- und Fortbildungsmaßnahmen
    Das Wissen, wie man die verräterischen Anzeichen einer bösartigen E-Mail oder eines Links erkennt, wie z. B. eine seltsame Absenderadresse, eine verdächtige Sprache oder ungewöhnliche Anweisungen, hilft Mitarbeitern dabei, nicht Opfer einer ChatGPT-basierten Phishing-Attacke zu werden. CTOs sollten in die Schulung der Mitarbeiter investieren, damit diese die Bedrohungen besser erkennen können.

ChatGPT ist, wie jede neue Technologie, ein zweischneidiges Schwert. Wie nützlich und wie bedrohlich sie ist, wird sich mit der Zeit herausstellen. Wir wissen nur, dass sich KI schnell weiterentwickelt und Sicherheitsexperten mit ihr Schritt halten müssen. Wenn jedes Unternehmen das Potenzial und auch die Grenzen der KI versteht und die notwendigen Maßnahmen gegen ihre Sicherheitsrisiken ergreift, kann es bestmöglich davon profitieren.

Weitere Beiträge....