In den letzten Jahren hat sich im Bereich der IT-Sicherheit ein Paradigmenwechsel vollzogen, der vor allem durch die rasche Entwicklung und Einführung der künstlichen Intelligenz (KI) vorangetrieben wurde. Dieser technologische Fortschritt bringt viele Vorteile mit sich, hat aber auch eine neue Ära von Cyber-Bedrohungen eingeläutet, die komplexer, trügerischer und schwieriger zu bekämpfen sind.
Ein Kommentar von Lothar Geuenich, VP Central Europe/DACH bei Check Point Software Technologies.
Eines der drängendsten Probleme dieser neuen Bedrohungslandschaft ist die zunehmende Raffinesse von Ransomware-Angriffen, denn KI-Technologien werden zugänglicher und fortschrittlicher, was Hacker für sich zu nutzen wissen. Sie machen die Generative KI, also Tools wie ChatGPT, zu ihren Werkzeugen, um Angriffe zu entwickeln, die nicht nur häufiger ausgeführt werden können, sondern komplizierter und schwieriger zu erkennen sind.
Dies spiegelt sich in der erschreckenden Statistik wider, dass in den ersten drei Quartalen des Jahres 2023 von 34 Unternehmen eines mit einem Ransomware-Angriff konfrontiert war, was einem Anstieg von 4 Prozent gegenüber dem Vorjahr entspricht. Die finanziellen Auswirkungen dieser Angriffe sind mit Lösegeldforderungen, die teils fünf Millionen US-Dollar (rund 4,55 Millionen Euro) übersteigen, erschreckend.
Ein weiterer besorgniserregender Trend ist die Verwendung von Deepfakes und anderen KI-generierten Fälschungen für Phishing- und Desinformationskampagnen. Diese Methoden erhöhen die Plausibilität und Effektivität von Cyber-Angriffen erheblich, was zu einem Anstieg der Ransomware-Angriffe um mehr als 37 Prozent im vergangenen Jahr geführt hat.
Durch die Erzeugung realistischer Imitationen mit Hilfe von Deepfake-Videos, Bildern oder sogar Sprachanrufen können Angreifer bestimmte Einzelpersonen und Organisationen täuschen oder missbrauchen, was zum Diebstahl sensibler Informationen oder zur Verbreitung von Lügen führt. Ein aktuelles Beispiel aus Deutschland: ein Künstlerkollektiv hat ein täuschend echtes Deepfake-Video von Bundeskanzler Olaf Scholz veröffentlicht.
In dem Video schien Scholz das Verbot einer politischen Partei zu rechtfertigen. Das Video, das anscheinend mit Hilfe von KI erstellt wurde, sorgte für erhebliche Verwirrung und Kritik seitens der Bundesregierung, da es schwierig war, zwischen echt und falsch zu unterscheiden, und solche Fälschungen dazu verwendet werden können, die öffentliche Meinung zu beeinflussen.
All das unterstreicht die Notwendigkeit einer vorausschauenden IT-Abwehr samt durchdachter Strategie. Der althergebrachte, reaktive Ansatz reicht nicht mehr aus. Stattdessen ist eine präventive Strategie unter Einbeziehung von KI und Echtzeit-Bedrohungserkennung von entscheidender Bedeutung. Diese Strategie sollte durch fortlaufende Schulungen für Mitarbeiter ergänzt werden, damit jeder für den Notfall gerüstet ist – oder es gar nicht soweit kommen muss.
Darüber hinaus bedeutet die Betonung von Multi-Faktor-Authentifizierung und Zero-Trust-Modellen eine Verlagerung hin zu strengeren Prüfungen, bevor Zugänge gewährt werden. Somit ist IT-Sicherheit nicht mehr nur ein technisches Thema, sondern ein wesentlicher Bestandteil der Unternehmensstrategie und -führung geworden.
Daher dürfen Führungskräfte dem Thema nicht ausweichen, sondern müssen sich damit beschäftigen und eine Leitlinie in ihrem Unternehmen aufstellen. Sie müssen außerdem verstehen, dass die Überschneidung von IT-Sicherheit und KI eine der wichtigsten Baustellen ist und realisieren, dass KI nicht nur von Hackern eingesetzt werden kann, sondern auch von Sicherheitsleuten, um eine moderne, konsolidierte IT-Sicherheitsarchitektur zu bauen.