206 Milliarden Euro – dieser Schaden entsteht laut Bitkom pro Jahr in der deutschen Wirtschaft durch Cyberkriminelle. Gleichzeitig werden Unternehmen bis 2027 143 Milliarden Dollar in generative KI investieren, prognostizieren die Marktforscher von IDC. Zwei Zahlen, die eng miteinander verbandelt sind. Denn mit dem Hype um KI steigt auch die Anzahl an Cyberangriffen. Unternehmen müssen sich jetzt Gedanken über ausreichende Vorkehrungsmaßnahmen machen.
Ein Beitrag von Wolfgang Kurz, Geschäftsführer und Gründer von indevis.
Laut der Bitkom-Studie nehmen 62 Prozent der 1.000 befragten Betriebe eine große Bedrohung durch Angriffe war – sowohl digital als auch analog. Zudem gibt erstmalig die Mehrheit der Befragten (52 Prozent) an, dass sie ihre Existenz durch Cyberangriffe bedroht sehen. Nachlässigkeit in IT-Security und Infrastruktur kann sich also kein Unternehmen mehr leisten.
Der zunehmende Einsatz von KI-Anwendungen wird die Anzahl an Cyberangriffen noch weiter erhöhen. Denn natürlich nutzen nicht nur Unternehmen und Behörden die neue Technologie – auch böswillige Akteure sind äußerst erfinderisch, wie sie künstliche Intelligenz für sich nutzen können. Was vielen noch nicht bewusst ist: Wie groß die Gefahr ist, die von böswilligen Manipulationen der KI-Algorithmen und Lerndaten ausgehen.
Risikofaktor Manipulation: Wie Algorithmen getäuscht werden können
KI ist in der Lage, große Mengen an Daten in Sekunden zu bearbeiten und komplizierte Berechnungen auszuführen. Sie kann aber weder zwischen richtig und falsch noch zwischen guten und schlechten Daten klassifizieren. Es hängt somit alles vom Training und dem Algorithmus ab. Das bedeutet aber auch: Künstliche Intelligenz kann durch Manipulation der Daten oder gezielte Falscheingaben „verdorben“ werden.
Algorithmen lassen sich unkompliziert täuschen, wenn man sich genauer mit ihnen auseinandersetzt. Die gesamte SEO-Branche beschäftig sich beispielsweise damit, herauszufinden, wie sich Google-Algorithmen gezielt manipulieren lassen. In anderen Bereichen birgt dies jedoch erhebliche Gefahren – auch für Menschenleben. In der Automobilbranche und dem Verkehrswesen etwa können Manipulation schnell zu Unfällen oder Toten führen.
Tests haben bereits gezeigt, dass gefährliche digitale Täuschungsmanöver bald zum Alltag gehören könnten: So ist es Wissenschaftlern gelungen, aus zwei verschiedenen Passfotos einen identischen biometrischen Abdruck zu erstellen. Ausweis-Scanner bemerkten keinen Unterschied und akzeptierten die eigentlich unterschiedlichen Pässe. Dass auch Cyberkriminelle mit diesen sogenannten Deep Fakes experimentieren, liegt auf der Hand.
Datenquellen als Angriffsziele
Einen zweiten Angriffsvektor bieten die Datenquellen, die das Fundament für maschinelles Lernen bilden. Durch falsche Informationen oder manipulierte Daten kann ein Angreifer das Lernverhalten lenken, da KI sich fortwährend anpasst, um Zusammenhänge zu erkennen.
Oft bleiben diese Angriffe unbemerkt, weil künstliche Intelligenz zusätzlich zu den Trainingsdaten öffentliche Informationen aus dem Internet und Benutzereingaben berücksichtigt. Eine weitere Gefahr besteht darin, dass Kriminelle umgekehrt Daten aus KI-Modellen extrahieren können. Das stellt nicht nur ein großes Sicherheitsrisiko dar, sondern verstößt auch gegen Datenschutzgesetze.
Sicherheitsmaßnahmen hinken hinterher
Aktuelle IT-Sicherheitssysteme sind schlicht noch nicht in der Lage, Manipulationen zu erkennen, die sich gegen KI-Systeme richten. Das Gros der Maßnahmen fokussiert aktuell noch auf Angriffe, die darauf abzielen, Daten zu entwenden oder Systeme lahmzulegen.
Aus diesen Gründen haben sich viele IT-Abteilungen noch nicht ausreichend mit Manipulationsangriffen auseinandergesetzt. Wir können nur darauf hoffen, dass die führenden Hersteller hier bald nachlegen, bevor der Vorsprung der Bedrohungsakteure zu groß wird.
Fazit: KI-Sicherheit jetzt stärken
Unternehmen investieren massiv in generative KI – und dieser Trend wird aller Voraussicht nach erst einmal nicht abflauen. Bei aller Begeisterung sollten wir das Thema Sicherheit aber nicht vernachlässigen. Es liegt es in unserer Verantwortung, uns mit den vorhandenen Angriffsvektoren auseinanderzusetzen und proaktiv zu handeln. Neben weiteren Sicherheitsmechanismen für künstliche Intelligenz wären zum Beispiel integrierte Algorithmen sinnvoll, die manipulative Veränderungen erkennen können.
KI kann bei vielen aktuellen gesellschaftlichen Herausforderungen unterstützen – doch sie bietet Angreifern auch neue Angriffsflächen. Die Risiken ergeben sich vor allem aus der Art und Weise, wie und mit welchen Lerndaten sie trainiert wird. Unternehmen sollten diese Gefahr auf keinen Fall unterschätzen. Genau deswegen ist es wichtig, jetzt zu handeln.