Wer sagt, daß KI immer nur im Guten verwendet wird? Forscher haben herausgefunden: Auch künstliche Intelligenz kann ausgetrickst werden. Das stellt die sogenannte „Adversarial AI“, zu Deutsch „gegnerische künstliche Intelligenz“, deutlich unter Beweis.

Dabei handelt es sich um ein Hacking-Verfahren, bei dem durch externe Personen die neuronalen Netze der KI-Systeme infiltriert und Daten verfälscht oder verändert werden. Ein Beispiel aus dem autonomen Fahren macht dies anschaulich.

Während für das menschliche Auge ein Stoppschild auch als Negativabzug beziehungsweise Umkehrbild erkennbar ist, führt es im Datenpool einer künstlichen Intelligenz dazu, dass sich das Positiv- und Negativbild gegenseitig aufheben und das Stoppschild so übersehen wird. Eine fatale Schwäche, die schlimm enden kann.

IBM Security hat darauf mit der Adversarial Robustness Toolbox (ART) reagiert, einer Open-Source-Sammlung, die Entwicklern Hilfestellung leistet, um sich gegen KI-Infiltrationen zu rüsten. Die Toolbox vereint bisher gewonnene Kenntnisse und Methoden und ist plattformunabhängig nutzbar, was vorhergehende Modelle nicht leisten konnten.

Mit ART können außerdem Angriffe gegen das KI-System durchgeführt und die effektivste Verteidigung gegen die Attacken als Baustein für eine verbesserte Abwehr genutzt werden. Mit jedem neuen Änderungsvorschlag durch ART wird damit die Verteidigung besser und die KI robuster gegen böswillige Angriffe.

Weitere Beiträge....

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.