Im Juli erlebte die Wall Street ihren schlimmsten Tag seit 2022, als der technologieorientierte Nasdaq um 3,6 % fiel. Der Rückgang wurde größtenteils durch die enttäuschenden Quartalszahlen einiger großer Technologieunternehmen ausgelöst. Besonders auffällig ist, dass die am stärksten betroffenen Unternehmen stark in künstliche Intelligenz (KI) investiert haben.
Während KI bedeutende Investitionen und Optimismus angezogen hat, wächst die Besorgnis, dass ihre Fähigkeiten möglicherweise überbewertet wurden. Dieser Rückgang der Technologiewerte verdeutlicht den wachsenden Druck auf Entscheidungsträger, nachzuweisen, dass KI tatsächlich den Erwartungen gerecht wird.
„Für CISOs ist dieser Druck besonders ausgeprägt. Sie stehen jetzt vor der Aufgabe, sicherzustellen, dass ihre KI-gestützten Initiativen nicht nur die Cybersicherheit stärken, sondern auch messbare Ergebnisse für die Unternehmensführung und die Vorstandsmitglieder liefern,“ geht Andy Grolnick, CEO vom SIEM-Security-Anbieter Graylog ins Detail.
Die Cybersicherheit profitiert von KI deutlich
KI-gestützte Algorithmen des maschinellen Lernens helfen, Anomalien im Benutzerverhalten zu erkennen – eine entscheidende Funktion in der heutigen schnelllebigen Bedrohungslandschaft. Eine aktuelle Studie zeigt, dass bereits 78 % der CISOs KI in irgendeiner Form zur Unterstützung ihrer Sicherheitsteams nutzen.
Wie bei jeder sich entwickelnden Technologie sollte KI jedoch mit einer gesunden Portion Skepsis betrachtet werden. Um sicherzustellen, dass Investitionen in KI greifbare Ergebnisse liefern, rät Andy Grolnick jedem CISO sich den folgenden drei kritischen Fragen zu stellen.
Wo macht es am meisten Sinn, KI einzusetzen?
Bevor KI implementiert wird, ist es wichtig zu bestimmen, wo sie den größten Einfluss haben kann. Während viele Praktiker versuchen, KI in der Bedrohungserkennung und -reaktion zu integrieren, ist es wichtig, die Grenzen zu verstehen.
Große Sprachmodelle (LLMs) können wertvoll sein, um Protokolle zu analysieren, die mit Erkennungen in Verbindung stehen, und um allgemeine Richtlinien für die Reaktion zu geben. Die dynamische Natur der Bedrohungslandschaft stellt jedoch eine Herausforderung dar: Bedrohungsakteure nutzen ebenfalls KI und die rasante Entwicklung ihrer Methoden übertrifft oft die Systeme zur Bedrohungserkennung.
Um mit den Bedrohungsakteuren Schritt zu halten, kann KI in einem Bereich einen signifikanten und unmittelbaren Einfluss haben: der Automatisierung repetitiver Aufgaben, die derzeit einen Großteil der Zeit der Sicherheitsteams beanspruchen.
Beispielsweise können KI-gestützte Erkenntnisse und Leitlinien den SOC-Analysten helfen, die Warnmeldungen zu priorisieren, wodurch die Arbeitslast reduziert wird und sie sich auf komplexere Bedrohungen konzentrieren können. Durch den Einsatz von KI zur Unterstützung der Analysten im SOC können CISOs ihre Teams von niedrigpriorisierten Aufgaben befreien und die Gesamtleistung sowie die Reaktionszeiten verbessern.
Gibt es Beweise dafür, dass KI in meinem Anwendungsfall funktioniert?
Nicht alle Anwendungsfälle liefern gleichwertige Ergebnisse, und es ist sicherer, sich auf bewährte Anwendungen zu verlassen, bevor man mit neueren Ansätzen experimentiert. Beispielsweise nutzen Sicherheitsinformations- und Ereignismanagementsysteme (SIEM) seit langem KI und maschinelles Lernen für Verhaltensanalysen.
Systeme für nutzer- und entitätsbasierte Verhaltensanalysen (UEBA), die auf maschinellem Lernen basieren, sind besonders gut darin, anormale Aktivitäten zu erkennen, die auf Sicherheitsbedrohungen hinweisen könnten, wie Insiderangriffe, kompromittierte Konten oder unbefugten Zugriff.
Diese Systeme analysieren große Mengen historischer Daten, um Verhaltensmuster für Benutzer und Entitäten festzulegen, und überwachen kontinuierlich die Echtzeitaktivität auf Abweichungen von der Norm. Durch die Fokussierung auf gut etablierte KI-Anwendungen wie UEBA können CISOs sicherstellen, dass ihre KI-Investitionen einen Mehrwert bieten und gleichzeitig das Risiko reduzieren.
Wie ist die Qualität der Daten, die KI-Modelle nutzen?
Einer der entscheidendsten Faktoren für den Erfolg von KI ist die Qualität der Daten, die dem Modell und dem Prompt zur Verfügung gestellt werden. KI-Modelle sind nur so gut wie die Daten, die sie konsumieren. Ohne Zugang zu genauen, vollständigen und angereicherten Daten können KI-Systeme fehlerhafte Ergebnisse liefern.
In der Cybersicherheit, wo Bedrohungen sich ständig weiterentwickeln, ist es entscheidend, KI-Systemen einen vielfältigen Datensatz zur Verfügung zu stellen, der den Kontext von Angriffsflächen, detaillierte Protokolle, Warnungen und anomale Aktivitäten umfasst.
Jedoch stellen neue Angriffsflächen – wie APIs – eine Herausforderung dar. API-Sicherheit ist ein attraktives Ziel für Hacker, da APIs oft sensible Informationen übertragen. Während traditionelle Webanwendungsfirewalls (WAFs) in der Vergangenheit ausreichten, um APIs zu schützen, haben heutige Bedrohungsakteure ausgeklügelte Techniken entwickelt, um die Perimetersicherheitsmaßnahmen zu durchbrechen. Leider wird die API-Sicherheit aufgrund ihrer relativen Neuheit oft nicht überwacht und noch schlimmer, nicht in die KI-Analyse von Bedrohungen miteinbezogen.
Da der Erfolg von der Verfügbarkeit hochwertiger Daten abhängt, ist KI möglicherweise noch nicht die beste Lösung für neu auftretende Angriffsflächen wie APIs, wo grundlegende Sicherheitspraktiken noch entwickelt werden müssen. In diesen Fällen müssen CISOs erkennen, dass selbst die fortschrittlichsten KI-Algorithmen nicht für einen Mangel an grundlegenden Sicherheitsmaßnahmen und zuverlässigen Daten entschädigen.