Frei erfundene Nachrichten, irreführende Informationen, falsche Verdächtigungen: Fake News überschwemmen das Internet und die sozialen Netzwerke. Sie lösen Verunsicherung und Vertrauensverlust aus und richten erheblichen Schaden an. Pegasystems erläutert, wie Künstliche Intelligenz dabei helfen kann, sie einzudämmen, und wo sie dabei noch an Grenzen stößt.

Welches Ausmaß dieses Problem annehmen kann, zeigte sich nicht zuletzt in der Covid-19-Pandemie. Fake News trugen maßgeblich dazu bei, Verschwörungs-Geschichten über das Corona-Virus, die staatlichen Maßnahmen und die Impfungen zu verbreiten.

Fake News zu identifizieren und zu unterbinden, stellt die Betreiber der Websites und sozialen Medien vor eine große Herausforderung. Die Flut an Posts, die von den Nutzern tagtäglich abgesetzt werden, macht es praktisch unmöglich, jeden einzelnen davon durch Menschen prüfen zu lassen. Zumal bei vielen Inhalten auch gar nicht ohne Weiteres sofort ersichtlich ist, ob sie der Wahrheit entsprechen oder nicht.

Deshalb setzen viele von ihnen auf Künstliche Intelligenz (KI).  Bei der KI-gestützten Qualitätskontrolle von Inhalten gibt es zwei grundsätzliche Ansätze. Beim ersten wird die Glaubwürdigkeit des Verfassers beziehungsweise der Quelle betrachtet, beim zweiten der Wahrheitsgehalt der Inhalte.

Um KI-gestützt zu ermitteln, wie wahrscheinlich die Glaubwürdigkeit eines Verfassers oder einer Quelle ist, kann der Wahrheitsgehalt von Nachrichtenhistorien herangezogen werden, die bereits durch Algorithmen und/oder Menschen bewertetet wurden. In diese Berechnungen können auch geografische und sozio-demografische Merkmale oder Verknüpfungen mit bestimmten Gruppen einfließen. Quellen und Verfasser, deren Glaubwürdigkeitswahrscheinlichkeit eine vordefinierte Grenze unterschreitet, lassen sich dann automatisch sperren.

Beim zweiten Ansatz werden die Inhalte mit anderen Quellen abgeglichen, die vorzugsweise als bereits gesichertes Wissen gelten. Dazu sucht KI entweder in den Inhalten und Vergleichsquellen nach ähnlichen Worten, Texten und Mustern; oder sie versucht mit Hilfe von Natural Language Processing und semantischen Technologien, den Sinn der Inhalte zu erfassen und mit dem Sinn der Quellen abzugleichen.

In beiden Fällen kann die KI kalkulieren, mit welcher Wahrscheinlichkeit eine News eher falsch oder eher wahr ist. Inhalte, die etwa eine vordefinierte Wahrscheinlichkeitsgrenze überschreiten, werden dann automatisch gesperrt.

„Mit diesen Verfahren lassen sich Fake News bereits deutlich eingrenzen. Da sie mit Wahrscheinlichkeiten arbeiten, sind aber False Negatives und False Positives unvermeidbar, sprich: Unproblematische Verfasser, Quellen oder Posts werden fälschlicherweise gesperrt und Fake News fälschlicherweise veröffentlicht“, sagt Florian Lauck-Wunderlich, Project Delivery Leader bei Pegasystems. „In diesen Fällen müssen die Betreiber auf Beschwerden von Autoren oder Lesern hin die Inhalte durch Menschen prüfen lassen und dann gegebenenfalls nachträglich freischalten oder sperren.“

Um die Erfolgsquote beim automatisierten Kampf gegen Fake News weiter zu erhöhen, braucht es eine starke KI – eine Künstliche Intelligenz, die in der Lage ist, Inhalte wirklich zu verstehen. Dazu muss sie über allgemeines Wissen verfügen sowie Sachverhalte abstrahieren und Konzepte transferieren können.

„Diese Art von KI steckt noch in den Kinderschuhen, was sich beispielsweise an ihrer Ignoranz gegenüber Ironie oder Sarkasmus deutlich zeigt“, so Lauck-Wunderlich. „Erst wenn es eine starke KI gibt, lässt sich menschliche Kontrolle massiv reduzieren. Gänzlich ohne sie wird man aber wohl nie auskommen – und das sollte man auch nicht.“

Weitere Beiträge....