Wenn Daten für das Training von KI-Modellen eingesetzt werden, transportieren sie unweigerlich die Voreingenommenheit der Personen, die diese Daten erstellt haben, in die Modelle. Das kann dazu führen, dass KI-Anwendungen falsche und diskriminierende Entscheidungen treffen und dadurch finanzielle, ethische oder rechtliche Schäden für Unternehmen verursachen.
Die Studie „Data Bias: The Hidden Risk of AI“ geht der Frage nach, wie bewusst Unternehmen dieses Problem ist und wie sie damit umgehen. Für die Studie befragte das Marktforschungsunternehmen Insight Avenue im Auftrag von Progress weltweit Business- und IT-Verantwortliche. Die Befragten nutzen Künstliche Intelligenz (KI) und Machine Learning (ML) für ihre Entscheidungsfindung oder planen, dies künftig zu tun. An der Umfrage nahmen auch zahlreiche deutsche Unternehmen teil.
Die wichtigsten Ergebnisse der Umfrage für Deutschland:
- 60 % der Business- und IT-Verantwortlichen gehen davon aus, dass sie in den kommenden Jahren bei der Entscheidungsfindung stärker auf KI und ML angewiesen sein werden.
- 84 % von ihnen sind der Ansicht, dass Datenverzerrungen mit dem zunehmenden Einsatz von KI und ML zu einem größeren Problem werden. Allerdings befassen sich derzeit nur 10 % mit diesem Problem und haben einen laufenden Evaluierungsprozess dafür.
- 66 % glauben, dass es in ihrem Unternehmen derzeit Datenverzerrungen gibt.
- 76 % sind der Ansicht, dass sie mehr gegen Datenverzerrungen tun müssten.
- 58 % sehen mangelndes Bewusstsein und Verständnis für Verzerrungen als Hindernis für einen richtigen Umgang damit. Für weitere 46 % ist der Mangel an Experten wie Data Scientists eine große Hürde.
„Unsere Welt wird immer abhängiger von Software, die folgenreiche Entscheidungen trifft. Data Bias ist deshalb ein Problem, das nicht ignoriert werden kann“, erklärt Thomas Schuller, Regional Director DACH bei Progress. „Um zu verhindern, dass Datenverzerrungen in die Entwicklung von KI-Anwendungen einfließen, ist eine Kombination aus Technologie, Schulungen und den richtigen Methoden erforderlich. Es liegt an uns Menschen, dafür zu sorgen, dass Software Entscheidungen immer auf Basis der richtigen Informationen trifft und damit Gutes bewirken kann.“