Künstliche Intelligenz hat inzwischen viele Bereiche der Wirtschaft und des Privatlebens erreicht. Für zahlreiche Unternehmen und Nutzer ist sie aber bislang immer noch Zukunftsmusik. Zu den Gründen dafür zählen kostspielige proprietäre Technologien, fehlende Experten und mangelndes Vertrauen in die Zuverlässigkeit von Algorithmen.
IntraFind prognostiziert, welche Entwicklungen die Demokratisierung von Künstlicher Intelligenz im Jahr 2023 weiter vorantreiben werden.
- Open Source
Kostspielige und aufwändig trainierte KI-Modelle sind zunehmend als Open Source zugänglich. Das gibt der Community die Möglichkeit, daran anzuknüpfen und sie als Basis für neue Projekte zu verwenden.
Ein prominentes Beispiel dafür ist der Text-zu-Bild-Generator Stable Diffusion, der aus Textbeschreibungen detaillierte Bilder erzeugt, sich aber auch für viele weitere Szenarien nutzen lässt. Diese Entwicklung trägt zur weiteren Demokratisierung von KI bei.
- Low-Code-Systeme
Für eine schnellere und kostengünstigere Erstellung von Software stehen zunehmend Low-Code/No-Code-Systeme zur Verfügung. Dabei handelt es sich um Entwicklungsumgebungen, bei der mit visuellen Applikations-Werkzeugen und anderen grafischen Modellierungsverfahren gearbeitet wird, anstatt Programmiersprachen zu verwenden.
Damit können auch Mitarbeiter, die keine KI-Experten oder Data Scientists sind, mit Hilfe von vorbereiteten Drag-and-Drop-Modulen Algorithmen und intelligente Anwendungen erstellen. Für die Unterstützung und das Management der Low-Code-Systeme sind diese Experten aber weiterhin erforderlich.
- Large Language Models
Large Language Models (LLM), die mit riesigen Mengen an Textdaten trainiert werden, eröffnen Software neuartige Möglichkeiten zur Analyse und Erstellung von Texten. LLM werden heute bereits genutzt, etwa, um die Absicht einer Suchanfrage zu verstehen oder Dokumente auf bestimmte Parameter hin zu analysieren. Die Entwicklung der LLMs wird 2023 weiter voranschreiten.
ChatGPT ist das mittlerweile populärste Beispiel für die Leistungsfähigkeit eines Sprachmodells, das in Kombination mit Reinforcement Learning zu einem System führt, das menschliche Fragestellungen gut analysieren und beantworten kann. In Form und Tonalität wirken seine Antworten bereits sehr menschlich, noch sind sie aber nicht immer wahrheitsgetreu oder logisch einwandfrei.
- Transparente KI
Immer wieder gibt es Fälle, in denen fehlerhafte KI-Anwendungen aufgrund einseitiger Trainingsdaten Entscheidungen treffen, die auf Vorurteilen basieren. Eine ethischere KI ist deshalb ein wichtiges Ziel.
Die Voraussetzung dafür ist eine erklärbare KI: Nur wenn die Entscheidungsfindung von Algorithmen transparent und nachvollziehbar ist, kann sie im Sinne der Ethik verbessert werden. Die EU fordert in ihrem Digital Services Act (DSA) von Online-Plattformen Maßnahmen für auditierbare Algorithmen und baut bereits ein Europäisches Zentrum für Algorithmische Transparenz (ECAT) auf.
„Die Demokratisierung von Künstlicher Intelligenz wird 2023 weiter voranschreiten“, erklärt IntraFind-Vorstand Franz Kögl. „Mehr Menschen werden die Möglichkeit erhalten, nutzbringende KI-Anwendungen zu entwickeln, und die Anstrengungen für eine transparentere Entscheidungsfindung von Algorithmen werden die allgemeine Akzeptanz von Künstlicher Intelligenz vergrößern.“