Die Entwicklung in und rund um KI läuft momentan so schnell ab, dass es schwierig ist, überhaupt Prognosen abzugeben. Statt der Trends für 2024 stellt sich eher die Frage: Woher kommt dieses irre Tempo? Die Experten bei Neo4j werfen dazu einen Blick auf aktuelle Treiber, die spürbaren Folgen auf das KI-Ecosystem und die noch zu lösenden KI-Hürden.
1: Investitionsboom bleibt ungebrochen
Die KI-Branche boomt. Unternehmen stecken zwar nicht erst seit diesem Jahr viel Geld in die Technologie. Die Zahlen verblassen jedoch im Vergleich zu den Beträgen, die Tech-Konzerne in den letzten 12 Monaten in Startups und Lösungen investierten. Selbst die großen Analystenhäuser kommen mit ihren Prognosen kaum noch hinterher.
Gartner zum Beispiel ging noch im Sommer von mehr als 10 Mrd. $ Investitionen in KI-Startups bis 2026 aus. Bereits im Herbst kann diese Schätzung angesichts der massiven Investitionen - zum Beispiel von beispielsweise Amazon und Google in das KI-Startup Anthropic (ca. 4,5 Mrd. $) - bereits als veraltet gelten.
2: Begrenzte Kapazitäten heizen KI-Wettrennen an
Die Investitionen befeuern nicht nur die KI-Forschung, sondern ziehen das gesamte KI-Ecosystem mit sich – von der Cloud über Datenbanksysteme bis hin zur Halbleiter-industrie. Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten.
Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren zwar deutlich nach oben. Doch die Anlagen von Chip-Herstellern wie Nvidia sind über Jahre ausgebucht und die Preise steigen exorbitant. Im Kampf um realisierbare KI-Spitzenleistung werden Software Tech-Riesen wie Microsoft in den nächsten Jahren deshalb verstärkt selbst im Halbleitergeschäft aktiv.
3: Schneeballeffekt bei Developer- und IT-Tools
Der KI-Hype wird nicht nur von außen angeheizt. KI treibt als inhärente Automatisierungs-Technologie ihre eigene Entwicklung selbst voran. KI-Modelle helfen, bessere KI-Modelle zu erstellen. Developer delegieren zeitraubende Aufgaben an die Systeme, lassen automatisch Code generieren und verkürzen damit Innovationszyklen massiv.
Nach Schätzungen von McKinsey können Entwickler mit Unterstützung von GenAI ihre Leistung bei der Code-Generierung um bis zu 45% steigern. Smarte Management-Tools in der IT wiederum optimieren die Rechenleistung in der Cloud und im eigenen Rechenzentrum für den KI-Betrieb im Enterprise-Umfeld. Damit potenziert sich die KI-Technologie momentan ungebremst weiter.
4: KI für alle: Data Democratization
Neben der Automatisierung und Optimierung verändert KI zudem die Nutzung von Daten – insbesondere in der Kombination von LLMs und Natural-Language User Interface (LUI, NLUI). Anwender gelangen via Chatbots und Search Generative Experience (SGE) so einfach wie noch nie an Informationen. Was früher Data Scientists vorbehalten war, steht heute dank API theoretisch jedem Mitarbeitenden im Unternehmen zur Verfügung.
Abteilungsspezifische Anwendungen werden zukünftig einer zentralen, sprachmächtigen KI-Lösung Platz machen, die auf kuratierten Unternehmens-Daten basiert, relevante Antworten in beliebigen Formaten (Schrift, Bild oder Sprache) ausgibt und dabei Zugriffsrechte und Datenschutzbestimmungen berücksichtigt.
5: Von Graphen und Vektoren: Datenbanken
Die Datendemokratisierung setzt spezielle Ansätze zum Speichern, Vernetzen, Indizieren und Abfragen von Daten voraus. Vektordatenbanken und ihre Fähigkeit, hochdimensionale Daten effizient zu speichern, gehörten dabei zu den meistdiskutierten KI-Themen in 2023. Die Vektordatenbanken stehen laut Analysten zwar noch am Beginn ihres Hype-Zyklus. Die Vektorsuche ist mittlerweile jedoch auch in einer Vielzahl an Datenbanken als Standard-Feature integriert.
Als KI-Enabler weiter etabliert haben sich zudem Graphdatenbanken. Knowledge Graphen verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Das schafft ein optimales Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen.
6: Responsible AI im Alleingang
Die KI-Blackbox aufzubrechen, gewinnt angesichts der – teilweise amüsanten, teilweise verstörenden – KI-Fails an Dringlichkeit. KI-Halluzinationen und Indirect Prompt Injections sind nur einige Beispiele, wie KI-Lösungen manipulieren und sich manipulieren lassen. Mit zunehmender Implementierung stellt sich zudem die Frage nach der Verantwortlichkeit.
Wer ist für die KI-generierten Entscheidungen, Prognosen und Inhalte letztendlich verantwortlich? Gesetzliche Auflagen (z. B. EU Artificial Intelligence Act) werden frühestens in zwei bis drei Jahren greifen. Unternehmen können das nicht aussitzen und werden verstärkt selbst Sicherheitsmechanismen und Leitplanken integrieren.
7: Mehr als nur Chatbot
KI gilt als Querschnittstechnologie: Sie besitzt hohe technologische Dynamik und ist branchenübergreifend einsetzbar. Damit geht ihr Potential weit über das eines LLM-KI-Agenten wie ChatGPT hinaus. Chatbots waren im letzten Jahr zwar das Aushängeschild von KI.
Laufende KI-Projekte sind jedoch deutlich vielseitiger – von Prognosen über das Weltklima (GraphCast) bis hin zur Aufdeckung von Proteinstrukturen im menschlichen Körper (AlphaFold). Selbst in deutschen Unternehmen kommt KI schneller und umfassender zum Einsatz als vielfach erwartet. So arbeiten nach einer Cisco-Umfrage bereits 42% mit KI. Und 8% haben sogar bereits eigene KI-Lösungen entwickelt.
8: Blick auf die Hype-Kurve 2024
Dass KI angesichts dieser Entwicklungen längst noch nicht an Geschwindigkeit verliert, zeigt sich im Gartner Hype Cycle for Emerging Technologies 2023. GenAI erhielt hier den prominentesten Platz auf dem Gipfel und steigt damit nach Ansicht der Analysten wohl bald in das „Tal der Ernüchterung“ hinab.
Dahinter reihen sich jedoch schon neue KI-Ansätze und -Lösungen ein, um den nächsten Hype in den kommenden Jahren loszutreten (z. B. AI Augmented). So gesehen ist Hype auch nichts Negatives, sondern eine zentrale Phase, um die vielfältigen Dimensionen einer Technologie auszuloten.