ChatGPT hat viele Bereiche aufgemischt. Einer davon ist die Softwareentwicklung in Unternehmen, die sich mit ChatGPT bereits grundlegend verändert hat. Eine Programmierfrage zu stellen und eine fundierte Antwort per Knopfdruck zu bekommen – das hat einen extrem positiven Einfluss darauf, wie schnell und effizient Entwickler Softwarecode schreiben können.
In Zeiten des Fachkräftemangels in der Softwareentwicklung und mit dem hohen Anspruch an Innovation und Time-to-Market sowie hohem Digitalisierungs-Druck ist das ein enormer Gewinn für Unternehmen. Doch oft werden diese Modelle auf riesigen Datenmengen und Informationen aus dem Internet trainiert.
So ist der KI-generierte Code dem von Menschen erzeugten Code verblüffend ähnlich, allerdings inklusive Bugs und Sicherheitslücken. Wenn wir hier nicht aufpassen, wird ein übermäßiger Einsatz von generativer KI beim Coden das beträchtliche Ausmaß an Cybersicherheitsrisiken aufrechterhalten beziehungsweise sogar verschlimmern.
Trotzdem ist klar: Unternehmen, die einen positiven GenAI-Ansatz verfolgen und ihre Mitarbeiter befähigen, ChatGPT sicher zu nutzen, werden künftig die Nase vorn haben. Da sich generative KI weiterentwickelt, liegt der Schlüssel für Unternehmen, insbesondere in stark regulierten Branchen, darin, GPT-Modelle zu nutzen, die auf sehr spezifischen Datensätzen trainiert wurden.
Damit können sie sicher sein, dass die von GPT-Modellen vorgeschlagenen Lösungen auch wirklich für die sehr spezifischen Geschäftsprobleme geeignet sind. Nur so bietet generative KI auch in Zukunft einen Mehrwert und löst gleichzeitig einige der Sicherheitsprobleme, die viele Unternehmen mit ChatGPT vorausgesehen haben.
Aus der Perspektive der Softwareentwicklung sehen wir bereits, wie sichere GPT-Modelle, die auf spezifischen Daten trainiert wurden, Entwicklern dabei helfen, Schwachstellen in ihrem Code zu identifizieren und zu beheben. Nur so entstehen sichere Anwendungen in kurzer Zeit. Und das ist wichtiger als je zuvor.
Erstens, weil der Druck auf Entwickler und Unternehmen hoch ist, in einem möglichst kurzen Zeitraum sichere Anwendungen zu programmieren. Zweitens, weil die Angreifer nicht schlafen: Auch sie nutzen generative KI wie ChatGPT für ihre Zwecke.
Manuell wird man sie in Zukunft sicherlich nicht bekämpfen können. Auf die richtige Automatisierung kommt es an. Die Qualität der Daten für GenAI-Modelle ist dabei entscheidend. Wer GenAI nutzt, sollte also immer darauf schauen, auf welchen Daten das GPT-Modell basiert: allgemeinen aus dem Internet oder spezifischen in hoher Qualität und mit der passenden Expertise.