Die Sicherheitsexperten von Check Point Research (CPR) stellten fest, dass Cyberkriminelle Telegram-Bots einsetzen, um die ChatGPT-Beschränkungen in Untergrundforen zu umgehen. Die Bots nutzen die API von OpenAI, um die Erstellung von bösartigen E-Mails oder Code zu ermöglichen.
Die Chat-Bot-Hersteller gewähren derzeit bis zu 20 kostenlose Abfragen, verlangen dann aber 5,50 Dollar für jede 100 Abfragen. CPR warnt daher vor anhaltenden Bemühungen von Cyberkriminellen, die Einschränkungen von ChatGPT zu umgehen, um OpenAI für bösartige Zwecke zu nutzen.
Telegram ChatGPT Bot-as-a-Service
CPR hat in Untergrundforen Werbung für Telegram-Bots gefunden. Die Bots nutzen die API von OpenAI, um es einem Bedrohungsakteur zu ermöglichen, bösartige E-Mails oder Code zu erstellen. Die Schöpfer des Bots gewähren bis zu 20 kostenlose Abfragen, verlangen dann aber 5,50 US-Dollar für jede 100. Abfrage.
Sergey Shykevich, Threat Group Manager bei Check Point Software, zu den Beobachtungen:
„OpenAI hat im Rahmen seiner Content Policy Barrieren und Einschränkungen geschaffen, um die Erstellung bösartiger Inhalte auf seiner Plattform zu verhindern. Wir beobachten jedoch, dass Cyberkriminelle die ChatGPT-Beschränkungen umgehen.
In den Untergrundforen wird aktiv darüber geplaudert, wie die OpenAI-API genutzt werden kann, um die Barrieren und Einschränkungen von ChatGPT zu umgehen. Dies geschieht meist durch die Erstellung von Telegram-Bots, die die API nutzen.
Diese Bots werden in Hacking-Foren beworben, um ihre Bekanntheit zu steigern. Die aktuelle Version der OpenAI-API wird von externen Anwendungen verwendet und verfügt nur über sehr wenige Maßnahmen zur Missbrauchsbekämpfung.
Daher ist es möglich, bösartige Inhalte wie Phishing-E-Mails und Malware-Code zu erstellen, ohne die Einschränkungen oder Barrieren, die ChatGPT auf seiner Benutzeroberfläche eingerichtet hat. Derzeit beobachten wir kontinuierliche Bemühungen von Cyberkriminellen, Wege zur Umgehung der ChatGPT-Beschränkungen zu finden."