Dark Web diskutiert verstärkt über KI-Nutzung

Kriminelle planen Übernahme von ChatGPT

06.04.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Im Wettlauf um die kriminelle Nutzung von ChatGPT geht es im Dark Web heiß her. Laut einer Untersuchung von NordVPN stieg der Anzahl entsprechender Forenbeiträge im Februar um das Siebenfache.
Im Dark Web wird derezit heiß über die Nutzung von KI für kriminelle Zwecke diskutiert.
Im Dark Web wird derezit heiß über die Nutzung von KI für kriminelle Zwecke diskutiert.
Foto: Sergey Nivens - shutterstock.com

Eines der heißesten Themen im Dark Web ist derzeit die Diskussion rund um den Missbrauch von KI-Bots wie ChatGPT. Dies zeigt eine neue Untersuchung des Cybersicherheitsunternehmen NordVPN.

ChatGPT im Dark Web

Dazu analysierte das Unternehmen vom 13. Januar bis zum 13. Februar die Zahl der neuen Beiträge zu dem KI-Tool in den Dark-Web-Foren - die vor normalen Suchmaschinen verborgen sind. Sie stieg von 120 Beiträgen im Januar auf 870 im Februar - ein Anstieg um 625 Prozent.

Dabei drehten sich Anfang Januar viele Threads noch um die Frage, wie böswillige Akteure ChatGPT dazu bringen könnten, einfache Malware zu produzieren. Allerdings wurde diese Schwachstellen inzwischen behoben.

Hacker-Community wird aggressiver

Dabei geht der Trend im Dark Web zu aggressiveren Maßnahmen: Wie läßt sich etwa ChatGPT übernehmen?
Dabei geht der Trend im Dark Web zu aggressiveren Maßnahmen: Wie läßt sich etwa ChatGPT übernehmen?
Foto: Tada Images - shutterstock.com

Deshalb geht der Trend in der Hacker-Community, so NordVPN, mittlerweile hin zu aggressiveren Maßnahmen. In den Beiträgen werden Pläne skizziert, die Kontrolle über den Chatbot zu übernehmen und ihn zu nutzen, um Chaos zu stiften.

Zudem könnten Hacker, wenn sie einen Chatbot übernommen haben, dessen Sicherheitsbeschränkungen aufheben und ihn zur Erstellung von Malware und Phishing-E-Mails, zur Verbreitung von Hassreden oder sogar zur Verbreitung von Propaganda nutzen. Dementsprechend lauten die Threat-Titel im Dark-Web-Forum nun "How to break ChatGPT", "ChatGPT jailbreak 2.0", "ChatGPT - progression of malware" oder "ChatGPT as a phishing tool", um nur einige Beispiele zu nennen.

Zahl der Angriffe wird steigen

Die Erkenntnisse von NordVPN decken sich, wie berichtet, mit den Erwartungen von Europol bezüglich eines Missbrauchs von KI-Tools für kriminelle Zwecke. So könnten etwa Kriminelle die KI von ChatGPT nutzen, um Betrügereien - wie etwa Liebesschwindel - in industriellem Maßstab durchzuführen und mehrere Opfer gleichzeitig angreifen.

Mit KI-Unterstützung können Kriminelle künftig Angriffe im industriellen Maßstab durchführen.
Mit KI-Unterstützung können Kriminelle künftig Angriffe im industriellen Maßstab durchführen.
Foto: chayanuphol - shutterstock.com

Für Marvin Petzolt, Experte für Cybersicherheit bei NordVPN und Nord Security, sind die Gefahren, die sich daraus ergeben, nicht unerheblich. Er warnt, dass Kriminelle die KI-gestützte Erkennung von Schwachstellen für bösartige Zwecke nutzen könnten.

Diese Gefahren drohen

Dazu zählt für ihn auch der Missbrauch des schnellen Findens und Zusammenfassen personenbezogener Informationen, um Firmen und Menschen gezielter anzugreifen. Noch gefährlicher sei, so Petzolt weiter, die Umgehung von Sicherheitschecks und Filtern in ChatGPT und anderen KI-Anbietern, um das Programm zu rassistischen oder hetzerischen Aussagen zu verleiten.

3 Tipps gegen KI-Angriffe

Für die User hat die drohende Gefahr, dass Cyberkriminelle die KI für ihre Zwecke nutzen, zur Konsequenz, dass sie im Internet noch vorsichtiger und sorgfältiger agieren sollten. Um die Gefahr durch KI-Chatbots in Grenzen zu halten, geben die Experten von NordVPN folgende Tipps:

  • Nicht zu persönlich werden:

KI-Chatbots sind so konzipiert, dass sie aus jedem Gespräch, das sie führen, lernen und so ihre Fähigkeiten zur "menschlichen" Interaktion verbessern. Dabei erstellen sie auch ein genaueres Profil des Users, das gespeichert werden kann. Deshalb sollte es vermiEden werden, dem Chatbot persönliche Informationen mitzuteilen. Ferner sollten online nur wenige oder gar keine persönlichen Informationen preisgeben werden, da eine KI in der Regel mit öffentlich zugänglichen Informationen aus dem Internet trainiert wird.

  • Vorsicht vor steigenden Phishing-Angriffen

Es ist mit einer Zunahme von Phishing-Angriffen zu rechnen, da KI den Online-Betrügern zusätzliche Möglichkeiten eröffnet. So ist davon auszugehen, dass Hacker Bots einsetzen, um immer realistischere Betrugsmaschen zu entwickeln. Kriminelle können KI als Chatbot nutzen, um realistische Chats zu erstellen. Sowürden die Nutzer mit einer KI statt mit einem Betrüger chatten. Dies ist bei Online-Dating-Betrügereien bereits der Fall und kann noch viel fortschrittlicher gestaltet werden.

  • Auf Rechtschreibung und Grammatik achten, reicht nicht mehr

Die klassische Methode, Phishing-Mails anhand schlechter Rechtschreibung oder Grammatik zu erkennen, wird künftig ins Leere laufen. Mit KI-Hilfe werden die Betrüger fehlende Fremdsprachenkenntnisse ausbügeln können. Deshalb sollte künftig verstärkt die Adresse eines Absenders überprüfen werden. Ebenso ist auf Unstimmigkeiten bei Links oder Domain-Namen zu achten, um Phishing-Versuche noch erkennen zu können.