Der Generative-AI-Zug

Überhastet ins GPT-Desaster?

09.02.2023
Von 


Florian Maier beschäftigt sich mit diversen Themen rund um Technologie und Management.
Nach Google und Baidu will auch Alibaba auf den Generative-AI-Hype-Zug aufspringen. Unterdessen treten die potenziellen Probleme mit diesen Tools immer stärker zutage.
ChatGPT hat ein Wettrennen der großen Tech-Player im Bereich Generative AI losgetreten. Dabei stellt sich die Frage, ob die "Pferde" fit genug für einen Wettkampf sind.
ChatGPT hat ein Wettrennen der großen Tech-Player im Bereich Generative AI losgetreten. Dabei stellt sich die Frage, ob die "Pferde" fit genug für einen Wettkampf sind.
Foto: Mikhail Pogosov - shutterstock.com

Wie die Nachrichtenagentur Reuters berichtet, tüftelt der chinesische E-Commerce-Riese Alibaba ebenfalls an einem KI-Tool im Stil von ChatGPT - und steigt damit ins Rennen um die Generative-KI-Herrschaft ein.

Nachdem ChatGPT das Netz im Sturm erobern konnte, hatte zunächst Google - überhastet wirkend - reagiert und seinerseits den Chatbot "Bard" präsentiert (inklusive peinlichem Demo-Fail). Meta hatte sein Generative-AI-Projekt "Galactica" noch vor ChatGPT verfügbar gemacht, zog das Projekt allerdings nach nur drei Tagen wegen zahlreicher User-Beschwerden über schwammige und inkorrekte Outputs zurück.

Indes kündigte Baidu als erstes chinesisches Unternehmen an, die ChatGPT-Vakanz auf dem chinesischen Markt (dort ist das OpenAI-Angebot nicht zugänglich) mit dem Chatbot "Ernie" füllen zu wollen. Neben Alibaba hat laut Reuters inzwischen auch der chinesische Konzern JD.com angekündigt, ChatGPT-ähnliche Features in seine Produkte zu integrieren.

KI-Wettlauf mit nicht absehbaren Folgen?

Während der Hype-Zug unaufhörlich weiterrollt, treten auch immer stärker die Limitationen und Probleme der Generative-AI-Tools zutage: So berichtet das US-Magazin Vice davon, dass einige User bereits alles daran setzen, "ChatGPT zu jailbreaken", um den Bot dazu zu bringen, Verschwörungstheorien und Hassrede auszugeben.

Die Wissenschaftler Jessica Rumbelow und Matthew Watkins haben zudem inzwischen einige Begriffe entdeckt (bei denen es sich offensichtlich um Reddit-Usernamen handelt), mit denen sich ChatGPT zum "Absturz" bringen lässt: Die "anomalous tokens" triggern demnach einen "Failure Mode" und veranlassen den Chatbot, unsinnige, merkwürdige oder beleidigende Outputs zu liefern.

Gegenüber Vice äußerte sich Watkins mit Bezug auf den aktuellen Generative-AI-Hype kritisch: "Meiner Meinung nach geht das alles viel zu schnell - wir haben noch nicht das nötige Knowhow, um mit dieser Technologie umzugehen. Je eher die Menschen erkennen, dass die Leute, die scheinbar wissen, was sie tun, nicht wirklich verstehen, womit sie es zu tun haben, desto eher wird das vielleicht dazu beitragen, die kulturellen Bremsen ein wenig zu lösen. Wir müssen und sollten nichts überstürzen - das wird jetzt irgendwie gefährlich."

Wie gefährlich, das haben Wissenschaftler auch an anderer Stelle untersucht. In einem aktuellen Papier (PDF) zeichnen die Researcher für die Zukunft ein dunkles Bild: Generative AI könnte demnach Verschwörungstheoretikern und der Verbreitung von Fake News neuen Auftrieb verleihen und es künftig deutlich erleichtern, solche Informationen zu erstellen und zu verbreiten.

Das Unternehmen NewsGuard beschäftigt sich bereits seit der Veröffentlichung von ChatGPT damit, wie das Tool auf Verschwörungstheorien und Fake News reagiert. Co-CEO Gordon Crovitz findet im Gespräch mit der New York Times deutliche Worte: "Das Tool wird sich zum mächtigsten Werkzeug zur Verbreitung von Fake News entwickeln, das das Internet je gesehen hat. Neue, falsche Narrative zu erzeugen, wird damit in dramatischem Umfang und besorgniserregender Frequenz möglich."

Ebensolang beschäftigt man sich darüber hinaus in cyberkriminellen Kreisen mit ChatGPT (und Co.). Security-Experten von Check Point Research haben bisherige Aktivitäten in diesem Bereich in einem aktuellen Blogeintrag zusammengefasst. Demnach konnten kriminelle Hacker mit Hilfe von ChatGPT bereits erfolgreich:

  • Malware kreieren,

  • Verschlüsselungs-Tools coden, sowie

  • Darknet-Marktplätze erstellen.

"Um eine Aussage darüber zu treffen, ob ChatGPT-Features sich künftig zu den Lieblingswerkzeugen von Dark-Web-Akteuren entwickeln werden, ist es noch zu früh. Allerdings zeigt die Cybercrime-Community bereits signifikantes Interesse und partizipiert an diesem Trend, um Schadcode zu erzeugen", resümieren die Sicherheitsprofis.