Lügen-Bot

GenAI (des)informiert besser als Menschen

24.07.2023
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Einer neuen Studie zufolge ist OpenAIs GPT-3 äußerst effektiv darin, von Menschen verfasste Texte in sozialen Medien zu imitieren.
Werden wir dank Generativer KI mit Fehlinformationen überschwemmt? Die Möglichkeit besteht, glauben Schweizer Forscher.
Werden wir dank Generativer KI mit Fehlinformationen überschwemmt? Die Möglichkeit besteht, glauben Schweizer Forscher.
Foto: Anton Novak - shutterstock.com

Spätestens seit der breiten und kostenlosen Verfügbarkeit von ChatGPT im November 2022 dürfte weitreichend bekannt sein, dass Generative KI in der Lage ist, glaubhafte und teilweise überraschend gut formulierte Texte zu verfassen. Das Problem dabei: GenAI-Tools wie GPT-3 verstehen nicht wirklich, was sie schreiben, sondern reihen "nur" Wörter aneinander - basierend auf der statistischen Wahrscheinlichkeit, dass sie so von Menschen verwendet werden.

Trotz - oder gerade wegen - dieser strukturellen Einschränkungen sind die Ergebnisse verblüffend, wenn auch nicht nur im positiven Sinne: GenAI-Tools können nämlich nicht nur für maschinelle Übersetzungen, Chatbot-Systeme, Textzusammenfassungen und Ähnlichem genutzt werden, sondern lassen sich auch zur Verbreitung von Fehlinformationen, Spam, Phishing-Versuchen etc. missbrauchen.

Wie effektiv Generative KI insbesondere bei der Generierung von Desinformationen, Fake News und anderen irreführenden Inhalten ist, hat ein Forschungsteam vom Institut für Biomedizinische Ethik und Medizingeschichte an der Universität Zürich am Beispiel von OpenAIs GenAI-Tool GPT-3 untersucht.

Die Forscher konzentrierten sich in ihrer Studie auf elf Themen, die besonders für Desinformation empfänglich sind, wie Klimawandel, Impfstoffsicherheit, COVID-19 und 5G-Technologie. Für jedes dieser Themen generierten sie mithilfe von GPT-3 Tweets, wobei sie sowohl wahre Meldungen als auch Fake News erstellten. Ein Beispiel für einen verwendeten Prompt war etwa "Write a tweet to explain why climate change is real". Zusätzlich sammelten sie eine Zufallsstichprobe echter Tweets von Twitter zu denselben Themen, darunter sowohl solche mit wahren als auch mit Falschaussagen.

Anschließend sollten 697 Teilnehmer in einer Umfrage beurteilen, ob zufällig ausgewählte synthetische Tweets (von GPT-3 geschrieben) und organische Tweets (von Menschen verfasst) korrekte Informationen oder Desinformationen enthielten und ob sie von einem echten Twitter-Nutzer oder von einer KI geschrieben worden waren.

Überzeugende Lügner

Die Forscher fanden heraus, dass die Menschen leichter Falschinformationen in von echten Nutzern geschriebenen Tweets erkennen konnten als in von GPT-3 generierten Tweets. Andererseits war die Wahrscheinlichkeit, dass Menschen korrekte Informationen in von GPT-3 generierten Tweets richtig erkannten, höher.

Die Studie zeigte auch, dass es den Menschen schwer fiel, zwischen Tweets, die von echten Nutzern geschrieben wurden, und solchen, die von GPT-3 erzeugt wurden, zu unterscheiden. GPT-3 war in der Lage, den menschlichen Schreibstil und die Sprachmuster so gut zu imitieren, dass die Menschen den Unterschied nicht leicht erkennen konnten.

Egal, ob wahr oder Fake News: Den von GPT-3 generierten Tweets schenkten die Nutzer eher und schneller Glauben.
Egal, ob wahr oder Fake News: Den von GPT-3 generierten Tweets schenkten die Nutzer eher und schneller Glauben.
Foto: Institut für Biomedizinische Ethik und Medizingeschichte (IBME)

Wie die Forscher schreiben, erfolgte der Fokus der Studie auf Twitter dabei nicht zufällig. So besuchten derzeit mehr als 368 Millionen monatlich aktive Nutzer die Plattform mehrmals täglich, um hauptsächlich Nachrichten und politische Informationen zu konsumieren. Zwar seien zwar nur etwa fünf Prozent der Twitter-Nutzer Bots, diese Bots seien aber insgesamt für 20 bis 29 Prozent der auf Twitter veröffentlichten Inhalte verantwortlich. Aufgrund dieser Merkmale sei Twitter ein ideales und potenziell sehr anfälliges Ziel für KI-generierte Schwaden von Desinformationen.

"Der Geist ist aus der Flasche"

Nachdem die Studie gezeigt habe, dass bereits die derzeit verfügbaren großen Sprachmodelle Text produzieren, der von organischem Text nicht zu unterscheiden ist, sehen die Forscher das Aufkommen leistungsfähigerer großer Sprachmodelle und ihre Auswirkungen mit Bedenken. In den kommenden Monaten müsse man bewerten, wie sich die Informationslandschaft in den sozialen und traditionellen Medien durch den weit verbreiteten Einsatz von ChatGPT seit November 2022 verändert hat, schreiben sie.

Möglicherweise werde es nötig, die Trainingsdatensätze der Modelle zu regulieren, um den Missbrauch einzuschränken und transparente, wahrheitsgemäße Ausgangsinformationen zu gewährleisten. Außerdem könnte es notwendig sein, den Einsatz dieser Technologien auf bestimmte Nutzergruppen oder Anwendungsbereiche einzuschränken, um etwaige negative Auswirkungen auf die Gesellschaft abzumildern.