Nachträglicher Datenschutz

ChatGPT kann jetzt auch "vergessen"

27.04.2023
Von 
Jon Gold ist Senior Writer bei der US-Schwesterpublikation Network World.
OpenAI bringt seinem Generative-AI-Chatbot-Hit bei, zu "vergessen". Kann das die Regulatoren weltweit besänftigen?
Zahlreiche Datenschutzbedenken in Zusammenhang mit ChatGPT zwingen OpenAI zu handeln.
Zahlreiche Datenschutzbedenken in Zusammenhang mit ChatGPT zwingen OpenAI zu handeln.
Foto: Alexander Limbach - shutterstock.com

OpenAI hat angekündigt, ChatGPT-Nutzern künftig ermöglichen zu wollen, die Chat-Verlaufsfunktion zu deaktivieren. Das wird in Teilen als Reaktion auf die zahlreichen Stimmen gesehen, die in Bezug auf die Sicherheit der an ChatGPT übermittelten Daten Alarm schlagen.

Deaktivieren die Nutzer die Chat-History in ChatGPT, sollen diese Unterhaltungen nicht mehr dazu verwendet werden, um die zugrundeliegenden Sprachmodelle zu trainieren, und auch nicht mehr im Verlauf angezeigt werden. Dennoch werden die Daten allerdings weiterhin auf Servern von OpenAI gespeichert - nach Angaben des Unternehmens aber lediglich um Verdachtsfälle von Missbrauch überprüfen zu können. Nach 30 Tagen würden die Daten zudem gelöscht, hieß es.

"Wir hoffen, dass das im Vergleich zu unserem bisherigen Opt-Out-Prozess den Nutzern erleichtert, Ihre Daten zu managen", schreibt das Unternehmen im offiziellen Blogpost zur Ankündigung. Darüber hinaus hat OpenAI ein neues Abomodell für Business-Nutzer angekündigt. Bei ChatGPT Business sollen die API-Datennutzungsrichtlinien des Unternehmens zur Anwendung kommen: Benutzerdaten werden so standardmäßig nicht mehr für das Modelltraining verwendet. Das ChatGPT-Business-Abo soll "in den kommenden Monaten" auf den Markt kommen.

"Datenschutz eher nachträglicher Gedanke als Kernkomponente"

Der Move von OpenAI folgt auf die Ankündigung der EU-Kommission, ChatGPT wegen möglicher Verstöße gegen die europäische Datenschutzgrundverordnung unter die Lupe nehmen zu wollen. Italien hatte bereits im März wegen Datenschutzverstößen die Nutzung des KI-Chatbots grundsätzlich untersagt und fordert von den Verantwortlichen mehr Transparenz im Umgang mit Nutzerdaten.

Für Nader Henein, Vice President und Analyst bei Gartner, ist es keine Überraschung, dass Datenschutz und Data Governance für OpenAI zu Beginn nicht unbedingt ganz oben auf der Prioritätsliste standen: "Für ein Startup, das darauf fokussiert ist, ein funktionierendes Produkt auf den Markt zu bringen, ist das nicht ungewöhnlich. Sie bauen quasi ein Flugzeug während es bereits fliegt. Ich kann mir gut vorstellen, dass sich bei Microsoft in Bezug auf Copilot viele Entwickler darum bemühen, das OpenAI-Sprachmodell mit Governance und Enterprise Support auszustatten."

Die neuen Datenschutz-Kontrollfunktionen seien jedoch ein erster Schritt in die richtige Richtung, meint der Analyst und fügt hinzu: "Das verdeutlicht aber auch, dass Datenschutz bei den Designentscheidungen, die weiten Teilen von ChatGPT zugrundeliegen, eher ein nachträglicher Gedanke als eine Kernkomponente war. Ich zweifle nicht daran, dass OpenAI hart daran arbeitet, aber es stellt sich dabei die Frage, wie viel man im Nachhinein noch tun kann." (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.