Verstößt OpenAI-KI gegen die DSGVO?

Warum Italien ChatGPT verbietet

03.04.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
OpenAI hat Ärger mit den italienischen Behörden. Für das Training von ChatGPT seien unerlaubt persönliche Daten verwendet worden, lautet der Vorwurf.
Wenn es den italienischen Behörden gelingt, OpenAI Verstöße gegen die DSGVO nachzuweisen, droht ein hohes Bußgeld.
Wenn es den italienischen Behörden gelingt, OpenAI Verstöße gegen die DSGVO nachzuweisen, droht ein hohes Bußgeld.
Foto: Satur - shutterstock.com

Auf Betreiben der italienischen Datenschutzbehörden hat die Staatsanwaltschaft OpenAI die Nutzung von Daten italienischer Bürgerinnen und Bürger für das Training von KI-Modellen untersagt. Daraufhin sperrte das kalifornische KI-Startup in Italien kurzfristig den Zugang zu ChatGPT. Außerdem haben die italienischen Behörden angekündigt, den Sachverhalt rund um OpenAI und ChatGPT weiter untersuchen zu wollen.

Konkret wirft die Staatsanwaltschaft dem KI-Unternehmen vor, dass Personen, deren Daten gesammelt und für das Trainieren der KI-Algorithmen verwendet werden, nicht darüber informiert würden. "Noch wichtiger ist, dass es offenbar keine Rechtsgrundlage für die massive Sammlung und Verarbeitung personenbezogener Daten gibt", heißt es in einer Mitteilung der Garante per la Protezione dei Dati Personali.

Darüber hinaus bemängelt die italienische Staatsanwaltschaft das Fehlen von Jugendschutzmechanismen. Bei der Nutzung von ChatGPT finde keine Altersüberprüfung statt, obwohl sich der Dienst laut den Nutzungsbedingungen von OpenAI an Nutzer ab 13 Jahren richte. Es gebe keine Filter, die sicherstellten, dass sich Kinder unter 13 Jahren von dem Dienst fernhielten. Sie könnten dort Informationen erhalten, die ihrem Alter und ihrem Kenntnisstand nicht angemessen seien.

Auf die Schliche gekommen sind die Datenschützer aus Rom dem Unternehmen durch eine am 20. März gemeldete Datenpanne. Diese betraf offenbar Unterhaltungen der ChatGPT-Nutzer und Informationen über die Zahlungen der Abonnenten an den Dienst. Daraufhin durchgeführte Tests hätten bestätigt, dass die von ChatGPT zur Verfügung gestellten Informationen nicht immer mit den tatsächlichen Gegebenheiten übereinstimmten. Daraus habe man Rückschlüsse darauf ziehen können, dass der KI-Dienst personenbezogene Daten verarbeite.

Italienische Behörden fordern mehr Transparenz

Die italienische Staatsanwaltschaft fordert nun von OpenAI Transparenz darüber, wie Daten gesammelt und verarbeitet werden. Das Unternehmen hat 20 Tage Zeit, der Anordnung nachzukommen und Maßnahmen gegen mögliche Datenschutzverletzungen einzuleiten. Andernfalls kann eine Geldstrafe in Höhe von bis zu 20 Millionen Euro oder vier Prozent des gesamten weltweiten Jahresumsatzes verhängt werden. So verlangen es die Statuten der EU-Datenschutzgrundverordnung (EU-DSGVO).

Was ist ChatGPT?

Das Vorgehen der italienischen Datenschützer könnte weitreichende Folgen für OpenAI haben. Behörden in anderen EU-Ländern verfolgen aufmerksam, was derzeit in Italien passiert. Die deutsche Datenschutzbehörde stützt das Vorgehen der italienischen Kollegen, schreibt der "Spiegel". Trainingsdaten einer KI würden der DSGVO unterliegen, wenn es sich dabei um personenbezogene Daten handelt, zitiert das Magazin eine Sprecherin der Behörde.

OpenAi droht Ärger

Hierzulande ist man offenbar sehr an den Ergebnissen der italienischen Kollegen interessiert. Man habe die Kollegen aus Italien bereits um weiterführende Informationen zur Sperrung von ChatGPT gebeten und werde diese dann an die zuständigen Landesdatenschutzaufsichtsbehörden und Landesmedienanstalten weitergeben, erklärte die Behördensprecherin dem Spiegel zufolge.

OpenAI könnte dann gewaltiger Ärger ins Haus stehen. Können die Italiener dem KI-Unternehmen nachweisen, dass es gegen den in Europa geltenden Datenschutz verstößt, müssten die Behörden auch in anderen EU-Ländern gegen ChatGPT und Co. vorgehen.