Regelwerk für KI-Einsatz

Task Force der EU soll ChatGPT prüfen

18.04.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
KI-Tools wie ChatGPT setzen die Regelmacher in Straßburg und Brüssel unter Druck. Die Vorschriften könnten schärfer ausfallen als ursprünglich geplant.
Ein funktionierendes Regelwerk für den KI-Einsatz zusammenzustellen, ist keine leichte Aufgabe und dürfte die verschiedenen EU-Gremien noch eine Weile in Atem halten.
Ein funktionierendes Regelwerk für den KI-Einsatz zusammenzustellen, ist keine leichte Aufgabe und dürfte die verschiedenen EU-Gremien noch eine Weile in Atem halten.
Foto: StunningArt - shutterstock.com

Das European Data Protection Board (EDPB) will eine Task Force einsetzen, um KI-Tools wie ChatGPT genauer unter die Lupe zu nehmen. Beobachter werten diesen Schritt als Indiz dafür, dass die europäischen Datenschützer schärfere Regeln für den KI-Einsatz aufstellen könnten.

Den Anfang hatten vor wenigen Wochen die italienischen Datenschutzbehörden gemacht. Da ChatGPT-Betreiber OpenAI keine funktionierende Altersverifikation für die Nutzung nachweisen konnte und die hinter dem KI-Tool steckenden Modelle mit Daten italienischer Bürgerinnen und Bürger trainiert wurde, ohne dass diese davon Kenntnis hatten, verboten die Italiener ChatGPT kurzerhand und setzten dem Betreiber eine Frist bis Ende April, um Pläne für Nachbesserungen vorzulegen.

ChatGPT drohen Verbote in ganz Europa

Andere Länder in Europa könnten mit vergleichbaren Maßnahmen nachziehen. In Deutschland ließ der oberste Datenschützer Ulrich Kelber durchblicken, dass seine Behörde die Entwicklungen in Italien genau beobachte. Eine Taskforce KI der Datenschutzbeauftragten aus den Ländern habe sich der Sache angenommen, hieß es. Sollten die Kollegen im Süden zu dem Schluss kommen, das ChatGPT gegen die EU-Datenschutzverordnung (EU-DSGVO) verstoße, könnte auch hierzulande ein Verbot drohen. Auch die Datenschützer in Spanien haben ein vorläufiges Ermittlungsverfahren angekündigt, um die Praktiken von OpenAI tiefer ausleuchten zu wollen.

Millionenstrafen: Deutschlands schlimmste DSGVO-Sünder

Die Task Force der EDPB soll die Zusammenarbeit und den Informationsaustausch zwischen den verschiedenen Datenschutzbehörden fördern. Die Mitgliedsstaaten hofften, ihre politischen Positionen anzugleichen, zitiert die Nachrichtenagentur Reuters einen Insider bei einer nationalen Aufsichtsbehörde, der nicht genannt werden möchte. Dies dürfte allerdings einige Zeit dauern. Es gehe dabei nicht darum, ChatGPT-Besitzer OpenAI zu bestrafen oder Regeln zu erlassen, sondern vielmehr allgemeine Richtlinien zu schaffen, die den KI-Einsatz transparenter machten.

Verletzen KI-Modelle Urheberrechte? Künstler zerren Entwickler vor den Kadi

Derweil arbeitet die EU zurzeit an einem neuen Rechtsrahmen, "um den Herausforderungen und Chancen der KI wirksam zu begegnen und damit auch das Vertrauen in KI-Technologien zu stärken". Es gehe darum, potenzielle Auswirkungen auf einzelne Personen, Gesellschaft und Wirtschaft bestmöglich zu regulieren und ein wirtschaftliches Umfeld zu schaffen, in dem Forschung, Innovation und Unternehmertum florieren könnten. Ziel der Europäischen Kommission sei es, private und öffentliche Investitionen in KI-Technologien auf jährlich 20 Milliarden Euro steigern.

Selbstverpflichtung der Anbieter reicht nicht

Doch ein solches KI-Regelwerk aufzustellen scheint komplex. Die Arbeiten daran laufen seit Jahren und scheinen jetzt durch die jüngsten rasanten Entwicklungen schon überholt zu sein, bevor sie überhaupt in Kraft gesetzt werden. Als Reaktion darauf könnten die bis jetzt geplanten Regeln noch einmal verschärft werden. Einem Bericht der Financial Times zufolge will das Europäische Parlament die weltweit schärfsten Vorschriften für den KI-Einsatz erlassen. "Die Sorgfaltspflicht der Unternehmen allein reicht nicht aus", zitiert das Blatt Dragos Tudorache, Mitglied des Europäischen Parlaments und Mitverhandlungsführer.

Demzufolge sei geplant, die KI-Entwickler zu verpflichten offenzulegen, welche Daten sie für das Training ihrer Algorithmen und Modelle verwenden. Gesichtserkennung mittels KI im öffentlichen Raum soll ganz verboten werden, was zu heftigen Diskussionen mit Polizeibehörden führen dürfte. Zu guter Letzt sollen die KI-Hersteller für den Missbrauch ihrer Lösungen haftbar gemacht werden können und nicht die Anwender.

Bitkom: Verbote gehen in die völlig falsche Richtung

Bis sich die EU-Gremien in Straßburg und Brüssel einigen, wird es allerdings noch dauern. Liegt ein Entwurf des EU-Parlaments vor, geht dieser in die weitere Abstimmung mit der EU-Kommission, den einzelnen Mitgliedsstaaten sowie den Europaabgeordneten. Aus diesen Verhandlungen soll ein endgültiger Gesetzesentwurf resultieren. Ziel sei es, dieses Gesetz noch in der laufenden Legislaturperiode zu verabschieden, die bis 2024 dauert.

Bitkom-Präsident Achim Berg fordert ein praxistaugliches Regelwerk, das die KI-Entwicklung nicht ausbremst.
Bitkom-Präsident Achim Berg fordert ein praxistaugliches Regelwerk, das die KI-Entwicklung nicht ausbremst.
Foto: Bitkom

Derweil warnen Vertreter der IT-Branche vor zu strengen Regeln und Verboten. "Wir müssen die technologische Entwicklung bei KI in Deutschland vorantreiben und ein praxistaugliches Regelwerk für ihre Anwendung in Europa und weltweit entwickeln", sagte kürzlich Bitkom-Präsident Achim Berg. "Die aktuelle Verbotsdiskussion, wie sie durch den Bundesdatenschutzbeauftragten angestoßen wird, geht in die völlig falsche Richtung."