ChatGPT illegal trainiert?

US-Autoren verklagen OpenAI

22.09.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
John Grisham, George R.R. Martin und andere Bestsellerautoren aus den USA werfen OpenAI vor, ChatGPT illegal mit ihren geschützten Werken trainiert zu haben.
Fantasy-Starautor George R.R. Martin will verhindern, dass KI-Algorithmen mit seinen Game-of-Thrones-Bestsellern trainiert werden.
Fantasy-Starautor George R.R. Martin will verhindern, dass KI-Algorithmen mit seinen Game-of-Thrones-Bestsellern trainiert werden.
Foto: Larry Cooper Shutterstock - shutterstock.com

Zahlreiche Bestsellerautoren wollen gegen ChatGPT-Entwickler OpenAI klagen, darunter der Fantasy-Starautor George R.R. Martin, außerdem John Grisham, Jodi Picoult, Jonathan Franzen und George Sanders. Laut einem Bericht der Washington Post hat eine US-amerikanische Autorenvereinigung stellvertretend für viele tausend Schriftstellerinnen und Schriftsteller eine entsprechende Klage eingereicht.

Die Autoren werfen KI-Entwicklern wie OpenAI vor, ihre Large Language Models (LLMs) unrechtmäßig mit urheberrechtlich geschützten Werken zu trainieren. "Der Kern dieser Algorithmen besteht aus systematischem Diebstahl in großem Maßstab", heißt es in der Klageschrift. Die Schriftsteller fordern Schadensersatz für entgangene Lizenzeinnahmen und verlangen, dass KI-Entwickler ihre Algorithmen nicht mehr mit ihren Werken trainieren dürfen.

Das Verfahren dürfte die Debatte rund um Urheberrechtsfragen bei der Entwicklung von Generative-AI-Anwendungen weiter anfachen. Große Sprachmodelle werden mit unterschiedlichsten Daten aus dem World Wide Web trainiert. Woher diese Informationen genau stammen, legen Entwickler wie Google, Microsoft oder OpenAI nicht explizit offen. Kritiker mutmaßen, dass illegal kopierte Werke und Texte aus Internet-Foren genauso zu Trainingszwecken herangezogen werden wie frei verfügbare Daten aus dem Netz.

Künstler wollen ihre Werke schützen

Es ist nicht die erste Klage gegen die Entwickler der neuen KI-Generation. Anfang des Jahres hatte die bekannte Bildagentur Getty Images Klage gegen Stability AI eingereicht. Deren Text-zu-Bild-Generator Stable Diffusion soll mit Millionen von urheberechtlich geschützten Bildern und deren Metadaten rechtswidrig trainiert worden sein. In einigen der von der KI kreierten Bildern sollen sogar Wasserzeichen der Bildagentur aufgetaucht sein.

Bereits im Herbst 2022 hatte Matthew Butterick, Rechtsanwalt und Entwickler aus Los Angeles, eine Klage gegen Microsoft, Github und OpenAI auf den Weg gebracht. Sein Vorwurf: KI-Tools dieser Hersteller, vor allem Microsofts Copilot, sollen Urheberrechte von Entwicklern verletzen. Das Werkzeug verfolgt und analysiert das Coding und schlägt an passenden Stellen alternative Codeblöcke vor, die Entwickler dann direkt übernehmen können. Die Kläger monieren die Art und Weise wie Copilot funktioniert und lernt. Das Tool entwickelt seine Fähigkeiten selbstlernend, indem es Milliarden Zeilen von Softwarecode im Internet, insbesondere auf GitHub, analysiert. Damit würden jedoch die Rechte der Programmierer verletzt, die den übernommenen Code entwickelt haben.

OpenAI pocht auf "Fair Use"

Die beschuldigten KI-Entwickler wollen sich laut dem Bericht der Washington Post nicht zu den konkreten Klagen äußern. Sie plädieren stattdessen auf den sogenannten "fair use". Das Training von LLMs auf öffentlich frei verfügbaren Daten im Internet entspreche einer fairen Nutzung. Schließlich würden sich die KI-Kreationen deutlich von den Werken menschlicher Künstler unterscheiden. Doch dem widersprechen viele Künstler. Die KI-Werke würden ihren eigenen Schöpfungen oft frappierend ähnlich sehen, so ihr Vorwurf.

Diese Fragen dürften Gerichte in aller Welt in den kommenden Monaten und Jahren noch viel beschäftigen. Rechtliche Leitplanken für KI-Entwicklung und -Einsatz sind zwar in den USA wie auch in Europa (AI Act) geplant, aber noch lange nicht in konkrete Gesetze umgesetzt.