AI Act

So will die EU Künstliche Intelligenz regulieren

15.06.2023
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Das EU-Parlament hat ein Gesetz zur Regulierung künstlicher Intelligenz (KI) vorgeschlagen. Der AI Act verbietet „hochriskante Systeme“ und bringt Auflagen, die sich in ihrer Strenge an den Risiken orientieren sollen.
Können sich KI-Systeme verselbständigen? Das EU-Parlament hofft mit seinem AI Act weltweit ein klares Zeichen zu setzen.
Können sich KI-Systeme verselbständigen? Das EU-Parlament hofft mit seinem AI Act weltweit ein klares Zeichen zu setzen.
Foto: Ole.CNX - shutterstock.com

Künftig werden KI-Systeme, die die Gesundheit, die Sicherheit und die Grundrechte von Menschen oder die Umwelt insgesamt gefährden könnten, als Hochrisiko-Anwendungen angesehen. Das gilt auch für Systeme, mit denen Wahlergebnisse beeinflusst werden können oder die geeignet sind, Empfehlungssysteme in Social-Media-Plattformen (mit mehr als 45 Millionen Nutzern) zu manipulieren.

In dem am 14. Juni 2023 unterbreiteten Gesetzvorschlag (AI Act) spricht sich die Mehrheit im EU-Parlament (499 Ja-, 28 Nein-Stimmen und 93 Enthaltungen) auch gegen "biometrische Realtime-Fernüberwachung" im öffentlichen Raum aus. Das ZDF zitiert die deutsche EU-Abgeordnete Svenja Hahn (FDP) mit den Worten: "Gesichtserkennung zur Überwachung kennen wir aus China, diese Anwendung von Technologie hat in einer liberalen Demokratie nichts zu suchen." Das Sammeln von Überwachungsbildern, Social Scoring und das Auslesen des Internets zur Entwicklung von Datenbanken für die Gesichtserkennung wären damit verboten. (Siehe auch: AI Act zwischen Innovation und Verbraucherschutz)

Keine KI für prädiktive Verbrechensbekämpfung

Der Entwurf will auch so genannte prädiktive Polizeisysteme, mit denen illegale Aktivitäten vorhergesagt werden können, nicht zulassen. Solche Systeme nehmen das frühere Verhalten von Straftätern als Grundlage, ebenso personenbezogene und andere Daten aus verschiedenen Quellen. Das EU-Parlament lehnt solch ein Vorgehen der Ermittlungsbehörden strikt ab.

Der Gesetzesentwurf regelt ferner, wie Unternehmen KI-Modelle mit großen Datensätzen trainieren und einsetzen dürfen. In einigen Fällen sollen Anwender verpflichtet werden offenzulegen, wenn bestimmte Inhalte mithilfe von KI erstellt worden sind. Wird das Gesetz umgesetzt, müssen die Anbieter ihre KI-Modelle zudem so gestalten, dass sich damit keine illegalen Inhalte erstellen lassen.

Sie hätten außerdem die Pflicht zu veröffentlichen, wenn sie urheberrechtlich geschützte Daten zum Trainieren ihrer Modelle verwenden. Dann hätten Verleger und Urheber von Inhalten die Chance, eine Gewinnbeteiligung einzufordern, wenn ihre Werke als Ausgangsmaterial für KI-generierte Inhalte von Tools wie ChatGPT verwendet würden. Nach dem derzeitigen Gesetzentwurf könnten bei Verstößen Geldstrafen von bis zu sechs oder sieben Prozent des Gesamtumsatzes eines Unternehmens verhängt werden.

Die Verhandlungen beginnen erst

Die jetzt verabschiedete Gesetzesversion bildet die Verhandlungsposition des Gremiums, wenn im nächsten Schritt Gespräche zwischen Parlamentsvertretern, den EU-Mitgliedstaaten und der Europäischen Kommission (Trilog) anstehen, um das Gesetz in seiner endgültigen Form festzulegen. Die Verhandlungen dazu sollen sofort beginnen, eine Einigung soll noch vor dem Jahresende erzielt werden.

Technologieunternehmen und ihre Lobbyisten sind derweil bemüht, die Regulierungsbemühungen aufzuweichen. Staatliche Vorschriften sollten sich ihrer Ansicht nach nur auf spezifische Hochrisiko-Anwendungen konzentrieren. Zu viele Beschränkungen könnten dem europäischen Wirtschaftsstandort schaden und Innovation behindern, warnen die Verbände.

So heißt es beispielsweise bei der Computer & Communications Industry Association, dass einige der vom Parlament unterstützten Bestimmungen die Gefahr vergrößerten, zu strenge Regeln für relativ risikoarme KI-Anwendungen zu schaffen. Andererseits haben diverse Verbraucherschutz-Organisationen erklärt, die vom Parlament vorgeschlagenen Verbote seien notwendig, um die Grundrechte der Menschen zu schützen. Auch in der IT-Branche gibt es viele Stimmen, die sich für strenge Regeln aussprechen - so, wie sie das EU-Parlament formuliert hat. Der Wettlauf der Unternehmen um die Einführung fortschrittlicher KI-Tools berge hohe Risiken, hier müsse vorsichtig eingebremst werden.

"KI könnte die Menschheit auslöschen"

Anfang des Jahres hatte eine Gruppe von KI-Forschern und Tech-Führungskräften, darunter Elon Musk, einen offenen Brief verfasst, in dem ein sechsmonatiges Moratorium für die Entwicklung der nächsten Generation von KI-Tools vorgeschlagen wurde. Regulierungsbehörden und Industrie bräuchten diese Zeit, um Sicherheitsstandards festzulegen, hieß es. Und erst im vergangenen Monat erklärte eine Gruppe von Forschern, dass die KI-Risiken weltweit eingedämmt werden müssten, sonst könne das Aussterben der Menschheit die Folge sein.

Ähnlich wie schon bei der Datenschutz-Grundverordnung hofft die EU, dass die vorgeschlagene Gesetzgebung einen weltweiten Orientierungspunkt für andere Rechtssysteme und für IT-Unternehmen setzen kann. Tatsächlich hat die rasante Entwicklung der KI zuletzt Regierungen rund um den Globus dazu veranlasst, neue Vorschriften für leistungsstarke KI-Tools zu erlassen. So schlug Chinas oberste Internet-Regulierungsbehörde im April einen Entwurf für Regeln vor. Auch die US-Regierung prüft, welche Kontrollen geeignet sein könnten.