Upload-Filter in der EU

Wird KI zur Pflicht?

17.04.2020
Von   IDG ExpertenNetzwerk
Mareike Christine Gehrmann ist Salary Partner bei der Wirtschaftskanzlei Taylor Wessing und Fachanwältin für Informationstechnologierecht. Seit 2015 ist sie Mitglied im IDG-Expertennetzwerk.
Die EU-Kommission und der Europäische Rat versuchen gegenüber dem EU-Parlament die Zulässigkeit von automatischen Upload-Filtern durchsetzen. Doch um welchen Preis?
Wird mit dem Digital Services Act der Einsatz von KI-basierten Filtern gegen jegliche Art illegaler Inhalte verpflichtend?
Wird mit dem Digital Services Act der Einsatz von KI-basierten Filtern gegen jegliche Art illegaler Inhalte verpflichtend?
Foto: Realchemyst - shutterstock.com

Am 19.02.2020 stellte die EU-Kommission ihre neue EU-Digitalstrategie vor, die auf der einen Seite einen Rahmen für Künstliche Intelligenz (KI) und auf der anderen Seite einen Plan für die stärkere Nutzung, insbesondere von Industriedaten, beinhalten soll. Mit der EU-Digitalstrategie veröffentlichte die EU-Kommission unter anderem eine Mitteilung mit dem Titel "Gestaltung der digitalen Zukunft". Mit dieser soll die Vision eines Rahmens bezüglich der Entwicklung und dem Betrieb von digitalen Technologien geschaffen werden. Die Mitteilung bezeichnet Schlüsselmaßnahmen, die in den nächsten fünf Jahren erfüllt werden sollen und fasst diese unter die drei folgenden Ziele:

  • eine Technologie, die für die Menschen arbeitet,

  • eine faire und wettbewerbsfähige digitale Wirtschaft sowie

  • eine offene, demokratische und nachhaltige Gesellschaft.

Als Schlüsselmaßnahme für das Ziel einer offenen, demokratischen und nachhaltigen Gesellschaft wird unter anderem die Einführung des Digital Services Act für das 4. Quartal 2020 angekündigt, mit welchem neue überarbeitete Vorschriften zur Vertiefung des Binnenmarkts für digitale Dienste geschaffen werden sollen. Der Digital Services Act soll die eCommerce-Richtlinie ablösen, welche bislang die Grundlage für das deutsche Telemediengesetz bildet.

Als übergreifendes Ziel des Digital Services Act wird "Die Vollendung des digitalen Binnenmarkts" genannt, welche durch die Verbesserung der Haftungs- und Sicherheitsvorschriften für digitale Plattformen, Dienste und Produkte erreicht werden soll. Zu diesem Zweck sollen unter anderem die Pflichten von Online-Plattformen und Informationsdienstleistern ausgeweitet und harmonisiert werden (Gestaltung der digitalen Zukunft Europas, S. 14).

Lesetipp: Gaia-X - Stärken und Schwächen der deutschen Cloud-Initiative

Was das genau bedeutet, wird in der Mitteilung nicht näher beschrieben. Es wird lediglich erklärt, dass "die für digitale Dienste in der gesamten EU geltenden Vorschriften gestärkt und modernisiert werden (müssen), wobei die Pflichten von Online-Plattformen zu präzisieren sind" sowie dass "die Verbreitung illegaler Inhalte online genauso wirksam bekämpft werden (muss) wie offline" (Gestaltung der digitalen Zukunft Europas, S. 12)

Upload-Filter-Pflicht - wie könnte das aussehen?

Bislang sind die Online-Plattform-Betreiber dazu verpflichtet, illegale Inhalte von ihren Plattformen zu entfernen, soweit sie davon Kenntnis erlangt haben oder aufgrund eines Hinweises Kenntnis davon haben müssten (ErwG 8 der Empfehlung (EU) 2018/334 der Kommission vom 01.03.2018 für wirksame Maßnahmen im Umgang mit illegalen Online-Inhalten i.V.m. Art. 14 RL 2000/31/EG).
Die Online-Plattform-Betreiber sind demnach bisher allerdings nicht dazu verpflichtet, ihre Plattform selbst aktiv nach illegalen Inhalten zu durchsuchen. Dies könnte sich Ende des Jahres durch die Einführung des Digital Services Act ändern.

Da zurzeit noch unklar ist, in welcher Form die Pflichten von Online-Plattformen präzisiert werden sollen, könnte sich die EU-Kommission ein Beispiel an den Verhandlungen zu der Verordnung zur Bekämpfung terroristischer Inhalte im Internet nehmen.

Im Rahmen dieser Verhandlungen steht zur Sprache, dass Online-Plattformen in Zukunft nicht nur bekannte terroristische Inhalte automatisch sperren müssen, wie es bisher der Fall war, sondern darüber hinaus verlässliche technische Werkzeuge zur Erkennung neuer terroristischer Inhalte einsetzen und entwickeln sollen. So ein technisches Werkzeug könnte zum Beispiel ein Upload-Filter sein, der sich mithilfe von KI eigenständig weiterentwickelt.

Die EU-Kommission und der Europäische Rat wollen die Zulässigkeit eines solchen automatischen Upload-Filters gegenüber dem EU-Parlament durchsetzen, das sich bisher noch dagegen sträubt. Sollte der Vorschlag der Kommission erfolgreich sein, könnte dieses Ergebnis als Vorlage für den Digital Services Act dienen, sodass möglicherweise ein Upload-Filter bezüglich illegaler Uploads jeglicher Art verpflichtend werden könnte.

Grundsätzlich verspricht ein KI-basierter Filter eine schnelle, automatische Lösung für das Problem illegaler Inhalte im Netz. Allerdings muss beachtet werden, dass selbst ein extrem guter Upload-Filter mit einer extrem hohen Trefferrate von 99 Prozent trotzdem noch mehr legale als illegale Inhalte zensieren würde, weil illegales wie auch terroristisches Material im Vergleich zum Gesamtmaterial extrem selten ist. Der Zensur würden daher höchstwahrscheinlich auch nachweislich völlig legale Inhalte unterfallen. Grund dafür ist, dass KI zwar aufgrund eines selbstständigen Lernprozesses große Datenmengen schnell auswerten kann und dabei Gemeinsamkeiten und Unterschiede identifizieren kann. Allerdings fehlt der KI im Gegensatz zum Menschen die Wahrnehmung subjektiver Aspekte. Darunter fällt unter anderem die Intention des Inhalts oder der Kontext des Uploads, der unter Umständen entscheidend dafür ist, ob es sich um einen illegalen Inhalt oder lediglich um eine neutrale Berichterstattung oder Dokumentation handelt.

Lesetipp: Was Sie zum Thema KI wissen müssen

Verpflichtender KI-Filter - mögliche Folgen

Durch die Zensur von legalen Online-Inhalten mittels eines verpflichtenden KI-basierten Upload-Filters würden die Grundrechte derjenigen verletzt, welche die legalen Inhalte online gestellt haben. Verletzt werden könnten unter Umständen die folgenden Rechte:

Trotz dieser einschneidenden Folgen, die mit der verpflichtenden Einführung eine Upload-Filters einhergehen würden, ist zu beachten, dass dessen Einführung ein hohes Ziel verfolgen würde - die Einhaltung der Rechtsordnung, die die Nutzer vor illegalen Inhalten im Netz schützen soll. Für das Erreichen dieses Ziels muss eine Lösung gefunden werden, auch wenn diese Lösung nicht in einem Upload-Filter besteht. Unter Umständen ist eine andere Maßnahme ausreichend, die darin bestehen könnte, dem Online-Plattform-Betreiber selbst zu überlassen, in welcher Form der Upload der Inhalte vorab kontrolliert wird.

Da die Mitteilung der EU-Kommission sehr vage und offen ist, ist zu erwarten, dass die EU-Kommission in den kommenden Monaten ihr Vorhaben bezüglich des Digital Services Act näher erläutern wird. Möglicherweise ergeben sich nach den Verhandlungen zu der Verordnung zur Bekämpfung terroristischer Inhalte im Internet neue Erkenntnisse, die für den Digital Services Act von Bedeutung sein könnten. Es bleibt daher abzuwarten, was für Überlegungen die EU-Kommission gemeinsam mit dem Europäische Rat und dem EU-Parlament anstellen wird. (bw/fm)