Was ist der Digital Services Act?

28.08.2023
Von 
Heinrich Vaske ist Editorial Director a.D. von COMPUTERWOCHE, CIO und CSO.
Seit dem 25. August 2023 können sich Konsumenten besser gegen Desinformation und Fake-News im Netz schützen. Der Digital Services Act (DSA) ist EU-weit in Kraft.
Der Digital Services Act (DSA) soll Hassrede und Fake-News im Internet verhindern und die Verbraucher besser schützen.
Der Digital Services Act (DSA) soll Hassrede und Fake-News im Internet verhindern und die Verbraucher besser schützen.
Foto: Cristian Storto - shutterstock.com

Am 25. August ist EU-weit die Verordnung Digital Services Act (DSA) in Kraft getreten, die hierzulande durch das "Gesetz über Digitale Dienste" (DDG) umgesetzt wird. Allerdings gilt das bereits im November 2022 beschlossene Gesetz erst einmal nur für große Anbieter wie Google, Facebook, Amazon & Co. Vom 17. Februar 2024 an reguliert es dann aber alle Unternehmen und Organisationen, die digitale Dienste anbieten.

Damit sehen sich Anbieter von Plattformen und Online-Marktplätzen schon bald vielen neuen Pflichten rund um den Verbraucherschutz gegenüber. Erfüllen sie diese nicht, drohen erhebliche Bußgelder und Schadensersatzforderungen. Im schlimmsten Fall müssen Plattformbetreiber bis zu sechs Prozent ihres Jahresumsatzes abschreiben. Es ist also angebracht, schnellstmöglich neue Compliance-Prozesse zu etablieren. In unserer FAQ fassen wir für COMPUTERWOCHE-Leserinnen und -Leser das Wichtigste zusammen.

Was ist das Digitale-Dienste-Gesetz (DDG)?

Seit dem 25. August 2023 müssen zunächst nur die 17 größten Online-Plattformen sowie die beiden führenden Suchmaschinen weitreichenden Verpflichtungen zum Schutz der Konsumenten nachkommen. Unter anderem sind sie verpflichtet, jährlich die mit der Nutzung ihrer Systeme zusammenhängenden Risiken zu bewerten und die Ergebnisse an Aufsichtsbehörden zu übermitteln. Ebenso müssen sie ein unabhängiges Compliance-System einrichten.

Von der Regelung betroffen sind vorerst folgende Internet-Plattformen mit monatlich mindestens 45 Millionen aktiven Nutzern:

  • Alibaba AliExpress,

  • Amazon Store,

  • Apple AppStore,

  • Booking.com,

  • Facebook,

  • Google Play,

  • Google Maps,

  • Google Shopping,

  • Instagram,

  • LinkedIn,

  • Pinterest,

  • Snapchat,

  • TikTok,

  • Twitter/X,

  • Wikipedia,

  • YouTube und

  • Zalando sowie die Suchmaschinen

  • Microsoft Bing und

  • Google Search.

Die Bestimmungen sollen die Handlungsfähigkeit der Verbraucher - nicht zuletzt die von Minderjährigen - stärken und schützen. Deshalb sind die Anbieter dazu verpflichtet, entstehende Risiken systematisch zu bewerten, zu senken und "robuste Instrumente zur Moderation von Inhalten bereitzustellen".

Was wird aus Telemediengesetz und NetzDG?

Mit der Einführung des DDG werden das Telemediengesetz und das Netzwerksdurchsetzungsgesetz (NetzDG) außer Kraft gesetzt. Das neue Gesetz enthält 31 Paragraphen und regelt beispielsweise das Beschwerdeverfahren neu: Bisher mussten soziale Netzwerke rechtswidrige Inhalte innerhalb von 24 Stunden löschen, künftig sind sie nur noch dazu verpflichtet, "zeitnah, sorgfältig, frei von Willkür und objektiv über die gemeldeten Informationen" zu entscheiden.

Wo ist die Anlaufstelle bei Beschwerden?

Die Bundesnetzagentur - und dort die "Koordinierungsstelle für digitale Dienste" - ist die zentrale Ansprechstelle für Bürger und Unternehmen. Sie soll mit verschiedenen Behörden rund um Daten- und Jugendschutz zusammenarbeiten. Die Behörde wird erst einmal mit 40,66 neuen Stellen ausgestattet und erhält einen zusätzlichen Etat von 5,6 Millionen Euro.

Verstöße, wie etwa das zu späte Löschen von unangemessenen Inhalten, sind bei der Koordinierungsstelle zu melden. Um besonders schwerwiegende Straftaten, die eine Gefahr für Leib und Leben von Personen darstellen, soll sich zudem das Bundeskriminalamt (BKA) kümmern. Bislang war das Bundesjustizministerium zuständig, wenn es galt, die Einhaltung des NetzDG zu kontrollieren.

Die vielen verschiedenen Zuständigkeiten haben bereits zu Kritik geführt. So warnt der Verbraucherzentrale Bundesverband (vzbz) vor einem "Behörden-Pingpong auf der Suche nach dem richtigen Ansprechpartner", wenn der Bundesnetzagentur auch die Meldestelle für strafbare Inhalte beim BKA, die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ), der Bundesdatenschutzbeauftragte und gegebenfalls auch noch das Bundesjustizministerium und die Landesmedienanstalten zumindest teilweise für die Durchsetzung des DDG zuständig sind.

Die sozialdemokratische EU-Parlamentsabgeordnete Christel Schaldemose aus Dänemark zieht die Fäden hinter dem Digital Services Act (DSA).
Die sozialdemokratische EU-Parlamentsabgeordnete Christel Schaldemose aus Dänemark zieht die Fäden hinter dem Digital Services Act (DSA).
Foto: martinbertrand.fr - shutterstock.com

Was bedeutet: EU will "Handlungsfähigkeit der Verbraucher stärken"?

  • Anwender müssen darüber informiert werden, wie es dazu kommt, dass ihnen ganz bestimmte Inhalte empfohlen werden. Außerdem haben sie das Recht, Empfehlungssysteme abzulehnen, wenn diese auf Benutzerprofilen basieren.

  • Illegale Inhalte müssen schnell und einfach gemeldet werden können. Die Plattformen haben die Pflicht, solche Beanstandungen zu verfolgen und zu reagieren.

  • Die Internet-Konzerne müssen Werbung kennzeichnen und Anwender informieren, von wem sie stammt. Zudem darf Werbung nicht auf Grundlage politischer Meinungen, ethnischer Herkunft, sexueller Ausrichtung oder sonstiger sensibler Daten zugespielt werden.

  • Die Plattformbetreiber sind verpflichtet, ihre Allgemeinen Geschäftsbedingungen (AGBs) in einer leicht verständlichen Zusammenfassung bereitzustellen - in allen Sprachen der EU, also auch in Deutsch.

Wie sollen Minderjährige besser geschützt werden?

Damit Privatsphäre und Sicherheit von Kindern und Jugendlichen gut geschützt werden, müssen die Plattformbetreiber immer wieder Risikobewertungen vornehmen und veröffentlichen. Darin geht es vor allem um mögliche negative Auswirkungen von Inhalten auf die psychische Gesundheit von Nutzerinnen und Nutzern. Werbung auf der Grundlage von Verbraucherprofilen von Kindern ist nicht erlaubt. Die Plattformen müssen ihre Dienste einschließlich der Schnittstellen, der Empfehlungssysteme und der AGBs neu gestalten, um solche Risiken zu mindern.

Welche Moderationspflichten haben Plattformbetreiber?

Ihre Pflicht ist es insbesondere, der Verbreitung illegaler Inhalte im Netz entgegenzuwirken. Dazu müssen sie einen Mechanismus einrichten, über den Nutzer illegale Inhalte melden können. Beanstanden die User Inhalte, müssen die Plattformbetreiber zügig reagieren und diese gegebenenfalls beseitigen. Zudem verlangt das Gesetz von Facebook, Google & Co., dass diese ihre jeweiligen Risiken ständig analysieren und mindern, um etwa die Verbreitung von Desinformation zu bekämpfen.

Mehr Informationen rund um den Digital Services Act und das Gesetz über Digitale Services finden Sie hier:

Welche Transparenz- und Rechenschaftspflichten haben die Plattformbetreiber?

Sie müssen dafür sorgen, dass eine unabhängige externe Instanz die Risikobewertungen der Plattformbetreiber und deren Einhaltung des DDG jederzeit überprüfen kann. Dazu sollen Beauftragte aus der Forschung Zugang zu entsprechenden Daten erhalten. Für später ist sogar ein "spezieller Mechanismus für zugelassene Forschende" geplant.

Die Plattformen müssen außerdem dargestellte Werbeanzeigen archivieren und zu Prüfungszwecken bereithalten. Zudem sind sie verpflichtet, Transparenzberichte über Moderationsentscheidungen zu Inhalten und ihrem Risikomanagement zu veröffentlichen.

Was bedeutet die "jährliche Risikobewertung"?

Tatsächlich sind die Internet-Konzerne gehalten, "systemische Risiken", die von der Nutzung ihrer Plattformen ausgehen können, zu ermitteln und zu analysieren. Das reicht von der Frage, wie illegale Inhalte oder Desinformationskampagnen durch die jeweiligen Dienste verstärkt werden könnten, bis hin zu möglichen Auswirkungen auf die freie Meinungsäußerung und die Medienfreiheit. Werden Risiken erkannt, sind entsprechende Maßnahmen zu deren Senkung zu ergreifen.

Ebenso müssen Facebook, Twitter/X und all die anderen Risiken im Zusammenhang mit psychischer Gesundheit, geschlechtsspezifischer Gewalt und dem Schutz von Minderjährigen bewerten und mindern. Aufwändig wird es, wenn es um die Durchsetzung geht: Die Plattformen müssen ihre Vorhaben rund um die Senkung von Risiken durch Aufsichtsbehörden prüfen lassen.

Wer soll das alles beaufsichtigen?

Die EU-Kommission will die DSA-Verordnung und deren nationalen Umsetzungen in Gesetze mithilfe einer europaweiten Aufsichtsstruktur durchsetzen. Für die Kontrolle der großen Internet-Konzerne sollen dieselben nationalen Behörden zuständig sein, die vom 17. Februar 2024 an auch die kleineren Plattformen und Anbieter digitaler Dienste beaufsichtigen sollen.

Um das Gesetz durchsetzen zu können, ist die Kommission nach eigenen Angaben dabei, "ihr internes und externes multidisziplinäres Fachwissen" zu stärken. Außerdem hat sie ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Es soll helfen zu bewerten, ob die Funktionsweise der algorithmischen Systeme von Plattformbetreibern und Anbietern digitaler Dienste mit den Verpflichtungen rund um das Risikomanagement im Einklang steht. Last, but not least richtet die EU-Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt werden soll.

Welche Rolle spielen die Beauftragten aus der Forschung?

Um illegale Inhalte, Hassreden und andere Risiken im Zusammenhang mit Manipulation und Desinformation zu bekämpfen, sollen "zugelassene Forschende" auf die Daten sowohl der großen Plattformbetreiber als auch der von kleineren Anbietern digitaler Dienste zugreifen können. Sie sollen so in die Lage versetzt werden, "Untersuchungen zu systemischen Risiken in der EU durchzuführen".

Die Beauftragten werden beispielsweise die Entscheidungen der Plattformen darüber, was Nutzer im Internet sehen und womit sie in Kontakt kommen, nachvollziehen können. Auch sollen sie einen Zugang zu bisher nicht offengelegten Daten erhalten. Die Kommission will einen "delegierten Rechtsakt" vorlegen, um ein einfaches und klares Verfahren für den Datenzugang zu konzipieren. Dabei soll es auch Schutzmaßnahmen zur Vermeidung von Missbrauch geben.

Was sagen die ITK-Verbände?

Der Bitkom hat den Digital Services Act begrüßt, da Desinformation und Fake-News eine Gefahr für die Demokratie und den gesellschaftlichen Zusammenhalt darstellten. Das Gesetz werde Internetnutzer besser vor Desinformation, aber auch vor Hassrede oder Produktfälschungen schützen, als es bislang der Fall war. Es werde für mehr Sicherheit im Netz sorgen und den Verbraucherschutz verbessern.

Außerdem löse es das "verunglückte deutsche NetzDG" ab, das von der letzten Bundesregierung überhastet auf den Weg gebracht worden sei und nun zu recht in den Archiven der Rechtsgeschichte verschwinde. Laut Bitkom kommt es jetzt darauf an, dass die Bundesregierung sowie die andere EU-Mitgliedstaaten das DSA einheitlich umsetzen.

Auch der Internet-Verband eco begrüßt, dass das derzeit noch als Referentenentwurf vorliegende DDG einer "stringenteren Gesetzgebung" folge und NetzDG sowie Telemediengesetz aufhebe beziehungsweise inkludiere. Es sei homogener und klarer in seinen Begrifflichkeiten als die Vorgänger. (hv)