Klage wegen Hassrede in Ostafrika

Facebook soll zwei Milliarden Dollar Entschädigung zahlen

14.12.2022
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Kläger in Äthiopien werfen der Facebook-Mutter Meta vor, nicht entschieden genug gegen Hassbotschaften vorzugehen. Deshalb seien Menschen im Bürgerkrieg gestorben.
Wenn sich der Mob auf Facebook zusammenrottet, kann das böse enden.
Wenn sich der Mob auf Facebook zusammenrottet, kann das böse enden.
Foto: Ruslan Grumble - shutterstock.com

Facebook habe dazu beitragen, den Hass im äthiopischen Bürgerkrieg weiter zu schüren. So lautet einem Bericht der BBC zufolge der Vorwurf von Einzelklägern und verschiedenen zivilgesellschaftlichen Organisationen in Ostafrika, die eine Klage vor dem obersten Gerichtshof im benachbarten Kenia anstrengen. Sie fordern von der Facebook-Mutter Meta die Einrichtung eines Fonds in Höhe von zwei Milliarden Dollar für die Opfer von Hassrede. Außerdem wollen sie Änderungen am Algorithmus der Social-Media-Plattform bewirken.

Der Bürgerkrieg in Äthiopien zählt zu den blutigsten Konflikten der Welt. Die Auseinandersetzung zwischen der Zentralregierung in Addis Abeba und der nach Unabhängigkeit strebenden Provinz Tigray im Norden des Landes hat bereits mehrere hunderttausend Opfer gefordert. Dazu kommt eine Hungersnot, die das Leben vieler Menschen in dem ostafrikanischen Land bedroht.

Auf Hassrede folgte der Mord

Eines der Bürgerkriegs-Opfer ist laut dem BBC-Bericht Amare Abra Meareg, der Vater von Abrham Meareg, einem der Kläger. Der Akademiker sei erschossen worden, nachdem er auf Facebook massiv angegangen worden war. Anfang November 2021 wurde Meareg auf dem Weg von der Universität nach Hause von Bewaffneten auf einem Motorrad verfolgt und vor seinem Haus umgebracht.

Sein Vater sei auf Facebook verleumdet worden, außerdem hätten seine Gegner rechtswidrig private Informationen veröffentlicht, berichtet sein Sohn. Trotz wiederholter Aufforderungen, diese Hassbeiträge zu löschen, habe Facebook nicht reagiert. Erst nach dem Mord seien einzelne Posts entfernt worden, nicht einmal alle.

Vorwurf: Facebook-Algorithmus fördert Hassbotschaften

"Wenn Facebook die Verbreitung von Hass unterbunden und die Beiträge richtig moderiert hätte, wäre mein Vater noch am Leben", sagt Meareg. Er wolle dafür sorgen, dass andere Familien nicht so leiden müssten wie seine, sagte er, und verlangte "eine persönliche Entschuldigung" von Meta. In einer vor dem kenianischen Gericht eingereichten eidesstattlichen Erklärung wirft Meareg der Plattform vor, dass der Algorithmus von Facebook "hasserfüllte und aufhetzende" Inhalte fördere.

US-Forscher finden Belege: Facebook fördert Wut- und Hassrede

Diese Vorwürfe sind nicht neu. Bereits seit langem werfen Verbraucherschutz- und Bürgerrechtsorganisationen auf der ganzen Welt Facebook vor, negative Emotionen in den Posts bevorzugt sichtbar zu machen, weil diese die User zu mehr Interaktionen animierten.

Moderation unzureichend

Den Klägern zufolge ist die Moderation von Inhalten in Äthiopien "beklagenswert unzureichend". Es gebe zu wenige Moderatoren, die sich mit Beiträgen in den Schlüsselsprachen Amharisch, Oromo und Tigrinya befassen könnten. Sie appellierten deshalb an das Gericht, Facebook zu zwingen, Abhilfe zu schaffen. Zu den Forderungen gehört auch ein Entschädigungsfonds in Höhe von umgerechnet rund zwei Milliarden Dollar für die Opfer von Hass und Gewalt auf Facebook. Ferner solle das Soziale Netzwerk seinen Algorithmus so ändern, dass "aufhetzende, hasserfüllte und gefährliche Inhalte" nicht mehr verbreitet werden könnten. Last, but not least soll der der Konzern mehr Moderatoren einstellen, um lokale Inhalte besser einordnen und bearbeiten zu können.

Meta beteuerte laut BBC, jede Menge Geld in Moderation und Technik investiert zu haben, um gegen Hassrede vorzugehen. Die Regeln der Plattform seien hier eindeutig. "Unsere Sicherheits- und Integritätsarbeit in Äthiopien wird von Rückmeldungen lokaler Organisationen der Zivilgesellschaft und internationaler Institutionen geleitet", zitiert die BBC einen Vertreter des Konzerns. Meta beschäftige Mitarbeiter mit lokalem Wissen und werde seine Fähigkeiten weiterentwickeln, um verletzende Inhalte in den am häufigsten gesprochenen Sprachen des Landes zu erkennen.