Alles nur gefaked?

Deepfakes als zweischneidiges Schwert

09.05.2023
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Real oder ein Deepfake-Video? Was Tesla-Anwälte zur Verteidigung von Elon Musk vorbrachten, könnte schon bald die Arbeit von Gerichten behindern.
In einem Interview auf der Code Conference 2016 nahm Elon Musk den Mund in Sachen Autonomes Fahren und Tesla etwas zu voll.
In einem Interview auf der Code Conference 2016 nahm Elon Musk den Mund in Sachen Autonomes Fahren und Tesla etwas zu voll.

Dank der Fortschritte im Bereich der Künstlichen Intelligenz ist es heute einfacher denn je, Bilder und Videos von Dingen zu erstellen, die nicht existieren, oder von Ereignissen, die nie stattgefunden haben. Die Rede ist von Deepfakes, die zur Verbreitung von Propaganda und Desinformation, zur Nachahmung von Prominenten und Politikern, zur Wahlmanipulation und zum Betrug eingesetzt werden.

Mit dem Siegeszug der generativen KI, die die Erstellung von Deepfakes für praktisch jeden und ohne viel technischen und finanziellen Aufwand möglich macht, entsteht nun Berichten zufolge aber auch ein anderes Phänomen: Für Beschuldigte ist es leichter denn je, etwas als Fälschung abzutun. Jüngstes prominentes Beispiel dafür sind die Anwälte des Autobauers Tesla, die im Zusammenhang mit einer Klage ein öffentliches Video von Elon Musk aus dem Jahr 2016 als Deepfake bezeichneten.

Wie auf YouTube zu sehen ist, erklärte der Tesla-CEO damals den Zuhörern der Code Conference während einer Fragerunde mit den Tech-Journalisten Walt Mossberg und Kara Swisher: "Ich würde autonomes Fahren im Grunde als ein gelöstes Problem betrachten. Ein Model S und Model X können zum jetzigen Zeitpunkt mit größerer Sicherheit autonom fahren als ein Mensch. In diesem Moment."

Obwohl mittlerweile sieben Jahre alt, rückte dieses Video kürzlich wieder ins Rampenlicht, nämlich im Rahmen einer Klage der Familie eines Mannes, der bei einem Unfall mit seinem Tesla während der Nutzung der Autopilot-Funktion ums Leben kam. Die Anwälte der Familie beriefen sich dabei auf diese Behauptung aus dem Jahr 2016 sowie auf andere Behauptungen, die Musk über die Software zum Autonomen Fahren von Tesla aufgestellt hat.

Die Tesla-Anwälte lehnten jedoch den Antrag auf eine Befragung von Musk unter Eid ab, indem sie die Authentizität der öffentlichen Aufnahme anzweifelten und behaupteten, dass es sich bei dem Video möglicherweise um ein von einer Künstlichen Intelligenz generiertes Deepfake handele. "Wie viele andere Persönlichkeiten des öffentlichen Lebens ist auch Musk Gegenstand zahlreicher "Deepfake"-Videos und -Aufnahmen, die ihn angeblich dabei zeigen, wie er Dinge sagt oder tut, die er in Wirklichkeit nie gesagt oder getan hat", so die Erklärung.

Wenngleich die Anwälte mit diesem Manöver keinen Erfolg hatten, mehren sich die Fälle, in denen Deepfakes angeführt werden, um Beweise zu widerlegen. Wie NPR berichtet, hatten auch zwei der Angeklagten, die wegen der Ausschreitungen vom 6. Januar vor Gericht stehen, diesen Winkelzug versucht.

Sie behaupteten, dass das YouTube-Video, das sie im Kapitol zeigt, von einer Künstlichen Intelligenz erstellt oder manipuliert worden sein könnte. Zur Untermauerung dieser Behauptung führten die Anwälte des einen Angeklagten ein von Forschern erstelltes Deepfake des ehemaligen Präsidenten Barack Obama aus dem Jahr 2017 an. Letztendlich wurden jedoch beide Männer für schuldig befunden.

Das Zeitalter der Deepfakes steht bevor

"Das ist genau das, was wir befürchtet haben: Wenn wir in das Zeitalter der Deepfakes eintreten, kann jeder die Realität leugnen", erklärt Hany Farid, Experte für digitale Forensik und Professor an der University of California, Berkeley, gegenüber NPR.

Riana Pfefferkorn, eine Wissenschaftlerin am Stanford Internet Observatory, die in einem Artikel in der Law Review 2020 vor den drohenden Auswirkungen von Deepfakes im Gerichtssaal warnte, sieht die Sache entspannter. "Bis jetzt scheinen alle Versuche erfolglos verlaufen zu sein ", sagte sie gegenüber NPR.

Die Gefahr, dass Deepfakes als Beweismittel angeboten werden könnten, sei zwar real, aber "die Gerichte haben sich über Hunderte von Jahren hinweg gegen Versuche gewappnet, gefälschte oder manipulierte Beweismittel einzuführen, angefangen bei der Fälschung einer Unterschrift auf einem handschriftlichen Dokument bis hin zu getippten oder vervielfältigten Dokumenten, Filmen, Videos, mit Photoshop bearbeiteten Beweismitteln und digitalen Fotografien und Videos."