Ankündigungen von OpenAI und Meta

Mit Wasserzeichen gegen Fake Content

07.02.2024
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
OpenAI und Meta haben angekündigt, künftig KI-generierte Bilder zu markieren. Die Vorgehensweise ist dabei unterschiedlich effektiv.
Damit ahnungslosen Nutzern kein Bär aufgebunden wird, setzt Meta bei KI-generierten Bildern auf Wasserzeichen.
Damit ahnungslosen Nutzern kein Bär aufgebunden wird, setzt Meta bei KI-generierten Bildern auf Wasserzeichen.
Foto: Meta

Auch im Bereich generative künstliche Intelligenz werden - nicht zuletzt auf Druck der US-Regierung - die ersten Vorbereitungen für das Superwahljahr 2024 getroffen. So kündigt OpenAI an, dass sein Bildgenerator DALL-E 3 nun Wasserzeichen nach C2PA-Standard Coalition for Content Provenance and Authenticity zu den Bildmetadaten hinzufügt.

Nach Angaben des Unternehmens werden die Wasserzeichen der C2PA in allen Bildern erscheinen, die auf der ChatGPT-Website und in der API für das DALL-E 3-Modell erzeugt werden. Mobile Nutzer sollen die Wasserzeichen bis zum 12. Februar erhalten.

Bilder, die mit ChatGPT erstellt wurden, werden von OpenAI doppelt gekennzeichnet.
Bilder, die mit ChatGPT erstellt wurden, werden von OpenAI doppelt gekennzeichnet.
Foto: OpenAI

Die Bilder enthalten sowohl eine unsichtbare Metadatenkomponente als auch ein sichtbares CR-Symbol, das in der oberen linken Ecke jedes Bildes erscheint. Laut OpenAI wird die Bildgröße durch die hinzugefügten Metadaten leicht erhöht. Dies wirke sich aber nur geringfügig auf die Latenzzeit aus und auch die Qualität der Bilderzeugung werde nicht beeinträchtigt.

Kampf gegen Fake Content im Wahljahr

Auf Websites wie Content Credentials Verify können Nutzer die Herkunft jedes Bildes, das von OpenAIs Plattformen erstellt wurde, überprüfen - also, welches KI-Tool für die Erstellung des Inhalts verwendet wurde. Bisher können nur Standbilder, nicht aber Videos oder Text, mit dem Wasserzeichen versehen werden.

Einen wirklichen Schutz vor in böser Absicht generierten Fake Content bietet C2PA allerdings nicht. OpenAI weißt selbst darauf hin, dass die Metadaten "leicht entfernt werden können, entweder versehentlich oder absichtlich", zumal die meisten Social-Media-Plattformen Metadaten aus hochgeladenen Inhalten oft entfernen. Die einfachste Methode, die Metadaten zu entfernen, sei einen Screenshot des Bilds zu machen.

KI erkannt, Gefahr gebannt?

Angesichts dieser Umstände ist auch der Plan Metas, in den kommenden Monaten KI-generierte Fotos, die auf Facebook, Instagram und Threads hochgeladen werden, als solche zu kennzeichnen, wenig erfolgversprechend - zumindest, wenn es um bewusste Irreführung geht. In Sachen Transparenz ist es dagegen zumindest ein Schritt in die richtige Richtung.

"Die Menschen sehen KI-generierte Inhalte oft zum ersten Mal", erklärte Nick Clegg, Metas Präsident für globale Angelegenheiten, in einem Blogpost. "Deshalb ist es wichtig, dass wir den Menschen helfen, zu erkennen, ob die fotorealistischen Inhalte, die sie sehen, mit KI erstellt wurden."

Meta kennzeichnet bereits seit dem Launch des hauseigenen KI-Generators Imagine damit erstellte fotorealistische Bilder, erstellt wurden, mit "Imagined with AI" gekennzeichnet. Rechtzeitig vor Beginn der Wahlsaison in verschiedenen Ländern hofft die Facebook-Tochter dann auch Tools fertiggestellt haben, die unsichtbare Marker wie C2PA und IPTC identifizieren. Auf diese Weise könnte Meta dann auch mit Tools von Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock erstellte Bilder kennzeichnen, wenn diese ihre Pläne für das Hinzufügen von Metadaten umsetzen, so Clegg.