Was ist Gesichtserkennung?

13.01.2022
Von 
Martin Heller schreibt als freier Autor für die Schwesterpublikation InfoWorld.
Gesichtserkennung wird immer präziser, kann allerdings auch vorurteilsbeladen sein oder zu kontroversen Zwecken zum Einsatz kommen. Das müssen Sie wissen.
Technologien zur Gesichtserkennung werden immer präziser - ihr Einsatz wird jedoch kontrovers diskutiert. Das müssen Sie zum Thema wissen.
Technologien zur Gesichtserkennung werden immer präziser - ihr Einsatz wird jedoch kontrovers diskutiert. Das müssen Sie zum Thema wissen.
Foto: goffkein.pro - shutterstock.com

In einigen Ländern der Erde darf man sich mit Fug und Recht die Frage stellen, ob Big Brother gerade mit Hilfe einer Überwachungskamera im öffentlichen Raum die eigenen Emotionen überwacht, eine Festnahme plant oder eine fatale Verwechslung ihren Lauf nimmt. Kriminelle Akteure hingegen stellen sich viel eher Fragen wie: "Wie kann ich die Gesichtserkennung überlisten, um in den Tresorraum zu kommen?" oder "Reicht eine 3D-Gesichtsmaske einer autorisierten Person dazu aus?"

Gesichtserkennung - Definition

Gesichtserkennung (englisch Facial Recognition) ist eine Methode, um unbekannte Personen zu identifizieren, beziehungsweise die Identität bestimmter Personen anhand ihrer Gesichtsmerkmale zu verifizieren. Face Recognition ist eine Unterkategorie von Computer Vision. Gesichtserkennungstechnologien sind in Sachen Bias historisch vorbelastet und weisen je nach System einige angreifbare Schwachstellen auf.

Wie Gesichtserkennung funktioniert

Die Forschung auf dem Feld der Gesichtserkennung begann im Jahr 1964. Seitdem hat sich einiges getan: Im Schnitt hat sich die Fehlerrate der Technologie alle zwei Jahre halbiert. Diese Ansätze und Methoden gibt es:

  • 2D Facial Recognition mit geometrischen Algorithmen: Frühe Gesichtserkennungs-Algorithmen (die noch immer im Einsatz sind, nur in verbesserter und automatisierter Form) nutzen biometrische Merkmale (zum Beispiel den Abstand zwischen den Augen) eines Benutzers, um ein 2D-Modell des Gesichts anzufertigen und dieses in ein Zahlenset zu transformieren. Der Erkennungsprozess gleicht dann diese Werte mit einer Datenbank bekannter Gesichter ab. Kompliziert wird es dabei immer dann, wenn die Gesichter vor der Extraktion von Metriken einheitlich auf einen bestimmten Betrachtungswinkel ausgerichtet werden sollen, um Kopfbewegungen und Neigungen auszugleichen.

  • 2D-Gesichtserkennung mit photometrischen Algorithmen: Ein anderer Ansatz für Gesichtserkennung besteht darin, 2D-Bilder von Gesichtern zu normalisieren und zu komprimieren, um diese im Anschluss mit einer entsprechenden Datenbank abzugleichen.

  • Dreidimensionale Gesichtserkennung: Hierbei erzeugen 3D-Sensoren ein Abbild des Gesichts - oder rekonstruieren dieses 3D-Bild aus den Bildern drei verschiedener 2D-Kameras, die unterschiedlich ausgerichtet sind. Die 3D-Gesichtserkennung gilt im Vergleich zu den 2D-Varianten als deutlich präziser und zuverlässiger

  • Skin Texture Analysis: Eine Analyse der Hauttextur sorgt für einen zusätzlichen Merkmalsvektor bei der Gesichtserkennung. Hierbei werden feine Fältchen, Linien oder Muttermale analysiert. Mit der Skin Texture Analysis kann die Präzision von 2D- und 3D-Gesichtserkennung um 20 bis 25 Prozent verbessert werden - besonders wenn es darum geht, Doppelgänger oder Zwillinge zuverlässig voneinander zu unterscheiden.

Gesichtserkennung im Test

Das National Institute of Standards an Technology (NIST) testet seit dem Jahr 2000 im Rahmen seines Face Recognition Vendor Test (FRVT) Gesichtserkennungs-Algorithmen. Die Bilddaten, die dabei zum Einsatz kommen, stammen in weiten Teilen aus dem Justizvollzug (Mugshots), beinhalten aber auch Still-Bilder aus Quellen wie Wikimedia oder Aufnahmen von Webcams. Die FRVT-Algorithmen werden im Regelfall von kommerziellen Anbietern eingereicht.

Vergleicht man die Ergebnisse über die Jahre, stellt man fest, dass die Algorithmen sowohl in Sachen Leistungsfähigkeit als auch in Sachen Präzision deutlich zugelegt haben. Laut den Anbietern liegt das in erster Linie am Einsatz von künstlichen neuronalen Netzen.

Darüber hinaus hat das NIST in Sachen Gesichtserkennung bereits verschiedene Felder untersucht - zum Beispiel demografische Effekte, die Erkennung von Face Morphing oder die Identifikation von Gesichtern in Videomaterial. Die Forschung in diesem Bereich betreibt das US-Institut bereits seit den 1990er Jahren (damals noch unter dem Dachbegriff "Face Recognition Technology").

Gesichterkennung im Einsatz

Gesichtserkennungs-Applikationen fallen im Wesentlichen in drei verschiedene Bereiche:

In den Bereich der IT-Sicherheit fallen sowohl gängige Authentifizierungslösungen (etwa in Form von Face ID im iPhone oder Zugangssystemen an Gebäuden), als auch Anwendungsfälle im Bereich von Polizei- und Verfassungsbehörden.

Im Gesundheitswesen spielt Gesichtserkennung etwa für Patienten-Checkins oder auch die medizinische Diagnosestellung eine Rolle, während die Technologie im Bereich Marketing und Retail unter anderem zur Detektion bekannter Ladendiebe und zur Emotionsanalyse von Kunden eingesetzt wird.

Dass der Einsatz der Technologie seit Jahren kontrovers diskutiert wird, liegt auch an diversen Vorkommnissen: So wurden beim Super Bowl im Jahr 2001 mit Hilfe von Facial Recognition fälschlicherweise 19 Personen identifiziert, die vermeintlich zur Fahndung ausgeschrieben waren. Auch in Sachen rassistische Vorurteile ist Gesichtserkennung kein unbeschriebenes Blatt: Gesichtserkennungssoftware funktionierte in der Vergangenheit oft wesentlich besser mit weißen, männlichen Gesichtern.

Diese Probleme haben in den USA dazu geführt, dass die Technologie für manche Einsatzzwecke verboten wurde: San Francisco war 2019 die erste große US-Stadt, die ihren Polizei- und Strafverfolgungsbehörden den Einsatz von Facial Recognition untersagte. Durch die Anti-Rassismus-Demonstrationen in den USA ist die Diskussion um den Einsatz der Technologie bei der Polizei neu entflammt: Während Microsoft und Amazon ihre Facial-Recognition-Systeme der Polizei nicht mehr zur Verfügung stellen, hat IBM seine Gesichtserkennungstechnologien komplett verworfen. Ein allgemeines Abrücken oder gar ein Verbot von Facial-Recognition-Technologien dürfte allerdings nur schwer umsetzbar sein - auch weil diese sich (Stichwort Face ID) inzwischen stark verbreitet hat.

Wie Gesichtserkennung gehackt wird

Die weitläufige Adoption der Technologie hat jedoch auch Schattenseiten: Die Daten, die mit Gesichtserkennung geschützt werden, sind so wertvoll, dass kriminelle Hacker alles daransetzen, Facial-Recognition-Systeme zu kompromittieren. Je nach Software ist dazu mehr oder weniger Aufwand nötig - unter Umständen reicht bereits ein ausgedrucktes Foto aus, eventuell muss auch etwas mehr Aufwand betrieben werden:

Entsprechend wird kontinuierlich daran geforscht, Betrugsversuche mit Gesichtserkennungssystemen zu verhindern. Ausgedruckte Bilder etwa lassen sich mit einem sogenannten "Liveness"-Test erkennen. Dabei wartet das System auf "Lebenszeichen", beispielsweise ein Blinzeln. Auch Bewegungsanalysen oder Infrarot-Strahlen werden dazu eingesetzt, die "Lebensechtheit" von Nutzern zu überprüfen. Die meisten aktuellen Anti-Spoofing-Maßnahmen basieren auf Convolutional Neural Networks.

Gesichtserkennung - Anbieter & Datensets

Laut der Electronic Frontier Foundation gehört Ideamias MorphoTrust zu den größten (US-)Anbietern von Gesichtserkennungstechnologien. Weitere Unternehmen, die in diesem Bereich tätig sind, sind zum Beispiel:

Der Face Recognition Vendor Test des NIST (PDF) listet eine Vielzahl von Algorithmen - von Herstellern aus aller Welt. Darunter sind auch einige Open-Source-Agorithmen zu finden. Darüber hinaus bieten auch einige große Cloud Sevrice Provider Face Recognition Features an:

  • Der Videoanalyse-Service Amazon Rekognition kann Objekte, Menschen, Texte und Aktivitäten erkennen - auch Gesichter und Custom Labels.

  • Der vortrainierte Analyserservice Google Cloud Vision API ermöglicht die Detektion von Objekten und Gesichtern, liest gedruckten und geschriebenen Text und versieht Bilderkataloge mit Metadaten. Mit Google AutoML Vision können auch Custom Image Models trainiert werden.

  • Die Azure Face API steht in der Cloud oder auch als Container-Lösung am Netzwerkrand zur Verfügung und kann neben Gesichtern auch Emotionen erkennen.

Um Gesichtserkennungssysteme zu trainieren, stehen dutzende von Datensets zum Download zur Verfügung. Diese Sets unterscheiden sich zum Beispiel hinsichtlich der Bildgröße, der Anzahl repräsentierter Menschen oder den Lichtverhältnissen. Der Technologieexperte Ethan Meyers hat in dieser Liste zusammengefasst, welche Datensets sich für welchen Zwecke am besten eignen. Einiger der größten Datenbanken für Gesichtserkennungssysteme sind:

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. (fm)