Orwell 2024

Wie KI die Mitarbeiterüberwachung befeuert

13.02.2024
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Dank künstlicher Intelligenz lassen sich George Orwells dystopische Überwachungsszenarien nun deutlich effektiver umsetzen – auch im Unternehmen.
Mit KI halten Szenarien Einzug in die Unternehmenswelt, die man bislang nur von totalitären Staaten kannte.
Mit KI halten Szenarien Einzug in die Unternehmenswelt, die man bislang nur von totalitären Staaten kannte.
Foto: aslysun - shutterstock.com

Es war schon immer eine irrige Annahme, man könne über vom Arbeitgeber bereitgestellte Geräte, Software und Internet-Zugänge frei von der Leber mit Kollegen über die neue Firmenpolitik lästern oder Schlimmeres. Doch während eine Kontrolle beispielsweise von Chat-Verläufen lange Zeit nur mit Hilfe von aufwändigen Stichproben bei einem zwingenden Verdacht möglich war, kann künstliche Intelligenz, oder konkreter Machine Learning, dies nun durchgängig und in nahezu Echtzeit erledigen.

Wie CNBC berichtet, nutzen bereits große US-Arbeitgeber wie Walmart, Delta Air Lines, T-Mobile USA, Chevron und Starbucks die Technik des sieben Jahre alten Startups Aware, um die Gespräche ihrer Mitarbeiter zu überwachen. Aware zählt auch europäische Marken wie Nestle und AstraZeneca zu seinen Kunden, wobei die Nutzung des Analytics-Tools in Deutschland zumindest problematisch ist.

Sofortige Analyse statt jährliche Umfrage

Die KI helfe Unternehmen etwa, Risiken in ihrer internen Kommunikation zu entdecken, indem sie die Stimmung der Mitarbeiter in Echtzeit erfassen, anstatt sich auf eine jährliche oder halbjährliche Umfrage zu verlassen, erklärte Jeff Schumann, Mitbegründer und CEO von Aware, gegenüber CNBC. So könnten Unternehmen mithilfe der anonymisierten Daten in dem Analyseprodukt sehen, wie Mitarbeiter einer bestimmten Altersgruppe oder in einer bestimmten Region auf eine neue Unternehmensrichtlinie oder Marketingkampagne reagieren.

"Es werden keine Namen von Personen genannt, um die Privatsphäre zu schützen", so Schumann. Vielmehr sehen die Unternehmen lediglich, dass "vielleicht die Arbeitnehmer über 40 in diesem Teil der USA die Änderungen an einer Richtlinie wegen der Kosten sehr negativ sehen. Aber alle anderen außerhalb dieser Altersgruppe und dieses Standorts sehen es positiv, weil es sie auf eine andere Art und Weise betrifft". Mit der Fähigkeit, Texte lesen und Bilder zu verarbeiten, seien die KI-Modelle von Aware aber auch in der Lage, Mobbing, Belästigung, Diskriminierung, Nichteinhaltung von Vorschriften, Pornografie, Nacktheit und andere Verhaltensweisen zu erkennen, erklärte er.

Verursacher identifizierbar - im Ernstfall

Wäre das Analyse-Tool zur Überwachung von Stimmung und Toxizität der Mitarbeiter laut Schumann keine einzelnen Mitarbeiternamen markieren kann, sei das separate eDiscovery-Tool dazu in der Lage. Allerdings nur im Falle extremer Bedrohungen oder anderen riskanten Verhaltensweisen, die vom Kunden vorher festgelegt werden. So könne ein Kunde beispielsweise eine Richtlinie für "gewalttätige Drohungen" oder eine andere Kategorie mit der Technologie von Aware festlegen, so Schumann, und die KI-Modelle suchten in Slack, Microsoft Teams und Workplace by Meta nach entsprechenden Verstößen. Möglich sei auch eine regelbasierte Verknüpfung mit bestimmten Sätzen, Äußerungen et cetera.

Findet die KI etwas, das gegen die festgelegten Firmen-Policies verstößt, gibt sie den Namen des Mitarbeiters an den vom Unternehmen angegebenen Verantwortlichen weiter. "Wenn das Modell eine Interaktion kennzeichnet, liefert es den vollständigen Kontext zu dem, was passiert ist und welche Richtlinie ausgelöst wurde. Den Untersuchungsteams liefert es die Informationen, die sie benötigen, um über die nächsten Schritte im Einklang mit den Unternehmens-Policies und dem Gesetz zu entscheiden", so Schumann.

Diese Art von Verfahren werde bereits seit Jahren in der E-Mail-Kommunikation eingesetzt, räumt Schumann ein. Neu sei der Einsatz von KI und ihre Anwendung auf Messaging-Plattformen am Arbeitsplatz wie Slack und Teams.

Die Gedankenpolizei wird digital

Doch nicht nur negative Kommentare im Teams-Chat, auch eine verräterische Mimik in Video-Calls oder gar am Arbeitsplatz könnte Mitarbeitern dank KI künftig nachteilig ausgelegt werden. Eine Reihe von Unternehmen beschäftigen sich mit der Idee, dass Emotional Artifical Intelligence (EAI) in der Lage ist, die wahre Stimmung von Menschen dank unbewussten Gesichtsbewegungen, Muskelzuckungen oder Veränderungen der Pupillen zu erkennen. So könne EAI die Unterschiede zwischen Emotionen wie Glück, Verwirrung, Wut und sogar Sentimentalität herausfinden.

Auch wenn noch nicht bewiesen ist, dass EAI wirklich funktioniert, gibt es bereits Unternehmen, die entsprechende Lösungen einsetzen. CBS und Disney nutzen beispielweise SmartEyes Affectiva Emotion AI, um festzustellen, wie die Zuschauer auf ihre Filme reagieren.

Bis die FTC dem Treiben 2021 ein Ende setzte, verwendete auch die von Firmen wie Ikea oder Oracle genutzte Online-Bewerbungsplattform HireVue Gesichtsanalyse via EAI als Teil ihre Video-Interviews. Ziel war es, auf diese Weise relativ unvoreingenommen Soft Skills, kognitive Fähigkeiten, psychologische Eigenschaften und emotionale Intelligenz der Bewerber zu identifizieren. Allerdings war das Gegenteil der Fall: In einer Beschwerde des Electronic Privacy Information Center (EPIC) vorgelegte Forschungsergebnisse belegten, dass die Gesichtsanalyse Frauen, People of Color und andere Menschen benachteiligen könnte und daher nicht für Einstellungsentscheidungen verwendet werden sollte.

KI identifiziert Soft Skills

Was nicht bedeuten soll, dass das Thema EAI damit im HR-Bereich komplett vom Tisch ist. So kommt beispielsweise auch bei der Behavioral Intelligence Plattform von Retorio eine Kombination aus Gesichtsanalyse, Erkennung der Körperhaltung und Sprachanalyse zum Einsatz, um Soft Skills und ein Persönlichkeitsmuster zu erkennen.

Auf diese Weise lasse sich frühzeitig feststellen, ob ein Mitarbeiter kurz-, mittel- und langfristig das Potenzial hat, eine Stelle auszufüllen und sich in der Unternehmenskultur weiterzuentwickeln, so das Münchner Startup. Retorio zufolge ist die Technologie dabei nicht voreingenommen und für Bewerber freiwillig. Sie könnten die Videoaufnahme jederzeit beenden und löschen und sich auf andere Weise bewerben.

Interessant ist auch ein anderes Nutzungsszenario von Behavioral Intelligence, nämlich zum Coaching von Vertriebsmitarbeitern oder Führungskräften: Mit KI-gestützten Rollenspielen werden sie auf mögliche Szenarien im Alltag konfrontiert und erhalten daraufhin personalisiertes Feedback, ob sie ihre Antworten glaubhaft vermitteln konnten.