Studie untersucht KI im Personalwesen

HR-Tools nur automatisierte Pseudowissenschaft?

13.10.2022
Von Redaktion Computerwoche
Eine wissenschaftliche Studie hat das Versprechen von KI-basierten Recruiting-Tools, Belegschaften diverser aufzustellen, unter die Lupe genommen – mit erschreckendem Ergebnis.
Mit künstlicher Intelligenz zu vorurteilsfreien Einstellungen? Eine Studie kommt zu dem Ergebnis, dass KI-Tools für Personalabteilungen nicht halten, was sie versprechen.
Mit künstlicher Intelligenz zu vorurteilsfreien Einstellungen? Eine Studie kommt zu dem Ergebnis, dass KI-Tools für Personalabteilungen nicht halten, was sie versprechen.
Foto: VectorMine - shutterstock.com

In den vergangenen Jahren sind immer mehr KI-basierte Tools auf den Markt gekommen, die HR-Verantwortlichen zu einem fairen, von Vielfalt gekennzeichneten Einstellungsprozess verhelfen sollen. Hintergrund ist, dass das Recruiting in den Unternehmen oft von Entscheidern mit Vorurteilen verzerrt wird. Also ruhen die Hoffnungen auf intelligenten Chatbots, automatisierten Lebenslauf-Scrapern für die Vorauswahl von Personal oder auf Analysesoftware, um etwa versteckte Signale in Video-Vorstellungespräche zu entdecken.

Forscher der Universität Cambridge haben sich nun mit den KI-basierten HR-Tools auseinandergesetzt. Immerhin nehmen diese oft für sich in Anspruch, das Recruiting fairer zu gestalten, menschliche Vorurteile auszuschalten und Unternehmen dabei zu unterstützen, ihre Diversity- und Inclusion-Ziele zu erreichen. Die Forscher kommen allerdings zu einem anderen Ergebnis: "Diese Versprechen sind irreführend", heißt es im Research Paper der Wissenschaftler. Das stützen die Forscher im Wesentlichen auf vier Beobachtungen:

  1. Wird versucht, Merkmale wie Geschlecht und ethnische Zugehörigkeit auszusortieren, werden diese oft ganz selbstverständlich als isolierbare Attribute gesehen, was sie aber ot nicht sind und was ihrer Rolle in umfassenderen "Machtsystemen" auch nicht gerecht wird.

  2. Der Versuch, die "Diversitätsarbeit" an KI-gestützte Tools auszulagern, kann unbeabsichtigt eine Kultur der Ungleichheit und Diskriminierung verfestigen, weil systemische Probleme innerhalb von Organisationen nicht angegangen sondern an die Technik ausgelagert werden.

  3. Die Bewertung der Eigenschaften von Bewerbern durch KI-Einstellungstools ist nur vermeintlich neutral. Sie täuscht über das Machtverhältnis von Beobachtern und Beobachteten hinweg. Klassifizierung und Kategorisierung spielen gehen demnach auf eine längere Geschichte der taxonomischen Sortierung zurück und und geben letztendlich die aktuellen Trends, Anforderungen und Wünsche am Arbeitsmarkt wieder - auch dann, wenn sie nicht explizit entlang von Geschlechtern und ethnischen Zugehörigkeiten erfolgten.

  4. KI-Tools für die Personalbeschaffung behaupten, "ideale Kandidaten" durch die Konstruktion von Assoziationen zwischen Wörtern und Körpern zu finden. Doch das funktioniere nicht.

Recruiting per KI ist fehlerbehaftet

Für ihre Untersuchungen haben die Wissenschaftler ein kommerzielles KI-Modell nachgebildet, das so auch in der Industrie zum Einsatz kommt. Es zielt auf fünf wesentliche persönliche Eigenschaften ab:

  • Extrovertiertheit,

  • Verträglichkeit,

  • Offenheit,

  • Gewissenhaftigkeit und

  • Neurotizismus.

Dabei fanden die Forscher heraus, dass die Vorhersagen des KI-Modells über die Eignung der Bewerber durch Faktoren beeinflusst wurde, die eigentlich keine Rolle spielen düften, etwa:

  • Veränderungen des Gesichtsausdrucks,

  • Beleuchtung und verwendeter Hintergrund oder

  • Wahl der Kleidung.

Das führt die Wissenschaftler zu der Annahme, dass der Einsatz von künstlicher Intelligenz zu Recruiting-Zwecken fehlerbehaftet ist.

"Wenn die Anbieter behaupten, dass ihre Produkte in der Lage sind, Geschlechter und ethnische Zugehörigkeiten aus dem Einstellungsprozess herauszuhalten, müssten sie auch sagen können, wie ihre Tools in von Geschlechtsungleichheit und Rassismus geprägten Machtverhältnissen funktionieren. Die universelle Einsetzbarkeit behindert das Streben nach Bias-freien Einstellungsinstrumenten und birgt erhebliche Risiken für bereits benachteiligte Gruppen", schreiben die Forscher und resümieren: "Wir brauchen ein anderes Verständnis davon, wie KI bei der Personalauswahl durch die Konstruktion idealer Bewerberprofile und die Interpretation von Stimmen und Gesichtern auf bestehende Systeme einzahlen könnte."

In der Konsequenz geben die Wissenschaftler drei Empfehlungen für Anbieter, Anwender und Regulatoren aus:

  1. Die Entwickler von KI-basierten Recuriting-Tools sollten nicht versuchen, einzelne "Bias"-Instanzen zu korrigieren, sondern die umfassenderen Ungleichheiten berücksichtigen, die Einstellungsprozesse prägen.

  2. Personalverantwortliche, die solche Tools kaufen und nutzen, müssen sich mit der Art und Weise auseinandersetzen, wie KI die Macht in ihrem Einsatzbereich verschiebt.

  3. KI-Ethiker, Regulierungsbehörden und politische Entscheidungsträger müssen sich stärker einbringen, wenn es um Regulierungen und gesetzliche Regelungen für KI-gestützte HR-Toos geht. Zwar gebe es erste Regulierungsansätze, diese seien aber immer noch unzureichend.

(fm/hv)