Die Zukunft der Personalbeschaffung

Eine gute KI ist besser als ein schlechter Recruiter

11.08.2023
Von 

Kai Gondlach ist CEO des Zukunftsinstituts Profore. Sein Motto: „Wer seine mögliche Zukunft kennt, trifft die besseren Entscheidungen!“ Er ist Mitherausgeber des Bestsellers „Arbeitswelt und KI 2030“ (Springer Gabler) und Gründer des Alumnivereins der Zukunftsforschung, Mitglied im Netzwerk Zukunftsforschung sowie der World Futures Studies Federation. Als Mitglied der akademischen Zukunftsforschung arbeitet er im Umfeld der UNESCO und dem Club of Rome an der Umsetzung wichtiger Zukunftsthemen.

Mehrere Hürden vorhanden

In Deutschland wird jedenfalls bis auf weiteres die letzte Entscheidung über die Einstellung bestimmter Personen von einem Menschen getroffen. Doch als Hilfestellung sind KI-Tools wie die oben skizzierten inzwischen hervorragend geeignet. Dies liegt nicht nur an ihrer Präzision, sondern auch an ihrer Skalierbarkeit - ein Punkt, in dem sie Menschen klar überlegen ist.

Trotz aller Vorzüge ist der Einsatz von KI in der Personalbeschaffung jedoch auch mit mehreren Hürden verbunden. Hierzulande ist das vor allem der Datenschutz, Stichwort DSGVO. Denn ohne Zustimmung dürfen keine personenbezogenen Daten erhoben, verarbeitet und gespeichert werden. Einzuholen ist diese Zustimmung im Übrigen nicht über das Kleingedruckte in AGB von beispielsweise Karriereportalen.

Die Datenschutzinfos müssen Nutzern sehr prominent präsentiert werden, sodass deren Zustimmung auch wirklich rechtlichen Bestand hat. Das massenhafte Analysieren von Bewerberprofilen im Netz ist in der EU somit schon einmal klar eingeschränkt. Wichtig zu wissen: Vor allen Dingen Tools aus den USA haben Probleme mit der DSGVO-Konformität. Daher ist es ratsam, nach europäischen Lösungen zu suchen oder möglicherweise sogar eigene Lösungen zu entwickeln. Das notwendige Know-how ist seit der Veröffentlichung von ChatGPT verfügbarer denn je.

Die nächste Hürde ist zugleich eines der größten Missverständnisse zur künstlichen Intelligenz. Denn anders als es suggeriert wird, ist KI gar nicht "intelligent". Im Gegenteil: Jedes KI-basierte System kann immer nur so gut sein, wie erstens die Entwickler vorab mögliche Fehlerquellen antizipiert haben und zweitens wie vernünftig die Trainingsdaten zum späteren realen Umfeld passen.

Weil beides nicht perfekt sein kann, generiert KI immer einen bestimmten Anteil von Fehlern. Problematisch ist dies im Bereich der Personalauswahl besonders dann, wenn hierdurch eine Diskriminierung bestimmter Personen oder Personengruppen entsteht und die KI obendrein nicht erklären kann, warum sie die diskriminierende Entscheidung getroffen hat.

Beispielsweise könnte eine KI bei mangelhafter Vorarbeit annehmen, dass Männer mit einer bestimmten Herkunft oder Ethnie die beste Wahl für eine Stelle sind, weil statistisch mehr Personen dieser Art für vergleichbare Positionen angestellt sind als etwa Frauen aus einer anderen Region. Entstehen kann solch eine Diskriminierung jedoch nicht nur durch die Datenlage, sondern auch durch den Programmcode. Denn fast alle Menschen, so auch Software-Entwickler, reproduzieren (oft unbewusst) diskriminierende Muster - manche mehr, manche weniger.

So ist nicht auszuschließen, dass kulturell geprägte Vorurteile in den Quellcode einer KI-Lösung gelangen. In der Folge ist es damit möglich, dass das KI-gestützte Recruiting Sexismus oder Rassismus an den Tag legt, obwohl dies laut Allgemeinen Gleichbehandlungsgesetz (Antidiskriminierungsgesetz) verboten ist. Insofern müssen bei der KI-Entwicklung im Personalwesen ethische Maßstäbe im Fokus stehen. Das Ziel sollte ein Algorithmus sein, der stets die Person auswählt, die aufgrund ihrer Qualifikation am besten für eine bestimmte Position geeignet ist. Das richtige Setup vorausgesetzt, ist KI sogar besser als der Mensch dafür geeignet, Entscheidungen dieser Art wirklich objektiv zu treffen.

Eine weitere Frage lautet, wie eine KI mit unerwarteten Szenarien umgeht. Erkennt sie beispielsweise ohne Training, dass ein Lebenslauf komplett gefälscht wurde und die Person im Gespräch völlig anders wirkt? Menschliches Bauchgefühl wird in solchen Fällen auch künftig nicht ganz zu ersetzen sein, wenngleich die KI zumindest Vorschläge für eine rationale Entscheidung liefern kann.

Dann ist da noch die Haftungsfrage. Aktuell wäre für Schäden, beispielsweise durch Datenschutzverletzungen, noch das KI-Anwenderunternehmen, also eine juristische Person wie eine AG oder GmbH, selbst verantwortlich. Denkbar sind möglicherweise auch Haftungsansprüche gegenüber dem Software-Entwickler. Perspektivisch könnte es aber auch eine Haftbarkeit für die KI selbst geben.

Die Rede ist in diesem Kontext auch von einem neuen Rechtssubjekt, der sogenannten "elektronischen Person". Zunächst ist diese noch nicht erforderlich und auf Ebene der EU nach jahrelanger Diskussion auch abgelehnt worden. Spätestens, wenn sich KI-Bots noch mehr verselbstständigen und DAOs (Decentralised Autonomous Organisations) im Internet betreiben, wird die Thematik jedoch akut. Bis es so weit ist, sollten Unternehmen möglichst transparent damit umgehen, wie sie Daten von Bewerbern erheben, analysieren und speichern.

Ausblick: KI-Unterstützung wird zunehmen

Person auswählen, Termin vorbereiten, Interview durchführen, Protokoll erstellen, Entscheidung treffen, Arbeitsvertrag aushandeln und erstellen: Bereits in naher Zukunft werden wir Bewerbungsprozesse sehen, die mit all diesen Schritten vollständig von einer künstlichen Intelligenz geführt werden. Vorstellbar ist dies beispielsweise in Ländern wie China, den USA und Dubai. Technisch möglich wäre es sogar bereits heute. Die letzte offene Frage bleibt aber: Wie gehen die menschlichen Kollegen mit der Entscheidung einer KI um? An dieser Stelle ist von einer geringen Akzeptanz in Mitteleuropa auszugehen. Denn gerade hier sind wir in der Regel glücklicher mit menschlichen Fehlern als mit maschineller Perfektion.

In Zeiten des Fachkräftemangels werden einige Unternehmen dennoch nicht umhinkommen, Teile ihres Recruiting-Prozesses zu automatisieren. Mittel- bis langfristig wird die KI-Unterstützung immer stärker werden. Dies reicht hin bis zu einer weitgehend autonomen KI, die geeignete Personen ausfindig macht, die noch bei einem anderen Arbeitgeber angestellt sind, um sie davon zu überzeugen, den aktuellen Vertrag möglichst bald zu kündigen und stattdessen zum eigenen Unternehmen zu wechseln - automatische Headhunter quasi, die sehr überzeugend sein könnten.

Das Fazit für den Moment: Eine schlechte KI ist schlechter als ein schlechter Recruiter. Eine gute KI ist besser als ein schlechter Recruiter. Eine gute KI und ein guter Recruiter sind gemeinsam unschlagbar!

Lesen Sie auch

Karriereentwicklung mit Generative AI

Wie KI das Recruiting verändert

KI im Recruiting