Vom Diskriminierungsfaktor zur Fairness-Strategie: KI im HR richtig einsetzen

KI im Recruiting verspricht Effizienz. Aber: Sie übernimmt Muster aus der Vergangenheit. Ohne klare Leitplanken wiederholt sie Diskriminierung im Akkord. HR hat den Hebel, das zu ändern.

Künstliche Intelligenz (KI) ist mit generativer KI wie zum Beispiel ChatGPT im (Berufs-)Alltag vieler Menschen angekommen. Sie durchdringt bereits heute zahlreiche Bereiche der Arbeitswelt – von automatisierten Bewerbungstools über Chatbots im Onboarding neuer Mitarbeitender bis hin zu Analysetools für die Zufriedenheit der Mitarbeitenden. Was für HR-Abteilungen Effizienzgewinne und Entlastung verspricht, birgt zugleich Risiken für Diversität und Chancengerechtigkeit. Ob KI bestehende Ungleichheiten verstärkt oder neue Möglichkeiten für Inklusion eröffnet, hängt davon ab, wie bewusst Personalverantwortliche mit diesen Technologien umgehen.

Wenn Algorithmen Vorurteile zementieren

Eine Gefahr, die von KI ausgeht und die Chancengerechtigkeit (unbemerkt) mindern kann, liegt im sogenannten Bias. KI-Systeme brauchen grosse Datenmengen, um trainiert zu werden. Sie «lernen» dabei aus historischen Daten (Machine Learning), die jedoch häufig bestehende gesellschaftliche Ungleichheiten widerspiegeln. Mit Bias ist die Verzerrung gemeint, die entstehen kann, wenn KI Vorurteile oder Ungleichheiten aus den Trainingsdaten übernimmt.

Ein bekanntes Beispiel dafür ist Amazon: 2014 nutzte das Unternehmen ein Bewerbungs-Tool, das eigentlich dabei helfen sollte, die mögliche Voreingenommenheit von Personalverantwortlichen zu reduzieren. Die Idee war, dass nicht Menschen, sondern ein KI-System die Auswahl trifft. Für das Training wurden frühere Bewerbungsunterlagen genutzt. Das Geschlecht wurde aus den Unterlagen entfernt, um geschlechterspezifische Diskriminierung zu vermeiden. Dennoch trat genau das ein: Das System bevorzugte Männer. Warum? In der Vergangenheit waren bei Amazon deutlich mehr Männer eingestellt worden als Frauen. Damit lagen dem System automatisch mehr Bewerbungen von Männern als von Frauen vor. Das System lernte also, dass bestimmte Merkmale häufiger zu einer Einstellung führten – unabhängig davon, ob das Geschlecht sichtbar war oder nicht. Dadurch wertete die KI Hinweise wie den Besuch einer Mädchenschule oder längere Berufspausen, die oft bei Frauen mit Kindern vorkommen, automatisch negativ.

Das Beispiel zeigt deutlich: Auch wenn die Intention war, einen faireren Bewerbungsprozess zu etablieren, kann eine KI Ungerechtigkeiten reproduzieren. Denn sie erkennt Muster in den Daten, die uns Menschen oft gar nicht bewusst sind, und verstärkt damit bestehende Vorurteile, statt sie abzubauen. Weitere Beispiele finden Sie etwa in diesem Artikel.

Hinzu kommt die Black-Box-Problematik: Wie Kuhn und Hartmann (2023) in ihrem Working Paper «Das ‹Black-Box-Phänomen› in der KI-Entwicklung» ausführen, handelt es sich dabei um ein zentrales Problem in der KI-Entwicklung, das Transparenz und Verantwortungsübernahme erschwert. Für HR bedeutet das: Ablehnungen oder Rankings sind oft schwer überprüfbar, wenn mit KI-Tools gearbeitet wird. Eine vermeintlich «objektive» Entscheidung kann so unbemerkt diskriminierende Muster wiederholen. Die Folge: Kleine Verzerrungen (Bias) werden verstärkt. Was in einem manuellen Auswahlprozess vielleicht eine Einzelentscheidung wäre, vervielfacht sich durch den Einsatz von KI-Tools und kann Bewerbendenpools oder Karriereverläufe beeinflussen.

Handlungsempfehlungen für Personalverantwortliche

Damit KI in der Personalarbeit nicht unbemerkt Diskriminierungen wiederholt, braucht es einen möglichst klaren Handlungsrahmen:

  • Verantwortung übernehmen: KI-Tools sind keine neutralen Instrumente. HR sollte aktiv mitgestalten, welche Systeme genutzt und wie sie trainiert werden, beziehungsweise bei der Wahl der Tools einbezogen sein, um Details direkt mit den Anbietenden und Entwickelnden klären zu können.
  • Transparenz einfordern: Wer stellt die Datenbasis? Welche Entscheidungskriterien fliessen in eine KI-Anwendung ein? Unternehmen sollten nur Systeme einsetzen, die nachvollziehbare Informationen liefern.
    Diversität als Leitprinzip verankern: Diversity-Kriterien müssen von Beginn an Teil der Auswahl, Entwicklung und Anwendung von KI-Systemen sein.
  • Interdisziplinär arbeiten: Die Zusammenarbeit von HR mit IT, Data Science, Diversity-Management und Ethikfachleuten kann entscheidend sein; auch hier ist die Vielfalt der Perspektiven ein Schlüssel zum (inklusiven) Erfolg.
    Kompetenzen aufbauen: Personalverantwortliche sollten sich Grundkenntnisse zu KI aneignen, um Risiken und Chancen fundiert einschätzen zu können.

KI für mehr Perspektiven

Ein aktuelles Beispiel, wie KI aktiv zu mehr Diversität beitragen kann, liefert das Projekt «PerspectiveAI» der OST – Ostschweizer Fachhochschule. Ziel des Projekts ist es, unterrepräsentierte Stimmen in Innovationsprozessen sichtbar zu machen. Denn in komplexen Projekten werden oft genau jene Perspektiven übersehen beziehungsweise vergessen, die für die Akzeptanz oder den Erfolg entscheidend wären – sei es die Sicht bestimmter Kundschaft, von Mitarbeitenden, Anspruchsgruppen oder betroffenen Gruppen, die auf den ersten Blick nicht sofort erkennbar sind.

Das Ziel des Projekts ist es, die konkreten Bedürfnisse an eine solche Anwendung zu identifizieren sowie herauszufinden, in welchen Bereichen die Anwendung am sinnvollsten wäre und welche Anforderungen berücksichtigt werden müssen. Die Bedürfnisanalyse und Evaluationsphase dauern bis Ende 2025. Danach wird ein weiterführendes Forschungsprojekt angestrebt, in dem ein Prototyp entwickelt werden soll und dessen Machbarkeit überprüft wird.

Ausblick: Die Rolle von HR in einer KI-gestützten Arbeitswelt

KI ist weder von Natur aus fair noch unfair; sie spiegelt die Daten und Muster wider, die wir ihr vorgeben, und kann diese verstärken. Für den Personalbereich bedeutet das eine besondere Verantwortung. HR entscheidet zwar nicht über jedes KI-System im Unternehmen, hat aber eine Schlüsselrolle, wenn es um den Einsatz von KI in personalrelevanten Prozessen geht – also dort, wo es direkt um Menschen, Chancen und Karrieren geht.

Gerade hier muss HR sicherstellen, dass Systeme nicht nur effizient, sondern auch fair und diversitätssensibel gestaltet sind. Dazu gehört, klare Anforderungen an Anbietende zu stellen, Transparenz und Nachvollziehbarkeit einzufordern und eigene Prozesse kritisch zu hinterfragen.

Ein weiterer zentraler Auftrag ist die Sensibilisierung: HR muss sowohl sich selbst als auch Führungskräfte und Mitarbeitende darin schulen, wie KI funktioniert, wo ihre Grenzen liegen und wie sich Verzerrungen einschleichen können. So wird aus Technik ein Werkzeug, das bewusst und reflektiert eingesetzt wird.

Projekte wie «PerspectiveAI» zeigen, dass es möglich ist, KI so zu gestalten, dass sie Diversität sichtbar statt unsichtbar macht. Für HR bedeutet das: Chancen nutzen – aber mit klaren Leitlinien und stets einem Blick für die Chancengerechtigkeit. So kann HR aktiv dazu beitragen, dass KI in der Arbeitswelt nicht bestehende Ungleichheiten verstärkt, sondern zu einem Baustein für mehr Fairness wird.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert