Fallstudie: Personalentscheidung in einer algorithmisch strukturierten Auswahlarchitektur
Ein international tätiges Industrieunternehmen führt ein KI-gestütztes System zur Vorauswahl von Bewerbern ein. Ziel ist es, die Effizienz im Recruiting zu erhöhen und gleichzeitig die Qualität der Auswahlentscheidungen zu verbessern. Das System analysiert Lebensläufe, Projekterfahrungen, Sprachmuster in Anschreiben sowie digitale Spuren aus öffentlich zugänglichen Profilen. Auf dieser Basis generiert es eine Rangliste von Kandidaten, die den Recruitern als Entscheidungsgrundlage dient. Formal verbleibt die Auswahlentscheidung beim HR-Team, das die Vorschläge prüft und final bestätigt.
Zu Beginn wird das System als strategischer Fortschritt bewertet. Die Time-to-Hire sinkt signifikant, die Vergleichbarkeit von Kandidaten nimmt zu, und das Management sieht in der datenbasierten Vorauswahl einen Schritt hin zu objektiveren Entscheidungen. Die Governance-Struktur bleibt jedoch weitgehend unverändert: Recruiter tragen weiterhin die Verantwortung für Einstellungen, während die Entwicklung und Pflege des Systems von einer zentralen Data-Science-Einheit übernommen wird. Die Trainingsdaten basieren auf historischen Einstellungsentscheidungen des Unternehmens.
Nach einigen Monaten treten erste Spannungen auf. Interne Analysen zeigen, dass das System bestimmte Profile systematisch bevorzugt – insbesondere solche, die bisherigen Karriereverläufen erfolgreicher Mitarbeiter ähneln. Gleichzeitig werden Kandidaten mit atypischen Lebensläufen oder nicht-linearen Karrierewegen deutlich seltener berücksichtigt. Diese Muster sind nicht explizit programmiert, sondern entstehen aus der Struktur der Trainingsdaten und der Zieldefinition des Modells, das auf „Erfolgswahrscheinlichkeit im Unternehmen“ optimiert ist.
Die Problematik eskaliert, als externe Kritik laut wird. Ein Bewerber macht geltend, dass seine Ablehnung auf diskriminierenden Mustern beruhe, und fordert Transparenz über die Entscheidungslogik. Das Unternehmen sieht sich gezwungen, die Verantwortungsfrage zu klären. Formal liegt die Entscheidung beim Recruiting-Team, das die finale Auswahl getroffen hat. Doch die Recruiter argumentieren, dass ihre Entscheidungen maßgeblich durch die vom System generierte Rangliste vorstrukturiert waren. Abweichungen von dieser Rangliste hätten zusätzliche Begründungslasten erzeugt und seien im operativen Alltag kaum praktikabel gewesen.
An diesem Punkt wird die Differenz zwischen operativer Handlung und systemischer Mitwirkung evident. Die operative Handlung – die Auswahl eines Kandidaten – ist klar identifizierbar und institutionell adressiert. Die systemische Mitwirkung hingegen bleibt diffus: Sie umfasst die Auswahl der Trainingsdaten, die Definition von „Erfolg“ als Zielgröße, die Modellarchitektur sowie die Gestaltung des Interfaces, das die Ranglisten präsentiert. Diese Elemente entfalten jeweils diskrete Wirkungen, die sich in der finalen Entscheidung kumulieren, ohne selbst als Entscheidungen sichtbar zu sein.
Das Framework der Diskreten Wirksamkeit erlaubt es, diese Konstellation präzise zu analysieren. Die Auswahlentscheidung ist nicht der Ursprung der Wirkung, sondern deren Manifestation. Die eigentlichen Wirkungsimpulse liegen in den vorgelagerten Strukturentscheidungen. So führt die Nutzung historischer Daten dazu, dass bestehende Präferenzen reproduziert werden. Die Definition von Erfolg als Retention- oder Performance-Metrik privilegiert bestimmte Karrierepfade. Das Interface, das Kandidaten in einer Rangliste darstellt, verstärkt die Tendenz, den obersten Vorschlägen zu folgen. Jeder dieser Punkte erzeugt eine diskrete Verschiebung im Entscheidungsraum.
Die Zurechnungsproblematik ergibt sich aus der fehlenden institutionellen Abbildung dieser Wirkungsorte. Während die operative Entscheidung eindeutig zugewiesen ist, bleiben die strukturellen Beiträge unterhalb der formalen Verantwortungsgrenze. Es entsteht eine implizite Verantwortungsverschiebung: Verantwortung wird an den Endpunkt des Prozesses gebunden, obwohl die entscheidenden Weichenstellungen zuvor erfolgen. Die Recruiter tragen die Verantwortung für Entscheidungen, deren inhaltliche Struktur sie nur begrenzt beeinflussen können.
Haftungsfragen verschärfen diese Asymmetrie. Das Unternehmen prüft, ob die Verantwortung auf die Data-Science-Einheit übertragen werden kann, die das Modell entwickelt hat. Diese verweist jedoch darauf, dass sie auf Basis der definierten Anforderungen und bereitgestellten Daten gearbeitet hat. Die Verantwortung für die Zieldefinition liege beim Management, die Verantwortung für die Daten bei den jeweiligen Fachabteilungen. Eine eindeutige Haftungszuweisung erweist sich als nicht möglich, da die Wirkung aus dem Zusammenspiel mehrerer Beiträge entsteht.
Die normative Dimension der Fallstudie liegt in der Frage, welche Kriterien als legitim für Auswahlentscheidungen gelten. Das System optimiert auf Effizienz und prognostizierten Erfolg, ohne die Diversität von Karriereverläufen oder potenzielle strukturelle Verzerrungen angemessen zu berücksichtigen. Diese normative Setzung ist nicht explizit entschieden worden, sondern implizit in die Modellarchitektur eingeflossen. Verantwortung umfasst hier nicht nur die Entscheidung selbst, sondern auch die Reflexion der zugrunde liegenden Bewertungsmaßstäbe.
Als Reaktion auf die Kritik initiiert das Unternehmen eine umfassende Überarbeitung seiner Governance-Struktur. Es wird ein Gremium eingerichtet, das die Zieldefinitionen von KI-Systemen überprüft und regelmäßig anpasst. Die Trainingsdaten werden diversifiziert, um unterschiedliche Karriereverläufe besser abzubilden. Zudem wird das Interface so gestaltet, dass es nicht nur Ranglisten präsentiert, sondern auch Unsicherheiten und alternative Profile sichtbar macht. Recruiter werden explizit dazu angehalten, Systemempfehlungen kritisch zu hinterfragen und eigenständige Bewertungen vorzunehmen.
Diese Maßnahmen führen zu einer Reallokation von Verantwortung entlang der diskreten Wirkungsorte. Die Gestaltung von Daten, Modellen und Interfaces wird als eigenständiger Verantwortungsbereich etabliert. Operative Entscheidungen bleiben relevant, werden jedoch in einen breiteren Kontext eingebettet. Haftung wird dadurch nicht vollständig aufgelöst, aber differenzierter begründbar, da die relevanten Einflussfaktoren transparent gemacht werden.
Die Fallstudie verdeutlicht, dass Verantwortung in KI-gestützten Auswahlprozessen nicht als punktuelle Zuschreibung verstanden werden kann. Sie ist das Ergebnis einer verteilten Architektur, in der unterschiedliche Beiträge unterschiedliche Wirkungen entfalten. Das Framework der Diskreten Wirksamkeit ermöglicht es, diese Architektur sichtbar zu machen und die impliziten Verschiebungen von Verantwortung zu adressieren. Es zeigt, dass die entscheidende Herausforderung nicht in der Kontrolle einzelner Entscheidungen liegt, sondern in der bewussten Gestaltung der Strukturen, die diese Entscheidungen hervorbringen.
