Ob die Personalsuche per Computerdaten objektiver ist, darüber gibt es unterschiedliche Meinungen. Wichtig bleiben diverse Teams im Job. Foto: Getty Images/iStockphoto
p

Recruiting Digitale Diskriminierung: Wenn Computer Bewerber auswählen

Rebecca Ciesielski
0 Kommentare

Personalsuche per Software ist heikel – auf die Programmierung kommt es an.

Weiße, gelbe und grüne Dreiecke zeichnen die Gesichtsstrukturen der Versuchsperson nach. Mit der digitalen Maske, die sich auf einem Bildschirm über Wangen, Nase und Augen der Versuchsperson legt, will Joy Buolamwini ihrem Publikum zeigen, wie Computer sehen – nämlich durch Bildpunkte und deren Abweichungen von Standards. Als die Wissenschaftlerin, die am renommierten MIT-MediaLab forscht, selbst in die Kamera schaut passiert nichts. Keine bunten Flächen erscheinen, die zeigen, dass die „smarte“ Kamera ihr Gesicht erkannt hat. Buolamwinis Aussehen weicht zu sehr von den Daten ab, mit denen die Kamera gelernt hat, Menschen wahrzunehmen. Denn die IT-Forscherin ist schwarz.

Der Kamerafehler hat einen einfachen Grund: „Computer-Sehen nutzt maschinelles Lernen für die Gesichtserkennung“, sagt Buolamwini. Beinhalten die Trainingsdaten keine Bilder von schwarzen Menschen, dann erkennen die Algorithmen deren Gesichter nach der Lernphase auch nicht.

Obwohl auch Computer-Augen manchmal blind sind, dienen datengenerierte Ergebnisse, wie es in der Branche heißt, in immer mehr Bereichen als Entscheidungsgrundlage. In den USA bestimmen Scoring-Verfahren mittlerweile an vielen Stellen darüber, welcher Bewerber einen College-Platz erhält und wer einen Job, eine Kreditkarte oder eine Versicherung. Sogar die Gerichte einiger US-Staaten wie Kentucky, Arizona oder Washington ziehen bei Verfahren Algorithmen zu rate, um zu bestimmen, wie rückfallgefährdet Verbrecher sind. Das geschieht, obwohl man weiß, dass die Programme die afro-amerikanische Bevölkerung diskriminieren.

Die automatisierte Bewertung von Menschen kommt in Deutschland an

In Deutschland ist die Analyse personenbezogener Daten noch weniger flächendeckend. Deshalb stieß die Idee eines „digitalen Antidiskriminierungsgesetzes“ von Justiz- und Verbraucherschutzminister Heiko Maas (SPD) zunächst Unverständnis hervor. Dabei sei der Wille nachvollziehbar, die Entscheidungsfindung von Programmen transparent zu machen, sagt der Grünen-Sprecher für Netzpolitik, Konstantin von Notz. „Aber ein simples Gesetz oder die TÜV-Plakette allein wird es nicht richten.“

Denn „Profitdruck und entsprechende Debatten um Daten getriebene Geschäftsmodelle“ gebe es nicht nur in den USA, sondern auch in Deutschland. „Wir stehen vor einer nationalen, europäischen und globalen Herausforderung“, sagt von Notz. Dass die automatisierte Bewertung von Menschen verstärkt auch in Deutschland ankommt, zeigen neue Recruiting-Unternehmen. Mylittlejob aus Hamburg will das Matching von Studierenden mit ortsunabhängigen Jobs vereinfachen. Die dort registrierten Studierenden haben bereits 120 000 Aufgaben für Unternehmen aus Deutschland und den USA erledigt. Besonders ist ein Algorithmus, der die Fähigkeiten der Studenten möglichst objektiv bewerten soll.

„Die Basis ist ein Aufnahmetest, den wir mit Forschern der ETH Zürich entwickelt haben, um Skills unabhängig von Selbsteinschätzungen zu erfassen“, sagt Daniel Barke, einer der beiden Gründer. Das Verfahren verbindet pro Student 5000 einzelne Datenpunkte, Bewertungen für zuvor gelöste Aufgaben und Informationen über die Nutzung der Plattform. „Unser Algorithmus wird ausschließlich mit Daten zu Leistung, Verhalten und Können gefüttert“, sagt Barke. Weil Informationen wie Herkunft oder Geschlecht gar nicht erfasst würden, gebe es bei dem Ansatz eine geringere Diskriminierungs-Wahrscheinlichkeit.

Bewerber und Personaler sehen in der Technik keine Bedrohung

Immer mehr Verfechter der automatisierten Personalsuche glauben, dass Programme helfen könnten, Bewerber fairer auszuwählen. Dieser Ansicht ist auch Tim Weitzel, Professor für Wirtschaftsinformatik an der Universität Bamberg. „Eine automatisierte Auswahl ist diskriminierungsfreier, weil man schlicht nachweisen kann, ob eine 27-jährige, afghanische Frau schlechter behandelt wird als ihre Mitbewerber“, sagt Weitzel. Während man eine Benachteiligung durch Menschen oft nur vermuten lasse, könne man bei Algorithmen klare Regeln festlegen, wie etwa die Gewichtung bestimmter Noten. Das spare Zeit – besonders bei großen Unternehmen.

Jährlich führt Weitzel an seinem Lehrstuhl eine Studie zu neuen Recruiting-Trends durch. Die Ergebnisse sprechen für die Technik: „Jeder vierte Kandidat nimmt an, dass er dadurch bessere Chancen hat“, sagt Weitzel. Gleichzeitig hätten nur knapp vier Prozent der Personaler Angst, durch Automatisierung ihren Job zu verlieren. „Wir müssen uns bewusst sein, dass Algorithmen nicht immer faire Entscheidungen treffen, es ist wichtig, wer programmiert und wie“, sagt hingegen Buolamwini. Wichtig seien diverse Teams, die sich gegenseitig auf ihre „blinden Flecken“ hinweisen.

Zur Startseite