Und raus bist du? Foto: Getty Images/iStockphoto/NicoElNino
© Getty Images/iStockphoto/NicoElNino

Algorithmen in der Verwaltung Wenn der Computer Nein sagt

Ingrid Brodnig

Welcher Arbeitslose kriegt einen teuren Kurs bezahlt? Welche Person wird von der Polizei verhört? Zunehmend bestimmt das auch Software mit. Ein Essay.

Ein Algorithmus wird künftig den Ausschlag geben, welche Ressourcen zur Erhöhung seiner Chancen am Arbeitsmarkt ein Arbeitsloser bekommt - ob er eine teure Weiterbildung belegen oder nur einen vergleichsweise billigen Kurs besuchen darf. Denn die Software bewertet für jeden Arbeitslosen, wie groß oder klein dessen Chancen am Arbeitsmarkt sind. Wer nur einen niedrigen Wert erhält, also wer laut Kalkulation nur geringe Chancen auf einen Job hat, der soll in Zukunft eher keine teuren Trainings mehr erhalten. Ziel der Berechnung ist es, festzustellen, bei wem sich kostspielige Weiterbildung noch lohnt - und welche Arbeitslosen hingegen günstige Kurse erhalten sollen.

Das ist keine Science Fiction, es ist Realität. In Österreich tritt dieses System 2019 schrittweise in Kraft. Seither bewertet ein Algorithmus jeden Arbeitslosen. Das österreichische Beispiel ist keineswegs ungewöhnlich: Zunehmend setzt auch die öffentliche Hand Algorithmen in Form von kluger Software ein, um Vorhersagen über Bürger zu treffen. In der Schweiz setzt die Polizei Software ein, um gewalttätige Männer vor einer schweren Straftat zu erkennen; in US-Bundesstaaten wie Florida verwenden Richter Software bei der Entscheidung, wer auf Bewährung freikommen darf und wer ins Gefängnis muss. Im Umkreis von Pittsburgh kalkuliert die Software, welche Familie ihr Kind womöglich misshandeln wird.

Der Staat und öffentliche Einrichtungen nutzen zunehmend solche Prognosetools, um die Komplexität einer Situation besser bewerten zu können. Das wirft viele ethische Fragen auf: Wie treffsicher sind solche Instrumente, gibt es Bevölkerungsgruppen, bei denen die Software öfters falsch liegt? Diskriminieren einzelne Algorithmen ganze Menschengruppen? Und darüber hinaus: Gibt es politische Themen, bei denen wir als Gesellschaft solche Berechnungen nicht wollen? Gibt es Grenzen? All diese Fragen sind akut. Wir müssen sie jetzt beantworten, weil die Technik weltweit zunehmend eingesetzt wird.

Die Formel lautet: „– 0,14 x GESCHLECHT_WEIBLICH“

Österreichs Arbeitsmarktservice (AMS), das Pendant zur deutschen Arbeitsagentur, also eine öffentliche Einrichtung, hat von einem privaten Forschungsinstitut namens Synthesis Forschung GmbH ein Modell erstellen lassen, mit dem man die Jobchancen jedes Bürgers berechnen kann. Zur Erstellung dieses Algorithmus konnten die Forscher Millionen von historischen Daten des AMS auswerten, darunter Information über Alter, Bildungsstand, Geschlecht, Kinderbetreuungspflichten von Arbeitslosen in Österreich. Sie kalkulierten auf Basis der Daten der vergangenen Jahre, welche Faktoren sich im Schnitt negativ oder positiv auf die Jobsuche auswirken. Ein Alter über 50 wirkt sich negativ für die Jobchancen aus, eine abgeschlossene Lehre positiv.

Wirklich interessant an der Datenanalyse ist, dass sie auch bestehende Ungleichheit greifbar macht. Die Forscher sahen, dass Frauen messbar schlechtere Karten am Arbeitsmarkt hatten. In einer ihrer Formeln notierten sie: „– 0,14 x GESCHLECHT_WEIBLICH“. Das heißt, Frausein ist ein Negativfaktor. Sind sich eine weibliche Arbeitslose und ein männlicher Arbeitsloser in allen anderen Aspekten gleich (gleiche Ausbildung, gleiches Alter, gleiche Berufserfahrung), hat die Frau trotzdem im Schnitt eine leicht niedrigere Chance am Arbeitsmarkt. Und das ist nicht die einzige Ungleichheit, die in der Analyse zum Vorschein kam: Wenn Frauen Kinder haben und diese betreuen müssen, sinken ihre Jobchancen noch einmal zusätzlich. Bei den männlichen Arbeitslosen konnten die Forscher diesen Effekt nicht messen. Wenn Männer Kinder und Betreuungspflichten hatten, war das für sie kein Nachteil bei der Jobsuche.

Die Datenanalyse legt nahe, dass der Arbeitsmarkt Frauen mit Kind leicht bestraft. Aus frauenpolitischer Sicht ist diese Berechnung zuerst mal beeindruckend: Schwarz auf weiß wird dokumentiert, dass es Frauen selbst bei gleicher Qualifikation eine Spur schwerer haben. Umstritten ist allerdings, was mit dieser Kalkulation in Zukunft passiert: Basierend auf den Zahlen sollen ab 2020 auch Ressourcen verteilt werden. Alle Arbeitslosen werden in drei Gruppen eingeteilt: eine Gruppe mit hohen Chancen am Arbeitsmarkt, eine mit mittleren Chancen und eine mit niedrigen Jobchancen. Und wer in der niedrigsten Gruppe landet, soll künftig keine teure Weiterbildung bezahlt bekommen – oder nur dann, wenn sich der eigene Betreuer über den Computer hinwegsetzt. Auch soll die Gruppe mit hohen Chancen am Arbeitsmarkt keine besondere Förderung erhalten, weil sie wahrscheinlich ohnehin Jobs findet.

Wie steht es um die ethische Verträglichkeit?

Das führt zu einer Sorge: Werden Frauen in solch einem System benachteiligt? Das AMS dementiert dies vehement und betont, dass sich in der aktuellen Verteilung Frauen verstärkt in der Gruppe mit den mittleren Arbeitsmarktchancen wiederfinden – die stark gefördert werden soll. Sind also die Sorgen vor algorithmischer Diskriminierung überzogen? Wirklich klar ist das bisher nicht. Um diese Frage gründlich zu beantworten, müssten Wissenschaftler Vergleichskalkulationen anstellen, sie müssten mit den Daten des Arbeitsmarktservice experimentieren dürfen. „Um das Modell besser zu verstehen, wäre zum Beispiel interessant, in welchen der drei Gruppen die Frauen landen, wenn man den Faktor Geschlecht bewusst weglässt oder wenn man getrennte Analysen für Frauen und Männer rechnen würde“, sagt Erich Neuwirth, ein Experte am Feld der Statistik und langjährige Professor an der Universität Wien. Bisher veröffentlichte die zuständige Synthesis Forschungs GmbH 16 Seiten zu ihrem Algorithmus - von außen gibt es bisher wenig Einblick in das System.

Außerdem wurde vor der Einführung keine eigene ethische Untersuchung geplant, wie sich dieses Programm in der Praxis auswirken könnte. Dabei gibt es Fälle, wo dezidiert auch die ethische Verträglichkeit von Algorithmen vorab evaluiert wurde. Ein gutes Beispiel liefert die Region rund um Pittsburgh, genannt Allegheny County: Dort führte das Jugendamt 2016 ein vieldiskutiertes Prognose-Instrument namens „Allegheny Family Screening Tool“ ein. Wenn jemand bei der Jugendhilfe anruft und den Verdacht äußert, eine Familie misshandle womöglich ihr Kind, dann prüft auch die Software den Fall.

Basierend auf früheren Aufzeichnungen der Jugendhilfe, von Sozialeinrichtungen und der Justiz berechnet die Software die Wahrscheinlichkeit, ob ein Kind in einer Familie gefährdet ist. Auch hier wird kontrovers diskutiert, ob Behörden solche Berechnungen anstellen sollen und ob es womöglich Schattenseiten eines solchen Programms gibt. Aber auf jeden Fall hat der Landkreis diesen Prozess sehr transparent kommuniziert. Im Vorfeld führten Wissenschaftler eine ethische Analyse durch, ob ein solches Tool sinnvoll ist und wo potenzielle Risiken liegen. Das Dokument kann jeder online nachlesen.

Zur Startseite