Digitale Welt

Wenn Algorithmen diskriminieren

04:18 Minuten
Eine Fotomontage visualisiert die Gesichtserkennung.(Symbolbild)
Algorithmen sind nicht neutral, sondern sie können die Vorurteile ihrer Entwickler reproduzieren, kritisiert Adrian Lobe. © imago/
Ein Kommentar von Adrian Lobe · 07.01.2020
Audio herunterladen
Algorithmen entscheiden, ob jemand einen Pass erhält oder in einen neuen Job vermittelt wird. Immer öfter nutzen Verwaltungen "intelligente" Programme, die Menschen auch benachteiligen. Der Politologe Adrian Lobe warnt davor.
Stellen Sie sich vor, Sie sind arbeitslos. Auf dem Arbeitsamt attestiert Ihnen ein Automat, dass Sie schlechte Wiedereingliederungschancen auf dem Arbeitsmarkt haben. Die Konsequenz: Sie bekommen weniger Geld. Das ist keine Techno-Dystopie, sondern Realität.

Software entscheidet über Chance am Arbeitsmarkt

In Österreich wird ab diesem Jahr eine Software darüber entscheiden, welche Förderung Arbeitslose erhalten. Der Arbeitsmarktservice, wie die zuständige österreichische Behörde heißt, wird einen Computer-Algorithmus einsetzen, der Langzeitarbeitslose anhand verschiedener Merkmale in drei Kategorien einteilt. Dazu zählen Variablen wie Geschlecht, Alter, Nationalität, Gesundheit und Berufsgruppe. Auf dieser Grundlage wird dann eine sogenannte "Integrationschance" errechnet, also die Wahrscheinlichkeit, in einer bestimmten Anzahl von Tagen wieder Beschäftigung zu finden.
Von dieser Prognose hängen wiederum Fördermaßnahmen ab. Wer schlechte Chancen hat, bekommt weniger Unterstützung. Das System wurde im vergangenen Jahr getestet, ab Mitte des Jahres soll es flächendeckend implementiert werden. Das Modell war bereits vor seiner Einführung umstritten. Datenschützer monieren, dass Frauen, die auf dem Arbeitsmarkt ohnehin schlechtere Chancen haben, diskriminiert werden. Auch ältere Bewerber und Ausländer sollen in dem System Abzüge bekommen. Die Kritik: Das System fördere lediglich die Bewerber, die ohnehin schnell in den Arbeitsmarkt eingegliedert werden können.

Computerprogramme greifen in reale Lebenswelt ein

Das Beispiel zeigt, wie sehr sich automatisierte Systeme bereits in unsere reale Lebenswelt eingeschlichen haben. Algorithmen entscheiden, welchen Preis wir im Onlinehandel zahlen, ob wir zum Vorstellungsgespräch eingeladen werden, und ob wir bei der Bank einen Kredit bekommen. Algorithmen sind zu Autoritäten der digitalen Gesellschaft mutiert – ohne, dass wir sie jemals gewählt geschweige denn legitimiert hätten. Hinzu kommt: Computerprogramme sind eben nicht neutral, wie ihre Entwickler dauernd behaupten. Algorithmen können zuweilen auch diskriminieren.
2016 lehnte die neuseeländische Passbehörde den Antrag eines asiatisch stämmigen Bürgers ab, weil dessen Augen auf dem Foto angeblich geschlossen waren. Allein, die Maschine irrte. Die Augen waren sehr wohl geöffnet – sie waren bloß schmaler als der Durchschnitt.
Das ist kein Einzelfall. 2015 kategorisierte Googles Foto-App das Foto eines afroamerikanischen Programmierers und seiner Freundin als "Gorillas". 2009 wählte Google bei der Bildersuche nach Michelle Obama eine affenähnliche Gestalt aus. Und erst kürzlich wurde bekannt, dass in US-Krankenhäusern ein Algorithmus systematisch Afro-Amerikaner diskriminierte und ihnen die notwendige Behandlung verwehrte. Was also ist zu tun?
Maschinenethiker fordern, man müsse so genannte Black-Box-Algorithmen transparent machen. Die Technik sei nicht per se ungeeignet, sondern einfach nur schlecht konstruiert, weil sie Vorurteile der Entwickler reproduziere. Man müsse Algorithmen einfach besser "bauen".

Algorithmen operieren nur nach Schablonen

Es stimmt ja: Algorithmen erfüllen heutzutage sinnvolle Rationalisierungsfunktionen. Sie sortieren und strukturieren riesige Datenmengen. Kein Sachwalter kann und will tausende Dokumente durchforsten. Der Computer ist womöglich der bessere Bürokrat. Aber eben nicht in jedem Fall, denn Algorithmen sehen ja nicht den Menschen im Menschen, sondern nur das Muster, die Abweichung von der statistischen Norm.
Diese Objektivierung des Menschen, die mit dem Rastern und Klassifizieren von Individuen einhergeht, ist mit einer humanistischen Werteordnung nicht vereinbar. Sie lässt sich auch nicht durch ethischere Designs abstellen. Algorithmen operieren nur nach Schablonen. Man sollte daher sorgsam abwägen, wo man automatisierte Systeme einsetzt und wo nicht. Gerade im Zeitalter der Maschinen hat der Mensch auch ein Recht auf den Menschen und seine differenzierte Entscheidung.

Adrian Lobe, Jahrgang 1988, hat in Tübingen, Heidelberg und Paris Politik- und Rechtswissenschaft studiert. Er arbeitet als freier Journalist u.a. für Die Zeit, FAZ, NZZ und SZ. 2016 wurde er mit dem Georg von Holtzbrinck Preis für Wissenschaftsjournalismus ausgezeichnet. 2019 erschien sein Buch: "Speichern und Strafen – Die Gesellschaft im Datengefängnis".

Adrian Lobe
© privat
Mehr zum Thema