Rassistische Algorithmen
03:39 Minuten
Nicht nur die Kölner Polizei beurteilt Menschen nach ihrer Hautfarbe und Herkunft. Software-basiertes "Racial Profiling" ist längst Alltag, bei der US-Polizei und im Internet etwa. Und es könne der Gesellschaft weit mehr Schaden zufügen, als die Ereignisse am Kölner Hauptbahnhof vor einem Jahr, meint Philip Banse.
Vieles spricht dafür, dass die Polizei am Kölner Hauptbahnhof Menschen nach ihrer Hautfarbe sortiert hat, ohne einen konkreten Anlass gehabt zu haben.
Afrikanisch, arabisch Aussehende: verdächtig, nach rechts zur Ausweiskontrolle.
Blond und nordeuropäisch: unverdächtig, passieren bitte.
Blond und nordeuropäisch: unverdächtig, passieren bitte.
Über diese Methode muss man streiten. Einerseits musste die Polizei Gewalt wie vor einem Jahr verhindern, andererseits verbietet Artikel 3 des Grundgesetzes ganz klar, dass Menschen nur wegen ihrer Heimat und Herkunft benachteiligt werden. Rechtfertigt das Anliegen der Polizei, gegen diesen Grundsatz zu verstoßen? Diese Debatte ist auch deshalb so wichtig, weil diese Art des Profilings nicht nur vor einer Woche am Kölner Hauptbahnhof stattfand, sondern Alltag ist in Digitalien.
In jedem Moment treffen Algorithmen Entscheidungen: Wer bekommt welche Werbung zu sehen? Wer bekommt welchen Preis zu sehen? Wer bekommt welchen Kredit? Welchen Zinssatz? Überhaupt einen Kredit? Auch hier gilt, dass Menschen nicht aufgrund ihrer Heimat und Herkunft benachteiligt werden dürfen – allein, das kümmert die wenigsten.
Eine Studie der Harvard-Forscherin Latanya Sweeney von 2013 hat gezeigt: Wer welche Anzeigen zu sehen bekommt, entscheidet Google auch nach der Herkunft der Betrachter, die Google auch aus dem Nachnahmen der browsenden Nutzer ableiten soll. Und wer nach Namen sucht, die vorranging von Afroamerikanern getragen werden, so die Harvard-Studie, bekomme vermehrt Werbung zu sehen für Zuverlässigkeitsüberprüfungen.
In jedem Moment treffen Algorithmen Entscheidungen: Wer bekommt welche Werbung zu sehen? Wer bekommt welchen Preis zu sehen? Wer bekommt welchen Kredit? Welchen Zinssatz? Überhaupt einen Kredit? Auch hier gilt, dass Menschen nicht aufgrund ihrer Heimat und Herkunft benachteiligt werden dürfen – allein, das kümmert die wenigsten.
Eine Studie der Harvard-Forscherin Latanya Sweeney von 2013 hat gezeigt: Wer welche Anzeigen zu sehen bekommt, entscheidet Google auch nach der Herkunft der Betrachter, die Google auch aus dem Nachnahmen der browsenden Nutzer ableiten soll. Und wer nach Namen sucht, die vorranging von Afroamerikanern getragen werden, so die Harvard-Studie, bekomme vermehrt Werbung zu sehen für Zuverlässigkeitsüberprüfungen.
Software stuft dunkelhäutige Menschen als unzuverlässiger ein
Zuverlässigkeitsüberprüfungen? Ja, denn Computerprogramme, von Menschen geschriebene Algorithmen, tendieren dazu, Menschen mit dunkler Hautfarbe für unzuverlässiger zu halten. Soll ein Gefangener frühzeitig entlassen werden? Wie hoch muss die Kaution sein? Diese Fragen entscheidet in den USA mehr und Software, die die Zuverlässigkeit der betreffenden Menschen beurteilen soll. Nach welchen Kriterien? Natürlich geheim.
Die unabhängige Nachrichtenorganisation ProPublica hat sich daher die software-basierte Risikoeinschätzung von 7000 Menschen angesehen und kommt zu dem Ergebnis: Die Software machte ihren Job sehr schlecht, unterstellte sehr vielen Menschen zu Unrecht, sie würden in Zukunft ein Verbrechen begehen. Und: Diese falsche Prognose stellte die Software schwarzen Menschen doppelt so oft aus wie Weißen. Weiße wurden auch viel öfter als risikolos markiert als Schwarze. Im Namen des Predictive Policing, der vorausschauenden Polizeiarbeit, führt das auch dazu, das vermehrt Schwarze kontrolliert und inhaftiert werden – weil Software das so vorschlägt.
Die unabhängige Nachrichtenorganisation ProPublica hat sich daher die software-basierte Risikoeinschätzung von 7000 Menschen angesehen und kommt zu dem Ergebnis: Die Software machte ihren Job sehr schlecht, unterstellte sehr vielen Menschen zu Unrecht, sie würden in Zukunft ein Verbrechen begehen. Und: Diese falsche Prognose stellte die Software schwarzen Menschen doppelt so oft aus wie Weißen. Weiße wurden auch viel öfter als risikolos markiert als Schwarze. Im Namen des Predictive Policing, der vorausschauenden Polizeiarbeit, führt das auch dazu, das vermehrt Schwarze kontrolliert und inhaftiert werden – weil Software das so vorschlägt.
Mehr Kontrolle führt natürlich zu mehr Treffern
Wie kommt diese Schlagseite zustande? Genau kann man das nicht sagen, weil ja die Algorithmen geheim sind. Klar ist aber, dass sie gefüttert werden mit Informationen wie: Wo wohnt der betreffende Mensch? Wo kommt er her? Welche Freunde hat er? Saßen die schon mal im Gefängnis? Und da schließt sich der Kreislauf: Wenn – wie in Köln geschehen und in den USA längst Alltag – Menschen kontrolliert werden, weil sie eine dunkle Haut haben, finden sich auch mehr Menschen mit dunkler Haut, die gegen Gesetze verstoßen. Was dazu führt, dass Menschen mit dunklerer Haut von Software als riskanter eingestuft werden. Wenn Vorurteile automatisiert in Algorithmen zur Erfassung und Überwachung einfließen, werden Menschen stigmatisiert, nur weil sie zu einer Gruppe gehören, die sie weder gewählt haben, noch verlassen können. Wird Ungerechtigkeit zu Code, wird es die Gesellschaft weit mehr untergraben als die Gewalt am Kölner Hauptbahnhof vor einem Jahr.