Seit 00:05 Uhr Neue Musik

Donnerstag, 24.09.2020
 
Seit 00:05 Uhr Neue Musik

Breitband | Beitrag vom 13.06.2020

Sarah Chander über Datenrassismus"Die Technik zu verbessern, ändert nichts an dem Problem"

Moderation: Jenny Genzmer und Dennis Kogel

Beitrag hören Podcast abonnieren
Illustration eines Gitternetzes über einem Gesicht. (imago images / Ikon Images / Gary Waters)
Gesichtserkennungssoftware sollte neutral funktionieren und nicht nach schwarzen und weißen Menschen unterscheiden, lauten Forderungen in der derzeitigen Debatte. (imago images / Ikon Images / Gary Waters)

Die Proteste in den USA haben nun auch Einfluss auf die Tech-Konzerne: IBM, Amazon und Microsoft distanzieren sich von ihren Gesichtserkennungssystemen. Die Menschenrechtsaktivistin Sarah Chander fordert noch viel grundlegendere Veränderungen.

Dass Gesichtserkennungssoftware die Diskriminierung ethnischer Minderheiten fördert und zudem bei schwarzen Menschen schlechter funktioniert, ist schon seit längerer Zeit bekannt. Menschenrechtsorganisationen kritisieren auch in Bezug auf andere Technologien, dass sie nicht per se neutral sind und Rassismus in Algorithmen fortgeschrieben wird.

Seit den "Black Lives Matter"-Protesten nach dem gewaltsamen Tod von George Floyd haben nun die Konzerne auf die Kritik an automatisierter Gesichtserkennung reagiert. Anfang der Woche kündigte IBM an, die Entwicklung zu stoppen. Am Mittwoch hat Amazon der Polizei öffentlich verboten, die Amazon-Gesichtserkennungssoftware "Rekognition" zu benutzen, bis genauere staatliche Vorgaben dafür existieren.

Microsoft folgt IBM und Amazon

Am Donnerstag sagte der Chefjustiziar von Microsoft im Interview mit der Zeitung "Washington Post", man wolle die Technologie solange nicht mehr an die US-Polizei verkaufen, bis es einen gesetzlichen Rahmen dafür gebe und dieser müsse auf der Grundlage der Menschenrechte beruhen.

"Es stärkt die Bürgerrechtsbeweung massiv, dass IBM einen Brief an den Kongress geschrieben hat und nicht mehr akzeptieren will, dass ihre Technologie für Massenüberwachung und rassistische Polizeiarbeit eingesetzt wird", sagt Sarah Chander, politische Beraterin bei der Nichtregierungsorganisation European Digital Rights.

Chander sieht in den Reaktionen der Konzerne große Unterschiede: IBM hat sich grundsätzlich gegen automatisierte Gesichtserkennung ausgesprochen. Amazons Ansatz dagegen sei stärker von Technikgläubigkeit geprägt, was Chander kritisiert: Durch bloße Verbesserung der Technologie werde das grundlegende Problem nicht gelöst.

Technik ist nicht neutral

"Die Technik zu verbessern, ändert nichts an dem Problem rassistischer Polizeiarbeit. Wir brauchen eine Gesetzgebung, die ganz klar sagt: 'Es gibt bei Künstlicher Intelligenz, Gesichtserkennung und anderer Technik bestimmte Aspekte, die nicht mit der freien Gesellschaft übereinstimmen, die wir haben wollen.'"

Gesichtserkennung ist nicht die einzige Technologie, in der sich Rassismus fortsetzt. Auch Systeme von "Predictive Policing", die die Wahrscheinlichkeit zukünftiger Straftaten analysieren, basieren auf Datensätzen, die bereits durch rassistische Vorurteile geprägt sind. Zudem werden grundsätzlich die Technik und die computerbasierten Entscheidungen zu wenig hinterfragt.

Von den Werten aus auf Technologie schauen

"Es wird bei der Polizei und den Behörden oft gar nicht gesehen, dass es eine übergriffige Polizeiarbeit gibt, die auch durch rassistische und diskriminierende Datensätze ausgelöst wird. Würden genauso viele weiße Menschen kontrolliert werden, dann würde die Datenlage ganz anders aussehen", sagt Chander.

Die Aktivistin fordert ein stärkeres Eingreifen der Regierungen. Diese sollten die Systeme kontrollieren und deren Macht begrenzen. Doch momentan hätten die Tech-Monopole, die Sicherheitsfirmen oder auch die großen Datensammler, wie das Big Data-Unternehmen "Palantir", zu viel Einfluss. "Es gibt Hoffnung, dass es eine Welt gibt, in der Technik nicht zur Unterdrückung eingesetzt wird. Aber das ist eine sehr andere Welt, als die in der wir leben." 

Chander fordert: "Wir brauchen einen demokratischen Dialog darüber, was KI für unsere Gesellschaft tun kann und was nicht. Was wäre ein akzeptabler Einsatz in einer offenen und freien europäischen Gesellschaft? Und da müssen wir erst unsere Werte anschauen und von dort auf die Technologie blicken."

Mehr zum Thema

Ist George Floyds Tod der Wendepunkt?
(Deutschlandfunk Kultur, Weltzeit, 11.06.2020)

Rassismus-Debatte nach dem Tod George Floyds: Aminata Touré und Sandra Kostner im Gespräch
(Deutschlandfunk Kultur, Interview, 08.06.2020)

Polizeigewalt und Pressefreiheit
(Deutschlandfunk Kultur, Breitband, 06.06.2020)

Breitband

Wau-Holland-StiftungHacker im Ehrenamt
Wau Holland vor seinem Arbeitsgerät 1984. (picture-alliance / dpa)

Wau Holland war Hacker und Mitbegründer des Chaos Computer Clubs. Eine nach ihm benannte Stiftung unterstützt neben Projekten zur Informationsfreiheit die Verteidigung von Whistleblowern wie WikiLeaks-Gründer Julian Assange. Anna Loll weiß, warum.Mehr

weitere Beiträge

Das könnte sie auch interessieren

Entdecken Sie Deutschlandfunk Kultur