Gesichtserkennung

Wie Komfort autoritären Regimen in die Hand spielt

18:01 Minuten
2520219705_Folge 3 - Der Gesichtserkenner.jpg
Gesichter verraten mehr über einen, als man denkt © Hans-Jörg Brehm / epict.de
Adrian Lobe im Gespräch mit Jenny Genzmer und Tim Wiese · 27.07.2019
Audio herunterladen
Einerseits macht Gesichtserkennung unser Leben immer einfacher – wer will sich schon lange Passwörter merken? Doch so angenehm die Technik zu nutzen ist, so groß sind auch die Gefahren, die sie mitbringt, sagt Adrian Lobe.
Mensakarten und Bargeld gehören in manchen chinesischen Schulen inzwischen der Vergangenheit an. Bezahlt wird einfach per Gesicht. Doch jetzt wollen auch Banken und Versicherungen Zugang zu diesen Systemen – schließlich ist es viel effektiver, Kunden zu beurteilen, wenn man weiß, ob diese kreditwürdig oder krank sind.
Auch im Westen verlassen wir uns immer mehr auf Gesichtserkennung. Computer und Telefone werden mit einem einfachen Selfie entsperrt. Die Haustür ist mit einer Kamera vernetzt, um den Paketboten ins Haus zu lassen, während man auf der Arbeit ist. Der Komfort habe aber einen hohen Preis, meint der Journalist Adrian Lobe.

Wenn der größte Vorteil zum Nachteil wird

Für Lobe liegt der Vorteil von Gesichtserkennung in der Einzigartigkeit. Weil niemand sonst das gleiche Gesicht habe, mache dies eine wirklich eindeutige Identifizierung möglich. Etwas, das auch Apples Face-ID und Alibabas Smile to Pay für sich nutzen, um den Usern ein möglichst einfaches Login zu bieten.
Doch genau dieser Komfort, ist für Lobe auch ein großer Nachteil. Schließlich habe man sein Gesicht immer dabei, was es Angreifern ermögliche, dieses mit Fotos quasi zu "stehlen". Und während man ein Passwort ändern könne, sei so eine Möglichkeit bei Gesichtern nicht gegeben. Ist es erstmal verloren, habe man im Grunde keine Möglichkeit mehr, andere vom Zugang zu den eigenen Daten abzuhalten.

Gesichter verraten potenziell auch Gemütszustände

Zudem ermögliche eine gute Gesichtserkennung auch Rückschlüsse auf den emotionalen Zustand einer Person, erläutert Lobe. Dafür bezieht er sich auf Paul Ekmans Arbeiten zu "Facial Action Coding System" (FACS). So seien Emotionsausdrücke wie Traurigkeit oder Heiterkeit in allen Kulturen identisch, was dazu führe, dass man mit bestimmten Verfahren diese Zustände auch mit Hilfe von Technik analysieren könne. Etwas, das Flughäfen bereits heute nutzen würden, um potenzielle Gefährder zu finden. Selbst bestimmte Gendefekte könne entsprechende Software im Gesicht erkennen.
Lobe weist darauf hin, dass manche Behauptungen wissenschaftlich nicht so haltbar seien, wie sie dargestellt werden. Trotzdem entwickle sich die Gesellschaft weiter in eine Position, wo sie auf die Aussagen solcher Systeme vertraue. Als Beispiel nennt er Chinas Scoring-System, bei dem Kommunikations- und Arbeitsverhalten ausgewertet und in Punkte umgerechnet werden. Diese Auswertung werde jedoch nicht von Menschen, sondern Computern übernommen, deren Urteil dann einfach vertraut werde.

Mit Kameras wird der öffentliche Raum zu einer Theaterbühne.

Deshalb sieht Lobe die Gefahr, dass der öffentliche Raum zu einer Art Theaterbühne werden könne, auf der die Bürger für die Überwachungssysteme performen. So passten Menschen sich eher an die sozialen Normen an und verzichteten auf Dinge, die sie sonst machen würden. Als Beispiel nennt Lobe einen Fall in London, wo eine vermummte Person von Überwachungskameras erkannt und automatisiert verfolgt worden sei – nur wegen eines verhüllten Gesichts.

"Was wir jetzt sehen ist, das die Deutungshoheit, was 'normal ist' immer stärker an Algorithmen outgesourct wird. Und da sehen wir, dass wir auf einen neue 'Biogesellschaft' zusteuern, wo bestimmte Normen über statistische Anomalien beziehungsweise Normalitätsverteilungen hergestellt werden. Die große Gefahr, die ich darin sehe, ist, dass man nicht wirklich diskursiv dagegen ankommt. Es heißt dann, die Maschine hat entschieden und diese Entscheidung ist nicht anfechtbar. (...) Und das ist auch der autoritäre Gedanke, dass man den Menschen über seine Biologie, über sein Aussehen, über sein Verhalten "ehrlich" macht (...) und dass ist die Selbstentmächtigung, die wir in diesem ganzen System sehen."

Eine große Gefahr sieht Lobe darin, dass viele Menschen immer noch eine "Ich habe ja nichts zu verbergen"-Einstellung hätten, die dazu führe, dass man zunehmende Überwachungsmechanismen nicht als Problem betrachten würde. Außerdem seien die Folgen solcher Systeme noch nicht zu sehen, was es schwieriger mache, deren Gefahren greifbarer zu machen.
Dabei sei das Potenzial dafür sehr hoch, gerade wenn private Unternehmen mit riesigen Datenbanken anfingen, mit Regierungen zu kooperieren. Facebook allein habe Milliarden an Fotos mit Gesichtern, die für Überwachung geeignet wären. Grund zur Sorge sind für ihn erste Anzeichen solcher Zusammenarbeit, wie zum Beispiel die Gesichtserkennungssoftware, die Amazon an Regierungen verkauft.
Dazu ermöglichten biometrische Überwachungssysteme nicht nur die Kontrolle einzelner Personen, sondern auch die Verfolgung bestimmter Personengruppen. Eine Ganganalyse könne Leute mit Gehbehinderung identifizieren, eine Gesichtserkennung sei in der Lage beispielsweise Asiaten als solche zu identifizieren. Für Lobe ist klar: Das autoritäre Potential biometrischer Überwachung ist enorm und eine Gefahr für die offene Gesellschaft.