Sexistische Algorithmen bei Instagram

Mehr nackte Haut bedeutet mehr Sichtbarkeit

05:49 Minuten
Ein Frau mit nackten Schultern macht ein Selfie von sich. Der Hintergrund ist schwarz.
In der Untersuchung von AlgorithmWatch hatten Posts mit Bildern von Frauen in Unterwäsche oder Bikini eine 54% höhere Wahrscheinlichkeit, im Newsfeed der Nutzer zu erscheinen. © Gettyimages / iStock / alvaher
Von Andrea Richter · 12.10.2020
Audio herunterladen
Bilder von nackter Haut, vor allem von Frauen, werden von dem Instagram-Algorithmus besonders hoch im Newsfeed der Nutzer gerankt. Das ist das Ergebnis einer Studie der Organisation "AlgorithmWatch". Stimmt so nicht, heißt es bei Instagram.
Um zu verstehen, welche Fotos Instagram bevorzugt, hatten die Organisationen "AlgorithmWatch" und "European Data Journalism Network" Freiwillige darum gebeten, ein Browser Add-on zu installieren und einigen Dutzend professionellen Insta-Accounts aus den Bereichen Gastro, Reise, Fitness, Mode und Kosmetik zu folgen:
"Die Daten, die wir gesammelt haben, zeigten, dass halb nackte Männer und Frauen in den Newsfeeds überrepräsentiert gewesen sind. Wir wissen nicht genau, warum das so ist. Was wir wissen ist, dass Instagram Bilder automatisch analysiert, wenn sie gepostet werden", lauten nun die Ergebnisse.

Mehr Aufmerksamkeit für Bilder mit nackter Haut

In der Untersuchung hatten Posts mit Bildern von Frauen in Unterwäsche oder Bikini eine 54 Prozent höhere Wahrscheinlichkeit, im Newsfeed der User*innen zu erscheinen. Bilder von Essen oder Landschaften, eine 60 Prozent niedrigere Wahrscheinlichkeit. Nicolas Kayser-Bril von AlgorithmWatch konfrontierte den Konzern Facebook, zu dem auch der Onlinedienst Instagram gehört, mit den Ergebnissen der Untersuchung: "Facebook hat unsere Fragen nicht beantwortet."
Das Unternehmen behauptet, die Untersuchung sei in vielerlei Hinsicht fehlerhaft und zeuge von einer falschen Auffassung davon, wie Instagram funktioniere. Posts in den Feeds würden nach den Inhalten, für die bereits Interesse gezeigt worden sei, angeordnet und nicht nach willkürlichen Faktoren wie dem Vorhandensein von Badebekleidung. "Facebook analysiert die Bilder, die auf Instagram gepostet werden, automatisch mit einer Software, die Computer Vision heißt. Diese Software wird von Menschen trainiert, die dafür tausende und abertausende Bilder manuell labeln. Das Problem ist, dass es normalerweise Leute in armen Ländern sind, die sehr schlecht bezahlt werden und keinerlei Veranlassung haben, den Kontext der Bilder zu erfassen", so Nicolas Kayser-Bril.

"Diskriminierung durch Algorithmen ist real"

Während Instagram behauptet, dass der Newsfeed danach organisiert sei, was einem bestimmten Nutzer "am wichtigsten" ist, scheint es, dass der Feed sehr wohl danach angeordnet werden könnte, was Instagram denkt, dass allen Nutzern wichtig sei.
Nils Pickert von der Antidiskriminierungsorganisation PinkStinks sieht hier deutlichen Handlungsbedarf: "Wenn man sich anschaut, wie zum Beispiel auf Twitter gerade auf den Umstand reagiert wird, dass Nutzer*innen damit begonnen haben, durch Bildmontagen nachzuweisen, dass der Twitter-Algorithmus weiße Menschen in Bildausschnitten bevorzugt, dann sollte dadurch klar werden, dass Diskriminierung durch Algorithmen real ist. Die Frage ist also nicht, ob das geschieht, sondern in welchem Ausmaß und was dagegen getan werden kann. Damit das geschieht, müsste sich die Branche von dem lieb gewonnen Gedanken verabschieden, dass ihre Algorithmen grundsätzlich neutral sind und nichts damit zu tun haben."
Das zu Grunde liegende Problem ist schon länger virulent. Seit drei Monaten ist eine neue EU-Verordnung in Kraft, die P2B Verordnung. Sie verspricht den User*innen mehr Transparenz. Experten, wie der Hamburgische Datenschutzbeauftragte Johannes Caspar bezweifeln, dass sie als Waffe gegen sexistische Algorithmen von Nutzen ist. "Die P2B Verordnung ist mit Sicherheit nicht der besondere Schlussstein für die Transparenz von Verbrauchern, daran fehlt es schon auf der Ebene des Vollzugs", sagt Caspar. "Dass man hier im Prinzip gar keine Behörden hat, die das umsetzen, das selbst das Ranking nur beschrieben wird und nicht der dahinterstehende Quellcode etwa. All diese Dinge sind zum Stück weit auch symbolische Gesetzgebung. Wenn wir um sozusagen die Kontrolle von künstlicher Intelligenz, um diese ringen, dann wird uns da wahrscheinlich wenig helfen."

Moralische Verantwortung der Social-Media-Konzerne

AlgorithmWatch sieht derzeit nur einen Weg im Kampf gegen den Sexismus im Netz: Konzerne wie Facebook müssen kooperieren. "Es gibt keine Möglichkeit herauszufinden, ob die die Wahrheit sagen oder nicht, weil es keine Möglichkeit gibt für jemanden außerhalb Facebooks, herauszufinden, wie der Algorithmus funktioniert", sagt Nicolas Kayser-Bril. "Die Preisgabe des Codes würde helfen, aber auch das würde nicht ausreichen, denn automatisierte Software wie die, die entscheidet, was in den Newsfeeds von Instagram gezeigt wird, ändert sich laufend, weil sie von menschlichem Verhalten lernt. Die einzige Möglichkeit herauszufinden, wie der Newsfeed funktioniert, wäre ein Zugang, den Forscher nutzen könnten, um Untersuchungen anzustellen, und das ist zurzeit nicht der Fall."
Eine Milliarde User*innen: Unter den 18- bis 24-jährigen gibt es kaum jemanden, der die Plattform nicht nutzt. Instagram hat mit dieser Reichweite auch eine ethische und moralische Verantwortung. Es wäre an der Zeit, sich deutlich gegen Sexismus zu positionieren.
Mehr zum Thema