Algorithmen von Suchmaschinen und Netzwerken

    Welche Verantwortung hat Youtube für Fake news?

    18:05 Minuten
    Auf dem großen TV-Bildschirm wird der Sieg Hillary Clintons in New York angezeigt.
    Von Donald Trump zeigte Youtube massenweise positive Videos an. Über seine Gegnerin Hillary Clinton dagegen gab es auf der Videoplattform viel negatives. © dpa/picture-alliance/Jason Szenes
    Von Anja Krieger · 10.12.2016
    Audio herunterladen
    Google, Facebook und Co. bemühen sich, ihren Nutzern passgenau nach deren Vorlieben Ergebnisse zu liefern. Auf diese Weise verbreiten sich Fake news - falsche Nachrichten - sehr einfach durchs Netz. Forscher haben das Phänomen jetzt anhand der Videoplattform Youtube untersucht.
    Ist die Erde eine Scheibe oder eine Kugel? Manche Menschen fragen sich das ja noch immer. Auf Suche nach Antwort surfen die Skeptiker rüber zu YouTube und tippen ihre Frage ins Suchfeld ein. Die Videoplattform spuckt eine Liste von Videos aus, und die spenden Rat. Natürlich ist die Erde flach und eine Scheibe, heißt es in über 90 Prozent der Videos. Durchgespielt haben das zwei Forscher in Kalifornien: Der Software-Experte Guillaume Chaslot und die Organisations-Soziologin Andreea Gorbatai von der Universität Berkeley:
    "Leute glauben, dass die Erde eine Scheibe ist, dass die Menschen nie auf dem Mond gelandet sind, oder dass Impfstoffe Autismus bei Kindern verursachen. Das sind alles Dinge, die wir wissenschaftlich ganz ausführlich wiederlegt haben, aber weil es da draußen hunderttausende Videos gibt, die das Gegenteil behaupten, glauben die Leute weiter an solche falschen Geschichten."
    Um den Algorithmus zu verstehen, der solche Videos empfiehlt, schrieben Gorbatai und Chaslot ein Analyseprogramm und begannen Daten zu sammeln. Einige Monate vor der US-Wahl richteten sie ihren Blick dann auf die YouTube-Ergebnisse zu Trump und Clinton. Suchte ein anonymer Nutzer nach Donald Trump, bot YouTube ihm Videos von Wahlkampfveranstaltungen und Reden an. Die porträtierten Trump fast ausnahmslos in positivem Licht. Der Algorithmus setzte offenbar voraus, dass Nutzer mit dem Namen des republikanischen Kandidaten gute Nachrichen suchten. Als die Forscher aber den Namen der Gegenkandidatin eingaben, sah das ganz anders aus:
    "Was wir bei Clinton beobachteten, war ungewöhnlicher. Da fanden wir sowohl positive als auch negative Videos, aber der Anteil der negativen war sehr hoch. Und es waren viele Fakes unter den Videos, die etwa behaupteten, Hillary habe AIDS, sei pädophil oder Teil eines satanischen Kultes - alle möglichen, wirklich lächerlichen Behauptungen. Selbst wenn man gute Sachen über Clinton suchte, war es schwer, sie zu finden."

    Vielnutzer werden zu Modellen, welche Videos in Zukunft empfohlen werden

    Die YouTube-Ergebnisse schienen das negative Image von Clinton geradezu zu pushen, und zwar jenseits und gegenläufig zum Effekt der Filterblase. Wieso das so ist, können sich die Forscher noch nicht erklären. Denn wie genau der Algorithmus funktioniert, ist ein Geschäftsgeheimnis von YouTube. Ein Ziel hat er ganz sicher, er soll der Plattform möglichst hohe Einnahmen verschaffen. Und die steigen, je länger ein Nutzer auf der Seite bleibt und sich ein Video nach dem anderen anschaut - und damit auch die Werbung. Je mehr die Nutzer schauen, desto wichtiger könnten sie für den Algorithmus werden:
    "Also, wenn jemand abends zuhause sitzt oder arbeitslos ist und den ganzen Tag Videos anschaut, dann wird diese Person zum Model dafür, welche Videos in Zukunft empfohlen werden. Ihre Aktivität zählt dann mehr als die anderer, und so rutschen all diese verrückten Videos mit Fake News und Verschwörungstheorien in der Liste nach oben."
    Bestimmt haben die meisten Arbeitslosen besseres zu tun. Sicher ist aber, wer viel Quatsch guckt, bestimmt mit, was YouTube empfiehlt. Damit schwemmen auch rassistische, homophobe und andere hasserfüllte Videos nach oben. YouTube und damit auch Google maximieren nicht die Wahrheit, sondern ihren eigenen finanziellen Nutzen. Dass unser Menü aus Empfehlungen im Geheimen gekocht wird, macht die Sache so brisant. Transparenz sei deshalb der erste Schritt für die Betreiber, findet Andreea Gorbatai. Mit ihren Studierenden in der Business-Schule diskutiert sie die Verantwortung der Betreiber:
    "Letztlich wird es zur Frage, in welchem Maße ein Unternehmen eine soziale Verantwortung hat, die über den Profit und die Interessen der Besitzer ihrer Aktien hinausgeht. Einige akademische Kollegen von mir haben versucht zu messen, ob es sich finanziell auszahlt, wenn man gut ist und das richtige tut - die Umwelt nicht verschmutzt oder verantwortlicher mit seinen Mitarbeitern umgeht. Ich frage mich, ob das die richtige Frage ist. Wollen wir das soziale Wohl nur maximieren, wenn es profitabel ist - oder wollen wir, dass Unternehmen verantwortlich sind zur Gesellschaft beizutragen?"