Medienexperte zu Faktencheck bei Facebook

"Es ist nicht einfach, Fake-News abzugrenzen"

Eine Lupe vor einem Computer-Bildschirm mit Facebook-Logo.
Die neuen Faktenchecker sollen testweise zunächst nur in den USA eingesetzt werden. © picture alliance/dpa/Sergei Konkov TASS
Michael Klein im Gespräch mit Ute Welty · 17.12.2016
Facebook will Faktencheck-Spezialisten gegen erfunden Nachrichten einsetzen und Warnhinweise bei als Fakes identifizierten Beiträgen einblenden. Der Internet-Experte Michael Klein sieht vor allem bei der Definition von Fake-News Probleme.
Facebook hat Maßnahmen gegen erfundene Nachrichten - Fake News - angekündigt. Algorithmen, externe Prüfer und die Community sollen die Arbeit übernehmen. So will der Internetkonzern künftig mit externen Faktencheck-Spezialisten zusammenarbeiten. Diese sollen gemeldete Nachrichten prüfen. Bei als Fakes identifizierten Beiträgen sollen anschließend Warnhinweise eingeblendet werden. Das weltgrößte Online-Netzwerk will die entsprechenden Abläufe zunächst nur in den USA testen.
Der Internet-Forscher Michael Klein hält den vom Internetkonzern Facebook geplanten Einsatz von Fakten-Check-Spezialisten für wenig aussichtsreich und sieht vor allem bei der Identifizierung und Definition von Fake-News Probleme.

"Facebook möchte kein Herausgeber sein"

Kritisch bewertete Klein den von Facebook angekündigte Einsatz externer Fakten-Check-Spezialisten, die gemeldete Beiträge identifizieren und gegebenenfalls kennzeichnen sollen. Damit überlasse das Unternehmen "ganz clever" die Kontrolle externen Redaktionen: "Facebook möchte eben kein Herausgeber sein", sagte der Direktor des Instituts für Neue Medien Frankfurt.
Generell bestehe bei einem marktwirtschaftlichen Unternehmen wie Facebook ein grundlegender interner Interessenkonflikt hinsichtlich einer Reduzierung sogenannter Fake News. Der finanzielle Gewinn des Unternehmens verdanke sich den Werbeeinnahmen, für die ein hoher Austausch von Nachrichten notwendig sei - und damit auch ein sich selbst verstärkender Effekt der hohen Verbreitung auch substanzloser Beiträge.
Klein erklärte, dass es zudem unmöglich sei, im Netz verbreitete erfundene Nachrichten generell wieder zu entfernen. Einmal veröffentlichte Nachrichten verbreiteten sich innerhalb wie außerhalb des betroffenen Netzwerkes extrem schnell. "Damit ist ein zentrales Löschen von Nachrichten im Nachgang, wenn es einmal eine Verbreitung gegeben hat, nicht mehr möglich," sagte der Physiker und Philosoph, der sich seit Jahren mit der Schnittstelle zwischen realer und virtueller Welt beschäftigt.

Nutzer sollten Meldungen vor Weiterverbreitung prüfen

Um die Verbreitung von Fake News zu reduzieren, sieht Klein vor allem auch die Nutzer sozialer Netzwerke in der Pflicht:
"Die Problematik ist, dass der Nutzer, und gerade der, der mit einem einfachen Klick eine Weiterverbreitung unterstützt, tatsächlich erst einmal nachdenken sollte, ob er eine einfach erkennbare Möglichkeit sieht, zu überprüfen, ob diese Informationen überhaupt stimmen können."
Der Medienforscher sieht zudem bei der Definition und Identifizierung von Fake-News Probleme:
"Der Begriff Fake-News suggeriert ja, dass es etwas Richtiges und etwas Falsches gibt. So einfach ist es natürlich nicht, eine sogenannte Fake-News von allen anderen Arten von Nachrichten abzugrenzen. Und damit stoßen natürlich auch alle Arten von algorithmischen Lösungen an ihre Grenzen."
Klein verwies auch auf eine lange Tradition von Falschmeldungen in den Medien. "Fake-Nachrichten oder Hoaxes, Propaganda, Satire, Zuspitzungen, Interpretationen ,Unüberprüfbarkeiten gibt es seit Medienzeiten und damit schon immer."

Das Interview im Wortlaut:
Ute Welty: Bußgeld, Gesetzesverschärfung, Rechtsschutzstelle – viele Ideen haben die Politiker fast aller Parteien in dieser Woche ventiliert, um die Menschen und wohl auch sich selbst vor Fake News und Hasskommentare im Netz zu schützen. Zuletzt ist Renate Künast von den Grünen von einer Fake-News-Attacke betroffen gewesen. Ihr war ein Zitat in Zusammenhang mit dem Mordfall aus Freiburg untergeschoben worden. Künast hat Strafanzeige erstattet, Facebook selbst kündigte inzwischen an, effektiver gegen Fake News vorgehen zu wollen. Wie effektiv die verschiedenen Maßnahmen sind, die jetzt diskutiert werden, das möchte ich jetzt mit Michael Klein besprechen, dem Direktor des Instituts für Neue Medien in Frankfurt am Main, der Physiker und Philosoph beschäftigt sich seit Jahren mit der Schnittstelle zwischen der realen und der virtuellen Welt. Guten Morgen, Herr Klein!
Michael Klein: Schönen guten Morgen, Frau Welty!
Welty: Was halten Sie von dem, was Facebook jetzt vorschlägt?
Klein: Na ja, immerhin einmal ein erster Schritt tatsächlich mitgeteilt zu haben, dass man ein Problem oder sagen wir mal eine Aufgabe erkennt. Das ist ja schon mal das Wichtigste. Ob jetzt die tatsächlich vorgeschlagenen Möglichkeiten einer, sagen wir mal, Kombination zwischen technischer und händischer, nämlich sprich dann menschlich-redaktionsseitiger Behandlung tatsächlich erfolgversprechend ist, sei einmal dahingestellt. Ich denke, man erkennt an dem Lösungsmodell sehr konkret die Probleme nicht nur von Facebook, sondern auch dieser Medien, der Sozialen Medien an sich.
Welty: Und die Probleme bestehen worin?

Facebook lebt davon Werbung zu verkaufen

Klein: Die Probleme bestehen einerseits ganz banal darin, dass Facebook ein marktwirtschaftlich orientiertes amerikanisches Unternehmen ist, davon lebt, auf seinen Kanälen letztendlich Werbung zu verkaufen, und für diese Werbung braucht es die Kommunikation beziehungsweise den Austausch von Nachrichten unter der Nutzercommunity, und wenn man jetzt anguckt, was Facebook vorschlägt, dann schlagen sie ja vor, dass sie tatsächlich zunächst mal durch die Meldung ihrer Nutzer, sicherlich algorithmisch unterstützt, Nachrichten, die nicht ganz koscher sind oder die in diesen sogenannten, etwas unscharfen Bereich der Fake News fallen würden, markiert, um sie dann in einem zweiten Schritt externen, hausexternen, nicht-Facebook-seitigen Redaktionen vorzulegen, die dann eine Faktenchecküberprüfung dieser Nachrichten durchführen sollen, um dann wiederum diese Nachricht nur mit einer Markierung zu versehen, die dann sagt, wir haben diese Nachricht gecheckt, und die könnte im Prinzip falsch sein. Das heißt, die Schwierigkeit, die Facebook sieht, auf der einen Seite die marktwirtschaftlichen Interessen, möglichst viele Klicks, die sich ja insbesondere durch, sagen wir mal, attraktive, im Sinne des Mediums attraktive Meldungen nährt, zu behalten und auszugleichen gegen die Interessen von Falschnachrichtenverbreitern beziehungsweise diesen sich selbst verstärkenden Effekten von weitergeklickten, weitergelikten Nachrichten, die aber in der Sache substanzlos sind, und Facebook möchte eben kein Herausgeber sein dieser Nachrichten. Deshalb überlässt es ganz clever die letztendliche Kontrolle externen Redaktionen.
Welty: Wenn wir diesen inhaltlichen Überbau mal im Moment beiseitelassen und uns auf den technischen Teil konzentrieren: warum ist es so schwierig, digital zu löschen, wenn es doch relativ einfach ist, digital zu vervielfältigen? Social Bots beispielsweise arbeiten ja mit hoher Effektivität und beeinflussen als Programm ganze Diskussionsstränge, wenn sie eben maschinell Meinungen in die Welt hinauspusten. Warum lässt sich dieses Prinzip, dieser Vorgang nicht umdrehen?

Zentrales Löschen ist im Internet-Universum nicht mehr möglich

Klein: Technisch gesehen besteht natürlich zwischen dem Vorgang der Erzeugung und dem Löschen an der Quelle erst mal kein Unterschied. Das Problem mit den Bots, die ja genau so entwickelt worden sind, dass sie den Mechanismen des Internet, in diesem Fall der Sozialen-Medien-Kanäle, benutzen, besteht darin, dass die einmal verbreiteten Nachrichten natürlich tatsächlich innerhalb und außerhalb des jeweils betroffenen Netzwerkes sich verbreiten. Damit ist natürlich ein Löschen, ein zentrales Löschen von Nachrichten in dem Universum des Internets im Nachgang, wenn es einmal eine Verbreitung gegeben hat, nicht mehr möglich. Das heißt, die Vervielfältigung über viele Kanäle führt dazu, dass diese Information oder diese Nachricht, auch die Fake Nachricht, von einem gewissen Löschmoment geschützt ist, und gleichzeitig kommt ein zweiter Effekt hinzu: Das Löschen, nicht das Erstellen, aber das Löschen ist eben in fast allen unseren Ländern, also nach gesetzlichen Regelungen, auch nach den Bestimmungen von Facebook als Unternehmen, natürlich ein wesentlich aufwendigerer Prozess, weil die Information überprüft werden muss, weil sie bewertet werden muss, in der Regel von Menschen, um dann tatsächlich aktiv gelöscht zu werden.
Welty: Das heißt, am Ende muss der Einzelne doch erst denken und dann teilen?
Klein: Das wäre –
Welty: Schön!

Nachdenken vor der Weiterverbreitung

Klein: – die Lösung. Nein, das ist tatsächlich die Lösung. Ich denke auch, dass, ja, erst mal so ist es. Alles, was wir jetzt erleben, ist in einer gewissen Weise ja nicht neu. Also Fake Nachrichten oder Hoaxes, es gibt viele Bezeichnungen, Propaganda, Satire, Zuspitzungen, Interpretationen, Unüberprüfbarkeiten – es ist ja nicht so, dass diese Nachrichtenart oder diese Informationsart jetzt im Internet neu wäre. Gibt es seit vielen … eigentlich seit Medienzeiten, wenn man so möchte, und damit schon immer, und die Problematik aber ist, dass der Nutzer und gerade derjenige, der mit einem einfachen Klick eine Weiterverbreitung unterstützt, tatsächlich erst mal nachdenken sollte oder überhaupt eine einfach erkennbare Möglichkeit sieht, zu überprüfen, ob diese Informationen überhaupt stimmen können oder ob sie eben in diesem Bereich des Fakes fallen, wobei das eben auch inhaltlich – das hört man jetzt – gar nicht einfach ist. Also, ich meine, was ist jetzt eine wirklich falsche Nachricht. Der Begriff Fake News suggeriert uns ja, dass es etwas Richtiges und etwas Falsches gibt, aber ich glaube, so einfach – und das werden auch alle Kollegen in der Diskussion sagen, oder auch der Gesetzgeber – ist es natürlich nicht, eine sogenannte falsche Nachricht von allen möglichen anderen Formen von Nachrichten abzugrenzen. Damit übrigens auch stoßen dann natürlich alle algorithmischen Lösungen, die die Unternehmen, ob Facebook, Google oder andere, versuchen aufzusetzen, an ihre Grenzen.
Welty: Ein echtes Interview über falsche Nachrichten. Michael Klein war das vom Institut für Neue Medien in Frankfurt am Main. Haben Sie Dank!
Klein: Bitte schön! Tschüss!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Mehr zum Thema