Facebook, Twitter, Instagram & Co.

Wie soziale Medien reguliert werden können

19:09 Minuten
Vier junge Menschen stehen in einem Halbkreis mit ihren Smartphones.
Soziale Netzwerke sind allgegenwärtig - und es gibt viele verschiedene. Wie findet man eine Regulierungsbasis für so unterschiedliche Plattformen? © Getty Images / Karrastock
Von Vera Linß und Marcus Richter · 02.01.2021
Audio herunterladen
In diesem Punkt sind sich die meisten einig: Soziale Medien gehören reguliert. Die Gesetzgebung gleicht jedoch einem Flickenteppich. Wir stellen Ansätze vor, die eine Regulierung ganzheitlich angehen und Grundlagen für ein besseres Recht schaffen könnten.
Digitale Informationsangebote – journalistische, solche von Privatpersonen sowie Informationen von Institutionen – und soziale Medien mit ihren Like-Mechaniken und Timelines beherrschen seit Jahren unser Leben. Sie beeinflussen die Art und Weise, wie wir als Gesellschaft funktionieren. Wie stark und wie unaufhaltsam dieser Einfluss ist, darüber wird gestritten – genauso wie über die Frage, ob und wie Betreiber solcher Plattformen gesellschaftlich kontrolliert oder sogar reguliert werden müssen.
Das Problem dieser Diskussion: Obwohl sie sich mittlerweile seit Jahren hinzieht und die Akteure bekannt sind, ist sie ein bisschen diffus, denn es ist ja noch nicht einmal eindeutig, als was die sozialen Netzwerke rein juristisch überhaupt gelten sollen. Plattformen? Telemedien? Eine neue Art von Rundfunk? Intermediäre? Oder doch nur technische Infrastruktur?

Flussdiagramm statt starrer Definition für Plattformen

Wenn es nach der Medienjuristin Stefanie Fuchsloch geht, sollte es keine monolithische Definition für alle Plattformen geben, sondern eine Art Flussdiagramm, das Regeln für jeweilige Funktionalitäten mitbringt. So könnte man vermeiden, dass bestimmte Plattformen nicht in die Regeln passen, oder Gesetze extrem spezifisch formuliert werden müssen. Sie beschreibt das so:
"Die ersten drei Stufen beschäftigten sich hauptsächlich damit zu unterscheiden, ob es sich um relevante Akteure für den Informations- und Meinungsbildungsprozess handelt oder eben auch nicht. Dann kommen sie in diese letzten drei Stufen, in denen es dann stärker darum geht, wie welche Auswahlkriterien relevant sind und wie Inhalte präsentiert werden."
So könne man dann sehr granular entscheiden, welche Plattform unter welche Regeln fallen und auch bei neuen Anbietern gleich sehen, was wie kategorisiert werden müsste. Außerdem soll das Modell zukunftsfähig sein. So ist vorgesehen, es durch neue Merkmale oder Kategorisierungen zu erweitern oder anzupassen.
Aus der Kategorisierung nach Fuchslochs Konzept folgen jedoch keine direkten juristischen Regeln oder politischen Handlungsvorschläge. Das Modell soll ermöglichen, die Angebote schärfer als früher zu unterscheiden, um so eine Grundlage zu schaffen, auf der eine Regulierungsdiskussion aufsetzen kann.

Anstrengungen des Anbieters entscheidend

Es gibt aber auch den Ansatz, die Frage nach der Definition gar nicht so stark zu verfolgen. Ein Verfechter dieser Idee ist der Medienrechtler Stephan Dreyer. Er sagt, dass die gesetzliche Regulierung um neue Konzepte erweitert werden muss.
Als Beispiel für die Grenzen der bisherigen Gesetzgebung nennt Dreyer das sogenannte "Haftungsprivileg". Es erlaubt den Plattformen, rechtswidriges Material erst dann entfernen zu müssen, wenn sie davon Kenntnis erhalten. Die Folgen sind ambivalent: Einerseits ist das Internet weiter voll mit illegalen Inhalten, andererseits wird die Überprüfung, was überhaupt gegen geltendes Recht verstößt, den Plattformen überlassen.
Deshalb müsse die Haftungsfreistellung um "systemische Ansätze" ergänzt werden - "Duty of care" und "prinzipienorientierte Regulierung" sind Stichworte, die dafür stehen. Beide sind auch im Entwurf des "Digitale Services Act" der EU enthalten. Das heißt, der Gesetzgeber gibt vor, welche Ziele erreicht werden sollen und die Plattformen müssen sich daraufhin Infrastrukturmaßnahmen überlegen, wie sie diese Ziele erreichen können. Und diese Maßnahmen werden dann von einem Regulierer überprüft:
"Es geht nicht mehr um die Haftung für den einzelnen Inhalt an dieser Stelle, sondern um die Anstrengungen des Anbieters insgesamt, dieses Ziel zu erreichen. Und um einzelne Rechtsverstöße können sich dann weiterhin die Gerichte kümmern. Die müssen aber nicht die große Bürde tragen, was das für die Medienregulierung oder Medienpolitik insgesamt bedeutet, was sie im Einzelfall entscheiden", so Stephan Dreyer.

Nicht alles gesetzlich regelbar

Insgesamt gehe es darum, einen gesellschaftlichen Diskurs zu organisieren. Als Beispiel für einen Schritt in diese Richtung nennt Dreyer das "Oversight Board", das Facebook im Oktober geschaffen hat. Das ist ein Gremium, das unabhängig von Facebooks Geschäftsinteressen, über Moderationsrichtlinien entscheiden soll. Etwas, das für Dreyer sehr viel näher an der Realität ist:
"Die Vorstellung, dass wir soziale Probleme immer mit Recht lösen können, ist eine Falschkonzeption, weil das Recht vor allen Dingen dazu geeignet ist, soziale Normen zu manifestieren. Aber in so einer ausdifferenzierten Gesellschaft, wie wir sie jetzt sind, kann das Recht nicht jede soziale Norm sofort abbilden. Und wir sind in einer Zeit, wo nicht nur erwartet wird, dass Recht alles löst, sondern dass Recht selbst auch erwartet, dass alles mit Technik lösbar sei. Das ist eine fatale Kombination, von der ich hoffe, dass wir bald diesen Irrtum bemerken und wieder anfangen, auch die Grenzen von Technik zu verstehen und im Recht abbilden."
(hte)
Mehr zum Thema