Netzwerkdurchsetzungsgesetz*

"Der Schritt in die Zensur ist nicht weit"

Belgium, Brussels, 18 february 2016, Illustration about the haressment on social networks Reporters / STG PUBLICATIONxINxGERxSUIxAUTxHUNxONLY MariexVanxdenxMeersschaut Belgium Brussels 18 February 2016 Illustration About The ON Social Networks Reporters Stg PUBLICATIONxINxGERxSUIxAUTxHUNxONLY MariexVanxdenxMeersschaut
Was tun gegen Hassbotschaften im Netz? Matthias Spielkamp glaubt nicht, dass Algorithmen das Problem lösen können. © imago stock&people
Matthias Spielkamp im Gespräch mit Dieter Kassel · 20.06.2017
Können Algorithmen dabei helfen, Fake-News oder Hassbotschaften auf dem Netz zu filtern? Matthias Spielkamp von "Algorithm Watch" ist skeptisch. Außerdem warnt er: Das Netzwerkdurchsetzungsgesetz* würde in seiner jetzigen Form dazu führen, dass zu viel gelöscht wird.
Noch vor der Sommerpause will Bundesjustizminister Heiko Maas (SPD) sein "Netzwerkdurchsetzungsgesetz*" durch den Bundestag bringen. Damit will Maas gegen Hassbotschaften und Fake-News im Internet und den sozialen Netzwerken vorgehen. Plattformen wie Facebook sollen mit hohen Geldbußen belegt werden, wenn sie strafbare Inhalte nicht unverzüglich entfernen.

Facebook löscht bereits jetzt zu viel

Der Journalist Matthias Spielkamp, Mitgründer von "Algorithm Watch" und Vorstandsmitglied der Organisation "Reporter ohne Grenzen", bezweifelt, dass dieses Gesetz geeignet ist. Ohnehin würde gerade bei Facebook bereits vieles gelöscht, zum Beispiel Darstellungen von Nacktheit, die unseren Wertvorstellungen zufolge dort eigentlich stehen bleiben sollten.
"Und dann ist der Weg tatsächlich, vor allen Dingen, wenn dann so ein äußerer Zwang entsteht wie eben durch dieses Netzwerkdurchsetzungsgesetz* mit sehr hohen Strafandrohungen, der ist dann kurz dahin, einfach noch viel mehr wegzulöschen, was irgendwie zweifelhaft ist", sagte Spielkamp im Deutschlandfunk Kultur.
"Und dann ist der Schritt in die Zensur – ich meine, es wird ein bisschen zurückhaltender Overblocking genannt, es wird also weit mehr gelöscht, als eigentlich gelöscht werden sollte – der ist kurz. Und den muss man eben wieder verlängern, denn wir leben in einem Rechtsstaat, und das soll auch so bleiben."

"In letzter Instanz ist es unmöglich"

Außerdem sieht Spielkamp zahlreiche Probleme bei der praktischen Umsetzung. Angesichts der Masse von Inhalten sei es "schwer vorstellbar", dass diese Aufgabe von Menschen durchgeführt wurde. Sie einer Software zu überlassen, hält Spielkamp nur in eingeschränkten Fällen möglich, etwa wenn es darum gehe, Inhalte zu erkennen, die bereits einmal von einer Plattform heruntergenommen worden seien.
Dass Algorithmen die Suche nach solchen Inhalten generell übernehmen könnte, sei zumindest schwer vorstellbar, so Spielkamp.
"Ich würde so weit gehen, zu sagen, in letzter Instanz ist es unmöglich."
(uko)

Das Interview im Wortlaut:
Dieter Kassel: Eine öffentliche Anhörung zum Netzwerkdurchsetzungsgesetz*, eine Diskussionsveranstaltung zum Thema "Sind Menschenrechte durch Algorithmen zu schützen" und die Ankündigung von Google, selbst verstärkt Fake-News und Hassbotschaften auf den Grund zu gehen, all das ist allein gestern passiert, und daran merkt man schon, die Frage, wie man das aus dem Internet kriegt, was man als Hassbotschaften, als Fake-News und Ähnliches bezeichnet, die beschäftigt einige Menschen auf der ganzen Welt, nicht zuletzt aber auch in Deutschland.
Und eine ganz simple Frage stellt sich da natürlich: Wenn man das Internet durchsuchen will nach solchen Dingen, die man dort eigentlich löschen möchte, wie kann man das eigentlich finden? Es ist kaum vorstellbar, dass Menschen das tun sollen. Dazu sind allein soziale Netzwerke wie Facebook, Twitter, Instagram oder andere schon zu groß.
Aber wenn es gar um das ganze Netz geht, dann denkt man natürlich schnell an das, was dieses Netz ohnehin schon stark bestimmt, an Algorithmen nämlich. Vielleicht können die uns ja dabei helfen. Dieser Frage wollen wir jetzt auf den Grund gehen im Gespräch mit Matthias Spielkamp. Er ist Gründer und Geschäftsführer von Algorithm Watch, und er ist Vorstandsmitglied bei Reporter ohne Grenzen. Herr Spielkamp, guten Morgen!
Matthias Spielkamp: Guten Morgen!

Algorithmen können "in eingeschränkten Fällen" helfen

Kassel: Halten Sie das grundsätzlich für möglich, dass eine Software, dass ein Algorithmus dabei hilft, Fake-News zum Beispiel, aber auch Hassbotschaften im Internet zu finden?
Spielkamp: Sie haben es schon ziemlich gut formuliert: Sie soll dabei helfen. Und dieses Dabei-helfen, das halte ich tatsächlich für möglich. Es gibt ein paar eingeschränkte Fälle, also sozusagen systematisch eingeschränkt, aber das sagt jetzt noch nichts über die Zahl, wie häufig das vorkommt, bei denen man sich durchaus vorstellen kann, dass das unterstützen kann, so eine Technologie. Zum Beispiel dann, wenn wie etwa Google jetzt mit seiner Youtube-Plattform das auch exakt so beschrieben hat, Videos identifiziert werden sollen, die zum Beispiel schon mal runtergenommen wurden, also bei denen der Konzern mal entschieden hatte, das ist jetzt tatsächlich ein Video, das bei uns auf der Plattform nicht draufstehen sollte.
Dann ist es eben durchaus vorstellbar, dass ein technologisches System dabei hilft, solche Videos zu finden, wenn die erneut veröffentlicht werden, um dann eben zu sagen, nein, die sollten jetzt auch wieder verschwinden. In solchen eingeschränkten Fällen kann ich mir durchaus vorstellen, dass da eine Hilfe durch Algorithmen, die ja auch jetzt einfach erst mal nichts anderes sind als eine bestimmte Technologie, ein bestimmtes Computerprogramm, diese Inhalte zu finden und dann vielleicht auch gleich verschwinden zu lassen.
Kassel: Aber es geht ja um eine ganze Menge Dinge, die denn doch nicht gleich sind. Es geht um Fake-News, es geht um Hassbotschaften, es geht natürlich auch um die Ankündigung von Straftaten im Internet. Wie gut ist denn zum Beispiel so ein Algorithmus schon, wenn es einfach nur um Texte geht. Wir reden über soziale Netzwerke. Merkt der, wenn ich sage, "es war Bombenstimmung", ob ich das böse meine oder nur auf eine altmodische Weise sage, ich habe Spaß gehabt?
Spielkamp: In vielen Fällen eben nicht. Das ist genau die Kritik, und das sind auch unsere Bedenken. Die menschliche Sprache und andere Ausdrucksformen – dann geht es ja auch um Videos hier in solchen Fällen oder um andere Arten von Nachrichten –, die ist halt sehr differenziert, und häufig haben wir als Menschen ja große Schwierigkeiten, zu unterscheiden, was jemand denn nun genau gemeint hat oder nicht. Sie haben schon einige Beispiele genannt. Man kann dann noch sagen, wenn etwas ironisch gemeint ist, genau wie Sie gesagt haben in dem Beispiel mit der "Bombenstimmung" oder dergleichen.
Manchmal fällt uns das schwer, und es gibt nicht ohne Grund zahlreiche Gerichtsverfahren, die sich immer wieder darüber streiten, war das jetzt eine Beleidigung oder war das keine, war das eine falsche Tatsachenbehauptung oder war es etwas anderes. Und die gehen ja bisweilen bis vors Bundesverfassungsgericht, das dann entscheiden muss, was es denn nun war. Und da ist es tatsächlich schwer vorstellbar, dass uns so etwas dann die Technik abnehmen kann. Im Grunde genommen ist es nicht schwer vorstellbar. Ich würde so weit gehen, zu sagen, in letzter Instanz ist es unmöglich.

"Unglaublich bräsig und arrogant"

Kassel: Was Sie sagen, heißt ja einfach zusammengefasst, Software, gewisse Algorithmen können Sachen sozusagen raussuchen, die dann aber ja ein Mensch angucken muss, um zu entscheiden, ist das in irgendeiner Form relevant, sollte das möglicherweise sogar gelöscht werden. Aber dann haben wir doch wieder dieses gute alte Problem, allein bei der Anzahl der Videos, die bei YouTube hochgeladen werden, was ja auch nicht die einzige Videoplattform ist. Die Anzahl der Messages bei Facebook. Wie soll man das denn allein quantitativ schaffen? Soll die Hälfte der Menschheit das Internet kontrollieren in Zukunft?
Spielkamp: Das ist ja genau die entscheidende Frage, vor der wir im Moment stehen. Und da sind die großen Unternehmen, die solche Plattformen betreiben, tatsächlich auch in einer ziemlich schwierigen Situation. Die mussten sich in den letzten Monaten sehr viel Kritik anhören, und ich finde, dass viel dieser Kritik auch gerechtfertigt ist. Die haben unglaublich bräsig und arrogant darauf reagiert, dass da ja tatsächlich ein Problem da ist, von dem viele von uns, ich selbst eingeschlossen, sagen, dieses Problem ist real. Es gibt diese Aufforderungen zu Gewalttaten, es gibt Beleidigungen und so weiter, das findet dort alles statt. Und die sagen dann eben, na ja, ist nicht so unser Bier, und wir müssen uns da nicht so groß drum kümmern. Jetzt haben sie inzwischen anerkannt, dass es wohl offenbar doch so ist, dass sie sich darum kümmern müssen, und dann brauchen sie Möglichkeiten, das zu tun. Und dann setzen eben viele auf Technologie. Es sind Technologiekonzerne, da kommen die alle her, und das ist dann so die erste Idee, die die haben.
Man muss allerdings realistischerweise auch sagen, Sie haben es angedeutet: Bei der Zahl der Nachrichten und Informationen, die da ausgetauscht werden, ist es schwer vorstellbar, dass es alles Menschen machen. Das heißt, eigentlich ist für uns das Entscheidende, dass wir ein Verfahren entwickeln, und das ist ja auch eine Forderung, die gemacht wurde, dass wir ein Verfahren entwickeln, bei dem wir eben unter Umständen am Ende eine Kombination aus Technik, aber dann eben auch Menschen haben, die sich das anschauen, um vor allen Dingen dann Zweifelsfälle zu beurteilen und das dann auch schnell zu tun, damit man darauf nicht eine Woche warten muss, damit das dann nicht eine Woche da steht, es aber auch so zu tun, dass man wirklich weiß, es wird anständig gemacht, und dass man Widerspruchsmöglichkeiten hat als derjenige, dessen Nachrichten dann zum Beispiel weggelöscht werden.

Tendenz, noch mehr zu löschen

Kassel: Aber da sind wir doch tatsächlich bei der Zensurfrage, da sind wir doch bei der Frage, Herr Spielkamp, sollte man privaten Unternehmen überlassen, zu entscheiden, was im Internet erlaubt ist und was nicht?
Spielkamp: Das ist eine ganz entscheidende Frage, und die einzige Antwort, die wir bisher darauf gefunden haben, ist, wir überlassen es ihnen zum Teil ja ohnehin schon. Es gibt viele Klagen darüber, gerade bei Facebook, dass Nachrichten oder Posts verschwinden dort, die eigentlich hätten stehen bleiben sollen, weil die etwa nach den sogenannten Community Guidelines von Facebook dann gelöscht werden. Community Guidelines finde ich auch einen schrägen Ausdruck, weil es ja nicht Guidelines sind, die die Community selbst erarbeitet hat, sondern die für die Community gelten, die Facebook gemacht hat.
Und da stimmt schon jetzt vieles nicht mit dem überein, was wir so an Wertvorstellungen haben, was da an Nacktheit gelöscht wird und anderen Dingen, da würden wir halt sagen, nein, das muss eigentlich stehen bleiben auf so einer Plattform. Aber das sind deren Hausregeln, und da sagen die, das machen wir. Und dann ist der Weg tatsächlich, vor allen Dingen, wenn dann so ein äußerer Zwang entsteht wie eben durch dieses Netzwerkdurchsetzungsgesetz* mit sehr hohen Strafandrohungen, der ist dann kurz dahin, einfach noch viel mehr wegzulöschen, was irgendwie zweifelhaft ist. Und das ist ja auch etwas, was wir scharf kritisieren und sagen, da muss man noch mal neu drüber nachdenken. Also, da jetzt etwas zu regeln und diese Regelungen zu verbessern oder zu verschärfen, das ist nicht grundsätzlich einfach abzulehnen.
Wir müssen darüber nachdenken, wie wir dem beikommen. Aber das Gesetz in der vorliegenden Form ist halt nicht geeignet dafür, weil es auch einfach Annahmen macht, die nicht wirklich gut belegt sind. Und dann ist der Schritt in die Zensur – ich meine, es wird ein bisschen zurückhaltender Overblocking genannt, es wird also weit mehr gelöscht, als eigentlich gelöscht werden sollte – der ist kurz. Und den muss man eben wieder verlängern, denn wir leben in einem Rechtsstaat, und das soll auch so bleiben.
Kassel: Der Kampf gegen Fake-News, Hassbotschaften und Ähnliches im Internet, er ist nicht zwecklos, aber er ist unverändert schwierig, egal, ob man sich auf Menschen oder auf Technik verlässt. Matthias Spielkamp war das, Gründer und Geschäftsführer von Algorithm Watch. Herr Spielkamp, vielen Dank für das Gespräch und einen schönen Tag noch!
Spielkamp: Ja, gern, Ihnen auch!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandfunk Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.

*In einer vorigen Version haben wir fälschlicherweise statt Netzwerkdurchsetzungsgesetz "Netzwerkdurchsuchungsgesetz" geschrieben. Wir haben den Fehler korrigiert. Unser Interviewpartner hat in seiner Antwort die korrekte Bezeichnung verwendet.

Mehr zum Thema