Seit 17:05 Uhr Studio 9

Mittwoch, 11.12.2019
 
Seit 17:05 Uhr Studio 9

Breitband | Beitrag vom 03.08.2019

VerschlüsselungWhatsApp: Liest Facebook bald mit?

Katja Bigalke und Martin Böttcher im Gespräch mit Dirk Engling

Beitrag hören Podcast abonnieren
Die Logos von WhatsApp und Facebook leuchten auf einem Smartphone-Bildschirm. (picture alliance / Jaap Arriens)
Facebook will die Verschlüsselung von WhatsApp schwächen (picture alliance / Jaap Arriens)

Wird Facebook bald anfangen die, Nachrichten in WhatsApp zu analysieren, bevor diese verschlüsselt werden? Vieles deutet darauf hin. Was heißt das für die User?

Es ist ein wahrgewordener Traum jedes Innenministers, denn seit Jahren kämpfen diese gegen die verschlüsselte Übertragung von Nachrichten in Messengern. Hier könnten Straftaten und terroristische Anschläge geplant werden. Die Strafverfolgungsbehörden wären machtlos.

Jetzt scheint Facebook die Debatte um die Verschlüsselung ein für alle Mal zu beenden. Das behauptet der IT-Unternehmer und Experte Kalev Leetaru im Magazin Forbes. Die Pläne sehen vor, dass ein KI-Algorithmus, der ständig erweitert und aktualisiert wird, direkt auf den Geräten der Nutzer läuft, um Bilder und Videos vor dem Versenden zu überprüfen. Facebook dementiert dieses Vorhaben. Aber die Grundsteine, die momentan gelegt werden, lassen die Frage aufkommen, wie lange noch.

Wir sprechen über diese Entwicklungen mit Dirk "Erdgeist" Engling vom Chaos Computer Club.

Der Auslöser war Christchurch

Laut Engling geriet WhatsApp für seine Ende-zu-Ende-Verschlüsselung, wo kein Dritter mitlesen konnte, in die Kritik, nachdem auf der Plattform Videos des Christchurch-Attentats verbreitet wurden. Genau solche Inhalte soll die App in Zukunft schon vor dem Versenden erkennen und filtern können. Die neue Technik ermöglicht, die Nachrichten vor der Verschlüsselung auf dem Gerät zu analysieren, sie landen also nicht in der Cloud. Dann wird anhand einer Blacklist in der App überprüft, ob Bilder und Videos verschickt werden sollen, die WhatsApp nicht auf seiner Plattform haben will.

Zu diesem unerwünschten Material  neben terroristischen Inhalten auch Kinderpornografie und Vergewaltigungsvideos gehören. Als Motivation dafür sieht Engling, dass Facebook Strafverfolgungsbehörden besänftigen möchte, die eine Hintertür oder sogar ein Ende der Verschlüsselung des Messengers fordern. 

Technik mit Potenzial für mehr

Aber auch die Möglichkeit, dass es eigentlich darum gehe, die Nachrichten für besseres Werbetargeting analysieren zu können, schließt Engling nicht aus. Denn wenn die Inhalte schon von einer KI gescannt würden, böte sich schließlich auch an, die gewonnen Erkenntnisse zu monetarisieren. So sei es relativ einfach, von beispielsweise einem Ultraschallbild darauf zu schließen, dass bald Werbung für Windeln zum Erfolg führe.

Die technische Grundlage für die Filtertechnik bildet ein von Facebook geschaffener Bilderkennungsalgorithmus, der jetzt unter einer Open Source-Lizenz veröffentlicht wurde. Engling erklärt, dass diese Software es möglich mache, Bilder und Videos so zu analysieren, dass sie auch nach leichten Veränderungen immer noch erkannt werden können. Damit wären womöglich die Zeiten vorbei, in denen man durch ein leichtes Beschneiden oder dem Hinzufügen eines Logos solche Filter umgehen konnte.

Doch Engling zeigt eine gewisse Skepsis darüber, wie gut die Technologie wirklich ist. Als Beispiel nennt er Youtube, wo alle Videos beim Hochladen auf Copyright-Material überprüft werden, woraufhin auch schon Videos von Demonstrationen gesperrt worden seien, weil in einem Café im Hintergrund ein urheberrechtlich geschützte Musik gespielt wurde i.

Ein weiterer Schritt in Richtung Überwachung

Engling sieht die Gefahr, dass solche verhältnismäßig kleine Einschränkungen dazu führen, dass man sich so Schritt für Schritt an eine Überwachung gewöhnt. So habe auch Google angekündigt, dass Gmail automatisiert nach bestimmten Inhalte scanne, um gezielt werberelevante Informationen zu finden. Zur Beruhigung der User würden diese Unternehmen dann sagen, dass es ja keine Menschen seien, die die privaten Nachrichten lesen, sondern künstliche Intelligenzen.

Seine Position, dass die Gesellschaft sich Schritt für Schritt in Richtung Überwachung bewegt, begründet Engling so: Erst kam die Frage, ob wir unsere Adressbücher mit Social-Media-Plattformen teilen wollen. Dann kamen die Ortungsdienste auf den Smartphones. Danach haben die User angefangen, private Fotos ins Internet zu laden.

Die Folgen könnten riesig sein

Zudem böte solche Technologie auch Chancen für Staaten, ihre eigenen Filter mit einzubauen. So könne beispielsweise China beschließen, dass Bilder und Videos vom Tian’anmen-Massaker auch gefiltert werden müssen und betroffene Firmen könnten sich schlecht dagegen wehren – die Grundlagen zur Umsetzung seien schließlich vorhanden.

Und auch wenn Facebook zwar momentan sagen würde, dass es nur um eine Filterung der Nachrichten in WhatsApp gehe: "Wo der Trog ist, da kommen die Schweine.", so Engling.

Mehr zum Thema

Breitband Sendungsüberblick – Von Tätern, Opfern und Helden
(Deutschlandfunk Kultur, Breitband, 03.08.2019)

Gesichtserkennung – Wie Komfort autoritären Regimen in die Hand spielt
(Deutschlandfunk Kultur, Breitband, 27.07.2019)

Berichte über Fusion von Facebook-Messengerdiensten – "Kluger Schachzug von Mark Zuckerberg"
(Deutschlandfunk Kultur, Interview,  28.01.2019)

Breitband

Breitband SendungsüberblickAktivismus wird kommerziell
Besucher stehen vor der Umzäunung des Berliner Olympiastadions und blicken hinein. (picture alliance / Sven Simon)

Ein Unternehmen ruft dazu auf, auf einem Event Petitionen im Berliner Olympiastadion zu unterschreiben – gegen Eintritt. Was macht das mit der Demokratie? Außerdem: Der SciFi-Thriller "The Feed" und Taiwans Digitalministerin Audrey TangMehr

weitere Beiträge

Das könnte sie auch interessieren

Entdecken Sie Deutschlandfunk Kultur