Eskalation in Nahost

Wie TikTok Nutzer in die digitale Kriegszone zieht

TikTok-Logo auf einem Smartphone
Mit der Eskalation in Nahost zeige die Videoplattform TikTok vermehrt Kurzvideos ohne Kontext und mit zum Teil verstörenden Inhalten, so Anna-Katharina Meßmer. © imago/ NurPhoto / Nikolas Kokovlis
Ein Kommentar von Anna-Katharina Meßmer · 26.10.2023
TikTok wolle „Freude“ bringen. Der Soziologin Anna-Katharina Meßmer und ihr Team ist jedoch aufgefallen, dass die Plattform gerade jetzt viel Gewalt und Desinformation verbreitet. Und das habe nicht nur mit dem Nutzerverhalten zu tun, meint Meßmer.
Vielleicht gefällt Dir „Shani Louk Gefunden Krankenhaus“, „Türkei Palästina“, „Gaza“, „Hamas Geiselvideo heute“. Seit über zwei Wochen empfängt mich TikToks Suchfunktion mit solchen und ähnlichen Suchvorschlägen. Drei davon sind stets mit Flammen gekennzeichnet und weisen auf vermeintliche Hot Topics hin. Nun könnte man vermuten, der TikTok-Algorithmus zeige mir einfach die häufigsten Suchanfragen auf der Plattform. Doch so einfach ist es nicht.
Seit mehreren Monaten untersuchen mein Team und ich die Kurzvideo-Plattform TikTok. Dabei ist uns aufgefallen, dass die App regelmäßig irritierende Suchvorschläge nahelegt, darunter etwa die wiederkehrende Wortkombination „XY tot“, die den Tod von Prominenten vermuten lässt, während jene sich bester Gesundheit erfreuen.

Wie TikTok gewaltvolle Videos vorschlägt

Unsere Recherchen deuten darauf hin, dass sich mindestens ein Teil von TikToks Suchvorschlägen nicht aus dem Verhalten der Nutzer:innen ergibt, sondern von TikToks Algorithmus selbst vorgeschlagen wird. Was bei eher unterhaltsamen Begriffen wie „Kotzhügel“ während des Oktoberfestes vielleicht eklig, aber unproblematisch ist, wird in politischen Krisensituationen zum Problem.
Seit der Eskalation in Nahost sind TikToks Suchvorschläge dominiert von themenverwandten Empfehlungen. Das ist zunächst erstaunlich, weil die Plattform laut Selbstbeschreibung, „Kreativität und Freude“ bringen möchte und sich damit brüstet, keine politische Werbung zuzulassen. Gleichzeitig drängen die reißerischen Suchvorschläge Nutzer:innen dazu, Videos anzusehen, die mit einem politisch komplexen und gewaltvollen Konflikt verknüpft sind.

Verstörende Inhalte ohne Kontext

Klickt man auf eine dieser empfohlenen Textzeilen, wird man zu einer Ergebnisseite weitergeleitet. Dort findet man sich wieder in einer wilden Melange aus Nachrichten, Propaganda, Desinformationen, Meinungen, Klickbait, Werbung und Videos von Trittbrettfahrern. All das in zahlreichen unterschiedlichen Sprachen, ohne jeden Kontext und mit zum Teil verstörenden Inhalten.
Die Videos zeigen Menschen in erniedrigenden, entmenschlichenden und lebensbedrohlichen Situationen. Dass dies auf TikTok besonders virulent ist, liegt am besonderen Charakter des Kurzvideo-Dienstes: Es geht um Authentizität. Und das zeigt sich auch in Suchvorschlägen. Ein Beispiel sind die Vorschläge, die sich auf die deutsche Vermisste Shani Louk beziehen, die während eines Musikfestivals von der Hamas entführt wurde. Videos von ihr, wie sie tanzt, und Aufnahmen von ihr, wie sie bewusstlos auf einem Pick-up-Truck liegt, gingen viral. Weitere Suchvorschläge ergänzten ihren Namen etwa mit dem Zusatz „Video unzensiert“.

Gefährdung der psychischen Gesundheit

Nun spricht TikTok insbesondere junge Menschen an. Die nutzen die Plattform nicht nur zur Unterhaltung, sondern auch als Suchmaschine und Nachrichtenquelle. Gleichzeitig fehlt es selbst den Digital Natives an digitaler Nachrichtenkompetenz. Ein echtes Problem angesichts der eben beschriebenen Melange. Schließlich wissen Staaten und terroristische Organisationen genau, wie sie soziale Medien zu Propagandazwecken nutzen können.
Doch neben dieser Problematik gibt es einen weiteren Aspekt, der hier wichtig ist: Ganz unabhängig davon, wie gut man darin ist, etwa Desinformationen zu erkennen, kann das Anschauen gewaltvoller Videos ernsthaft die psychische Gesundheit gefährden. Bleiben Nutzer:innen mit dem Gesehenen alleine und bekommen sie keine Hilfe, das einzuordnen, kann dies nachhaltig traumatisierend sein.
Auch wenn Kriegsinhalte auf digitalen Plattformen an sich nicht illegal sind, stellt sich dennoch die Frage, wie redlich es ist, dass soziale Medien Opfer, Krieg und Gewalt ausbeuten, um Nutzer:innen dazu zu bringen, mehr Zeit auf ihren Plattformen zu verbringen.

Die Soziologin Anna-Katharina Meßmer ist Expertin bei der Stiftung Neue Verantwortung in Berlin. In ihrer Arbeit beschäftigt sie sich mit der Regulierung von sozialen Medien und der Frage, wie die digitalen Kompetenzen der Bürger:innen gestärkt werden können. Derzeit arbeitet sie an der Umsetzung des Digital Services Act.

Anna-Katharina Meßmer
© Sebastian Heise
Mehr zum Thema