Nahostkonflikt auf TikTok Gewaltvideos in Sozialen Medien
Hauptinhalt
30. Oktober 2023, 14:22 Uhr
Mit ihrem Angriff auf Israel flutete die Terrororganisation Hamas die Sozialen Netzwerke mit grausamsten Inhalten. Sie bilden zusammen mit informativem Content, Meinung und Falschmeldungen eine gefährliche Mischung. Die Ersteller versuchen die Aufmerksamkeit auf bestimmte Aspekte des Konflikts zu lenken. Die Sozialen Netzwerke bieten in der Regel keinen ausreichenden Raum, um die Tiefe und Nuancen des Konflikts angemessen zu erfassen.
- Mit den verbreiteten Gewaltvideos soll die Öffentlichkeit für einen gewünschten Kriegsverlauf mobilisiert werden.
- Die Medienpsychologin Lena Frischlich warnt vor "Doomscrolling". Das belaste nicht nur die eigene Psyche, sondern verstärke auch die Sichtbarkeit der Inhalte auf den Plattformen.
- Auf Twitter und TikTok ist das Risiko besonders hoch, auf Gewaltvideos zu stoßen. Obwohl es keinen garantierten Schutz gibt, gibt es Einstellungen, die das Risiko senken.
Grausame Videos aus Israel und Palästina überfluten die Sozialen Medien. Das Ausmaß und die Geschwindigkeit der Verbreitung übertreffen schon jetzt das, was viele Medien beim Angriffskrieg Russlands gegen die Ukraine als "ersten TikTok-Krieg" bezeichneten. Besonders durch die Live-Funktionen von TikTok und Co. liegen teilweise nur Sekundenbruchteile zwischen Folter und Verbreitung. Diese Bilder sind selbst für Erwachsene schwer zu ertragen. Der Angriff der Hamas auf Israel markiert eine Zäsur für die Aktivitäten auf Sozialen Netzwerken. Denn es geht nicht mehr nur darum, die Videos zeitnah und reichweitenstark zu veröffentlichen, sondern Familienangehörige, Menschen vor Ort aber auch die Weltöffentlichkeit zu beeinflussen.
Laut dem Medienwissenschaftler Prof. Dr. Jan Claas van Treeck gebe es ein Interesse, bestimmte Emotionen mit Bildern zu erzeugen. Die Öffentlichkeit für einen gewünschten Kriegsverlauf zu mobilisieren, sei ein Teil der Kriegsführung. Die Rede ist von psychologischer Kriegsführung, die von sogenannten "PsyOps-Einheiten" durchgeführt werden. Es sei ein Kampf David gegen Goliath, schreibt Caroline Krohn, IT-Sicherheitsexpertin und Gründerin der Arbeitsgemeinschaft Nachhaltige Digitalisierung. Die Nutzerinnen und Nutzer der Sozialen Netzwerke und auch Journalistinnen und Journalisten können sich noch so sehr abstrampeln, "wo immer sie hinkommen, lauert schon die nächste Täuschung und hinterlässt – unabhängig von der Faktenlage – Gefühle, die bleiben", so Krohn.
Weltweite psychische Belastung
Die Hamas terrorisiert nicht nur physisch die Einwohnerinnen und Einwohner der Kibbuze in Israel, sondern auch psychisch die Nutzerinnen und Nutzer Sozialer Medien weltweit. Vor allem, wenn man selbst oder Menschen, die man kenne, betroffen seien, könne das wahnsinnig belastend sein, sagt die Kommunikationswissenschaftlerin und Medienpsychologin Prof. Dr. Lena Frischlich. "Voreinstellungen und Vorerfahrungen spielen eine wichtige Rolle. Zum Beispiel können die Bilder traumatische Erinnerungen wecken, etwa bei Personen mit eigener Kriegserfahrung, oder insgesamt starke negative Emotionen wie Angst, Trauer oder Wut auslösen."
Doch wie können wir als Social-Media-Nutzer den Gewaltinhalten entgehen? "Das ist sehr schwierig bis unmöglich", sagt Medienwissenschaftler Treeck im Interview. Den einen Tipp, um seinen eigenen Feed gewaltfrei zu halten, gibt es laut ihm nicht. Das Problem sei die große Masse an Inhalten, die über verschiedene Netzwerke verbreitet wird. "Aber das, was es geben könnte, ist ein gemeinsames Lernen. Und das Bewusstsein, dass die eigene Kontrolle, welche Inhalte mir angezeigt werden, begrenzt ist", so Treeck.
Die einzige Möglichkeit sei, den eigenen Feed sehr streng zu kontrollieren und ganz bewusst nur Kanäle zu abonnieren, die ausschließlich Inhalte gefiltert verbreiten.
Medienpsychologin Frischlich warnt außerdem explizit vor Doomscrolling, also sehr viel Zeit damit zu verbringen, negative und extreme Inhalte zu konsumieren. Es sei zwar normal, "auf extremen Inhalten hängen zu bleiben", führe aber neben den Folgen für die eigene Psyche auch dazu, dass Algorithmen diese Inhalte verstärkt weiterempfehlen. Durch den eigenen Aufmerksamkeitstunnel steigt also auch die Wahrscheinlichkeit für andere Nutzer, diese Inhalte zu sehen.
Wie kann man Kinder und Jugendliche schützen?
Die Sozialen Medien sind ein Ort, an dem auch Kinder ungewollt mit Gewaltvideos in Kontakt kommen können. Um Kinder vor brutalen Inhalten zu schützen, bieten die Sozialen Medien häufig eigene Filter an. Bei TikTok sei das der "Eingeschränkte Modus", beschreibt Jörg Schieb, Journalist und ARD-Digitalexperte. Damit sollen gewalthaltige und potenziell schädliche Inhalte blockiert werden. Bei Instagram biete das "Instagram Family Center" "Eltern eine Reihe von Tools zur Kindersicherung, darunter auch die Möglichkeit, gewalttätige Inhalte zu blockieren". Allerdings schränkt der Digitalexperte ein: "Solche Filter schützen nur bis zu einem bestimmten Grad, da kein Filter 100% sicher arbeitet."
Deshalb ist es "gerade für Kinder- und Jugendliche (…) zentral, dass sie über Medieninhalte mit Vertrauenspersonen sprechen können", sagt Dr. Lena Frischlich. Was helfen kann: "Erzählen, wie sehr es einen selbst traurig macht, dass Menschen sich schlimme Dinge antun und wie man damit umgeht." Auch kinderorientierte Formate wie die Nachrichtensendung "logo!" könnten dabei helfen.
FAQ
Kann jeder in Sozialen Netzwerken auf Gewaltvideos stoßen?
Theoretisch können Nutzerinnen und Nutzer aller Plattformen auf Gewaltvideos stoßen. Die ersten Filter und Checks der Sozialen Medien würden selbst brutale Videos viel zu oft überwinden, sagt Jörg Schieb, Journalist und ARD-Digitalexperte. Diese Kontrolle erfolge zunächst nur durch Algorithmen und KI, nur bei Ausnahmefällen oder wenn Beschwerden vorliegen, würden Menschen die Inhalte prüfen. Auch IT-Sicherheitsexpertin Caroline Krohn schätzt die Wahrscheinlichkeit, über Soziale Medien mit solchen Inhalten konfrontiert zu werden, als "sehr hoch" ein. Das liege auch daran, dass Algorithmen den Nutzerinnen und Nutzern vor allem solche Inhalte anzeigen würden, die starke Emotionen auslösen und damit viele Aktivitäten wie Likes und Kommentare erzeugen.
Gibt es technische Möglichkeiten sich vor den Gewaltvideos zu schützen?
Auf vielen Plattformen gibt es Einstellungsmöglichkeiten, mit denen gewalthaltige Inhalte teilweise blockiert werden können, absoluten Schutz bieten diese jedoch nicht:
X (ehemals Twitter)
Auf X (ehemals Twitter) bestehen in den Einstellungen mehrere Möglichkeiten, die zum Teil vor dem ungewollten Ansehen von Gewaltvideos schützen können. Zum einen kann in den Einstellungen das Häkchen bei "Medien anzeigen, die sensible Inhalte beinhalten können" entfernt werden. Wenn Inhalte von den Erstellern als "sensibel" gekennzeichnet wurden oder von anderen Nutzerinnen und Nutzern gemeldet wurden, werden diese Inhalte nicht mehr angezeigt. In den Einstellungen können auch ganze Accounts oder bestimmte Wörter stummgeschalten werden. Jan Claas van Treeck weist jedoch darauf hin, dass dadurch auch informative Inhalte zu den Themen ungewollt blockiert werden können. Weitere Informationen finden sich im Hilfe-Center von X. Allerdings bieten auch diese Einstellungen keinen garantierten Schutz
TikTok
Da die Nutzung der Kurzvideo-App TikTok stark an die Empfehlungen des Algorithmus gebunden ist, muss hier dem Algorithmus mitgeteilt werden, was man sehen möchte und was nicht. Jörg Schieb empfiehlt hier aktiv auf den persönlichen Algorithmus einzuwirken: "Interagieren Sie mit Inhalten, die Sie mögen. Wenn Sie ein Video liken, kommentieren oder teilen, signalisiert dies dem Algorithmus, an solchen Inhalten interessiert zu sein." Mit dem "Nicht interessiert"-Button könnten dagegen Inhalte markiert werden, die der Algorithmus in Zukunft nicht mehr zeigen soll. Die Funktion lässt sich aktivieren, indem man mit dem Finger lange auf das entsprechende Video drückt.
Grundsätzlich gelte laut Jörg Schieb immer: "Brutale Inhalte melden, damit sie nicht auch noch andere sehen müssen." Auf den meisten Plattformen geht das einfach über die Einstellungen am Beitrag selbst.
Sind manche Plattformen gefährdeter als andere?
Gerade bei Twitter und TikTok sieht Jörg Schieb ein erhöhtes Risiko für solche Videos: "Bei Twitter sind in den letzten 12 Monaten 80% der Beschäftigten entlassen worden. Was Elon Musk aus wirtschaftlichen Erwägungen feiert, ist aus inhaltlicher Sicht eine Katastrophe." Es gebe nun zu wenig Menschen, die sich um die Moderation der Inhalte kümmerten.
Bei TikTok liege das auch an der Auswahl der Inhalte. Auf der Video-Plattform entscheiden fast ausschließlich die Algorithmen, welche Videos die Nutzerinnen und Nutzer zu sehen bekommen. Emotionalisierende Inhalte, unter die auch brutale Videos fallen können, würden durch den Algorithmus zum Teil an viele Nutzer ausgespielt, bevor sie gelöscht werden.
Wieso verbreiten sich die Inhalte gerade über Social Media und werden nicht sofort gelöscht?
Dass sich diese Videos gerade auf Sozialen Medien so stark verbreiten, liegt für Caroline Krohn auch daran, was die Plattformen ausmacht: Jeder kann alles posten. In den klassischen Medien gebe es sogenannte "Gatekeeper", also Journalistinnen und Journalisten, die als menschlicher Filter für die verbreiteten Inhalte gesehen werden können: "Auch wenn ein Medium politisch positioniert und nicht wirklich neutral ist, gibt es journalistische Kodizes, die den Berufsstand zu einer fundierten Recherche und Überprüfung zwingt - und die auch ethische Limits kennen.", so Krohn.
Laut Jörg Schieb rutschen viele Inhalte einfach durch die ersten Filter der Netzwerke hindurch: "Es ist unmöglich, mit 100% Trefferquote Gewalt in Videos zu entdecken. Eine Unterscheidung zwischen Szene aus Computerspiel, durch KI generiert und echt ist schwer bis unmöglich.", so der Digitalexperte. Die Videos von Menschen prüfen zu lassen, wäre zu teuer, aufwendig und zeitintensiv: "Gepostete Videos würden dann vielleicht erst nach einigen Tagen veröffentlicht".