Mental HealthTiktoks For-You-Page ist eine Negativspirale mit gefährlichen Inhalten
Tiktok-Nutzer*innen können sehr schnell in einer deprimierenden Negativspirale voller Videos landen, die gefährlich für die mentale Gesundheit sein können. Das zeigt nun eine Recherche des Datenjournalismusteams des Bayerischen Rundfunks.
TikTok, Instagram oder Facebook: Viele Soziale Netzwerke arbeiten mit der Idee, User*innen mehr Inhalte anzuzeigen, die sie interessieren. Algorithmen bestimmen das aufgrund der Inhalte, die Nutzer*innen bereits einmal angeklickt haben. Tiktok steht bereits länger in der Kritik, weil der Algorithmus dort besonders stark sein soll.
Im Feed-Bereich der App, der sogenannten For-You-Page sei die Gefahr besonders hoch, dass User*innen in eine Negativspirale voller gefährlicher Inhalte geraten. Zwar hatte das Unternehmen im Dezember vergangenen Jahres angekündigt, sich des Problems anzunehmen. Doch laut einer Recherche des Bayerischen Rundfunks gibt es die Probleme noch immer.
Der Algorithmus kann eine negative Wahrnehmung verstärken
Wenn sich User*innen traurige, deprimierende oder gar selbstzerstörerische Inhalte anschauen, bekommen sie davon immer mehr und landen so in einer Spirale, so das Ergebnis der Recherche. Dafür wurden fünf Tiktok-Accounts angelegt.
"Anfangs hatte noch jedes dritte Video solche negativen Hashtags, später waren es rund drei Viertel solcher Videos im Feed."
Für den Test haben die Journalist*innen dann Hashtags wie "traurig" oder "Depression" angeklickt. Schon nach rund 45 Minuten stellte sich der Feed auf diese Interessen ein, und es tauchten immer mehr Videos mit diesen Hashtags auf. Kurze Zeit später wurden kaum noch Tiktoks mit anderen Inhalten angezeigt.
"Betroffene haben meistens schon eine negative Sicht auf die Welt, und wenn sie dann so einen Feed konsumieren, dann verstärkt das die eigene Wahrnehmung noch einmal."
Für Menschen, die ohnehin schon mit psychischen Problemen zu kämpfen haben, kann dieser Negativstrudel Folgen haben, sagt die Psychotherapeutin Anke Glaßmeyer aus Ibbenbüren. Nutzer*innen könnten so getriggert werden, sich selbst zu verletzten oder Suizidgedanken könnten verstärkt werden.
Tiktok müsste den Algorithmus ändern
Die Journalist*innen vom Bayerischen Rundfunk haben noch einmal bei Tiktok wegen dieses Problems nachgefragt. Eine richtige Antwort hätten sie nicht erhalten, sondern nur den Hinweis, dass im vergangenen Jahr mehrere Millionen Videos gelöscht worden seien.
Doch da der Algorithmus die noch vorhandenen Videos mit derartigen Inhalten weiterhin pusht, scheint das keine Lösung des Problems.
Mit dem "Digital Services Act" hat sich die EU kürzlich auf ein neues Digitalgesetz verständigt. Damit sollen Hassrede und illegale Inhalte im Internet verringert werden. Zudem sollen große Plattformen, zu denen auch Tiktok gehört, zu mehr Transparenz bei den Algorithmen verpflichtet werden.
Wenn es euch oder Menschen in eurem Umfeld nicht gut geht – lasst euch helfen! Eine ganze Reihe von Anlaufstellen haben wir hier für euch zusammengefasst.