Youtube lebt von Werbeeinnahmen. Der Konzern hat also ein Interesse daran, dass wir möglichst lange dranbleiben. Also was tun, damit wir immer weiter gucken? Unter anderem schlagen die Youtube-Algorithmen immer krassere Videos vor.
Mal eben was bei Youtube suchen … und zwei Stunden und zig Videos später erschrocken auf die Uhr schauen. Wer kennt das nicht? Das Problem, das sich daraus ergibt, hat aber nicht nur mit dem eigenen Zeitmanagement zu tun. Experten warnen auch vor einer möglichen Radikalisierung.
"Youtube will, dass wir möglichst lange auf der Plattform bleiben. Damit sie uns möglichst viel Werbung zeigen können! Und wie geht das? Indem Sie uns fesseln."
Von einem harmlosen Mountainbike-Video gelangt ihr über kurz oder lang zu einer Extrem-Mountainbike-Challenge – auch wenn ihr da ursprünglich gar nicht nach gesucht habt. Und von Videos übers Joggen landet ihr schnell bei Inhalten zum Ultramarathon.
Von Trump zur rassistischen Ideologie
Franziska Hendreschke aus der Deutschlandfunk-Nova-Social-Media-Redaktion hat sich mit den Untersuchungen der Tech-Soziologin Zeynep Tufekci beschäftigt, die an der University of North Carolina die Mechanismen sozialer Netzwerke erforscht. Gerade Youtube steht sie sehr kritisch gegenüber: Der Algorithmus bediene das unterbewusste Bedürfnis des Menschen nach immer extremeren Inhalten nämlich ganz bewusst. Auf diese Weise lenke er natürlich auch deren Wahrnehmung und Bewertung – gerade bei politischen Themen.
Auf der Suche nach Reden von Donald Trump während des US-Präsidentschaftswahlkampfs 2016 landete Tufekci über die angezeigten Videovorschläge etwa sehr schnell bei rassistischen Ideologien. Ähnliches passierte, als sie nach Auftritten von Bernie Sanders oder Hillary Clinton suchte. Hier hat sie der Algorithmus schnell zu Verschwörungstheorien rund um den 11. September gelotst.
Der Youtube-Selbsttest
Unsere Social-Media-Redakteurin hat den Selbstversuch gestartet: Sie hat sich bei Youtube abgemeldet, die Cookies gelöscht und losgesucht. Unter anderem hat sie nach Reden von Politikern geschaut, etwa nach Bundestagsreden von AfD-Politiker Alexander Gauland. Direkt unter den ersten Suchergebnissen hat sie ganz unterschiedliche Inhalte gefunden: Videos vom öffentlich-rechtlichen Dokukanal Phoenix und direkt daneben Videos von RT Deutsch, das als russisches Propagandamedium in der Kritik steht.
"Man stößt bei Youtube schnell auf rechte und verschwörungstheoretische Inhalte, auch, wenn man gar nicht danach gesucht hat – unter anderem, weil es davon einfach sehr viel auf der Plattform gibt."
Der Kommunikationswissenschaftler Jonas Kaiser erforscht gerade in Harvard, was Youtube seinen Nutzern empfiehlt. Er hat festgestellt, dass sich AfD, Identitäre Bewegung, NPD und Co. auf Youtube ein regelrechtes Paralleluniversum geschaffen haben.
Rechtes Paralleluniversum
Denn dort gelinge ihnen das, was sie in den etablierten Medien eben nicht immer schaffen: Sie können ihre Themen setzen – genau in der Art und Weise, in der sie das für richtig halten. Da regelrechte Massen an Content hochgeladen werden, gehen die Uploads der etablierten Parteien und Medien bei Youtube unter. Youtube will dagegen vorgehen und plant nach eigenen Angaben, in Zukunft mit Nachrichten-Organisationen zusammenzuarbeiten.
Soziologin Zeynep Tufekci schlägt dagegen vor, Plattformen wie Youtube gesellschaftlich zu finanzieren, etwa durch Steuern, damit sie dem öffentlichen Interesse verpflichtet sind. Diese Idee klingt zwar gut, ist aber wohl ziemlich unrealistisch, glaubt Franziska Hendreschke. Gerade das Beispiel Facebook zeige, wie schwer es ist, privatwirtschaftliche Unternehmen zu regulieren. Ihr Fazit: Gegen das Youtube-Geschäftsmodell vorzugehen, ist sehr schwierig. Umso wichtiger ist es, sich der Methoden bewusst zu sein und sich beim Filmchen gucken selbst Grenzen zu setzen.
"Letztlich habt ihr es immer selbst in der Hand, was ihr anklickt."