Seit Fake News und Social Bots in Trumps Präsidentschaftswahlkampf eine entscheidende Rolle spielten, flaut die Diskussion über sie nicht mehr ab. Die Angst ist groß, dass sie auch den Bundeswahlkampf 2017 beeinflussen könnten.
Social-Media-User sollten eine gesunde Skepsis gegenüber allen Posts haben, rät Dennis Horn. Weil jeder auf Facebook oder Twitter Mitteilungen veröffentlichen kann, sollte auch jeder wissen, wie man Quellen prüft, erklärt der Was-mit-Medien-Reporter.
- Den Nutzer suchen, der als erster die Mitteilung gepostet hat
- Verwendete Zitate im Netz nachprüfen
Beitragsflut nicht kontrollierbar
- Problem: Im Schnitt verbringen User ungefähr 42 Minuten pro Tag auf Facebook, ergibt fünf Stunden pro Woche. Der durchschnittliche Facebook-User bekommt pro Tag 300 Beiträge angezeigt. Hinzukommen noch Tweets, Feedreader, Informationen auf Webseiten. All diese Infos nachzurecherchieren, ist für einen Alltags-User unmöglich.
- Tipp: Alle Inhalte, die einen zweifeln lassen oder zu perfekt sind, besser nicht weiterverbreiten.
Noch gibt es keine Tools, mithilfe derer Fake News und Social Bots leichter entlarvt werden könnten. Studenten haben in Princeton bei einem Programmierworkshop eine Software entwickelt, die Fake News erkennen und dem User den Link zur korrekten Meldung anbieten soll, falls es diese gibt. Außerdem soll die Software Fakten eines Posts freilegen und sie mit anderen Artikeln vergleichen. Je mehr Fakten "verifiziert" sind, desto mehr Wahrheitspunkte bekommt der Post. Kommt eine kritische Masse an Wahrheitspunkten nicht zusammen, warnt das System den User.
"Es gibt gerade bei Fake News die Forderung, Facebook soll mehr löschen. Das halte ich für gefährlich, denn dann würden große Konzerne entscheiden, was wahr ist und was falsch. Das ist nicht in jedem Fall so klar zu trennen."
Das Botswatch-Tool identifiziert automatisch arbeitende Twitter-Accounts oder Social Bots. Gerade die Social Bots werden für Propaganda missbraucht, erklärt Dennis Horn. Entwickelt wurde Botswatch von einem Team aus Berliner Journalisten und Programmierern.
Es gibt auch Forderungen, wonach Facebook mehr Posts einfach löschen soll. Dennis hält das für problematisch, weil wir dann Facebook die Entscheidung überlassen würden, was wahr und was falsch ist. Besser sei eine Art Meldefunktion, erklärt Dennis. Wenn Nutzer Themen bewerten, entsteht ein Ranking. Zum Beispiel: "25 deiner Freunde melden diesen Inhalt als falsch".
Automatisch Fake News zu erkennen, könnte mit Algorithmen funktionieren, genauso, wie bereits gegen Spam vorgegangen wird.
Checken, checken und nochmals checken
Tatsächlich werden Journalisten in Zukunft viel mehr Faktenchecks machen müssen als bislang - wie beispielsweise auf Mimikama. Die Seite macht nichts anderes, als Falschmeldungen auf Facebook aufzudecken.