Künstliche IntelligenzFacebook-Software blockiert Inhalte zu Corona
Auch bei Facebook bleiben Mitarbeiter und Mitarbeiterinnen zu Hause. Eine Künstliche Intelligenz geht jetzt gegen Fake News über das neuartige Coronavirus vor. Doch die KI blockiert auch vertrauensvolle Inhalte als Spam. – Ohne Menschen geht es wohl doch nicht?
Im Netz ploppen von Tag zu Tag immer mehr Fake News und Verschwörungstheorien zum neuartigen Coronavirus auf. Facebook hatte deswegen Anfang März angekündigt, derartige Posts aus dem Netzwerk zu entfernen.
Eine gute Idee, aber die Künstliche Intelligenz (KI), die das übernehmen soll, scheint jetzt etwas zu gründlich unter den Beiträgen über das Virus aufzuräumen. In den vergangenen Tagen verschwanden nämlich auch Posts mit Links zu seriösen Nachrichtenquellen, wie der Washington Post oder der Süddeutschen Zeitung, aus den Timelines der Nutzerinnen und Nutzer. Die Grund: Die Beiträge wurden als Spam klassifiziert.
Ein Bug mit Folgen
Userinnen und User waren empört. Der Vorwurf der Zensur stand im Raum. Laut Facebook war die Ursache für das Blocken der Beiträge ein Bug im Spamfilter des sozialen Netzwerks. Der Bug sei in einem System aufgetaucht, das eine KI steuert und Beiträge mit Links zu missbräuchlichen Websites blocken soll. Mittlerweile sei das Problem behoben und die Posts wieder da, twittert der zuständige Facebook-Vizepräsident für Integrität, Guy Rosen.
KI ohne menschliche Hilfe überfordert
Einige Tech-Blogs wie Techcrunch vermuten allerdings eine andere Ursache hinter dem Blocken der Posts: Im Moment würden die menschlichen Contentmoderatoren fehlen. Aufgrund von Schutzmaßnahmen im Rahmen des Virus seien sie zu Hause statt im Büro. Da viele von ihnen über Subunternehmen beschäftigt würden, sei das Arbeiten im Homeoffice aus Sicherheitsgründen für sie nicht möglich. Also müsse jetzt die KI ran.
So ähnlich sieht das auch Facebooks ehemaliger Sicherheitsmanager Alex Stamos. Ohne die Unterstützung der menschlichen Content-Moderations-Teams ist die KI schlichtweg überfordert, sagt er auf Twitter. Vermutungen wie diese dementiert Facebook in einem offiziellen Statement.
KI für Einsatz in Krisenzeiten noch nicht bereit
Für die Kommunikation und Berichterstattung in Krisenzeiten ist das auf jeden Fall schlecht, findet Deutschlandfunk-Nova-Reporterin Martina Schulte. "Denn je mehr sich die Menschen sozial distanzieren, desto mehr sind wir darauf angewiesen, dass unsere Kommunikationsinfrastruktur funktioniert", sagt sie.
"Viele Techblogs sehen schon einen starken Zusammenhang zwischen den freigestellten Contentmoderatoren und dem Bug."
Laut The Verge mache der Bug daher auf ein generelles Problem aufmerksam: Die Tech-Konzerne würden verstärkt auf den Einsatz von KI setzen, weil sie im Gegensatz zum Menschen nie müde werde und sie vergleichsweise günstig sei. Inwiefern die KI Inhalte allerdings sinnvoll moderieren könne, sei unklar.
"Außerdem fragt man sich, wie Facebook mit solch nicht funktionierenden Tools verstärkt gegen Fake News vorgehen will, so wie es vollmundig angekündigt wurde."
Wie der Umgang des sozialen Netzwerks in Zukunft aussehen wird, ist also abzuwarten. Am Mittwoch (18.03.20) hat Mark Zuckerberg erneut angekündigt, gegen Fake News vorzugehen und ein Informationszentrum ans Laufen zu bringen, das in Deutschland, Frankreich, Italien und den USA Berichte rund um das Virus prominent anzeigen soll.