• Deutschlandfunk App
  • ARD Audiothek
  • Spotify
  • Apple Podcasts
  • Abonnieren

Der Twitter-Algorithmus ist offenbar rassistisch: Er zeigt weiße Nutzerinnen und Nutzer in Bildern häufiger als schwarze. Twitter will jetzt rausfinden, warum das so ist.

Algorithmen bestimmen, was wir zu sehen bekommen. Welche Personen, welche Bilder, welche Werbung in unseren Timelines auf Tiktok, Insta, Twitter oder Facebook auftaucht. Wie diese Algorithmen allerdings ihre Entscheidungen treffen, wird selten hinterfragt. Meistens nur, wenn etwas schief geht. So wir gerade bei Twitter.

Experiment McConnell vs. Obama

Der Twitter-User Tony Arcieri hat ein Experiment gemacht: Er hat eine Fotocollage bei Twitter hochgeladen in einem extremen Hochkantformat. Ganz oben der weiße US-Politiker Mitch McConnell, ganz unten Ex-Präsident Barack Obama, dazwischen viel Leerraum. Dann baute er eine umgekehrte Variante: McConnell unten, Obama oben.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Für die Bildvorschau in der Timeline musste der Twitter-Algorithmus nun entscheiden, welches Porträt gezeigt werden soll. Obwohl beide Bilder in der Collage gleich groß waren zeigte der Twitter-Algorithmus in der Vorschau immer Mitch McConnell an. Auch als Arcieri die Farbe der Krawatte änderte oder Barack Obama gleich mehrere Köpfe gab.

Andere Nutzer haben das Experiment mit anderen Bildpaaren wiederholt und kommen zu einem ähnlichen Ergebnis.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Warum der Algorithmus sich für McConnell und gegen Obama entscheidet, ist unklar. Scheinbar weiß nicht einmal der Twitter-Konzern, wo das Problem ist und die Pressesprecherin Liz Kelley erklärte, man würde sich das Phänomen genauer ansehen.

Fest steht nur, dass Twitter eine Künstliche Intelligenz für Gesichtserkennung einsetzt. Deren Aufgabe ist es, die Gesichter von Menschen in Porträtbildern in der Vorschau stärker in in den Mittelpunkt zu rücken. Seit 2018 ist sie im Einsatz.

Ist der Algorithmus auf weiße Menschen trainiert?

Hier könnte das Problem liegen, dass man eben diesen Algorithmus mit Bildern weißer Menschen trainiert hat. Wie das WDR-Blog Digitalistan schreibt, ist diese Grundproblematik schon länger bekannt, aber es sei doch überraschend, dass das "selbst bei einem prominenten Dienst wie Twitter derart akut und konkret ist".

"Wenn der Algorithmus also wirklich ein Rassismusproblem hätte, würde man das bei Twitter sicher nicht an die große Glocke hängen."
Martina Schulte, Deutschlandfunk-Nova-Reporterin

Ob Twitters Algorithmus nun tatsächlich rassistisch ist, lässt sich kaum beweisen oder widerlegen, sagt Deutschlandfunk-Nova-Reporterin Martina Schulte: "Das könnte man nur durch eine größere Studie, die es aber nicht gibt." Wie der Algorithmus genau funktioniert ist bei Techfirmen ein Firmengeheimnis. "Wenn der Algorithmus also wirklich ein Rassismusproblem hätte, würde man das bei Twitter sicher nicht an die große Glocke hängen."

Shownotes
Social Media
Twitter: Rassismus im Algorithmus
vom 22. September 2020
Moderator: 
Till Haase
Gesprächspartnerin: 
Martina Schulte, Deutschlandfunk-Nova-Reporterin