Der Twitter-Algorithmus ist offenbar rassistisch: Er zeigt weiße Nutzerinnen und Nutzer in Bildern häufiger als schwarze. Twitter will jetzt rausfinden, warum das so ist.
Algorithmen bestimmen, was wir zu sehen bekommen. Welche Personen, welche Bilder, welche Werbung in unseren Timelines auf Tiktok, Insta, Twitter oder Facebook auftaucht. Wie diese Algorithmen allerdings ihre Entscheidungen treffen, wird selten hinterfragt. Meistens nur, wenn etwas schief geht. So wir gerade bei Twitter.
Experiment McConnell vs. Obama
Der Twitter-User Tony Arcieri hat ein Experiment gemacht: Er hat eine Fotocollage bei Twitter hochgeladen in einem extremen Hochkantformat. Ganz oben der weiße US-Politiker Mitch McConnell, ganz unten Ex-Präsident Barack Obama, dazwischen viel Leerraum. Dann baute er eine umgekehrte Variante: McConnell unten, Obama oben.
Für die Bildvorschau in der Timeline musste der Twitter-Algorithmus nun entscheiden, welches Porträt gezeigt werden soll. Obwohl beide Bilder in der Collage gleich groß waren zeigte der Twitter-Algorithmus in der Vorschau immer Mitch McConnell an. Auch als Arcieri die Farbe der Krawatte änderte oder Barack Obama gleich mehrere Köpfe gab.
Andere Nutzer haben das Experiment mit anderen Bildpaaren wiederholt und kommen zu einem ähnlichen Ergebnis.
Warum der Algorithmus sich für McConnell und gegen Obama entscheidet, ist unklar. Scheinbar weiß nicht einmal der Twitter-Konzern, wo das Problem ist und die Pressesprecherin Liz Kelley erklärte, man würde sich das Phänomen genauer ansehen.
Fest steht nur, dass Twitter eine Künstliche Intelligenz für Gesichtserkennung einsetzt. Deren Aufgabe ist es, die Gesichter von Menschen in Porträtbildern in der Vorschau stärker in in den Mittelpunkt zu rücken. Seit 2018 ist sie im Einsatz.
Ist der Algorithmus auf weiße Menschen trainiert?
Hier könnte das Problem liegen, dass man eben diesen Algorithmus mit Bildern weißer Menschen trainiert hat. Wie das WDR-Blog Digitalistan schreibt, ist diese Grundproblematik schon länger bekannt, aber es sei doch überraschend, dass das "selbst bei einem prominenten Dienst wie Twitter derart akut und konkret ist".
"Wenn der Algorithmus also wirklich ein Rassismusproblem hätte, würde man das bei Twitter sicher nicht an die große Glocke hängen."
Ob Twitters Algorithmus nun tatsächlich rassistisch ist, lässt sich kaum beweisen oder widerlegen, sagt Deutschlandfunk-Nova-Reporterin Martina Schulte: "Das könnte man nur durch eine größere Studie, die es aber nicht gibt." Wie der Algorithmus genau funktioniert ist bei Techfirmen ein Firmengeheimnis. "Wenn der Algorithmus also wirklich ein Rassismusproblem hätte, würde man das bei Twitter sicher nicht an die große Glocke hängen."