In Science-Fiction-Filmen sind die Rollen meist klar verteilt: Menschen handeln impulsiv, emotional und voller Vorurteile, und Droiden, wie Mr. Data zum Beispiel, sind rational und objektiv. Vielleicht denken wir deshalb auch, dass Künstliche Intelligenzen, also KI-Programme, objektiver sind als wir. Das ist aber ein grandioser Irrtum.
Der Input für die Künstliche Intelligenz sind wir Menschen selbst, mit unseren Gefühlen. Wenn ihr das mal überprüfen wollt, geht das jetzt mit einer App. Sie heißt Justice und Studenten der University of Utah haben sie programmiert. Justice gibt es kostenlos für iOS und für Android.
In diesem Spiel bekommt ihr als Richter 50 Angeklagte präsentiert, erstmal mit einem Comic-Bild für einen ersten Eindruck. Wenn ihr nach oben wischst, bekommt ihr weitere Infos zu Staatsangehörigkeit, Alter, Bildung, Geschlecht, Beziehungsstatus und natürlich zum Delikt und eventuellen Vorstrafen. Angezeigt wird dazu eine Minimalstrafe und eine Maximalstrafe, zwischen denen müsst ihr euch als Spieler entscheiden.
Minimal oder Maximal - dazwischen geht nichts!
Bei den Vergehen ist von Taschendiebstahl bis Drogenhandel und Mord alles dabei. Die Strafen reichen von Freispruch bis Lebenslänglich. Nach jeweils zehn Urteilen lässt die App dann bestimmte Infos weg, bei den letzten zehn ist da nur noch das Bild, das Delikt und die möglichen Strafen. Und zwischendrin kalkuliert die App, welche Kriterien für die Entscheidung des Spielers eigentlich maßgeblich waren.
"Ich bin anscheinend Rassist und neige dazu, Schwarze härter zu bestrafen als Weiße. Laut App-Auswertung war mein signifikantestes Kriterium Ethnie. Obwohl mir die Thematik des Spiels bewusst war."
Unser Reporter Michael Gessat hat die App getestet und neigte offenbar dazu, Schwarze härter zu bestrafen als Weiße. Beim zweiten App-Durchlauf unseres Netzreporters sah es dann anders aus: Als Hauptkriterium für die Strafhöhe wurde dann früheres Drogenvergehen, als nächstes das Delikt und dann erst Ethnie angezeigt.
"Das Ganze funktioniert so, dass man ohne es zu merken, ähnliche oder identische Delikte zu sehen bekommt, aber mit anderem Persönlichkeitsprofil."
Ganz am Schluss, bei den letzten fünf Angeklagten, entscheidet die App selbst über die Strafe auf Grundlage der zuvor gelernten Kriterien. Damit zeigt uns Justice ganz einfach: Künstliche Intelligenz wird mit menschlichem Input trainiert, hier mit der des Spielers. Und wenn da Vorurteile drin stecken - und das ist sehr wahrscheinlich - dann sind die hinterher auch der scheinbar objektiven Künstlichen Intelligenz programmiert.