Künstliche Intelligenz und maschinelles Lernen werden an vielen Stellen im Netz eingesetzt. Algorithmen entscheiden darüber, welche Filme oder Musiktitel uns vorgeschlagen werden oder welche Werbung wir sehen. Sie treffen aber auch Aussagen über unsere Kreditwürdigkeit. Im System stecken aber Daten, die Diskriminierung verstärken können.
Das Büro für Technikfolgen-Abschätzung im Bundestag hat eine neue Studie vorgelegt. "Mögliche Diskriminierung durch algorithmische Entscheidungssysteme" heißt sie. Untersucht wurde, wie stark Entscheidungssysteme auf Basis von Künstlicher Intelligenz und maschinellem Lernen Menschen diskriminieren.
Dass das passiert, ist bereits hinreichend belegt. Vor allem da, wo mit Hilfe von Künstlicher Intelligenz bestimmte Entscheidungen getroffen werden, ist es wichtig, kritisch hinzusehen. Etwa wenn es darum geht, wer einen Job bekommt. Oder bei der Berechnung, wie wahrscheinlich es ist, dass jemand, der oder die straffällig geworden ist, rückfällig wird.
Ein solches Prognose-System mit dem Namen COMPAS, ist zum Beispiel in den USA im Einsatz. Es soll Richterinnen und Richter dabei unterstützen zu entscheiden, ob eine Strafe zur Bewährung ausgesetzt wird. Das Problem: Das System benachteiligt vor allem Schwarze Menschen und People of Colour.
Frauen oder schwarze Menschen werden oft nicht erkannt
Auch Gesichtserkennungssoftware diskriminiert Menschen. Viele Systeme wurden vor allem mit den Portraits weißer Männer trainiert. Sie erkennen deshalb Frauen und schwarze Personen schlechter oder verwechseln sie. Das kann unangenehme Folgen haben.
Sensibler Blick auf die Datenbasis nötig
Wie krass die Folgen aufgrund von falschen Ausgangsdaten sein können, zeigt ein weiterer Fall aus den USA. Dort ist ein System im Einsatz, das Krankenhauspatientinnen und -patienten nach Behandlungsbedürftigkeit sortiert. Das System schlägt schwarze Menschen deutlich später für eine Intensivbehandlung vor als weiße. Der Grund: Bislang wurden die anfallenden Kosten der Behandlung als Gradmesser für das Kranksein genommen. Die waren bei Weißen, weil die oft besser versichert sind, deutlich höher als bei Schwarzen.
Grundsätzlich kann Künstliche Intelligenz dabei helfen, Entscheidungen zu objektivieren. Denn auch Menschen sind nicht frei von Vorurteilen. Aber statistische Korrelationen liefern häufig noch keine Einsicht in die Ursachen. Dafür benötigt es die Analyse durch Menschen. Die Studie nimmt jetzt nochmal explizit solche Fallstricke in den Fokus. Die Empfehlung: Der Prozess der Entscheidungsfindung soll möglichst transparent und nachvollziehbar gemacht werden, damit Fehler schnell aufgedeckt werden können.