• Deutschlandfunk App
  • ARD Audiothek
  • Spotify
  • Apple Podcasts
  • Abonnieren

Künstliche Intelligenz und maschinelles Lernen werden an vielen Stellen im Netz eingesetzt. Algorithmen entscheiden darüber, welche Filme oder Musiktitel uns vorgeschlagen werden oder welche Werbung wir sehen. Sie treffen aber auch Aussagen über unsere Kreditwürdigkeit. Im System stecken aber Daten, die Diskriminierung verstärken können.

Das Büro für Technikfolgen-Abschätzung im Bundestag hat eine neue Studie vorgelegt. "Mögliche Diskriminierung durch algorithmische Entscheidungssysteme" heißt sie. Untersucht wurde, wie stark Entscheidungssysteme auf Basis von Künstlicher Intelligenz und maschinellem Lernen Menschen diskriminieren.

Dass das passiert, ist bereits hinreichend belegt. Vor allem da, wo mit Hilfe von Künstlicher Intelligenz bestimmte Entscheidungen getroffen werden, ist es wichtig, kritisch hinzusehen. Etwa wenn es darum geht, wer einen Job bekommt. Oder bei der Berechnung, wie wahrscheinlich es ist, dass jemand, der oder die straffällig geworden ist, rückfällig wird.

Ein solches Prognose-System mit dem Namen COMPAS, ist zum Beispiel in den USA im Einsatz. Es soll Richterinnen und Richter dabei unterstützen zu entscheiden, ob eine Strafe zur Bewährung ausgesetzt wird. Das Problem: Das System benachteiligt vor allem Schwarze Menschen und People of Colour.

Frauen oder schwarze Menschen werden oft nicht erkannt

Auch Gesichtserkennungssoftware diskriminiert Menschen. Viele Systeme wurden vor allem mit den Portraits weißer Männer trainiert. Sie erkennen deshalb Frauen und schwarze Personen schlechter oder verwechseln sie. Das kann unangenehme Folgen haben.

Externer Inhalt

Hier geht es zu einem externen Inhalt eines Anbieters wie Twitter, Facebook, Instagram o.ä. Wenn Ihr diesen Inhalt ladet, werden personenbezogene Daten an diese Plattform und eventuell weitere Dritte übertragen. Mehr Informationen findet Ihr in unseren  Datenschutzbestimmungen.

Die Probleme mit Künstlicher Intelligenz und die Nebenwirkungen für die einzelnen Menschen sind also hinlänglich bekannt. Die Studie des Büros für Technikfolgen-Abschätzung weist deshalb explizit darauf hin, bei der Programmierung von Algorithmen und dem Trainieren von Systemen besonders aufmerksam für mögliche strukturelle Diskriminierung aufgrund der Datenbasis zu sein.

Sensibler Blick auf die Datenbasis nötig

Wie krass die Folgen aufgrund von falschen Ausgangsdaten sein können, zeigt ein weiterer Fall aus den USA. Dort ist ein System im Einsatz, das Krankenhauspatientinnen und -patienten nach Behandlungsbedürftigkeit sortiert. Das System schlägt schwarze Menschen deutlich später für eine Intensivbehandlung vor als weiße. Der Grund: Bislang wurden die anfallenden Kosten der Behandlung als Gradmesser für das Kranksein genommen. Die waren bei Weißen, weil die oft besser versichert sind, deutlich höher als bei Schwarzen.

Grundsätzlich kann Künstliche Intelligenz dabei helfen, Entscheidungen zu objektivieren. Denn auch Menschen sind nicht frei von Vorurteilen. Aber statistische Korrelationen liefern häufig noch keine Einsicht in die Ursachen. Dafür benötigt es die Analyse durch Menschen. Die Studie nimmt jetzt nochmal explizit solche Fallstricke in den Fokus. Die Empfehlung: Der Prozess der Entscheidungsfindung soll möglichst transparent und nachvollziehbar gemacht werden, damit Fehler schnell aufgedeckt werden können.

Shownotes
Künstliche Intelligenz
Algorithmus: Wenn uns Software diskriminiert
vom 25. November 2020
Moderatorin: 
Diane Hielscher
Gesprächspartner: 
Michael Gessat, Deutschlandfunk Nova