• Deutschlandfunk App
  • ARD Audiothek
  • Spotify
  • Apple Podcasts
  • Abonnieren

Eine KI, die die Stimmung von Bewerbern erkennt: Selbst, wenn sie zuverlässig funktionieren würde, wäre das eine schräge Idee. Tut sie aber nicht.

Manchmal gibt es ein Problem, bei dem die Entwicklung einer technischen Lösung sinnvoll erscheint. Zum Beispiel bei Rechnungsstellung und Buchhaltung oder beim vollautomatischen Abfüllen von Getränkeflaschen. Manchmal läuft es aber auch umgekehrt: Da wird zuerst die Technik entwickelt und hinterher gefragt, wofür man sie denn sinnvollerweise nutzen könnte.

So zum Beispiel bei der automatischen Erkennung von Emotionen durch eine Software. Diese kann Gesichter von Menschen analysieren und dann angeblich erkennen, in welcher Stimmung sich diese Personen gerade befinden, etwa fröhlich, ängstlich oder traurig.

Gesichter von Frauen überwachen, um sie vor Belästigung zu schützen

Ideen, wofür eine solche Technik eingesetzt werden könnte, gibt es auch schon: zur Unterstützung von teil- oder voll automatisierten Bewerbungsgesprächen, zur Überwachung von öffentlichen Flächen oder auch im Gerichtssaal, um zum Beispiel die Glaubwürdigkeit von Zeugen zu beurteilen.

In der indischen Stadt hatte die Verwaltung die Idee, Überwachungskameras mit einer Emotions-Erkennungs-Software zu installieren, um Frauen vor Belästigungen zu schützen. Sie sollte verängstigte Gesichter von Frauen erkennen, um dann Alarm zu schlagen.

"'Fear' war für mich am schwierigsten. Aber ich hab's geschafft, ihr werdet das sicher auch schaffen."
Michael Gessat, Deutschlandfunk-Nova-Reporter

Den Algorithmus auf die Probe stellen

Das Problem an der ganzen Sache ist: So gut funktioniert die automatische Erkennung der Emotionen gar nicht. Indizien für diese Erkenntnis liefert unter anderem die Webseite emojify.info der Universität Cambridge. Auf dieser Website können alle Freiwilligen (Voraussetzung ist eine Webcam) den Test machen und mit dem "Fake Smile Game" den Algorithmus auf die Probe stellen.

Sechs Emotionen werden angeboten, die die User*innen vorgaukeln können. Deutschlandfunk-Nova-Reporter Michael Gessat (kein ausgebildeter Schauspieler) hat es ausprobiert:

  • "Happiness" und "Surprise" sind einfach hinzukriegen
  • "Disgust", "Anger" und "Sadness" sind schon etwas schwieriger zu faken
  • "Fear" war am schwierigsten, aber auch das hat Michael geschafft

Erkenntnis: Die Algorithmen lassen sich manipulieren. Sie beruhen nämlich nur auf einer Messung von bestimmten mimischen Parametern wie Mund und Mundwinkel, Augen und Augenbrauen und einer statistischen Korrelation, wie dieser Mix als Emotion zu bewerten ist.

"Emotionen funktionieren nicht wie Emojis. Sie sollten die Angelegenheit von Menschen bleiben - nicht von Maschinen, die Intelligenz simulieren."
Michael Gessat, Deutschlandfunk-Nova-Reporter

Auch mit Feinheiten hat der Algorithmus Schwierigkeiten. Zum Beispiel liegt zwischen einem Zwinkern und einem Blinzeln nur ein kleiner Unterschied, der manchmal nur durch den Kontext klar wird. Guckt gerade jemand ins Gegenlicht und kneift deshalb die Augen zu? Auch Tränen oder ein angespanntes Gesicht können je nach Kontext etwas ganz anderes bedeuten.

Hinzu kommen Unsicherheiten durch kulturelle Unterschiede. Und genau wie bei einer normalen Gesichtserkennungs-KI können durch die Auswahl der Trainingsdaten Vorurteile bei der Konfiguration der Emotionen-Erkennungs-Software entstehen.

Shownotes
Künstliche Intelligenz
Software soll automatisch Emotionen von Menschen erkennen – und scheitert
vom 06. April 2021
Moderator: 
Till Haase
Gesprächspartner: 
Michael Gessat, Deutschlandfunk Nova