• Deutschlandfunk App
  • ARD Audiothek
  • Spotify
  • Apple Podcasts
  • Abonnieren

Was tun, um die Herrschaft der Maschinen abzuwenden? Mit Geschichten füttern, sagen Wissenschaftler aus den USA.

Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen: So hat Science-Fiction-Autor Isaac Asimov in seinen Werken das erste der Robotergesetze formuliert. Aber wie bringt man einem Roboter bei, was gut und was böse ist und welche Werte wir Menschen haben? Indem wir ihn mit Geschichten füttern, sagen Forscher der Georgia Institute of Technology.

Die Idee geht so: Roboter vergleichen und verarbeiten fiktionale Werke und können so erkennen, was unsere Gesellschaft für gutes menschliches Verhalten hält. Die Forscher gehen davon aus, dass in unseren ganzen Geschichten auch unsere kulturelle Identität und unsere Werte stecken. Damit das funktioniert, müssen wir den Robotern allerdings ein bisschen helfen, sagt Klaus-Dieter Althoff vom Zentrum für Künstliche Intelligenz - vor allem bei der Interpretation.

"Ein Computer kann nicht im gleichen Detail Dinge aus einer Geschichte ableiten wie wir das können."
Klaus-Dieter Althoff vom Zentrum für Künstliche Intelligenz

Selbst wenn der Roboter dann auch "Elementarteilchen" oder "Fifty Shades of Grey" verarbeitet, müssten wir uns keine Sorgen machen. Weil in der Masse der Werke diejenigen untergehen, die nicht der Norm entsprechen, sagen die Forscher von der Georgia Tech. Klaus-Dieter Althoff ist da allerdings skeptisch. Er würde das ganze auch kontrollieren wollen.

Roboter müssen sich anstellen

Die Forscher gehen davon aus, dass es allgemeingültige, große humanitäre Werte gibt, wie nicht zu stehlen, oder Menschen keinen Schaden zuzufügen. Dabei geht es um Roboter, die mit Menschen zusammenarbeiten und keine komplexen moralischen Entscheidungen treffen müssen. Der Roboter soll zum Beispiel lernen, dass er sich in einer Apotheke brav in der Schlange einreiht, wenn er ein Medikament abholen soll. Er könnte es ja auch einfach stehlen.

Grundsätzlich gilt: Bei aller Sorge, dass künstliche Intelligenz missbraucht werden könnte - es muss vor allem kontrolliert werden, wer einen Roboter nutzt und als Waffe missbrauchen könnte. Hier ist der Staat gefragt.

Shownotes
Künstliche Intelligenz
Mit Büchern gegen den Terminator
vom 08. März 2016
Moderator: 
Till Haase
Gesprächspartnerin: 
Anna Kohn, DRadio Wissen