Kleine Höflichkeits-Lügen oder ein bisschen Schummeln sind im menschlichen Alltag ganz normal - aber inwieweit würden wir bei Robotern akzeptieren, dass sie nicht die Wahrheit sagen?

Das wollte ein Forschungsteam mit einer Befragung von knapp 500 Testpersonen herausfinden, die im Fachjournal "Frontiers in Robotics and AI" erschienen ist. Die Befragten sollten Texte mit drei verschiedenen Situationen kommentieren, in denen Roboter mit Menschen interagieren und dabei nicht ganz ehrlich sind.

Im ersten Text log ein Pflege-Roboter eine Alzheimer-Patientin bei einer Frage an, dass ihr schon lange verstorbener Mann bald nach Hause kommen würde - Das fanden die meisten noch okay. Im zweiten Beispiel redete sich ein Roboter mit Schmerzen und zu schlechter Bezahlung heraus, um eine Aufgabe nicht machen zu müssen - Das fanden die Befragten schon schwieriger und auch etwas manipulativ. Im dritten Text verheimlichte ein Putz-Roboter in einer Ferienwohnung, dass er auch Videos aufnahm - Das empfanden die Befragten als schwere Täuschung.

Interessanterweise schoben die Testpersonen die Schuld für das Lügen aber weniger auf die Roboter, sondern mehr auf ihre Besitzerinnen oder Programmierer. Das findet das Studienteam schwierig - weil künstliche Intelligenz auch von sich aus lernen kann, zu lügen.