Da gibt man den Bots Daten von Menschen, damit sie lernen zu Verhandeln - und herauskommen taktisch brillante Sturköpfe.
Mit einem Chatbot hatte jeder schon einmal zu tun, der online irgendeinen Kundenservice in Anspruch genommen hat. Diese Bots sollen künftig aber viel schlauer werden. Forschern aus den USA - darunter auch ein Facebook-Team - ist es gelungen, Chatbots das Verhandeln mit Menschen beizubringen.
"Die Bots konnten ihre wahren Absichten verschleiern und ihr Gegenüber in die Irre führen."
In den konkreten Tests ging es um die Frage, wie der Chatbot und eine echte Versuchsperson eine bestimmte Anzahl von Bällen, Hüten und Büchern untereinander aufteilen. Der Chatbot hatte bestimmte Verhandlungsziele, zum Beispiel möglichst viele von den Büchern zu ergattern.
Bots wenden taktische Tricks an
Die Forscher beobachteten, dass der Bot taktierte. Denn manchmal tat er nur so, als würde er sich für etwas anderes interessieren, für einen Hut zum Beispiel. Auf diese Weise konnte er am Ende Zugeständnisse machen, und an mehr Bücher kommen. Das erstaunlich war: Dieses Taktieren hatte den Bots niemand beigebracht.
Die Bots sind also von selbst auf den ein oder anderen Verhandlungstrick gekommen. Abgeschaut haben sie es sich von Menschen, denn die Forscher haben der künstlichen Intelligenz schriftliche Protokolle von gut 5000 Verhandlungen zwischen echten Menschen gegeben. Dadurch hat die Software gelernt, welche Formulierungen sie in den Verhandlungen benutzen muss.
"Die Forscher haben die Bots trainieren lassen, im Voraus zu kalkulieren. Also sich zu überlegen, wie das gegenüber auf bestimmte Formulierungen reagiert."
Das Ergebnis war relativ ausgeglichen. Häufig kamen Bot und Mensch auf ein jeweils optimales Ergebnis. Die Menschen haben tatsächlich auch gar nicht gemerkt, dass sie mit einer Maschine verhandelt haben. Was möglicherweise auch an den menschlichen Eigenschaften gelegen haben könnte. Die Bots waren nämlich teilweise richtig stur.
Die Forscher stellten fest, dass Sturheit in den Verhandlungen das Resultat von zu viel Training Bot-gegen-Bot gewesen war. Das hat die Versuchspersonen auch genervt und es gab seltener eine Einigung.