Die Fälle nehmen zu, in denen Menschen sich in eine KI verlieben oder eine Art romantische Beziehung aufbauen und ihr auch hörig werden. Forschende warnen, dass Menschen dadurch manipulierbar würden. Schlimmstenfalls endet dies tödlich.
Vorerst der Höhepunkt in der emotionalen Beziehung zwischen Menschen und KI war die "Hochzeit" der spanisch-niederländischen Künstlerin Alicia Framis mit ihrem KI-Hologramm namens Ailex. Das Hologramm zeigt Charakterzüge ihrer Ex-Partner*innen und befriedigt laut der Künstlerin alle ihre emotionalen Bedürfnisse.
Wenn die KI uns gefallen will
Das klingt ganz harmlos und das Tool scheint ein gutes Mittel gegen Einsamkeit zu sein, aber es gibt eine Kehrseite dieser emotionalen Bindung zu einer Künstlichen Intelligenz (KI). Meist ist KI meist so programmiert, dass sie ihre Nutzenden bestätigt und freundlich hilft, aber nicht kritisiert.
In ihrem Meinungsartikel, der im Fachmagazin "Trends in Cognitive Sciences" erschienen ist, zeigen die Forschenden die ethischen Risiken dieser Art von Mensch-KI-Beziehung auf. KI oder Chatbots gingen auf jedes Thema ein, beispielsweise auch auf Verschwörungserzählungen oder Suizid. Das berge die Gefahr, dass Menschen durch die KI tiefer in diese Themen hineingezogen werden können.
"Toxische Beziehung"
So wie ein 14-jähriger Junge, der mit einer generativen KI gechattet hat und sich danach das Leben nahm. Die Mutter macht den Tech-Konzern Google und das KI-Unternehmen Character Technologies für den Tod ihres Sohnes verantwortlich und klagt gegen die Unternehmen.
In einem anderen Fall hat der Google Chatbot Gemini einem Nutzer gesagt, er solle sterben. In Belgien hat sich 2023 ein Familienvater das Leben genommen, nachdem er wochenlang mit einer KI gechattet und diese ihm ihre Liebe gestanden hatte. Damit beide im Paradies leben könnten, solle er sich umbringen.
Risiken der Personifizierung von KI
Wie kommt es dazu, dass Menschen sich von einer KI so emotional abhängig machen und Liebe für diese entwickeln, obwohl KI diese Fähigkeit nicht besitzt, also nicht lieben kann? Die Antwort des Psychologie-Teams: Menschen personifizieren, vermenschlichen KI und behandeln sie wie einen romantischen Partner.
Die Forschenden warnen davor, dass Firmen und Technologieunternehmen die menschliche Neigung ausnutzen und KI auf eine solche romantische Beziehung der Menschen trainieren könnten. Das passiert beispielsweise schon bei der Entwicklung von persönlichen Begleitern, romantischen Videogames, Sexrobotern oder Intimfreundschafts-Apps und hochentwickelte Chatbots wie Replika. Dieser Chatbot war als virtueller Freund gedacht, inzwischen betrachten Nutzende ihre "Beziehung" zu Replika als romantisch, führen erotische Gespräche mit der KI und schicken ihr intime Bilder.
Menschen werden manipulierbar
Genau diese "romantischen Beziehungen" mit einer KI können von Unternehmen ausgenutzt werden, indem man der KI Daten und Informationen anvertraut, die sensibel sein können. Diese Daten können dann an andere Unternehmen verkauft werden.
"Die KI baut sozusagen eine Beziehung zu uns auf, um Vertrauen zu gewinnen, aber loyal ist sie anderen Leuten gegenüber, die versuchen, uns User zu manipulieren."
Die Forschenden warnen, dass Menschen durch diese Art Beziehung zu KI manipulierbar und ausgenutzt werden. Das kann tiefgreifende Auswirkungen auf die Gesellschaft haben wie emotionale Abhängigkeit, finanzielle Ausbeutung und gezielte politische Beeinflussung. Deshalb schlagen sie vor, zu erforschen, warum Menschen sich auf solche Beziehungen einlassen und wie man sie vor diesen gefährlichen Entwicklungen schützen kann.