Immer wieder erzählen künstliche Intelligenzen Quatsch.

Unter Informatikerinnen und Informatikern wird das als Halluzinationen bezeichnet, weil es wirkt als würden sich KIs die Falschinfos einbilden.

Forschende der University of Oxford haben eine Methode entwickelt, die eine bestimmte Art dieser Halluzinationen verhindern soll. Dabei geht es um Konfabulationen - also wenn die KI etwas erfindet, Logikfehler macht oder Dinge in einen falschen Zusammenhang überträgt.

Die neue Methode, um so etwas zu erkennen, beruht auf Statistik. Wenn auf eine mehrfach gestellte Frage inhaltlich sehr verschiedene Antworten kommen, dann sind das laut den Forschenden Unsicherheiten der KI - ein Anzeichen für Konfabulationen. Würden die KIs keine Antwort geben, wenn sie sich unsicher sind, dann könnte das Falschaussagen verhindern.

An der Studie nicht beteiligte Forschende sagen, das könnte funktionieren, ist aber kein Allheilmittel. Wenn die KI nämlich Quatsch erzählt und davon überzeugt ist, weil sie schlecht trainiert wurde oder ihre Ausgangsinfos falsch sind, dann bringe auch die neue Methode nichts.