Zwischen Quatschantworten und FakenewsWozu wir KI besser nicht befragen sollten

Intelligent scheinen Künstliche Intelligenzen manchmal wirklich nicht. Oder warum bekommt man etwa als Highlight für Berlin das Kolosseum genannt? Die Antwort ist eigentlich ganz einfach und weist auf eine große Schwachstelle hin, die KI noch hat.

KI kann mittlerweile vieles. Sogar uns so richtig zum Lachen bringen – wenn auch unfreiwillig. Beispiele für totale Quatsch-Antworten der "AI Overview" von Google sind:

  • Käse kann mit Klebstoff auf Pizza fixiert werden.
  • Geologen empfehlen, täglich einen Stein zu essen.

Meistens fehlt es KI noch an Logik

Die KI hatte ihre Antworten aus tatsächlich existierenden Informationen im Netz gezogen. Allerdings war die Stein-Empfehlung auf einer Satire-Seite erschienen und bei der Käse-Kleber-Nummer handelte es sich um einen Witz von Reddit.

Genau das – also die Quelle – hatte die KI nicht berücksichtigt, erklärt Moritz Metz vom Deutschlandfunk-Podcast "KI verstehen". Denn KI kann sich Information zwar holen, aber das Einordnen fällt ihr noch schwer.

"Ein Chatbot ist wie ein betrunkener Praktikant. Er arbeitet alles fleißig ab, ordnet die Quellen aber nicht ein."
Moritz Metz vom Deutschlandfunk-Podcast "KI verstehen"

Falschinformationen und Fakenews sind aber natürlich problematisch - und sogar gefährlich, wenn sie eben nicht offensichtlich als solche erkennbar sind. Oder wenn wir sie nicht hinterfragen, sagt Moritz Metz. Das gilt aber nicht nur für das, was eine KI ausspuckt, sondern auch für alles, was wir in Social Media, Werbemails, Scam und Co. lesen.

KI wird präziser

Die Leistungskurve generativer KI flacht zwar zurzeit etwas ab, beobachtet Moritz Metz, generell werden die Skills verschiedener KI-Angebote aber immer besser. Die Käse-Quatsch-Nummer würde der Google-KI heute so nicht mehr passieren.

Der Trend geht inzwischen aber eher in Richtung kleinerer KI-Modelle: Es besteht nicht mehr der Anspruch, dass eine KI über das "halbe Weltwissen" verfügt, so Moritz. Ein anderer Weg, den Entwickler*innen einlegen, ist, dass sie KIs Reflexionsschritte einlegen lassen, um eigene Aussagen zu überprüfen, erklärt er. Dieser Vorgang heißt "Reasoning" und hat zum Ziel, die gröbsten Fails zu vermeiden.

Mit oder ohne KI: Hirn hilft!

Für den Moment gilt laut Moritz Metz aber noch: Wer darauf angewiesen ist, dass die Information, die er braucht, wirklich richtig ist, sollte sich nicht einzig auf KI verlassen. So ganz sollten wir aufs Denken, Prüfen, Checken besser nicht verzichten...