ChatGPT sagt nicht immer die Wahrheit, manchmal produziert die KI auch falsche Antworten. In der Medizin kann das gefährlich werden.

Das ist ärgerlich, aber wenn Ärztinnen oder Pfleger solchen Antworten vertrauen, kann es offenbar auch gesundheitsschädlich werden. Ein internationales Forschungsteam hat das untersucht und bei der KI Ernährungs-Empfehlungen abgefragt für verschiedene Erkrankungen, wie hohen Blutdruck oder erhöhte Bluttfettwerte und Diabetes Typ 2, der im Gegensatz zu Typ-1-Diabetes auch durch falsche Ernährung und fehlende Bewegung verursacht wird.

In einer Studie kritisieren die Forschenden, dass ChatGPT (GPT3.5-turbo0301) auch unvollständige, falsche oder irreführende Antworten gab. Zum Beispiel gab es keine Empfehlung, Gewicht zu reduzieren. Bei den Ernährungs-Empfehlungen lief es unter anderem auf zu wenig Calcium und Vitamin D hinaus. Auf Dauer könne das die Gesundheit und Sicherheit von Patientinnen und Patienten gefährden. Die Forschenden empfehlen deshalb, den KI-Ergebnissen nie blind zu vertrauen, und sich immer mit Ernährungs-Fachleuten abzusprechen.