Ein Forschungsteam unter anderem von der Uni Oxford sagt, das könnte in Zukunft aber häufiger der Fall sein. Denn mehr Inhalte im Netz stammen inzwischen von Künstlichen Intelligenzen, und sind gleichzeitig das Material, mit dem neue KIs trainiert werden. Das bedeutet auch, dass sie immer weniger "frische" Informationen bekommen.
In einem Experiment haben die Forschenden ein Sprachmodell in einer ersten Runde mit Wikipedia-Texten gefüttert, die von Menschen geschrieben worden waren. In weiteren Runden lernte die Folgegeneration des KI-Systems nur noch mit Daten ihres Vorgängers. Dabei wurden mit jeder neuen Generation die Antworten immer schlechter, die Fehler mehr und die Satzwiederholungen auch. Am Ende gab das Sprachmodell nur noch Unsinn von sich - es brach zusammen.
Die Forschenden räumen ein, dass das wahrscheinlich nicht so schnell passiert, wenn KI-Modelle nicht von ihrem eigenen Vorgänger sondern von anderen KI-Modellen lernen. Trotzdem sollte man darauf achten, dass der Großteil von KI-Trainingsmaterial von Menschen kommt. Weil inzwischen gar nicht mehr so leicht zu unterscheiden ist, aus welcher Quelle Inhalte im Netz kommen, schlagen die Forschenden quasi ein Wasserzeichen für KI-generierte Daten vor.