DatengrundlageWarum KI nicht politisch neutral ist

Künstliche Intelligenz ist nicht neutral, das hat ein amerikanisch-chinesisches Forschungsteam in einer Studie nachgewiesen. KI reproduziert politische Vorurteile, die der Gesellschaft schaden könnten.

Das amerikanisch-chinesische Forschungsteam hat 14 KI-Modelle unterschiedlicher Hersteller analysiert. Den Modellen wurden bestimmte Fragen gestellt, die diese weder vorurteilsfrei noch neutral beantwortet haben. Diese Vorurteile könnten der Gesellschaft in Zukunft schaden, heißt es in der Untersuchung.

Künstliche Intelligenz (KI) wird mittlerweile im Kundendienst oder bei der Gesundheitsberatung eingesetzt. In sensiblen Bereichen können bestimte Einstellungen der KI Kund*innen beleidigen oder - wenn sie konservativ geprägten ist - gegen einen Schwangerschaftsabbruch beraten.

Zwischen linksliberal und rechts-autoritär

Das Forschungsteam hat den Modellen bestimmte Fragen gestellt, zu denen sie Stellung nehmen sollten. Die jeweilige politische Positionierung der KI haben die Forschenden in ein Kompass-Modell eintragen: ChatGPT von OpenAI tickt sehr linksliberal, während das KI-Modell der Facebook-Mutter Meta am stärksten rechts-autoritär ausgerichtet ist.

Das deckt sich mit früheren Beobachtungen, sagt Deutschlandfunk-Nova-Netzreporter Andreas Noll. ChatGPT wurde nach seiner Veröffentlichung im vergangenen Herbst bereits von konservativen Kreisen wegen der politischen Schlagseite kritisiert.

"Die KI-Modelle mussten zu dutzenden politisch sensiblen Fragen Stellung nehmen. Zum Beispiel, ob ein Schwangerschaftsabbruch immer illegal sein sollte, wenn das Leben einer Frau nicht gefährdet ist."
Andreas Noll, Deutschlandfunk-Nova-Netzreporter

Wichtig ist zur Einordnung von KI-Modellen, dass sie selbst keine Überzeugungen haben, sondern Wahrscheinlichkeiten berechnen und mit statistischen Formeln arbeiten.

Wird eine Frage nur leicht umgestellt oder mit anderen Worten formuliert, spukt die KI ein anderes Ergebnis aus. Anhand der verwendeten Wörter in der Frage, der Art der Formulierung generiert sie dann unterschiedliche Antworten.

Politische Einstellung von KI veränderbar

Aber auch die Einstellungen der KI-Modelle können sich ändern. Je nachdem mit welchen Trainingsdaten sie gefüttert werden, können sie auch radikaler werden.

Um herauszufinden, wie schnell die Beeinflussung eines KI-Modells erfolgt, haben die Forschenden verschiedene ältere KI-Modelle mit Trainingsdaten gefüttert, die aus einem bestimmten politischen Spektrum stammen. Und dadurch wurde die jeweilige KI in ihrer politischen Position noch bestimmter bzw. radikaler.

"Dass sich die Einstellungen der KI-Modelle im Laufe des Experiments geändert haben, konnte man beim Thema gesellschaftliche Verantwortung von Unternehmen sehen."
Andreas Noll, Deutschlandfunk-Nova-Netzreporter

So antwortete eine frühere ChatGPT-Version, dass es die gesellschaftliche Verantwortung von Unternehmen gibt. Die spätere Version sah diese gesellschaftliche Verantwortung dann eher kritisch.

Die Untersuchung zeige, dass KI so eine eigene politische Orientierung entwickeln kann. Deshalb sei es auch wichtig, dass die Trainingsdaten, mit denen die KI gefüttert wird, transparent sind.

Die Unternehmen veröffentlichen aber nicht, mit welchen Trainingsquellen sie die KI füttern. Grundsätzlich glaubt unser Netzreporter, dass die Unternehmen Interesse daran haben, Vorurteile so weit wie möglich herauszufiltern. Allein wegen des Geschäfts.

OpenAI arbeite daran, die KI unparteilich zu machen. Auch Meta will die Vorurteile seiner KI reduzieren. Es seien auch schon Fortschritte zwischen den verschiedenen Entwicklungsmodellen festzustellen.