Künstliche IntelligenzChat GPT: Kritik und Bedenken
Die Künstliche Intelligenz Chat GPT wurde anfangs dafür gefeiert, wie menschenähnlich kommuniziert wird. Mittlerweile melden sich zunehmend Expert*innen und Behörden, die ihre Bedenken äußern.
Den offenen Brief, in dem führende Wissenschaftler*innen und Leiter*innen großer Tech-Unternehmen eine Pause der Entwicklung neuer Künstlicher Intelligenz (KI) fordern, haben mittlerweile mehr als 13.000 Menschen unterzeichnet.
Die Autor*innen des Briefs wählen große Worte und warnen vor möglichen Risiken, die sie in der aktuellen Entwicklung von KI sehen: Arbeitsmarkt-Umwälzung und Kontrollverlust sind zwei davon. Sie fordern, dass machtvolle KI erst trainiert und dann eingesetzt werden solle, wenn ihr Risiko eingrenzbar ist.
"Ich kann mir nicht vorstellen, dass so eine Pause kommt. Es wäre auch nicht kontrollierbar, weil theoretisch jede*r, der sehr schnelle Computer besitzt, daran weiterforschen kann."
Unabhängig davon, welche Motive die Unterzeichner*innen des Briefs haben, bleiben im Umgang mit Chat GPT Zweifel offen – auch seitens der Behörden. Eine betrifft beispielsweise den Datenschutz.
Die italienische Datenschutzbehörde hat ihre Bedenken für so massiv gehalten, dass der Chatbot in Italien vorerst gesperrt ist. Zu groß seien die Verstöße gegen den Datenschutz gewesen, als dass die Software dort weiterhin verfügbar sein könnte. Die Herstellerfirma Open AI hat jetzt bis Mitte April Zeit, Maßnahmen gegen die Vorwürfe der italienischen Datenschutzbehörde zu präsentieren.
Auch das Bundesinnenministerium hat die Entwicklung rund um den Chatbot im Blick. Das erklärte es gegenüber dem Handelsblatt. Denn Grundlage für die Entscheidung der italienischen Behörde sei die Datenschutzgrundverordnung. Also eine Vorgabe, die für die gesamte Europäische Union gilt.
Chat GPT und Datenschutz
Bei den Datenschutzbedenken geht es unter anderem um eine fehlende Einwilligungserklärung für die Verwendung unserer Daten und auch eine fehlende Altersverifikation zum Schutz von Kindern und Jugendlichen.
Laut der Datenschützer*innen mache die Herstellerfirma Open AI aktuell nicht ausreichend klar, was mit den Daten der User*innen konkret geschieht. Denn die Software nutzt jede Eingabe, Frage oder Aufgabenstellung auch dafür, das KI-Modell weiter zu verbessern. Das ist vielen vermutlich gar nicht klar, sagt Deutschlandfunk-Nova-Netzreporter Michael Gessat.
"Chat GPT und die Konkurrenz-KI sammeln alle möglichen persönlichen Daten im Netz und verwursten die."
Bei manchen Anfragen dürfte das kein Problem sein. Wenn es zum Beispiel um Eingaben wie "Erfinde eine Geschichte über eine grüne Banane" oder "Wie funktioniert eine Demokratie" geht, geben User*innen damit nichts über sich preis.
Bei Anfragen wie "Korrigiere mir folgenden Text und verbessere die Grammatik" oder "Stelle mir für eine Präsentation Folien aus folgendem Text zusammen", also solchen, die personenbezogene Daten oder vertrauliche Informationen enthalten, allerdings schon.
Unternehmen wie Samsung sensibilisieren ihre Mitarbeitenden daher aktuell auch auf datenschutzrelevante Probleme wie diese. Andere Firmen haben den Zugriff auf Chat GPT in ihren Netzwerken komplett gesperrt oder verboten. "Wenn da Infos über mich oder interne Firmenmemos drinstehen, kann im ungünstigsten Fall passieren, dass der nächste Chat-GPT-User diese Infos bei einer thematisch ähnlichen Anfrage als Ergebnis geliefert bekommt", erklärt Michael Gessat.
Software mit Halluzinationen
Ein anderes Problem ist, dass der Chatbot auch "halluziniert", wie die Herstellerfirma es nennt. Das bedeutet: Es besteht die Möglichkeit, dass die Software falsche Informationen als korrekte Fakten ausgibt. Das liegt an der Funktionsweise des Chatbots. Für die Antworten erfasst die KI extrem große Mengen an Text. In einer australischen Kleinstadt soll das dazu geführt haben, dass der Chatbot den Bürgermeister fälschlicherweise als Schuldigen in einem Bestechungsfall bezeichnet hätte.
Netzreporter Michael Gessat sieht hier Nachholbedarf bei der Herstellerfirma, aber auch den Datenschützer*innen und Politiker*innen. Für ihn wäre zum Beispiel ein eindeutiger Hinweis, der auf die Datenschutzproblematik aufmerksam macht, sinnvoll. Auf der anderen Seite sollten die von einer KI generierten Texte nicht als einklagbare Wahrheit aufgefasst werden, sondern vielmehr als brauchbares Konstrukt, sagt er.