Eine Medizinerin aus den USA und ihr Team haben ChatGPT beauftragt, Zusammenfassungen für insgesamt 50 wissenschaftliche Studien - sogenannte Abstracts - zu schreiben. Die Untersuchungen waren in verschiedenen Fachmagazinen erschienen, und die Software sollte das Abstract jeweils im Stil des Magazins verfassen. Die generierten Zusammenfassungen wurden dann von menschlichen Fachleuten und einem gängigen Plagiats-Computerprogramm analysiert.
Das Ergebnis: Nur zwei Drittel der Abstracts erkannten die Gutachterinnen und Gutachter als computergeneriert - die Plagiats-Software schnitt sogar noch schlechter ab. Sie erkannte bei keinem der Texte, dass er vom Textgenerator und nicht von einem Menschen stammte.
Die Forschenden befürchten, dass hochentwickelte Textgeneratoren wie ChatGPT zum Problem für die Wissenschaft werden können, weil Fachleute damit getäuscht und die Forschung vielleicht in die falsche Richtung gelenkt werden könnte.
Microsoft will ChatGPT seinen Kunden zur Verfügung stellen
Auch Microsoft hat viel Geld in die Entwicklung von ChatGPT investiert, insgesamt wohl etwa drei Milliarden US-Dollar - vor allem in die Rechenstruktur beim Entwickler OpenAI. Gestern hat der US-Konzern gemeldet, dass er zu einer größeren Verbreitung des Textgenerators beitragen will, indem er die Software bald den Kundinnen und Kunden seines Cloud-Dienstes zur Verfügung stellt.
Eine Erwartung ist, dass sie etwa das Verfassen von Standard-Texten übernehmen und dadurch Zeit einsparen könnte. Fachleute geben aber auch zu bedenken, dass man mit ChatGPT Falschinformationen in Texten verbreiten könnte, aber auch Vorurteile und Fehler, die sich aus der Datenbasis der Software ergeben.
Microsoft betonte in dem Blogeintrag, man gehe verantwortungsvoll an Innovationen bei künstlicher Intelligenz heran. Es seien "Leitplanken" eingebaut worden. So müssten Entwickler die Nutzungspläne beschreiben, bevor sie Zugang bekämen. Auch gebe es Inhaltsfilter.
ChatGPT hat schon einen Vertrag ausgehandelt und kann theoretisch auch Hausarbeiten schreiben.