Plagiatsforscherin

Detektoren für KI-Texte sind keine Lösung

29.01.2024
Ein nicht deklarierter Einsatz von KI-Textgeneratoren wie ChatGPT zum Beispiel in Abschlussarbeiten bleibt aus Expertensicht vorerst schwer nachweisbar.
Geht es um die Frage, ob ein Mensch oder eine Maschine einen Text verfasst hat, können Tools noch keine verlässlichen Ergebnisse liefern.
Geht es um die Frage, ob ein Mensch oder eine Maschine einen Text verfasst hat, können Tools noch keine verlässlichen Ergebnisse liefern.
Foto: Ascannio - shutterstock.com

"Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen", sagte die Berliner Plagiatsforscherin Debora Weber-Wulff (Hochschule für Technik und Wirtschaft) der Deutschen Presse-Agentur. "Es gibt zwar sehr viel angebliche Detektoren-Software, aber sie tut nicht das, was sie soll." Manche der Hersteller hätten Mängel auch selbst eingeräumt und auf Grenzen der Verlässlichkeit hingewiesen.

ChatGPT ist ein Chatbot, der auf Nutzerbefehle hin Texte auf dem Sprachniveau eines Menschen formulieren und etwa Informationen zusammenfassen kann. Die Veröffentlichung Ende 2022 löste einen Hype um Künstliche IntelligenzKünstliche Intelligenz (KI) aus - und im Hochschulbereich auch Sorgen vor unkritischer Verwendung oder gar Täuschung durch Studierende. Mittlerweile gibt es auch Programme, mit denen man so erstellten Texten auf die Schliche kommen soll. Alles zu Künstliche Intelligenz auf CIO.de

Weber-Wulff hat an einer Studie mitgearbeitet, für die 14 angebliche KI-Detektoren getestet wurden. Demnach lieferten diese Tools keine verlässlichen Ergebnisse, wenn es um die Frage ging, ob ein Mensch oder eine Maschine einen Text verfasst hat. Davon berichtete das Forschungsteam Ende 2023 im "International Journal for Educational Integrity". Die Studie macht als Kernproblem aus, dass rund jeder fünfte mit KI erzeugte Text nicht als solcher erkannt wurde. (dpa/rs)

Zur Startseite