Wissen-News Plagiatsforscherin: KI-generierte Texte werden nicht zuverlässig erkannt
Hauptinhalt
29. Januar 2024, 10:31 Uhr
Wenn Hausarbeiten mit Künstlicher Intelligenz statt echtem Gehirnschmalz verfasst werden, kann das von entsprechenden Detektoren nicht zuverlässig erkannt werden, warnt eine KI-Forscherin.
Wenn Software an Software scheitert: Jeder fünfte durch Künstliche Intelligenz erzeugte Text kann von entsprechenden Detektoren nicht als solcher erkannt werden. Zu dem Schluss kommt ein Forschungsteam im International Journal for Educational Integrity, unter ihnen die Berliner Plagiatsforscherin Debora Weber-Wulff. Das Team hat 14 Software-Angebote zum Aufspüren von KI-generierte Texten untersucht.
Damit bleibt ein nicht deklarierter Einsatz etwa bei Abschlussarbeiten, die unter Zuhilfename von generativen KI-Tools wie Perplexity, ChatGPT oder Bard entstanden sind, aus Experteninnensicht vorerst schwer nachweisbar. "Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen", so Weber-Wulff.
Die Zunahme von KI-generierten Inhalte ist auch ein Problem bei Onlineinhalten, warnte der Informatiker Jannek Bevendorff vergangene Woche bei MDR WISSEN. Bevendorff hat zuletzt an der Bauhaus-Universität in Weimar zum Thema Qualitätsverlust bei Suchmaschinenergebnissen geforscht und festgestellt, dass die Zahl minderwertiger Inhalte zunimmt, was sich durch den Einsatz generativer KI noch verschärfen dürfte. Solche Inhalte sind für Nutzende nicht immer sofort denen zu unterscheiden, die von Menschen verfasst wurden.
flo, mit dpa
Not Found
The requested URL /api/v1/talk/includes/html/83177d0c-6db2-4c7a-babd-9b5dbb8f5d98 was not found on this server.