Künstliche Intelligenz Hochschulen arbeiten an Leitlinien zum Umgang mit ChatGPT
Hauptinhalt
18. Februar 2023, 05:00 Uhr
Wissenschaftsdidaktiker der Ruhr Universität Bochum arbeiten zur Zeit an einem Rechtsgutachten, bei dem es um Leitlinien für den Umgang mit Sprachrobotern wie ChatGPT geht. Geprüft wird, ob man bei Texten, die von KI's geschrieben wurden, von Plagiat sprechen kann. Wissenschaftsdidaktiker Peter Salden zufolge sind im Moment kaum Leitlinien für Prüfungen vorhanden, die den Umgang mit KI's diktieren.
- Auswirkungen von Künstlicher Intelligenz auf Studienbetrieb noch schwer absehbar.
- Auch fehlende Prüfsoftware macht es schwer, KI-Leistungen zu erkennen.
- Hochschulen diskutieren daher Leitlinien für den Umgang mit KIs bei Prüfungsleistungen.
Die Experten vom Zentrum für Wissenschaftsdidaktik an der Ruhr-Universität Bochum gehören zu den ersten, die sich mit den Auswirkungen Künstlicher Intelligenz auf den Studienbetrieb an deutschen Hochschulen befassen.
Gerade was die Prüfungen betrifft, herrscht nach den Worten von Professor Peter Salden auch bei den Dozenten eine spürbare Verunsicherung, denn: "Klassische Plagiats-Software gleicht einen Text, der geprüft werden soll, mit schon vorhandenen Texten, zum Beispiel aus dem Internet, auf textliche Übereinstimmung ab."
Noch keine zuverlässige Prüfsoftware
KI generierte Texte würden aber so erzeugt, dass Wörter auf Grundlage statistischer Wahrscheinlichkeiten neu miteinander verbunden würden. Es gebe dann also keinen Ursprungstext mehr, sondern der neue Text sei letztlich selbst ein Unikat, erklärt Peter Salden.
Zwar gibt es auch Software, die Texte daraufhin überprüft, ob sie von einer künstlichen Intelligenz erzeugt wurden. Allerdings gibt Prof. Salden zu bedenken, dass solche Software nicht ganz zuverlässig funktioniere: "Ich würde auch davon ausgehen, dass das so bleibt. Zum anderen haben wir, anders als bei der klassischen Plagiats-Software, auch keinen Beweis an der Hand, dass ein KI-generierter Text vorliegt."
Gleichwohl könne man in Prüfungen durchaus auf Tools wie ChatGPT reagieren, indem man die Bedingungen nachschärfe. "Das heißt, man kann also zum Beispiel sagen, mir ist besonders wichtig, dass in einer Hausarbeit eine kritische Diskussion von Quellen erfolgt." Das könne ChatGPT nicht so gut.
Hochschulen: Rechtlicher Rahmen gewünscht
Möglich sei zweitens auch, die schriftliche Prüfung um eine erweiterte mündliche Komponente zu ergänzen. Und drittens könne man "Studierende schon vor der Verschriftlichung ihrer Arbeit begleiten, um mitzubekommen, wie sie sich in eine Fragestellung einarbeiten."
Klar regeln lasse sich bei einer Hausarbeit auch die Kennzeichnung, ob und in welchem Umfang künstliche Intelligenz verwendet wurde. "Mindestens dann, wenn man umfangreich Texte von ChatGPT direkt übernimmt, wäre es in meinen Augen aber angemessen, das auch zu markieren. Und zwar mindestens, indem man das Tool als verwendetes Hilfsmittel angibt."
Ansonsten läge ein Verstoß gegen das Urheberrecht vor – und damit ein Täuschungsversuch. Letztlich kommt es auf grundsätzliche rechtliche Regelungen an. Dann, so Wissenschaftsdidaktiker Salden, brauche man, etwa für Natur- oder Geisteswissenschaftler, auch keine fachspezifischen Regelungen.
Dieses Thema im Programm: MDR AKTUELL RADIO | 18. Februar 2023 | 06:00 Uhr
Not Found
The requested URL /api/v1/talk/includes/html/1bbb0ca0-a546-4893-8688-86f8531f9fb0 was not found on this server.