Sehr gute studentische Texte = KI-generiert?

Justizia im Vordergrund, Student an Computer im Hintergrund (unscharf)

„Erstes Urteil zu ChatGPT an Hochschulen“ – so titelte diese Woche die FAZ und auch viele andere Medien berichteten über das von einigen als wegweisend betrachtete Urteil des Bayerischen Verwaltungsgerichtes. Wer den Fall nicht vor Augen hat, findet hier eine knappe Zusammenfassung. Im Jour Fixe des VK:KIWA haben wir heute auch sehr intensiv über dieses Urteil diskutiert. Glücklicherweise waren wir nicht alle der gleichen Meinung, sodass die Diskussion sehr lebendig und auch (emotional) intensiv war. Da es sich beim vorliegenden Text um meinen Eintrag in meinem persönlichen Blog handelt, möchte ich an dieser Stelle nur meine eigene Meinung wiedergeben, wobei die Diskussion mit den anderen mir sehr dabei geholfen hat, diese noch mal stärker zu konturieren.

Ich selbst finde das Urteil des Gerichtes hochgradig problematisch. Und zwar nicht aus einer rechtlichen Perspektive (das würde ich mir auch gar nicht anmaßen, immerhin habe ich keinerlei Ahnung von Jura), sondern aus einer didaktischen bzw. hochschulpolitischen. In meinen hochschuldidaktischen Seminaren begegnet mir immer wieder die Aussage von Lehrenden, dass sie eine studentische Arbeit gelesen hätten, die viel zu gut sei, um wirklich von einem Menschen geschrieben worden zu sein. Dies lässt für manche Lehrende nur den einen Schluss zu: Die Arbeit wurde mit ChatGPT geschrieben. Doch muss das wirklich der Fall sein? Hinter einer solchen Aussage verbirgt sich m. E. die Annahme, dass Studierende gar nicht so gut sein können. Im Falle des Studenten aus dem Urteil auch die Annahme, dass Studierende keine Lernprozesse durchlaufen können, die sie klüger und reflektierter machen. Plakativ und verzerrend kann das Urteil daher auch so gelesen werden, dass Studierende aufpassen müssen, nicht zu gut zu sein, um nicht (fälschlicherweise) einer (unerlaubten) KI-Nutzung verdächtigt zu werden. Im absurdesten Fall kann das dazu führen, dass eigene Texte durch ein Tool wie den GPT „Humanizer Pro“ geschleust werden, um sie mit kleinen ‚Fehlerchen‘ zu versehen und so menschlicher zu machen. Bitte?!

Was ich an dem Urteil auch problematisch oder zumindest komisch finde, ist, dass argumentiert wurde, dass das Essay, um das es ging, inhaltlich viel zu dicht sei. Dies finde ich insofern paradox, als in anderen Fällen Studierenden oft vorgeworfen wird, ihre Texte seien viel zu oberflächlich – sprachlich vielleicht eloquent, es verberge sich aber kein Inhalt, sondern nur Blabla dahinter. In dem Fall gelangen Lehrende dann zum Schluss, dass der Text mit ChatGPT produziert wurde. Jetzt ist hier also ein Student, der einen inhaltlich offenbar sehr dichten Text geschrieben hat, der folglich nicht nur aus reinen Floskeln und schönen Formulierungen besteht, sondern wo sich dahinter auch substanzieller Inhalt verbirgt. Und nun soll das wiederum ein Argument dafür sein, dass ChatGPT herangezogen wurde? Bedenklich …

In letzter Konsequenz ist das Problem natürlich ein viel größeres. Das Problem liegt darin, dass für eine Zulassung zum Studium heutzutage keine schriftlichen Leistungen mehr eingefordert werden können. Denn sobald schriftliche unbeaufsichtigte Leistungen erbracht werden, besteht immer die Gefahr, dass unzulässige Hilfsmittel herangezogen werden. Das ist aber ein systemimmanentes Problem. Hierzu hat Prof. Dr. Bernd Wallraff einen interessanten LinkedIn-Post verfasst, aus dem ich hier gerne zitieren möchte: „Das Kernproblem liegt also m.E. in einer Prüfungsform, die so nicht mehr in die Zeit passt. Der wichtigste Punkt ist aber: Es ist unsere Aufgabe als Hochschullehrende die Studierenden bestmöglich auf ihre Zukunft und den Arbeitsmarkt von morgen vorzubereiten. Und in diesem Arbeitsmarkt wird KI eine entscheidende Rolle spielen. Hochschulen sollten also die Nutzung von KI keinesfalls verbieten, sondern den richtigen Umgang damit lehren, damit am Ende ein sehr gutes Ergebnis bei den Arbeiten der Studierenden steht.“

Am Ende des Blogbeitrags noch eine nette Anekdote von meiner Woche: Gestern habe ich beim ersten Promptathon an der Johannes-Gutenberg-Universität Mainz einen Impulsvortrag zum Thema „Prompting für wissenschaftliche Arbeiten“ gehalten (in diesem Kontext war ich auch das erste Mal bei Tik Tok). Anmoderiert wurde ich dabei vom Vizepräsidenten für Studium und Lehre, Prof. Dr. Stephan Jolie. In seinem Redemanuskript stand wohl nur, dass ich von Haus aus „Linguistin“ sei. Wir plauderten vor der Veranstaltung aber noch ein wenig miteinander und ich erzählte ihm, einem Mediävisten (der KI-Tools übrigens regelmäßig in seinen Übungen einsetzt! – man kann also wirklich in jedem Fach, sogar bei der Übersetzung und Interpretation mittelhochdeutscher Gedichte, KI-Tools einsetzen), dass ich auch Germanistik studiert habe. Davon war er offensichtlich sehr begeistert, vor allem von meinem zumindest einsemestrigen Mediävistik-Studium. In seiner Anmoderation fügte er dann jedenfalls hinzu „ … und sie hat sogar Germanistik studiert – es gibt sie also noch, die Leute, die ‚was G’scheits studiert haben“. Tja, das kam auch noch nie vor, dass jemand zu mir sagte, ich hätte „was Ordentliches“ studiert …

Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.
Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.