KI-Ghostwriting-Tools: Wo bleibt AI Literacy?

In meinen LinkedIn-Feed flatterte heute dieser SPIEGEL-Artikel zu KI-Ghostwriting-Tools. Der Artikel ist leider hinter einer Paywall, doch ich versuche, hier die wichtigsten Punkte zusammenzufassen. Der Artikel passt nämlich perfekt zu der Diskussion, die wir heute im VK:KIWA-Jour Fixe geführt haben. Eine Person aus unserem Kernteam wies darauf hin, dass Tools, die versprechen, in kurzer Zeit KI-gestützt eine ganze Seminar- oder Abschlussarbeit zu erstellen, aktuell wie Pilze aus dem Boden schießen (Randnotiz: Ich habe es absolut nicht mit der richtigen Verwendung von Sprichwörtern. Danke, ChatGPT, für Deine treue Hilfe). Wir haben es hier mit Tools zu tun, die auf Sprachmodelle der US-Tech-Giganten zugreifen, häufig wohl auf die API von OpenAI. ‚Netterweise‘ wird teilweise noch eine Plagiatsprüfung integriert, sodass sich die Studierenden zurücklehnen können und nichts zu befürchten brauchen – so das Werbeversprechen. Bei GoThesis etwa kann ich für aktuell 18,90 € (statt 29,80 €, wow, da habe ich mich richtig reich gespart …) ein Thesis-Schnellstart Paket kaufen und erhalte dann basierend auf dem Titel meiner Arbeit u. a. ein PDF mit bis zu 10 Seiten Fließtext. Hier noch ein paar Zitate aus dem SPIEGEL-Artikel, in dem StudyTexter, Hesse.ai und IntelliSchreiber betrachtet wurden: „Der Anbieter IntelliSchreiber etwa will eine Arbeit in zwei Minuten erstellen – für 39,99 Euro. Bei Konkurrent Hesse.ai zahlen Kunden für 40.000 KI-generierte Wörter im Monat einen Abopreis von 20 Euro“ […] „IntelliSchreiber es nennt: ‚Premium-Ergebnisse zu studentenfreundlichen Preisen‘. […] IntelliSchreiber wirbt damit, Studierenden den Rücken freihalten zu wollen, damit sie ‚mehr Zeit für die coolen Dinge im Leben‘ hätten.“ Als Schreibdidaktikerin sehe ich das Versprechen der wissenschaftlichen Arbeit auf Mausklick natürlich sehr kritisch und könnte hierzu jetzt einen langen Artikel verfassen. Ich möchte jedoch auf zwei andere Aspekte eingehen.

Punkt 1: Der SPIEGEL-Artikel stellt auch die Frage, wie die Hochschulen auf solche Tools reagieren. Und dann steht dort doch tatsächlich geschrieben: „Ein Grund für die bisher geringe Fallzahl aufgedeckter KI-Täuschungen könnte sein, dass es Hochschulen immer noch schwerfällt, KI-generierte Texte zu erkennen“. Seriously?! Sind wir immer noch an diesem Punkt? Die Lösung wäre also, dass die Hochschulen endlich hart daran arbeiten, dass sie „KI-generierte Arbeiten“ erkennen, dies sanktionieren und Studierende dann reihenweise exmatrikulieren? Man, man, man … „Zwar bietet Erkennungssoftware wie GPTZero die theoretische Möglichkeit, KI-generierte Texte mit Angaben von Wahrscheinlichkeiten zu erkennen. Aber noch arbeitet sie zu ungenau, um einen Text zweifelsfrei als menschen- oder maschinengemacht zu identifizieren“. Das „noch“ können wir direkt streichen – eine KI-Detektion wird nie möglich sein. Punkt. Das brauchen wir aber auch nicht: Wenn eine Arbeit zu 100 % KI-generiert ist, wird diese Arbeit allein schon deshalb eine 5,0 erhalten, weil sie fachlichen Kriterien nicht genügen wird. Da braucht man dann auch keine KI-Detektion. Doch das Problematische daran ist gerade, dass der verantwortungsbewusste, erkenntnis- und lernfördernde Einsatz von KI-Tools hier pauschal mit-kriminalisiert wird. Genau diesen gilt es aber zu fördern! Und es gilt, an der Lehre und an den Schreibaufgaben anzusetzen, an den Aufgabenstellungen für Seminar- und Abschlussarbeiten, die es den Studierenden ermöglichen sollten, KI sinnvoll in deren Bearbeitung zu integrieren. Darauf sollten Hochschulen und Lehrende ihre Energie konzentrieren, nicht auf diese unsägliche KI-Detektion. Dazu wurde aber schon vieles geschrieben (sicher auch von mir), weshalb ich zu meinem zweiten Punkt übergehen möchte.

Punkt 2: Was ich mich eigentlich bei Tools wie GoThesis, StudyTexter & Co. frage, ist, warum Studierende dafür wirklich Geld ausgeben. Diese Tools sind doch nur ein via entsprechender Systemprompts ‚maßgeschneidertes‘ ChatGPT. Was lockt Studierende an diesen Tools, das sie bei ChatGPT nicht finden? Klar, natürlich die Werbeversprechen, bei IntelliSchreiber besonders ‚krass‘ mit „Lass dir deine Hausarbeit in nur 2 Minuten erstellen!“ Aber wenn ich nur ein bisschen Ahnung von einem einigermaßen schlauen Prompting habe, kann ich mir meine Hausarbeit – wenn ich sie schon absolut nicht eigenständig verfassen möchte, doch auch von ChatGPT verfassen lassen. Dann recherchiere ich noch ein paar halbwegs sinnvoll aussehende Paper bei Elicit & Co. und das war’s. Nicht falsch verstehen: Ein solches Vorgehen heiße ich natürlich ebenso wenig gut, weil es ebenso wenig der Forderung nach eigenständigem Arbeiten entspricht und ebenso wenig lernförderlich ist wie die Verwendung der genannten Tools. Ich frage mich nur, warum Studierende ernsthaft Geld für die genannten Tools ausgeben. Ich kann natürlich nur spekulieren. Ein Grund ist vielleicht, dass Studierende nun lange genug immer wieder eingetrichtert bekamen, dass sie ChatGPT nicht für eine wissenschaftliche Arbeit nutzen dürfen/können. Wenn ich nun ein Tool finde, dass anscheinend extra auf wissenschaftliche Arbeiten zugeschneidert ist, suggeriert dies vielleicht, dass sich hier eine bessere Qualität dahinter verbirgt als bei ChatGPT. Bei GoThesis muss ich dann schon ins Kleingedruckte schauen (genauer gesagt in die Datenschutz-Section), um zu verstehen, dass sich dahinter zumindest in Teilen genau das gleiche Sprachmodell verbirgt wie bei ChatGPT (es werden auch noch zahlreiche andere Unternehmen genannt, darunter Google, dessen Sprachmodell möglicherweise auch einfließt). Dass solche Tools überhaupt wachsen können und sich sogar ein Markt etablieren kann, deutet wieder einmal auf die völlig unzulängliche AI Literacy-Ausbildung der Studierenden hin. Hier sage ich ganz klar: No blame an die Studierenden. Wo sollen sie AI Literacy erwerben, wenn nicht in ihrem Studium? Und wie sollen sie ohne diese Kompetenz die entsprechenden Tools beurteilen? Das Thema ‚Wissenschaftliches Schreiben‘ steht da nochmals auf einem ganz anderen Blatt. Ich setze hier viel weiter vorne an, nämlich bei einer Sensibilisierung für eine kritische Überprüfung digitaler Tools.

Dieser Artikel war bislang sehr polemisch und recht deutlich. Ich möchte nun etwas versöhnlicher schließen. Tools wie GoThesis könnten eigentlich eine ganz feine Sache sein. So findet man auf deren Website folgende Statements: „Wir wissen, dass das Schreiben einer wissenschaftlichen Arbeit eine echte Herausforderung sein kann. Deshalb haben wir GoThesis ins Leben gerufen, was dir dabei hilft, diesen wichtigen Teil deines Studiums erfolgreich und mit wenig Stress zu meistern“ und „Das Schreiben einer Abschlussarbeit kann komplex sein. Man findet online viele Programme, die einem bei einzelnen Probleme [sic] helfen. Aber niemand unterstützt Studierende im gesamten Prozess – von der Themenfindung bis zur Abgabe. Das wollen wir mit GoThesis ändern und einen Ort schaffen, der alles bietet, was man für eine erfolgreiche Arbeit benötigt“. Volle Zustimmung. Man könnte richtig gute Tools schaffen, die KI-gestützt Studierende durch den Schreibprozess begleiten. In dem Fall müsste da aber dringend auch schreibdidaktische und lernpsychologische Expertise einfließen. Niemand aus dem Team von GoThesis scheint genau darüber zu verfügen. So wie das Tool aktuell aufgezogen ist, hilft es beim Schummeln, beim nicht verantwortungsbewussten und eigenständigen Einsatz von KI-Tools. Es steckt aber so viel mehr Potenzial darin! In unserem VK:KIWA-Jour Fixe meinte jemand aus dem Team gestern, dass wir als Netzwerk ja eine Art ‚Stiftung Warentest‘ für solche Tools sein und ein Qualitätssiegel vergeben könnten. Ich weiß nicht, wie ernst das gemeint war, doch ganz unsinnig ist das sicherlich nicht. Die Frage ist nur, wie man die entsprechenden ‚Testergebnisse‘ an die Zielgruppe, die Studierenden, bringen könnte. Und da sind wir wieder beim Punkt der AI Literacy …