Am 01.011. habe ich schon einmal zum Thema ‚Transparenz in der Lehre hinsichtlich der verfolgten didaktischen Intentionen‘ gebloggt. Heute möchte ich dieses Thema wieder aufgreifen, da mich dieses Thema nach wie vor umtreibt – nicht nur, weil ich diese Woche nochmals einen sehr pessimistischen Artikel hinsichtlich der großen Herausforderungen bei Assessments im KI-Zeitalter gelesen habe.
Diese Woche wurde neben dem Google Research Assistant auch Gemini 2.0 veröffentlicht. Mein erster Test der Funktion „Stream Realtime“ im Google AI Studio war beeindruckend – und ich bin inzwischen wirklich recht ‚abgebrüht‘, was neue KI-Features betrifft. Ich habe Gemini meinen Bildschirm mitschneiden lassen, während ich durch verschiedene Artikel von the-decoder scrollte und die Satzfetzen, die ich davon las, verbal kommentierte. Anschließend forderte ich Gemini dazu auf, mir eine Zusammenfassung der Artikel, durch die ich gescrollt hatte, auszugeben. Dann habe ich noch durch die erste Druckfahne meines Buches gescrollt, die ich aktuell überarbeite. Anschließend richtete ich an Gemini die Frage, wie ich vielleicht die aktuellen KI-News, die ich zuvor bei the-decoder gelesen hatte, in mein Manuskript integrieren könnte. Das Ergebnis war schon recht beeindruckend.
Auf die Google Research Funktion habe ich leider noch keinen Zugriff. Ethan Mollick schrieb dazu die Tage bei LinkedIn: „One warning to instructors though is that it solves most of the issues with AI-created research assignments. Pretty solidly well-organized and written, with accurate citations, it makes it very easy for students to skip research”.
Wir sind also wieder bei der Frage angelangt, wie wir Studierende dazu bringen können, Aufgaben im Bereich des wissenschaftlichen Schreibens, die man auch von einer KI erledigen lassen kann, selbst zu erledigen. Bislang habe ich Lehrenden immer Parameter aufgezeigt, die Schreibaufgaben enthalten müssen, um nach wie vor motivationsfördernd zu sein (und habe dafür bei ChatGPT und Poe extra einen Schreibaufgaben-Bot gebaut). Ich frage mich aber immer mehr, ob das der richtige Ansatz ist. Ja, ich glaube nach wie vor, dass Schreibaufgaben, wie sie mein Bot am Ende eines Dialogs ausspuckt, sinnvoll sind. Doch auch wenn Schreibaufgaben authentisch sind, einen hohen Transfer aufweisen und auf höheren Ebenen der Lernzieltaxonomie verortet sind, können sie zunehmend komplett von KI-Tools bearbeitet werden – und zwar mit guter bis sehr guter Qualität. Daher glaube ich, dass solche Überlegungen zu sinnvollen Schreibaufgaben nicht ausreichen.
Der wichtigste Punkt für mich ist Transparenz: Studierende müssen verstehen, weshalb sie gerade diese oder jene Schreibaufgabe bearbeiten sollen und was sie davon haben, wenn sie diese nicht an ein KI-Tool outsourcen. Studierende brauchen eine neue Freude am Lernen – sie müssen wirklich lernen wollen und den Sinn hinter kognitiver Anstrengung verstehen. Unser aktuelles System belohnt aber nicht das Lernen an sich, sondern ist nur auf Noten ausgerichtet. Weshalb soll ich mich anstrengen und am Ende vielleicht ‚nur‘ eine 2,75 erhalten, wenn ich für die Aufgabe dann, wenn ich sie an KI outsource, am Ende auch eine 1,25 erhalten könnte und mich dafür noch nicht mal anstrengen musste. Wir können das System nicht verändern, jedenfalls nicht von heute auf morgen. Und trotzdem können wir dafür sorgen, dass Studierende nachvollziehen können, weshalb wir als Lehrende ihnen eine bestimmte Aufgabe geben.
The-decoder referierte gestern auf einen Artikel von Microsoft Research, der betont, dass der Umgang mit KI-Tools ein hohes Maß an Metakognition voraussetze. In meinem Workshop auf der Tagung der Gesellschaft für Schlüsselkompetenzen Ende November habe ich von Metakognition als neuer ‚Metakompetenz‘ gesprochen. Wenn wir wollen, dass Studierende ihre metakognitiven Kompetenzen trainieren können, sollten wir allein auch aus diesem Grunde am Punkt der Transparenz ansetzen.
Ich schlage vor, jede Aufgabe, die Studierende im Rahmen ihres Studiums unbeaufsichtigt bearbeiten sollen, von einem knappen ‚Meta-Kommentar‘ zu flankieren. Das kann etwa wie folgt aussehen:
(Ich bin keine Grafikerin, aber man könnte das ganze mittels Canvas oder Gamma ja auch noch einigermaßen ansprechend gestalten). Natürlich ist ein solcher flankierender Meta-Kommentar kein Allheilmittel. Dennoch bin ich überzeugt, dass es bei manchen Studierenden einen Unterschied machen kann, wenn sie wirklich verstehen, dass die Aufgabe, die sie bearbeiten sollen, einen Sinn hat. Außerdem umgeht man so auch ein KI-Verbot: Die Studierenden können, dürfen und sollen KI-Tools durchaus verwenden, sollen aber nachvollziehen können, welche Aufgabenkomponenten warum KI-frei bzw. nur KI-unterstützt zu bearbeiten sind. Das Verständnis, das Studierende basierend auf diesem Meta-Kommentar für die Aufgabe entwickeln, kann ihnen schließlich – so meine Überzeugung – auch bei der Bearbeitung der Aufgabe selbst helfen, indem sie dadurch eine bessere metakognitive Kontrolle ihres Schreibprozesses etablieren können.