Prüfungen sind das Herzstück akademischer Bildung – und oft ihr größtes Dilemma. Während die Arbeitswelt immer mehr auf Teamarbeit setzt, klammern sich Hochschulen nach wie vor an die heilige Kuh der Individualprüfung. Dabei gäbe es spannende Alternativen. Genau das diskutierten wir am vergangenen Montag im Think Tank „Prüfungswesen und Hochschultransformation im Kontext von KI“, den ich zusammen mit Andreas Giesbert leite. Unsere Leitfrage lautete: Wie können kollaborative Prüfungsformate aussehen, die nicht nur den Herausforderungen durch KI gerecht werden, sondern auch echte Teamkompetenzen fördern?
Als Einstiegsimpuls gab es zunächst von mir einen kurzen Input, in dem ich die Thesen meines Artikels zu „Vom Werkzeug zum Teammitglied: Kollaborationskompetenz im KI-Zeitalter“ zusammengefasst habe. Hierfür habe ich den Artikel übrigens an GammaAI gegeben, heraus kam dieses Slidedeck.
Anschließend folgte ein Input von Mike Terbeck, Justiziar an der FernUni in Hagen, der einige Grundlagen des Prüfungsrechts referierte. Auch in Replik zu meinem Input brachte er gleich zu Beginn einen entscheidenden Punkt aufs Tablett: Prüfungsrechtlich bleibt KI ein Hilfsmittel – keine Akteurin. Er meinte, dass er Bauchschmerzen dabei habe, KI als eigenständiges Teammitglied zu betrachten (wie ich dies in meinem Artikel vorgeschlagen habe). Interessant ist hier auch, dass natürlich immer nur die Kompetenz von Menschen beurteilt werden kann, nicht aber die Kompetenz von KI-Tools. Es gibt also keine prüfungsrechtliche Grundlage, KI als ‚Teammitglied‘ zu betrachten. Außerdem meinte er, dass alle Studierenden die gleiche Ausbildung zur KI-Nutzung genossen haben müssen, wenn Lehrende z. B. im Rahmen von Haus- und Abschlussarbeiten den Einsatz von KI verlangen. Das ist doch eine wunderbare rechtliche Grundlage fürs Constructive Alignment i. S. v. „wenn Studierende KI-Tools in ihrer wissenschaftlichen Arbeit nutzen, müssen KI-Tools und deren Einsatzmöglichkeiten auch Grundlage der Lehre sein“. Es gilt aber auch dann: Eine Pflicht für Studierende, KI in ihrer wissenschaftlichen Arbeit zu verwenden, ist prüfungsrechtlich nicht möglich. Wohl können Lehrende aber explizit sagen: Du als Studierende:r musst das bestmögliche Ergebnis abliefern – wie Du dahin kommst, ist im Rahmen der prüfungsrechtlich vorgegebenen Eigenständigkeit egal.
Was mich dann sehr nachdenklich stimmte, war die folgende Aussage von Mike: Hochschulabschlüsse müssen über Hochschulen hinweg vergleichbar sein. Setzt also nur eine Hochschule KI in Studium und Lehre ein (Stichwort u.a. Verfügbarkeit einer Hochschul-KI), andere Hochschulen aber nicht, ist das ein Problem. Insofern muss hier viel im Bereich der Akkreditierung abgestimmt werden. Anmerkung am Rande: In einem anderen Kontext habe ich diese Woche darüber diskutiert, ob Lehrende eigentlich überhaupt z. B. Reflexionen zur Verwendung von KI-Tools als Ergänzung zu Haus- und Abschlussarbeiten und/oder die Dokumentation der KI-Nutzung einfordern dürfen, wenn das Modulhandbuch das gar nicht hergibt. Als juristische Laiin würde ich hier das gerade im KI-Kontext viel zitierte Diktum der rechtlichen Grauzone anführen …
Außerdem gab Mike zu bedenken, dass Lehrende dann, wenn sie die zugelassenen Hilfsmittel im Rahmen einer unbeaufsichtigten schriftlichen Prüfung einschränken, auch dafür Sorge tragen müssen, dass die Beschränkungen eingehalten werden (können). Sprich: Wenn Lehrende KI-Tools verbieten, das aber nicht überprüfen können, sollten sie es lieber direkt lassen. Dieses Argument aus prüfungsrechtlicher Perspektive füge ich natürlich gerne meinen sonstigen Argumenten gegen das Verbot von KI-Tools bei wissenschaftlichen Arbeiten hinzu.
Eines wurde bei unserer Diskussion im Think Tank jedenfalls schnell klar: Kollaborative Prüfungsformate stellen Hochschule vor methodische, organisatorische und ethische Herausforderungen. Besonders spannend war die Diskussion um Prüfungsdesigns. Wenn es für Gruppenprüfungen nach wie vor Mechanismen braucht, die sicherstellen, dass die Leistung Einzelner bewertbar bleibt, unterbindet das m. E. wahrhaftige Kollaboration, bei der einzelne Produktteile am Ende eben nicht mehr klar einer Person zugeordnet werden können. Und wenn bei KI-unterstützten Formaten dokumentiert werden muss, welcher Beitrag durch die KI und welcher durch die Studierenden geleistet wurde, verhindert auch das eine Kooperation mit KI, wie ich sie in meinem Artikel vorgeschlagen habe.
Natürlich stellte sich auch die Frage nach den ethischen Grenzen. Können Lehrende von Studierenden verlangen, KI zu nutzen? Mike Terbeck war hier skeptisch: Eine Pflicht ist rechtlich problematisch. Aber: Lehrende können das Prüfungssetting so gestalten, dass KI-Einsatz sinnvoll ist – ohne ihn zu erzwingen. Die Diskussion zeigte: Kollaboratives Prüfen mit und ohne KI steckt voller Potenzial – und Herausforderungen. Wir müssen nicht nur methodisch, sondern auch rechtlich und ethisch genau hinschauen. Gleichzeitig liegt hier für mich aber auch die Chance, Prüfungen zu einem echten Lernraum zu machen: für Kollaboration, Kreativität und kritisches Denken.
Eine andere Perspektive brachte Maximilian Waschka ein, der dafür plädierte, dass Kollaboration mit KI-Tools einerseits und eine Perspektive, bei der KI nicht als Subjekt betrachtet wird, sich nicht ausschließen. Er sprach sich dafür aus, dass wir KI sehr wohl eine Handlungsmacht (agency/Agentialität) zusprechen können, ohne sie aber zu vermenschlichen. Konzepte wie der Neue Materialismus (Latour, Barad) könnten uns laut Maximilian helfen, Kollaboration neu zu denken. Hier geht es weniger um die Frage, ob KI als Subjekt agiert, sondern darum, wie sie in Netzwerken von Menschen, Technologien und Ideen wirkt.
An der Stelle noch ein Hinweis auf zwei Artikel, über die ich in dieser Woche in meiner andauernden Auseinandersetzung mit dem Thema ‚Kann KI eine echte Kollaborationspartnerin sein?‘ gestoßen bin:
- Unter Rückgriff auf die Praxistheorie von Hirschauer modelliert Thorsten Steinhoff in diesem Artikel KI-Tools als Partizipanden und ihr Zusammenwirken mit den Menschen als Koaktivität. Er beschreibt drei verschiedene „Partizipanden-Rollen“ von LLMs am Beispiel von ChatGPT: Ghostwriter, Writing Tutor und Writing Partner.
- Jochen Hanisch-Johannsen spricht in seinem Artikel von KI als gleichwertigem Partner in der kollektiven Wissensbildung. Spannend finde ich in diesem Artikel, dass der Autor zwar beständig die These vertritt, dass KI mehr ist als ein Werkzeug und Mensch und Maschine wechselseitig interdependente Systeme sind. Gleichzeitig widerspricht er sich m. E. immer wieder selbst in dieser These und kommt am Ende nicht über Formulierungen hinaus, die KI nur als Unterstützung des Menschen sehen. Für mich liegen also viele Widersprüche in diesem Text.
ChatGPT formulierte für meinen Blogartikel folgendes Fazit, das zwar sehr phrasendrescherisch und oberflächlich daherkommt, dem ich mich aber dennoch anschließen möchte: „Wir sollten mutig sein. KI wird unser Prüfungswesen nicht ersetzen – aber sie kann uns helfen, es neu zu denken. Wenn wir die richtigen Fragen stellen und bereit sind, neue Wege zu gehen, dann könnten Prüfungen vielleicht endlich das sein, was sie sein sollten: Ein Raum für echte, geteilte Erkenntnis.“
Und sonst? Ich durfte diese Woche, zwei Jahre nach Launch von ChatGPT, endlich den ersten Aufbau-/Vertiefungsworkshop für Lehrende zum Thema ‚GenKI und deren Implikationen fürs wissenschaftliche Schreiben in Lehre und Prüfungen‘ geben. Das war mein erster Workshop, bei dem wirklich alle Teilnehmende schon Vorerfahrungen mit dem Einsatz von genKI in ihrer Lehre und auch bei der Betreuung von Haus- und Abschlussarbeiten hatten. Ich habe es sehr genossen, auf einem anderen Niveau als sonst einsteigen zu können, viel mehr als sonst auf den Austausch von good und bad practices zu setzen – und außerdem eine fachlich homogene(re) Gruppe zu haben, da es sich komplett um Geisteswissenschaftler:innen handelte.
Zum Ende der Woche hatte ich dann noch ein sehr interessantes Gespräch mit einer Studentin im Rahmen unserer offenen KI-Sprechstunde. Eine Studentin kam in den Zoom-Raum, die von sich sagte, dass sie jede Gelegenheit nutzen möchte, die sich ihr bietet, um über KI zu sprechen. Dabei war sie jedoch sehr skeptisch. Sie meinte, sie sei nahezu schockiert gewesen, als Lehrende ihnen als Studierenden vorgeschlagen haben, doch KI-Tools einzusetzen. Für sie wäre das einfach nur Schummeln und außerdem würde sie so ja nichts lernen. Mir ist eine solche Perspektive von Studierenden bislang noch nie begegnet und so fand ich unser Gespräch, das am Ende über eine halbe Stunde dauerte, sehr erkenntnisreich. Ich weiß nur nicht, ob ich sie letztlich davon überzeugen konnte, dass es genügend Einsatzmöglichkeiten gibt, bei denen man trotz KI-Nutzung noch selbst etwas hinzulernt …