Welche Rolle schreiben wir KI eigentlich zu? In der vergangenen Woche fand eine weitere Sitzung des Think Tanks „Prüfungswesen und Hochschultransformation im Kontext von KI“ statt, den ich gemeinsam mit Andreas Giesbert leite. Als Referent war dieses Mal Dr. Tobias Zimmermann zu Gast, Leiter des Zentrums für Hochschuldidaktik und -entwicklung an der Pädagogischen Hochschule Zürich. Im Zentrum seines Impulses und der anschließenden Diskussion stand das Konzept Learning as Assessment und die Frage, wie wir auch im KI-Zeitalter epistemic agency bewahren.
Seitdem beschäftigt mich jedoch ein anderer Punkt, der nur als kurze Anmerkung im Chat auftauchte, für mich aber recht zentral ist. Kristina Kähler schrieb, dass die Metaphorik in Bezug auf KI-Tools sehr unterschiedlich sei: Mal sei KI ein Werkzeug und mal ein Partner. Meines Erachtens gehen wir im Diskurs oft von unterschiedlichen Rollenbildern aus, ohne diese aber explizit zu machen. Es fehlt bislang an einer systematischen Reflexion darüber, welches Rollenverständnis von KI eigentlich zugrunde gelegt wird und was das wiederum für die Didaktik bedeutet.
Angeregt durch diesen Kommentar im Chat habe ich nun eine kurze Einheit für meine Seminare und Vorträge erstellt, in der die Teilnehmenden bewusst über ihr Verhältnis zu KI nachdenken: Ist KI für mich ein Werkzeug? Ein Sparringspartner? Eine Reflexionshilfe? Oder gar ein Mentor? Dabei ist es aber wichtig, dass es nicht das eine Rollenverständnis gibt, sondern dass sich dieses je nach Aufgabe und Zielsetzung verschieben kann. Gerade im didaktischen Kontext ist es aber m. E. wichtig, dass sich Lehrende wie Lernende ihres eigenen implizites Rollenbewusstseins gewahr werden.
Dazu habe ich verschiedene Rollenmodelle zusammengetragen, die als Leitplanken fungieren und sich didaktisch nutzbar machen lassen können:
- Human in the Loop: Die Maschine arbeitet, der Mensch kontrolliert nur die KI-Generate.
- Machine in the Loop: Der Mensch leistet die Hauptarbeit, die Maschine unterstützt lediglich, ergänzt den Menschen also dort, wo er es braucht (z. B. bei der Rechtschreibprüfung).
- Task Sharing (Arbeitsteilung): Mensch und Maschine übernehmen klar getrennte Aufgaben; die einzelnen Produkte werden am Ende zusammengeführt.
- Kollaborative Ko-Kreation: Mensch und KI agieren als (fast) gleichberechtigte Partner; keine Arbeitsteilung (also keine bloße Kooperation), sondern Kollaboration.
- AI-Augmented Writing: Der Schreibprozess wird an einigen Stellen durch KI erweitert, wobei die KI-Verwendung additiv/on top hinzukommt. Erst macht der Mensch alles alleine und lässt dann die KI noch die entsprechenden Aufgaben ausführen.
- AI Leadership: Der Mensch sucht sich gezielt die KI-Assistenten, die er für eine Aufgabe braucht. Er führt die KI-Assistenten wie eine Führungskraft, nimmt also ein Monitoring des Arbeitsprozesses vor und bringt sich auch selbst ein. Es liegt ein virtuoses Zusammenspiel von Mensch und Maschine vor, wobei der Mensch als Führungskraft alle Ergebnisse verantwortet.
- Iteratives Co-Writing: Es findet ein zyklischer Austausch statt: Mensch → KI → Mensch → KI, mit sukzessiver Verbesserung des Textes.
- Reflective Partnership: Die KI dient zur Reflexion über das eigene Schreiben, z. B. durch Rückmeldungen zu Argumentationsstruktur oder Stil.
- AI as Mentor: Die KI wird als simuliertes Gegenüber oder Tutor genutzt, das beim wissenschaftlichen Denken, Strukturieren oder Formulieren herausfordert und begleitet, regelmäßig Feedback gibt und die menschliche Kompetenzentwicklung begleitet.
Diese Auflistung ist sicher nicht exhaustiv, kann aber als erster Ansatzpunkt dienen. Sie zeigt: Das Verhältnis von Mensch und KI ist nicht statisch, sondern flexibel sowie situativ und funktional gestaltbar. Die Herausforderung besteht darin, nicht nur das jeweils passende Rollenverständnis zu identifizieren, sondern auch zu entscheiden, wie dieses in Lernprozesse eingebettet, konkret ausgestaltet und didaktisch vermittelt werden kann.
Theoretische Anschlussstellen für eine solche Reflexion liefern Denise Biesenbach und Meike Siegfried-Laferi (2025), die verschiedene Interaktionsmodelle und Rollenzuschreibungen im Lehrkontext diskutieren. Sie weisen darauf hin, dass viele aktuelle Beiträge zur KI in der Hochschullehre von einem Human-AI Hybrid ausgehen, bei dem die Zusammenarbeit zwischen Mensch und Maschine auf einer Augmentation menschlicher Fähigkeiten basiert. Die metaphorische Rede von KI als Partnerin suggeriere dabei aber eine Gleichstellung, die nicht unproblematisch ist: Mit der Zuschreibung von Handlungsfähigkeit – etwa in der Rolle des „Facilitators“, oder „Mentors“ – drohe eine Anthropomorphisierung, die Fragen nach Kontrolle, Verantwortung und Transparenz aufwirft. Biesenbach/Siegfried-Laferi (2025, 172f.) halten in diesem Kontext treffend fest: „Aus der Partnerin auf Augenhöhe wird im Zuge kritischer Selbstreflexion schnell wieder ein Arbeitsinstrument, dessen verantwortungsvolle Handhabung der geschulten Lehrperson übertragen wird. Was ‚Partnerschaft‘ und ‚Ko-Kreation‘ angesichts dieser ambivalenten Verortung der KI zwischen Akteursposition und Werkzeugcharakter konkret bedeuten sollen, bleibt weitgehend offen“. Dies ist etwas, das auch ich immer wieder im Diskurs beobachte und wo ich mir auch selbst an die Nase fassen muss: Theoretische Darlegungen des Zusammenwirkens von Mensch und Maschine bleiben oft ohne praktische Folgen. Sind wir überhaupt willig, dass KI-Tools wirklich zur Partnerin auf Augenhöhe werden? Oder klingt das zwar ganz schön, am Ende nutzen wir KI-Systeme aber doch allein als Tools? Ist der Preis, den wir mit der Anthropomorphisierung bezahlen, ein zu hoher oder ist dies einfach nur konsequent angesichts der enormen Leistungsfähigkeit von KI-Systemen?
Für die Hochschuldidaktik folgt daraus m. E. ein doppelter Auftrag: Einerseits gilt es, didaktische Modelle zu entwickeln, die solche Rollenverständnisse explizit machen, differenzieren und kontextualisieren. Andererseits können diese Modelle Studierende wie Lehrende gleichermaßen dazu anregen, ihr eigenes Verhältnis zur KI zu reflektieren – als Teil einer digitalen Bildung, die nicht nur bei der Kompetenzentwicklung unterstützt, sondern Subjektwerdung im digitalen Raum ermöglicht.
Zuletzt noch mein Zitat der Woche, das zwar nicht 100 % zum Thema des Blogposts passt, aber doch daran anschließen kann. Das Zitat stammt aus dem Work Trend Index Annual Report 2025 von Microsoft und bezieht sich auf die Arbeit in einer sog. Frontier Firm. Es handelt sich dabei laut Microsoft um einen neuen Unternehmenstyp, der sich durch den Einsatz von KI-Technologien stark von traditionellen Unternehmen unterscheidet. In einem solchen Unternehmen wird jede:r Mitarbeitende zum Agent Boss, der:die KI-Agenten steuert und verwaltet.
Die Grundaussage des Zitates besteht darin, dass man, wenn man keine Menschen führen kann, auch keine KI führen kann. Dass man, wenn man Probleme mit dem Umgang mit seinen Mitmenschen hat, auch Probleme im Umgang mit KI haben wird: „If you have a people problem, you will have an AI problem. As multiagent systems redefine the workplace, the challenge will be to integrate and manage them securely and effectively. Companies that already know how to enable their human workforce will succeed breaking down silos, fostering collaboration, and ensuring the entire organization works toward common goals.” —Amy Webb, Futurist and CEO, Future Today Strategy Group (FTSG)”“ (Microsoft, 2025, p. 10)
Was für Unternehmen gilt, gilt auch für Bildungsinstitutionen: Wer KI führen will, muss Menschen führen können – und umgekehrt. Die Rollen, die wir KI zuschreiben, spiegeln dabei unser Selbstverständnis als Akteur:innen im digitalen Raum. Umso wichtiger ist es, dass wir diese Rollen nicht nur benennen, sondern sie didaktisch fundiert gestalten und bei Lernenden ein Bewusstsein dafür schaffen.