Im Oktober habe ich auf der DigiTagung von „Technik – Zukunft in Bayern“, die sich an bayerische Lehrkräfte richtete, eine Keynote gehalten. Eigentlich wollte ich diese Keynote noch irgendwo als wissenschaftliches Paper publizieren. Da ich bislang noch nicht dazu kam, gibt es jetzt zumindest einen Blogartikel dazu, sodass die Gedanken aus der Keynote nicht verloren gehen. Ich habe für diesen Beitrag mein Vortragsskript an Gemini 2.0 Experimental Advanced gegeben und die Überführung des Skripts in einen Blogartikel angefragt. Anschließend habe ich den Artikel natürlich noch überarbeitet.
In meiner Keynote habe ich zwei Begriffe in den Mittelpunkt gerückt, die für manche der Zuhörenden zunächst vielleicht etwas sperrig wirkten: ‚Toolifizierung‘ und ‚Ambiguitätstoleranz‘. Der Vortrag verfolgte das Ziel, die Lehrkräfte für die Risiken der Toolifizierung zu sensibilisieren und gleichzeitig aufzuzeigen, wie wir durch die Förderung von Ambiguitätstoleranz – bei uns als Lehrenden selbst, aber auch bei den Lernenden – einen verantwortungsvollen und zukunftsfähigen Umgang mit KI im Bildungsbereich gestalten können. Für mich setzt die Nutzung generativer KI Ambiguitätstoleranz voraus, kann sie gleichzeitig aber auch fördern. Bevor ich tiefer einsteige, möchte ich kurz auf beide Begriffe eingehen.
Was meine ich mit ‚Toolifizierung‘? Ich glaube, zum ersten Mal stieß ich bei Nele Hirsch auf diesen Begriff. Vereinfacht gesagt beschreibt er die Tendenz, sich nahezu ausschließlich auf digitale Werkzeuge zu konzentrieren. Der Fokus liegt auf dem Wie des Einsatzes (‚wie hole ich das meiste aus ChatGPT heraus? Wo kann ich was einstellen?‘), während das Warum – also die pädagogischen Ziele, ethischen Überlegungen und der tatsächliche Mehrwert für den Lernprozess – in den Hintergrund tritt. In einer solchen ‚toolifizierten‘ Perspektive scheint es so, als ob die Anzahl der beherrschten Tools das Maß aller Dinge wäre, um für die Zukunft der Bildung gewappnet zu sein. Doch Tool-Nutzung um der Tools willen und die ständige Suche nach dem ‚besten‘ Tool kann uns blind machen für die komplexen Herausforderungen, die die KI-induzierte Transformation des Bildungswesens mit sich bringt. Insbesondere die vielschichtigen Implikationen von KI-Tools geraten so aus dem Blickfeld.
Was ist mit Ambiguitätstoleranz? Dieser Begriff meint die Fähigkeit, mit Unsicherheiten, Mehrdeutigkeiten und komplexen Situationen umzugehen, ohne vorschnell nach einfachen Lösungen zu greifen (s. z. B. die Definition von Ulf-Daniel Ehlers; er spricht von Ambiguitätskompetenz). Es geht darum, Widersprüche auszuhalten, verschiedene Perspektiven zu berücksichtigen und Unsicherheit als Chance für kreatives Problemlösen zu begreifen. Es geht darum, zu erkennen, dass es nicht die eine Wahrheit gibt. Diese Fähigkeit spielt auch eine wichtige Rolle in der Erziehung hin zu Demokratie, denn sie lehrt uns, die Existenz unterschiedlicher Perspektiven zu akzeptieren.
Toolifizierung als reflexartiges Vorwärtspreschen: Wenn der Hammer alles zu Nägeln macht
Vielleicht kennen Sie das Phänomen: Innerhalb kürzester Zeit probieren Sie eine Vielzahl neuer KI-Tools aus. Der Moment der Erleichterung, nun auch endlich das neuste, beste, am meisten gehypte Tool zu kennen, hält aber nur kurz an. Sie fühlen sich weiterhin überfordert. Das ist nicht überraschend. Wir haben die Toolifizierung bereits als übermäßige Fokussierung auf Werkzeuge definiert, die dazu führt, dass pädagogische Reflexion und ethische Fragen in den Hintergrund gedrängt werden. Aber warum spreche ich in der Überschrift von einem „reflexartigen Vorwärtspreschen“?
Stellen Sie sich vor, Sie bekommen einen Hammer geschenkt. Plötzlich sehen Sie überall Nägel, die eingeschlagen werden müssen, auch wenn sie diese zuvor gar nicht gesehen haben. Mit der Toolifizierung verhält es sich ähnlich: Die ständige Verfügbarkeit neuer KI-Tools verführt uns dazu, sie überall einzusetzen, ohne zu hinterfragen, ob das sinnvoll ist oder welche unerwünschten Nebeneffekte entstehen könnten. Möglicherweise zementieren wir dadurch sogar die Schwächen unseres Bildungssystems, indem wir weitermachen wie bisher, nur eben mit KI-Tools (s. diesen Artikel von Nele Hirsch). Es gibt zwei Perspektiven, die unter dem Aspekt der Toolifizierung zu beachten sind: Das Nutzen von Tools nur um ihrer selbst willen und das ausschließliche Fokussieren auf die Tools, ohne die dahinterliegende Technologie und ihre disruptiven Auswirkungen zu berücksichtigen. Im Dagstuhl-Dreieck betrachtet, liegt der Fokus also allein auf der Anwendungsseite – die Ebene der gesellschaftlich-kulturellen Perspektive wird jedoch ausgeblendet.
Dieser Tool-Fokus zeigt sich immer noch in den Seminaren, die ich gebe. Dort erlebe ich von Hochschullehrenden häufig den Wunsch nach ‚Tool-Listen‘. Teilnehmende fragen also nach konkreten Werkzeugen für bestimmte Aufgaben, anstatt sich mit den dahinterliegenden Implikationen für die eigenen didaktischen Konzepte auseinanderzusetzen. Wie Nele Hirsch aber treffend bemerkt: „Schlechte Bildung bleibt schlechte Bildung, ob mit KI-Tools oder ohne.“ Immer wieder machen Schlagzeilen à la „KI kann jetzt auch …“ die Runde, wobei uns all die neuen Features gar nicht mehr verwundern sollten. Ja, das Wachstum ist exponentiell, ja, die Geschwindigkeit ist ungebrochen hoch (hier diesen einen Post verlinken mit Mensch und KI und Twitter aus Newsletter Dezember HSRM). Alleine mit den Tools und ihren immer krasseren Leistungen lassen sich die drängenden Fragen der KI-Transformation jedoch nicht beantworten. Vielmehr spielt die Toolifizierung den großen Konzernen wie Google, OpenAI und Microsoft in die Hände. Hinzu kommt, dass die Toolifizierung die Tendenz verstärkt, sich auf messbare Ergebnisse zu konzentrieren: „Ich kenne 15 KI-Tools und du nur sieben? Dann bin ich wohl besser als du.“ Diese KI-FOMO, wie sie Andrea Klein nennt, ist in vielerlei Hinsicht ein Problem.
Gerade der Beruf von Lehrenden, sei es an der Schule oder der Hochschule, ist ohnehin schon von hohen Anforderungen und Zeitdruck geprägt. Toolifizierung verstärkt hier die Gefahr der Überforderung. Neue Tools sollen eigentlich Zeit sparen und den Arbeitsalltag erleichtern, führen in der Praxis aber oft zu zusätzlichem Aufwand (Entlastungsparadoxon nach Falck). Dies führt mitunter zu der Reaktion, sich gar nicht erst in ein Tool einzuarbeiten, da morgen doch ohnehin schon ein neues zu erwarten sei.
Bei aller Kritik an der Toolifizierung: Auch dysfunktionale Verhaltensweisen haben häufig eine Funktion. Bei der Fokussierung auf KI-Tools besteht diese darin, dass Menschen dadurch ein Gefühl von Sicherheit und Kontrolle vermittelt wird: Man glaubt, für die Herausforderungen des KI-Zeitalters gewappnet zu sein, wenn man nur genügend Tools beherrscht. Doch diese Sicherheit ist trügerisch.
Ambiguitätstoleranz als Katalysator metakognitiver Kompetenz
Wie leicht fällt es Ihnen, Unsicherheiten auszuhalten, mit dem Nebeneinander verschiedener, konfligierender Perspektiven umzugehen, und Mehrdeutigkeiten stehen zu lassen? Ambiguitätstoleranz ist ein Future Skill, der in unserer komplexen, dynamischen, heterogenen und damit auch ambigen Welt immer wichtiger wird, um auch in unsicheren Zukünften und Situationen handlungsfähig zu bleiben. Einer der ersten Versuche, Ambiguitätstoleranz zu definieren, stammt von English & English (1958, 24), die diese Kompetenz definieren als “willigness to accept a state of affair capable of alternate interpretations, or of alternate outcomes: e.g., feeling comfortable (or at least not feeling uncomfortable) when faced by a complex social issue in which opposed principles are intermingled”. Ulf-Daniel Ehlers definiert Ambiguitätstoleranz in seinem Future Skills-Framework als die Fähigkeit, „Vieldeutigkeit, Heterogenität und Unsicherheit zu erkennen, zu verstehen und produktiv gestaltend damit umgehen zu können sowie in unterschiedlichen und auch konfligierenden Rollen agieren zu können.“ Als Bezugskompetenzen nennt Ehlers lösungsorientiertes Denken, Heterogenität, Rollenverständnis, konstruktive Kommunikation, Umgang mit Kontextunsicherheit, Empathie und emotionale Intelligenz.
Ambiguitätstoleranz ist ein Kernelement von Demokratie- und Diversitätskompetenz. Extremistische und populistische Gruppen streben nach einer Vereindeutigung der Welt, wie Thomas Bauer in seinem kulturkritischen Essay beschreibt. Ambiguitätstoleranz hilft hier, den ideologischen Deutungsangeboten „antidemokratischer Schließungsbewegungen“ entgegenzutreten, die Mehrdeutigkeit „mit binären Vorstellungen von scheinbar klarer Eindeutigkeit begegnen“ (Quelle). Es geht darum, widersprüchliche Normen und Werte nebeneinander bestehen zu lassen, ohne die eigene Perspektive als die einzig richtige zu betrachten. So unterstützt uns Ambiguitätstoleranz dabei, Mehrdeutigkeiten zu akzeptieren, ein Freund-Feind-Denken zu überwinden und im Dialog mit Andersdenkenden zu bleiben.
Um Ambiguitätstoleranz greifbarer zu machen, lohnt sich ein Blick auf ihre drei Dimensionen: die kognitive, die emotionale und die handlungsbezogene Dimension (ich orientiere mich hier an Next Education 2024).
- Die kognitive Dimension: In ambivalenten Situationen neigen wir zu kognitiven Verzerrungen und Denkmustern wie Schwarz-Weiß-Denken oder Übergeneralisierung (‚Ein KI-Tool getestet, damit nicht zufrieden – Schlussfolgerung: KI ist doch nicht so gut, wie alle immer sagen‘). Diese Verzerrungen sind problematisch, weil sie das Denken oft auf Kosten einer differenzierten Betrachtung der Realität vereinfachen. Daniel Kahnemans Unterscheidung zwischen zwei Denksystemen ist inzwischen nicht zuletzt durch sein populäres Buch „Schnelles Denken – Langsames Denken“ vielen bekannt. Er unterscheidet zwischen dem schnellen, intuitiven System 1 und dem langsamen, reflektierten System 2. System 1 ist emotional geprägt, basiert auf Heuristiken und ermöglicht schnelle Entscheidungen, ist aber anfällig für Verzerrungen. System 2 ist analytisch und wird bei komplexen, widersprüchlichen Informationen aktiviert, braucht allerdings viel mehr Aufmerksamkeit und kognitive Energie als System 1. In Ambiguitätssituationen sollte man sich bewusst seinem System 2 zuzuwenden, um kognitive Verzerrungen möglichst weitgehend einzudämmen. Das bedeutet, sich der eigenen Gedanken bewusst zu werden und so Metakognition zu stärken.
- Die emotionale Dimension: Unsere Emotionen beeinflussen, wie wir Informationen wahrnehmen und interpretieren. Die emotionale Ebene der Ambiguitätstoleranz verweist auf die Fähigkeit, eigene Emotionen in unklaren Situationen zu erkennen, zu verstehen und konstruktiv damit umzugehen. Kompetenzen wie Selbstwahrnehmung, Effektives Stressmanagement hingegen führt zu rationaleren Entscheidungen in unsicheren und vor allem komplexen Situationen.
- Die handlungsbezogene Dimension: Hier geht es um die Fähigkeit, in unsicheren Situationen angemessen und effektiv zu handeln. Ambiguitätskompetente Personen zeichnen sich durch Rollenflexibilität aus, kommunizieren klar unter Unsicherheit und nutzen Modelle wie die vier Ohren von Schulz von Thun zur Analyse, um Missverständnisse zu vermeiden. Sie suchen aktiv nach Lösungen.
Ein hohes Maß an Mehrdeutigkeit und Unsicherheit birgt Herausforderungen, aber auch Chancen. Das Team von Next Education nennt hier
- die Förderung von Kreativität und Innovation, da Ambiguität dazu ermutigt, etablierte Denkmuster zu durchbrechen und innovative Lösungen zu finden.
- die Stärkung von Anpassungsfähigkeit und Resilienz, da die Auseinandersetzung mit Ambiguität die Anpassungsfähigkeit fördert und Resilienz stärkt
- die Entwicklung von Problemlösungskompetenzen, da Ambiguität die Fähigkeit erfordert, komplexe Probleme nicht nur zu verstehen, sondern auch angemessen darauf zu reagieren.
Ambiguitätstoleranz fungiert schließlich auch, so meine These, als Katalysator metakognitiver Kompetenz, die wiederum eine zentrale Kompetenz im Umgang mit KI-Technologien darstellt. Metakognition lässt sich am besten als das Nachdenken über das eigene Denken beschreiben. Es geht darum, sich der eigenen kognitiven Prozesse bewusst zu werden und diese aktiv zu steuern. Dabei umfasst Metakognition sowohl das Wissen über die eigenen Denkprozesse als auch die Fähigkeit, diese zu überwachen und zu regulieren. Wir können Metakognition deshalb in zwei Hauptaspekte unterteilen: den deklarativen und den exekutiven Bereich.
Der konstruktive Umgang mit Unsicherheiten und Widersprüchen erfordert metakognitive Prozesse wie Selbstreflexion, Perspektivenwechsel und die Beurteilung des eigenen Denkens und Bewertens. Indem Menschen also in ambigen Situationen sowohl sich ihrer eigenen Denkprozesse bewusst werden als auch Strategien für deren Überwachung und Regulierung entwickeln, fördern sie auch ihre Metakognition. Anders ausgedrückt: Ein wesentlicher Faktor für die Entwicklung von Ambiguitätstoleranz ist Metakognition.
Von der Toolifizierung zur Ambiguitätstoleranz
Bisher haben wir die Problematik der Toolifizierung beleuchtet, das Problem sprichwörtlich also nur erkannt, aber noch nicht gebannt. Wie können wir mit dieser Herausforderung umgehen? Ein Teil der Antwort liegt meines Erachtens in der Förderung von Ambiguitätstoleranz – zuerst bei uns als Lehrenden und dann auch bei den Lernenden.
Toolifizierung gibt uns ein Gefühl der Sicherheit. Wir sehen die Tools, eignen uns viele an und glauben, damit Situationen lösen zu können. Dem ist aber nicht so. Und hier kommt die Ambiguitätstoleranz ins Spiel: Wenn ich tolerant gegenüber Ambiguitäten bin, muss ich mich nicht in die Toolifizierung flüchten. Ein wichtiger Aspekt ist dabei das Anerkennen der Koexistenz von positiven und negativen Aspekten von KI-Tools. KI-Tools gehen mit diversen Herausforderungen bzw. Risiken einher: mit technischen, ethischen, ökologischen, (datenschutz-)rechtlichen, politischen, kognitiven und epistemischen (Buck, 2025). All diese Risiken sollten jedoch nicht zu einer einseitigen Beurteilung von KI und erst recht nicht zu einer Verbannung von KI aus Schule und Hochschule führen. Es gehört aber dazu, diese Seite auch aufzuzeigen und nicht nur die positiven Seiten des KI-Einsatzes zu betonen. Ambiguitäten, mit denen wir selbst konfrontiert sind, sollten wir dementsprechend auch gegenüber Lernenden thematisieren: Ja, unsere Hochschule verfolgt eine Nachhaltigkeitsstrategie. Gleichzeitig bietet unsere Hochschule aber auch ein KI-Interface an. Ist das widersprüchlich? Ja und nein. Keine Möglichkeit eines KI-Zugangs bereitzustellen, wäre ebenso fatal, wie sich als Hochschule keine Gedanken über Nachhaltigkeit zu machen. Hier gilt es, die Ambiguität zu erkennen, zu analysieren – und sie auszuhalten. Und so muss man auch für weitere Ambiguitäten sensibilisieren und diese aushalten. Man muss lernen, dass man Verhaltensweisen zeigen kann, die sich widersprechen.
Ambiguitätstoleranz kann auch bedeuten, zu akzeptieren, dass KI-Tools sowohl hilfreich und lernförderlich sein können als auch das Gegenteil davon. Wir können das den Lernenden aufzeigen – wie sie aber die Tools tatsächlich nutzen, können wir nicht vollständig bestimmen. Um der Toolifizierung entgegenzuwirken, ist es gerade im Bereich des Lernens und auch wissenschaftlichen Arbeitens m. E. essentiell, sich am zugrundeliegenden Problem zu orientieren: Am Anfang sollte daher immer eine Problemdefinition stehen. Die Fähigkeit zur Problemdefinition ist eine wichtige Kompetenz, die durch KI-Tools nicht obsolet wird, sondern, wie Oguz Azar plädiert, gerade gefördert werden sollte. Anschließend ist zu fragen, warum ich überhaupt ein KI-Tool nutzen möchte, was die Mehrwerte, ggf. aber auch die Kosten des Einsatzes sind. Erst dann kann ich, wie das PAIR-Framework sehr gut darstellt, ein passendes KI-Tool auswählen.
Fazit: Unsicherheit als Lernchance
KI ist nie nur gut oder nur schlecht. Für mich gehört Ambiguitätstoleranz daher ganz zentral zur AI Literacy. Die Toolifizierung bietet vermeintliche Sicherheit und Orientierung innerhalb der komplexen KI-Welt mit ihrer atemraubenden Dynamik; die großen Fragen nach den Implikationen generativer KI liegen jedoch außerhalb der bloßen Beschäftigung mit Tools. Ambiguitätstoleranz unterstützt uns m. E. dabei, mit dieser Unsicherheit umzugehen und verantwortungsbewusste Entscheidungen im Umgang mit KI-Tools und deren Auswirkungen zu treffen.
Beendet habe ich meine Keynote, auf die dieser Blogartikel zurückgeht, mit folgendem Plädoyer an die Lehrkräfte: Lassen Sie uns nicht nach der nächsten Tool-Liste suchen bzw. eine solche verlangen, sondern danach streben, unsere Ambiguitätstoleranz und dann auch die unserer Lernenden zu stärken. Nutzen wir die Unsicherheit somit als Lernchance!