Output ist keine Haltung: Bildungsfragen im KI-Zeitalter

Diese Woche habe ich Martha Nussbaums Buch „Nicht für den Profit“ gelesen. Ein Buch von 2012, also aus einer Zeit, in der wir noch dachten, Facebook sei das Schlimmste, was dem öffentlichen Diskurs passieren könne. Und doch wirkt es erschreckend aktuell. Nussbaum kritisiert immer wieder die Obama-Regierung. Wenn sie damals gewusst hätte, was danach kommt, hätte sie die Punkte, die sie an Obama kritisiert, vielleicht als Lappalien abgetan.

Nussbaum analysiert die schleichende Erosion der Geisteswissenschaften, besonders im US-amerikanischen Bildungssystem, als „silent crisis“. Still ist daran in letzter Zeit, unter Trump, allerdings wenig: Stattdessen ohrenbetäubender Lärm von Fördermittelkürzungen, quantifizierbare Output-Logik und Reduktion von Bildung auf „employability“. Für Nussbaum erscheint die diesbezügliche Logik als demokratiegefährdender Paradigmenwechsel.

Nussbaums Argumentation basiert darauf, dass Bildung nicht nur Mittel zur ökonomischen Wettbewerbsfähigkeit, sondern Fundament für Demokratiefähigkeit ist. Sie warnt davor, dass Staaten aus ökonomischem Kalkül Bildung auf verwertbare Skills verengen und dabei übersehen, dass Demokratie auf kritischem Denken, Empathie und reflexiver Urteilskraft beruht – alles Fähigkeiten, die stark in Geisteswissenschaften, Philosophie und Kunst geschult werden. Damit warnt sie auch davor, dass Lerninhalte und Studienfächer nur danach bewertet werden, wie effizient sie wirtschaftlichen Nutzen generieren. Dadurch wird das Bildungssubjekt zu Humankapitel, das sich dem Marktlogik unterwirft. Die Idee des mündigen, autonomen Individuums wird in diesem Kontext systematisch geschwächt. Bildung darf aber nicht zum Dienstleister für den Arbeitsmarkt verkommen. Sie muss ein Ort bleiben, an dem Denken geübt wird und zwar nicht nur effizientes Problemlösen, sondern das große, unbequeme, zweifelnde Denken. Und ja, auch das empathische Denken. Aus Geisteswissenschaften und Künsten erwachse die Fähigkeit zu kritischem Denken und die Fähigkeit, sich in die (Not-)Lage anderer Menschen hineinzuversetzen, was elementar ist für Demokratie und für unsere Existenz als Weltbürger:innen.

Dabei ist es ein radikales und teilweise, wie ich fand, auch fast schon naives (zumindest sehr idealisiertes) Vertrauen in die Kraft der Geisteswissenschaften, das Nussbaum antreibt. Literatur, Kunst, Philosophie sind für sie keine dekorativen Nice-to-haves, sondern die Werkzeuge, mit denen wir uns in die Lage anderer versetzen, Ambiguitäten aushalten. Und, ganz wichtig: Verantwortung für unser Denken übernehmen.

Besonders stark ist immer wieder ihre Kritik an der Gleichsetzung von wirtschaftlichem Erfolg mit gesellschaftlichem Fortschritt. China führt sie hier als warnendes Beispiel an, weil wirtschaftlich boomend, demokratisch aber eher auf Sparflamme.

Hier noch ein Zitat: „Innovation erfordert flexible, aufgeschlossene und kreative Köpfe; Literatur und Kunst fördern diese Fähigkeiten“ (S. 133). Für Nussbaum ist genau das ein Bildungsziel, also das Ausbilden solcher aufgeschlossenen und kreativen Köpfe. Ein Bildungsziel, das nicht mit „mehr Programmierunterricht schon an (Grund-)Schulen“ erreicht wird, sondern mit mehr Lektüre, mehr Streit, mehr Fragen. Vielleicht sogar mit einem Pflichtfach „Literatur“ im Informatikstudium? Aktuell heißt es ja immer, wir brauchen in jedem Fach AI Literacy. Was aber ist mit der Informatik selbst? Die Forderung danach, hier Goethe & Schiller zu integrieren, habe ich jedenfalls noch nie gehört 😉

Was Nussbaum dabei besonders deutlich macht, ist der stille Verrat von Bildung, wenn wir Schüler:innen und Studierende zu passiven Rezipient:innen degradieren. Ruhig dasitzen, brav zuhören, dann nach Hause gehen und das Gehörte in der Prüfung wiederkauen. Wer nie lernt, eine eigene Haltung zu entwickeln, wer nie gefragt wird, was sie:er eigentlich denkt, sondern nur, was ‚dran‘ war, die:der wird auch später im Leben nur schwer in der Lage sein, Verantwortung für sein Denken zu übernehmen. Und wer nur passiv Informationen rezipiert, vergisst schnell, dass Geschichte keine Sammlung von Fakten ist, sondern etwas, das immer auch je nach Geschichtsschreibung konstruiert wird. Die Aneinanderreihung von Fakten, ohne die Fähigkeit, diese zu bewerten, ist, und da bin ich ganz bei der Autorin, fast so schlimm wie Unkenntnis.

Genau an dieser Stelle knüpft ein weiterer Artikel an, den ich diese Woche gelesen habe, und zwar der Text „Generative KI und menschliche Kompetenz“ von Ulf-Daniel Ehlers. Ehlers argumentiert darin, dass Bildung im Zeitalter von KI vor allem eins leisten muss: sich wieder auf das konzentrieren, „was den Menschen weiterhin einzigartig macht: seine Fähigkeit zu zweifeln, Unsicherheit auszuhalten und Widerstand zu leisten“ (S. 12). Bildung müsse daher Räume schaffen, in denen genau das kultiviert wird: das „Oszillieren zwischen Gewissheit und Unsicherheit“ (S. 13). Statt auf schnelle Antworten zu setzen, solle Bildung Denkprozesse fördern, den Lernenden Zweifel und Unsicherheit zumuten, ihnen zugestehen, in den Widerstand zu gehen. Ich mochte besonders den Gedanken, dass Zweifel nicht Mangel an, sondern Voraussetzung für Konsens sind. Und dass Widerständigkeit keine Störung, sondern Voraussetzung für Lernen ist. Bei Bildung geht es laut Ehlers‘ Text nicht darum, Menschen für den Wettbewerb mit Maschinen fit zu machen, sondern sie dazu zu befähigen, souverän und kreativ mit KI zu arbeiten. Ehlers bringt es auf den Punkt: „Menschliche Kompetenz im Zeitalter der KI bedeutet daher nicht nur Wissen über Technik, sondern vor allem Haltung“ (S. 13).

Und weil alle guten Dinge bekanntlich drei sind, noch ein dritter Text, der mir diese Woche begegnet ist, diesmal aus der empirischen Bildungsforschung: „Looking Beyond the Hype: Understanding the Effects of AI on Learning“ von Bauer et al. Der Titel hält, was er verspricht, und enthält damit das, was in der ganzen Publikationsflut rund um genKI und Lernen oft zu kurz kommt: eine systematische, evidenzbasierte Auseinandersetzung mit der Frage, wie KI Lernen eigentlich verändert – oder eben auch nicht.

Bauer et al. Betonen (oh Wunder …), dass KI nicht per se lernförderlich ist. Ob sie tatsächlich zu besseren Lernprozessen führt, hängt vielmehr von zwei Dingen ab: von der konkreten didaktischen Umsetzung und von den Menschen, die mit ihr arbeiten. Also von der AI Literacy der Studierenden und von den technischen wie pädagogischen Kompetenzen der Lehrenden. Eine neue Technologie sorgt eben noch lange nicht für einen effektiven Lernprozess und ein neues Tool fördert noch lange kein tiefes Denken.

Besonders spannend fand ich das ISAR-Modell, das die Autor:innen entwickeln. Es unterscheidet vier Effekte von KI auf Lernen: Inversion, Substitution, Augmentation und Redefinition. Inversion meint das, was uns im KI-Einsatz am meisten Sorgen machen sollte: dass Lernende durch KI weniger kognitiv gefordert werden und am Ende weniger lernen, obwohl sie mehr Tools nutzen. Substitution und Augmentation beschreiben moderate Verbesserungen: entweder durch das Ersetzen bestehender Methoden (bei gleicher Wirkung) oder durch zusätzliche Unterstützung. Wirklich spannend wird es bei der „Redefinition“, also dann, wenn KI nicht einfach etwas ersetzt, sondern Aufgaben ganz neu denkt. Lernprozesse werden dann so gestaltet, dass tiefes, konstruktives Lernen gefördert wird.

Das bedeutet auch: Wenn wir KI wirklich transformativ einsetzen wollen, reicht es nicht, bestehende Aufgaben einfach ‚mit KI‘ zu machen. Wir müssen die Aufgaben selbst neu denken. Und das ist, ganz im Sinne von Nussbaum und Ehlers, nicht nur eine methodische, sondern vor allem eine bildungstheoretische Frage. Es geht um Haltung, um Zweifel, um Ambiguitätstoleranz und darum, den Mut zu haben, Lernen nicht als Abhaken von Output-Zielen zu begreifen, sondern als Möglichkeit, Welt(en) zu verstehen.

Die gesamte Argumentation des Artikels kulimiert quasi in folgendem Zitat: „The most transformative potential of AI in education may lie in redefinition effects, where AI is used to redesign learning tasks in ways that encourage students to engage in deep (constructive or interactive) rather than shallow (passive or active) learning processes“ (S. 44).

Natürlich habe ich diese Woche nicht nur lesend am Schreibtisch verbracht. Daher möchte ich im Folgenden noch von drei Veranstaltungen/Meetings berichten, bei denen ich diese Woche u.a. war.

Beim Stammtisch der Community of Practice „Zukunftsorientierte Lernräume“ des Stifterverbands ging es dieses Mal um Technik und zwar um nachhaltige, skalierbare, zukunftsfähige Technik für Lehr- und Lernräume an Hochschulen. Christina Schwalbe (Uni Hamburg) berichtete uns davon, wie die Uni Hamburg mit AV over IP arbeitet, also mit Audio- und Videoübertragung über Netzwerke statt über Kabel. Das klingt erst mal nach Tech-Talk, hatte aber letztlich, so wie fast alles im Bereich von Räumen an Hochschulen, auch didaktische Implikationen: Technik soll nicht mehr pro Raum, sondern systemisch/holistisch gedacht werden. Infrastruktur ist also wichtiger als super Lösungen für jeden einzelnen Raum. Die größte Herausforderung im Rahmen des von Christina begleiteten (sehr komplexen) Prozesses an der UHHR war, surprise …, nicht die Technik selbst, sondern die Schaffung eines Bewusstseins dafür, dass sich verschiedene Stakeholder (Gebäudemanagement, Medientechnik, IT, Didaktik) an einen Tisch setzen müssen, um Konzepte für Lehr-/Lernräume zu planen. Ein klassisches Infrastrukturproblem also – im doppelten Wortsinn 😉

Am Montag traf sich auch die AG Future Skills-Forschung, ein noch jungen, informellen Gruppe im Rahmen der Future Skills Allianz des Stifterverbandes. Es war erst unser zweites Treffen und so ging es vor allem darum, was sich die einzelnen Mitglieder für die Arbeit in der AG wünschen, was unsere Ergebnisse sein sollen und wie wir uns den Weg dahin vorstellen. Im Laufe unserer Sitzung wurde deutlich, dass die Vorstellungen davon, was „Evidenzbasierung“ im Kontext von Future Skills eigentlich bedeutet (dafür ist die AG angetreten), stark variieren. Während sich anfangs viele ein evidenzbasiertes Vorgehen als Ziel wünschten, wurde bald auch infrage gestellt, ob eine solche Evidenz überhaupt im klassischen Sinne vorliegen kann – oder ob wir hier nicht eher in einem Bereich unterwegs sind, in dem andere, vielleicht qualitativere oder kontextuellere Zugänge gebraucht werden. Die Diskussion drehte sich dabei nicht um ein einfaches „wirken Future Skills, ja oder nein?“, sondern um ein strukturierendes Vorgehen: Wo gibt es bereits Forschung? Welche methodischen Zugänge wurden genutzt? Welche Zielgruppen wurden betrachtet? Welche Begriffe kursieren in welchem geografischen, disziplinären oder konzeptuellen Raum? So entstand der Wunsch nach einem systematischen Überblick, nicht als abschließende Bewertung, sondern eher als Mapping: Wo stehen wir aktuell? Welche Lücken gibt es? Und wie können wir eigene Beiträge so anlegen, dass sie nicht ins Leere laufen, sondern an bestehende Diskurse anschlussfähig sind? Ein spannender Gedanke war auch, nach vergleichbaren Formaten in anderen Feldern zu suchen, etwa in der partizipativen oder transdisziplinären Forschung. Ich bin gespannt, wie es hier weitergeht. Eine provokative Frage, die bei mir hängen blieb, kam von Vera Gehrs: „Warum wollen eigentlich alle Evidenz für die Wirksamkeit von Future Skills Förderung, bei Fachwissen fragt doch auch keiner danach?“ Ein berechtigter Punkt …

Gestern war dann noch das Auftakttreffen zum KI-Lab des HFD. Hierbei handelt es sich um ein neues Format, das auf kollegiale Fallberatung setzt. Rund 30 Teilnehmende aus unterschiedlichen Hochschulen arbeiten dabei gemeinsam an ihren jeweils konkreten Herausforderungen rund um den Einsatz von KI in Studium, Lehre und Verwaltung. Im Juli treffen wir uns für drei Tage in Münster, um diese Fälle vertieft zu bearbeiten und gemeinsam Lösungsansätze zu entwickeln. Ich selbst hatte mich mit der Frage beworben (und wurde glücklicherweise ausgewählt), wie man die Förderung von Future Skills und AI Literacy zusammenbringen kann. Gestern habe ich dann auch meine Peer-Group kennengelernt: Wir alle arbeiten in Service-Einrichtungen mit Bezug zur Hochschuldidaktik. In verschiedenen Breakout-Sessions haben wir uns über unsere eingebrachten Fälle ausgetauscht, aber auch über unseren aktuellen Alltag gesprochen. Wir alle merken, dass viele unserer bisherigen Formate einfach nicht mehr greifen, auch bzw. erst recht nicht beim Thema KI. Ein Kollege bietet deshalb immer mehr on-demand-1:1-Formate und damit Beratungen anstatt Seminare und Workshops an. Parallel berichtete ein Kollege von der Einrichtung eines AI Literacy Centers an der HWG Ludwigshafen. In der Diskussion zu Kompetenzmodellen wurde deutlich, dass es aktuell zwei Tendenzen gibt: Manche Kompetenzmodelle gehen immer stärker ins Detail und stellen seitenlange Listen mit Kompetenzen für das KI-Zeitalter zusammen, während andere immer allgemeiner werden und ‚althergebrachte‘ Skills wie kritisches Denken in den Fokus stellen.

Am Ende noch ein Hinweis auf den aktuellen Blogpost von Ethan Mollick (ich bin ja großer Fan von ihm), in dem es mal wieder um die Auswirkung von genKI auf den Arbeitsmarkt geht. Hier eine von Gemini erstellte und von mir überprüfte Zusammenfassung des Blogposts:

Kernaussage: Obwohl KI die individuelle Arbeitsleistung deutlich steigert und breit genutzt wird, schlagen sich diese Gewinne noch nicht signifikant in der Gesamtleistung von Unternehmen nieder. Der Schlüssel zur erfolgreichen KI-Integration liegt in einer organisationalen Transformation, die durch die Zusammenarbeit von Führungskräften (Leadership), spezialisierten Teams (Lab) und der breiten Mitarbeiterschaft (Crowd) vorangetrieben wird.

Die drei Schlüssel zur KI-Transformation:

  1. Leadership:
    • Erkennt die Dringlichkeit und Chancen von KI.
    • Vermittelt eine klare und lebendige Vision der KI-gestützten Zukunft für die Organisation.
    • Antizipiert, wie sich Arbeit durch KI verändern wird und kommuniziert dies.
    • Geht das Problem der versteckten KI-Nutzung („Secret Cyborgs“) an, indem Anreize der Mitarbeitenden berücksichtigt werden (Angst vor Bestrafung, fehlende Anerkennung, Befürchtung von Stellenabbau oder erhöhten Erwartungen).
    • Schafft klare Bereiche für KI-Experimente und erlaubt die Nutzung, wo ethisch und legal vertretbar.
    • Fokus der Schulungen sollte auf praktischer Erfahrung im Umgang mit KI liegen, nicht nur auf Prompt-Techniken.
    • Mitarbeitende müssen die Zusicherung erhalten, dass die Offenlegung von Produktivitätssteigerungen nicht zu Entlassungen führt.
    • Schafft Anreize (z.B. Urlaub, Beförderungen, finanzielle Belohnungen) für Mitarbeitende, die transformative KI-Anwendungen entdecken.
    • Führungskräfte sollten selbst aktiv KI nutzen und darüber sprechen.
  2. The Lab:
    • Ein zentrales Team, das sowohl kurzfristige Anwendungen entwickelt als auch langfristige Potenziale erkundet.
    • Besteht aus Fachexperten und Technologie- sowie Nicht-Technologie-Experten.
    • Nutzt Erkenntnisse der „Crowd“, um schnell Prototypen zu entwickeln, zu testen und zu implementieren.
    • Entwickelt unternehmensspezifische KI-Benchmarks.
    • Baut „Was-wäre-wenn“-Szenarien und Demonstrationen, um das Potenzial von KI zu verdeutlichen.
  3. The Crowd:
    • Die Mitarbeitenden, die im täglichen Geschäft innovative Wege finden, KI zur Verbesserung ihrer Arbeit zu nutzen.
    • Ihr implizites Wissen über ihre Aufgaben ist entscheidend für die Identifizierung nützlicher KI-Anwendungen.
    • Die Herausforderung besteht darin, die „Secret Cyborgs“ (Mitarbeitende, die KI heimlich nutzen) zu aktivieren und die breite Akzeptanz zu fördern.

Zentrale Erkenntnisse:

  • Individuelle Produktivitätssteigerungen durch KI führen nicht automatisch zu organisationalen Gewinnen.
  • Unternehmen müssen ihre Prozesse, Anreize und die Natur der Arbeit selbst überdenken.
  • Es gibt keine allgemeingültige „KI-Playbook“; Unternehmen müssen ihren eigenen Weg finden.
  • Die erfolgreiche KI-Integration erfordert einen kontinuierlichen Lernprozess und Feedbackschleifen zwischen Leadership, Lab und Crowd.
  • Der Schlüssel liegt darin, die KI-Einführung als eine Herausforderung des organisationalen Lernens zu betrachten, nicht nur als eine technische.
  • Der Zeitpunkt für den Beginn ist jetzt, nicht erst wenn alles klar ist – solange alles noch unübersichtlich und ungewiss ist. Der Vorteil liegt bei denen, die am schnellsten lernen wollen.
Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.
Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.