Eine sehr ereignisreche und volle Woche liegt hinter mir. Highlight war auf jeden Fall die Frankfurter Buchmesse, wo ich dieses Jahr auf der Innovation Stage einen Kurzvortrag zu meinem Buch „Wissenschaftliches Schreiben mit KI“ halten durfte.
Von allem, was ich am Samstag in Frankfurt aufgenommen habe, möchte ich die Buchvorstellung „Alternative Medien“ von Luis Paulitsch hervorheben. Paulitsch beschreibt in seinem Buch und referierte darüber auch in Frankfurt, wie sich der Begriff alternative Medien im Laufe der Zeit verschoben hat: von einer Bezeichnung für linke Gegenöffentlichkeit – etwa in der Tradition der taz oder freier Radios – hin zu einer Chiffre für rechte, populistische und teils verschwörungsideologische Plattformen. Was einst als plurale Ergänzung gedacht war, wird heute nicht selten zur gezielten Abgrenzung gegenüber klassischen Medien genutzt. Und diese Abgrenzung funktioniert weniger über Inhalte als über Selbstinszenierung. „Wir sind die anderen“, „Wir sagen, was sich sonst keiner traut“, genau solche Narrative finden in digitalen Öffentlichkeiten zunehmend Resonanz. In der Diskussion wurde deutlich, dass das Label alternativ nicht nur beschreibt, sondern bewertet. Es verleiht Autorität über die bloße Andersartigkeit. Und das ist keineswegs trivial, sondern wirft grundlegende Fragen nach Medienverantwortung, Meinungsbildung und demokratischer Öffentlichkeit auf.
Am meisten hingefiebert habe ich natürlich auf meinen eigenen Vortrag. Dieser fand vor einem unerwartet großen und recht heterogenen Publikum statt. Die eigentliche Zielgruppe, Studierende, war zum Glück auch gut vertreten, sogar mit vielen Fragen. Ich begann den Vortrag mit einer These: KI macht das Schreiben nicht einfacher, aber sie macht es unausweichlich, sich zu entscheiden, we ich als schreibende Person, als denkende Person sein möchte. Insgesamt gab es dann eine Mischung aus konkreten Tipps für den Schreiballtag mit KI und einer etwas grundsätzlicheren Reflexion. Der vielleicht zentrale Gedanke, mit dem ich meinen Vortrag beendet habe, lautete: KI spiegelt uns unsere eigenen Muster zurück. Sie zeigt, was wir erwarten – nicht, was wir übersehen. Und genau das ist das Risiko: Dass wir uns im KI-Text wiederfinden, bevor wir uns selbst befragt haben. Nur wenn ich mit der eigenen Stimme ringen, mich positionieren, Verantwortung für ein Argument übernehmen kann, bin ich bereit für KI, bin ich bereit, mein Denken sogar erweitern zu lassen. Wer sich meine Slides anschauen möchte, wird hier fündig. Nach dem Vortrag durfte ich sogar Bücher signieren – unerwartet, total schön, aber auch ein wenig surreal.

Wechsel der Szenerie: Eine andere sehr inspirierende Veranstaltung in dieser Woche war der BAVC-Ausschuss „Berufliche Bildung“, der bei uns im Haus stattfand. Hier kamen Ausbildungsleitende aus vielen verschiedenen Unternehmen zusammen und Personen, die in unseren Mitgliedsverbänden mit dem Thema Ausbildung vertraut sind. Hier zeigte sich wieder einmal, dass die wichtigste Währung in meinem neuen Job Gespräche sind: Durch die direkten Kontakte mit den Ausschussmitgliedern habe ich so viele Einsichten bekommen, die ich allein über das Lesen von Texten nie bekommen hätte. Zwei Punkte fand ich besonders spannend und möchte sie deshalb in diesem Blogpost festhalten. Zum einen wurde intensiv über die veränderten Rollenbilder von Ausbilder:innen diskutiert. Es war auffällig, wie sehr sich die Herausforderungen hier denen an Hochschulen ähneln. Die klassischen Rollenmodelle – Wissensvermittler:in, Kontrolleur:in, disziplinarische Aufsichtsperson – weichen zunehmend komplexeren Anforderungsprofilen. Es geht heute auch in der Ausbildung nicht mehr nur darum, Fachinhalte zu vermitteln, sondern junge Menschen in ihrer Selbstkompetenz zu stärken, sie zu begleiten, sie zu coachen – und das häufig in einem Umfeld, das selbst gerade massiv im Umbruch ist. Besonders eindrücklich war ein Beispiel von Bayer: Dort wurde im Zuge eines umfassenden Reorganisationsprozesses eine Führungsperson, die Leiterin des Ausbildungsbereiches, mit der Leitung eines Teams betraut, das 55 Mitarbeitende umfasst und zwar in direkter Linie. Hier braucht es nicht nur Organisationstalent, sondern vor allem ein hohes Maß an Selbstführung. Und auch ein neues Verständnis von Führung überhaupt.
Denn – und das war der zweite Punkt, der mir sehr nachging – bei Bayer wurde nicht einfach nur ein neues Organigramm eingeführt, sondern ein ganzes Betriebsmodell auf Dynamic Shared Ownership (DSO) umgestellt. Dieses Modell basiert auf der Idee, dass Verantwortung nicht zentral, sondern im Team getragen wird. Entscheidungen werden dort getroffen, wo das nötige Wissen liegt und nicht mehr zwangsläufig entlang von Hierarchien. Klassische Ebenen werden reduziert, stattdessen setzt man auf dezentrale, agile Strukturen. Was man hier unabdingbar braucht, ist Selbstkompetenz, Reflexionskompetenz, Metakognition und damit letztliche Future Skills. An Hochschulen wird immer noch diskutiert, ob man Future Skills ins Studium einbringen soll oder nicht (jedenfalls sind das die Debatten, die ich in meinem alten Job immer miterlebt habe). Allein wenn wir uns solche Beispiele anschauen, merkt man aber, wie essentiell Future Skills für Studierende sind, die sich in der heutigen Arbeitswelt zurechtfinden müssen.
Noch eine letzte Sache zum Thema Ausbildung: Diese Woche ist der erste Blogpost von mir erschienen, den ich in meiner neuen Position geschrieben habe. Und der erste Text überhaupt, den ich zum Themenbereich „Ausbildung“ geschrieben habe. Unter dem Titel „Mit KI-Agenten lernen: Selbstorganisation, Reflexion und Verantwortung in der Ausbildung stärken“ habe ich das Thema Agenten und dessen Implikationen für die Ausbildung dargelegt. Auch hier geht es um den Rollenwechsel von Ausbilder:innen weg von Expert:innen und hin zu Coaches,
Nun zur Lektüre der Woche: Diese Woche habe ich das Buch „Kann KI die Natur retten?“ von Frauke Fischer und Hilke Oberhansberg gelesen. Der Titel ist bewusst als Frage formuliert und ist damit bereits ein erster Hinweis darauf, dass die Lektüre keine einfachen Antworten liefert. Stattdessen bietet das Buch eine systematische Darstellung der Schnittstellen zwischen KI und Klimaschutz: Zunächst werden die ökologischen Herausforderungen skizziert, anschließend die Potenziale von KI-Anwendungen erläutert, bevor im dritten Teil auch die ökologischen Kosten und Risiken von KI zur Sprache kommen.
Besonders hervorgehoben wird die klare Differenzierung zwischen biologischen und technischen Systemen. Während biologische Systeme grundsätzlich auf Kreisläufen beruhen, folgen technische Systeme häufig einer linearen Logik, mit den bekannten Konsequenzen für Ressourcenverbrauch und Entsorgung. Diese Gegenüberstellung ist nicht neu, wird im Buch aber prägnant zusammengefasst.
An vielen Stellen wird deutlich, dass der Schutz von Biodiversität heute ohne eine technologische Unterstützung kaum mehr zu realisieren ist. Das Erkennen und Zählen von Arten reicht nicht aus – notwendig sind Informationen auf Ebene individueller Tiere, um Gesundheitszustand und Populationsdynamiken erfassen zu können. KI-Anwendungen, die Bild- und Tonmaterial auswerten, ermöglichen genau das: Sie können etwa kranke Tiere an ihrer Lautäußerung erkennen oder Individuen unterscheiden, die für den Menschen nicht unterscheidbar sind. Dies eröffnet neue Möglichkeiten für ein datenbasiertes Monitoring.
Gleichzeitig betont das Buch, dass KI keine universelle Lösung darstellt. Sie ist kein Allheilmittel, sondern ein Werkzeug – mit Potenzial, aber auch mit Nebenwirkungen. Zu Letzteren zählen unter anderem der hohe Energieverbrauch und die Nutzung seltener Erden, deren Recyclingquote bei nur einem Prozent liegt (das fand ich echt krass!). Insofern ist der Einsatz von KI im Klimaschutz selbst ambivalent und muss hinsichtlich seiner ökologischen Bilanz differenziert betrachtet werden.
Interessant ist auch der wirtschaftliche Aspekt: Obwohl viele Leistungen der Natur essenziell für das globale Wirtschaftssystem sind, finden sie in volkswirtschaftlichen Bilanzen kaum Berücksichtigung. Die Autorinnen argumentieren, dass eine präzisere Vermessung der Natur durch KI helfen könnte, diesen Widerspruch zumindest teilweise aufzulösen, etwa durch die Entwicklung von Indikatoren, die in politische und ökonomische Entscheidungen einfließen.
Als zentrale Erkenntnis bleibt für mich: KI kann helfen, Prozesse zu verbessern, Datenlagen zu präzisieren und neue Schutzmechanismen zu entwickeln. Gleichzeitig erzeugt sie aber auch neue Herausforderungen, sowohl ökologischer als auch ethischer Art. Für Bildungs- und Wissenschaftskontexte bedeutet das vor allem eines: Der Einsatz von KI im Umweltbereich ist ein Beispiel für eine Technologie, die nicht eindimensional zu bewerten ist. Er verlangt – wie so oft – Ambiguitätstoleranz, was für mich ja ohnehin der Future Skill ist.
Der letzte Satz des Buches lautet wie folgt: „Kann KI die Natur retten? Nein, das müssen wir schon selber tun. Aber KI kann eine der mächtigsten Helferinnen sein, die wir haben werden. Wir sollten sie mit Intelligenz nutzen“ (S. 205). Ich denke, dem ist nichts hinzuzufügen. Und damit kommen wir zum Gesamturteil: Das Buch ist teilweise sehr langatmig, was m. E. aus der erschlagenden Fülle an Beispielen resultiert. Wenn man aber immer wieder Passagen überspringt, erhält man einen guten Überblick über den Einsatz von KI im Bereich des Klimaschutzes. Es ist sehr positiv hervorzuheben, dass KI nicht schwarz oder weiß dargestellt, sondern ein sehr differenziertes Bild vermittelt wird.
Zuletzt noch eine Leseempfehlung: der kritische, philosophisch und psychologisch fundierte Essay „A Cyberpsychologist’s Perspective on Agentic AI—in Fact, a Rebuttal“ von Elaine Kasket. Kasket schreibt über das Konzept der agentischen KI und die Art, wie Organisationen und Gesellschaften damit umgehen. Kasket argumentiert aus der Perspektive einer Cyberpsychologin, dass der Diskurs über KI und Agency tief von Machtstrukturen, ökonomischen Interessen und kulturellen Narrativen geprägt ist. Ihre Argumentation entfaltet sich in sechs Schritten und mündet in einer „Agency-Regenerative Checklist“ für Organisationen. Hier die sechs Schritte:
- Jeder Agent hat eine Agenda
Kasket beginnt mit der Beobachtung, dass Künstliche Intelligenz nicht neutral handelt. KI wird von Menschen mit bestimmten Werten, Interessen und Zielen geschaffen und implementiert. „Agentic AI“ bedeutet daher nicht autonome Intelligenz, sondern das Handeln von Systemen im Auftrag bestimmter Akteure – meist mächtiger, wirtschaftlich dominanter Gruppen. Die entscheidende Frage lautet: Wessen Agenda setzen wir eigentlich um, wenn wir KI in Organisationen einführen? - Der blinde Fleck: Die unsichtbare Arbeit hinter der KI
Aufbauend auf Kate Crawfords Atlas of AI verweist Kasket auf die physischen, ökologischen und sozialen Kosten von KI-Systemen: Ressourcenabbau, Energieverbrauch, Ausbeutung billiger Arbeitskräfte (z. B. Datenlabeler, Content-Moderatoren). Der Glaube an „saubere“ Technologie ist psychologisch bequem, weil er diese Realitäten ausblendet – ähnlich wie der Fleischkonsument, der die Fabrik nicht sehen will. Dieses bewusste Nichtwissen ermöglicht es, sich der ethischen Verantwortung zu entziehen. - Das Problem mit dem Begriff „Ökosystem“
Der in der Innovationsrhetorik häufig genutzte Ausdruck „AI ecosystems“ verharmlost laut Kasket die reale ökologische und soziale Einbettung technischer Systeme. Inspiriert von Kate Raworths Doughnut Economics kritisiert sie, dass der Begriff „Ökosystem“ wirtschaftlich vereinnahmt wird: Er suggeriert natürliche Harmonie, während er in Wirklichkeit Ausbeutung verschleiert. Kasket plädiert für „agency-regenerative AI“ – Systeme, die menschliche Handlungsfähigkeit, Kreativität und Verbundenheit mit ökologischen und sozialen Kontexten stärken statt schwächen. - Der Wachstumsimperativ und andere kapitalistische Dogmen
Anhand von Google-Trends-Daten zeigt Kasket, dass Begriffe wie „Effizienz“, „Produktivität“ und „Optimierung“ heute Höchststände erreichen. Diese Werte seien zu kulturellen Imperativen geworden – wer sie nicht teilt, gilt als rückständig oder irrational. Das führe zu einem „falschen Gefühl der Dringlichkeit“: Organisationen fühlen sich gezwungen, KI einzusetzen, um „mithalten“ zu können. Dadurch entstehe ein Zwang zur Anpassung, der Reflexion, Langsamkeit und ethisches Abwägen verdrängt. - Technologie und „Enframing“ (Verweis auf Heidegger)
Kasket greift Heideggers Begriff des „Gestells“ auf: Technologie ordnet die Welt, einschließlich des Menschen, als Ressource, die optimiert werden muss. Wenn diese Denkweise unhinterfragt bleibt, verlieren wir die Fähigkeit, Alternativen zu sehen. Die gegenwärtige Rhetorik um agentische KI und Ökosysteme von Agenten beschleunigt diese Tendenz, weil sie das technologische Denken als Empowerment tarnt. Das Risiko: totale Vereinnahmung durch technologische Logik. - Foucault und die Macht der Diskurse
Aufbauend auf Foucault argumentiert Kasket, dass Diskurse Wirklichkeit nicht nur beschreiben, sondern erzeugen. Der gegenwärtige KI-Diskurs („Akzeptiere/nimm oder geh unter“) wirkt als Form diskursiver Machtausübung: Er zwingt Organisationen zur Anpassung und reproduziert bestehende Machtverhältnisse. Das eigentliche Potenzial liege darin, den Diskurs selbst zu verändern – durch Bewusstmachung, kritische Reflexion und sprachliche Selbstermächtigung.
Kasket fordert Organisationen auf, ihre Beziehung zu KI bewusster und humanistischer zu gestalten. „Agency-regenerative AI“ bedeutet: Technologie soll menschliche Urteilskraft, moralische Vorstellungskraft und Verbundenheit fördern, statt sie zu ersetzen. Dafür stellt sie eine „Checklist“ bereit, die u. a. folgende Fragen umfasst:
– Wessen Interessen und Werte prägen die KI-Strategie der Organisation?
– Welche unsichtbaren Kosten und Abhängigkeiten werden übersehen?
– Wie kann man der Beschleunigungslogik widerstehen, ohne Innovation aufzugeben?
– Welche alternativen Erfolgsmetriken (jenseits von Effizienz und Wachstum) sind denkbar?
– Wie transparent und wertegebunden sind die gewählten KI-Anbieter?
Insgesamt haben wir hier wieder einmal ein Plädoyer für einen kulturellen und diskursiven Bewusstseinswandel: Statt KI als neutrale Effizienzmaschine zu betrachten, sollten Organisationen sie als Spiegel ihrer eigenen Werte, Machtverhältnisse und ethischen Entscheidungen verstehen. Nur wenn KI menschliche Agency regeneriert und nicht ersetzt, kann sie einen positiven Beitrag zu einer nachhaltigen, lebenswerten Zukunft leisten. Hier schließt sich der Kreis zu Beginn meines Blogposts: Buchmesse Spiegel.
