Illusion des Erkenntnisfortschritts?

Ich habe diese Woche ein Interview mit Hartmut Rosa gelesen, aus dem ich zu Beginn dieses Blogposts zitieren möchte: „Viele meinen, Gier treibe uns an, das ist falsch: Es ist die Angst. Wir sind gar nicht getrieben von dem Verlangen, immer höher, immer schneller, immer weiter zu kommen, sondern von der Angst, nicht mehr mitzukommen, abzurutschen, zurückzufallen. […] Burnout entsteht nicht dadurch, dass man viel zu tun hat. Arbeit macht ja per se weder krank noch unglücklich. Und auch früher schufteten Menschen immens viel. Denken Sie nur an die Trümmerfrauen. Die haben unfassbar hart gearbeitet, die waren auch erschöpft. Aber die litten nicht an der Art von Burnout, die wir heute beobachten. Das lag daran, dass es für die Menschen damals einen Zielhorizont gab: die Hoffnung, irgendwann wird der Trümmerberg abgebaut sein, irgendwann wird ein neues Haus dort stehen – und die Welt besser sein. Die heutigen Zielhorizonte dagegen scheinen nicht erreichbar zu sein: Optimierung kennt keine Ziellinie. Man kann Quartalszahlen in Unternehmen, Quoten in den Medien, Publikationslisten in den Wissenschaften und auch den Body-Mass-Index immer weiter verbessern. Völlig gleichgültig, wie effizient, innovativ, groß wir heute sind – morgen müssen wir noch eine Schippe drauflegen, wenn wir unseren Platz halten wollen.“

Ich denke, Hartmut Rosa trifft hier den Kern eines tiefen gesellschaftlichen Problems: der stetige Druck, immer effizienter und produktiver zu sein. Dieser Druck führt nicht nur zu Burnout und Überarbeitung, sondern stellt auch die Frage nach dem Sinn unserer Arbeit und dem Ziel unseres unermüdlichen Strebens. Besonders im Kontext der Debatte KI wird oft die vermeintliche Zeiteinsparung durch diese Technologie hervorgehoben. Zeit einsparen, sodass wir noch viel mehr Zeit haben, all das Unerledigte auf dieser Welt zu erledigen versuchen – um daran wieder und wieder zu scheitern.

Es ist problematisch, dass sich die Diskussion um KI-Tools häufig nur auf den Aspekt der Zeiteinsparung beschränkt. Dadurch heben wir nicht das Potenzial, das generative KI wirklich hat. Vielmehr sollten wir uns fragen, wie KI uns unterstützen kann, besser zu denken und qualitativ bessere Ergebnisse zu erzielen. Dass das volle Potenzial von KI-Tools in der öffentlichen Diskussion häufig verkannt wird, liegt m. E. daran, dass viele Menschen noch gar nie erlebt haben, wie sehr KI-Tools uns darin unterstützen können, ein Thema tiefer zu durchdringen, fundiertere Entscheidungen zu treffen und wirklich qualitativ davon zu profitieren – verbunden mit eigenem Denken.

Doch selbst wenn wir nur den Aspekt der Zeiteinsparung sehen: Was tun wir mit der gewonnenen Zeit? Hartmut Rosa betont, dass durch die ständige Notwendigkeit, effizienter zu werden, neue Aufgaben entstehen und der Arbeitsdruck unvermindert anhält. Es entsteht kein Vakuum an Zeit, das wir sinnvoll füllen könnten; stattdessen bleibt der Druck, immer mehr zu leisten, bestehen. Ich glaube nicht an die Utopie, dass generative KI uns irgendwann so viele Aufgaben abnehmen kann, dass wir nach einer regelhaften 10-Stunde-Woche anderen Tätigkeiten nachgehen, uns mehr ehrenamtlich engagieren können etc.

Ich denke, es ist eine Illusion, anzunehmen, dass wir irgendwann alle arbeitslos werden, ersetzt durch KI. Durch den ständigen Drang nach Verbesserung und Optimierung werden immer neue Jobs entstehen. Unser Streben nach ‚Besserwerden‘ sorgt dafür, dass KI uns nicht arbeitslos macht, sondern sich die Aufgaben immer weiter am Horizont antürmen. Andere Aufgaben als bislang, ja, aber eben dennoch noch Aufgaben.

Beispiel Wissenschaft: Ich kann mich von KI-Tools bei der Literaturrecherche und beim Verarbeiten wissenschaftlicher Texte unterstützen lassen (zur Frage nach der Legalität von KI-Lektüretools habe ich diese Woche auf LinkedIn gepostet und einige interessante Kommentare erhalten). Theoretisch dürfte ja Zeit frei werden, wenn ich keine aufwändigen Literaturrecherchen mehr betreiben muss und wenn ich dann auch beim Erfassen der zentralen Inhalte von Texten unterstützt werde. Stattdessen brauche ich inzwischen aber nicht weniger Zeit, um in meinem Gebiet up to date zu bleiben, sondern sogar mehr: Ich ‚muss‘ quasi mehr lesen, weil viel mehr publiziert wird. Die Themen werden gefühlt immer spezifischer und nischiger, was die Notwendigkeit, auf dem neuesten Stand zu bleiben, noch verstärkt. Alles wird komplexer und komplexer (Binsenweisheit, ich weiß).

Heute Morgen hatte ich mit ein paar Kolleg:innen vom VK:KIWA eine intensive Diskussion zur Frage, welches Bildungsverständnis es im Zeitalter generativer KI braucht. Ein Kollege meinte, dass das Ziel von Bildung die Fähigkeit ist, sich unter der Bedingung komplexer Möglichkeiten orientieren zu können. Bildung sollte uns befähigen, selbst zu entscheiden, welche Position wir einnehmen – auch in einer komplexen Welt. Dass junge Menschen häufig eher die AfD als demokratische Parteien wählen, zeigt aber, dass wir dieses Bildungsziel scheinbar nicht erreichen. Privat habe ich diese Woche das Buch „Gefährlicher Glaube: Die radikale Gedankenwelt der Esoterik“ zu Ende gelesen. Die Quintessenz: Menschen wenden sich immer mehr Esoterik & Co. zu, da in dieser Welt alles so wunderbar einfach ist. Anstatt sich aktiv zu orientieren in den Wirren dieser Welt, wird hier der einfache, bequeme Weg gewählt.

In einer der Fortbildungen, die ich diese Woche für Lehrende von Hochschulen für Angewandte Wissenschaften gegeben habe, sagte ein Teilnehmer sinngemäß: „Wenn alle Studierenden nur noch KI-Tools nutzen, dann lesen sich alle Texte gleich und dann können wir nicht mehr nach Leistung differenzieren. Aber wir brauchen Leistung, die Gesellschaft braucht Leistung und Hochschulen braucht Leistung, um zu selektieren. Gehälter brauchen Leistung, wir können ja nicht alle Menschen gleich bezahlen“. Aha. Leistung also als das einzige Beurteilungskriterium für Menschen. Da musste ich schlucken. Nur der Output zählt. Was passiert, wenn wir immer mehr Output in immer kürzerer Zeit erzeugen können? Hört das Rad dann endlich auf, sich zu drehen? Ich glaube kaum.

Wie schaffen wir es, dass es nicht immer weiter in Richtung Output und Leistungssteigerung, Effizienzsteigerung geht? Dass es für jede:n von uns endlich wieder „Zielhorizonte“ gibt, wie Hartmut Rosa sagte? Das Ziel von Bildung sollte es sein, Orientierung zu geben, Menschen mit Entscheidungsmacht auszustatten, sie zu befähigen, begründet eine Haltung einzunehmen. Doch wird das nicht wieder als zu idealistisch belächelt? Wenn es eigentlich nur um Effizienz geht? Generative KI kann ein mächtiges Werkzeug sein – aber nur, wenn wir es richtig nutzen und uns nicht in einem endlosen Kreislauf der oberflächlichen Optimierung verlieren.

Und zuletzt noch ein paar Sätze zu dem, was ich aktuell lese: Ich habe es nun (scheinbar als letzte Person in meiner Bubble) auch geschafft, mir Felix Stalders „Kultur der Digitalität“ zu besorgen und habe damit angefangen. Daneben liegt bell hooks „Die Welt verändern lernen. Bildung als Praxis der Freiheit“. Und ja, ich lese diese Bücher Seite für Seite, nicht im KI-unterstützten Zusammenfassungsmodus. Sollte ich mich deswegen schlecht fühlen? Weil ich meine Zeit damit ‚verplempere‘? Worin liegt noch der Wert, Seite für Seite zu lesen, wenn ich mir stattdessen die zentralen Aussagen auch von generativer KI ausgeben lassen – und damit in noch kürzerer Zeit noch viel mehr Inhalte aufnehmen könnte? Ich schätze an solchen theoretischen Abhandlungen, dass man sie gerade nicht einfach zusammenfassen und als Informationshäppchen aufnehmen kann. Dass nicht das Ergebnis zählt, sondern der argumentative Weg dorthin. Dass ich den Autor:innen beim Denken, bei der sukzessiven Entfaltung ihrer Gedanken zusehen kann. Deshalb bin ich, vielleicht gerade im KI-Zeitalter mehr als zuvor, gerne Geisteswissenschaftlerin. Weil hier nicht nur der Output zählt, sondern auch der Weg dorthin. Weil das Ganze am Ende mehr ist als die Summe der einzelnen Teile.

Dies wäre ein wunderbarer Schlusssatz. Aber ich muss noch eine Schleife drehen. Ein Artikel, der mich diese Woche ebenfalls umtrieb, ist dieser hier. Er passt zu dem, was ich gerade geschrieben habe und ich möchte daraus zitieren. Es geht um die Frage (wieder mal), ob KI wirklich intelligent ist. Dann steht folgende Passage: „Consider that LLMs are trained on our externalised memories and knowledges, implying that in lieu of producing knowledge, they are reflecting our collective consciousness back at us – or at least an algorithmically altered version thereof. This is not knowledge production; it is a short-cut that bypasses the processes of knowledge production in favour of the end product. So, when a student or researcher turns to ChatGPT to produce their class assignments or research projects, they become accustomed to the algorithmically modulated rendering of knowledge production in place of the authentic experience of a revelatory moment – the ‘Eureka!’” Wie schaffen wir als Bildungsinstitutionen es, bei Studierenden die Freude am Heureka-Moment wiederzuerwecken? Wie schaffen wir es, dass unser kollektives Gedächtnis künftig nicht nur endlos gespiegelt, also rekursiv reproduziert, sondern weiterentwickelt wird, basierend auf dem Alten, sich aber nicht darin verlierend? Wie schaffen wir fortwährenden Sinn, im Großen wie im Kleinen, selbst dann, wenn KI-Tools künftig irgendwann einmal alle Aufgaben übernehmen können?