Diese Woche bekamen wir es mal wieder schwarz auf weiß: KI ist nicht die große Gleichmacherin, als die sie so gerne verkauft wird, sondern eher eine Verstärkung dessen, was ohnehin schon da ist, wodurch die (digitale) Spaltung der Gesellschaft weiter beschleunigt wird. Zumindest, wenn man der frisch erschienenen zweiten Konstanzer KI-Studie 2025 glaubt. 1.024 Menschen aus der deutschen Erwerbsbevölkerung wurden gefragt (repräsentative Stichprobe nach Alter, Geschlecht, Tätigkeit und Bildungsniveau), was sie am Arbeitsplatz so mit KI anfangen. Und was soll ich sagen: Überraschung ist das keine, aber trotzdem ernüchternd.
Der Einsatz von KI wächst, ja. Aber eben nicht überall gleich. Wer in wissensintensiven Jobs unterwegs ist, also in IT, Verwaltung oder Forschung, für die:den gehört KI offenbar immer selbstverständlicher zum Arbeitsalltag. Fast jede:r Zweite arbeitet dort inzwischen damit. Im Handwerk, in produktionsnahen Berufen dümpelt die Nutzung dagegen so vor sich hin. Dasselbe Bild beim Thema Bildungsniveau: Hochschulabschluss? Dreimal so häufige KI-Nutzung wie bei Menschen ohne höheren Abschluss. Bereitschaft zur Weiterbildung im Umgang mit KI? Dreimal darf man raten … Auch hier steigt diese besonders unter Beschäftigten mit hohem Bildungsniveau. KI wirkt also wieder einmal bzw. nach wie vor eher wie ein Brennglas auf bestehende Ungleichheiten. Wer sich eh schon mit Tools und Technologien auskennt (oder die passenden Ressourcen hat), profitiert. Wer nicht, bleibt zurück. Digitalisierung als soziale Schere, Kapitel drölfzig …
Und weil ich selbst ja auch nicht davor gefeit bin, in meine kleinen Komfortzonen zu rutschen, habe ich die letzten Wochen genutzt, mein eigenes digitales Arbeiten bzw. in dem Kontext vor allem mein digitales Wissensmanagement auf den Prüfstand zu stellen. Parallel zur HAUFE-Weiterbildung zum Wissensmanagement (s. Blogpost letzte Woche) habe ich angefangen, mich intensiver mit Obsidian zu beschäftigen. Mein Ziel: Endlich Ordnung ins eigene digitale Wissenschaos bringen. Die ersten Schritte sind getan, nun mal schauen, wie es weitergeht.
Außerdem habe ich diese Woche mit dem Selbstlernkurs „AI Automation“ der AInauten begonnen (und meine Take aways natürlich direkt in Obsidian festgehalten). In diesem Kontext habe ich viel mit Zapier rumprobiert und direkt festgestellt: Das wird nichts mit ‚einfach mal schnell automatisieren‘, solange der Hochschulaccount mit allen nicht möglichen Berechtigungen dazwischenfunkt … Zumindest meine erste Task Chain konnte ich aber ohne größere Schwierigkeiten erstellen: Artikel via Chrome als Trigger-Event > Web Parser > Zusammenfassung > per Mail an mich. Eigentlich hätte ich gerne folgende Kette gehabt: Artikel via Chrome als Trigger-Event > Web Parser > Zusammenfassung > als Notiz in passenden Zotero-Artikel. Aber Zotero habe ich bei Zapier (natürlich?) nicht gefunden …
Und weil ich schon dabei war, habe ich mir auch gleich einen RSS-Feed gebastelt (ja, 2025 und ich richte mir endlich mal einen eigenen Feed ein, wo die Ära der RSS-Feeds eigentlich schon wieder vorbei ist …) und einen Passwort-Manager eingerichtet (Bitwarden), weil mein bisheriges ‚Vier-Varianten-von-einem-Passwort-für-alle-Webseiten‘-System vielleicht doch nicht ganz den Sicherheitsstandards entspricht.
Kurzum: Ich will mein digitales Arbeiten auf ein neues Level heben. Nicht, weil das hip ist, sondern weil ich immer wieder merke, wie sehr genau das meine Handlungsfähigkeit bestimmt. Und weil es mir hilft, nicht nur bei der KI mitzuhalten, sondern bei mir selbst, bei meinem eigenen Denken.
Warum das jetzt ein guter Zeitpunkt ist: Zum 31.07. verlasse ich die Hochschule RheinMain, habe dann im August frei (und werde hier definitiv weiter an meiner neuen digitalen Arbeitsumgebung feilen), ehe ich am 01.09. einen neuen Job in einem neuen Umfeld, außerhalb der Hochschullandschaft, starte. Und hier möchte ich direkt von Beginn an ein durchdachtes und für mich passendes Wissensmanagementsystem haben, aber auch die KI-Potenziale für nützliche Automatisierungen von Workflows nutzen.
Aufgrund meiner ‚beruflichen Veränderung‘, wie man so schön sagt, werde ich meine Freiberuflichkeit nach fast drei Jahren voller vieler, vieler Seminare und Vorträge an Hochschulen in ganz Deutschland einstellen. Und so habe ich heute mein vorerst letztes Seminar zum Thema „KI und wissenschaftliches Schreiben in der Fachlehre“ gegeben. Zum einen in Präsenz und damit in dem Format, das mir weit am meisten Spaß macht. Zum anderen in Münster, meiner Herzens- und Sehnsuchtsstadt 🙂 Das war so nicht geplant, aber es entbehrt nicht einer gewissen Ironie des Schicksals, dass ich ausgerechnet dort, wo meine bisherige Hochschulkarriere begann (und damit auch die Freiberuflichkeit), zumindest den freiberuflichen Teil davon beende.
Wie es mit mir weitergeht, dazu in den nächsten Wochen mehr. Nun erst mal noch zu den Fundstücken der Woche:
Durch einen LinkedIn-Post von Hendrik Haverkamp mit der Überschrift „‘KI macht dumm!‘ – oder: Warum jedes Mal dieselbe Debatte entfacht wird“ wurde ich diese Woche auf einen Text meiner VK:KIWA-Kolleg:innen Nadine Lordick und Nicolaus Wilder aufmerksam. Die beiden zeichnen die lange Geschichte unserer Denkwerkzeuge nach, von der Schrift über Taschenrechner und Computer bis zu textgenerierenden KIs. Sie zeigen dabei, dass die Aufregung um genKI ein Déjà-vu ist: Jedes neue Werkzeug, das unser Denken unterstützt (oder entlastet), wird seit jeher begleitet von dem reflexhaften Verdacht, es könne uns ‚dümmer‘ machen und dazu führen, dass der Mensch seine Fähigkeiten verliert, ja sogar gleich sein ganzes Wesen. Dahinter steckt die wohlbekannte anthropologische Kränkung, die Freud ziemlich treffend beschrieben hat: Wir sind eben nicht das Maß aller Dinge. Nicht im Weltall, nicht in der Evolution – und jetzt auch nicht mehr im Denken?
Was mir an dem Text besonders gefällt: Die Autor:innen nehmen die Ängste ernst und stellen sie nicht pauschal als „falsch und ungerechtfertigt“ (S. 34) dar: „Es geht in keiner Weise um eine Bewertung der vorgetragenen Argumente, sondern vielmehr darum, ein Muster zu rekonstruieren und die dahinterliegende Haltung zu verstehen“ (S. 34). In der Diskussion rund um KI und die vermeintliche ‚Verdummung‘ der Menschen geht es nämlich selten „um die Technik an sich, sondern um dahinterliegende Welt- und Menschenbilder“ (S. 37). Vielleicht hilft es, das hier rekonstruierte historische Muster als kollektive Kränkung aufzuarbeiten und ihr im öffentlichen Diskus ein Menschenbild entgegenzusetzen, in dem sich diese Kränkung verflüchtigen kann, um so offen zu sein für die Potenziale, die in technischen Innovationen von Denkwerkzeugen liegen.
Die Sorge um die ‚Verdummung‘ der Menschen lenkt nämlich „von realen Problemen ab, die dringender zu diskutieren wären, beispielsweise steigende Intransparenz, die Machtpositionen großer Tech-Unternehmen oder die Diskriminierung aufgrund systematischer Verzerrungen in den Modellen“ (S. 37). Für mich heißt das: Statt immer wieder dieselben reflexhaften Abwehrreaktionen zu bedienen, wäre es an der Zeit, mit Studierenden und Kolleg:innen ins Gespräch zu kommen: über epistemische Praktiken, über Machtstrukturen, über unser Menschenbild. Und natürlich darüber, wie wir Lern- und Denkräume so gestalten, dass sie nicht von KI bedroht, sondern durch sie herausgefordert und vor allem erweitert werden. Denn, wie die Autor:innen recht zu Beginn ihrer Publikation schreiben: „Nimmt man […] das Narrativ der Erfolgsgeschichte der Mensch-Werkzeug-Verbindung ernst, so ist doch im Grunde der Einsatz von Denkwerkzeugen nur der nächste konsequente Schritt in der Werkzeugentwicklung und es verwundert, warum ausgerechnet dort so eine große Skepsis herrscht“ (S. 12).
Die im Juni 2025 erschienene Studie „Future of Work with AI Agents“ der Stanford University untersucht, wie sich die Integration von KI-Agenten auf den US-Arbeitsmarkt auswirkt. Grundlage ist ein eigens entwickeltes Audit-Framework, das sowohl die Perspektiven von 1.500 Berufstätigen aus 104 Berufen als auch die Einschätzungen von 52 KI-Expert:innen einbezieht. Kern des methodischen Ansatzes ist die Human Agency Scale (HAS), mit der der gewünschte Grad menschlicher Beteiligung an beruflichen Aufgaben zwischen vollständiger Automatisierung und partnerschaftlicher Zusammenarbeit systematisch erfasst wird. Im Abgleich mit den technischen Möglichkeiten der KI lassen sich vier Zonen identifizieren: von der „Green Light“-Zone, in der sowohl hohe Automatisierungswünsche als auch hohe technische Machbarkeit bestehen, bis zur „Red Light“-Zone, in der KI zwar technisch leistungsfähig wäre, die Automatisierung aber von den Beschäftigten abgelehnt wird. Zentrale Ergebnisse: Die Bereitschaft zur Automatisierung ist vor allem bei repetitiven, wenig anspruchsvollen Tätigkeiten hoch (46,1 % der Aufgaben), während komplexe oder kreative Tätigkeiten eher menschliche Beteiligung erfordern. Gleichzeitig verschiebt sich der Kompetenzbedarf weg von reiner Informationsverarbeitung hin zu sozialen und interpersonellen Fähigkeiten. Die Studie zeigt damit wieder einmal auf, wie wichtig es ist, technologische Entwicklungen mit den Erwartungen und Bedürfnissen der Arbeitnehmenden zu verzahnen.
Ein Gedanke dazu: So spannend ich die systematische Anlage der Studie finde – gerade weil sie versucht, jenseits der üblichen Automatisierungsprognosen die Perspektive der Beschäftigten einzufangen –, bleibe ich bei Interviewstudien doch immer ein wenig skeptisch. Wünsche, Sorgen und Einschätzungen von Menschen sind eben stark kontextabhängig und gerade in dem Bereich nicht selten von diffusen Gefühlen geprägt. Was jemand im Rahmen eines Interviews über Automatisierungswünsche sagt, muss nicht zwingend mit dem tatsächlichen Verhalten oder den längerfristigen Effekten am Arbeitsplatz übereinstimmen. Die Differenz zwischen Selbst- und Fremdeinschätzung ist sicher nicht zu unterschätzen.
Was ich diese Woche sonst noch gelesen habe, ist u.a. der Sammelband von Tobias Seidl und Kolleg:innen, in dem sie 44 Einsatzbeispiele für LEGO® SERIOUS PLAY® im Hochschulbereich versammeln. Eine große Inspirationsquelle für Menschen wie mich, die schon verschiedene Workshops zu LSP besucht haben, aber doch nicht so richtig wissen, wofür sie das in der eigenen Lehre einsetzen könnten.
Schließen möchte ich mit einem Zitat aus dem Newsletter von Felix Schlenther von AI First (Ausgabe vom 13.07.2025): „Unmöglich war vorgestern. Die Grenzen des Möglichen werden jeden Monat verschoben. Als wir damals mit GPT 3 die ersten Use Cases umgesetzt haben, war das für uns unglaublich. Heute würden wir uns totlachen über die Fähigkeiten dieser Modelle. Das ist 3 Jahre her. Seitdem ist KI immer besser und günstiger geworden. Und dieser Trend hält an. Das was wir heute sehen, ist das Schlechteste, was wir je wieder sehen werden. Und wer regelmäßig mit Claude 4 Opus oder Gemini 2.5 Pro arbeitet, wird sich fragen, was da noch kommen soll. Google hat neulich mit AlphaEvolve einen KI-Agenten entwickelt, der bessere KI entwickeln kann. Die dann bessere KI entwickelt. Die dann wieder bessere KI entwickelt…wir sind noch lange nicht am Ende. Was heute unmöglich scheint, wird morgen machbar.“