Superagency. Superoptimismus. Superproblematisch.

Normalerweise schreibe ich hier mit einem optimistischen Blick auf technologische Entwicklungen. Gerade im Kontext von KI betone ich häufig Potenziale und Gestaltungsspielräume. Heute ist das anders. Heute habe ich eine Nicht-Empfehlung im Gepäck. Am 26.09. hatte ich in diesem Blogpost noch geschrieben, dass ich mich sehr auf das Buch „Superagency: What Could Possibly Go Right with Our AI Future“ von Reid Hoffman und Greg Beato freue. Nun habe ich es gelesen und leider hat es mich sehr enttäuscht.

Der Ausgangspunkt des Buchs ist vielversprechend. Die Autoren entwickeln ein Narrativ, das stark an aufklärerische Fortschrittslogiken anknüpft: Mehr Wissen führt zu mehr Handlungsmacht, KI erhöht die individuelle Agency und gesellschaftliche Potenziale kumulieren dadurch zu einer „Super-Agency“. Diese Grundidee ist theoretisch anschlussfähig, etwa an klassische agency-Debatten in Philosophie und Sozialwissenschaften, wie sie bei Anthony Giddens, Albert Bandura oder Margaret Archer zu finden sind. Auch die Grundannahme, dass Technologien menschliche Handlungsräume erweitern können, ist empirisch gut belegt, unter anderem in der Innovationsforschung, etwa bei Clayton Christensen oder in den permissionless-innovation-Argumenten von Marc Andreessen. Der Anspruch des Buches stützt sich also auf diskursiv etablierte Linien.

Doch genau dort beginnen die Probleme. Denn die Autoren leiten aus dieser Tradition ein Fortschrittsmodell ab, das m. E. sehr viele blinde Flecken hat. Ein Beispiel: Wenn Hoffman und Beato argumentieren, KI könne uns zeigen, was in Psychotherapien wirklich hilft, und könne damit die Agency von Therapeut:innen erhöhen, dann beruht das auf der Prämisse, dass komplexe psychische Prozesse vollständig datenförmig erschließbar seien. Diese Annahme ist empirisch nicht belegt. Studien zu digitaler Psychotherapie und KI-gestützten Interventionen zeigen zwar Wirksamkeit in eng definierten Bereichen, aber sie betonen gleichzeitig Grenzen und Risiken. Die Autoren des Buchs thematisieren diese Grenzen kaum. Sie behandeln Mustererkennung als epistemische Tiefe und ignorieren damit, dass datenbasierte Modelle Handlungsoptionen nicht nur erweitern, sondern auch vorstrukturieren. Sie verschieben Agency also (bzw. den Rahmen, in dem Menschen handeln), ohne diese Verschiebung offen zu reflektieren. Und so offenbart sich eine naive ‚Datengläubigkeit‘: Es wird angenommen, dass ich sehr viele Therapiegespräche analysieren und allein daraus ableiten kann, was in der Psychotherapie funktioniert und was nicht. Ohne, dass ich einen Hintergrund als Psychotherapeutin habe, kann ich, denke ich zurecht, den Punkt machen, dass hier doch viel Individualität auf der Strecke bleibt, die in riesigen Datenmengen eben nicht abbildbar ist.

Der Befund, dass es eklatante Versorgungslücken im psychotherapeutischen Bereich gibt, ist empirisch solide, etwa belegt durch eine OECD-Analyse zu mental-health-care-gaps. Doch die Schlussfolgerung der Autoren folgt einer problematischen Logik: Zum Glück gibt es KI, und wenn schon Menschen fehlen, dann kann KI wenigstens entlasten. Diese Argumentation verschiebt Verantwortung von politischer und struktureller Ebene hin zur Technologie. Es ist politisch bequem, aber ansonsten dünn. Diese Argumentation unterschlägt, dass digitale Gesundheitsinterventionen nicht deshalb scheitern, weil sie zu wenig Gamification bieten, sondern weil psychische Krisen auch soziale Einbettung benötigen. Und ob ein KI-Gegenüber da genau so effektiv bei der Bewältigung einer psychischen Erkrankung wirkt wie ein therapeutisches menschliches Gegenüber, wie die Autoren suggerieren, bleibt erst noch in Langzeitstudien zu zeigen.

Das Buch behauptet an anderer Stelle, KI könne Therapeut:innen „besser“ machen. Die interessante Frage wäre: Was heißt „besser“? In der Psychotherapieforschung gilt die therapeutische Allianz als stärkster Wirkfaktor, wie große Metaanalysen zeigen. Diese Allianz ist relational, nicht datenlogisch. Wenn KI nun als eine Art zweites epistemisches Zentrum in den therapeutischen Prozess eingeführt wird, entsteht nicht einfach eine Erweiterung, sondern eine Veränderung der normativen Maßstäbe dessen, was als gute Therapie gilt. Das Buch thematisiert diese Ebene nicht, sondern bleibt im Wohlwollen stecken. Mein Take hierzu: KI kann die professionelle Agency von Therapeut:innen (und Ärzt:innen, um die es auch noch geht) definitiv erweitern, ja. Aber sie kann sie auch kolonialisieren, je nachdem, ob sie als Werkzeug im Dienst der menschlichen Urteilskraft bleibt oder ob sie beginnt, diese Urteilskraft zu definieren.

Auch der Vergleich von KI mit der Automobilgeschichte folgt einer vertrauten Innovationsrhetorik. Historisch stimmt natürlich, dass Automobilität individuelle Handlungsspielräume massiv erweitert hat. Gleichzeitig ist empirisch gut belegt, dass der Preis hoch war und ist: Verkehrstote, Urban Sprawl, Feinstaub, CO₂-Emissionen. Diese Kosten wurden erst durch massive Regulierungsanstrengungen bearbeitet, wie verkehrshistorische Arbeiten zeigen. Die Autoren nutzen das Beispiel jedoch zur Verteidigung von permissionless innovation, als reiche es, Innovation erst einmal laufen zu lassen. Das ist normativ riskant, weil KI nicht nur physische, sondern kognitive und soziale Räume transformiert. Was beim Auto sichtbar und messbar war, ist bei KI intransparenter und politisch relevanter, weil die ‚epistemische Infrastruktur‘ selbst betroffen ist.

Der blinde Fleck des Buchs wird besonders beim Thema Informationskomplexität deutlich. Sprachmodelle können Orientierung bieten, definitiv. Aber sie erhöhen gleichzeitig die Komplexität der Vermittlung und werden so zu epistemischen Gatekeepern. Das hat politische Bedeutung, weil jede Infrastruktur der Wissensvermittlung Macht erzeugt. Wer Modelle besitzt, trainiert und reguliert, strukturiert Diskursräume. Und diese Dimension fehlt mir im Buch stark. Denn am Ende stellt sich die Frage, wer bzw. welche Personengruppen durch KI die Chance auf Super-Agency haben – und welche Personen(gruppen) eben nicht bzw. auf Kosten welcher Personen(gruppen) die KI-Super-Agency einer technischen Elite geht.

Der historische Verweis auf die Ludditen versucht, das Argument zu stärken, dass Widerstand gegen Technologie zu Marginalisierung führt. Doch historisch zeigen sozialökonomische Analysen, dass die Ludditen weniger Technologiefeinde als Verteidiger sozialer Ordnung waren. Die Autoren nutzen den Vergleich selektiv, um Fortschrittswiderstand pauschal zu delegitimieren. Dadurch wird die eigentliche Frage verfehlt: Welche Gruppen verlieren heute Gestaltungsmacht, wenn technologische Infrastruktur von wenigen kontrolliert wird? Es ist ein Defizit, dass diese politische Dimension ausgespart bleibt.

Der Schluss des Buchs, eine Art techno-humanistischer Appell, formuliert noble Ziele: „With super-agency as a true north and consent of the governed as a guiding principle, we once again invoke the metaphor of a techno-humanist compass to help us find a way toward even greater manifestations of what it means to be human.“ (letzter Satz). Doch die Voraussetzung dafür wäre eine präzise Analyse von Macht, Infrastruktur, Normen und Governance. Gerade der Hinweis auf consent of the governed verlangt empirisch belastbare Governance-Modelle, die fehlen.

So bleibt das Buch ein technologisch optimistischer Essay, der wichtige Debatten anstößt, aber zentrale Fragen nicht adressiert: epistemische Verschiebungen, infrastrukturelle Macht, politische Verantwortlichkeiten, Gefahr der Entmündigung durch Convenience. Es bietet viel rhetorische Energie, aber m. E. wenig analytische Substanz. Die Argumentation der Autoren ist, dass man KI nur deshalb nicht nicht nutzen sollte, weil sie auch schlechte/dunkle Seiten hat. Da stimme ich als Person, die sich durchaus als KI-Enthusiastin bezeichnet, und deren ‚Lieblings-Future Skill‘ Ambiguitätstoleranz ist, komplett zu. Daraus aber eine Art Legitimation abzuleiten, jedwede Kritik an KI zu diskreditieren, finde ich sehr verkehrt. Meiner Meinung nach bleibt das Buch daher hinter der eigenen Ambition zurück, eine ernsthafte Vision für unsere KI-Zukunft zu entwerfen.

Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.
Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.