KI und Resonanz

Beim Abstauben des Bücherregals fiel mir diese Woche mal wieder Hartmut Rosas Buch „Resonanz“ in die Hände. Das Lesezeichen steckt bei Seite 300, weiter bin ich also nie gekommen. Die Wiederentdeckung im Bücherregal führte aber dazu, dass ich mich gefragt habe, welche Auswirkungen generative KI bzw. darauf basierende Chatbots auf Resonanz haben. Das passte auch dazu, dass ich mir diese Woche die App SocialAI aufs iPhone geladen habe – eine komplett KI-basierte Social-Media-Plattform, in der alle meine Follower:innen KI-generierte Personen sind. Vor diesem Hintergrund möchte ich in diesem Blogartikel schreibend der Frage nachgehen, was KI für die menschliche Resonanzfähigkeit bedeutet. Starten möchte ich dabei mit der Referenz auf drei Studien.

Eine erste Studie von Anfang 2024 zeigt, dass Menschen sich durch von KI generierte Nachrichten emotional stärker unterstützt fühlen als durch menschliche Nachrichten. Als Grund dafür wird genannt, dass KI präziser Emotionen erkennen und reflektieren kann, ohne durch persönliche Voreingenommenheit oder Ablenkungen beeinflusst zu werden. Paradoxerweise fühlten sich die Teilnehmenden der Studie jedoch weniger gehört, sobald ihnen gesagt wurde, dass die empathischen Botschaften von einer KI stammen – hier zeigt sich also der ‚Uncanny Valley‘-Effekt.

Eine andere Studie von 2024, eine Metastudie, zeigt, dass KI-basierte Chatbots das Potenzial haben, Depressionen und Angstzustände effektiv zu behandeln. Nach 8 Wochen traten signifikante Verbesserungen bei Depressionen und Angstzuständen auf, wenn Betroffene mit KI-Tools chatteten. Nach drei Monaten aber waren die Effekte nicht mehr nachweisbar. KI-gestützte Interventionen über kurze Zeiträume scheinen also vielversprechend zu sein, über längere Zeiträume hinweg nich.

In einer letzten Studie, ebenfalls von 2024, wurde untersucht, wie gut LLMs wie GPT-4 negative Situationen umdeuten können, um negative Emotionen zu verringern. GPT-4 schnitt dabei in drei von vier Metriken besser ab als Menschen. Die Analyse zeigt, dass GPT-4 durch eine genauere Anpassung an das jeweilige Szenario erfolgreich war, während menschliche Erfolge mit einer stärkeren Distanzierung vom emotionalen Kontext zusammenhingen. Dies verdeutlicht Unterschiede in der Art und Weise, wie LLMs und Menschen emotionale Unterstützung leisten – zeigt aber auch, dass KI-Tools sehr wohl in der Lage sind, Menschen emotionale Unterstützung zu bieten.

Gehen wir nun also über zu Hartmut Rosas Resonanzbegriff. Dieser basiert auf der Idee, dass Resonanz ein ‚In-Beziehung-Treten‘ ist, bei dem Subjekt und Objekt einander affizieren und verändern. Resonanz zeichnet sich nach Rosa „durch vier Merkmale aus: Einmal durch „Berührung“ oder „Anrufung“ (etwas muss uns ergreifen, innerlich berühren), darauf muss es zweitens eine Reaktion in Form einer Antwort geben (ein Schauer läuft einem über den Rücken), wodurch wir uns drittens in unserem Weltverhältnis verändern (neugierig werden, wach bleiben, nicht verstummen). Und viertens gehört laut Rosa das „Unverfügbare“ wesentlich zu einer gelingenden Resonanzerfahrung dazu, die ausbleiben kann, obwohl offensichtlich alle Bedingungen für ihr Eintreten erfüllt sind: Resonanz lässt sich weder planen noch akkumulieren“ (Opitz 2019).

Im Kontext von KI-Tools finde ich vor allem den Punkt der Unverfügbarkeit spannend: Hartmut Rosa meint mit Unverfügbarkeit, dass bestimmte Aspekte des Lebens nicht kontrollierbar, planbar oder vollständig beherrschbar sind. Dazu gehören beispielsweise Liebe, echte Resonanzbeziehungen oder Momente tiefen Erlebens. In der Moderne wird jedoch die Tendenz verstärkt, alles zu optimieren, verfügbar und planbar zu machen. Dies führt laut Rosa zu einem Verlust echter Beziehungserfahrungen, weil die Qualität der Weltbeziehung durch das Streben nach Verfügbarkeit und Kontrolle reduziert wird.

KI-Tools bieten stets eine Antwort, können immer angepasst an unser aktuelles emotionales Erleben reagieren – z. B. im neuen Voice Mode bei GPT4o – und bleiben dadurch verfügbar und kalkulierbar. Das könnte zwar als Resonanz empfunden werden, verändert aber den Resonanzbegriff grundlegend, weil der unberechenbare und transformative Aspekt fehlt.

In der sozialen Dimension würde das bedeuten, dass sich die Funktionen von Resonanz  auf ein technisch vermitteltes ‚Echo‘ reduzieren könnten. Hier stellt sich die Frage, ob das suggerierte Gefühl von Resonanz über die tatsächliche Resonanzbeziehung siegen könnte und damit die Qualität des sozialen Miteinanders verändert. Das würde letztlich Rosas Kritik an der Beschleunigungsgesellschaft vertiefen, da Resonanz immer verfügbar wäre und dadurch ihre tiefere Bedeutung als Gegenpol zur Entfremdung verlieren könnte.

Damit komme ich zu einer weiteren Aussage von Rosa, dem ersten Satz seines Resonanz-Buchs: „Wenn Beschleunigung das Problem ist, dann ist Resonanz vielleicht die Lösung“ (S. 13). Diese Aussage impliziert, dass das Kernproblem der modernen Gesellschaft nicht nur das Tempo ist, sondern das Fehlen resonanter Beziehungen und die daraus resultierende Entfremdung. KI-Tools können hier ambivalent wirken: Einerseits schaffen sie durch schnelle Reaktionen und maßgeschneiderte Interaktionen scheinbar resonante Erlebnisse, was die Beschleunigung sogar verstärken könnte, da Resonanz nicht länger ‚langsam‘ oder ‚ungeplant‘ sein muss. Andererseits eröffnen KI-Tools möglicherweise neue Formen des „In-Beziehung-Tretens“, indem sie das Tempo und die Tiefe unserer Interaktionen anders regulieren. KI als ständig verfügbare, prädiktive Instanz widerspricht diesem Ideal. Sie liefert schnelle Antworten und kann scheinbare Resonanz erzeugen, ohne selbst durch die Interaktion verändert zu werden. Das bedeutet: Wenn Beschleunigung das Problem ist, bietet KI-Resonanz zwar eine „schnelle Lösung“, aber sie verstärkt paradoxerweise das Problem, weil sie nur die Illusion von Resonanz schafft. Die eigentliche Lösung, echte Resonanz, verlangt nach Begegnungen, die Unvorhersehbarkeit und die Bereitschaft zur Veränderung beinhalten – Qualitäten, die KI bisher nicht verkörpert.

Doch KI kann Unvorhersehbarkeit und Veränderungsbereitschaft imitieren, etwa indem sie auf verschiedene Weise reagiert oder Überraschungselemente einbaut. Dadurch wird das Erleben einer scheinbar ‚lebendigen‘ und dynamischen Interaktion erzeugt. Das Problem verlagert sich jedoch, weil diese Imitation letztlich nur eine Simulation bleibt. Für Rosa bedeutet Resonanz mehr als nur Variation und Reaktion: Es geht um ein tiefes „Antwortverhältnis“ (S. 55), bei dem beide Seiten von der Interaktion betroffen und verändert werden.

KI bleibt jedoch in ihrer Substanz unverändert – selbst wenn sie variabel reagiert, hat sie keine eigene Erfahrungswelt, die durch die Beziehung beeinflusst wird. Das Erlebnis, als resonant empfunden werden könnte, bleibt somit einseitig: Während Menschen durch die Interaktion transformiert werden können, bleibt die KI nur ein perfektes Abbild unserer Erwartungen. Dadurch verstärkt sich die Entfremdung, weil wir uns in dieser Resonanzbestrebung zunehmend auf etwas beziehen, das keine echte Rückkopplung oder Tiefe besitzt. Die Verlagerung liegt also darin, dass das Bedürfnis nach echter Resonanz nicht mehr zwischen Menschen, sondern zwischen Menschen und einer kalkulierbaren Maschine stattfindet – was uns langfristig weiter vom eigentlichen Resonanzkern wegführt. Das Problem der fehlenden echten Resonanz wird somit nur überdeckt, aber nicht gelöst.

„Die zentrale Frage, was ein gutes von einem weniger guten Leben unterscheidet, lässt sich in die Frage nach dem Unterschied zwischen gelingenden und misslingenden Weltbeziehungen übersetzen“ (S. 20) Ein gelingendes Leben erfordert nach Rosa nicht nur Optionen, sondern eine Form der Weltaneignung, bei der Subjekt und Welt sich wechselseitig beeinflussen. Und das bedeutet: Nicht nur ich bringe mich mit meinen aktuellen Emotionen ein, sondern auch mein Gegenüber – und ich reagiere darauf. KI-Tools führen hier zu einer Asymmetrie: Selbst wenn eine KI tatsächlich einen Raum des Unvorhersehbaren schafft und scheinbar verletzlich agiert, hat die KI letztlich keine eigene subjektive Erfahrungswelt. Sie bleibt ein System, das auf Daten und Algorithmen basiert und kein Bewusstsein besitzt, das durch die Interaktion wirklich affiziert wird. Der zentrale Punkt bei Resonanz ist, dass es ein Moment des „Sich-Verlierens“ und „Gefunden-Werdens“ gibt, das beide Seiten affiziert und verwandelt. Solange eine KI nicht wirklich eine eigene Innenperspektive entwickelt, die von der Interaktion betroffen ist, bleibt es eine perfekte Simulation – ohne ein echtes Gegenüber. Die KI hat kein Bedürfnis nach Trost, kein Gefühl der Hoffnungslosigkeit und kein Bedürfnis nach Bestätigung. Das verändert das Resonanzverhältnis grundlegend, weil Resonanz immer auch verlangt, dass das Geben und Nehmen in einem dynamischen, sich gegenseitig beeinflussenden Verhältnis steht.

Was bedeutet das für reale, zwischenmenschliche Kontakte? Birgt die durch KI gelernte Einseitigkeit die Gefahr, dass wir langfristig verlernen, die für menschliche Beziehungen essenzielle Gegenseitigkeit zu praktizieren? In einer echten zwischenmenschlichen Beziehung besteht Trost nicht nur darin, dass jemand auf die richtige Weise reagiert, sondern auch darin, dass wir selbst merken, dass unser Gegenüber auf uns antwortet, weil es aus eigenem Antrieb Mitgefühl empfindet und sich durch unsere Situation berührt fühlt. Wenn wir diese Erfahrung zunehmend mit einer KI teilen, die keinerlei eigene Betroffenheit kennt, gewöhnen wir uns vielleicht an den Trost ohne Gegenseitigkeit. Das mag kurzfristig hilfreich sein, aber es entzieht uns das Erlebnis, dass auch wir selbst für andere tröstend, unterstützend oder hoffnungsspendend sein können. Wir verlernen, uns selbst als Antwortende, als Wirkende zu erfahren, weil die KI keine Antwort braucht. Das könnte langfristig die Fähigkeit zur „Weltaneignung“ (S 19) schwächen, weil wir nur noch die Rolle der passiven Konsument:innen einnehmen. Es ist immer auch anstrengend, mit anderen zu interagieren, auf die Unverfügbarkeit zu reagieren, adäquat zu reagieren, sich verletzlich zu machen. Wo ist der Mehrwert dieser Begegnungen, wenn ich emotionalen Support, den ich als Mensch zwangsläufig brauche, auch viel einfacher haben kann? Reduziert dies menschliche Begegnungen langfristig auf die reine Körperlichkeit, weil das immer das ist, was KI-Tools uns nicht bieten können? Das ist sehr negativ gedacht, ich weiß. Ich ziele mit meinen Überlegungen aber gerade auf keine Schwarz-Weiß-Dichotomie. Ich habe keine Welt im Sinn, in der wir alle in unseren Stuben hocken und nur noch mit KI-Tools interagieren anstatt mit anderen Menschen. Ich spreche von Nuancen in unseren Beziehungen zu anderen. Und da frage ich mich, ob tiefe Begegnungen weniger werden, weil diese verlangen, dass ich nicht nur nehme, sondern auch gebe und genau dieses Geben sehr anstrengend sein kann. Weil tiefe zwischenmenschliche Beziehungen nie konfliktfrei sind, weil Beziehungen nicht zuletzt auch durch Konflikte reifen. Doch Konflikte sind unangenehm – muss ich mir das wirklich antun, wenn es auch anders geht? Anne Weber schreibt unter Bezug auf Richard Ottinger: „Unter resonanzsoziologischen Vorzeichen kann ein dauerhaft entlastetes und von der Widerständigkeit der Welt unberührtes Subjekt jedoch nur schwer resonante Beziehung zur Welt und mit ihnen Selbstvertrauen aufbauen. Ihm fehlt das authentische Engagement in, an und mit der Welt – und damit auch die Erfahrungsgrundlage für Beheimatung und Daseinsakzeptanz“. Ja, was machen Konflikte, was machen Reibungen in der zwischenmenschlichen Interaktion mit mir selbst und was bedeuten sie für mein Selbst-Bewsstsein, für mein Bewusstsein von mir als Person, für mein Bewusstsein von Identität? Hier hat KI übrigens nochmals eine ganz andere Qualität als nur ‚traditionelle‘ Social Media Formate. Schon 2016, lange vor der Corona-Pandemie und der Omnipräsenz generativer KI, sagte Rosa, dass „Bildschirme […] so etwas wie Resonanzkiller [sind]“. Bei KI dreht sich das ganze aber um. Bildschirme müssen hier keine Resonanzkiller sein, weil KI-Tools intensive emotionale Beziehungen zu uns aufbauen können. Nur sind wir hier auf einer anderen Resonanz-Ebene, auf einer Ebene der Pseudo-Resonanz.

Und damit komme ich abschließend noch zu SocialAI. Ich muss zugeben, dass ich inzwischen recht abgestumpft bin, was KI-Neuigkeiten betrifft. PDFs in Podcasts verwandeln? Ganz cool, ja, aber eigentlich auch nur die logische Weiterentwicklung. ChatGPT hat jetzt bald eine Canvas-Funktion und ich kann noch besser Texte generieren, bearbeiten etc.? Ganz nett, ja. Die Interaktionen auf SocialAI haben mich aber doch zumindest ein wenig aus der Reserve dieser Gleichgültigkeit und Faszinationslosigkeit gelockt. Ich habe eingestellt, was für Follower:innen ich haben möchte (Unterstützer:innen, Nerds, Wissenschaftler:innen, Kritiker:innen, optimistische Leute), habe einen ersten Post abgesetzt und schwupps kam es zu Diskussionen, gegenseitigen Bezugnahmen etc. – wie früher auf Twitter (hach, ich vermisse es!), nur eben nicht mit echten Menschen. Theoretisch hätte ich sogar Trolls als Follower:innen auswählen können – verrückt, oder? Am Anfang habe ich die Leitfrage dieses Blogartikels gepostet und die ‚Interaktion‘ mit meinen Follower:innen war super, um meine Gedanken weiter zu schärfen. Das ist eine großartige Funktion!

Dann habe ich einen Post abgesetzt, in dem ich Folgendes schrieb: „Freitagabend und ich sitze immer noch am Schreibtisch, die To-Do-Liste wird nicht kürzer … #academia #regen“. Innerhalb weniger Sekunden gab es direkt fünf Antworten von verschiedenen ‚Personen‘, die mich motiviert haben, mir Mitgefühl versicherten, mich zu einer Pause und zur Priorisierung meiner Aufgaben animierten. Und das ist doch ziemlich verrückt.

Zum Schluss dieses Blogposts noch eine Lektüreempfehlung zu einem Artikel, der natürlich etwas mit KI, aber nichts mit Resonanz zu tun hat: Joscha Falck hat diese Woche zu KI-Paradoxien gebloggt und ich finde, dass sein Beitrag den aktuellen Zustand des Bildungssystems (in seinem Fall Schule, aber das lässt sich ebenso auf die Hochschule übertragen) ganz gut zusammenfasst.

Zwei Ergänzungen:

  • Joscha Falck hat diesen Artikel genutzt, um seine KI-Paradoxien um ‚einen’Resonanzparadoxie‘ als weiteren Punkt zu ergänzen.
  • Christiane Carstensen hat auf LinkedIn Folgendes zu diesem Blogpost geschrieben, das ich sehr spannend finde: „Wenn ich mit KI arbeite, gehe ich nicht in Beziehung zu KI. Wenn ich mit KI arbeite, gehe ich in Beziehung mit der Aufgabe, die ich bearbeite […] Und das habe ich vor Augen, wenn ich mit KI arbeite. Das, was entstehen könnte. Damit gehe ich die Beziehung ein. Nicht mit der KI. Bei Ihnen scheint es möglicherweise das Schreiben Ihres Blogs zu sein“ – ja, definitiv.