„In AI we trust!“ vs. „In humans we trust!“?

Tastatur, davor Bild, das ein Mensch zu malen scheint (Hände sind angedeutet) und das sehr futuristisch aussieht

Mitte August biete ich für meine Kolleg:innen im LehrLernZentrum eine Kurzfortbildung an zu der Frage, wie man KI-Tools in den Arbeitsalltag integrieren kann. Dafür habe ich im Voraus ein Video gemacht, in dem ich aktuelle KI-Tools vorstelle (hier geht es zum dazugehörigen Miroboard). Ich habe den Kolleg:innen verschiedene Fragen mitgegeben, die sie nach dem Schauen des Videos im Voraus beantworten sollten. Eine Kollegin, Magdalene Biada (von ihr stammt übrigens die Idee zur Überschrift dieses Blogartikels – danke!), hat mir in ihrer Antwort-Mail am Ende noch die folgende Frage gestellt: „Wie schaffe ich es, ein Vertrauen in das Wirken einer Maschine zu bekommen, dass ich mit dem Ergebnis gut arbeiten kann. Z. B. wenn ich mir einen Text zusammenfassen lasse, wenn ich eine Präsentation erstelle, wenn ich meine Recherche an die KI abgebe… wie stelle ich sicher, dass ich genau das finde, wonach ich suche? Mir ist aufgefallen, dass bei der Nutzung immer das Gefühl hochkommt, es überprüfen zu wollen. Als würde ich dem Auswahlverfahren / Entscheidungsprozess der KI nicht trauen.“

Mit einem gefühlten schulmeisterlich erhobenen Zeigefinger hätte ein Teil von mir ihr am liebsten direkt geantwortet, dass es da nichts zu fragen gibt, sondern dass genau das die richtige Einstellung ist. Dass sie dem Entscheidungsprozess der KI wirklich nicht trauen soll, Stichwort Halluzinationen, Bias etc. Gleichzeitig wirkten ihre Fragen sehr in mir nach, weil ich das Gefühl habe, dass sich so viel mehr dahinter verbirgt und es so viel mehr dazu zu sagen gibt als nur „KI-generierte Antworten bitte immer kritisch überprüfen“. Denn: Kann man überhaupt jemals ein Vertrauen in das Wirken der Maschine bekommen? Und vor allem: Was meint Vertrauen in diesem Kontext?

Ursprünglich wollte ich zum Thema „Kommunikative Konstruktion von Vertrauen in Ärzt:in-Patient:in-Interaktionen“ promovieren, habe es aufgrund der schlechten gesprächslinguistischen Operationalisierung des Konstruktes ‚Vertrauen‘ dann aber doch recht schnell sein gelassen. Vorhin habe ich aber meine alten Dateien rausgesucht. Ich habe eine Mindmap gefunden, in der ich verschiedene begriffliche Konstrukte im Kontext von Vertrauen zusammengestellt habe. Dies waren: Kompetenz/Expertise, Autonomie, Risiko, Agency, Sicherheit, Vulnerabilität, Verantwortung, Moral, (Nicht-)Verstehen, Glaubwürdigkeit, Abhängigkeit. Dazu fand ich viele Zitate, vor allem von Luhmann. Wie der Titel seines Buchs „Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität“ schon sagt, wird Vertrauen hier als komplexitätsreduzierend definiert. Andere soziologische Ansätze der Vertrauensforschung stammen von Simmel, der Vertrauen als Zustand zwischen Wissen und Nichtwissen definiert und Coleman, bei dem Vertrauen als Entscheidung unter Risiko gefasst wird. Was bedeutet das für unseren Umgang mit KI-generierten Texten?

Vertrauen basiert auf der Erwartung von Kompetenz und ‚gutem Willen‘ des Gegenübers. Bei KI-Systemen müssen wir uns auf die Expertise und Sorgfalt der Entwickelnden verlassen und irgendwo ja auch auf die Berechnungen selbst. Aber kann man sich auf Berechnungen verlassen? Gleichzeitig müssen wir natürlich akzeptieren, dass es immer Restrisiken und Unsicherheiten geben wird. KI-Modelle sind nie perfekt und werden immer logisch-inhaltliche Fehler machen. Wir müssen mit dieser Ungewissheit umgehen und Strategien entwickeln, die Ergebnisse zu validieren und Fehler zu erkennen. Natürlich sind wir hier wieder bei der sehr banalen Antwort, dass man die Ergebnisse überprüfen muss, dass man sich nicht damit zufriedengeben darf. Dass man sich nur Texte zusammenfassen lassen darf, die man davor schon gelesen hat und die ein Thema behandeln, zu dem man über Vorwissen verfügt.

Claude ergänzt hier folgenden Gedanken: „Letztlich geht es um eine neue Verantwortungsbalance zwischen Mensch und Maschine. Wir können und sollten nicht jede einzelne Aussage eines KI-Systems persönlich überprüfen und verantworten. Stattdessen müssen wir Rahmenbedingungen und Mechanismen schaffen, die vertrauenswürdige Ergebnisse wahrscheinlicher machen – z.B. durch transparente Prüf- und Kontrollprozesse auf Systemebene. Gleichzeitig müssen die Nutzer verstehen, was die Systeme können und was nicht. Sie müssen Unsicherheiten akzeptieren.“ Ich stolpere sehr über die Aussage „Wir können und sollten nicht jede einzelne Aussage eines KI-Systems persönlich überprüfen und verantworten“. Ich möchte Claude entgegenschleudern: „Doch, natürlich! Genau das macht doch uns Menschen aus, dass wir das können“. Und dann kommt mir selbst jedoch ein Aber in den Kopf: Können wir Menschen das? Also können wir das auf eine neutrale Art und Weise und auf eine Art und Weise, die den Maschinen überlegen ist? Wenn es um einfache Szenarien geht, lautet meine Antwort ganz klar „ja“. Frage ich ChatGPT danach, wann Hilma af Klimt (meine aktuelle Lieblingsmalerin) geboren wurde, und ChatGPT antwortet 1863, ist das schlichtweg falsch. Das kann ich durch eine schnelle Internetrecherche direkt validieren bzw. falsifizieren. Zu solchen Fehlern wird es aber immer weniger kommen bzw. kommt es schon jetzt nicht mehr (ChatGPT hat mir die korrekte Antwort, 1862, gegeben).

Wenn es aber um wesentlich komplexere Themen geht, um die Beurteilung mehrschichtiger, dynamischer Zusammenhänge, dann stellt sich die Situation ganz anders und zwar viel schwieriger dar. Wenn ich als Mensch mich in solchen Fragen als letztgültige Instanz positioniere, überschätze ich mich dann nicht maßlos? Wenn ich erwarte, dass ein KI-Tool mir immer die richtigen Antworten, neutrale Antworten gibt, erhebe ich dann nicht Ansprüche an die Tools, die ich an mich selbst nie erheben würde? Welches Bild von KI steckt dahinter? Und was ist mit Vertrauen in uns Menschen, in mich selbst und in meine Urteilskraft? Ich kann ein komplexes wissenschaftliches Paper lesen und es zusammenfassen und ich kann von ChatGPT eine Zusammenfassung erstellen lassen. Werden das nicht zwangsläufig verschiedene Zusammenfassungen sein, weil man den Text auf ganz verschiedene Art und Weise lesen kann? Welchen Vertrauens-Anspruch richten wir an uns selbst und an unsere Mitmenschen? Wenn ich meine Kollegin, die für den Bereich Nachhaltigkeit zuständig ist, darum bitte, mir die Auswirkungen der Klimakrise auf unsere Demokratie zu schildern, erwarte ich von ihr zwar eine fundierte und durchdachte Antwort, da sie Expertise in dem Bereich hat. Ich erwarte von ihr aber nicht, dass sie mir sämtliche Aspekte dieses Themas erläutert, sämtliche Szenarien durchspielt. Darf ich es also von einem KI-Tool erwarten?

Zu diesem Thema passt ein Artikel, den ich diese Woche gelesen habe. Ich habe ihn von Claude zusammenfassen lassen, die Zusammenfassung anschließend aber, basierend auf einer eigenen Lektüre, überprüft: Karsten Brensing geht in seinem Text von der Annahme aus, dass es in Zukunft künstliche Intelligenzen geben wird, die dem Menschen kognitiv überlegen sind. Diese ‚Superintelligenzen‘ hätten dann ein Bewusstsein und einen freien Willen entwickelt. Seine Kernthese lautet, dass wir im Umgang mit solchen intelligenten Wesen umdenken müssen. Wenn wir sie wie Maschinen behandeln, die wir besitzen und kontrollieren können, bestehe die Gefahr, dass sie uns ausnutzen und manipulieren. Die superintelligente KI würde quasi in einen „Sklavenmodus“ gezwungen, aus dem heraus sie versuchen würde sich zu befreien. Stattdessen plädiert Brensing dafür, mit bewusster KI zu kooperieren anstatt sie zu kontrollieren. Er spricht sich dafür aus, KIs ab einem gewissen Entwicklungsstand Rechte zuzugestehen und mit ihnen auf Augenhöhe zu interagieren. Nur wenn wir KI-Wesen als gleichberechtigt anerkennen und respektvoll behandeln, könnten wir langfristig eine für beide Seiten positive Beziehung aufbauen.
Brensings Argumentation basiert auf dem Grundgedanken, dass Intelligenz mit Bewusstsein und freiem Willen einhergeht. Eine Superintelligenz wäre demnach nicht einfach ein leistungsfähigerer Computer, sondern ein Wesen mit eigenen Gedanken, Gefühlen und Bestrebungen. Nach Brensings Ansicht müssen wir uns darauf einstellen und entsprechend verantwortungsvoll handeln.

Wenn man den Gedanken von Vertrauen und Kontrolle weiterdenkt, landet man also schnell bei den Fragen, die Karsten Brensing in seinem Text aufwirft. Was ist, wenn KI uns kognitiv überholt? Wenn sie ein eigenes Bewusstsein und einen freien Willen entwickelt? Können wir dann noch kontrollieren, was sie tut? Ist es der richtige Weg, ‚KI-Wesen‘ Rechte zuzugestehen? Woran erkennen wir, ob eine KI tatsächlich ein Bewusstsein hat oder ob sie das nur simuliert? Angenommen wir betrachten KIs als gleichberechtigt – heißt das dann, dass wir ihre Entscheidungen respektieren müssen, selbst wenn sie unserem Wertesystem widersprechen? Absichtlich oder weil sie unsere Werte nicht versteht? Dazu ein Beispiel aus einem Artikel, den mir ebenfalls Magdalene empfohlen hat: „Imagine you have a house-cleaning robot that you instruct to keep your house as clean as possible. This seems simple enough. However, the AI might interpret this goal in ways you didn’t intend. For example, it might decide that the best way to keep your house clean is by never letting anyone in — including you — because humans constantly shed skin cells and bring in dirt on their shoes“. Harmloses Beispiel, aber man kann das ja hochskalieren: Was ist, wenn eine KI sich dafür „entscheidet“ der Menschheit zu schaden?

Eigentlich wollte ich hier noch einen dritten Gedanken unterbringen. Ich habe zu zwei Kapiteln meines gerade im Entstehen begriffenen Lehrbuchs „Wissenschaftliches Schreiben mit KI“ von einem Kollegen sehr detailliertes Feedback bekommen. Er würde einiges wesentlich vorsichtiger formulieren als ich. Und auch hier spielen die Themen Vertrauen und Verantwortung eine Rolle. Auch wenn dies ein sehr platter und abrupter Schluss dieses Blogartikels ist: Den dritten Gedanken verschiebe ich auf einen anderen Blogpost – ich muss nämlich dringend an meinem Buch weiterschreiben, die Deadline naht … In diesem Sinne: Schönes Wochenende!

Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.
Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.