In einer Welt, die sich durch eine rasante Dynamik, ständige Veränderungen und eine gesellschaftliche Pluralität auszeichnet, wird die Fähigkeit, Mehrdeutigkeit und Widersprüche auszuhalten, immer mehr zu einer unverzichtbaren Kompetenz. Ulf-Daniel Ehlers definiert den Future Skill „Ambiguitätstoleranz“ als die „Fähigkeit, Vieldeutigkeit, Heterogenität und Unsicherheit zu erkennen, zu verstehen und produktiv gestaltend damit umgehen zu können sowie in unterschiedlichen und auch konfligierenden Rollen agieren zu können“. Da mich dieses Thema aktuell an einer Schnittstelle zwischen Privatem und Beruflichem stark beschäftigt, möchte ich diesen Blogartikel diesem Future Skill widmen.
Bei eigentlich jedem meiner Vorträge zum Thema „textgenerierende KI“ kommt in der Diskussion die Frage auf, wie ich mit den ganzen ethisch und ökologisch problematischen Aspekten von KI-Tools umgehe. Erst diese Woche berichtete the-decoder, dass der enorme Ressourcenverbrauch und die Verbreitung von Fehlinformationen durch KI laut Climate Action Against Disinformation ernsthafte Bedrohungen für den Klimaschutz darstellen. Das Bündnis aus 50 Klima- und Anti-Desinformationsorganisationen warnt vor zwei großen Klima-Risiken durch generative KI: einem drastisch steigenden Energie- und Wasserverbrauch sowie einer beschleunigten Verbreitung von Klima-Desinformationen. KI-Suchanfragen brauchen fünf- bis zehnmal mehr Rechenkapazitäten als normale Internetrecherchen – ganz zu schweigen vom Erzeugen von KI-Bildern, wo die Generierung eines Bildes in etwa so viel Energie braucht wie das vollständige Aufladen eines Smartphones. Außerdem befindet sich ein Fünftel der Rechenzentren in Gebieten mit mäßiger bis starker Wasserknappheit, sodass der steigende Bedarf an Rechenleistung lokale Wasserknappheit und Dürrerisiken verschärfen könnte.
Neben Umweltfaktoren gibt es auch noch andere Probleme im Kontext von generativer KI: Die Internet Watch Foundation meldete Ende Oktober 2023, dass KI-Bildgeneratoren zu einem Anstieg an Material über sexuellen Kindesmissbrauch führen. Schon Ende Juni 2023 wiederum hatte das National Center for Missing and Exploited Children in den USA von einem „starken Anstieg“ von KI-generierten Missbrauchsbildern berichtet. Die Bilder würden Ermittlungen erschweren und könnten die Identifizierung von Opfern behindern.
Die Aufzählung der schädlichen Dimensionen ließe sich sicher noch um viele weitere Abschnitte ergänzen. Ich führe dies hier nicht weiter fort, verweise aber auf eine wirklich tolle Linksammlung zu diesem Thema, die ich diese Woche passenderweise entdeckt habe, nämlich auf das Handbook of AI’s unintended consequences.
Zurück aber zu meinem Ausgangsproblem: Wenn in Vorträgen die Frage aufkommt, wie ich diese ganzen teilweise wirklich schlimmen Aspekte von KI mit meiner KI-Nutzung vereine, verweise ich in meiner Antwort immer, ohne hier aber natürlich abgebrüht oder defätistisch klingen zu wollen, auf das Thema „Ambiguitätstoleranz“. Und dieses Thema beschäftigt mich wirklich sehr, auch privat: Auf der einen Seite bin ich in der Fahrradpolitik aktiv (beim ADFC Wiesbaden Rheingau-Taunus), habe kein Auto, lege alle Strecken in Mainz und Wiesbaden mit dem E-Bike zurück. Außerdem ernähre ich mich vegan und kaufe seit knapp zwei Jahren aus ethischen Gründen fast ausschließlich Second Hand Kleidung. So viel zu meiner Seite als ‚Umweltheilige‘ (bewusst Zynismus symbolisierend in Anführungszeichen gesetzt). Nun aber zur anderen Seite: Ich kaufe sehr viele Klamotten (zwar, wie gesagt, Second Hand, aber dennoch), habe einen Hund, der zwar 30 % seines Futters in veganer Form bekommt, trotzdem aber 70 % Fleisch, ich bin letztes Jahr zweimal geflogen und werde auch dieses Jahr wieder innerhalb von Europa zweimal fliegen. Und ich nutze täglich KI-Tools. Ja, ich generiere fast keine Bilder mehr aus Spaß (wie am Anfang des Bildgenerierungs-Hypes), aber trotzdem. Ambiguitätstoleranz ist bei mir – und in dem Fall ja auch für mich selbst, auf meine eigene Person bezogen – auf jeden Fall vorhanden. Die Frage bleibt aber für mich, ob ich es mir damit nicht zu einfach mache? Andererseits: Was sollte ich sonst tun? KI ist so ein wichtiges Thema für die Zukunft der Hochschulen – mich diesem Thema zu entziehen, kommt für mich nicht infrage. Im Gegenteil: Ich möchte meinen Beitrag dazu liefern, dass Studierende einen verantwortungsbewussten Umgang damit erlernen. Und dafür muss ich selbst wiederum viele KI-Tools ausprobieren, KI-Tools nutzen, um zu einer Positionierung zu gelangen.
Neben meinen eigenen Widersprüchen, mit denen ich im Privaten leben muss, stellt sich mir auf einer didaktischen Ebene aber auch die Frage, wie wir Studierende beim Erwerb dieser Kompetenz konkret unterstützen können? Wie können sie lernen, mit Unsicherheit und Uneindeutigkeit umzugehen? Denn am Ende steht fest, wie Thomas Bauer, Professor für Islamwissenschaft an der Universität Münster, in diesem tollen Beitrag von Deutschlandfunk Kultur zum Thema „Ambiguitätstoleranz“ sagt: „Demokratie lebt davon, dass man Ambiguität in Kauf nimmt“. Wenn Menschen nur schwer aushalten könne, dass Dinge nicht eindeutig sind, macht sie das anfällig für Populismus. Insofern ist die Frage nach Ambiguitätskompetenz am Ende eine Frage, die mitten dort hineinzielt, dass wir an Hochschulen immer auch die Mission haben sollten, mündige Bürger:innen einer demokratischen Gesellschaft auszubilden.