KI als Lösung für eine komplexe Welt – und der Preis?

Abstraktes Bild mit Gehirn und bunten Formen

In meinem heutigen Blogartikel versuche ich, eine Verbindung herzustellen zu all den großen Themen, die mich gerade im Kontext von generativer KI umtreiben. Mein wöchentlicher Blog-Post ist für mich ja auch immer eine angenehme Möglichkeit, zum Ende der Woche die Themen tiefer zu durchdenken, zusammenzudenken, die mich im Laufe der Woche beschäftigt haben.

Starten möchte ich mit einem Zitat einer Teilnehmerin:eines Teilnehmers einer meiner letzten Seminare zu KI in der Hochschullehre. Jemand notierte im Feedback-Frame auf dem Miroboard: „Wenn KI die Lösung ist, was ist dann das Problem?“ Und irgendwie hat mich dieses Zitat nicht losgelassen; gleichzeitig fühlte ich immer eine Wand in meinem Kopf, wenn ich näher darüber nachdenken wollte. Ja, was ist das Problem, wenn KI die Lösung ist? Im Dialog mit ChatGPT (übrigens während ich gekocht habe), habe ich mich einer Antwort angenähert. Ich glaube, das Problem ist das Thema Komplexität. KI ist die Lösung für eine Welt, in der es darum geht, immer komplexere Aufgaben in immer kürzerer Zeit zu erledigen. KI ist die Lösung für eine Welt, in der es immer mehr Informationen gibt und es deswegen immer schwieriger bzw. letztlich komplett unmöglich wird, alle Informationen zu überblicken und sich ein eine fundierte Meinung zu einem Thema zu bilden. KI ist die Lösung für eine Welt, in der Entscheidungsprozesse zunehmend automatisiert und optimiert werden müssen, um Effizienz und Genauigkeit zu steigern. KI ist die Lösung für eine Welt, in der personalisierte Bildung und individuelle Lernpfade immer wichtiger werden, um auf die unterschiedlichen Bedürfnisse und Fähigkeiten der Lernenden in all ihrer Komplexität einzugehen. KI ist die Lösung für eine Welt, in der die Analyse und Interpretation großer Datenmengen entscheidend ist, um fundierte Entscheidungen zu treffen und Innovationen voranzutreiben. KI ist also die Lösung für die Komplexität von uns Menschen und für die Komplexität der von uns geschaffenen Welt.

Anderer Strang, gleiches Thema. Google kündigte letzte Woche auf der Google I/O 2024 eine neue Funktion an, von der behauptet wird, dass sie eine „neue Ära der Internetsuche“ einleiten würde. Künftig wird es möglich sein, dass die Ergebnisse einer Google-Suche KI-generiert zu einem kurzen Text zusammengefasst werden. Man muss sich dann also nicht mehr durch einzelne Seiten hindurchklicken, sondern kann einfach diesen Text lesen. Letztlich also eine Funktion, wie sie Perplexity AI jetzt schon anbietet. Die Medien berichten, dass diese Funktion als „noch größerer Fortschritt als ChatGPT“ angesehen wird, und das soll ja doch einiges heißen. Die neue KI-Such-Funktion soll alles verändern, wie wir das Internet nutzen.

Unsere Arbeitsweise wird künftig also noch effizienter werden, und wir werden noch mehr Informationen in noch kürzerer Zeit aufnehmen können. Wie die NZZ schreibt: „Je besser Googles KI ihre Arbeit macht, desto weniger muss man künftig auf Links klicken. Das zeigt sich schon jetzt. Wer googelt «Wie viele Google-Anfragen gibt es pro Tag weltweit?», dem erklärt in den USA nun die KI, dass es «gemäss der Website seo.ai pro Sekunde 99 000 Suchanfragen sind, was umgerechnet 8,5 Milliarden Suchen pro Tag entspricht». Wer würde da noch auf die besagte Website klicken? Die KI hat die Antwort doch perfekt zusammengefasst.“

Ein Thema, mit dem ich mich in diesem Kontext schon länger beschäftige, ist die Frage, was mit unseren klassischen Browsern passiert. Ich hatte in diesem Blog schon mal ansatzweise darüber geschrieben. Wer diesen Blogbeitrag gelesen hat, weiß, dass ich sehr begeistert bin vom Arc Browser für das iPhone und für Windows 11 (ich nutze ihn aktuell nur auf dem iPhone, da ich kein Windows 11 habe). Arc hat seit heute nun wieder mal ein neues Feature. Man kann sich, wenn man den Browser auf dem Smartphone geöffnet hat, das iPhone einfach ans Ohr halten und eine Frage stellen, so als würde man telefonieren und zum Beispiel bei einer Hotline oder einer Auskunft anrufen.

Auch ChatGPT hat letzte Woche einige Neuigkeiten bekannt gegeben. U.a. hat OpenAI für MacOS eine App entwickelt, die es gar nicht mehr nötig macht, dass ich überhaupt meinen Browser aufrufe. Ich kann künftig alles über die App selbst erledigen, die sich per Tastenkombi auch jederzeit aufrufen lässt. Browser brauche ich vielleicht nur noch dann, wenn ich mir gezielte Artikel von einer Website durchlesen will. Wobei, brauche ich da wirklich noch einen Browser? Wenn ich begeisterte ZEIT-Leserin bin, habe ich schon jetzt die ZEIT-App auf meinem Smartphone, rufe die Seite also auch nicht über den Browser auf.

Frage und direkt eine Antwort. In Echtzeit, ohne das nervige Klicken auf verschiedene Seiten. Alles über eine App, alles über Sprachsteuerung (wie gesagt, Teile dieses Artikels entstehen während des Kochens), alles noch effizienter, alles noch personalisierter.

Die große Frage, die sich für mich jetzt stellt, ist: Was bedeutet das alles eigentlich für Hochschulbildung? Ich war diese Woche zu Gast in einem Master-Seminar und sollte die Studierenden dazu beraten, wie man Custom GPTs erstellt. Zu Beginn haben sich die Studierenden mir vorgestellt und haben von ihren Vorerfahrungen mit ChatGPT berichtet. Alle haben gesagt, dass sie es bislang für die Recherche nutzen. Aber niemand von ihnen hat eine Plus-Version. Das heißt, sie können via ChatGPT nicht aufs Internet zugreifen. Recherche funktioniert dann nicht, jedenfalls nicht zuverlässig. Außerdem haben alle gesagt, dass sie auch noch nie wirklich über Prompting nachgedacht haben. So. Und dann gibt es bald KI-generierte Zusammenfassungen von Google-Suchergebnissen. GPT-4o mit emotionaler Färbung. Was bedeutet das für Hochschulbildung? (ChatGPT hat mich hier sehr aufgeregt: „Für die Hochschulbildung bedeutet das, dass Studierende einerseits lernen müssen, grundlegende Kompetenzen im Umgang mit generativer KI zu entwickeln, einschließlich effektiver Nutzung und Prompting. Andererseits müssen Lehrende dafür sorgen, dass die Technologie sinnvoll integriert wird, um das Lernen zu unterstützen und nicht zu ersetzen.“ Ich kann diese Allgemeinplätze NICHT MEHR HÖREN!)

Letzten Endes geht es immer um ein konkretes, praktisches Lernen und Ausprobieren. Ich bin immer weniger davon überzeugt, dass wir für Studierende einfach losgelöst Workshops zum Thema generative KI anbieten können. Wir brauchen ein konkretes Thema und am besten die Einbindung direkt in Projekte. Wie oben schon geschrieben, war ich diese Woche beratend tätig für ein Projektseminar in einem unserer Fachbereiche. Die Studierenden entwickeln ein Produkt für eine öffentliche Institution, bearbeiten also eine authentische Aufgabe aus der Praxis. Besser geht es nicht, wenn es um motivationsförderliche Schreibaufträge geht. Dabei arbeiten sie in Gruppen zusammen und sollen sich bei jedem ihrer Schritte bestmöglich von generativer KI unterstützen lassen. (Mehr mag ich an dieser Stelle zum Projekt nicht sagen, da ich nicht weiß, inwiefern ich das öffentlich machen darf). Ein praxisorientierter Ansatz wie der in diesem Seminar ist ideal. Durch die Einbindung von KI in konkrete Projekte und authentische Aufgaben lernen Studierende, KI zur Unterstützung ihrer Arbeit zu nutzen. Sie entwickeln dabei praktische Anwendungskompetenzen und sehen den direkten Nutzen von KI in realen Szenarien, stoßen aber auch auf Herausforderungen, die es zu bearbeiten gilt. Dies fördert nicht nur das Verständnis der Technologie, sondern hoffentlich auch die Kompetenz, souverän mit der Technologie umzugehen, am Ende aber selbst die Verantwortung für das Produkt zu tragen.

Dritter und letzter Strang. Diese Woche ist mir ein großartiger Artikel von Joana Stella Kompa untergekommen, den ich inzwischen schon dreimal gelesen habe und den ich einfach immer wieder aufs Neue sehr erhellend und stark finde. Er gehört sicherlich zu den Texten, die ich auf meine Liste von Must-Reads ‚for everybody‘ setzen würde. Der Text trägt die Überschrift „Die Kolonialisierung der Zukunft“; die erste Zwischenüberschrift lautet „Die Informationsgesellschaft lagert ihre Epistemologie an nichtmenschliche Systeme aus“. Und genau darum geht es im Kern ja auch in diesem, meinem Blogartikel.

Der Artikel zeichnet ein relativ düsteres Bild. Er spricht davon, dass LLMs „derzeit von den digitalen Overlords des Silicon Valley, die auf prall-gefüllten Geldreserven sitzen, in einem beispiellosen Wettlauf vorangetrieben [werden]. Ihre Modelle treiben einerseits einen frivolen Raubbau am kulturellen Erbe der Menschheit voran (ohne freilich dessen geistige Eigentümer*innen zu entschädigen), andererseits normieren sie die Erwartung, wie menschliche Sprach-, Bild-, oder Musikhorizonte auszusehen haben“.

In der Hochschulbildung bedeutet dies, dass wir nicht nur die technischen Aspekte von KI lehren müssen, sondern auch die sozialen, ethischen und kulturellen Implikationen (wie auch dieser Artikel zeigt, dessen Lektüre ich ebenfalls wärmstens empfehlen kann). Aber die Frage ist: „Wen kümmert‘s?“ Und weiter. „Die scheinbar gottgegebenen Argumente der Effizienz- und Produktivitätssteigerung rechtfertigen so ziemlich alles. Was dabei mit der Kultur, der Gesellschaft und uns selbst passiert, ist zweitrangig.“ Auch hier wieder das Thema: Hauptsache Effizienz, Hauptsache Steigerung der Produktivität. Willkommen im Kapitalismus. Ich frage mich, was das alles gerade für uns bedeutet. Ich nutze begeistert GPT-4o. Ich nutze die ChatGPT-App auf meinem iPhone, weil sie einfach gut ist, weil sie mir in allen möglichen Situationen (Kochen …) beim Denken hilft. Aber natürlich ist die Frage, in welche Richtung mich diese Sprachmodelle in meinem Denken lenken. Und obwohl ich über metakognitive Kompetenz verfüge, vermag ich das trotzdem nicht genau zu sagen. Inwiefern können wir hier noch gegensteuern? Inwiefern können wir Open-Source-Modelle stärker propagieren, ohne aber auch deren Gefahren zu unterschätzen? Inwiefern schaffen wir es, die „Entkoppelung der kulturellen von der technologischen Entwicklung“, wie sie Joana Stella Kompa befürchtet, zu stoppen?

Und dann fühle ich mich ertappt. Im Artikel wird von Eliten gesprochen, „zu denen die meisten von uns gehören“, die aus einer „privilegierten Bildungssozialisation“ schöpfen. Ja, ich gehöre dazu. Ich agiere, wie andere Angehörige dieser Eliten, oberhalb des „AI-Autonomy Threshold“. „Für alle anderen, die nicht ausreichend lesen, schreiben und rechnen können – laut IGLU-Studie ein großer Teil aller Grundschulkinder – wird KI zu einer lebenslangen Krücke, wobei Unternehmen ein kommerzielles Interesse daran haben, ihre Kund*innen in lebenslanger Konsumabhängigkeit zu halten“. Auch hier wieder: Willkommen im Kapitalismus. Habe ich am Ende wirklich die Individualisierung, von der KI uns gerade alle träume macht? Oder läuft es vielmehr auf ein Alle-sind-letztlich-gleich, Alle-sind-stromlinienförmig hinaus? Ist das nicht der Fall, wenn am Ende alle einen „fremdbestimmten, optimierten Lebensentwurf mit größtmöglicher Sicherheit, Vorhersehbarkeit und wenigen Überraschungen“ haben?

Und dann wieder zurück zu meinem Anfangsthema. Wenn wir alle Informationen nur noch als KI-generierte Zusammenfassung erhalten, wenn wir keine Browser mehr öffnen, sondern nur noch von einzelnen Big Playern gesteuerte LLM-gestützte Apps, dann führt dies, jedenfalls sagt dies Joana Stelle Koma, zu einem „relativen Freiheitsverlust. Es geht um die Abtretung einer offenen Selbstbestimmung an externe Systeme“. All das ist nicht schwarz oder weiß. Wir befinden uns in einer „hyperkomplexen Welt“ und damit in einem Dilemma: „Einerseits benötigen wir KI-Systeme, um die Komplexität unserer Welt besser navigieren zu können, andererseits gilt es, unsere Menschlichkeit zu bewahren, indem Menschen niemals Systemen untergeordnet werden dürfen. Mehr noch – dass ihre Bedürfnisse und Wünsche die KI-Systeme leiten und informieren“.

Wir müssen also zwischen Effizienz und Autonomie abwägen. Um diesem Dilemma zu begegnen, sollten wir dringend Informationskompetenz fördern, Literacy. ChatGPT sagte mir dazu in unserem Dialog: „Lehren Sie Studierende, wie sie Informationen kritisch bewerten und unterschiedliche Quellen nutzen können, um eine breitere Perspektive zu erhalten.“ Ja, auf genau diese Forderung lässt sich das Ganze am Ende herunterbrechen. Bleibt nur noch die Frage, wie wir die Notwendigkeit dieser Kompetenz glaubhaft und überzeugend vermitteln. Wie wir abstrakte Werte wie Demokratie ganz, ganz, ganz konkret herunterbrechen. Weiß der Otto-Normal-Student oder die Maxi-Musterfrau-Normal-Studentin um die „Zerbrechlichkeit von Freiheit“? Um die „menschliche Verletzlichkeit“? Darum, „dass es keinen Automatismus, keinen zwangsläufig-fortschreitenden Weltgeist für eine bessere Zukunft gibt“? Dass „Freiheit mit jeder Generation neu gewonnen, erlebt, demokratisch gelebt (John Dewey) und neu erfunden werden“ muss? Oder wird das als Geschwafel einer WEIRD-Elite abgetan, die sich vermeintlich nicht um konkrete Alltagsprobleme nicht so privilegierter Menschen schert?

Das Essen, das ich nebenher gekocht habe, ist schon viel zu lange im inzwischen ausgeschalteten Ofen. Gleich muss ich mich um die ‚sozialen Konsequenzen‘ dieser Tatsache kümmern. Und damit bin ich am Ende meines Artikels angelangt, das mich frustiert und von mir selbst genervt zurücklässt, weil es so einfach, so banal, so un-innovativ ist: Denn am Ende bin ich zurückgeworfen auf Menschlichkeit, auf die zwischenmenschlichen Begegnungen, die bei alldem am meisten zählen. Für die ich Kompetenzen benötige, die ich außerhalb von KI kultivieren muss. Das ist ein so banales phrasendrescherisches Ende (dieses Wort gefällt meinem KI-Korrektur-Tool natürlich gar nicht), dass es mir wehtut. Ich möchte tolle Antworten liefern, keine so banalen. Aber vielleicht sind die banalen, wenig komplexen Antworten am Ende die besten. Ich hoffe es. Minimierung unseres Freiheitsverlustes, Finden einer Balance zwischen KI-Nutzung und Erhalt unserer Autonomie. Ein Ziel, dem ich mich gerne verschreibe.