Epistemische Risiken durch KI in der Wissenschaft

KI-generiertes Bild: In Mitte großes Buch, auf das helles Licht fällt, davor sitzt ein Mensch mit Smartphone, im Hintergrund Hologramme

Diese Woche fühlte ich mich mal wieder recht überfordert von all den tollen Ressourcen, mit denen man tagtäglich so konfrontiert wird. Besonders eindrücklich habe ich diese Überforderung bei der Lektüre von Sirkka Freigangs Buch „Smart Learning Design“ gespürt. Zunächst vorweg, sodass kein Missverständnis entsteht: Das Buch ist großartig! Es ist deshalb so großartig, weil es das erste Buch ist, das ich kenne, das konsequent und eigentlich auf jeder Seite mit QR-Codes arbeitet. Hinter den QR-Codes verbergen sich weiterführende Informationen zu einem Thema, teilweise Infografiken, teilweise extra für das Buch (sehr liebevoll) erstelle Vertiefungstexte, teilweise Verweise auf Webseiten. Als Leserin kann ich also entscheiden, bei welchem Thema ich noch einen Deep Dive machen möchte. Wenn man aber als sehr neugierige Person unterwegs ist, die immer Neues dazulernen möchte, kann das leicht überfordernd wirken. Hier noch schnell auf einen QR-Code geklickt und dort – und schwups hat man sich in der Informationsfülle verloren. Selbstmanagement ist hier also eine sehr wichtige Kompetenz. Was ich außerdem bzgl. dieses Buches noch hervorheben möchte, da es anders ist als das, was ich bislang von solchen Büchern kenne: Die Autorin startet mit einem Vorwort und einem Check-in, bei dem sie ihre eigene Biografie und auch ihre eigene Lernreise schildert. Das war für mich erst leicht irritierend, da unbekannt. Und dann fand ich es einfach toll. Warum? Allein dadurch, dass ich die Autorin so auf eine ganz andere Weise kennenlernte, blieben mir die Inhalte viel besser in Erinnerung. Storytelling in seiner besten Form also.

Neben Sirkka Freigangs Buch hat mich diese Woche ein Artikel besonders beschäftigt, der ein kritisches Licht auf die Rolle der KI in der Wissenschaft und die damit verbundenen Risiken der Wissensproduktion wirft. Da ich diesen Artikel von Messeri/Crockett (2024) so spannend fand, habe ich mir die Zeit genommen, ihn intensiv zu lesen. Messeri und Crockett entwickeln eine Taxonomie der Visionen, die Wissenschaftler:innen von der Rolle der KI im Forschungsprozess haben, und identifizieren dabei vier Varianten: KI als Orakel, als Stellvertreter, als Quant und als Schiedsrichter (hier sollte man wohl besser mit den originalen englischen Begriffen arbeiten, um zu verstehen, was sich dahinter verbirgt). Jeder dieser vier prototypischen Einsatzszenarien verspricht, bestimmte Aspekte der wissenschaftlichen Arbeit zu verbessern – von der Studienkonzeption bis hin zur Datensammlung, -analyse und -bewertung. Die Autor:innen argumentieren auf dieser Grundlage, dass KI-Tools weit mehr als bloße Hilfsmittel sind. Sie zeigen recht anschaulich, wie KI-Tools uns in eine „Illusion des Verstehens“ führen können, die unsere Perspektiven einschränkt und uns glauben lässt, wir wüssten mehr, als wir tatsächlich wissen. In diesem Kontext sprechen Messeri und Crockett auch von sog. epistemischen Risiken, also Gefahren, die aus falschen Überzeugungen resultieren.

Ein besonders interessanter Punkt ist für mich die Warnung vor „Monokulturen des Wissens“. Fragen und Methoden, die sich am besten für die Arbeit mit KI-Tools eignen, anderen ‚Forschungsmodi‘ vorgezogen werden, was zu einer Verengung wissenschaftlicher Untersuchungen führen kann. So könnten beispielsweise KI-generierte Daten, die menschliche Umfrageantworten imitieren, Experimente, die physische Verhaltensmessungen oder Face-to-Face-Interaktionen erfordern, unpopulär machen, da sie langsamer und kostspieliger sind​. Messeri und Crockett betonen in diesem Kontext, dass die Diversität menschlicher Forschungsteams die Wissenschaft besser und leistungsfähiger macht: Sie argumentieren, dass die Wissenschaft als soziale Praxis von der Einbeziehung verschiedener Standpunkte profitiert und dass der Ersatz dieser Vielfalt durch KI-Tools den Fortschritt hin zu einer inklusiveren Wissenschaftsarbeit behindern und sogar zu einem ‚backlash‘ führen könnte​. Ihre Überlegungen kulminieren daher u. a. in einem Plädoyer, soziale und technologische Aspekte nicht zu trennen: „In other words, because scientific research is a fundamentally social process, evaluating the epistemic risks of AI for science requires not only technical assessments, but also an understanding of the social and cognitive processes through which scientists extend epistemic trust, decide what research questions to pursue and interpret the results of experiments.“ (Messeri und Crockett, 2024: 51) Für mich leistet dieser Artikel einen wichtigen Beitrag zur Debatte um den Einsatz von generativer KI in der Forschung und bietet wichtige Gedankenanstöße für die Diskussion verantwortungsvoller Wissensproduktion im KI-Zeitalter.

Außerdem habe ich diese Woche einen spannenden kollaborativen Schreibprozess für einen Beitrag für die Neuauflage des „Handbuchs Lernen mit digitalen Medien“ begonnen. Doris Weßels und ich schreiben einen Artikel, in dem es ganz grob um die Implikationen von generativer KI für die schulische Bildung gehen soll. Wir haben uns diese Woche erstmals getroffen, hatten noch kein genaues, also konkreteres Thema im Voraus und müssen Ende April den Artikel einreichen, es ist also recht sportlich. Wir hatten vor ein paar Wochen aber schon einmal telefoniert, um grob auszuloten, über welches Thema wir den Artikel schreiben könnten. In diesem Kontext kamen wir auf die Frage, inwiefern wir in fünf oder zehn Jahren überhaupt noch schreiben und lesen werden. Oder ob aufgrund der zunehmenden Möglichkeiten von Sprachsteuerung vieles, wenn nicht gar alles, nur noch per Spracheingabe gesteuert wird. Bei unserem Treffen diese Woche kamen wir deshalb auf die Idee, einen Selbstversuch zu machen und auszuprobieren, inwiefern wir die Einleitung unseres Artikels nur per Sprachsteuerung via ChatGPT-Smartphone-App erstellen können, also ohne einen einzigen Buchstaben zu tippen. Und ohne jetzt schon zu viel von unserem Artikel vorwegzunehmen, war mein persönliches Fazit, dass ich gut Artikel auch einfach per Sprachsteuerung schreiben bzw. schreiben lassen kann, dass ich mir aber nicht vorstellen kann, Texte nur noch vorgelesen zu bekommen. Zumindest momentan bin ich für das eigene Produzieren von Text doch noch stark auf das Lesen meiner eigenen Gedanken angewiesen, um immer wieder in die Iteration gehen zu können. Wie wir dann weitergemacht haben und was schlussendlich das Thema unseres Artikels geworden ist, können Interessierte dann hoffentlich ab Herbst dieses Jahres im Handbuch nachlesen. So viel aber vorab: Alle weiteren Kapitel werden wir ganz ‚old school‘ per Tastatur am Laptop erzeugen.

Bei all diesen kognitiven Aufgaben habe ich diese Woche mal wieder eine neue Möglichkeit für mich gefunden, meine Pausen gut zu gestalten. Und zwar wurde ich auf die App „TK-Coach“ meiner Krankenkasse aufmerksam. Keine Sorge, ich bekomme kein Geld dafür, dass ich das hier schreibe. Aber wer ohnehin bei der Techniker versichert ist, dem:der kann ich sehr empfehlen, sich diese App mal anzuschauen. Man findet hier einige kurze Video-Übungen zum Mitmachen, sei es im Bereich „Entspannung“ oder „Bewegung“. Und so habe ich diese Woche fast jede meiner Pausen zwischendrin mit einer Übung aus dieser App gefüllt, was mir definitiv sehr guttat.