Mehr als eine leere Floskel: Kritisches Denken & KI

Buntes Bild mit Menschen, die diskutieren

Wie vielleicht zu erwarten war, widme ich meinen Blogpost diese Woche dem University:Future Festival, bei dem ich zwei Sessions hatte: ein Diskussionspanel zusammen mit einer sehr geschätzten Kollegin von der htw Saar, Cvetanka Walter, und einen Beitrag für den Stand von „Nel“ auf der Community Stage Berlin zum Thema „Lernunterstützung durch KI-Tools“.

Für unser Diskussionspanel mit dem Titel „Mehr als eine leere Floskel: Kritisches Denken & KI“ hatten wir eine illustre Runde zusammengestellt: zwei Studierende, eine LfbA, einen Vizepräsidenten für Digitalisierung und drei Professor:innen. Hier ein Auszug aus dem Beschreibungstext: „Mit dem Launch von KI-Tools wie ChatGPT wurde eine Lawine an Texten losgetreten, in deren Zentrum die gebetsmühlenartige Forderung nach kritischem Denken im Kontext der Nutzung von KI-Tools steht. Diese Forderung erscheint als elementarer Teil des bildungspolitischen Narrativs um die Zukunft von Hochschulen angesichts text- und auch bildgenerierender KI. Allzu häufig bleibt dieses Plädoyer aber auf einer oberflächlichen Ebene und scheint somit wenig reflektiert. Denn: Was genau bedeutet „Kritisches Denken“? Geht es dabei wirklich nur um den Inhalt, um die Wahrhaftigkeit der KI-Generate? Oder auf welche Aspekte kann sich die Forderung noch beziehen? Welche Rollen spielen in diesem Prozess z. B. die eigenen Werte und Expertise? Wie überwinden wir Bias?“

Zunächst einmal fand ich es spannend, dass jemand aus dem Panel auf die Problematik der negativen Konnotation des Adjektivs ‚kritisch‘ im Deutschen hinwies. Dies ist deshalb ein Problem, da nicht wenige Studierende sich nicht trauen, kritisch zu denken, da sie ja gar nicht in der Position wären, etwa den Text einer renommierten Wissenschaftlerin – oder eben auch einer KI mit vermeintlicher Fachexpertise – zu kritisieren. Antonia Fallböhmer-Koop merkte dazu im Chat an: „Man kann auf den griechischen Ursprung des Wortes zurückgehen, wo „krinein“ einfach nur „unterscheiden, beurteilen“ heißt“. Vielleicht wäre es einfacher, wenn es im Deutschen nicht ‚kritisches Denken‘, sondern ‚beurteilendes Denken‘ (ergibt das Sinn?) heißen würde. Eine Diskussionsteilnehmerin konstatierte in diesem Kontext, dass es eher um Zweifel gehe, die der „Motor“ seien, um sich mit einem Thema tiefergehender auseinanderzusertzen. Relativ einig waren sich die Panelist:innen und auch die Teilnehmenden im Chat darin, dass es keine spezielle Form des Kritischen Denkens im Umgang mit KI-Tools brauche – nur ggf. mehr davon. Früher hätten die Studierenden häufig dem Buch-Wissen Glauben geschenkt und wenn sie nun KI-generierten Texten Glauben schenken, so setze sich hier nur eine technologische Entwicklung fort (dem würde ich aber zumindest in Teilen widersprechen: Fachbücher sind i. d. R. von Fachexpert:innen geschrieben und gingen durch irgendeine Art von Review-Prozess. Bei KI-generierten Texten ist dies jedoch nicht der Fall.).

Zur Frage, wie kritisches Denken im Kontext von KI-Tools konkret gefördert werden kann, lautete die für mich überzeugendste Antwort wie folgt (aus dem Chat): „Meiner Einschätzung nach, ist Modelllernen die nachhaltigste Form kritisches Denken zu lernen. Dafür müssen „wir“ kritisches Denken „sichtbar“ zu machen. Gerade im Kontext KI.“ (Claudia Hoffmann)

Eine Person aus dem Panel wies auch darauf hin, dass textgenerierende KI-Tools häufig gefällig antworten. Doch selbst wenn wir uns mit diesen gefälligen Antworten dann kritisch auseinandersetzen: Was ist mit den Ergebnissen, die wir nicht bekommen? Vielleicht ist diese Frage zu philosophisch angehaucht, vielleicht sollte aber gerade hierauf stärker unser Fokus liegen. Aus prinzipiell unendlich vielen möglichen Antworten erhalten wir die im jeweiligen Kontext wahrscheinlichste Antwort – aber was ist mit den Antworten, die es quasi ‚nicht geschafft‘ haben, mit der zweit- und drittwahrscheinlichsten Antwort?

Parallel zu unserer Diskussionsrunde wurde auch im Chat eifrig diskutiert. So kam hier z. B. die Frage auf, ob es um Kritisches Denken im Hinblick auf KI oder um Kritisches Denken mit KI geht. Da KI-Tools als Sparringpartner kritsches Denken auch unterstützen können, ist diese Frage definitiv nicht unberechtigt.

Ein weiterer Kommentar, den ich bedenkenswert finde, ist der folgende: „Ist kritisches Denken nicht auch eine Fähigkeit, die voraussetzt, dass man seine Gedanken ordnen und formulieren kann, und damit auch zumindest stark durch Bildung beeinflusst? Ist es nicht denkbar, dass manche Menschen eine kritische Haltung haben, diese aber nicht geordnet und durch ‚Wissen‘ und Struktur ausdrücken können?“ (Pierre Rafih)

Im Nachgang zur Diskussion schickte einer unserer Panelisten noch eine Mail an alle Mit-Diskutierenden, deren Kerngedanken ich hier ebenfalls teilen möchte: „Was mir im Nachgang noch einfiel: Ich denke, in meiner fast grenzenlosen Naivität, dass es doch eine Sache gibt, die der Mensch kognitiv durchaus auch langfristig noch besser kann als eine KI, und das ist die Einordnung rezipierter Inhalte nach dem Kriterium der der Plausibilität (zumindest wenn man das kritische Denken rechtzeitig einschaltet) bzw. der Abgleich von Aussagen mit der selbst erfahrenen Realität im Laufe des Lebens. Darin sind synthetische Algorithmen einfach schlechter als Menschen, da sie allenfalls sensorische Unterstützung, aber keinen „persönlichen“ Bezug zu einer wie auch immer für sie modellierten Realität haben“.

Während der Diskussion ließen wir übrigens eine Menti-Umfrage laufen, über die wir aus dem Publikum Fragen sammelten, die genutzt werden können, um im Kontext von generativer KI kritisches Denken zu fördern. Cvetanka Walter und ich haben diese Fragen unter einer CC-Lizenz veröffentlicht.

So viel zu meiner Diskussionsrunde beim U:FF. Am Schluss dieses Beitrags folgt nun noch ein schönes Beispiel, wie man das Thema ‚KI‘ niederschwellig in die Lehre integrieren kann: Wir hatten an der Hochschule RheinMain diese Woche ein Austauschformat zu good practices ‚KI-Tools beim Lehren und Prüfen‘. Ein Lehrender berichtete hier, dass er seine Block-Lehrveranstaltungen immer mit einem ‚FOMO-Block‘ beginnt: Er fragt die Studierenden, was seit dem letzten Treffen passiert ist und was sie gerade bewegt. Die Antworten sollen auf das Fach bezogen sein, doch er ermutigt die Studierenden dezidiert auch dazu, aktuelle KI-Tools einzubringen, mit denen sie gerade arbeiten.

Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.
Datenschutz
Ich, Dr. Isabella Buck (Wohnort: Deutschland), verarbeite zum Betrieb dieser Website personenbezogene Daten nur im technisch unbedingt notwendigen Umfang. Alle Details dazu in meiner Datenschutzerklärung.