„KI, widersprich mir!“
Manchmal wünsche ich mir, dass KI-Tools nicht immer komplett gehorsam wären, sondern an den Stellen, an denen es angemessen ist, auch Widerspruch einlegen. Dass KI-Tools i.d.R. nicht ‚sagen‘, wenn sie etwas nicht ‚wissen‘, ist ärgerlich, ja. Fast noch schlimmer finde ich aber, dass sie uns als ihrem menschlichen Gegenüber nicht widersprechen, wenn man sie nicht explizit dazu auffordert.
In meinem Fall ging es diese Woche um ein eigenes Dokument voller „gekritzelter Stichpunkte“ – ein Entwurf, den ich schrittweise zu einem kohärenten Text weiterentwickeln wollte. Mitten im Prozess entschied ich mich, eine Passage komplett umzudrehen und eine zentrale Aussage meines Entwurfs genau gegenteilig formulieren. Dies hätte meine gesamte Argumentationslinie gestört. Und was machte die KI? Sie setzte meine Änderung brav um. Kein Widerspruch. Kein Hinweis darauf, dass diese neue Formulierung meiner ursprünglichen Idee widersprach. Einfach nur gehorsame Umsetzung.
Erst später fiel mir selbst auf, dass dieser neue Punkt nicht mehr zum Rest des Textes passte. Die Argumentation war unlogisch geworden. Die KI hatte mich nicht gewarnt, obwohl sie – mit Zugriff auf meinen Entwurf – hätte ‚erkennen‘ können, dass ich mir in meiner Argumentation gerade quasi mein eigenes Grab schaufele.
Wenn wir KI als Feedbackgeberin und als Schreibpartnerin einsetzen wollen, muss sie aber genau das können: Gerade im iterativen Schreibprozess kann es zum Verhängnis werden, wenn kein Widerspruch kommt, wenn es offensichtliche Bruchstellen in der Argumentation gibt oder auch wenn ich aus zugrunde liegenden Dokumenten Fakten falsch übernehme. Wenn ich mit einer KI arbeite, möchte ich, dass sie mich unterstützt – und dazu gehört auch, mir zu widersprechen, wenn es angebracht ist.
In meinem Fall hätte ich mir gewünscht, dass Gemini mir sagt: „Moment mal, diese neue Aussage widerspricht deiner bisherigen Argumentation. Möchtest du das wirklich so umsetzen?“ Das hätte meinen Denkprozess bereichert und mir möglicherweise unnütz verbrachte Zeit erspart.
Das Grundproblem ist, dass die meisten gängigen textgenerierenden KI-Tools darauf trainiert sind, gefügige Assistent:innen zu sein. Sie folgen Anweisungen, statt kritische Begleiter:innen zu sein. Ich möchte natürlich nicht, dass KI mir in jeder Kleinigkeit widerspricht. Aber ich wünsche mir, dass sie aktiv auf Inkonsistenzen hinweist. Eine eingebaute Art ‚Konfliktmodus‘ wäre hier hilfreich – ein Modus, in dem die KI nicht nur passiv ausführt, sondern automatisch, ohne dass ich das nochmals extra in meinem Prompt verlange, meine Ideen hinterfragt, kritisch prüft und mich auf Schwachstellen aufmerksam macht. Eine KI, die so arbeitet, wäre keine bloße Ausführungsmaschine, sondern eine wertvolle Partnerin im Denkprozess.
Moralische Verpflichtung zur Förderung der eigenen Autonomie
Diese Woche bin ich über ein spannendes Paper aus dem Journal Philosophy & Technology gestolpert, das den Artikel „Should I Use ChatGPT to Write My Papers?“ trägt. Dieses Paper argumentiert, dass Studierende, insbesondere der Geisteswissenschaften, moralische Gründe haben, auf Chatbots wie ChatGPT zum Schreiben ihrer wissenschaftlichen Arbeiten zu verzichten. Die Autoren Aylsworth und Castro konzentrieren sich auf Arbeiten, die die kritische Bewertung von nicht-trivialen Thesen und die Entwicklung einer entsprechenden Argumentation erfordern. Besonders interessant finde ich u.a., dass die Autoren ihre Lesenden, die sie in der Studierendenschaft verorten, direkt ansprechen („Your instructor might give you …“).
Der Artikel beginnt mit der Entkräftung gängiger ‚Vernunftsargumente‘ gegen die Verwendung von Chatbots, wie dass es sich hierbei um Betrug handle, eigene Fähigkeiten verloren gehen oder dass Schreiben immer auch dem Denken diene. Diese Argumente mögen teilweise zwar wahr sein, greifen nach Ansicht der Autor:innen aber zu kurz, da sie entweder auf unplausiblen Prinzipien beruhen, ein unzureichendes Verständnis von Bildung haben oder die menschliche Handlungsfähigkeit zu wenig berücksichtigen.
Das zentrale Argument der Autoren basiert auf einer kantianischen Ethik. Sie argumentieren, dass Studierende die Pflicht haben, ihre eigene ‚Menschlichkeit‘ zu respektieren, d. h. ihre Fähigkeit, eigene Ziele zu setzen und zu verfolgen. Das Schreiben von geisteswissenschaftlichen Arbeiten sei essenziell für die Kultivierung dieser Menschlichkeit bzw. Autonomie. Es biete Studierenden die einzigartige Gelegenheit, ihre Werte zu reflektieren, Argumente abzuwägen und ihre Weltanschauung zu schärfen. Diese Fähigkeiten seien zentral für die menschliche Autonomie und würden durch die Verwendung von Chatbots untergraben – Chatbots würden schlichtweg die menschliche Entscheidungsfindung behindern.
Die Autoren räumen ein, dass Technologien wie Chatbots die Autonomie in bestimmten Bereichen auch erhöhen können. Sie betonen jedoch, und das finde ich wichtig und richtig, den Unterschied zwischen Expert:innen, die KI zur Verbesserung ihrer Fähigkeiten nutzen, und Studierenden (in deren Fall undergraduates), die durch KI daran gehindert werden, diese Fähigkeiten überhaupt erst zu entwickeln. Gerade für Studierende ist das Schreiben wissenschaftlicher Arbeiten oft schwierig und auch frustrierend, was die Versuchung verstärke, Chatbots zu nutzen und damit die Entwicklung ihrer Autonomie zu vernachlässigen. Wichtig ist auch: Es geht den Autoren um Schreiben generell und dem Schreiben im Kontext des Studiums. Dass man sich beim Verfassen von Mails, Anträgen oder Beschwerden von Chatbots unterstützen lässt, steht für die Autoren also gar nicht zur Debatte. Und: Die Autoren nehmen auch Lehrende in die Pflicht, was die Ausgestaltung von Schreibaufgaben und deren Betreuung betrifft: „Writing assignments should be crafted in such a way that it compels students to wrestle with difcult questions and to critically assess their values and commitments. The assignments should also be graded with care, as our critical feedback helps students refine their capacities“ (S. 116f.)
Zusammenfassend lässt sich sagen, dass die Autoren argumentieren, dass das Schreiben von eigenen Arbeiten in den Geisteswissenschaften eine moralische Verpflichtung darstellt, die aus der Pflicht zur Kultivierung der eigenen Autonomie resultiert. Diese Pflicht betont die Bedeutung der Bildung, insbesondere der Geisteswissenschaften, für die Entwicklung der menschlichen Handlungsfähigkeit. Nun muss ich sagen, dass ich nicht viel Ahnung von der kantianischen Ethik habe und die Argumentation insofern nicht auf die dahingehende Plausibilität prüfen kann. Für mich wäre der Ansatz, auf KI ganz zu verzichten, auch einfach unrealistisch (wobei die Autoren das auch einschränken). Was ich für mich aus dem Paper mitnehme, ist Folgendes: Wir können nur ganz schlecht bis gar nicht fachübergreifende Regeln zum studentischen Einsatz von KI beim wissenschaftlichen Schreiben festlegen. Für die Philosophie und ggf. auch andere Geisteswissenschaften mag das, was die Autoren schreiben, genau zutreffen und richtig sein. In diesem Fall gilt es, Studierende von ebendieser Argumentation zu überzeugen. Für andere Fächer, nicht nur, aber auch in den Naturwissenschaften, ist diese Argumentation aber völlig verkehrt und führt sicher zu nicht mehr als einem müden Lächeln. Auch im Kontext von KI gilt also, dass Schreibdidaktik zu einem großen Teil disziplinenspezifisch sein muss.