Die Woche war KI-technisch mal wieder recht turbulent. Wie Doris Weßels gestern Abend auf LinkedIn zusammenfasste: „Nach der Veröffentlichung von Llama 3.1 durch Meta am Dienstag folgte die Reaktion aus Paris am Mittwoch postwendend mit der Ankündigung von Mistral Large 2. Heute Abend nun kündigt Sam Altman als CEO von OpenAI deren Angebot für eine AI Conversational Search Lösung an: SearchGPT!“ Ich habe mich natürlich direkt auf die Warteliste von SearchGPT setzen lassen und bin gespannt, wie sich diese Suchmaschine so machen wird – und wann sie ich gegen Google durchsetzt. Ich selbst beobachte bei mir aber, dass ich nach wie vor recht viel über klassische Suchmaschinen (bei mir: DuckDuckGo) gehe und nicht über KI-basierte Recherche-Tools wie Perplexity oder Microsoft Copilot. Jedes Mal, wenn ich Perplexity nutze, sowohl privat als auch beruflich, habe ich das große Bedürfnis, die Antworten gegenzuchecken und das dauert mir einfach zu lang. Da klicke ich mich lieber durch ein paar der von DuckDuckGo ausgespuckte Seiten und lehne brav alle optionalen Cookies ab.
Themenwechsel: Mit dem Konzept der digital natives habe so meine Probleme – wie viele andere auch: „We assume our students are inherently digitally native, but they don’t always understand the professional, ethical ways to deploy new technology“ (Sid Dobrin). Da war ich doch etwas skeptisch, als diese Woche der Begriff der ‚AI natives‘ in meine Timeline gespült wurde. Als ich dann den Artikel dazu las, merkte ich, dass der Autor Matt Ivey damit eigentlich nichts anderes meint als das, was z. B. Dell’Acqua et al. schon letztes Jahr als ‚Cyborg-Nutzung‘ von KI-Tools beschrieben haben. Und zwar referiert Ivey mit ‘AI-native’ auf ein spezifisches Mindset: “This mindset goes beyond just using AI tools—it’s about integrating AI into every aspect of work and life.” Wenn es um die Bearbeitung von Aufgaben, um das Lösen von Problemen geht, sind AI-Natives nicht nur Menschen, die Technologie für ihre Arbeit nutzen. Stattdessen sind sie Denkende, die KI-Tools in ihr Denken einweben und symbiotisch, effektiv und kreativ mit diesen Tools zusammenarbeiten. Da der Begriff ‚AI-Native‘ suggeriert, dass man mit diesen KI-Kompetenzen ‚geboren‘ wurde, diese also gewissermaßen mit der Muttermilch aufsaugte, finde ich ihn analog zu ‚digital natives‘ problematisch. Das dahinterstehende Konzept gefällt mir aber – es ist ähnlich zu dem, was Anika Limburg und ich in einem heute erschienenen Artikel (leider nicht Open Access) als Funktion von KI-Tools beschreiben, das menschliche Denken zu erweitern.
Solche ‚AI-Natives‘, die virtuos die Vorteile des eigenen Denkens mit den Vorteilen von KI kombinieren und scheinbar nahtlos zwischen menschlicher und künstlicher Intelligenz jonglieren, könnten aber auch neue Formen der Macht und Kontrolle über Informationen und Entscheidungssysteme erlangen, die für andere Menschen unerreichbar zu sein scheinen. Das Konzept ‚AI-Native‘ impliziert daher nicht nur eine technologische Kompetenz, sondern auch einen potenziellen Einfluss auf gesellschaftliche Diskurse und Entscheidungsprozesse. Diese Macht könnte wiederum zu einer neuen Elite führen, die privilegiert ist, weil sie über das Wissen und die Fähigkeiten verfügt, KI optimal zu nutzen. Eine solche Entwicklung würde nicht nur die bestehende digitale Kluft vertiefen, sondern auch ethische Fragen aufwerfen (die wir kennen, die aber immer wieder neu gestellt werden müssen): Wer kontrolliert die KI-gestützten Systeme, die unsere Gesellschaften immer stärker beeinflussen? Und wie können wir sicherstellen, dass der Zugang zu diesen Technologien und dem damit verbundenen Wissen gerecht verteilt wird? Was bedeutet ‚gerecht‘ in diesem Kontext? Denn wenn nur eine kleine, technokratische Elite versteht, wie entscheidende KI-Systeme funktionieren und wie sie beeinflusst werden können, könnte dies zu einer Entkopplung der politischen Macht von der breiten Bevölkerung führen. Somit braucht es Verantwortung der AI-Natives, ihre Kenntnisse nicht nur zum eigenen Vorteil zu nutzen, sondern auch zum Wohle der Gesellschaft – wie auch immer das aussehen mag.
Zum Schluss gibt es heute noch einen Literaturtipp fürs Wochenende: Heute Vormittag machte mich ein Kollege auf die Ausgabe des Journals „Computers & Composition“ aufmerksam, die im März dieses Jahres erschien und die das Thema „Composing with generative AI“ behandelt. Der Blick ins Inhaltsverzeichnis ist vielversprechend und ich freue mich darauf, die Artikel in den nächsten Tagen zu lesen. Privat lese ich aktuell übrigens das neue Buch von Benedict Wells, in dem er über sein Schreiben spricht – über sein Schreiben ganz ohne KI. Eine wunderbare Lektüre