Herr Professor Gerlich, zum Einstieg in unser Thema: Wie nutzen Sie KI für Ihre Arbeit?
Zu Forschungszwecken schon lange, im Grunde seit Jahrzehnten. Als Soziologe und Verhaltensforscher hat mich schon immer sehr stark interessiert, was Künstliche Intelligenz eigentlich bedeutet und welchen Einfluss sie auf Menschen hat. Und dafür muss ich die aktuellen Sprachmodelle kennen und intensiv testen. Für meine Arbeit als Wissenschaftler sind mir die generativen Sprachmodelle noch zu instabil in ihrem Output. Da nutze ich KI vor allem für zeitfressende Aufgaben wie Datenorganisation und Datensuche; beides kann man heute schon sehr gut abgeben. Aber ich will nicht, dass die KI das Denken für mich übernimmt.
Was meinen Sie damit?
Wir sprechen hier von „cognitive offloading“, also dem Auslagern von Denkprozessen. Dass das ein realer Effekt von KI-Nutzung ist, haben bereits einige Studien gezeigt, ...
... Sie selbst haben dazu ja kürzlich ein Paper veröffentlicht.
Richtig. Wir haben rund 660 Teilnehmende unterschiedlichen Alters, unterschiedlicher Professionen und sozialer Schichten in Tiefeninterviews nach ihrer Nutzung von KI befragt. Die Ergebnisse haben gezeigt: Je intensiver sie Künstliche Intelligenz einsetzen, desto stärker nimmt die Fähigkeit ab, kritisch zu denken.
Weil sie eben den Denkprozess auslagern?
Richtig. Besonders deutlich war das bei jungen Menschen oder Menschen mit einer geringeren Ausbildung zu sehen. Ältere Menschen, beziehungsweise Menschen mit einem höheren Ausbildungsstand nutzen KI weniger und lagern deshalb den Denkprozess auch weniger aus. Obwohl dies alles Selbsteinschätzungen sind und diese tendenziell ein positiveres Bild abgeben, als in der Realität zu erwarten ist, hat uns überrascht, wie deutlich viele Teilnehmende uns berichtet haben, dass KI ihnen in vielen Situationen inzwischen drastisch das Denken abnimmt.
Was meinen Sie genau, wenn Sie von kritischem Denken sprechen?
In letzter Instanz bedeutet kritisches Denken Entscheidungsfähigkeit. Also die Kompetenz, Informationen zu hinterfragen, Argumente zu prüfen und darauf basierend begründete Urteile zu fällen. Vielen ist im Umgang mit generativer KI nicht bewusst: Wenn ein Chatbot uns antwortet und wir diese Antwort einfach übernehmen, dann treffen wir im Grunde keine Entscheidung mehr.
„Nicht die Nutzung von KI an sich ist das Problem, sondern die falsche, unreflektierte Nutzung.“
Michael Gerlich Professor an der Swiss Business School
Aber man kann sich doch entscheiden, ob man die Antwort übernimmt oder nicht?
Das ist zu kurz gedacht. Wir wissen aus der Verhaltenspsychologie, dass die ersten Informationen, wenn sie plausibel klingen, unsere Fähigkeit, weiterhin kritisch – also abwägend – zu denken, bereits deutlich beeinflussen. Es ist so, als ob wir auf ein Gleis gesetzt werden, auf dem wir sehr bequem weiterfahren können und deshalb nur schwer herunterkommen. Man spricht in der Psychologie auch vom „Ankereffekt“ („anchoring effect“). Da spielt natürlich auch der Effizienzdruck eine Rolle. Wir leben nun einmal in einer Gesellschaft, die sehr stark auf Effizienz getrimmt ist. Und da ist es natürlich sehr praktisch, auf die ja oftmals gut klingenden Antworten eines Chatbots zu setzen, statt diese noch tiefer zu hinterfragen.
Wie kann man vermeiden, dass KI-Nutzung kritisches Denken abschwächt?
Zunächst ist es wichtig, zu betonen: Nicht die Nutzung von KI an sich ist das Problem, sondern die falsche, unreflektierte Nutzung. Richtig eingesetzt kann KI das kritische Denken sogar befördern.
Und wie sieht der richtige Einsatz aus?
Stellen Sie sich vor, Sie diskutieren mit Freunden und es kommt die Frage auf: Was sind die Vorteile der sozialen Marktwirtschaft? Man könnte das schnell und einfach mit ChatGPT lösen, aber in diesem Moment ist schon der erste Fehler passiert. Denn die Frage ist zu allgemein: Vorteile für wen? Reden wir vom Individuum oder der Gesellschaft? Und wenn wir von Gesellschaft reden, meinen wir dann die Unternehmen? Es gibt so viele mögliche Faktoren, die die Antwort beeinflussen können.
„Einer der wichtigsten Prompts im Umgang mit KI: Versuche nicht vorauszusehen, welche Antwort ich anstrebe.“
Michael Gerlich Professor an der Swiss Business School
Und diese müsste man sich vorher zurechtgelegen?
Wir müssen bestimmte Denkleistungen unbedingt anstoßen, bevor wir die KI fragen. Wir müssen entscheiden, unter welchen spezifischen Blickwinkeln wir die Fragestellung behandeln wollen. Und stellen wir eine Hypothese auf. Erst dann lassen wir die KI die Daten zusammentragen. Aber, ganz wichtig: Wir sagen ihr nicht, wofür wir diese ganz spezifisch benötigen. Die Systeme neigen nämlich stark dazu, uns zufriedenzustellen. Sie sind sehr gut darin, herauszufinden, worauf wir hinauswollen. Wenn die KI das weiß, würde sie die Daten so aufbereiten, dass sie unserem Ziel dienen. Einer der wichtigsten Prompts im Umgang mit KI ist: Versuche nicht vorauszusehen, welche Antwort ich anstrebe. Und im nächsten Schritt können wir die KI als Sparringspartner einsetzen.
Was ist damit gemeint?
Wir fordern sie dazu auf, gegensätzliche Meinungen zu unserem Ergebnis auszugeben. Auf diese Weise kann man die KI nutzen, um über den eigenen Tellerrand, den eigenen Erfahrungsschatz hinauszusehen. Wir sind jetzt in einem Setting, das diskursiv funktioniert und unser kritisches Denken auch weiterhin fördert.
Welche Belege gibt es denn dafür, dass das wirklich funktioniert?
Genau hierzu haben wir eine Studie durchgeführt, die demnächst erscheinen wird. Statt nach Selbsteinschätzungen zu fragen, wollten wir diesmal konkret beobachten, wie Menschen mit KI arbeiten. Und es zeigt sich: Den größten Qualitätssprung bei der Beantwortung einer Frage erzielen diejenigen, die mit der eben beschriebenen Technik und unter Berücksichtigung des Ankereffekts zusammen mit KI arbeiten. Diejenigen, die dies ohne Anleitung tun, schneiden zwar besser ab als diejenigen ohne KI-Unterstützung, aber lange nicht so deutlich. Selbst erfahrene kritische Denker tappen ohne Anleitung in die Falle des Ankereffekts.
Wer trägt eigentlich die Verantwortung für die Art und Weise, wie uns KI-Systeme beeinflussen?
Das Bildungswesen spielt hier natürlich eine wichtige Rolle, die Lehre muss sich drastisch anpassen. Es hilft nichts, KI zu verdammen, sondern wir müssen lernen, möglichst progressiv damit umzugehen. Ich kann mich an einen Workshop für 80 Gymnasiallehrer internationaler Schulen erinnern, die alle verblüfft waren, wie schnell sie selbst „cognitive offloading“ betreiben und wie anspruchsvoll das wohl für ihre Schülerinnen und Schüler sein muss. Aber natürlich tragen auch die Anbieter der KI-Systeme eine enorme Verantwortung. Als private Firmen unterliegen sie potenziell kommerziellen Interessen. Und in diesem liegt es eventuell nicht unbedingt, kritisches Denken, sondern eher Vertrauen in die Systeme zu fördern.
Wenn Sie in die Zukunft blicken: Was treibt Sie als KI-Forscher besonders um?
Ich mache mir ein wenig Sorgen um die junge Generation. Viele jüngere Menschen setzen KI jetzt schon als täglichen Wegbegleiter in der Schule und im Privatleben ein, doch vielen ist die Dimension noch nicht bewusst, die das Auslagern des Denkens hat. Und wenn man kritisches Denken in jungen Jahren nicht lernt, wird es sehr schwierig, das nachzuholen.
Prof. Dr. Michael Gerlich
ist Leiter des Center for Strategic Corporate Foresight and Sustainability sowie Head of Executive Education an der SBS Swiss Business School in Zürich. Gerlich verfügt über mehr als 20 Jahre Lehr-, Forschungs- und Beratungserfahrung und war als Professor und Dozent unter anderem an Institutionen wie der London School of Economics (LSE), in den Niederlanden und in Zentralasien tätig. Er gilt als einer der führenden Forscher im Bereich der gesellschaftlichen Akzeptanz von Künstlicher Intelligenz (KI).