Anzeigensonderveröffentlichung

Technologie

Häkeln mit Wahrscheinlichkeiten

Seit ChatGPT wirkt KI menschlich und intelligent. Doch insbesondere Sprachmodelle basieren auf vermuteten Wahrheiten. Wie man die Fähigkeiten von künstlicher Intelligenz bestmöglich einsetzt, beschreibt Katharina Zweig. Die Bestseller-Autorin ist Professorin für Sozioinformatik an der Technischen Universität Kaiserslautern-Landau. Für ihr Engagement für Qualität und Fairness in der KI wurde sie jüngst mit dem Bundesverdienstkreuz geehrt. 

Benjamin Kleemann-von Gersum

Blaue Wellen umkreisen einen dunklen Kreis

Frau Zweig, die Erwartungen vieler Menschen an die Fähigkeiten von Künstlicher Intelligenz (KI) sind riesig. Sie argumentieren hingegen, dass wir das Potenzial nicht überschätzen sollten. Worauf gründet sich diese Beurteilung?

KI hat unser Leben verändert und wird es weiterhin tun, weil es sich um neuartige Methoden handelt, Computer Dinge machen zu lassen, die sie bisher nicht konnten. Aber lassen Sie uns differenzieren: Ihnen geht es doch sicher um Sprachmodelle? Diese beeindrucken, weil sie Texte erzeugen, die so wirken, als stünde menschliches Denken dahinter. Doch genau das ist nicht der Fall: Sie berechnen lediglich die Wahrscheinlichkeit, welches Wort als Nächstes passen könnte. Wir sollten uns nicht blenden lassen, nur weil die Ergebnisse intelligent klingen.

„Die Maschine träumt vor sich hin, sie assoziiert. Deswegen können wir sie für alles gut verwenden, wo wir kreativ sein wollen.“

Katharina Zweig Informatikprofessorin an der RPTU Kaiserslautern-Landau

Mit dem Titel Ihres neuen Buches „Weiß die KI, dass sie nichts weiß?“ implizieren Sie, dass Large Language Models gar nicht über „Wissen“ im klassischen Sinne verfügen. Was genau ist der Unterschied?

Ich erkläre das gern am Beispiel meiner Tochter: Sie hat gestern für eine Geschichtsklausur gelernt. Früher hätte man in einer Wissensdatenbank nachgesehen und dort Informationen gefunden, die zuvor von Menschen dort abgelegt worden waren. Sprachmodelle dagegen „häkeln“ Texte, indem sie Wahrscheinlichkeiten berechnen. Wenn sie zu einem Thema viele richtige Sätze gelesen haben, liefern sie auch oft korrekte Antworten. Aber je spezieller ein Thema ist, je kontroverser es diskutiert wird oder je stärker eine Seite der Argumentation im Internet präsent ist, desto eher liegen sie daneben. Wissen bedeutet: Zusammenhänge zu verstehen. Das können Sprachmodelle nicht. Meine Tochter hat das Sprachmodell deshalb auch nicht genutzt, um Informationen zu beschaffen, sondern um sich Fragen stellen zu lassen und so ihren Wissensstand zu überprüfen. 

Ist das auch der Grund, warum KI-Modelle halluzinieren und nicht einfach zugeben, wenn ihnen die nötigen Daten für eine Antwort fehlen? 

Genau. Damit ein Student in einer Prüfung sagen kann: „Das kann ich jetzt nicht erklären“, muss er darüber nachdenken, was er überhaupt weiß. Das kann die Maschine nicht. Die Unterscheidung zwischen einer richtigen und einer falschen Antwort gehört einfach nicht zu ihrer Funktionsweise. Sie setzt ihre Texte lediglich Wort für Wort nach Wahrscheinlichkeiten zusammen. Halluzinationen lassen sich deshalb auch nicht „abstellen“. Sie sind eine direkte Folge des Mechanismus. 

Lässt sich diese Funktionsweise auch sinnvoll nutzen? 

Aber natürlich. Die Maschine träumt vor sich hin, sie assoziiert. Deswegen können wir sie für alles gut verwenden, wo wir kreativ sein wollen, wo wir einen Echoraum haben wollen, um uns selbst zum Nachdenken anzuregen. 

In Ihrem Buch sprechen Sie zudem das Problem des Groundings an. Was ist damit gemeint?

Die Maschine weiß nicht, was ein Wort bedeutet. Sie hat keine Ahnung, wie sich eine Heidelbeere im Mund anfühlt oder wie sie schmeckt. Keine der sensorischen Qualitäten, die ein Objekt in der echten Welt hat, kann die Maschine nachvollziehen. KI hat keinen Bezug zur Welt – das ist das Grounding-Problem.

Trotz der angesprochenen Unzulänglichkeiten von Sprachmodellen werden sie ja schon heute vielfältig eingesetzt. Was können sie außerordentlich gut?  

Sprachmodelle können Texte sehr gut umformulieren – zum Beispiel komplexe Fachtexte in einfache Sprache übersetzen. Wer schon einmal selbst Texte in einfacher Sprache verfasst hat, weiß, dass dies sehr aufwendig ist. Mit KI geht es deutlich schneller. Das Ergebnis sollte allerdings noch einmal von einem Menschen überprüft werden. Wir können die Maschinen also dort gut einsetzen, wo wir die Ergebnisse überprüfen können – die Erstellung von Programmiercode ist ein weiteres Beispiel. Generell sollten wir die Technologie dort einsetzen, wo sie uns tatsächlich Arbeit abnimmt – etwa bei Routineaufgaben, die wenig Freude bereiten. 

Ich wünsche mir, dass wir das Thema Inklusion bei der KI-Entwicklung in den Mittelpunkt stellen. 

Katharina Zweig Informatikprofessorin an der RPTU Kaiserslautern-Landau

Ein grundlegender Kritikpunkt an KI-Modellen ist die Reproduktion von Vorurteilen und Diskriminierungen. Was wäre nötig, damit sie sich kontinuierlich an neue Erkenntnisse anpassen?

Das Grundproblem ist, dass die Maschine unglaubliche Mengen von Inhalten benötigt, um zu lernen, wann welches Wort in welchem Zusammenhang wahrscheinlich ist. Hinzu kommt ein kulturelles Problem: Was in einer Kultur als Vorurteil gilt, wird in einer anderen Kultur vielleicht ganz anders bewertet. Global gesehen klaffen die Ansichten da teils stark auseinander. Der Aushandlungsprozess wäre sicher spannend, müsste aber ständig an aktuelle Veränderungen angepasst werden. Wahrscheinlich würden dabei zu wenige unstrittige Texte übrigbleiben, um die KI-Modelle zu trainieren.  

Wie können wir KI-Modelle dennoch möglichst verantwortungsbewusst gestalten und welche Rolle spielen soziale Prozesse dabei? 

An der RPTU in Kaiserslautern bieten wir dafür zum Beispiel den deutschlandweit einzigartigen Studiengang Sozioinformatik an. Bisher haben wir meist nur auf die Qualität der Technik geschaut. Doch entscheidend ist das Zusammenspiel von Mensch und Maschine. Deshalb versuchen wir neue Modelle zu entwickeln, die diese gemeinsame Interaktion möglichst gut beschreiben, sodass man sie analysieren und auf dieser Basis bessere Software entwickeln kann. Ich glaube, wir müssen unsere sozialen Prozesse unter Maßgabe dieser neuen Technologie noch einmal daraufhin untersuchen, wo sie uns wirklich unterstützen kann, und sollten uns nicht von verführerischen Abkürzungen verleiten lassen. Zu diesen sozialen Prozessen gehören insbesondere alle Verwaltungsprozesse, von Gerichtsentscheidungen über Stadtorganisation bis hin zu Notengebungen an Universität und Schule.

Wenn wir zehn Jahre in die Zukunft schauen: Was wäre für Sie ein guter Fortschritt?

Ich wünsche mir, dass wir das Thema Inklusion bei der KI-Entwicklung wirklich in den Mittelpunkt stellen. Bis heute beschäftigt mich ein Erlebnis: Am Münchner Hauptbahnhof sprach ich einmal mit einem Mann, der spastisch gelähmt war und in einem riesigen elektrischen Rollstuhl saß. Er sagte zu mir: „Weißt du, manchmal wünsche ich mir einfach, der Maschine sagen zu können: Ich bin müd, fahr mich heim.“ Da frage ich mich: Warum fokussieren wir uns so stark auf hochkomplexe Herausforderungen wie selbstfahrende Autos, anstatt damit zu beginnen, Systeme zu entwickeln, die den Alltag von Menschen mit Einschränkungen erheblich erleichtern könnten? 
Mit den neuen Technologien, insbesondere mit Umwandlungen von Text zu gesprochenem Wort oder von Video in Text, eröffnet sich ein enormes Potenzial. Schon heute sehe ich, wie hilfreich KI sein kann. So können Studierende mit Lese- und Rechtschreibschwäche ihre eigenen Texte im Nachhinein mithilfe von Sprachmodellen überarbeiten – mit hervorragenden Ergebnissen. 
Ein Freund von mir erblindet – ich wünsche mir, dass der technologische Fortschritt mit ihm mithält, so dass er sein Leben weiterhin so leben kann wie jetzt. Dann können wir auch alle beruhigter ins Alter sehen, wo viele mit Einschränkungen leben müssen. 

Frau mit schulterlangen blonden Haaren, die leicht nach oben schaut, vor einem dunkelblauen Hintergrund

Katharina Zweig

Die Informatikprofessorin forscht an der RPTU Kaiserslautern-Landau, wo sie den deutschlandweit einmaligen Studiengang „Sozioinformatik“ ins Leben gerufen hat. Ende September 2025 veröffentlichte sie ihr neues Buch „Weiß die KI, dass sie nichts weiß?“, in dem sie zeigt, was Chatbots und KI-Agenten wirklich können und was nicht. Dafür ist sie für den Deutschen Wirtschaftsbuch Preis 2025 nominiert.