Bringmann: Herr Feuerriegel, spätestens seit der letzten Präsidentschaftswahl in den USA wissen wir, welchen Einfluss Nachrichten haben, die über Social-Media-Kanäle verbreitet, rezipiert und geteilt werden. Wir wissen auch, wie stark Akteure wie Russland versuchen, die öffentliche Meinung zu beeinflussen. „Glaubwürdigkeit“ und deren Mangel zu erkennen, ist wohl die Aufgabe der Stunde. Sie haben zur Verbreitung von Deep Fakes, also gefälschten Inhalten, auf der Plattform X geforscht. Wie sind Sie dabei vorgegangen, und zu welchen Ergebnissen kommen Sie?
Feuerriegel: Wir haben im vergangenen Jahr Nutzerinnen und Nutzern verschiedene Fake News zur Corona-Pandemie gezeigt: solche, die von einer KI generiert wurden, und solche, die von Menschen gemacht wurden. Dann haben wir gefragt, wie glaubwürdig die jeweiligen Inhalte sind. Die gute Nachricht: Die KI-generierten Inhalte wurden als weniger glaubwürdig eingestuft. Die schlechte Nachricht: Beide News wurden gleich oft geteilt. Menschen leiten also Nachrichten weiter, obwohl sie deren Wahrheitsgehalt anzweifeln, und ermöglichen so, dass auch solche Fake-News viral gehen. Das zeigt das große Gefahrenpotenzial von KI-generierten Falschmeldungen.
Bringmann: Haben Sie auch untersucht, was man tun kann, um den Einfluss solcher Fake News zu begrenzen?
Feuerriegel: Das wollen wir als Nächstes untersuchen, und da stellt sich auch die Frage, wie man eine breite Öffentlichkeit schulen kann, damit die Menschen Falschmeldungen besser erkennen.
Bringmann: Bei Bildern und Videos kann ich mir noch vorstellen, dass durch entsprechendes Training Fakes erkannt werden, aber bei Texten dürfte das deutlich schwieriger werden. Hier stelle ich mir die Frage, ob das wirklich die Aufgabe des Einzelnen sein sollte. Früher galten die Medien weitgehend als Kontrollinstanz und vertrauenswürdige Quellen. Heute kann jeder mit großer Reichweite Nachrichten veröffentlichen. Wer könnte diese Verifizierungsaufgabe in Zukunft übernehmen?
Feuerriegel: Es wäre wichtig, die Plattformen, die ihren Profit aus dem ständigen Nachrichtenfluss ziehen, in die Pflicht zu nehmen, gegen Fake News vorzugehen. Glücklicherweise gibt es mittlerweile Gesetze wie den Digital Services Act, die genau das verlangen. Grundsätzlich könnten Journalisten eine Kontrollinstanz sein, es gibt aber auch andere, oft freiwillige Faktenchecker. Inzwischen ist jedoch klar, dass sie immer eine große Zeitverzögerung von etwa 24 Stunden haben, was angesichts der Geschwindigkeit, mit der sich Nachrichten in sozialen Netzwerken verbreiten, einfach zu langsam ist.
Bringmann: Sind wir auf den Einsatz von generativer KI im Zusammenhang mit Fake News wirklich vorbereitet? Mein Eindruck ist: Nein. Viele Forschende schätzen die Entwicklung derzeit als extrem schnell ein und bewerten sie entsprechend als schwer zu überschauen. Bei unseren Umfragen bitten wir die Unternehmen auch um eine Selbsteinschätzung. Meist sind sie sich sicher, sehr gut vorbereitet zu sein. In der Realität ist das nicht immer der Fall und wir schließen daraus, dass die Unternehmen zumindest unter einer leichten Selbstüberschätzung leiden, in Deutschland, aber auch in anderen Ländern. Aufklärung und Ausbildung gehören somit zu den wichtigsten Maßnahmen.
Feuerriegel: Dass es eine Selbstüberschätzung gibt, das sehe ich auch so. Zwar hat die Einführung von ChatGPT in Deutschland relativ schnell zu einem hohen Interesse an dem Thema geführt, viele haben dann intern Prototypen aufgebaut, vor allem für ihre Wissensdatenbanken. Das war natürlich noch eher nach innen gerichtet und weniger der Versuch herauszufinden, was man mit der Technologie sonst noch machen könnte – zum Beispiel in der Kundenkommunikation, im Marketing, in der Supply Chain oder im Management. Die Selbstüberschätzung besteht also darin, zu glauben, man habe schon vollständig verstanden, was die Technologie in der Breite leisten kann.
Bringmann: Die Unternehmen machen auch sehr unterschiedliche Erfahrungen bei der Implementierung, sowohl sehr positive als auch sehr negative. Führungskräfte nehmen oft nach negativen Erfahrungen eine vorsichtige Haltung gegenüber der KI ein. Das ist einerseits berechtigt, schließlich tragen sie die Verantwortung. Aber unserem Eindruck nach liegen die Probleme oft nicht in der Technologie, sondern bei uns Menschen. Denn oft wird KI für etwas eingesetzt, wofür sie nie gedacht war. Dann entdeckt man Halluzinationen und schreibt sie der KI zu.
Feuerriegel: Ein Wort zu den Halluzinationen: Auch da gibt es zwei Perspektiven. Bei Texten werden sie natürlich negativ bewertet, aber bei Bildern und Videos will man ja gerade diesen kreativen Umgang mit den Daten. Auch hier sieht man: Dieselbe Technologie kann gegensätzliche Reaktionen hervorrufen. Um zum Thema Verantwortung zu kommen: Bei der Nutzung im Unternehmenskontext sind die Risiken im Grunde eher geringer. Das eigentliche Risiko ist, die Technologie zu verschlafen und damit dem Unternehmen und den Mitarbeitenden zu schaden.
Bringmann: Diese Gefahr sehen wir auf jeden Fall, auch wenn es nicht unbedingt das Management selbst ist, das den Zeitpunkt verpasst. In vielen Fällen gilt es auch, skeptische Teile der Gesellschaft von den Vorzügen der KI zu überzeugen. Eine der wichtigsten Aufgaben der Unternehmen ist es daher, den Mitarbeitenden zu erklären, dass KI sie nicht ersetzt, sondern unterstützt.
Feuerriegel: Ja, KI ersetzt in der Tat häufig Aufgaben, die als lästig, langweilig oder unangenehm empfunden werden, weil sie repetitiv und monoton sind. Die Forschung zeigt, dass überall dort, wo Kreativität gefragt ist, KI den Menschen nicht ersetzt, sondern die Arbeit beschleunigt und hilft, Kreativität schneller umzusetzen. So können auch Expertinnen und Experten ihre Aufgaben effizienter erledigen, was nicht zuletzt mit Blick auf den Fachkräftemangel hoffen lässt.
Bringmann: Ein Ort, wo sich unternehmerische Verantwortung im Hinblick auf KI zeigt, sind Gremien wie beispielsweise ein Ethikrat, wo festgelegt wird, wofür KI genutzt werden soll und wofür nicht. Selbst wenn es hier keine klaren Entscheidungen geben sollte, zeigt es doch, wie sehr sich die Unternehmen mit dieser Frage beschäftigen.
Feuerriegel: Solche Gremien sind sehr wichtig, gerade wenn es darum geht, im eigenen Unternehmen Rückhalt für den Einsatz von KI zu schaffen. Allerdings sind viele der aktuellen KI-Applikationen nicht weitreichend genug, um in solchen Governance-Boards besprochen werden zu müssen. Man muss die Systeme in der Praxis gut monitoren, an ihnen lernen und sie verbessern. Das ist ein kontinuierlicher Prozess, dem sich Unternehmen stellen müssen.
Bringmann: Das betrifft auch den Umgang mit den Daten. Es gibt viele Unternehmen, die angesichts der generativen KI glauben, sich darum nicht mehr kümmern zu müssen. Und dann gibt es Unternehmen, die verstanden haben, dass die KI nur so gut ist, wie ihre Datenbasis. Welche Daten verfügbar sind und welche nicht genutzt werden dürfen, ist für die generative KI ohnehin eine grundsätzliche Herausforderung. Das ist eine Diskussion, die wir von den Suchmaschinen kennen.
Feuerriegel: In Zukunft werden die KIs sparsamer mit Daten umgehen müssen. Schon jetzt beginnen die Modelle schlechter zu werden, weil es an guten Daten fehlt. Eine andere Herausforderung ist auch, ob und wie sich die großen KI-Anbieter um die deutsche Sprache kümmern und bei der Spracherkennung alle Dialekte berücksichtigen werden. Staat, Forschung und Unternehmen sollten sich selbst mit der Entwicklung solcher Modelle beschäftigen und sie auf die deutsche Sprache und eine deutschsprachige Kundschaft zuschneiden. Dies ist nur ein weiteres Beispiel dafür, dass wir uns hierzulande dringend mit KI beschäftigen sollten. Die Chancen durch die Beschleunigung und Vereinfachung von Prozessen sind immens. Ein Beispiel ist die Entdeckung des ersten neuen Antibiotikums seit langem. KI war der Schlüssel dazu. Solche Durchbrüche zeigen das Potenzial der KI für bedeutende Fortschritte.
Prof. Stefan Feuerriegel
leitet das Institute of Artifical Intelligence in Management der LMU München, an der er eine Doppelprofessur an der Munich School of Management und an der Fakultät für Mathematik, Informatik und Statistik innehat. Seine Forschung befasst sich mit dem Einsatz von KI bei Unternehmen und öffentlichen Organisationen, sowie Algorithmen für datengesteuerte Entscheidungen.
Dr. Björn Bringmann
leitet das AI Institute als Managing Director bei Deloitte und verfügt über 20 Jahre Erfahrung aus Forschung und Beratung im Bereich Künstliche Intelligenz und Maschinelles Lernen. Diese kombiniert er mit Expertise aus strategischer Beratung und praktischer Anwendung, um Unternehmen aus verschiedensten Branchen bei ihrer digitalen Transformation zu unterstützen.