Künstliche Intelligenz verleiht Flügel. So wirkt es, wenn man die Erwartungen und Hoffnungen betrachtet, die der Launch von ChatGPT geweckt hat. Ein zusätzliches Wachstum des Bruttoinlandsprodukts (BIP) von 0,3 bis 0,4 Prozentpunkten ab 2034 scheint möglich durch den Einsatz von generativer KI in entwickelten Märkten wie den USA, Deutschland oder Japan; andere Studien gehen von einem noch größeren Impact aus. Das hört man gerne in Zeiten schwachen Wirtschaftswachstums, insbesondere in Deutschland.
So geht die Bundesregierung von einem BIP-Wachstum von 0,2 Prozent aus in diesem Jahr. Die EU-Kommission und die OECD liegen mit 0,3 Prozent nur unwesentlich darüber. Auch mit Blick auf die Herausforderungen von Klimawandel sowie alternden Gesellschaften hat künstliche Intelligenz eine besondere Strahlkraft entwickelt.
»Im schlimmsten Fall kann eine künstliche Intelligenz bestehende Ungerechtigkeiten verstärken.«
Judith Simon Professorin für Ethik in der Informationstechnologie an der Universität Hamburg und Mitglied im Deutschen Ethikrat
Ein Blick in die Geschichtsbücher zeigt: Die Hoffnung ist berechtigt. Die flächendeckende Nutzung von Dampfmaschinen, Elektrizität und Computern hat die Produktivität gesteigert, wenn auch nicht über Nacht. In Großbritannien hat die Dampfkraft nach 1850 ihren größten Beitrag zum Produktivitätswachstum geleistet – fast hundert Jahre nach der Patentierung der Dampfmaschine. In den USA wurde der Produktivitätsboom, den der PC auslöste, Mitte der 1990er Jahre sichtbar – rund 50 Jahre nachdem Konrad Zuse den Grundstein für die modernen Rechner gelegt hatte.
In den kommenden Jahren wird Kollege KI unser Leben und Wirtschaften mit einiger Wahrscheinlichkeit ähnlich stark beeinflussen. Doch dabei stellt sich eine grundlegende Frage: Was passiert, wenn wir Tätigkeiten, die bislang von Menschen erledigt wurden, an Maschinen delegieren? Wie wirkt sich das auf unsere Handlungsfähigkeit – Ethikerinnen und Philosophen sprechen von Autorschaft – aus?
Systematisch ungerecht
„Dass der Einsatz von zunehmend intelligenter Software diverse Risiken mit sich bringt, ist offenkundig“, sagt Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg und Mitglied im Deutschen Ethikrat. „Sie reichen von Verletzungen der Privatsphäre über mangelnde Nachvollziehbarkeit bis hin zu Diskriminierung. Denn Daten, die auf einer ungleichen Gesellschaft beruhen, übertragen diese in die Algorithmen. Als Gesellschaft sollten wir uns mit dieser modernen Form der Diskriminierung auseinandersetzen.“
Der Begriff bias, den der amerikanische Psychologe und Wirtschaftswissenschaftler Daniel Kahnemann in den 1970er Jahren geprägt hat, erlebt in diesem Zusammenhang eine Renaissance. Kahnemann beschrieb damit Verzerrungen in der menschlichen Wahrnehmung. Im KI-Kontext versteht man unter Bias, dass Softwaresysteme Personengruppen zum Teil systematisch unterschiedlich behandeln. „Im schlimmsten Fall kann eine künstliche Intelligenz also bestehende Ungerechtigkeiten verstärken“, sagt Simon.
Auch die Tatsache, dass die Grundlage von KI-gestützten Entscheidungen nicht transparent ist, ist eine Schwäche der smarten Software. „Ein Algorithmus kann lernen, Katzenbilder von anderen Motiven zu unterscheiden, doch er kann nicht erklären, was das Katzenhafte ausmacht, und damit, was die Grundlage seiner Entscheidung ist.“ Das gilt auch bei komplexen Fragen wie der Kreditwürdigkeit oder Straffälligkeit, die eine erhebliche Auswirkung haben. Aus diesem Grund empfiehlt der Deutsche Ethikrat, Qualitätskriterien zu definieren, bevor eine Software im Kontext solcher Entscheidungen zum Einsatz kommt.
»Anforderungen an Qualität und Nachvollziehbarkeit sowie das Vermeiden von biases sind auch für unternehmerische Entscheidungen relevant.«
Judith Simon Professorin für Ethik in der Informationstechnologie an der Universität Hamburg und Mitglied im Deutschen Ethikrat
In seiner Stellungnahme Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz (2023) hat sich der Deutsche Ethikrat unter anderem mit der öffentlichen Verwaltung befasst. Sie verkörpert die Staatsgewalt und spielt damit eine besondere Rolle. Sowohl bei Fragen zu vorausschauender Polizeiarbeit als auch Kindswohl werden Software-Systeme genutzt, um menschliche Entscheidungen zu verbessern. Mit gutem Grund: „Fehlentscheidungen haben massive Auswirkungen für die Betroffenen. Daher müssen hier besonders hohe Qualitätsanforderungen gelten, welche aber auch für den Einsatz von KI in Unternehmen eine gute Orientierung bieten“, sagt Simon, die neben ihrer Tätigkeit an der Universität Hamburg auch Sprecherin der Arbeitsgruppe war, die die Stellungnahme verfasst hat.
Menschen neigen zudem dazu, sich im Zweifel zu sehr auf die Maschine zu verlassen: Was der Computer sagt, wird schon stimmen. Diese Tendenz, die automation bias genannt wird, spielt auch in anderen Bereichen, wie beispielsweise der Luftfahrt eine große Rolle. Um dem entgegenzuwirken, empfiehlt der Deutsche Ethikrat in seiner Stellungnahme, die Begründungspflichten umzukehren: Nicht das Abweichen von einer KI-Empfehlung sollte gerechtfertigt werden, sondern die Tatsache, dass Menschen ihr folgen.
Unsere Verantwortung
In der Verwaltung sind dank der Grundrechtsbindung auch die Transparenz-Anforderungen sehr hoch, sodass sie hier ebenfalls als Vorbild dienen kann. „Entscheidungen seitens des Staates müssen auch dann grundrechtskonform sein, wenn sie von KI unterstützt werden – und dies muss auch überprüfbar sein. Daher sind verbindliche Anforderungen an Qualität und Nachvollziehbarkeit essenziell. Für bestimmte Aufgaben kann es daher notwendig sein, auf nicht nachvollziehbare Systeme, welche beispielsweise deep learning verwenden, zu verzichten “, sagt Simon. Der Ethikrat hat dazu zehn Empfehlungen gegeben. Eine zentrale ist der gezielte Aufbau von Kompetenzen für einen guten Umgang mit Software. Menschen, die mit KI-gestützten Entscheidungen arbeiten, sollten sehr genau wissen, was die Software kann – aber auch, wo ihre Grenzen sind.
„Anforderungen an Qualität und Nachvollziehbarkeit sowie das Vermeiden von biases sind nicht nur für die öffentliche Hand, sondern auch für unternehmerische Entscheidungen relevant. Sie zu ignorieren ist keine Option. Denn im Kern erlernt eine KI mit statistischen Mitteln, bestehende Muster zu erkennen. Das macht sie zu einem konservativen Instrument, das bestehende Muster – und dadurch eben auch bestehende Ungerechtigkeiten – automatisch in die Zukunft fortschreibt“, so Simon. „Daraus ergibt sich, dass Menschen, die ohnehin schon vulnerabel sind, auch in Zukunft weiter benachteiligt werden und Ungerechtigkeiten und Diskriminierung durch scheinbar neutrale Technologien zementiert werden.“
Simon fordert, dass wir als Individuen und Gesellschaft uns grundlegende Gedanken machen, welchen Qualitätsanspruch wir an künstliche Intelligenzen stellen. Die Logik, nach der wir sie einsetzen, ist eine rein menschliche Entscheidung, und dieser Verantwortung sollten wir gerecht werden.