Anzeigensonderveröffentlichung

Technologie

Wird Ethik programmierbar?

Die Digitalisierung betrifft zunehmend nicht nur alle Bereiche der Wirtschaft, sondern auch den Alltag der Menschen. Große Chancen stehen großen Ängsten gegenüber. Etwa, dass Künstliche Intelligenz bald die Menschen überflügeln wird. Ein Gespräch mit Christoph Lütge, der das neue „Institute for Ethics in Artificial Intelligence“ an der Technischen Universität München (TUM) leiten wird.

Von Guido Walter

Fotografie von Prof. Dr. Christoph Lütge vor einem Gebäude. Aufgenommen wurde das Foto aus der Frosch-Perspektive

Herr Lütge, welche Themen brennen Ihnen als Leiter des neuen Instituts unter den Nägeln?

Prof. Dr. Christoph Lütge › Wir werden uns mit ganz unterschiedlichen ethischen und gesellschaftlichen Fragen von Künstlicher Intelligenz (KI) beschäftigen. Im Bereich des Machine Learnings und der sozialen Medien befassen wir uns etwa mit der Fairness und Transparenz von Algorithmen, auch mit der Erklärbarkeit der Resultate von Algorithmen. Dazu gehören aber auch Fragestellungen, die in den Bereich der harten Technologie hineinspielen. In der Robotik geht es stark um Machine Learning. Das wirft Fragen auf, in denen es um die Sicherheit dieser Technologie geht, etwa bei Pflegerobotern.

Robotern, die ältere Menschen in Pflegeheimen betreuen sollen?

Lütge › Nicht notwendigerweise nur im Pflegeheim, das kann auch zu Hause stattfinden.

Eine der Kernfragen im »Institute for Ethics in Artificial Intelligence« wird folgende sein: Wie stellen wir Vertrauen in Technologien her?

Lütge › Welche Regeln brauchen diese Technologien, um dieses Vertrauen zu rechtfertigen, und auf welche Dinge müssen wir achten, damit das Vertrauen nicht missbraucht wird? Es geht um den nachhaltigen Einsatz von KI. Sie kann nämlich eine Kontrollfunktion auf andere Technologien ausüben und deren Nachhaltigkeit sicherstellen.

Das lässt die Frage nach digitaler Verantwortung und Ethik im Zusammenhang mit KI besonders dringend erscheinen. Welche Probleme zeigen sich hier aus Ihrer Sicht?

Lütge › Erstens die Fairness von Algorithmen. Zweitens die Datenschutzprobleme, die in Europa besonders stark diskutiert werden, woanders in der Welt aber eine viel weniger große Rolle spielen. Aus diesem Missverhältnis entstehen Probleme. Drittens die Frage der Sicherheit, und zwar nicht nur im rein technischen Sinne. Nehmen Sie das autonome Fahren. Wie stelle ich sicher, dass Algorithmen in Unfallsituationen so handeln, wie wir das wollen? Wir reden hier von Dilemma-Situationen, in denen sich ein autonomes Fahrzeug befindet, wenn es etwa einen Unfall nicht mehr vermeiden kann. Wen wird es überfahren? Nehmen Sie die Frage mit jungen und alten Menschen. Es gibt Autoren, die sagen, ja, wir sollten unterscheiden. Es wäre unsere Intuition, Junge zu bevorzugen. Es ist aber rechtlich nicht machbar und ethisch nicht vertretbar, zwischen bestimmten Personengruppen zu unterscheiden. Eine weitere Frage ist, ob jemand, der sich regelkonform verhält, bevorzugt werden soll. Und da würde ich tatsächlich sagen, ja, das wäre denkbar. Wenn sich jemand nicht an die Regeln hält, muss er einen Nachteil in Kauf nehmen. Das ist normal, und das ist sowohl rechtlich als auch ethisch verantwortbar.

Autonomes Fahren aus Sicht des Fahrers, keinen Hände am Steuer

Laufen wir da nicht Gefahr, in die Nähe des chinesischen Systems des Social Scoring zu geraten, einer Art Schufa für viele Belange des gesellschaftlichen Lebens, in dem „gutes“ Verhalten belohnt, „schlechtes“ aber sanktioniert wird?

Lütge › Ein wichtiger Punkt, den wir in unserem Institut diskutieren wollen. Ich würde unterscheiden zwischen dem tatsächlichen chinesischen System und anderen Bewertungssystemen. Das chinesische Social Scoring halte ich für einen Sonderfall, der aus meiner Sicht nirgendwo sonst so umgesetzt werden kann. Die Angst, dass es auch bei uns in diese Richtung gehen kann, halte ich für übertrieben. In China greifen spezielle Bedingungen. Aber das befreit uns nicht von der Frage, wie wir damit umgehen. Wir werden grundsätzlich Bewertungssysteme in irgendeiner Form haben, aber wir müssen sie verträglich machen mit unseren ethischen Intuitionen und mit dem, was unser Rechtssystem und unsere Demokratie erfordert.

Bewertungssysteme existieren ja auch schon, wenn man an Auskunften wie die Schufa denkt. Das ist auch eine Art Social Scoring, wenn auch auf einem sehr niedrigen Level.

Lütge › Genau. Kennen Sie diese Episode der TV-Serie „Black Mirror“, in der sich die Menschen nach jeder Begegnung auf einer Skala von eins bis fünf bewerten und daraus ein Mittelwert generiert wird, der dann einen für alle sichtbaren sozialen Gesamtwert eines Menschen darstellt?

Ja. Besonders beängstigend ist, dass es dabei nicht nur um reines Online-Prestige geht, sondern dass die Bewertung Auswirkungen auf das reale Leben hat.

Lütge › Eine interessante Projektion, aber auch beispielhaft für ein dystopisches Szenario, das im Bereich der KI gezeichnet wird. Wir müssen bei der Forschung zwischen relevanten und weniger relevanten Szenarien unterscheiden. Um dies zu leisten, arbeiten wir interdisziplinär, mit Leuten aus den Ingenieurwissenschaften und aus der Informatik. Mein Plan ist, jeweils in einem Projekt die technische Seite mit dem Bereich Ethik, Recht oder Governance zusammenzuführen. Die Leute sollen sich gegenseitig über die Schulter schauen und gemeinsam an Fragestellungen arbeiten. Etwa, wie ein Algorithmus gebaut werden soll oder wie sich ein Roboterarm bewegen muss. Die unterschiedlichen Sichtweisen erhöhen die Chance, dass wir Erkenntnisse bekommen, die am Ende tatsächlich in handhabbare Regeln münden.

Seit etwa zwei Jahren wird Ethik der KI stark diskutiert, aber wir sind noch auf der Ebene von sehr abstrakten Richtlinien.

Lütge › Wir wollen da einen Schritt weiter gehen, bis hin zum konkreten Algorithmus, zum konkreten System. Zuerst müssen wir uns aber mit einzelnen Technologien beschäftigen, mit ihrem derzeitigen Stand und dem, was vielleicht in den nächsten fünf Jahren absehbar ist. Nicht unbedingt gleich mit dem, was in 30, 40 Jahren mal möglich sein könnte. Da würden wir uns eher mit Fragen rund um die Singularität oder dem Skynet befassen.

Sie sprechen von Ingenieuren, Ethikern, Juristen und anderen Wissenschaftlern. Sind zukünftige Richtlinien der Ethik in der KI nicht so wichtig, dass man diese Frage nicht auf einer noch breiteren gesellschaftlichen Basis diskutieren müsste?

Lütge › Wir planen eine ganze Reihe von Veranstaltungen, welche die Zusammenarbeit mit Akteuren aus der Zivilgesellschaft, den Unternehmen und der Politik vertiefen sollen. Forschung hinter verschlossenen Türen zu machen wäre nicht Sinn der Sache. Es wird Formate geben, in denen wir genau diese Diskussionen auch suchen.

Das erscheint sinnvoll, denn unter den Digital- und Technologiethemen ist KI wohl das am meisten angstbesetzte Thema. Es kommen Assoziationen an Stanley Kubricks Film „2001“ auf, in dem ein Supercomputer ein Bewusstsein entwickelt und tötet. Wie schafft man es, Vertrauen in Technologie aufzubauen und Ängste zu überwinden?

Lütge › Das Wichtigste sind klare Regeln. Menschen sind sich oft noch im Unklaren, was Technologie kann und was nicht. Unwissenheit wird durch unklare Regeln befördert. Nehmen Sie zum Beispiel den Unfall, den ein automatisiert fahrendes Fahrzeug von Uber im letzten Jahr in Arizona hatte. Da war vieles unklar. Die Sensoren funktionierten zwar, aber die Verbindung der Sensoren zum Bremssystem war getrennt, weil zu häufig gebremst wurde. Das Auto hat dann die Person, die da getötet wurde, auf dem Fahrradstreifen erkannt. Aber es hat nicht gebremst, weil die automatische Bremsfunktion abgeschaltet war. Der Fahrer hat sich auf das System verlassen und weggeguckt, was nicht sein durfte. Aber wer ist jetzt dafür verantwortlich? Die Antwort ist, dass wir Regeln brauchen, auf die man sich als Verkehrsteilnehmer auch verlassen kann. Es wird immer Grenzfälle und Restrisiken geben, wie bei jeder Technologie. Nehmen wir das Beispiel mit dem Fahrstuhl. Im Prinzip ist das, wenn sie nicht hundertprozentig funktionieren würde, eine gefährliche Technologie. Jahrzehntelang gab es diese Ängste von Leuten, nach Öffnen der Tür in den Schacht zu fallen. Das ist mittlerweile vorbei, die Menschen haben Vertrauen in die Technologie.

Haben Sie auch Vertrauen in die Fairness und Transparenz von Algorithmen? Mit Facebook wird Ihr Institut von einem Unternehmen finanziert, das für seinen Umgang mit Daten in der Kritik steht

Lütge › Was die Frage nach der Unabhängigkeit betrifft, sage ich ganz klar, dass es keine Vorgaben, Aufgaben oder Pflichten vonseiten Facebooks gibt. Der zweite Punkt, den Kritiker dann gerne nennen: Was ist die Motivation von Facebook, das zu tun? Und da sage ich: Ich erforsche keine Motivationen. Wenn wir damit etwas erschaffen, von dem andere Menschen profitieren – sprich faire Algorithmen, besserer Datenschutz, sichere Systeme, die mehr Vertrauen genießen, und Unternehmen helfen, nachhaltiger zu wirtschaften – dann muss man auch akzeptieren, dass es dafür im Gegenzug einen Reputationsgewinn für das finanzierende Unternehmen geben kann. Die Alternative ist, entweder ganz viel öffentliches Geld auszugeben oder auf ein Unternehmen zu warten, das sich dem Wahren und dem Guten verschrieben hat.

Kritiker sagen, alles schön und gut, aber die Allgemeinheit hat davon nichts.

Lütge › Das ist sozusagen die raffinierte Variante der Kritik. Ich verstehe nicht, wieso die Allgemeinheit nichts davon hat, wenn wir Algorithmen fairer gestalten, autonome Autos sicherer machen und Maschinen besser gegen Hackerangriffe schützen. Wenn wir den ethischen Vorteil dieser Technologien ausbauen, haben viele Menschen etwas davon.

Ist es überhaupt möglich, ein Frühwarnsystem zu installieren, das auf künftige Gefahren von Technologien hinweist?

Lütge › Das ist sicherlich einer der schwierigsten und heiß diskutiertesten Punkte. Ich war beteiligt an der Entwicklung einer der Versionen der europäischen Richtlinien für KI. Wir haben einige solcher Punkte diskutiert, die derzeit noch sehr abstrakt sind.

KI muss mit der Autonomie einer Person vereinbar sein, auch auf längere Sicht.

Lütge › Bei Chatbots stellt sich etwa die Frage, ob gekennzeichnet werden muss, dass man es mit einem künstlichen System zu tun hat. Die Fragestellungen spielen im Moment eine untergeordnete Rolle, was sich aber ändern kann. Was passiert etwa, wenn zwei Systeme miteinander interagieren und dafür eine eigene Sprache entwickeln? Im betreffenden Fall hat man sie abgeschaltet.

Viel diskutiert wird in diesem Zusammenhang, ob der Turing-Test schon bestanden wurde, wonach ein Fragesteller nach der intensiven Befragung nicht klar sagen kann, welcher seiner beiden Gesprächspartner die Maschine ist und welcher der Mensch.

Lütge › Der Turing-Test ist problematisch. Man kann immer sagen, das reicht nicht, er ist noch nicht bestanden. Denn es steht in der Testbeschreibung nicht drin, wie lange sich der Mensch mit dem System unterhalten muss und welche Vorkenntnisse er haben muss. Mir gefällt der Test besser, der besagt: Ein Roboter muss, wenn er intelligent ist, in der Lage sein, in ein beliebiges Haus zu gehen und sich einen Kaffee zu machen.

Bei der Frage nach der Ethik in der KI muss die Forschung nicht bei null anfangen. Es gab und gibt Autoren, die sich intensiv mit diesen Fragen beschäftigt haben. Ich denke etwa an Isaac Asimov und seine Robotergesetze.

Lütge › In denen steckt durchaus eine gewisse Ethik. In der Robotik gelten sie als ein wichtiger Vorläufer, aber man braucht heute viel spezifischere Dinge, die diese Robotergesetze zum Teil auch in Frage stellen. Wenn Sie zum Beispiel das erste Gesetz „Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen“ ernst nehmen, dürften Sie in diesem Bereich keine Militärtechnologie entwickeln.

Für das Einhalten von Gesetzen sorgt der Staat. Welche Rolle spielt es dann für die Ethik in der KI, wenn die Technologien von Unternehmen entwickelt werden?

Lütge › Es stimmt, dass die meisten dieser Technologien eben nicht von Regierungen, öffentlichen Forschungseinrichtungen oder kleinen Start-ups entwickelt werden, sondern in der Regel von großen Unternehmen. Dann stellt sich die Frage nach der Haftung. Aus meiner Sicht ist es problematisch, nur zu sagen: Wir konzentrieren uns auf die Individuen. Wir müssen tatsächlich auch auf die Unternehmen schauen, das ist vielen nicht klar. Bei den bekannten Fällen, etwa bei VW oder Siemens, mussten die Unternehmen, und zwar in erheblichem Maße, für die Folgen ihrer Produkte haften. Die Frage nach den Regeln stellt sich auch bei den Algorithmen im Social-Media-Bereich. Wer da diskriminiert oder bestimmte Hasspropaganda zulässt, der wird sehen, dass das auch auf das Unternehmen zurückschlägt, entweder finanziell oder mit rechtlichen Einbußen. Bei den autonomen Fahrzeugen haben wir erste ethische Richtlinien, die besagen: Die Haftung muss in den Fällen, wo das System autonom gewesen ist, auf das Unternehmen übergehen.

Eine Aufnahme der Fassade der technischen Universität
Bild des Foyers

Wäre es nicht ein weiterer konsequenter Schritt, wenn jedes Unternehmen eine Corporate Social Responsibility für KI implementieren würde?

Lütge › Das wird es auf jeden Fall geben. Denn es reicht eben nicht zu sagen: Ich halte die Gesetze genau dem Buchstaben nach ein. Man wird mehr tun müssen. Unternehmen tun in dieser Hinsicht auch schon oft viel mehr, für Umwelt oder Menschenrechte etwa. Schwieriger ist es nun, wenn wir es mit solchen Systemen wie KI zu tun haben. Wir können nach dem derzeitigen Stand nicht an das System appellieren, seinem Gewissen zu folgen.

Ist Ethik programmierbar?

Lütge › Wenn Regeln irgendwo dargelegt und einprogrammiert sind, wird Ethik programmierbar. Dann kann man aber nicht mehr erwarten als das, was in die Regeln einprogrammiert ist. Das würde das System nicht verstehen.

Greifen Unternehmensleitbilder schon die Frage der Ethik in der KI auf?

Lütge › Einige Unternehmen machen das schon. Die Telekom zum Beispiel hat Ethik-Regeln für den Umgang mit KI entwickelt. Solche Leitlinien für den Umgang mit KI, die auf einer allgemeinen Ebene entwickelt werden, müssen dann aber auch ins Detail gehen, damit sie in die Programmierung einfließen können.

Bei der Frage, wer das in Zukunft leisten soll, gibt es einen Dissens. Einige Politiker sagen, alle Kinder müssen in der Schule programmieren lernen. Alibaba-Gründer Jack Ma sagt: bloß nicht. Lehrt sie Empathie und Teamwork, weil das die Skills sind, die wir brauchen werden, wenn sich in ein paar Jahren die Maschinen ohnehin programmieren werden.

Lütge › Da hat Jack Ma vollkommen recht. Wir denken in Deutschland sofort immer in diesen MINT-Kategorien, vor allem an Informatik.

»Wir müssen heute aber nicht mehr programmieren wie vor 20 Jahren. Wir brauchen Menschen, die kreativ mit diesen Technologien umgehen. Die nicht wissen müssen, wie jedes Teil dieses Systems funktioniert, aber die Frage beantworten können, was wir mit einem System überhaupt machen wollen.«

Lütge › Nur die rein technische Sichtweise zu sehen ist ein großer Fehler, den man besonders in Deutschland macht.

Porträtfoto von Prof. Dr. Christoph Lütge

Prof. Dr. Christoph Lütge

Inhaber des Peter-Löscher-Stiftungslehrstuhls für Wirtschaftsethik an der Technischen Universität München.

Prof. Lütge forscht auf dem Gebiet der Wirtschafts- und Unternehmensethik. Er vertritt den Ansatz einer Ordnungsethik, der ethisches Handeln unter den ökonomischen und sozialen Rahmenbedingungen der Globalisierung erforscht. Die Rolle des Wettbewerbs und der von Ordnungen ausgehenden Anreize stehen dabei ebenso im Vordergrund wie die Prüfung ethischer Kategorien auf Angemessenheit. Zukünftig wird Prof. Lütge das neue „Institute for Ethics in Artificial Intelligence“ an der Technischen Universität München (TUM) leiten, das von dem US-amerikanischen Unternehmen Facebook unterstützt wird. (Foto: Nils Schwarz)

Profil von Prof. Dr. Lütge an der TUM