Herr Lütge, welche Themen brennen Ihnen als Leiter des neuen Instituts unter den Nägeln?
Prof. Dr. Christoph Lütge › Wir werden uns mit ganz unterschiedlichen ethischen und gesellschaftlichen Fragen von Künstlicher Intelligenz (KI) beschäftigen. Im Bereich des Machine Learnings und der sozialen Medien befassen wir uns etwa mit der Fairness und Transparenz von Algorithmen, auch mit der Erklärbarkeit der Resultate von Algorithmen. Dazu gehören aber auch Fragestellungen, die in den Bereich der harten Technologie hineinspielen. In der Robotik geht es stark um Machine Learning. Das wirft Fragen auf, in denen es um die Sicherheit dieser Technologie geht, etwa bei Pflegerobotern.
Robotern, die ältere Menschen in Pflegeheimen betreuen sollen?
Lütge › Nicht notwendigerweise nur im Pflegeheim, das kann auch zu Hause stattfinden.
Eine der Kernfragen im »Institute for Ethics in Artificial Intelligence« wird folgende sein: Wie stellen wir Vertrauen in Technologien her?
Lütge › Welche Regeln brauchen diese Technologien, um dieses Vertrauen zu rechtfertigen, und auf welche Dinge müssen wir achten, damit das Vertrauen nicht missbraucht wird? Es geht um den nachhaltigen Einsatz von KI. Sie kann nämlich eine Kontrollfunktion auf andere Technologien ausüben und deren Nachhaltigkeit sicherstellen.
Das lässt die Frage nach digitaler Verantwortung und Ethik im Zusammenhang mit KI besonders dringend erscheinen. Welche Probleme zeigen sich hier aus Ihrer Sicht?
Lütge › Erstens die Fairness von Algorithmen. Zweitens die Datenschutzprobleme, die in Europa besonders stark diskutiert werden, woanders in der Welt aber eine viel weniger große Rolle spielen. Aus diesem Missverhältnis entstehen Probleme. Drittens die Frage der Sicherheit, und zwar nicht nur im rein technischen Sinne. Nehmen Sie das autonome Fahren. Wie stelle ich sicher, dass Algorithmen in Unfallsituationen so handeln, wie wir das wollen? Wir reden hier von Dilemma-Situationen, in denen sich ein autonomes Fahrzeug befindet, wenn es etwa einen Unfall nicht mehr vermeiden kann. Wen wird es überfahren? Nehmen Sie die Frage mit jungen und alten Menschen. Es gibt Autoren, die sagen, ja, wir sollten unterscheiden. Es wäre unsere Intuition, Junge zu bevorzugen. Es ist aber rechtlich nicht machbar und ethisch nicht vertretbar, zwischen bestimmten Personengruppen zu unterscheiden. Eine weitere Frage ist, ob jemand, der sich regelkonform verhält, bevorzugt werden soll. Und da würde ich tatsächlich sagen, ja, das wäre denkbar. Wenn sich jemand nicht an die Regeln hält, muss er einen Nachteil in Kauf nehmen. Das ist normal, und das ist sowohl rechtlich als auch ethisch verantwortbar.
Laufen wir da nicht Gefahr, in die Nähe des chinesischen Systems des Social Scoring zu geraten, einer Art Schufa für viele Belange des gesellschaftlichen Lebens, in dem „gutes“ Verhalten belohnt, „schlechtes“ aber sanktioniert wird?
Lütge › Ein wichtiger Punkt, den wir in unserem Institut diskutieren wollen. Ich würde unterscheiden zwischen dem tatsächlichen chinesischen System und anderen Bewertungssystemen. Das chinesische Social Scoring halte ich für einen Sonderfall, der aus meiner Sicht nirgendwo sonst so umgesetzt werden kann. Die Angst, dass es auch bei uns in diese Richtung gehen kann, halte ich für übertrieben. In China greifen spezielle Bedingungen. Aber das befreit uns nicht von der Frage, wie wir damit umgehen. Wir werden grundsätzlich Bewertungssysteme in irgendeiner Form haben, aber wir müssen sie verträglich machen mit unseren ethischen Intuitionen und mit dem, was unser Rechtssystem und unsere Demokratie erfordert.
Bewertungssysteme existieren ja auch schon, wenn man an Auskunften wie die Schufa denkt. Das ist auch eine Art Social Scoring, wenn auch auf einem sehr niedrigen Level.
Lütge › Genau. Kennen Sie diese Episode der TV-Serie „Black Mirror“, in der sich die Menschen nach jeder Begegnung auf einer Skala von eins bis fünf bewerten und daraus ein Mittelwert generiert wird, der dann einen für alle sichtbaren sozialen Gesamtwert eines Menschen darstellt?
Ja. Besonders beängstigend ist, dass es dabei nicht nur um reines Online-Prestige geht, sondern dass die Bewertung Auswirkungen auf das reale Leben hat.
Lütge › Eine interessante Projektion, aber auch beispielhaft für ein dystopisches Szenario, das im Bereich der KI gezeichnet wird. Wir müssen bei der Forschung zwischen relevanten und weniger relevanten Szenarien unterscheiden. Um dies zu leisten, arbeiten wir interdisziplinär, mit Leuten aus den Ingenieurwissenschaften und aus der Informatik. Mein Plan ist, jeweils in einem Projekt die technische Seite mit dem Bereich Ethik, Recht oder Governance zusammenzuführen. Die Leute sollen sich gegenseitig über die Schulter schauen und gemeinsam an Fragestellungen arbeiten. Etwa, wie ein Algorithmus gebaut werden soll oder wie sich ein Roboterarm bewegen muss. Die unterschiedlichen Sichtweisen erhöhen die Chance, dass wir Erkenntnisse bekommen, die am Ende tatsächlich in handhabbare Regeln münden.
Seit etwa zwei Jahren wird Ethik der KI stark diskutiert, aber wir sind noch auf der Ebene von sehr abstrakten Richtlinien.
Lütge › Wir wollen da einen Schritt weiter gehen, bis hin zum konkreten Algorithmus, zum konkreten System. Zuerst müssen wir uns aber mit einzelnen Technologien beschäftigen, mit ihrem derzeitigen Stand und dem, was vielleicht in den nächsten fünf Jahren absehbar ist. Nicht unbedingt gleich mit dem, was in 30, 40 Jahren mal möglich sein könnte. Da würden wir uns eher mit Fragen rund um die Singularität oder dem Skynet befassen.
Sie sprechen von Ingenieuren, Ethikern, Juristen und anderen Wissenschaftlern. Sind zukünftige Richtlinien der Ethik in der KI nicht so wichtig, dass man diese Frage nicht auf einer noch breiteren gesellschaftlichen Basis diskutieren müsste?
Lütge › Wir planen eine ganze Reihe von Veranstaltungen, welche die Zusammenarbeit mit Akteuren aus der Zivilgesellschaft, den Unternehmen und der Politik vertiefen sollen. Forschung hinter verschlossenen Türen zu machen wäre nicht Sinn der Sache. Es wird Formate geben, in denen wir genau diese Diskussionen auch suchen.