Anzeigensonderveröffentlichung

Gesellschaft

»Verantwortung können wir nicht delegieren«

Professor Julian Nida-Rümelin ist Staatsminister a. D. und Direktor am Bayerischen Institut für digitale Transformation. 2018 erschien von ihm das Buch „Digitaler Humanismus“. Im Interview spricht er darüber, warum ein philosophisches Grundverständnis bei der Entwicklung digitaler Systeme wichtig ist.

Von Julia Hoscislawski

Herr Nida-Rümelin, mit der fortschreitenden Digitalisierung gehen teilweise auch viele Ängste einher. Wie wägen Sie die Chancen und Risiken der Entwicklungen ab? Und wie sollte man aus Ihrer Sicht den Sorgen entgegentreten?

Prof. Julian Nida-Rümelin › Die Frage danach, welche Rolle der Mensch in der digitalen Transformation spielt, wird seit Erscheinen unseres Buches 2018 immer wichtiger. Den Begriff digitaler Humanismus habe ich schon seit 2014 in Vorträgen verwendet, um deutlich zu machen, dass es einen kategorialen Unterschied zwischen menschlichen Akteuren und Softwaresystemen gibt. Und wenn man diesen kategorialen Unterschied verstanden und akzeptiert hat, dann heißt das zweierlei: Nämlich, dass auf der einen Seite bestimmte überzogene Hoffnungen und Erwartungen unberechtigt und auf der anderen Seite aber auch überzogene Befürchtungen und Ängste unrealistisch sind, zum Beispiel, dass in Zukunft Softwareakteure die Weltherrschaft an sich reißen könnten, Menschen unterjochen wollen und böse Absichten entwickeln. Der digitale Humanismus setzt dagegen: Es sind immer nur Menschen, die handelnd Verantwortung wahrnehmen. Digitale Tools sind nur Instrumente, die wir zum menschlichen Guten einsetzen sollten. Aber wir sollten zugleich die Risiken realistisch sehen und nicht erwarten, dass die digitale Transformation eine Eigendynamik zur Verbesserung der Welt entwickelt.

Können Sie die Idee des digitalen Humanismus noch etwas ausführen?

Nida-Rümelin › Der digitale Humanismus ist vor allem eine Philosophie, die humanistisch in dem Sinne ist, dass sie menschliche Autorschaft ins Zentrum rückt. Diese „conditio humana“ löst sich jetzt nicht einfach durch die digitale Transformation auf. Sie ist sehr stark dadurch geprägt, dass wir wohl nach allem, was wir wissen, die einzigen Wesen jedenfalls auf diesem Planeten sind, die Gründe, Pro und Contra abwägen können und die sich zwischen Alternativen entscheiden können. Die Fähigkeit, Gründe abzuwägen, Optionen zu sehen, bedeutet Freiheit und Verantwortung zugleich. Ich kann gefragt werden „Warum hast du so entschieden und nicht anders?“ Und dann muss ich die Gründe angeben können, warum ich das eben so entschieden habe. Diese drei Aspekte der menschlichen Existenz – Freiheit, Verantwortung und Vernunft – sind kurz gesagt der Kern der humanistischen Philosophie und den können wir nicht an Maschinen delegieren.

Was können wir denn an Maschinen delegieren?

Nida-Rümelin › Wir können die Art und Weise, wie wir abwägen teilweise automatisieren. Aber damit wird nicht die Maschine zum Akteur, sondern wir sind dann diejenigen, die eine bestimmte algorithmische Fassung von Prozessen etablieren. Denken Sie zum Beispiel an das autonome Fahren, dort stellt sich genau solch ein Problem. Wir übernehmen die Verantwortung, wir gestalten die Software, mit der die Fahrzeuge unterwegs sind. Wir müssen bestimmen, wie dann jeweils verschiedene Folgen für das Fahrverhalten gegeneinander abgewogen werden. Das sind aber immer wir. Es ist nicht die Maschine, es ist nicht das Automobil, was dann auf einmal angeklagt werden kann, weil das Automobil eine Fehlentscheidung getroffen hat. Das ist die wichtige Botschaft, und die ist nicht banal. Es gab ernste Vorschläge aus der Jurisprudenz, die jetzt wieder weitestgehend zurückgenommen worden sind, dass wir einen weiteren Verantwortungsträger etablieren müssen; nämlich diese Softwaresysteme selbst, die dann versichert werden müssten. Die menschliche Verantwortung teilweise aufzulösen und zu sagen, in Zukunft sind es andere Akteure, die diese übernehmen, das wäre genau der Einstieg in eine inhumane Fehlentwicklung der Digitalisierung gewesen.

»Als Menschen müssen wir die ganze Verantwortung tragen und uns den anderen Tendenzen entgegenstellen. Das ist digitaler Humanismus.«

Wer sollte bei der Weiterentwicklung von KI-Technologien konkret Verantwortung übernehmen? Und wie könnte das aussehen?

Nida-Rümelin › Vor dem Hintergrund des digitalen Humanismus können und müssen wir als Menschen die ganze Verantwortung tragen und uns den Tendenzen, die sich in der digitalen Transformation tatsächlich beobachten lassen – nämlich die Verantwortung so diffundieren zu lassen, dass am Ende niemand mehr wirklich Verantwortung wahrnimmt und niemand zur Rechenschaft gezogen werden kann – entgegenstellen. Wir haben ein Forschungsprojekt „Ethical Deliberation in Agile Processes“, EDAP abgekürzt, am Bayerischen Forschungsinstitut für Digitale Transformation, das sich ziemlich erfolgreich entwickelt. Da geht es etwa um die Frage: „Wie kann man bewirken, dass die Kompetenzen derjenigen, die in der Softwareentwicklung selbst tätig sind, einbezogen oder berücksichtigt werden, um die entsprechenden Chancen und Risiken im Prozess der Softwareentwicklung selbst im Blick zu behalten? Wenn dieser Entwicklungsprozess als agiles Management, eine weltweit verbreitete moderne Managementmethode, organisiert ist, lässt sich das kooperativ gestalten.

Was bedeutet das?

Nida-Rümelin › Das heißt, die Softwareentwickler sind nicht nur Ausführende, sondern zugleich Akteure. Sie haben die moralische Verpflichtung, Risiken zu benennen, und sich umgekehrt Chancen zu überlegen. Sozusagen ein Back and Forth in der Entwicklung selbst. Dazu ist es erforderlich, dass die Techniker und Technikerinnen, entsprechend ein Sensorium für ethische Aspekte der technologischen Entwicklung der digitalen Transformation vor Augen haben. Dazu muss dann wiederum die ethische Kompetenz in der Informatik eine wichtige Rolle spielen. Das ist auch eine der Botschaften des digitalen Humanismus.

»Ich plädiere für einen Paradigmenwechsel: statt Datensparsamkeit Datenopulenz im Interesse des Gemeinwohls.«

Verantwortung übernehmen bedeutet im Sinne der Nutzer auch, dass das Thema Datenschutz politisch dringend vorangetrieben werden muss. Welche Anforderungen muss gute Regulierung neuer Technologien erfüllen?

Nida-Rümelin › Unsere deutsche Datenschutzpraxis ist hochgradig dysfunktional, gerade was die Forschung angeht. Durch die neue Gesetzeslage, das kürzlich vom Bundestag verabschiedete Gesundheitsdatennutzungsgesetz, wird sich das im Bereich der medizinischen Praxis endlich ändern, ganz so wie ich es seit Jahren gefordert habe und wofür ich scharf kritisiert wurde. Zur gleichen Zeit bin ich ein vehementer Verteidiger der informationellen Selbstbestimmungsrechte von Individuen, die massiv missachtet werden – im Westen von den Tech-Unternehmen in Silicon-Valley, die im großen Stil und zu kommerziellen Zwecken Daten sammeln, aber auch in Ländern wie China, wo die Digitalisierung systematisch zur staatlichen Kontrolle der Bevölkerung genutzt wird. Bis heute sind die Nutzer von Plattformen diesen im Grunde ausgeliefert. Oft sagt man: „Du musst da ja nicht dabei sein, und dich anmelden“, aber dann bist du eben raus. Wenn Jugendliche WhatsApp nicht nutzen, sind sie im Klassenverband schnell nicht mehr präsent. Wir brauchen sowohl einen wirksameren Schutz der informationellen Selbstbestimmung gegenüber den kommerziellen, oft monopolistischen Anbietern, als auch eine Datenschutzpraxis, die für die zivilgesellschaftliche Entwicklung, für die Politik, für die Forschung die Verfügbarkeit von großen Datenbeständen sichert. Das müssen wir unbedingt in ein Gleichgewicht bringen, auch wenn es schwierig ist. Ein erster Schritt ist jetzt immerhin getan. Ich plädiere für einen Paradigmenwechsel: statt Datensparsamkeit Datenopulenz im Interesse des Gemeinwohls. Denn mit mehr Daten und einer fundierteren Datenbasis ließen sich heute schon gesellschaftliche Themen und Entwicklungen viel einfacher lösen.

Porträtfoto von Prof. Dr. Julian Nida-Rümelin

Professor Dr. Julian Nida-Rümelin

Professor Dr. Julian Nida-Rümelin ist Staatsminister a. D., Direktor am Bayerischen Institut für digitale Transformation, Philosoph und Autor. Seit Jahrzehnten beschäftigt er sich mit angewandter Ethik am Beispiel gesellschaftlicher Fragen. 2018 erschien von ihm das gemeinsam mit Nathalie Weidenfeld verfasste Buch „Digitaler Humanismus“. Er lehrt an der Ludwig-Maximilians-Universität in München und als Honorarprofessor an der Humboldt Universität Berlin.