Frau Poszler, Autofahrende treffen während der Fahrt ständig Entscheidungen, auch ethische. Warum wird die Frage nach ethischem Handeln nur beim autonomen Fahren gestellt und nicht beim Autofahren im Allgemeinen?
Franziska Poszler › Im Prinzip wurde diese Fragestellung schon diskutiert und findet sich in der existierenden Gesetzgebung wieder. Durch die Fürsorgepflicht beispielsweise werden menschliche Fahrer dazu angehalten, nicht fahrlässig zu entscheiden und zu fahren. Die aktuelle Ethik-Diskussion ist allerdings wesentlich ausführlicher, denn für autonome Autos können – und müssen – Entscheidungen erstmals vorab getroffen werden. Dabei handelt es sich nicht um intuitive, menschliche, sondern um programmierte Entscheidungen. Ihre Programmierung hat weitreichende Konsequenzen für alle Verkehrsteilnehmer. Deshalb hat die aktuelle Diskussion eine neue Qualität.
Welche Konsequenzen sind das?
Poszler › Das lässt sich anhand einer von uns entwickelten Studie illustrieren. Dabei haben wir verschiedene Algorithmen geprüft, beispielsweise einen „egoistischeren“, der nur das Risiko des eigenen Fahrzeugs berücksichtigt, und einen „faireren“, der das Risiko für alle Verkehrsteilnehmer berechnet. Das Ergebnis: Schwache Straßenteilnehmer wie Fahrradfahrer sind höherem Risiko im Straßenverkehr ausgesetzt bei einem autonomen Fahrzeug, das auf einem egoistischen Algorithmus basiert. Das zeigt, warum es so wichtig ist, diese Diskussion vorab zu führen.
Herr Herzig, wie beurteilen Sie das aus regulatorischer und technischer Sicht?
Andreas Herzig › Bereits heute greift hier eine Reihe von Gesetzen. Das ist auch wichtig, denn es gibt jetzt erstmals ein Fahrzeug, das für Level 3 des autonomen Fahrens zugelassen ist und mit 60 Stundenkilometern auf deutschen Autobahnen fahren darf. In diesem vorgegebenen Rahmen darf man nun die Hände vom Steuer nehmen und sich anderen Tätigkeiten widmen. Wer aber nicht mehr selbst fährt, kann auch nicht belangt werden. In Deutschland gibt es das Gesetz zum autonomen Fahren; darüber hinaus ist der AI-Act geplant, mit dem die EU den Einsatz von KI regulieren will. Hinzu kommen die Regularien der United Nations Economic Commission for Europe (UNECE) für die steuernde Software. Auf der technischen Seite ist wichtig, dass aufgrund der vielen Sensorinformationen eine klassisch deterministisch aufgebaute Software nicht in der Lage ist, die Komplexität von Verkehrssituationen angemessen zu berücksichtigen. Zum Einsatz kommen deshalb KI-Systeme, die aufgrund der aufwendig antrainierten Fähigkeiten die aus ihrer Sicht beste Entscheidung treffen. Das Problem hierbei ist, die Kausalität zwischen Trainingsinhalten und Aktionen der KI-Systeme so zu beherrschen, dass die KI in möglichst allen Verkehrssituationen angemessen reagiert.
Sollten die programmierten Entscheidungen der Wirtschaft überlassen werden, oder braucht es vorab einen ethischen Rahmen?
Herzig › Wenn wir es überhaupt zulassen, dass ein Fahrzeug solche Entscheidungen trifft, dann muss es dafür eine Grundlage geben, auf die sich alle Hersteller berufen können. Die Entscheidungsfindung eines autonomen Autos darf sich nicht von Hersteller zu Hersteller unterscheiden. Ein Beispiel: Was passiert, wenn ein autonomes Fahrzeug bemerkt, dass es den Aufprall auf ein vorausfahrendes, bremsendes Auto nicht vermeiden kann? Soll es, um seine Insassen zu schützen, auf den Standstreifen ausweichen und die Personen gefährden, die sich dort aufhalten? Dafür gibt es keine verbindlichen ethischen Regeln, und die gegenwärtige Gesetzeslage, also die StVO, ist auch nicht hilfreich.
Poszler › Richtig, das können wir nicht nur der Industrie überlassen. Das zeigen schon Statements einiger Hersteller in der Vergangenheit, die eher in die Richtung gehen, die Insassen zu schützen und die Sicherheit anderer Verkehrsteilnehmer nicht zu priorisieren. Aus Sicht der Unternehmen ist dies verständlich, da sie natürlich Fahrzeuge produzieren möchten, die auch vom Kunden abgenommen und gekauft werden. Trotzdem macht dies deutlich, dass auch andere Anspruchsgruppen hierzu gehört werden müssen.
Was wird sich mit der autonomen Zukunft für die Typenzulassung und die fortlaufende technische Prüfung der Fahrzeuge ändern?
Herzig › Seit 2022 werden bei der Typenzulassung für alle neu in Verkehr gebrachten Fahrzeuge drei neue UNECE-Regelungen berücksichtigt. Demnach müssen Fahrzeuge Vorkehrungen zur Cyber Security haben und updatefähig sein, um deren Aktualität zu erhalten. Außerdem stellt die UNECE Anforderungen an autonom fahrende Autos ab Level 3 und sieht unter anderem spezielle Tests vor. Das ist sehr aufwendig, wenn man an die Komplexität heutiger Fahrzeuge von bis zu 100 Steuergeräten denkt. Neu ist auch, dass jeder Fahrzeugtyp gerade im Hinblick auf die genannten Software-Anforderungen alle drei Jahre erneut durch eine Re-Zertifizierung gebracht werden muss. In Zukunft werden Hersteller die Entwicklung ihrer Autos nicht mehr nur bis zum Produktionsstart betrachten, sondern über den gesamten Lebenszyklus.