Anzeigensonderveröffentlichung

Technologie

Wissen sie überhaupt, was sie tun?

Undurchsichtige Algorithmen: die Künstliche-Intelligenz-Forschung zwischen moderner Handwerkskunst und Alchemie

Von Thomas Thiel

Ein Roboter schaut durch ein Mikroskop

Die Künstliche-Intelligenz-Forschung kann sich über einen Mangel an Aufmerksamkeit und Fördergeldern nicht beschweren. Paradoxerweise legt man dabei die Zukunft in die Hand einer Technik, die – so warnen selbst Experten – ihren Erfinder entbehrlich machen könnte. Da trägt es nicht zur Beruhigung bei, dass sich die KI-Forschung selbst ein Rätsel ist. Googles KI-Forscher Ali Rahimi provozierte im vergangenen Dezember mit der These, KI sei nichts anders als moderne Alchemie (Science Magazin, 5/2018). Man drehe so lange an den Parametern, bis der Algorithmus das gewünschte Ergebnis hervorbringe. Kürzlich legte Rahimi auf einer Konferenz in Vancouver noch einmal nach und bezeichnete die ganze KI-Forschung als Alien-Technologie.

Die Branche wisse nicht, warum sie den einen Algorithmus dem anderen vorziehe. Sie tue es einfach und schaue, wie weit sie damit komme.

Das ist nicht einmal eine provokante Behauptung. Tatsächlich können Algorithmen mit ganz unterschiedlichen Methoden zum gleichen Ergebnis kommen. Meistens zeigt erst das Resultat, welches der bessere Lösungsweg ist. Wissenschaftlich ist das natürlich unbefriedigend. Inzwischen gibt es Prüfmethoden, die selbstlernende Software daraufhin untersuchen, wie sie zu ihren Resultaten gelangt, das heißt konkret: welchen Einfluss eine bestimmte Variable auf sie nimmt. Das Verfahren, das 2015 an der TU Berlin und dem Fraunhofer Institut für selbstlernende Systeme entwickelt wurde, ist aber noch wenig bekannt und kommt in der Praxis bisher nicht zur Anwendung, sagt Wojciech Samek, Forschungsgruppenleiter am Fraunhofer Heinrich-Hertz-Institut. Und auch diese Methode muss bis auf weiteres ohne eine Metatheorie auskommen.

Ein Stück weit hat Rahimi mit seinem Alchemie-Vorwurf also recht. Man muss jedoch einschränkend sagen, dass er nur auf den derzeit angesagtesten Bereich des maschinellen Lernens zutrifft. In weiten Teilen der KI-Forschung – wie der Wissensrepräsentation oder der Aktionsplanung – gehören selbsterklärende Algorithmen zum Standard. Die großen Erklärungslücken im maschinellen Lernen hält Wolfgang Wahlster vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken auch nur für die Geburtswehen einer jungen Disziplin, die sie in zwei, drei Jahren überwunden haben werde. Wahlster begründet seinen Optimismus mit einem neuen, am DFKI entwickelten Übersetzungsprogramm, mit dem der Durchbruch zu einem selbsterklärenden Deep-Learning-System gelungen sei.

Alles halb so schlimm? Von Facebooks KI-Chef Yann LeCun wurde Rahimi darüber belehrt, dass es sich bei KI naturgemäß um Ingenieurarbeit handele, die sich nun einmal robuster Methoden bediene. Wenn die Maschine auf konkrete, leicht überprüfbare Ziele programmiert sei, beispielsweise darauf, Tierbilder von Menschenbildern zu unterscheiden, reiche das Lernen auf der Basis von Versuch und Irrtum völlig aus. Im Ganzen war Rahimis Attacke also überspitzt. Verständlich ist aber seine Forderung, dass es für die Wissenschaft weiter ein Anspruch sein sollte, das Innenleben eines Programms zu erklären. Auch aus einem ganz praktischen Grund: Da Algorithmen heute tief in das gesellschaftliche Leben eingreifen, sollte man auch erklären können, nach welchen Kriterien sie ihre Entscheidungen treffen. Demokratie beruht sich auf Transparenz und Nachvollziehbarkeit.

Zur wissenschaftlichen Vorgehensweise unterbreitete Rahimi einen Vorschlag: Man solle Teile des Algorithmus entfernen, um zu sehen, welche Folgen das für seine Funktionsweise hat, ihn also wieder auf eine kleinere, von außen nachvollziehbare Aufgabe zurückbilden. Den Neuropsychologen Stephan Schleim erinnert das Verfahren an die Gehirnforschung, in der man von lädierten Gehirnarealen auf deren Funktion, etwa die Sprache schließt.

Man könnte von einer behavioristischen Wende in der KI-Forschung sprechen, die sich ganz am äußeren Verhalten und nicht am Innenleben der technischen Prozesse orientiert.

Das gilt für viele Bereiche der Wissenschaften, jedoch mit dem Unterschied, dass sich bei der KI-Forschung nicht die erste Natur, sondern die zweite, technische Natur in Nebel hüllt. Zieht man die neuen Prüfmethoden in Betracht, kann man aber nur mit Abstrichen von einer echten Black Box sprechen.

Mit dem Aufkommen von Big Data kursierte das Schreckbild einer Oberflächen-Forschung, die ganz ohne Theorie, Methode und Kontakt zum Forschungsobjekt auskommt, indem sie sich auf die Kombination großer Datensätze beschränkt. Auch wenn das eine Übertreibung war, wächst mit dem maschinellen Lernen die Entfernung vom Gegenstand – mit praktischen Folgen. Diese Erfahrung machten beispielsweise Fahrer des Rad-Lieferservice Foodora, die für besondere Geschwindigkeit vom Algorithmus damit belohnt wurden, dass sie immer längere (und weniger lukrative) Touren zugewiesen bekamen, bis sie auf den Fehler aufmerksam wurden.

In solch einfachen Fällen lassen sich falsche Zuordnungen noch erkennen und revidieren. Anders ist es bei unscharfen, aber komplexen Entscheidungen:

Ist eine Person, die in einem ärmeren Wohnviertel wohnt, schon deshalb weniger kreditwürdig? Nach welchen Kriterien wird man zum Bewerbungsgespräch eingeladen oder abgelehnt?

Wenn Deep-Learning-Algorithmen Verantwortung für Entscheidungen bis hin zur Justiz und Medizin übernehmen, was sie teilweise heute schon tun (in den Vereinigten Staaten wird vor Gericht beispielsweise ein Programm eingesetzt, das die Wahrscheinlichkeit künftiger Straftaten des Angeklagten berechnet); oder wenn sie über digitale Assistenten wie Siri und Alexa auf Alltagsentscheidungen einwirken, dann sollten ihre Kriterien offenliegen, und es muss sicher sein, dass ihre Entscheidung nicht das Ergebnis einer zufälligen Korrelation in den Trainingsdaten sind. Wer wäre schon mit der Erklärung seiner Krankenkasse zufrieden, der Beitrag sei erhöht worden, weil man aufgrund seines langsamen Tastaturanschlags statistisch in eine höhere Risikoklasse falle.

Die Europäische Datenschutzverordnung fordert deshalb ein Recht auf Erklärung. Jeder Nutzer müsse nachvollziehen können, wie ein Algorithmus zu seiner Entscheidung kommt. Praktisch ist das ein Ding der Unmöglichkeit. Bisher bekommt man nämlich nur die gespeicherten Daten zu Gesicht und erfährt nichts darüber, wie sie verarbeitet werden. Der operative Kontext ist bei der Interpretation der Daten allerdings entscheidend. Da er aus hochkomplexen, dynamischen Prozessen besteht, stößt das Individuum hier schnell an Grenzen. Man mag ein flaues Gefühl bekommen, wenn die vom Algorithmus zugespielten Angebote rein gar nichts mit eigenen Interessen zu tun haben. Schutz kann aber nur ein professionelles, vom Staat kontrolliertes Prüfsystem bieten, das noch einzurichten ist.