Frau Dr. Klüwer, Anfang des Jahres 2020 wurde der Fall eines KI-gestützten Gesichtserkennungssystems in einem Mietshaus in Brooklyn bekannt. Die Software funktionierte gut bei weißen Männern, versagte aber bei Schwarzen und konnte hier nicht einmal Männer von Frauen unterscheiden.
Dr. Tina Klüwer › Das ist sicher ein besonders drastisches Beispiel dafür, wie KI-Systeme diskriminierende und unethische Entscheidungen treffen. Die spannende Frage an dieser Stelle ist nur: Haben wir es hier mit einem grundsätzlichen Problem zu tun? Oder schlicht mit einer extrem schlecht programmierten Software?
Man kann auf jeden Fall sagen: Eine Gesichtserkennung, die Mieter nicht mehr in ihre Wohnung lässt, hat ihren Zweck deutlich verfehlt.
Klüwer › Genau das ist der Punkt. Alle ethischen Implikationen einmal beiseitegelassen, handelt es sich einfach um ein schlechtes Produkt mit eklatanten Mängeln in der Entwicklung. Das Problem liegt offensichtlich in den Daten, mit denen man das System trainiert hat. Wenn ich weiß, wofür das System eingesetzt werden soll und in welcher Situation und mit welchen Daten es zur Realzeit arbeitet, dann muss ich natürlich dafür sorgen, dass in der Trainingsphase des Produkts mit den entsprechenden Daten trainiert wird. Und das hat man hier, aus mir nicht nachvollziehbaren Gründen, offenbar versäumt.
Schützen uns ausgewogene Trainingsdaten also vor unethisch entscheidenden Maschinen?
Klüwer › Ganz so einfach ist es natürlich nicht. Zunächst muss man sich bewusstmachen: Es gibt keine diskriminierenden, unethischen oder voreingenommenen maschinellen Entscheidungen, die unabhängig von menschlichem Input wären. Selbst wenn man sich viel Mühe gibt und die Daten so divers wie nur irgend möglich zusammensetzt, bleiben es letztlich menschliche Erzeugnisse, mit denen wir es hier zu tun haben. Und die, weil sie quasi aus unseren Köpfen kommen, auch immer Ergebnisse von Entscheidungen und Interpretationen sind.
Sie meinen, die Maschinen werden, ob wir wollen oder nicht, immer unsere eigenen Fehler reproduzieren?
Klüwer › Ja. Aber wir haben auch die Chance, solche Fehlschlüsse zu minimieren – genauso, wie wir selbst ja in der zwischenmenschlichen Kommunikation Kontrollmechanismen für diskriminierende Entscheidungen eingebaut haben, etwa wenn Personalentscheidungen von Betriebsräten mitgetragen werden. Dies können wir in gewisser Weise auch in Software implementieren.