Anzeigensonderveröffentlichung

Technologie

»Protonen haben keine Rechte«

Wenn die Teilchenphysiker in der Nähe von Genf 40 Millionen Kollisionen pro Sekunde erzeugen, sind sich Physik und Künstliche Intelligenz ganz nah. Dann generiert der Teilchenbeschleuniger des Europäischen Kernforschungszentrums CERN Hunderte Millionen Datenpunkte, die Wissenschaftler wie der Hamburger Professor Gregor Kasieczka ohne Künstliche Intelligenz kaum analysieren können. Zugleich schafft die Physik wesentliche Grundlagen für KI – eine Tatsache, für die Geoffrey E. Hinton und John Hopfield 2024 mit dem Physik-Nobelpreis geehrt wurden. Im Interview erklärt Kasieczka, der selbst an unentdeckten Elementarteilchen forscht, wie die beiden Nobelpreisträger zum heutigen KI-Boom beigetragen haben und warum das seine Arbeit erleichtert. 

Hans-Joachim Hoffmann

Visualisierung eines Neuronalen Netzwerks

Herr Professor Kasieczka, was hat Künstliche Intelligenz mit Teilchenphysik zu tun? 

Wenn wir heutzutage über KI sprechen, meinen wir damit vor allem so genannte neuronale Netzwerke, auf denen die KI basiert. Diese Netzwerke aus Zahlen haben in den vergangenen Jahrzehnten extreme Fortschritte gemacht – und die Arbeiten der beiden Nobelpreisträger Hopfield und Hinton aus den 1980er Jahren sind sehr frühe Beiträge zu dieser Entwicklung.

Wie sehen diese Beiträge konkret aus?

Beide haben Varianten entwickelt, wie man einem Netzwerk beibringen kann, Daten zu lernen. Hopfield entwickelte eine Methode, Bilder (oder andere Daten) zu speichern und neue Bilder damit zu vergleichen, Lücken festzustellen und diese anhand der vorher gelernten Muster selbständig zu ergänzen. Das ist das sogenannte Hopfield-Netzwerk – alles läuft in berechenbaren Schritten ab. Hinton baute auf dieser Idee auf und erweiterte sie um verschiedene Komponenten, führte vor allem statistische Wahrscheinlichkeiten und komplexere Vernetzungen der neuronalen Knotenpunkte ein. Diese sogenannten Boltzmann Machines waren damit in der Lage, Wahrscheinlichkeiten zu schätzen und eigenständige Lösungen vorzuschlagen. So schufen beide Forscher wichtige Voraussetzung dafür, dass Maschinen heute lernen können. 

Warum kamen diese Ideen gerade aus der Physik?  

Die statistische Physik, besonders die Thermodynamik oder Lehre von der Wärme, lieferte die Ideen für das Strukturieren dieser Netzwerke. Denn grundsätzlich beruhen sie auf denselben mathematischen Modellen, die auch beschreiben, wie sich beispielsweise Atome in einem Kristall oder Gas verhalten, wenn Energie zugeführt wird. Dies sind beides natürliche Phänomene mit unheimlich vielen einzelnen Bestandteilen, ähnlich wie die Komponenten eines neuronalen Netzwerks.

»Wir beschäftigen uns mit Problemen, die vielleicht in anderen Wissenschaftszweigen oder Industrieanwendungen erst in fünf oder zehn Jahre auftauchen werden.«

Gregor Kasieczka Professor für Maschinelles Lernen in der Teilchenphysik an der Universität Hamburg

Bei dem Begriff „neuronale Netze“ denkt man zunächst an das menschliche Gehirn. Was verstehen Sie als Physiker darunter und welche physikalischen Prinzipien stecken dahinter?

Die Prozesse eines neuronalen Netzes ahmen das Zusammenwirken von biologischen Neuronen nach – daher kommt der Begriff. Dabei handelt es sich um Netzwerke mit Knotenpunkten. Jeder Knoten hat eine bestimmte Information in Form einer Zahl gespeichert und ist mit anderen Knoten verbunden. Entscheidend sind dann sogenannte Gewichte, ebenfalls Zahlen, die den einzelnen Informationen mehr oder weniger Bedeutung zumessen. Wenn ein lernendes System Trainingsdaten und eine Aufgabe dazu bekommt, etwa ein Bild zu erkennen, erhält es zur Lösung eine Korrektur, und das System verschiebt daraufhin die Gewichte selbständig. Durch millionenfache Wiederholung dieser Feedbackschleife erfüllt das Netzwerk seine Aufgabe immer besser. Wenn ich nun ein System benötige, das wie ein neuronales Netzwerk Millionen von Gewichten enthält, dann kann statistische Physik nützliche Ansätze bieten. Daher braucht KI auch so viel Rechenkraft.

Lässt sich ein neuronales Netz mit etwas vergleichen, was wir kennen? 

Eine Bank oder einen Finanzdienstleister hielte ich für ein passendes Beispiel: Dort werten Analysten Daten aus, ihre Ergebnisse durchlaufen dann unterschiedliche Hierarchieebenen, irgendwo fließen die Informationen wieder zusammen, und ganz oben trifft dann der CEO eine Entscheidung. 

Lassen Sie uns die Perspektive wechseln. Was leistet die KI für die Physik?

Ich erforsche Teilchenphysik an Hochenergiebeschleunigern, konkret am Large Hadron Collider am CERN in Genf. Was die Menge und die Komplexität der hier anfallenden Daten angeht, haben wir Teilchenforscher in der Physik eine Vorreiterrolle. Unser Beschleuniger in Genf produziert 40 Millionen Kollisionsereignisse pro Sekunde, deren Zerfallsprodukte in jeweils rund 100 Millionen Auslesekanälen des Detektors erscheinen. Zunächst müssen wir entscheiden, welche dieser Daten wir speichern und welche wir löschen wollen. Schon bei dieser Entscheidung hilft uns die KI, da sie vielfach schneller als bislang verwendete Methoden Auffälligkeiten in riesigen Datenmengen erkennen kann. Sodann haben unsere Machine Learning Systeme die Aufgabe, aus diesen Daten ein winziges Signal herauszulesen, das vielleicht nur in einem von einer Million gespeicherten Ereignisse überhaupt zu finden ist. 

Geben Sie aus Ihrer Grundlagenforschung auch etwas zurück, was die Entwicklung Künstlicher Intelligenz voranbringt, wie das die beiden Nobelpreisträger getan haben?

Abgesehen davon, dass wir genau die Nachwuchskräfte ausbilden, die von Unternehmen gebraucht werden, die selbst KI-Entwicklung betreiben oder Anwendungen für KI entwickeln und hierfür KI-Expertise suchen, sind wir durch die Datenanalyse in der Teilchenphysik ganz weit vorne, was die technisch-wissenschaftlichen Herausforderungen angeht. Wir beschäftigen uns mit Problemen, die vielleicht in anderen Wissenschaftszweigen oder Industrieanwendungen erst in fünf oder zehn Jahre auftauchen werden. Außerdem wirken wir an Softwarebibliotheken für Systeme mit, die in Echtzeit Entscheidungen treffen, beispielsweise Datensätze auswählen, die Anomalien enthalten – und zwar auch, wenn ich als Anwender gar nicht genau weiß, wonach ich eigentlich suche. So kann man beispielsweise frühzeitig erkennen, ob ein Werkstoffteil demnächst ausfallen wird.

Und vor allem haben Sie auch die nötigen Datenmengen – und keine Einschränkungen durch den Datenschutz.

Richtig: Protonen haben keine Rechte. Wir müssen uns nicht über Persönlichkeitsrechte Gedanken machen, wir können mit unseren Daten tun, was wir wollen – bei Kooperationen natürlich innerhalb vereinbarter Regeln. Damit kann man viel freier und effizienter arbeiten als mit personenbezogenen Daten aus der Medizin zum Beispiel. 

Warnende Stimmen weisen auf das Risiko hin, dass Künstliche Intelligenz, abhängig von ihrem Training, soziale Vorurteile reproduziert. Sehen Sie sich hier als Wissenschaftler in der Verantwortung?

Den Bias oder Verzerrungseffekt von Netzwerken, den Sie hier ansprechen, sehen wir uns in der Physik aus technischer Perspektive an. Eigenschaften wie Einkommen, Geschlecht oder ethnische Abstammung sind für uns zwar nicht relevant, dafür aber Variablen, die eine bestimmte Messung nicht beeinflussen sollen. In diesem Fall entwickeln wir Methoden, um diesen Einfluss zu verhindern. Und aus den Fragestellungen in der Physik lassen sich auch Problemlösungen entwickeln, die in anderen Bereichen eingesetzt werden können.

Bei KI wissen wir oft gar nicht mehr genau, wie diese neuronalen Netze zu ihren Ergebnissen kommen. Diese Intransparenz hat für viele etwas Bedrohliches. Welche Möglichkeiten sehen Sie, Transparenz in diese Blackbox zu bringen?

Zu diesem Problem kann die Physik sicherlich Beiträge liefern. Für uns sind Systeme, bei denen Parameter unklar sind oder mathematische Kenntnisse über ihre Eigenschaften fehlen, nichts Neues. Ich kann im Fall der KI beispielsweise untersuchen, welche Eigenschaften Teilchen in einem Prozess haben sollten, um zu bestimmten Ergebnissen zu kommen. So lassen sich die dahinterstehenden Prozesse transparenter und erklärbarer machen. Denkbar ist auch, auf der Basis zunehmenden physikalischen Wissens Systeme zu bauen, die nur bestimmte Entscheidungen treffen dürfen und „verbotenen“ Output ausschließen. 

Würde dies auch für eine universelle KI gelten, die vielleicht irgendwann menschliche Intelligenz erreicht oder gar übertrifft?

Wenn wir über eine Artificial General Intelligence sprechen, die im Prinzip beliebig alles können soll, dann wird es auch beliebig schwer, Schranken einzubauen, die sie nicht selbst überwinden kann. Aber dieses Szenario halte ich aus heutiger Sicht für wenig plausibel.

Junger Mann mit Dreitagebart und dunkler Brille

Prof. Dr. Gregor Kasieczka

ist Professor für Maschinelles Lernen in der Teilchenphysik an der Universität Hamburg und leitender Wissenschaftler am dortigen Exzellenzcluster Quantum Universe. Sein zweiter Arbeitsplatz befindet sich am CERN, dem europäischen Teilchenbeschleuniger in der Schweiz.