Anzeigensonderveröffentlichung

Technologie

Wer nicht träumt, treibt Datenverarbeitung

Künstliche Intelligenzen schießen wie Pilze aus dem Boden, sind aber Spezialisten. Die Forschung lässt der Gedanke nicht los, sie in einer allgemeinen KI zusammenzuführen.

Von Manuela Lenzen

Ein Gesicht mit einer porzellanartigen weißen Oberfläche löst sich in viele einzelne Pixel auf.

Maschinen dazu bringen, Sprache zu benutzen, Begriffe zu bilden, Probleme zu lösen, die zu lösen bislang dem Menschen vorbehalten sind, und sich selbst zu verbessern: So formulierte der 28 Jahre alte Mathematiker John McCarthy 1955 die Agenda für ein Forschungsprojekt, das er gemeinsam mit neun Kollegen in sechs Wochen zu bearbeiten gedachte. Er nannte es "Künstliche Intelligenz". Gut sechzig Jahre später gibt es nun tatsächlich Maschinen, die von all dem ein wenig können. Doch bislang sind sie alle Spezialisten, keine erreicht die Flexibilität, die für die menschliche Intelligenz typisch ist. 

Die diversen elektronischen Schach- und Go-Meister können Äpfel nicht von Birnen unterscheiden und unter dem Namen des Jeopardy!-Siegers Watson, der auch Kochrezepte erfinden und Krankenakten auswerten kann, tummeln sich tatsächlich ganz unterschiedliche Systeme, die aus einem Baukasten verschiedener Module zusammengesetzt werden.

Seit den fünfziger Jahren haben KI-Forscher immer wieder neue Ansätze probiert, um von Spezialisten, die sich in einer Bauklötzchenwelt oder auf einem Spielplan zurechtfanden, zu einer flexiblen, allgemeinen künstlichen Intelligenz zu kommen. Eine Zeit lang konzentrierte sich die Zunft auf bescheidenere Produkte, Datenbanken, Experten- und Dialogsysteme.

Im Zuge des aktuellen Hypes um das maschinelle Lernen ist nun wieder häufiger von der allgemeinen Intelligenz die Rede, von Intelligence on a Human Scale, Human Level Intelligence oder, besonders prominent: Artificial General Intelligence (AGI).

"In den frühen Neunzigern gab es eine Phase des Pragmatismus, in der der Staubsauger wünschenswerter erschien als Commander Data. Aber irgendwann mit den Fortschritten des maschinellen Lernens kam die alte Vision zurück, dass man vielleicht doch allgemeine Intelligenz realisieren könnte", sagt Tarek Besold, KI-Forscher an der City University of London. 

Der Terminus AGI wurde 2006 von dem schillernden KI-Forscher und Unternehmer Ben Goertzel geprägt, seit 2008 führt eine Konferenzreihe die drei Buchstaben im Namen, seit 2013 auch ein Open-Access-Journal. Goertzel will die Entwicklung einer künstlichen allgemeinen Intelligenz mit Hilfe der Blockchain-Technologie beschleunigen. Auf seiner Plattform Singularity.net sollen Entwickler ihre Ergebnisse online stellen und verkaufen können. 

Doch ob die lernenden Systeme die allgemeine künstliche Intelligenz wirklich in Reichweite rücken, ist umstritten. Der Informatiker und Kognitionsforscher Rodney Brooks beschreibt die AGI-Szene in seinem Blog sehr kritisch: Große Begriffe würden verwendet, um Laien zu verwirren, die "tiefen neuronalen Netze" mit "tiefer Erkenntnis" in Verbindung gebracht, wo es doch nur um die Anzahl ihrer Rechenschichten geht. Tatsächlich drehten sich die meisten Arbeiten der selbsternannten AGI-Forscher entweder um die Risiken einer hypothetischen Superintelligenz oder befassten sich mit sehr speziellen theoretischen und bisweilen obskuren Fragestellungen.

Eine künstliche Intelligenz mit menschenähnlicher Flexibilität sei noch lange nicht in Sicht.

Der Physiker David Deutsch macht die Philosophie dafür verantwortlich, dass es noch immer keine allgemeine KI gibt. Bis heute seien die Philosophen nicht in der Lage, aufzuklären, wie menschliche Gehirne es zuwege bringen, sich einen Reim auf die Welt zu machen. McCarthy und seine Mitstreiter hatten in den Fünfzigern einfach vorausgesetzt, man könne das menschliche Denken genau genug beschreiben, um es nachbauen zu können. Auch darin waren sie, rückblickend, zu optimistisch. 

Für den KI-Forscher Jürgen Schmidhuber ist es dagegen ein Hardwareproblem. Seine Forschungsgruppen in München und der Schweiz entwickelten das sogenannte LSTM, das heute in automatischen Übersetzern, KI-Assistenten und in der Spracherkennung auf Handys zum Einsatz kommt. Noch habe das menschliche Gehirn viel mehr Rechenkraft: "Die LSTMs, die Facebook und Google zum Übersetzen verwenden, haben zwar Hunderte Millionen von Verknüpfungen. Das ist allerdings nur ein Millionstel der Zahl der Verbindungen, die wir im Gehirn haben. Doch wenn der aktuelle Trend anhält, sollten wir in dreißig Jahren LSTMs haben, die so viele Verbindungen haben wie ein Hirn." Also noch dreißig Jahre bis zu einer allgemeinen KI? Schmidhuber: "Vielleicht geht es schneller, denn elektronische Verbindungen sind ja viel schneller als biologische."

Allerdings ist noch nicht einmal klar, ob man für eine solche allgemeine KI erst noch einen ganz neuen Ansatz finden muss – wie Computer, die selbst nach geeigneten Lernverfahren suchen -,oder ob sie entstehen kann, indem man kleinere Bausteine geschickt zusammensetzt. Schmidhuber setzt auf den additiven Ansatz: Er hat ein künstliches neuronales Netz beschrieben, das eine Aufgabe zu lösen lernt und sich dann, ohne früher gelernte Fertigkeiten zu verlernen, neue Problemlösungen erarbeitet. Sein System "PowerPlay" sucht sich aus der Menge aller beschreibbaren Probleme immer dasjenige ungelöste aus, das es mit möglichst wenig Aufwand als nächstes lösen kann. Wo es scheitert, verliert es wie ein überfordertes Kind das Interesse und wendet sich einer anderen Aufgabe zu. "Wenn ein solches System dann hundert Sachen gelernt hat, hat es viele Unterprogramme, die bestimmte Dinge können. Und um die Hundertunderste zu lernen, kann es dann vielleicht die alten Fertigkeiten kombinieren. Solange das weniger Aufwand ist, als etwas von Grund auf neu zu lernen, lohnt es sich", so Schmidhuber.

Muss eine künstliche allgemeine Intelligenz menschenähnlich sein? Auch das ist offen. "Intelligenz ist vor allem eine Zuschreibung, wir müssen sie also mindestens erkennen können", sagt Tarek Besold.

»Die interessante Frage ist: Wenn wir den ganzen Methodenzoo der Informatik verwenden, und das Ergebnis aussieht wie eine menschliche Intelligenzleistung: Erkennen wir das dann an oder müssen wir uns dicht an die Neurowissenschaften halten und versuchen, das menschliche Denken nachzubauen?«

Jürgen Schmidhuber KI-Forscher

Für Schmidhuber kommt es auf Körper, Sensoren und Umgebung der KI an: "Wenn man den Körper der KI ähnlich baut wie einen menschlichen, wird die KI der menschlichen Intelligenz ähnlicher werden. Aber die meisten KIs werden ganz anders aussehen als Menschen, in anderen Welten leben und natürlich auch andere Zielvorstellungen entwickeln." Andere Forscher setzen stärker auf die Inspiration durch das natürliche Vorbild. Wenn Menschen lernen, suchen sie nicht nur Muster, sie bilden kausale Modelle und intuitive Theorien, mit denen sie sich die Welt erklären und in die sie neue Erfahrungen einordnen. Diese Strukturen müssten Maschinen imitieren, wenn sie wie ein Mensch und das heißt vor allem: aus wenigen Daten, lernen sollen, so der Kognitionsforscher Joshua Tenenbaum und Kollegen ("Building Machines that learn and think like people", Behavioral and Brain Sciences, Vol 14, 2017).

Und wozu brauchen wir eine allgemeine künstliche Intelligenz? "Bislang sind die größten Profiteure der KI die großen Marketingfirmen, Amazon, Alibaba, Baidu, Facebook, Tencent, Google etc., die gut vorhersagen können, wer gern wohin klicken wird. Aber Marketing macht nur einen winzigen Teil der Weltwirtschaft aus. Dinge herzustellen, ist viel wichtiger. "Free Brain Power", sagt Tarek Besold. "

»Es gibt vermutlich viele Probleme auf der Welt, die gelöst werden könnten, wenn sich ausreichend viele Menschen darauf konzentrieren würden, darüber nachzudenken.«

Tarek Besold KI-Forscher an der City University of London

„Und die Hoffnung ist, dass man dazu auch eine KI verwenden könnte. Zugegeben, dazu gehört viel Optimismus." Bis es so weit ist, wird der Mensch sich flexibel auf seine verschiedenen technischen Hilfsmittel einstellen müssen, das fällt ihm nämlich deutlich leichter als anders herum.