Wie die künstliche Intelligenz vom menschlichen Gehirn lernt

Samuel Reshevsky als Kind beim Simultan-SchachVon Kadel & Herbert - The New York Times photo archive, via their online store, here.Larger version from ChessTheory.com, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=2948038“Das ist die AI. Da kann man nichts machen.” – ironischer hätte man keine KI-Konferenz eröffnen können. Im nagelneuen, hochmodernen Faculty Club der TUM Institute for Advanced Study in Garching gingen die automatischen Jalousien exakt in dem Augenblick hoch, als die ersten Folien auf die Leinwand geworfen wurden.

Erst vor wenigen Tagen hatte die Künstliche Intelligenz Alpha Go Zero sich selber das Go-Spielen beigebracht, danach in kurzer Folge Schach gemeistert. Beides wurde kurz vor dem Fumble der Jalousien ehrfurchtsvoll erwähnt. Jetzt sabotierte eine undurchsichtige Geräte-Logik mit hellem Tageslicht die Vorträge, und relativierte die Leistungen der künstlichen Intelligenzen wieder.

Hirnforschung und Künstliche Intelligenz

Das Ziel des Human Brain Project ist die Forschung der Neurowissenschaften, der Informatik und der Medizin des Gehirns. Auf dem HumanBrainProject Innovation Day sollte ein Zwischenstand der verschiedenen Zweige berichtet werden. Dabei lag ein Schwerpunkt auf künstlicher Intelligenz und Robotik, und es war dieses Gebiet, an dem sich die Grenzen der KI am deutlichsten zeigten.

Birne-GehirnHierzu machte Prof. Dr. Christoph von der Malsburg, Frankfurt Institute for Advanced Studies in seinem Vortrag “Künstliche Intelligenz: Was fehlt ihr zum Durchbruch?” einen eindrucksvollen Vergleich. Ein Kind lernt, so von der Malsburg, innerhalb seiner ersten drei Jahre weitgehend autonomes, intelligentes Verhalten. Weit mehr, als jede künstliche Intelligenz heute vermag. Doch das Kind vollbringt diese Leistung auf Basis von rund einem Gigabyte genetischer Information und einem Gigabyte Umgebungsinformation – verglichen mit modernen Computern ist das lächerlich wenig. Woran liegt es, dass die modernen Maschinen hier versagen?

Von der Malsburg sieht das größte Hindernis beim Datenformat der Informatik. Digitale Bits sind zwar universell ausdrucksfähig, aber unstrukturiert. Biologische Neuronen als Basis der natürlichen Intelligenz werden dagegen durch Lernen strukturiert. Solange kein neues Datenformat für die KI gefunden wird, das mit dem biologischen vergleichbar ist, bleibt die KI im besten Fall ein Fachidiot. Eine “breite KI” (also ein autonomes, universelles System im Gegensatz zu einem “engen” Expertensystem) wird nicht ohne ein Format auskommen, das

  • die Darstellung aller Aspekte erlaubt
  • Vieldeutigkeit durch Überlagerung ermöglicht
  • Disambiguierung unterstützt
  • Kompositionalität bietet
  • selbstorganisierend ist

Diese Hürde der aktuellen KI-Forschung wurde auch im Vortrag von Marc-Oliver Gewaltig von der Ecole Polytechnique Fédérale de Lausanne deutlich. Sein Team hat sich die Simulation von Lernprozessen im Gehirn zur Aufgabe gemacht. Ein Ziel ist es, die Steuerung von Robotern zu optimieren und sie in die Lage zu versetzen, über sich und ihre Umwelt zu lernen. Dazu bedient sich Gewaltig der Simulation: virtuelle Roboter-Modelle werden in virtuelle Umgebungen gesetzt, und ihr Verhalten beobachtet.

Menschen sitzen

Der “HumanBrainProject Innovation Day am 15.12.2017 in Garching.

Ein Grund für das Anlernen in der virtuellen Umgebung ist die enorme und zeitaufwändige Rechenleistung, die das Roboter-Lernen erfordert. Einen entsprechend leistungsstarken Rechner physisch in einen Roboter einzubauen wäre nicht praktikabel, und seine Prozesse zu langsam für die sinnvolle Analyse seiner Umwelt (salopp gesagt: er würde viel zu schnell umfallen um lernen zu können, welches Bein er hätte abspreizen müssen, um den Sturz zu verhindern). Das Problem wird dadurch verkompliziert, dass die virtuellen Gehirne der Roboter ebenfalls Simulationen sind: sie sind “digital neuromorphic”. (Sie laufen auf einer speziell entwickelten Hardwareplattform namens SpiNNaker.)

Dem Ansatz liegt die Überzeugung zugrunde, dass Roboter mehr sind als ein Rechner auf einer Maschine: ähnlich wie biologische Organismen benötigen sie einen Körper. Nur dann sind sie in der Lage, Bewegung und Verhalten zu lernen, ihre Umwelt zu begreifen und autonom zu werden.

Ein Beispiel für selbst-gelerntes Bewegungsverhalten liefert die Deep Mind AI von Google:

Zum aktuellen Zeitpunkt muss das Lernen noch in einer virtuellen Welt erfolgen, und kann dann auf einen physischen Roboter übertragen werden.

Ein Beispiel für die Übertragung simulierter Verhaltensweisen auf physische Roboter bietet Igor Mordatch von der University of California, Berkeley mit dem Roboter Darwin:

Edge Cases und Black Boxes: warum das selbstfahrende Auto noch auf sich warten lässt

Viele der Vorträge und Gespräche rund um die Konferenz behandelten das Thema autonomes Fahren. Die Aussicht, dass Maschinen in naher Zukunft Autos im Alltag sicher lenken könnten (vielleicht sicherer als Menschen es vermögen) ist ein wichtiger Treiber der aktuellen Forschung. Die Hoffnung ist, dass lernende Fahrzeuge ihr Wissen untereinander austauschen und damit besser vorbereitet sind auf die Probleme, denen sie im Straßenverkehr begegnen. Doch wie Von der Malsburg erläuterte, sind dahin noch zwei Hürden zu überwinden: eine technisch, die andere regulatorisch.

Aus technischer Sicht ist das Problem der “Edge Cases” nicht befriedigend gelöst. Hierbei handelt es sich um unerwartete, seltene Ereignisse, die das KI-System überfordern. Dabei muss es sich nicht einmal um Vorkommnisse handeln, die einen Menschen auch nur im geringsten überraschen – so fuhr vor kurzem ein autonom gelenktes Auto auf freier Strecke in ein Feuerwehrauto, Ursache unklar. Diese Edge Cases sind genau so schwierig vorherzusehen wie zu lösen: sich auf das Unvorhersehbare vorzubereiten klingt nach einem philosophischen Rätsel, nicht einem Informatik-Problem. Eine Antwort steht noch aus.

Bild Zebit auto

Selbstfahrende Autos auf der CeBIT.

Auch das zweite Hindernis hat mit dem Fehlen von Antworten zu tun. Um autonome Fahrzeuge für den Verkehr zuzulassen, müssen sie nachweislich fehlerfrei funktionieren. Doch die Mechanik des Deep Learning, mit dem künstliche Intelligenzen ihre Leistung perfektionieren, ist per Definition nicht vorhersehbar, nicht nachvollziehbar und damit nicht nachweisbar. Selbst ein perfekt funktionierendes KI-Auto kann nur in seiner Leistung demonstriert werden. Doch zu erklären, wie es so fehlerfrei fährt, dazu fehlen aktuell die Möglichkeiten. Gleichwohl ist zu erwarten, dass der Roboter-Pilot bald sicherer als der menschliche fahren kann. Die Regularien, die seinen Einsatz verhindern, müssen deswegen geändert werden.

Dass damit keine Aufweichung der Bewertungskriterien gemeint ist, sollte an einem Beispiel klar werden: vom menschlichen Fahrer weiß der Gesetzgeber, dass er fehlbar ist. Viele Unfälle entstehen aus Gründen vermeidbaren, dummen und nicht ganz nachvollziehbaren Verhaltens. Ganz wie bei der KI kann nicht nachgewiesen werden, dass ein solcher Fehler nicht noch einmal passieren kann. Dennoch erlaubt man Menschen nach einer Schulung und einer Prüfung am Steuer. Vielleicht ist die Fahrschule für Roboter der Schritt, der nötig sein wird, um das Roboter-Auto zuzulassen. Solange der Maßstab strenger angelegt wird als der an automatische Jalousien, sollte der Verkehr der Zukunft sicherer werden, als er es heute ist.

 

Titelbild: Von Kadel & HerbertThe New York Times photo archive, via their online store, here.Larger version from ChessTheory.com, Gemeinfrei, Link

Artikelbilder: Michael Erle, CC-BY-SA 3.0

Creative Commons Lizenz

Kommentar verfassen