Was wäre wenn? Warum wir auch über das sprechen müssen, was KI noch nicht kann

KI, die Blackbox3cutWenn man das Wort Künstliche Intelligenz (oder auch Artifical Intelligence) in die Google-Suchmaske eingibt und die Bildersuche laufen lässt, stößt man auf ein Meer von Fotos, die Roboter, Gehirne und finster dreinschauende Augen zeigen. Ähnlich verhält es sich bei der Bebilderung von Artikeln, Meldungen, Fernsehbeiträgen. Das suggeriert das Bild einer bedrohlichen, menschenähnlichen Technologie, das auch in den Köpfen vieler Menschen verankert zu sein scheint – und das sich noch nicht so ganz decken mag mit dem, was wir in unserem Alltag vorfinden. Aber was wäre wenn? Und wie weit ist die Realität wirklich von der Vorstellung entfernt, die durch solche Fotos ausgedrückt wird?

Um es gleich vorwegzunehmen: Das, was solche Bilder vermitteln, hat wenig bis gar nichts mit der Technologie zu tun, die wir heute haben. Was wir heute haben, ist höchstens eine narrow AI, eine schwache künstliche Intelligenz. Das sind Algorithmen, die jeweils eine Aufgabe sehr gut ausführen; die Input bekommen und einen Output zu einer bestimmten Zielfunktion ausgeben. Auch, wenn es eine Definitionsfrage ist, was wir genau als intelligent bezeichnen – diese Algorithmen werden wohl nicht dazu gehören. Sie können keine Aufgaben kombinieren, weder reflektieren noch erklären, was sie tun. Diese schwache KI, sie hat wenig gemein, mit dem, was in Science-Fiction-Filmen oder der Google Suche vermittelt wird.

Dennoch halten sich anfangs beschriebene Assoziationen hartnäckig. Und damit verbundenes Unbehagen. Das scheint auch nicht völlig unbegründet, denkt man beispielsweise an die im letzten Jahr begonnene Diskussion zwischen Mark Zuckerberg und Elon Musk: Musk nimmt dabei die eher dystopische Seite ein; warnt davor, dass KI gefährlicher sei als nordkoreanische Atomwaffen. Als unverantwortlich betitelte Zuckerberg hingegen solche stark negativen Äußerungen. Hat er damit Recht – ist es unverantwortlich, so eindrücklich eine Warnung auszusprechen?

Die generelle künstliche Intelligenz

Die KI, von der Musk spricht, ist eine generelle KI. Eine, die viel leistungsfähiger ist als die Algorithmen, die wir kennen; die nicht nur eine einzige Aufgabe oder Zielfunktion löst, sondern zu viel mehr in der Lage ist. Was dieses „viel mehr“ genau impliziert, ist abhängig von unserem Verständnis von Intelligenz. Was benötigt ein System, damit es sich künstlich intelligent nennen kann? „Das ist eine Definitionsfrage. Sagen wir mal, sie sollte wirklich sein wie der Mensch –  es gibt dann immer noch die Frage, was den Menschen als intelligentes Wesen ausmacht“, sagt Professor Florian Ellsaesser vom Centre for Human and Machine Intelligence der Frankfurt School of Finance and Management. Aber was bedeutet Intelligenz, intelligent sein?

Dr. Sebastian Thieme, Bioinformatiker und –physiker, spricht von einer KI als ein System, das Intuition und Kreativität besitzt, und damit gemeinsam mit seinen Erfahrungen Entscheidungen treffen kann: „Wie ein Mensch, nur als Computer.“ Wenn wir diese Stufe erreichen, wird es sehr spannend, ist er sich sicher. „Das bedeutet ja, dass wir ein Objekt geschaffen haben, das selbst denkt. Wenn wir es herunterbrechen, wäre der Mensch ja quasi die erste Stufe der künstlichen Intelligenz – bloß nicht künstlich, sondern biologisch. Im Prinzip werden wir durch unser Gehirn komplett gesteuert, alles findet in unserem Kopf statt. Mit der KI bauen wir ja eine Art künstliches Gehirn. Das heißt, wir wären in der Lage, eine Lebensform zu schaffen – und weil wir sie schaffen, ist sie nun mal künstlich. Aber sobald es eine Lebensform ist, ist sie eigentlich auch nicht mehr künstlich.“

„Nur, weil wir Blut, Herz und Puls haben – ist das Leben?“

Wenn wir dort erst einmal angekommen sind, werden wir uns grundlegenden Fragen stellen müssen.  „Wo beginnt Leben? Wie definieren wir das? Nur, weil wir Blut, ein schlagendes Herz und Puls haben, – ist das Leben? Oder heißt Leben, Intuition, Intelligenz und Gefühle zu haben?“ Das sind momentan rein hypothetische Überlegungen, wir haben so etwas derzeit noch nicht. Ob eine KI Gefühle haben oder entwickeln könnte, irgendwann einmal, das weiß er selbst nicht genau. Aber solche Fragen sind nicht nur relevant, wenn wir über KI sprechen, sie offenbaren viel über das Menschen- und Weltbild, das wir haben. Was definiert uns als Menschen, uns als Gesellschaft? Würde ich mich einer Maschine, die ähnlich denkt wie ich, mit der ich Gespräche führen könnte, näher fühlen, als beispielsweise einem Frosch, mit dem ich nichts gemeinsam habe, außer einem Herzschlag? Oder ist es eben im Endeffekt doch dieser Herzschlag, der auf eine Weise verbindet, die schlichtweg nicht imitierbar oder ersetzbar ist?

„Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen“

Noch ist es Zukunftsmusik. Aber wie lange wird das noch der Fall sein? „Ich glaube, dass der Computer irgendwann diese menschliche Intelligenz erreicht“, sagt Ellsaesser. „Aber was es momentan gibt, hat damit nichts zu tun. Diese Algorithmen können sehr gut Zusammenhänge extrahieren – wir geben Ihnen Daten und Zielfunktion, und sie optimieren dahingehend.“ Trotzdem glaubt Thieme, dass es nicht mehr in allzu ferner Zukunft liegt. „Teilweise wird geplant, das innerhalb der nächsten zehn Jahre zu schaffen – das wäre tatsächlich relativ zeitnah“, sagt er. Selbst wenn zehn Jahre noch eine zu optimistische Schätzung seien; seiner Einschätzung nach werden es die Generation der jetzigen Mittzwanziger und –dreißiger mindestens noch erleben. „Ich glaube, dass wir näher dran sind, als wir denken. Wir reden nicht mehr von hunderten von Jahren sondern einigen Jahrzehnten.“

Dass wir noch einige Jahre davon entfernt sind, bedeutet allerdings nicht, dass wir nicht über das sprechen sollten, was sein kann. Auch, wenn man dabei aufpassen muss: „Man muss darüber nachdenken, das ist wichtig, aber man muss differenzieren: Was ist derzeit mit den Algorithmen möglich; was, wenn sie noch besser werden und was ist Fantasie. Das heißt nicht, dass man darüber nicht nachdenken darf – man darf nur eben eines nicht verwechseln: Ist das eine Idee von der Zukunft oder bereits Realität?“, warnt Ellsaesser. Damit hat er selbstverständlich recht: Wenn wir darüber sprechen, wenn wir überlegen, was es bedeuten würde, eine generelle KI zu haben, müssen wir uns immer vor Augen führen, dass wir mit etwas Hypothetischem hantieren. Sonst überschätzen wir das, was wir im Alltag an Technologie finden, oder reden an der Realität vorbei. Es gibt allerdings Fragen, die wir uns heute schon stellen müssen, auf die wir heute schon versuchen müssen, Antworten zu finden. Das Monitoring von Algorithmen, also das Überwachen oder Prüfen von der Technologie, ist eine davon: „Das ist ein wichtiger Schritt, Algorithmenmonitoring, den wir gehen müssen, bevor wir eine generelle KI haben.“ Thieme ist sich sicher, dass wir uns jetzt schon Gedanken darüber machen müssen, welchen Rahmen eine generelle KI bekommen würde, welche Grenzen, die sie wirklich nicht verlassen dürfte. Denn: „Wenn wir es erst danach tun, wird es wahrscheinlich zu spät sein. Das ist wie ein Geist, den man aus der Flasche lässt – schwierig, den wieder hineinzubekommen.

Menschliche Intelligenz ist also, theoretisch, durchaus von Algorithmen zu erreichen – auch wenn es derzeit noch nicht geschehen ist. Trotzdem müssen wir uns fragen, was derartige Technologie darf und was nicht. Und wir werden uns fragen müssen, wie wir Leben und Intelligenz definieren, und wie wir uns als Menschen eigentlich verstehen. Was für ein Weltbild wir vertreten. Es wird spannend.

 

Titelbild: Photo by Marc Liu on Unsplash, CCO

CC-BY-NC 2.0

Kommentar verfassen