A prototype of an unmanned car by BP63Vincent CC-BY-SA-3.0 via wikimedia commonsIn Deutschland gab es Ende September den ersten Unfall mit einem autonom fahrenden Auto auf einer Autobahn. Damit rückt die Diskussion über die ethischen Prinzipien des Straßenverkehrs mit selbstfahrenden Fahrzeugen wieder in den Blickpunkt der Öffentlichkeit. Denn bisher ist nicht nur ungeklärt, wie der autonome Verkehr rollen soll, sondern ob überhaupt und wer diese Entscheidung schlussendlich trifft.

Trotz einer roten Ampel springen zwei Kinder auf die Straße, ohne das heranfahrende Auto zu beachten. Der Autofahrer kann nicht mehr rechtzeitig bremsen. Nun muss er entscheiden, fährt er gerade aus und tötet wahrscheinlich die Kinder oder reißt sein Fahrzeug nach rechts und fährt mit hohem Tempo in einem Baum? Nicht nur für Autofahrer ist so ein Szenario eine Horrorvorstellung. Dieses theoretische Beispiel zeigt sehr deutlich, vor welchen moralischen Entscheidungen Menschen im Alltag stehen können. Doch was passiert, wenn nicht mehr Menschen diese Entscheidungen treffen, sondern selbstfahrende Autos?

Deutlich wurde dies Ende September als sich in Deutschland erstmals ein Unfall eines Tesla-Autos mit eingeschaltetem Autopilot auf einer Autobahn ereignete. Der Wagen rammte dabei einen Bus. Dabei wurde der Fahrer verletzt, die Businsassen kamen mit dem Schrecken davon. Nach Aussagen des Autobauers lag der Fehler nicht an der Computersteuerung, sondern am unerwarteten Spurwechsel des Busses. Der Unfall ereignete sich dabei nur einen Tag vor der ersten Zusammenkunft der neuen Ethikkommission des Bundesverkehrsministeriums zum Thema selbstfahrende Autos. Ziel der Kommission: Leitlinien für die Programmierung automatisierter Fahrsysteme zu entwickeln. Bei diesen soll unter anderem gelten, dass Sachschaden einem Personenschaden immer vorzuziehen sei.

Soll die Entscheidung also einem Zufallsgenerator überlassen werden?

Bei einer unüberschaubaren Zahl von Szenarien keine leichte und kleine Aufgabe, handelt es sich doch um ethische Grundsatzentscheidungen. Mit der Arbeit der Ethikkommission müsste eine gesamtgesellschaftliche Diskussion einhergehen, nicht nur wie sich teil- oder vollständig autonome Autos im Straßenverkehr verhalten sollen, sondern auch wer diese Regularien aufstellt: Der Staat oder die Hersteller? Würde die Entscheidung auf den Staat fallen, käme der Gesetzgeber in Schwierigkeiten, denn die deutsche Rechtstradition verbietet jede Gewichtung von Menschenleben. Ob dort ein Paradigmenwechsel ansteht, wird die Zukunft und Entwicklung der künstlichen Intelligenz zeigen (müssen). Für Interessierte lohnt sich dabei ein Besuch des Projekts moralmachine des Massachusetts Institute of Technologie (MIT). Dort können Internetnutzer verschiedene Szenarien kennenlernen, in denen autonome Autos vor moralische Entscheidungen stehen, und analysieren, wie sie selbst entscheiden würden.

Doch soll die Sicherheit der Autoinsassen vor die aller anderen Verkehrsteilnehmer im Programmcode gestellt werden? Es ist schwerlich vorzustellen, dass diese Fahrzeuge gesellschaftlich akzeptiert würden. Andererseits scheint es unwahrscheinlich, dass Personen sich ein (teil-)autonom fahrendes Fahrzeug kaufen, dass sie als Fahrer in kritischen Situationen zum Heldentod zwingt. In einer Reihe von Online-Interviews befragten Forscher des MIT fast 2000 amerikanische Internetnutzer zu ihrer Einstellung zu autonomen Fahrzeugen. Ein Großteil der Interviewten sprach sich für selbstfahrende Autos aus, deren Software bei unvermeidbaren Unfällen die Opferzahl reduziert. Auch wenn dies unter Umständen bedeuten würde, die Insassen des Fahrzeuges zu opfern. Als es dann darum ging, ob sie auch ein solches Fahrzeug, das notfalls die eigenen Insassen opfern würde, kaufen würden, gaben deutlich weniger Befragte eine positive Rückmeldung. Somit könnten entsprechende Vorgaben die gesellschaftliche Akzeptanz von autonomen Fahrzeugen erschweren und müssen ebenfalls diskutiert werden.

Ethische Diskussion als Chance für die gesamte Gesellschaft

Auch wenn die Mikrosensorik der Fahrzeuge derzeit noch nicht ganz ausgereift ist und beispielsweise noch Schwierigkeiten hat, Männer von Frauen zu unterscheiden, schreitet die Entwicklung stetig voran. Diese Entwicklung führen Befürworter der autonomen und teilautonomen Autos an. Sie warnen, der Moraldiskussion zu viel Bedeutung beizumessen. Denn durch die in Zukunft wohl ausgereifte Technik würde die in der Software festgeschriebene Moral nur in wenigen Fällen zum Einsatz kommen. Ein autonomes Auto mit seiner Technik sei nämlich nie abgelenkt und würde wesentlich weniger Unfälle verursachen als ein menschlicher Fahrer. Doch ist auch dabei die Frage, ob der Mensch die Entscheidung wirklich vollständig abgenommen werden möchte, bisher ungeklärt. Die Diskussion über selbstfahrende Autos kann und sollte dennoch dazu genutzt werden, die ethischen Grundlagen unserer Gesellschaft ausführlich zu reflektieren und vielleicht neu zu festzulegen.

 

Bild: A prototype of an unmanned car by BP63Vincent via Wikimedia, licenced CC BY-SA 3.0

CC-Lizenz-630x1101

Privacy Preference Center