Mit der Frage nach der Ethik für künstliche Intelligenz soll sich der letzte Teil dieser Serie zum Stand der KI in Deutschland beschäftigen. Das Thema lädt dazu ein, die wirklich großen Fragen zu stellen. Doch wie finden ethische Bedenken konkret ihren politischen Weg in die Praxis? Eine Bestandsaufnahme von Sein und Bewusstsein.
Der frühe französische Aufklärer Julien Offray de La Mettrie hatte eine revolutionäre Idee, die noch heute bei vielen heftige Reaktionen auslöst: der Mensch ist seiner Ansicht nach bloß eine biologische Maschine – Geist und Intelligenz seien im Grunde reproduzierbar. Und damit stand auf einmal die Grundidee für künstliche Intelligenz im Raum. Faszinierend ist, dass das Nachdenken über eine künstliche Intelligenz dem technischen Stand schon immer weit voraus war: Bereits seit den 1950ern nennt man zum Beispiel den Zeitpunkt, ab dem eine künstliche Intelligenz die menschliche übertreffen kann die technologische Singularität.
Heute leben wir in einer Zeit, in der solche und ähnliche theoretische Überlegungen und Bedenken immer mehr Realität werden. Man beschäftigt sich deswegen immer ernster mit der Digitalethik. Umso wichtiger wird es zu fragen, wie die Politik damit konkret umgeht.
Edel sei die KI, hilfreich und gut
In der höchst ambitionierten KI-Strategie der Bundesregierung, welche 2018 veröffentlich wurde, ist nachlesbar: Künstliche Intelligenz solle „soziale Teilhabe und Handlungsfreiheit fördern“, sowie den „Schutz der Privatsphäre“ bewahren. Ein Fokus liege zudem auf möglichst großer „kultureller und medialer Freiheit“. Der hohe ideelle Anspruch der Bevölkerung kommt also nicht zu klein, und das ist auch gut so. Auch die schon lange als Schlagbegriff genutzte Forderung nach „Ethics by and for design“ wird als Bestandteil des Brands „A.I. made in Germany“ zum Ziel erklärt. Nach diesem Vorsorgeprinzip sollen ethische Überlegungen schon während der Entwicklung berücksichtigt werden, sodass potentielle Gefährdungen schon im Vorfeld eingeschränkt werden können. Dahinter könnte der Glaube daran stecken, dass Deutschland und Europa gerade wegen seiner hohen Moral mehr Integrität und Verlässlichkeit und damit einen Marktvorteile schaffe – Stichwort „ehrbarer Datenkaufmann“. Jedoch genießen diese und ähnliche ethische Forderungen weltweit unter Wissenschaftlern und auch Unternehmern hohe Zustimmung. Die Europäer sind nicht moralischer als andere. Erst jüngst bestätigte dies auch Wolfgang Wahlster, eine Koryphäe der deutschen KI-Forschung, im Interview mit dem Tagespiegel.
Alles eine Frage der Perspektive
Die Umsetzung ist aber wie zu erwarten sehr unterschiedlich. Während die USA klassischerweise auf die Selbstverpflichtung der Unternehmen setzt, irritiert China den Westen mit einem eigenen, erst mal widersprüchlich erscheinenden Weg: Einerseits gibt es die staatlich unterstützten Beijing AI Principles, welche weitestgehend den Positionspapieren der EU und von Google entsprechen, andererseits aber auch das Sozialkreditsystem. Während man jedoch bei letzterem schnell an Orwells 1984 und eine absolute Gleichförmigkeit denkt, bedeutet das System für die meisten Chinesen gerade das Gegenteil: den Schutz des Individuums und der Gesellschaft vor sich selbst. Warum? Als einer der am schnellsten wachsenden Gesellschaften der Welt hat sich China binnen weniger Jahre vom Entwicklungsland zu einer Informationsgesellschaft entwickelt – die Menschen brauchen aber länger als der technologische Fortschritt. Korrupte Beamte und Geldleiher sind ein häufiges Problem und behindern die Entwicklung einer wirklichen Zivilgesellschaft. Das Beispiel soll zeigen, dass ähnliche Wertevorstellungen je nach aktueller Lage extrem unterschiedlich umgesetzt und von der Bevölkerung wahrgenommen werden können.
Gradlinig ausweichend
Auch Deutschland und Europa gehen ihren eigenen Weg. Im Gegensatz zu den anderen Punkten der KI-Strategie sind die ethischen Ziele aber scheinbar bewusst offen gehalten; wenig verbindende Phrasen wie „die Bundesregierung wird prüfen, ob…“ finden sich relativ häufig wieder. Bei der Umsetzung geht man dabei zwei Wege:
Einerseits können und werden dabei bestehende Strukturen weiter unterstützt, wie beispielsweise das Institut für Digitalethik. Auch wurde erst jüngst in Kooperation mit Facebook das Institut für KI-Ethik der TU München eröffnet. Facebook und andere Digitalunternehmen dürften ein Interesse daran haben, die aktuell in Bezug auf Digitalethik eher kritische Stimmung mit solchen Mitteln beizulegen, bevor die Politik statt Unterstützung und Leitlinien doch noch einen harten Rahmen vorgeben könnte. Interdisziplinäre Gruppen wie die AG Ethik der Initiative D21 erarbeiten Konzepte. Im Frühjahr stellte der aus über 160 Unternehmen bestehende KI-Bundesverband außerdem sein KI-Gütesiegel vor. Darin zu finden: Viele thematische und begriffliche Überschneidungen mit Forderungen der Datenethikkommission und der europäischen Expertengruppe für KI. Und kürzlich stellte die 2018 von der Bundesregierung ins Leben gerufene Datenethikkommission ihre Handlungsempfehlungen vor.
Andererseits lässt sich eben auch eine Strategie der „Europäisierung“ dieser Frage beobachten. Gerne wird unterstellt, dass auf EU-Ebene unliebsame Entscheidungen getroffen werden, die sonst auf Nationalebene nicht durchsetzbar wären. Grund dafür wäre demnach, dass die Augen der Öffentlichkeit noch immer auf die Nationalparlamente ausgerichtet sind. Man könnte genau das unterstellen, aber in diesem Fall kann dieser Schritt durchaus Sinn ergeben. Nur wenn man gute und vor allem einheitliche Bedingungen für die Nutzung von KI schafft und so die Vorteile des größten Binnenmarktes der Welt auch nutzt, kann Europa sich längerfristig im weltweiten Wettbewerb behaupten. Sich wiederum gegenseitig in immer liberaleren Steuer- und vor allem auch Ethikgesetzgebungen zu unterbieten bringt letztendlich niemandem etwas. Bei diesem Vermittlungsprojekt hat die „High Level Expert Group on Artificial Intelligence” alle Arbeit geleistet. Doch sie wird auch heftig kritisiert – zu industriefreundlich seien ihre Richtlinien. Damit rechnet Thomas Metzinger, Philosophie-Professor und selber Mitglied der Expertengruppe mit selbiger ab. Das verwundere ihm zufolge wenig, schließlich ist die Expertengruppe beinahe ausschließlich aus Industriellen zusammengesetzt.
Oder soll man es lassen?
Es drängen sich also wieder die großen Fragen auf: wie stark kann man Ethik in Form politischer Intervention überhaupt noch durchsetzen? Darauf kann dieser Artikel selbstverständlich keine Antwort liefern, schließlich beschäftigt diese Frage seit Jahrzehnten Sozialwissenschaftlerinnen und -Wissenschaftler aller Couleur. Doch zwei mehr oder weniger konkrete Maßnahmen wären trotzdem denkbar:
Einerseits kann man den politischen Diskurs hierzulande in die Mangel nehmen. Grundsätzlich sind sich die Menschen nämlich in den meisten Themen, die die Digitalisierung anbelangen, relativ einig. Freiheit, Arbeitsplätze, Datensicherheit sind als Forderungen Allgemeinposten, denen die meisten Parteien und auch die meisten Bürgerinnen und Bürger zustimmen dürften. Der Teufel steckt jedoch im Detail – also dort, wo niemand hinschaut. Es gibt ein fehlendes Bewusstsein um die Relevanz digitaler Problematiken allgemein. Die Bundesregierung hat sich zwar zum Ziel gesetzt, die Bevölkerung besser aufzuklären – so widmet sich das Wissenschaftsjahr 2019 beispielsweise der KI. Doch eine großangelegte Aufklärungskampagne, wie sie auch in der Strategie geplant ist, sähe anders aus. Mit dem Thema Datensicherheit kann man als Partei (zumindest heute noch) keine Wahlkämpfe gewinnen, sodass bei diesem ohnehin schon eher als Konsens gehandhabten Thema auch nicht so recht ein „Wettbewerb“ um die besten Lösungen entstehen will. Aber gerade davon lebt ja bekanntlich die Demokratie. Ein paar interessante Ideen springen dabei natürlich immer noch heraus, wie zum Beispiel die Idee der Innovationsstiftung für nachhaltige und soziale digitale Anwendungen (INSDA), welche die Grünen seit geraumer Zeit fordern.
Andererseits könnte man noch größer denken und ein Abkommen auf globaler Ebene anstreben: Auf dem G7-Gipfel haben Frankreich und Kanada kürzlich ihre Idee eines „International Panel on Artificial Intelligence“ (IPAI) vorgestellt. Nicht wenige fordern, dass sich hier Deutschland ebenfalls beteiligen soll. Ziel dieses Panels ist es, grundlegende Abmachungen über die Nutzung von KI zu schließen. Angesichts der Gefahr, die von KI-Waffensystem ausgeht und der Ungewissheit, wie man mit dem Zeitpunkt der „technologischen Singularität“ umgehen soll, macht dies durchaus Sinn. Aber obwohl das IPAI vom Namen und vom Anspruch her dem fürs Klima prominenten „International Panel on Climate Change“ (IPCC), nacheifern will, sollen die Vereinten Nationen hier keinen eigenen Sitz bekommen. Entsprechend diesem wahrscheinlich an das trumpistische Amerika gerichtete Zugeständnis müsste dieser KI-Rat also eher „intergouvermental“ genannt werden.
Sollten wir Fortschrittsoptimisten werden?
Was lässt sich nun zusammenfassend sagen? Es gibt noch viel Raum dafür, um künstliche Intelligenz ethischer zu erfassen, und sehr viele gegenläufige Interessen. Die hier vorgestellten Projekte sind nur ein kleiner Ausschnitt aus der Vielzahl der teilweise graswurzelhaften Initiativen, die sich für eine ethische KI einsetzen. Man könnte tatsächlich darauf pochen, dass sich die Wirtschaft und Wissenschaft an dieser Stelle mehr oder weniger selbst regulieren.
Ein Fortschrittsoptimist war der Anfangs erwähnte Julien Offray de La Mettrie übrigens nicht. Seiner Ansicht nach war der Mensch nicht zu bändigen, das sei sein Schicksal. Aber ob das auch für eine vom Menschen geschaffene Maschine gilt, ließ er offen.
Hier geht es zum ersten Teil der Reihe: KI und Wirtschaft
Hier geht es zum zweiten Teil der Reihe: KI und Gesellschaft
Text: CC-BY-SA 3.0
Photo: by NASA on Unsplash
KI-Siegel: KI-Bundesverband
Biarritz: Toa Heftiba on Unsplash
Text: CC-BY-SA 3.0