Internet Governance Forum Deutschland 2016: zur Ethik der Digitalisierung

Panel des Internet Governance Forum Deutschland 2016 "Encoding Values"

Im Panel (v.l.n.r.): Matthias Spielkamp (iRights/Algorithm Watch), Dr. Mirja Kühlewind (Transport AD/ETH Zürich, IETF), Constanze Bürger (Bundesministerium der Innern), Prof. Dr. Iris Eisenberger (BOKU Uni Wien), Dr. Benedikt Köhler (DataLion), Moderatorin Lena-Sophie Müller (Initiative D21)

Personalisiertes E-Shopping, selbstfahrende Autos und Fitness-Tracker: einen bequemeren Alltag können Algorithmen sicherlich ermöglichen. Der Preis dafür ist aber hoch. So diskutierten letzten Freitag auch die TeilnehmerInnen des Panels „Encoding Values – zur Ethik von Protokollen“ des diesjährigen Internet Governance Forum Deutschland (IGF-D) über die Ethik digitaler Gesellschaften und die technische (Un)Kontrollierbarkeit von Algorithmen.

Kontrovers diskutierten die Panellisten auf dem IGF-D 2016 über die Objektivität von Algorithmen und die Frage, ob die Einführung eines allgemein gültigen Wertekodexes eine Lösung darstelle. Einigkeit herrschte jedoch in einem anderen Punkt: „Wie es wirklich funktioniert, wissen wir, glaub ich, alle nicht“, konstatierte Dr. Benedikt Köhler (DataLion). Dr. Mirja Kühlewind von der Internet Engineering Taskforce (IETF) stellte fest, dass „seit Snowden“ die Frage „Wie können wir Werte schützen?“ in das Zentrum der Aufmerksamkeit gerückt ist. Auch wenn die Ethik der Digitalisierung immer mehr zum Thema wird, so bleiben dennoch essentielle Fragen rund um die (Un)Kontrollierbarkeit von Algorithmen unbeantwortet.

Kann ein Algorithmus überhaupt neutral sein?

In der Debatte um die theoretische Möglichkeit digitaler Neutralität und Objektivität betonte Matthias Spielkamp (iRights/Algorithm Watch), dass (halb-)automatisierte Prozesse auch nicht unbedingt wertneutral seien. Als Beispiel führte Spielkamp die Nutzung einer Software in den USA an, die helfen sollte, zukünftige Kriminelle zu prognostizieren. Das Ergebnis: technisch generierte Parteilichkeit durch Algorithmen. Menschen mit schwarzer Hautfarbe wurden automatisch als höheres Risiko eingestuft. Zugleich warf Spielkamp die Frage auf, inwiefern eine alternative Handhabung durch Menschen überhaupt weniger diskriminierend verlaufen könne.

Mehr Informationen preiszugeben als beabsichtigt – die Erfahrung hat auch Benedikt Köhler bereits gemacht, durch Algorithmen. Im Sinne einer Kartographie der deutschsprachigen Blogosphäre stellte er Blogvernetzungen – d.h. ein Blog verlinkt einen weiteren Blog – graphisch dar. Letztendlich kontaktierten ihn kartographierte Blogger, warum sie denn als nah vernetzt zu privat-bekannten BloggerInnen dargestellt wurden, ohne jemals einen Link zu ihrem Blog gesetzt zu haben. Köhler betonte, einen „neutralen Algorithmus“ genutzt zu haben. Dennoch: lediglich ähnliche NutzerInnen zweier Blogs können bereits private Vernetzungen andeuten. So verbinde ein neutraler Algorithmus auch Dinge auf eine Weise, die niemand steuern kann, geschweige denn offenbaren will. Köhler zufolge „macht das der Algorithmus selbst“. Auch den transparenten Umgang mit Algorithmen erachtet Köhler daher als „notwendig“, aber „nicht hinreichend“. Das sah Professorin Dr. Iris Eisenberger (BOKU Uni Wien) anders, da sie bereits zuvor den entscheidenden Schritt in Richtung Neutralität ausmache. Für sie sei ein Algorithmus bereits wertend, sobald sich ein Unternehmen für einen speziellen Algorithmus entscheide.

Die Lösung für „interdisziplinären Analphabetismus“: Transdisziplinarität

Moderatorin Lena-Sophie Müller (Initiative D21) fragte in die Runde, wie die Ethik nun zu den richtigen AkteurInnen kommt sowie von ihnen gestaltet und verinnerlicht werden könne. Constanze Bürger (Bundesministerium des Innern) stellte dazu fest, dass es einen allgemein gültigen Wertekodex bislang noch nicht gebe und sprach sich für einen internationalen Wertekatalog der digitalen Welt aus. Während die Regierungen derzeit keinen ethischen Gestaltungsrahmen setzen, sind nicht-staatliche Akteure schon einen Schritt weiter: Matthias Spielkamp berichtete, dass bei Algorithm Watch bereits ein Kriterienkatalog erstellt wurde. Nichtsdestotrotz bleibe in der ethischen Diskussion die Frage eine ganz andere, so Spielkamp: „Man sollte sich als Gesellschaft fragen, welche Innovationen überhaupt eingeführt werden sollten, wenn sie nicht kontrollierbar scheinen. Manche Dinge sollte man nicht zulassen.“

Mit diesem Statement saß Spielkamp nicht alleine im Panel. Auch Prof. Dr. Iris Eisenberger plädierte für „Regeln von Menschen für Maschinen“ und diagnostiziert in der heutigen Zeit einen „interdisziplinären Analphabetismus“. Viele Menschen wüssten gar nicht, dass sie Werte implementieren. Zu Beginn gelte es, eine riesige Kommunikationslücke zwischen verschiedenen Disziplinen zu schließen, so Eisenberger. Dem schloss sich Spielkamp an, indem er sich abschließend für eine transdisziplinäre Betrachtung aussprach, die es bald geben werde und müsse – „aber nicht nächste Woche.“

Titelbild: Panel des IGF-D 2016 “Encoding Values” von Jana Donat / politik-digital.de, licenced CC BY SA 3.0

CC-Lizenz-630x1101

Kommentar verfassen