Algorithmen, die den Weg vorgeben

Leviathan by Thomas Hobbes; engraving by Abraham Bosse, gemeinfreiSonnenaufgang by qimone CC0Unser gesamter Alltag wird mit digitaler Technologie gestaltet, deren Kernbestandteil Algorithmen sind. Wir sind uns dessen kaum bewusst, aber Algorithmen bestimmen in immer stärkerem Maße unser gesamtes Leben. Sie beschleunigen und vereinfachen Entscheidungsprozesse und werden obendrein auch noch als objektiv betrachtet. Dabei treffen sie nicht nur mit uns, sondern auch über uns Entscheidungen. Angesichts dessen stellt sich die Frage: Wie positiv ist der zunehmende Einfluss von Algorithmen auf unser Leben?

(Teil-)Automatisierte Funktionen im Auto, die Auswahl von Datingpartnern in der Liebe, personalisierte Serienempfehlungen bei Netflix oder die Chronologie der Facebook-Beiträge: Sie alle sind algorithmisch festgelegt. Algorithmen als künstliche Intelligenzen sind in vielen Bereichen des Alltags nicht mehr wegzudenken. So finden immer mehr algorithmische Abläufe auch  automatisiert im Hintergrund statt und haben nun eine derartige Qualität erreicht, dass sie sich selbstständig weiterentwickeln können – auch „Maschinelles Lernen“ genannt. Ein Algorithmus lernt dabei durch Rückkoppelung und Speicherung von Daten, durch Erfahrungen sowie durch Generalisierung des Gelernten. So generiert ein Algorithmus analog wie ein Mensch selbstständig Wissen aus Erfahrung.

Suche nach Korrelationen

Der Unterschied: Algorithmen haben Zugang zu wesentlich mehr Informationen. So haben sie die Fähigkeit, auch komplexe Zusammenhänge zu verarbeiten. Indem sie Daten miteinander verknüpfen,  können sie Rückschlüsse ziehen und Vorhersagen treffen. Dabei sind die von Algorithmen generierten Berechnungen mittlerweile so komplex, dass sie von Menschen nicht mehr nachvollzogen werden können. Insbesondere bei selbstlernenden Algorithmen ist die zugrundeliegende Logik kaum zu erfassen. Eine weitere Differenz: Während Menschen in ihrem Erkenntnisprozess nach kausalen Zusammenhängen suchen, bieten Algorithmen ganz nach dem Big-Data-Prinzip lediglich korrelative Zusammenhänge zwischen Input und Output an. Damit liefern sie Schätzungen und Vermutungen und sind somit in ihren Entscheidungen ebenso fehleranfällig wie der Mensch es wäre, suchte er nur nach korrelativen Zusammenhängen.

Auch die Firma Kreditech verwendet einen solchen Algorithmus, der anhand der Daten aus Facebook und Twitter, aber auch umstrittenen Faktoren wie des installierten Betriebssystems, der verwendeten Schriftart und des Tippverhaltens der Antragsteller über die jeweilige Kreditwürdigkeit entscheidet. Denn mit der Zeit lernte der Algorithmus, dass Antragsteller, die eine bestimmte Schriftart installiert hatten, den Kredit gehäuft nicht zurückgezahlt hatten. Doch selbst der Geschäftsführer der Firma weiß nicht, welche Daten letztendlich ausschlaggebend für eine Entscheidung sind. Am Ende bleiben nur die Korrelationen, ohne sie wirklich zu begreifen. Das Szenario erinnert an eine Zeit vor der Aufklärung: Weil der Computer es sagt, mache ich das so. Bedeutet dieser Umstand nicht eine zunehmende Abkehr von der Welt des selbstständigen Verstehens und Denkens?

Langeweile vorprogrammiert

Das magische Gefühl, durch Zufall auf neue und ansprechende Musik zu stoßen, ist in Zeiten von Musikanbietern wie Spotify wohl nicht das Gleiche. Denn wir suchen nicht mehr aktiv, sondern erhalten passiv, was uns gefallen könnte. Der Algorithmus namens „Echo Nest“ berechnet anhand des Geschmacksprofils, einer Klang-Analyse und Texterkennung, was einem als nächstes gefallen könnte. Dazu dienen auch die Nutzungsdaten anderer User, die das gleiche Verhaltensmuster an den Tag legen, um auch hier wieder eine Vorhersage treffen zu können. Auf diese Weise produzieren sie mehr Ähnlichkeit und damit hören wir immer mehr vom Gleichen. Auch die Auswahl der nächsten Lektüre ist durch eine solche zielgerichtete, algorithmische Zuspielung von Inhalten und ein gewisses Maß an Datendeterminismus geprägt.

Die algorithmische Sortierung und Personalisierung zeigt Menschen eher Inhalte an, die ihnen auch gefallen oder denen sie zustimmen würden. So basieren die Phänomene der Filterblasen und Echokammern genau auf diesem Prinzip: Auf Grundlage des jeweiligen Surfverhaltens sowie der daraus abgeleiteten Interessen werden einem verstärkt bestimmte Inhalte und Themen zugespielt. Was zunächst recht harmlos und bequem klingt, kann aber weite Folgen für die politische Kommunikation nach sich ziehen. Denn wer sich immer wieder Ansichten hingibt, die sich nicht von der eigenen unterscheiden, wird in seiner Filterblase nicht mit anderen Meinungen konfrontiert. Allerdings legen neuere Untersuchungen die Vermutung nahe, dass der Effekt weniger ausgeprägt als zuvor erwartet ist.

Algorithmen mit Bias

Oft werden die durch Algorithmen generierten Entscheidungen und Vorhersagen als neutral oder unabhängig angesehen. Doch tatsächlich sind Prozesse algorithmischer Entscheidungsfindung in vielerlei Hinsicht von Menschen beeinflusst: Menschen setzten die Ziele, entwerfen die Prozesse und interpretieren die Ergebnisse. So gibt es beispielsweise Hinweise, dass die durch die Programmierer implementierten Daten zu diskriminierenden Entscheidungen führen. Menschen aus ärmeren Wohngegenden oder mit Erkrankung würden beispielsweise bei der algorithmischen Vorauswahl zu Bewerbungsgesprächen benachteiligt werden. Alarmierend, wenn man bedenkt, dass in Großbritannien und den USA bereits 60 Prozent solcher Entscheidungen von Algorithmen übernommen werden. Durch die algorithmische Reproduktion solcher Entscheidungen würden so Diskriminierungstendenzen weiter verstärkt werden.

Noch deutlicher zeige sich eine Benachteiligung, wenn man in der Google-Suche unter dem englischen Stichwort „professional haircut“ nach Bildern sucht. Zu sehen sind dann nur weiße Männer. Gibt man „unprofessional haircut“ ein, sieht man nur schwarze Frauen. Algorithmen schreiben also auch rassistische Vorurteile sowie soziale Ungerechtigkeiten fort. Statt zu größeren Teilhabechancen kann die Digitalisierung auch zu wachsender Diskriminierung führen. In der digitalisierten Wissensgesellschaft wird die Gestaltung von Technologie so zur elementaren Machtfrage. „Es ist äußerst wichtig, diese ‚handwerklichen‘ Probleme in den Griff zu bekommen. Wir brauchen eine Anpassung der Gesetze, etwa jener, die gegen Diskriminierung schützen. Es muss für ArbeiterInnen, Angestellte und KonsumentInnen möglich sein, festzustellen, ob sie automatisiert diskriminiert wurden und, sollte das der Fall sein, entsprechend Schadenersatz zu verlangen“, so der Algorithmus-Forscher Felix Stalder.

Reproduktion sozialer Muster

In den USA und Großbritannien kommen zunehmend Predictive-Policing-Systeme zum Einsatz – eine Software, die Polizeiarbeit unterstützt, indem sie voraussagt, wo es Straftaten geben könnte. Die  Algorithmen, die besonders kriminalitätsbelastete Orte prognostizieren sollen, erkennen soziale Muster – ähnlich wie in den bereits geschilderten Beispielen. Solche Muster sind aber beweglich und man sollte nicht beginnen, sie wie Naturgesetze zu betrachten. Gegen soziale Muster kann man etwas tun, indem man in die ökonomischen und sozialen Bedingungen interveniert und sie ändert. Zumindest besteht auf diese Weise die Wahrscheinlichkeit, Kriminalität zu senken. Werden jedoch solche Muster lediglich erkannt, dargelegt und reproduziert, ohne entsprechende Maßnahmen einzuleiten und z.B. auf kontinuierliche Prävention zu setzen, wird sich die Statistik damit nicht verändern. So verzichtet die Gesellschaft im Grunde genommen immer mehr auf ihre Handlungsfähigkeit und die Freiheit, Dinge verändern zu können. Bleibt die Frage, ob wir auf diese Freiheit tatsächlich verzichten wollen.

 

Titelbild: Leviathan by Thomas Hobbes; engraving by Abraham Bosse, gemeinfrei und Sonnenaufgang by qimono via pixabay, CC0

Creative Commons Lizenz

Kommentar verfassen