Personalisiert Google meine politischen Suchergebnisse? Werden meinem Nachbar andere Inhalte angezeigt, wenn er im Internet nach der gleichen Partei sucht? Nein, die Ergebnisse gleichen sich, lautet das Fazit einer Studie die am Mittwoch in Berlin vorgestellt wurde.
Die Studie „Datenspende: Google und die Bundestagwahl 2017“, eine Kooperation der Initiative „AlgorithmWatch“ und sechs Landesmedienanstalten, beschäftigte sich mit der personalisierten Google-Suche zum Thema „Bundestagswahl 2017“. Das im Juli 2017 gestartete Projekt wertete mithilfe eines Browserplugins die Suchanfragen 4.384 freiwilliger Teilnehmer aus und untersuchte ihre Google-Suchergebnisse auf Gemeinsamkeiten und Unterschiede. Erhalten Personen mit unterschiedlichen Meinungen und Vorlieben, die gleichen Suchergebnisse auf Google?
Personensuche weist gleiches Ergebnis auf
Katharina Zweig, Professorin an der TU Kaiserslautern stellte das überraschende Ergebnis vor. Die Filterblasentheorie von Eli Pariser aus dem Jahr 2011 konnte nach Auswertung der Daten nicht bestätigt werden. Begriffe wie „Cem Özdemir“, „Alexander Gauland“ oder „Angela Merkel“, die zeitgleich gesucht wurden, entsprachen bis zu neunzig Prozent den Suchergebnissen der anderen Teilnehmer.
Im Vergleich zur Personensuche wichen die Suchergebnisse nach Parteien stärker voneinander ab. Doch auch hier konnte die Theorie nicht bestätigt werden, da die Teilnehmern aufgrund regionaler Unterschiede abweichende Links zu ortsansässigen Parteien erhielten. Von einem personalisierten Suchergebnis kann daher nicht gesprochen werden.
Filterblasen und Echokammern beeinflussen unsere Denkweise
Die Filterblasentheorie von Eli Pariser aus dem Jahr 2011 findet zumindest in der Google-Suche von politischen Begriffen keine Anwendung.
Der Begriff einer „Filterblase“ wird im Zusammenhang mit Algorithmen häufig verwendet. Eli Pariser, ein amerikanischer Polit-Aktivist löste mit dem Begriff der „Filter Bubble“ eine weltweite Debatte über personalisierte Inhalte im Internet aus. Die Idee: Durch das Klickverhalten im Netz offenbaren Menschen ihre Vorlieben. Ein Algorithmus lernt aus dem Verhalten des Nutzers und bietet ihm Inhalte an, die seinen Interessen und Präferenzen entsprechen, sprich: der Algorithmus personalisiert sein Suchergebnis. Dadurch sieht der Nutzer durch einen Filter nur noch den Ausschnitt der Welt, der mit seinen eigenen Interessen, Präferenzen und Überzeugungen übereinstimmt. Allerdings ist die Theorie der Filter-Bubble umstritten, auch Untersuchungen über Twitter haben die Vermutung nahgelegt, dass Nutzer weniger isoliert von anderen Ansichten sind, wie es Pariser zuvor annahm.
Zukünftige Maßnahmen für den Umgang mit Algorithmen
Nach der Präsentation der Ergebnisse ging es auf dem Podium um den Umgang mit Algorithmen. Da diese beim Sortieren von Informationen unverzichtbar sind, muss zukünftig gewährleistet sein, dass sie nicht missbräuchlich arbeiten. Die Einführung eines „Algorithmen-TÜV“ soll die Aufgabe haben, Mindeststandards wie Transparenz, Berichtspflicht und Diskriminierungsfreiheit zu garantieren. Siegfried Schneider, Präsident der bayerischen Landeszentrale für neue Medien, fordert eine bessere Kontrolle von Personen, die Algorithmen entwickeln. Darüber hinaus soll der neue Beruf des „Data Scientist“ darauf abzielen, die Auswirkungen programmierter Algorithmen zu bewerten. Die geforderte Transparenz stehe im Interesse der Verbraucher- und Persönlichkeitsrechte. Aber auch Nutzer müssen an ihrer Medienkompetenz arbeiten und ihr Wissen über die Effekte algorithmischer Filterung vertiefen.
Dr. Anja Zimmer , Direktorin der Medienanstalt Berlin-Brandenburg (mabb), machte abschließend deutlich, dass die Studie lediglich eine Momentaufnahme eines begrenzten Zeitraums über einen Anbieter (hier: Google) ist. Man dürfe das Ergebnis nicht verallgemeinern und auf andere Anbieter wie Facebook projizieren. Auch für Google könnte das Ergebnis bei der nächsten Wahl schon anders ausfallen.
Titelbild: Veranstaltung “Algorithmen transparent machen”, bearbeitet