Filter Bubble Droht uns die Filter Bubble online wie offline? Wenn ja, wie finden wir wieder heraus? Oder haben Informationsblasen womöglich auch Vorteile? So oder so: Gefilterte Inhalte und von Algorithmen gelenkte User erfordern Mediensouveränität von jedem Einzelnen und von der Gesellschaft.
Geprägt wurde der Begriff der „Filter Bubble“ von dem Amerikaner Eli Pariser. Die Idee des freien Internets, in dem die Informationen ungehindert und von jedem gleichermaßen erreicht werden, hat Pariser in seinem gleichnamigen Buch von 2011 als Illusion entlarvt. Infolge eines unsichtbaren Wechsels des Informationsflusses durch Algorithmen sind zum Beispiel Freunde aus seiner Facebook-Timeline verschwunden – interessanterweise die, die eine konträre Meinung vertreten. Das wohl bekannteste Beispiel für algorithmische Editierung sind personalisierte Suchergebnisse bei Google. Eine standardisierte Google-Suche gibt es nicht und seine Algorithmen hält Google geheim – schließlich basiert das Geschäftsmodell des kalifornischen Suchmaschinenbetreibers darauf.
So geraten wir in eine Welt, in der uns das Internet Inhalte zeigt, von denen es glaubt, dass wir sie sehen wollen. Neben dem damit einhergehenden Kontrollverlust haben User nur noch eine eingeschränkte Sicht auf das Internet. Zum Beispiel wird der Nutzer mit Google oder anderen Suchmaschinen nur die Spitze des (Informations-)Eisbergs und nicht das Deep Web sehen, wie der Wissenschaftssoziologe René König es bei einer Wikimedia-Veranstaltung am Montag in Berlin beschrieb. Das Internet bzw. Google entscheidet, was wir sehen, oft anhand bereits gespeicherter Informationen, und erzeugt damit eine Anpassung an das vorige Verhalten. Anhand der empirischen Studie zur Suche nach dem Schlagwort „9/11“ über fünf Jahre hinweg zeigte König, dass ein Algorithmenwechsel das Ranking stark beeinflusst und die User so gut wie nichts darüber erfahren.
Diese Einschränkung führt laut Pariser zu einer Filterblase, die ein kleines persönliches Informationsuniversum darstellt. Aber wir entscheiden nicht selbst, was Teil unserer Blase ist und sehen nicht, was außerhalb geschieht. Das Ideal wäre eine ausbalancierte Zusammenstellung von Themen, die wir sehen wollen, solchen außerhalb der eigenen Interessenbereiche sowie allen anderen verfügbaren Inhalten. Diese Balance kann aber durch die aktuellen Algorithmen, die auf Grundlage des individuellen Nutzungsverhaltens entscheiden, nicht entstehen. Pariser kritisiert die Einflussnahme durch algorithmische Gatekeeper, die keine journalistische Ethik besitzen. Deshalb fordert er Transparenz für die Nutzer, damit diese wieder die Kontrolle darüber gewinnen, was die eigene Filter Bubble beinhalten soll.

Online- und Offline-Filter

Die von Wikimedia initiierte Veranstaltung im Rahmen der Diskussionsreihe Digitale Kompetenzen mit René König und der Kommunikationswissenschaftlerin Saskia Sell machte deutlich, dass die Annahmen von Eli Pariser relativiert werden müssen. Parisers Thesen sind stark auf die technische Ebene des Internets fokussiert, dabei agieren wir ebenso innerhalb von Offline-Filtern. Menschen neigen dazu, sich mit Gleichgesinnten zu umgeben und sich dadurch in der eigenen Meinung zu bestärken. Auch in den Offline-Medien gibt es Gatekeeper, wie Saskia Sell das mit dem Slogan „Journalismus is watching for you“ verdeutlichte. Dazu kommen die stark selektive Aufmerksamkeit für bestimmte Medien und eine individuelle, selektive Akzeptanz und Erinnerung an diese. Als Grundlage für die Medienauswahl spielen Faktoren wie eigene Erfahrungen, Interessen oder persönliche Betroffenheit eine Rolle.
Deshalb provozierte Sell bewusst mit der Frage, ob die Filter Bubble eine „Bedrohung“ sei.
Schließlich hat der algorithmische Filter durchaus Vorteile mit sich gebracht: Durch Suchmaschinenfilter finden die Nutzer schnell passende Ergebnisse, erhalten Kaufempfehlungen oder Newsfeeds – alles personalisiert und individuell passend. Insbesondere in sozialen Netzwerken kann der Aufbau einer Blase vorteilhaft sein. Denn ein Informationsüberfluss oder hegemoniale Öffentlichkeit seien die Alternativen zur algorithmischen Filterung, meint Sell. Ganz so einfach ist es natürlich nicht, denn wünschenswert ist der umfassend informierte, sich mit anderen als der eigenen Position befassende und neugierige Bürger. Dieses Idealbild greift jedoch zu selten.
Die Erweiterung oder Zersetzung der Filterblase ist auch im politischen Bereich wichtig. Bestehende Filter können für eine stärkere Vielfalt der Positionen und für soziale Zugehörigkeit sorgen. Im Vergleich zu vor 20 Jahren haben sich die Möglichkeiten der Filter Bubble extrem ausgeweitet. Fragt sich nun, wie der Nutzer mit diesen zwar umfangreichen, aber undurchsichtigen Möglichkeiten umgeht.

Gibt es Auswege aus der Filterblase?

Die Frage nach Auswegen aus der Blase ist bislang nicht zur Genüge beantwortet worden. Es gibt die Möglichkeiten, die eigene Filter Bubble auszuweiten, sie platzen zu lassen oder ihr ganz aus dem Weg zu gehen. Der radikalste – und unrealistischste – Ausweg wäre der komplette Online-Entzug. Wie hilfreich das wäre, sei dahingestellt. Zur Ausweitung der Online-Filterblase empfiehlt Sell, die Blase zumindest zeitweise zu verlassen und sich offline umzuschauen, sei es um auf neue Menschen zu treffen oder neue Impulse zu gewinnen. Dieser Weg ist bereits in der medialen Welt angekommen: Spezielle Apps zeigen dem Nutzer beispielsweise, wie lange er das Smartphone nutzt, oder erinnern daran, Pausen von der digitalen Welt zu machen.
Eine andere Art und Weise, die Filter Bubble zu umgehen, wäre möglich durch die Nutzung kleinerer Anbieter von Suchmaschinen und sozialen Medien. Auch gesetzliche Änderungen zur Förderung von mehr Transparenz auf den bekannten Plattformen sind denkbar, müssen aber definiert und durchgesetzt werden. Es gibt verschiedene Tricks und Alternativen, um die Filter Bubble zu durchlöchern oder gar zum Platzen zu bringen: von grundlegenden Sicherheitseinstellungen wie dem Deaktivieren der Personalisierung auf Google, über die Nutzung alternativer Suchmaschinen wie DuckDuckGo, bis hin zum Ausschalten von Trackern durch Add-ons wie Ghostery .
Von einer gesetzlich verpflichtenden Offenlegung der Algorithmen rät René König ab, denn damit steigt das Risiko der Manipulation. Zugleich sieht er die Förderung von Medienkompetenz als gesellschaftlich relevanten Faktor an. Deren Erwerb führe zu dem wohl am besten und zeitnah praktizierbaren Ausweg: zum souverän handelnden User.

Mehr Medienkompetenz und proaktive User

Ohne zu pessimistisch klingen zu wollen: Wie das Ideal des umfassend informierten Bürgers ist auch der im Internet aktive, gebildete und sich den Auswegen aus der Filter Bubble bewusste User leider rar. Schließlich bedeutet es erst mal Aufwand, auf bequeme Google-Dienste zu verzichten, alternative soziale Netzwerke zu finden und Tracker auszuschalten. Und man muss diese Möglichkeit auch kennen und anwenden können. Aber es lohnt sich.
Bild: Gisela Giardino
CC-Lizenz-630x1101
 

Privacy Preference Center