Raus aus den Filterblasen!

Oder sind wir gar nicht gefangen in Filterblasen?

Selbstversuch zweier Freunde Eli Parisers: Die Ergebnisseite von Google bietet sehr unterschiedliche Inhalte an. Trotz gleichen Suchbegriffs. Quelle: Screenshot YouTube

Geprägt hat den Begriff “Filterblasen” der Internetaktivist Eli Pariser im Jahr 2011. Filterblasen entstehen, so seine Annahme, weil die allermeisten Webseiten versuchen, besonders nutzerfreundlich zu sein.

Die Webseiten nutzen dafür Algorithmen, die voraussagen, welche Informationen der Benutzer wohl auffinden möchte. Dafür verwenden sie alle Daten, die ihnen über den Nutzer zur Verfügung stehen, zum Beispiel den Standort des Benutzers, seine Suchhistorie und sein Klickverhalten.

Als Beispiel zeigte Eli Pariser bei seinem viel beachteten Vortrag das Suchergebnis zweier Freunde. Beide bat er, bei Google nach “Egypt” zu suchen. Das Ergebnis: Der eine Freund erhielt auf der ersten Google-Ergebnisseite Informationen zur wirtschaftlichen und politischen Lage Ägyptens. Der andere erfuhr davon nichts und bekam Reisetipps.

Die Gefahr: Dadurch, dass dem Nutzer nur gezeigt wird, was er vermeintlich sehen möchte, bleibt er irgendwann in seiner eigenen Filterblase hängen.

Für diese These sprechen zwei wissenschaftliche Erkenntnisse: der “Bestätigungsfehler” und  der “Truth Effekt”. Unter Bestätigungsfehler versteht man die Neigung des Menschen, Informationen und Erkenntnisse so auszuwählen und zu bewerten, dass sie ins eigene Weltbild passen. Sprich: Passt eine “Fake News” zum Weltbild eines Nutzers, wird sie weniger oft hinterfragt und eher geglaubt.

Der Truth Effekt verstärkt dies: Wird eine Aussage oft wiederholt, am besten noch von unterschiedlichen Quellen, wird der Inhalt der Aussage irgendwann geglaubt. Selbst, wenn sie anfänglich für falsch gehalten wurde.

Ein mögliches Szenario könnte also sein: Ein User klickt unbedarft auf eine Meldung einer rechtsradikalen Seite auf Facebook. Facebook merkt sich das und zeigt künftig verstärkt Meldungen solcher Gruppierungen an und schlägt eventuell auch “Freunde” aus diesen Gruppen vor. Durch die Vielzahl der fremdenfeindlichen Äußerungen kommt auch der ursprünglich politisch neutral eingestellte User zu der Überzeugung: Wenn das alle um mich herum so sehen, muss etwas Wahres dran sein.

Manche Stimmen sagen: Die Angst vor Filterblasen ist übertrieben.

Es gibt aber auch Stimmen, die behaupten: Die Filterblase ist nicht so schlimm wie gedacht.

Die gemeinnützige Initiative algorithmwatch führte 2017 eine nicht-representative Studie durch. Ziel war es unter anderem herauszufinden, ob Eli Pariser mit seiner Filterblasentheorie recht hat, wie Google Suchergebnisse personalisiert und wie sich Ergebnisseiten verändern. Das Ergebnis: Egal wie unterschiedlich die User waren, die googleten – die angezeigten Such-Ergebnisse waren oft sehr ähnlich:  4-5 der insgesamt 20 Ergebnisse unterschieden sich im Durchschnitt. Anders gesagt: Rund 15 Ergebnisse von 20 waren gleich.

Und auch Romy Fröhlich, Professorin am Institut für Kommunikationswissenschaft und Medienforschung der Ludwig-Maximilians-Universität München, warnt davor, Filterblasen und Echokammern für Rechtsruck und Radikalisierung verantwortlich zu machen.

Im Interview mit der von der Amadeu Antonio Stiftung geförderten Belltower Plattform sagte sie: Solange es keine umfangreiche Studie rund um Filterblasen gibt, kann auch niemand behaupten, dass sie existieren. Und weiter: “Es hat noch nie gestimmt, dass Menschen aufgrund von Informationsstrukturen verblöden, auch nicht in der Zeit vor dem Internet.”

Das Problem: Wer die gut 4.400 Personen sind, die an der Studie teilgenommen und ihre Daten gespendet haben, ist unbekannt. Es ist also davon auszugehen, dass die Teilnehmergruppe zum Beispiel bezüglich des Alters oder Bildungsstands homogener ist als die Gruppe aller deutschen Internetnutzer.