Von wegen Filterblase Menschen wählen parteiische Nachrichten – nicht Google
Hauptinhalt
28. Mai 2023, 12:00 Uhr
Entstehen im Netz "Filterblasen", die politische Einstellungen verstärken und im schlimmsten Fall sogar zu einer Radikalisierung der Nutzenden führen? Mitunter ist das eine verbreitete Annahme – wissenschaftliche Evidenz gibt es für das Buzzword "Filterblase" aber kaum. Eine aktuelle Studie hat das Phänomen untersucht.
Dass Menschen im Internet hauptsächlich auf Inhalte stoßen, die ihrer Meinung bereits entsprechen, ist eine gefühlte Wahrheit. Mitunter wird vermutet, dass Suchmaschinenalgorithmen sogenannte "Filterblasen" kultivieren, indem sie Nutzenden Inhalte vorschlagen, die deren bereits bestehender politischer Orientierung entsprechen. Somit würden sie zur politischen Polarisierung beitragen. Die Beweise für diese These sind aber mitunter schwer zu erbringen, immerhin lassen sich die meisten Suchmaschinen nicht in die Karten schauen und behalten ihre Such-Algorithmen für sich. Demzufolge kann man immer nur indirekt erfassen, welche Ergebnisse Suchmaschinen bestimmten Nutzenden vorschlagen und wie sich die Ergebnisse zwischen verschiedenen Nutzenden unterscheiden.
Studie mit Browser-Plugin
Eine aktuelle Studie aus den USA versucht zu erfassen, inwiefern Online-Suchergebnisse beeinflussen, was Menschen lesen. Die Daten in der Studie wurden in zwei Wellen erfasst, 2018 und 2020. Die Erhebung der Daten geschah mittels einer eigenen Browsererweiterung, die die Teilnehmenden im Vorhinein installierten. Dieses Plugin zeichnete drei Vorgänge auf: die URLs (also die Adressen der Webseiten), die den Nutzenden als Ergebnis einer Google-Suche angezeigt wurden, die Interaktionen mit den URLs auf diesen Seiten und darüber hinaus die davon unabhängigen, gesamten Online-URL-Interaktionen über die Google-Suchergebnisse hinaus in den Erhebungszeiträumen. Insgesamt umfasste der Datensatz über 328.000 Seiten mit Google-Suchergebnissen und fast 46 Millionen URLs aus dem Internet.
Die Teilnehmenden wählen mehr parteiische Nachrichten, als Google vorschlägt
Während der beiden Studienwellen 2018 und 2020 wurde festgestellt, dass sich die Teilnehmenden insgesamt mit mehr parteiischen Nachrichten beschäftigten, als die Google-Suche ihnen vorgeschlagen hatte. Die Forschenden fanden mehr identitätskongruente (sprich, mit der bestehenden politischen Orientierung konforme) Inhalte bei den Teilnehmenden, und auch mehr als unzuverlässig eingestufte Nachrichtenquellen, als die Google-Suche vorgeschlagen hatte. Die Ergebnisse deuten also darauf hin, dass die Auseinandersetzung mit Inhalten, die in unser bestehendes politisches Bild passen, nicht Googles Fehler ist. Kurz gesagt: Die Filterblase sind wir selbst.
Die Daten wurden in dieser Studie ausschließlich mit dem Szenario einer Suche via Google erhoben, andere Anbieter wurden nicht berücksichtigt. Außerdem wurden lediglich US-Bürgerinnen und Bürger untersucht. Dennoch fügt sich die Studie in ein gewisses Gesamtbild ein, denn die Befunde decken sich weitgehend mit dem kommunikationswissenschaftlichen Forschungsstand zum Thema. Zwar gibt es immer wieder Stimmen, die im Zusammenhang mit der Algorithmen-gesteuerten Personalisierung des Internets von Filterblasen und Echokammern sprechen, in denen Nutzende zwangsläufig nur noch mit der eigenen Meinung gefüttert werden (man spricht von "Algorithmic Bias") – die empirische Evidenz für diese Thesen ist aber bislang eher gering.
Links/Studien
Die Studie Users choose to engage with more partisan news than they are exposed to on Google Search ist im Journal nature erschienen und hier nachzulesen.
iz