Durch Algorithmen im Internet konsumierten Nutzer vor allem Inhalte, die ihrem Weltbild entsprechen. Das steigere die Ablehnung gegensätzlicher Meinungen – so heißt es oft. Soziologin Anna-Katharina Meßmer hält diesen Erklärungsansatz für falsch. […] Filterblasen, so die landläufige Meinung, entstehen dadurch, dass uns Algorithmen und Empfehlungssysteme sozialer Medien nur das anzeigen, was unsere Meinung bestätigt. Das stellt – so die Annahme – eine Gefahr für Menschen und Demokratien dar, weil Filterblasen unsere Einschätzung bestätigen, uns von anderen Meinungen abschotten und wir verlernen, miteinander in Austausch zu treten. Was schließlich zu einer gesellschaftlichen Polarisierung führt. Doch so einfach ist es nicht. […]
Ähnlich wie Verkaufszahlen nichts darüber aussagen, warum ich eine Klatschzeitschrift kaufe, können Algorithmen auch nicht unterscheiden, ob ich mir ein Video anschaue, weil ich den Protagonisten großartig finde, oder ich mich mal wieder fremdschämen will. Es geht ausschließlich um die Berechnung, wie wahrscheinlich eine Interaktion ist. […]
Damit sind wir bei der ersten Fehleinschätzung in Bezug auf Filterblasen: Wir bekommen nicht mehr zu sehen von dem, was uns gefällt, sondern von dem, womit wir interagieren. […]
Es entsteht dabei der Eindruck, wir könnten die gesellschaftliche Polarisierung überwinden, indem die Plattformen Nutzer:innen mit konträren Meinungen konfrontieren. Doch wenn Törnbergs Ergebnisse zutreffen, würde das die Polarisierung erst so richtig anheizen, und die eigentliche Lösung wären, nun ja: Filterblasen.
Anna-Katharina Meßmer, deutschlandfunkkultur.de, 29.3.2023 (online)