Wie die sozialen Medien Menschen radikalisieren

Mit der Benutzung von Algorithmen können die sozialen Medien ihren Nutzern genau die Inhalte bieten, die sie interessieren. Doch diese einseitige Auswahl fördert die Radikalisierung von Meinungen und die Bildung von Intoleranz in der Gesellschaft. Filmdirektor Jeff Orlowski vergleicht dies mit Darwins Evolutionstheorie und sieht eine große Gefahr für die Demokratie und ein friedliches Miteinander.
Titelbild
Logos Sozialer Medien.Foto: iStock
Von 3. Mai 2022

Die größte Gefahr für die Demokratie sind die sozialen Medien. Menschen halten sich durch Algorithmen immer mehr in ihren eigenen Sichtweisen auf und radikalisieren sich. Die Differenz in den Meinungen wird immer größer, sodass die Menschen nicht mehr in einem Diskurs zusammenkommen.

Plattformen wie Twitter, Facebook, Instagram, Netflix und Co. sind dafür bekannt, dass sie in der Informationsgabe vielfältig sein wollen. Benutzer können sich alle Arten von Informationen selbst und unabhängig beschaffen und im Allgemeinen gibt es einen vielseitigen Diskurs, so die Theorie. Praktisch sind die Menschen in ihren Nachrichten von Algorithmen abhängig, ohne dass viele es wissen.

Andere Meinungen: Stressig und frustrierend

Algorithmen analysieren das online-Verhalten der jeweiligen Benutzer. Sie sortieren die Posts des jeweiligen Benutzer-Feeds basierend auf der Relevanz und zeigen die für den individuellen Nutzer entsprechenden interessanten Informationen an.

Wichtig für den Algorithmus sind zum Beispiel Freunde und Follower der Nutzer. Was schauen sie sich an, was liken sie? Aufgrund der angesehenen YouTube-Videos des Nutzers werden Nachrichten ausgewählt und individuell angezeigt. Die Algorithmen können sich als riesige Datensätze vorgestellt werden, die eine Menge an Informationen sammeln, um letztendlich die jeweils interessanten Informationen anzuzeigen.

Der große Vorteil an den Algorithmen ist: Den Nutzern werden Informationen, Bilder und Berichte angezeigt, die sie interessieren. Die große Gefahr ist jedoch, dass die eigene Bubble, der Kreis, in dem sich die Benutzer bewegen, immer kleiner wird und der Horizont sich nicht mehr erweitert, sondern ein Tunnelblick entsteht. Damit sinkt die Toleranz gegenüber anderen Meinungen und die Menschen werden undemokratisch.

Eine Umfrage in den USA stellte fest, dass 2021 etwa 59 Prozent der Befragten es als stressig und frustrierend erleben, mit Menschen zu reden, die nicht der gleichen politischen Meinung sind. 2019 waren es noch 50 Prozent, 2016 49 Prozent.

Andersherum fanden es nur 39 Prozent der Befragten informativ und interessant, sich mit Menschen einer anderen politischen Meinung zu unterhalten, während es 2019 noch 48 Prozent waren. Es ist eindeutig der Trend zu erkennen, dass die Toleranz anderen Meinungen gegenüber sinkt, je besser die Algorithmen entwickelt sind.

Weltanschauungen und Menschen inkompatibel

Jeff Orlowski, der Direktor des Filmes „The Social Dilemma“ schreibt über die personalisierten Algorithmen von einem „isolierten digitalen Ökosystem“, durch welche Weltanschauungen und Menschen inkompatibel würden.

Als Aufhänger nennt Orlowski die Evolutionstheorie von Charles Darwin. 1835 bereiste dieser die Galapagos Inseln und entdeckte auf jeder Insel Finken mit unterschiedlichen Merkmalen. Darwins Schlussfolgerung war, dass sich die Finken als Reaktion auf die Umgebung vom gemeinsamen Vorfahren zu eigenständigen Arten entwickelten. Dieselbe Artbildung finde sich nach Orlowski bei den Menschen durch die sozialen Medien als Speziation des Denkens. Drei Stufen lassen sich nach ihm erkennen: Trennung, Anpassung und Teilung.

Zunächst trennt eine Barriere Organismen voneinander. Bei den Finken war es der Pazifische Ozean, in den personalisierten sozialen Medien sind es die Weltanschauungen, die sich voneinander entfernen. Die Suchalgorithmen sind lediglich darauf ausgelegt, einzigartige und interessante Meldungen anzuzeigen, die Angst, Empörung oder Loyalität auslösen.

In der zweiten Stufe passen sich nach Orlowski die getrennten Gruppen an ihre Umgebung an. Die Schnäbel sind bei den Finken das Merkmal der Anpassung. In den sozialen Medien sind es erstens die Algorithmen, die lernen und die Interessen der Benutzer analysieren. Zweitens passen sich auch die Gedanken der Benutzer an den Algorithmus und der extremer werdenden und individualisierten Informationslandschaft an. Die Folge ist, dass sich unterschiedliche Gruppen mit ihren Interessen nicht mehr reproduzieren, sondern sich untereinander multiplizieren, so Orlowski.

Mit sozialen Medien zur Teilung der Gesellschaft

Durch die Algorithmen würden die Menschen radikalisiert werden. Sie würden weniger interessiert und tolerant gegenüber anderen Meinungen. Alternative Perspektiven würden zudem unwichtig und unbequem und durch die eigene Brille würde nicht mehr sichtbar werden, wie weit sich die eigene Meinung von anderen unterscheiden könne.

Insgesamt entstehe eine Unfähigkeit, andere Meinungen zu akzeptieren, zu tolerieren und zu hören. Die Weltansichten sind nicht mehr kompatibel miteinander und die letzte Stufe, die Teilung der Gesellschaft, ist erreicht. Die Finken selektieren sich sexuell voneinander, die Menschen machen es durch ihre Unfähigkeit, friedlich und tolerant miteinander leben zu können.

Sicherlich trägt jeder Mensch eine Eigenverantwortung in seinem Online-Verhalten und jeder Mensch kann sich der breiten Informationsgabe bedienen. Die Algorithmen sind allerdings explizit angepasst und entwickelt, dass sie jeden Benutzer der sozialen Medien beeinflussen. Beispielsweise wurden Trump- und Biden-Wählern 2021 auf Facebook nur zu 5 Prozent dieselben Informationen angezeigt. 95 Prozent der Meldungen unterschieden sich voneinander.

Die Vielfalt kann ein Segen sein und ist ein Fluch zugleich. Orlowski sieht durch die Algorithmen die Demokratie bedroht. Dass sich seit Jahren die individuellen Meinungen radikalisieren und Menschen weniger offen für andere Weltansichten sind, belegt seine These.

Dieser Artikel erschien zuerst in der Epoch Times Wochenzeitung, Ausgabe Nr. 42, vom 30. April 2022.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion