Enthüllt: Facebook-Ingenieure arbeiten an Strategien zur Unterdrückung rechter Argumente

Facebook-Ingenieure haben Maßnahmen vorgeschlagen, um Inhalte auf der Plattform zu unterdrücken, die versuchen, Menschen davon zu überzeugen, ihre linken Standpunkte aufzugeben. Fotos die Project Veritas (eine Enthüllungsinitiative) von internen Facebook-Dokumenten und -Nachrichten vorlegte, zeigen das auf. Auf den Fotos ist zu erkennen, dass mehrere bekannte rechte Facebook-Seiten mit einem Code markiert wurden, der die [Verbreitung] der Seiten zu behindern scheint.

Schon seit langem wird gegen Facebook der Vorwurf der linksgerichteten Voreingenommenheit erhoben. Die überwiegend linksgerichtete Einstellung seiner Mitarbeiter unterstreicht das noch. Während das Unternehmen behauptete, dass persönliche Vorurteile bei der Inhaltskontrolle nicht in die Bewertung einfließen, zeigen die Dokumente, dass die Ingenieure immer wieder rechte Argumentationslinien, einige vielleicht etwas grob formuliert, mit „Hassrede“ oder „Trolling“ in Zusammenhang bringen.

Einer der Ingenieure überlegte sogar, dass Facebook nicht nur Hassreden, sondern auch „Inhalte in der Nähe des Randes von Hassreden“ unterdrücken muss, obwohl Facebook eingeräumt hat, dass das Unternehmen immer noch darum kämpft, zu definieren, was Hassreden sind.

„Red-Pilling“ oder Trolling?

Die Fotos (pdf) wurden von einem Facebook-Subunternehmer beschafft, der laut Project Veritas vor etwa einem Jahr entlassen wurde, und beinhalten eine Präsentation des Data Science Managers Seiji Yamamamoto und des leitenden Datenwissenschaftlers Eduardo Arino de la Rubia vom September 2017.

Die Präsentation dokumentiert, was die Autoren unter „koordiniertem Trolling“ verstehen und wie man ihm entgegenwirken kann.

Trolling ist ein weit gefasster Begriff, der beschreibt, wie man absichtlich eine negative Antwort von jemandem auslöst.

Die Autoren identifizierten Trolle durch eine Vielzahl von Verhaltensweisen, die allgemein als inakzeptabel angesehen werden, wie z.B. Belästigung, Doxxing (Offenlegung persönlicher Daten von jemandem) und Falschmeldungen.

Eine der von den Autoren beschriebenen „destruktiven Verhaltensweisen“ war auch „‘redpilling normies‘ [Normies die rote Pille geben], um ihre Weltanschauung zu ändern.“

Red-Pilling„, eine Floskel, die gemeinhin mit der politischen Rechten in Verbindung gebracht wird, entstand als Bezugnahme auf den Film „The Matrix“ von 1999 und beschreibt die Konfrontation mit schockierenden, schwer zu akzeptierenden Fakten, die einen zwingen, die eigenen Überzeugungen neu zu bewerten.

„Normie“ ist ein Begriff, der auf einigen Online-Diskussionsplattformen wie 4chan verwendet wird, um „eine Person zu beschreiben, die von denen, die sich als Nonkonformisten bezeichnen, als langweilig konventionell oder Mainstream angesehen wird“, so KnowYourMeme.com.

Als Beispiel für eine solche „rote Pille“ haben die Autoren einen Link zum YouTube-Video „Why Social Justice is CANCER | Identity Politics, Equality & Marxism“ von Lauren Chen, auch bekannt als „Roaming Millennial“, veröffentlicht.

In einer Videoantwort auf die Veröffentlichung des Dokuments sagte Chen, sie sei verwirrt über die Entscheidung der Autoren, ihr Video, das sie als „super, super zahm“ bezeichnete, herauszufiltern.

„Im Wesentlichen argumentiere ich, dass „Social Justice“ giftig ist, weil sie den Tribalismus über die Individualität stellt und weil sie das Konzept der Chancengleichheit für den Einzelnen aufhebt“, sagte sie. [Social Justice ist eine pseudowissenschaftliche, sozialistisch-kommunistische Gesellschaftstheorie, die mit „soziale Gerechtigkeit“ nicht angemessen übersetzt werden kann.]

Chen bestätigte, dass sie sich für einen provokativen Titel entschieden hatte, aber sie begann ihr Video auch mit einer Erklärung, dass sie „Social Justice“ nicht wörtlich mit Krebs gleichsetzt. „Es ist frustrierend, dass ich sogar Dinge wie Übertreibung und Metapher erklären muss“, sagte sie.

Es scheint nicht, dass Chens Zuschauer sich „getrollt gefühlt haben“ – das Video hatte etwa 11.000 Likes gegenüber weniger als 500 Dislikes, Stand am 28. Februar.

Sie bemängelte des Weiteren den offensichtlichen Glauben der Autoren, dass die Bekehrung von Menschen zur eigenen Weltanschauung anstößig ist.

„Das ist im Wesentlichen die Teilnahme an Diskussionen und Diskussionen über Ideen“, sagte sie. „Wie kann das ein Trollverhalten sein? Nach welcher Logik kann man jemanden so einordnen, der versucht, jemanden von seiner Weltanschauung zu überzeugen, was jeder tut, wenn er ein politisches Thema diskutiert, das ihm wichtig ist, wie ordnet man das als Trollverhalten ein? Das ist so weit entfernt von dem, was eigentlich Trolling ist. Ich meine, sind die Debatten des Präsidenten „Trollverhalten“?“

Dann ging sie noch einen Schritt weiter und fragte, ob die Autoren ihr Video für „destruktiv“ hielten, weil es tatsächlich überzeugend war.

Strafen

Yamamoto und de la Rubia schlugen vor, einen „toxic meme cache“ einzurichten und Bilder zu blockieren und zu unterdrücken, die dem „cache“ entsprechen.
[cache = Speicher; Meme = Sinnbild, in den Social Media oft Collagen, aber auch die bekannten Smileys sind Memes]

Sie empfahlen auch die Entwicklung eines Programms, das „vorhersagen“ könnte, ob ein Benutzer ein Troll ist, indem es unter anderem die Sprache des Benutzers nach Wörtern wie „cuck, zucced, REEE, normie, IRL, lulz, Shadilay, etc.“ durchsucht – einige davon sind gängige Slangbegriffe, die von einigen Online-Communities verwendet werden.

Sie schlugen vor, Troll-Accounts durch „drastisch eingeschränkte Bandbreite für einige Stunden“ einzuschränken, was das Funktionieren von Facebook für den Benutzer verlangsamen würde, ebenso wie das automatische Abmelden des Benutzers oder das Umleiten des Benutzers auf seine eigene Facebook-Startseite alle paar Minuten.

Sie schlugen auch vor, es so zu machen, dass „Kommentare und Beiträge, für die[die Benutzer] viel Zeit aufgewendet hatten, ‚magischerweise‘ nicht hochgeladen werden können.“

Aktion Ausbremsung

Andere Fotos des Insiders zeigen, dass einige Facebook-Seiten mit dem Code „SI (Sigma): !ActionDeboostLiveDistribution“ markiert wurden. Der Insider glaubt, dass er die Verbreitung von Live-Stream-Videos, die von diesen Seiten veröffentlicht wurden, unterdrücken sollte. Der Code wurde auf Seiten des rechten Autors und Filmemachers Mike Cernovich, des konservativen Komikers und Kommentators Steven Crowder und der rechten Nachrichtenseite The Daily Caller gesehen. Der Insider sagte, mehrere Seiten von linksgerichteten Figuren und Entitäten wie den Young Turks und Colin Kaepernick wurden von ihm überprüft und er stellte fest, dass sie diese Kodierung nicht enthalten.

Die Fotos des Insiders „scheinen legitim“, sagte der ehemalige leitende Facebook-Ingenieur Brian Amerige der Epoch Times über die Facebook Messenger App. Er zögerte, Project Veritas, einem rechtsgerichteten gemeinnützigen Verein, als Quelle zu vertrauen, und sagte, er habe die „Deboosting“-Technologie nicht mit eigenen Augen gesehen. Er meinte jedoch, dass „‚Deboosting‘ wahrscheinlich auf die eine oder andere Weise stattfindet (aus guten und schlechten Gründen).“

Facebook hat auf eine Anfrage nach einem Kommentar nicht reagiert.

Hassrede

Hassrede, so Facebook, bezieht sich auf abfällige Aussagen, die auf den „geschützten Merkmalen – Rasse, Ethnie, nationale Herkunft, Religionszugehörigkeit, sexuelle Orientierung, Geschlechtsmerkmale, Geschlecht, Geschlechtsidentität, schwere Krankheit oder Behinderung“ basieren.

„Wir sind uns alle einig, dass Hassreden gestoppt werden müssen“, schrieb Yamamoto in einem internen Beitrag vom17. Januar 2018, „aber es gibt einiges an Inhalten in der Nähe von Hassreden, denen wir ebenfalls Aufmerksamkeit widmen müssen.“

Das Unternehmen hat jedoch eingeräumt, dass es in Bezug auf Hassreden „keine allgemein akzeptierte Antwort gibt, wann etwas die Grenze überschreitet“.

„Für einige kann grober Humor betreffend einen religiösen Führer sowohl Blasphemie sein als auch als Hassrede gegen alle Anhänger dieses Glaubens aufgefasst werden“, heißt es in einem Blogbeitrag von 2017. „Für andere kann ein [Witz]Kampf mit geschlechtsspezifischen Beleidigungen eine angenehme Art sein, ein Lachen zu teilen.“

Letztendlich räumt Facebook ein, dass seine Inhalts-Polizei, die sich seit letztem Jahr auf 30.000 Mann verdreifacht hat, in jedem Fall ein Urteil fällen muss.

Amerige beschrieb das Unternehmensklima von Facebook als eine politische Monokultur, in der „die Community-Standards von Facebook chaotisch, fast zufällig, durchgesetzt werden, mit Eskalationen und gelegentlichen Umkehrungen, wenn die „Mistbauer“ prominent genug sind, um Medienaufmerksamkeit zu erzeugen“.

Er sagte, dass er während seiner Zeit im Unternehmen versuchte, die Kultur von innen heraus zu verändern und die Aufmerksamkeit der Unternehmensleitung erhielt, aber beim Thema Hassrede schließlich in eine Sackgasse geriet.

„Hassreden können nicht einheitlich definiert und nicht zuverlässig erkannt werden, so dass es sich letztendlich um eine Reihe von einmaligen,’pragmatischen‘ Entscheidungen handelt“, sagte er der Epoch Times. „Ich denke, es ist ein ernsthafter strategischer Fehltritt für ein Unternehmen, dessen Produkt seinen primären Wert dadurch erhält, dass es als Instrument der freien Meinungsäußerung dient.“

Das Original erschien in The Epoch Times (USA) (deutsche Bearbeitung von al)
Originalartikel: Facebook Engineers Share Strategies to Suppress Right-Wing Arguments, Leaked Documents Indicate

Quelle: https://www.epochtimes.de/politik/welt/enthuellt-facebook-ingenieure-arbeiten-an-strategien-zur-unterdrueckung-rechter-argumente-a2811910.html