Strenges Score-System und karge Bezahlung: Der Alltag in einem Facebook-Löschzentrum

Von 9. April 2019 Aktualisiert: 9. April 2019 21:12
Das „Competence Call Center“ in Essen gehört zu jenen Auftragnehmern, die für Facebook und Instagram Inhalte moderieren sollen. Die Plattform netzpolitik.org hat einen Mitarbeiter dazu befragt, wie Moderationsentscheidungen in sozialen Medien zustande kommen.

Die Plattform netzpolitik.org berichtet, über den Mitarbeiter eines Löschzentrums des „Competence Call Centers“ (CCC), das gemeldete Beiträge auf Facebook im Auftrag des Social-Media-Konzerns moderiert, umfassende Einblicke in die Arbeit einer solchen Einrichtung erhalten zu haben. Weitere Quellen aus anderen Dienstleistungsunternehmen sollen dessen Beobachtungen im Kern bestätigt haben.

Nach welchen Kriterien das soziale Netzwerk seine Inhalte moderiert und wie es über Löschungen und Sperren entscheidet, ist vielfach Gegenstand von Debatten und Spekulationen. Die Gemeinschaftsstandards, auf die sich Facebook bezieht, sind sehr allgemein formuliert. In Unterkapiteln werden sie etwas genauer erläutert, lassen aber dennoch Fragen offen.

Facebook prüft nach eigener Aussage erst auf der Basis der eigenen Gemeinschaftsstandards, die weltweit gelten und nach denen auch Dienstleister wie CCC die Inhalte beurteilen. Auch Meldungen unter expliziter Berufung auf das NetzDG werden zuerst auf der Basis dieser Gemeinschaftsstandards geprüft. Auf diese Weise sollen von vornherein Inhalte aussortiert werden können, die gewalttätiges und kriminelles Verhalten fördern, Inhalte, die die Sicherheit anderer bedrohen, Hassrede, explizite Inhalte, Spam sowie Inhalte, die Minderjährigen schaden.

Nur wenige Überprüfungen nach dem NetzDG

Erst wenn ein Inhalt nicht als Verstoß gegen die Gemeinschaftsstandards eingestuft wird, der Meldungsleger jedoch im Wege einer Beschwerde darauf beharrt, dass das NetzDG verletzt wurde, findet demnach eine nochmalige Überprüfung anhand des deutschen Strafgesetzbuches statt. Sollte die Prüfungsinstanz zu dem Ergebnis gelangen, dass der gemeldete Inhalt gemäß NetzDG rechtswidrig sei, werde der Zugang zu ihm in Deutschland gesperrt.

Eine weit verbreitete Kritik am NetzDG war es vor dessen Einführung, dass die Social-Media-Moderation im Zweifel vorsorglich Inhalte löschen würde, um einer möglichen Sanktion nach dem NetzDG zu entgehen. Inwieweit das Gesetz tatsächlich eine Verschärfung der Gemeinschaftsstandards oder ihrer Anwendung bewirkt hat, bleibt offen. Die Schilderungen des CCC-Mitarbeiters deuten jedenfalls an, dass die Gemeinschaftsstandards im Regelfall deutlich strenger sind als das deutsche StGB. 

Weltweit soll Facebook 15 000 Personen in diversen Dienstleistungszentren damit betraut haben, die Einhaltung seiner Standards zu überprüfen. Ein Auftragnehmer ist dabei auch CCC, das weltweit 7500 Mitarbeiter hat und für den Social-Media-Riesen sowohl Konten als auch Inhalte überprüfe. In Essen sind etwa 1000 Menschen damit beschäftigt, gemeldete Inhalte auf Facebook und Instagram auszuwerten. Es geht dabei, so schildert die Kontaktperson von netzpolitik.org, um Inhalte in deutscher, niederländischer, arabischer und türkischer Sprache.

Die Europa-Konzernzentrale in Dublin gibt Abläufe und Regeln für die Dienstleistungszentren vor und versorgt diese mit Policy-Updates. Auch die Software wird von Facebook geliefert – sie beinhaltet ein Ticketsystem für die Moderation mit einem Workplace, der es erlaubt, jederzeit die Policy-Regeln einzusehen.

„PR-Fire-Risk“ bei Accounts von Prominenten

Das System strukturiert die so genannten Queues für die Moderation, die festlegen, welche Überprüfungen Priorität haben. Absolute Priorität haben Inhalte, die wegen des Verdachts auf bevorstehenden Suizid, Terrorismus oder Kinderpornografie gemeldet wurden. Sie werden sofort bearbeitet oder im Zweifel an die Zentrale weitergeleitet, die dann erforderlichenfalls auch staatliche Sicherheitsbehörden darüber in Kenntnis setzt.

Binnen 24 Stunden sind die Tickets aus der „Hate Queue“ zu bearbeiten, erklärt die Quelle von netzpolitik.org. Dies entspricht auch der Frist, die das NetzDG in Deutschland für die Löschung rechtswidriger Inhalte setzt.

Die Reaktionsmöglichkeiten des Moderators auf Dienstleisterebene reichen von „Ignorieren, gutartig“ bei nicht gegebenen Verstößen über Ignorieren mit dem Hinweis „sexuell suggestiv“, Löschen, Löschen mit Hinweis bei Selbstverletzungsverdacht („Einem deiner Freunde ist aufgefallen, dir geht es nicht gut.“) über Eskalieren (Weiterleiten an Zentrale bei Terrorismus, Kinderpornos usw.), Weichzeichnermarkierung und Warnung („verstörender Inhalt“) bis hin zur Delegation nach oben bei besonders komplizierten Fällen.

„Chefsache“, also ein Fall für eine zwingende Weiterleitung an die Zentral, sind den Angaben der Netzpolitik-Quelle zufolge auch Fälle des sogenannten „PR-Fire-Risk“. Dieses betreffe Politiker, Prominente oder reichweitenstarke Accounts mit etwa 100 000 Followern und mehr. Hier seien die Moderatoren dazu angehalten, unklare Tickets weiterzuleiten, da Facebook einen öffentlichen Aufschrei über eine Moderationsentscheidung vermeiden wolle.

Zustände wie in ostdeutschen Callcentern der 2000er?

Willkür gebe es nicht, meint die Quelle, die Regeln ließen wenig Spielraum, neue Mitarbeiter würden zwei Wochen lang von einem erfahrenen Mitarbeiter trainiert. Das Gehalt sei mit 10,65 Euro netto für Mitarbeiter der untersten Hierarchiestufe bescheiden, Wochenend- und Nachtdienste brächten Zuschläge.

Bezüglich der Leistung der Mitarbeiter gebe es ein Score-System, das nach Kriterien der Richtigkeit, der Zahl der bearbeiteten Tickets und der Geschwindigkeit funktioniere. Ein Score-Wert von 95 Prozent sei wünschenswert. Auf Qualität solle mehr Wert gelegt werden als auf Quantität. An einem normalen Tag würden bei CCC zwischen 250 und 400 Tickets abgearbeitet, was bei einem Acht-Stunden-Tag bedeuten würde, pro Minute müssten zwischen einem und zwei Tickets abgearbeitet werden. Manche Mitarbeiter würde bis zu 1500 Meldungen pro Tag moderieren, bei weniger als 100 folge meist eine zeitnahe Vertragsauflösung.

Glaubt man der Quelle bei netzpolitik.org, wird in den Löschzentren eine Hire-and-Fire-Kultur mit hoher Fluktuation betrieben, wie man sie aus den 2000er Jahren kennt, als vor allem in Ostdeutschland Outbound-Callcenter wie Pilze aus dem Boden schossen.

Mögen Sie unsere Artikel?
Unterstützen Sie EPOCH TIMES
HIER SPENDEN

Wer sich als Content Moderator verdient gemacht habe, könne zum Subject Matter Expert aufsteigen, wobei einer dieser für die Überprüfung von Zweifelsfällen zuständigen Mitarbeiter auf 15 Mitarbeiter der untersten Ebene komme. Über diesen stünden dann noch die Quality Auditors, die stichprobenartig Entscheidungen überprüften und in stetigem Kontakt zu der Zentrale in Dublin stünden. Hier gäbe es noch einmal ein Verhältnis von 1:50.