Die andere Seite: Inhalte-Prüfer für Facebook ist traumatischer Job

Immer wieder gibt es Ärger um problematische Inhalte, die Facebook trotz Hinweisen nicht entfernt. Die Süddeutsche Zeitung hat sich nun auch einmal die andere Seite der Medaille angesehen und fand Mitarbeiter im Prüf-Team, die mit einem traumatischen Job alleingelassen werden.
Facebook, Login Screen, facebook ipad
Facebook
Als die Debatte um Drohungen und Verleumdungen gegen bestimmte Nutzer und Bevölkerungsgruppen für öffentliche Diskussionen sorgte, sicherte Facebook zu, die Inhalte besser zu prüfen. Die Aufgabe wurde damals an die Bertelsmann-Tochter Arvato ausgelagert, wo dann ein Team aus mehr als 200 Mitarbeitern aufgebaut wurde, die gemeldete Beiträge und Kommentare einer Bewertung zu unterziehen haben.

Dabei hätte man sich an Arbeitsgruppen orientieren können, die schon länger mit der Prüfung von problematischen Inhalten befasst sind. Wie etwa jenen bei der Bundesprüfstelle für jugendgefährdende Medien (BPjM). Dort bekommen die Prüfer beispielsweise psychologische Betreuung und Erholungsphasen. Das sei bei dem für Facebook tätigen Team hingegen nicht der Fall, hieß es. Die Jobs erinnern eher an die zahlreichen Aushilfsjobs in Call Centern: Das Gehalt liegt knapp über dem Mindestlohn und die Beschäftigten sind den ganzen Tag damit betraut, Inhalte nach nicht öffentlichen Richtlinien zu bewerten.

Niemand will bleiben

Und das hier beispielsweise Beleidigungen und Drohungen, die von Facebook-Nutzern als grenzüberschreitend wahrgenommen werden, letztlich durchgehen, verwundert wenig. Denn gemischt sind sie mit diversen Inhalten, die auf den Prüfenden wesentlich problematischer wirken dürften. Dazu gehören auch Kinderpornographie, Fetisch-Content und Videos mit Gewaltanwendungen gegen Tiere und Menschen in allen denkbaren Ausführungen.

Gespräche mit den fraglichen Beschäftigten waren für die Zeitung dabei nicht einfach. Denn eigentlich gibt es Stillschweigeverpflichtungen, die es nicht nur untersagen, über die Inhalte der Arbeit zu reden, sondern auch, dass man überhaupt in dem Bereich arbeite. Jene Angestellten, die dann doch sprachen, gaben aber einhellig an, nicht dauerhaft dabeibleiben zu wollen. Unterdessen hofft man, dass die Versprechungen von Facebook eines Tages Wirklichkeit werden und ein KI-System die Aufgabe übernimmt, zu krasse Inhalte automatisiert zu erkennen und auszufiltern.
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Metras Aktienkurs in Euro
Tipp einsenden
❤ WinFuture unterstützen
Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!