Was die Facebook-Putzkolonne täglich sehen muss

Facebook beauftragt Löschteams mit dem Kampf gegen Gewalt und Hass im Netz.
Facebook beauftragt Löschteams mit dem Kampf gegen Gewalt und Hass im Netz. © iStock/wildpixel
Gewaltvideos, Hasskommentare, Kinderpornografie: Wer löscht eigentlich all den Müll, der nicht auf Facebook gehört? Das «Süddeutsche Zeitung Magazin» enthüllt jetzt, welche Menschen sich das Grauen des Internets anschauen müssen und wie sie psychisch darunter leiden.

Sie dürfen nicht mit Journalisten reden und haben es trotzdem getan: Mitarbeiter des digitalen Löschtrupps von Facebook äussern sich anonym in der Reportage des SZ-Magazin. Über 600 Menschen sind alleine in Berlin damit beschäftigt, problematische Facebook-Inhalte zu sichten und zu löschen. Dabei sind sie hohem Druck ausgesetzt und müssen teils absurde Regeln beachten.

«Können Sie verstörende Bilder ertragen?»

Als sich die Menschen für den schwierigen Job beworben haben, wussten sie nicht, wie viel Hass und Schrecken auf sie zukommt. Im Auftrag von Facebook suchte die Dienstleistungs-Firma Arvato «Service Center Mitarbeiter» für ein «internationales Team mit guten Karrieremöglichkeiten».

Weil explizit Fremdsprachenkenntnisse gefordert wurden, meldeten sich viele Leute aus verschiedenen Nationen, darunter Flüchtlinge aus Syrien. Die einzige Frage im Bewerbungsgespräch, die auf den konkreten Job hindeutete: «Können Sie verstörende Bilder ertragen?» Dass sie zum Putzteam gehören werden, die Facebook von Dreck reinigen, erfuhren sie erst später.

Tierquälerei, Hakenkreuze und Penisse

Mehr als eine Million anstössige Postings werden von Nutzern täglich gemeldet. Facebook gibt vor, dass die Mehrheit innerhalb von 24 Stunden überprüft wird. Der Druck bei den zuständigen Mitarbeitern scheint gross. Zunächst prüft ein Team, ob die gemeldeten Inhalte von einer echten Person stammen und ob sie gegen die sogenannten Gemeinschaftsstandards von Facebook verstossen.

Diese Mitarbeiter arbeiten im Schichtdienst für einen tiefen Lohn und müssen angeblich fast 2000 Tickets pro Tag bearbeiten – also 2000 Mal entscheiden, ob ein Inhalt den Facebook-Richtlinien entspricht oder gelöscht wird. Oft schaffen sie aber nicht einmal die Hälfte. Ein Mitarbeiter schildert im SZ-Magazin, was man dabei sieht: «Es ist eine zufällige Bildauswahl, was so aus der Warteschlange kommt. Tierquälerei, Hakenkreuz, Penisse.»

Noch mehr Stress haben die so genannten Content-Moderatoren, die auch längere Videos prüfen müssen. Pro Entscheidung hätten sie durchschnittlich nur acht Sekunden Zeit.

Folter, Sex und Terror

Die körperliche und psychische Belastung sei hoch, berichten Mitarbeiter im SZ-Magazin: «Viele haben gesoffen oder exzessiv gekifft, um damit klarzukommen.» Nebst erschreckenden Bildern von Folter oder Sex mit Tieren müssen die Mitarbeiter in verschiedenen Länder-Teams teilweise Videos von Enthauptungen und Terror aus ihrem eigenen Herkunftsland betrachten. Ein Mitarbeiter aus dem arabischen Team sagte dem SZ-Magazin: «Es ist schlimm, aber so kann ich wenigstens verhindern, dass schreckliche Gewaltvideos aus Syrien weiterverbreitet werden.» Wiederholt sei es vorgekommen, dass Menschen heulend den Raum verliessen. Mitarbeiter beklagen mangelhafte psychologische Betreuung.

«Hagen Kreuz» wird nicht gelöscht

Die Belastung für die Menschen, die in der Facebook-Putzkolonne arbeiten, wird durch die komplizierten Gemeinschaftsstandards noch höher. Diese von Facebook selbst erlassenen Regeln sind teilweise schwierig nachzuvollziehen und ändern sich ständig. So sei früher das Bild eines abgetrennten Kopfes in Ordnung gewesen, solange der Schnitt gerade gewesen sei, berichtet ein Insider im SZ-Magazin: «Was ist das für eine sinnlose Regel? Und wer legt sie fest?»

Der Online-Blog Mobile Geeks zitiert einen Mitarbeiter zur Löschpraxis von Facebook. So würde beispielsweise der Accounts eines Nutzers mit dem Namen «Hagen Kreuz» nicht gelöscht, weil sowohl Hagen wie auch Kreuz der Name einer echten Person sein könnte.

Intransparente Löschpraxis

Weil Facebook selbst keine Informationen zur Anzahl und Art der gelöschten Postings veröffentlicht, wurde in Deutschland eine «Task-Force gegen Hasskriminalität im Internet» gegründet. Wie Bundesjustizminister Heiko Maas (SPD) am Mittwoch im Interview des NDR-Medienmagazins «Zapp» sagte, würden Inhalte «fast vollständig» gelöscht, wenn sie von Partnerorganisationen der Task-Force gemeldet würden. Nicht so zuverlässig reagiere Facebook auf direkte Meldungen von problematischen Inhalten durch normale Nutzer. Wie die Reportage des SZ-Magazins nun aufzeigt, haben die Mitarbeiter der Facebook-Putzkolonne wohl einfach zu wenig Ressourcen, um die Schlammflut zu stoppen.

(fun)


Newsletter abonnieren
0Kommentare
noch 1000 Zeichen