Facebook-Logo

JOEL SAGET / AFP / picturedesk.com

„Guardian“-Leak: Nach diesen Regeln löscht Facebook

Was darf auf Facebook gepostet werden und was nicht? Die Antwort auf diese Frage hat die britische Zeitung „The Guardian“ parat. Sie hat geleakte interne Dokumente zu den Löschregeln ins Netz gestellt.

„Let’s beat up fat kids“? - („Lass uns dicke Kinder verprügeln“) - Geht. „Someone shoot Trump"? (Kann jemand Trump erschießen“? - Geht nicht, dieser Kommentar muss gelöscht werden.
Anhand solcher Beispiel-Kommentare kann man derzeit beim britischen „Guardian“ eine Einblick davon bekommen, was Facebook seinen Nutzern durchgehen lässt und wann der Dienst einschreitet.

Der „Guardian“ hat am Sonntag diverse interne Facebook-Dokumente ins Netz gestellt, angeblich stammen diese offenbar aus Facebook-Kreisen, eine genaue Quelle nennt sie nicht. Es heißt, man habe mehr als 100 interne Schulungshandbücher, Tabellen und Flussdiagramme einsehen können.

Beispiel für Facebook-Löschregeln: Gewalt ist nicht gleich Gewalt

Postings, die Donald Trump mit Erschießen drohen oder per Gewaltandrohung „zum Schrecken des Zionisten“ werden - sind nicht erlaubt. Aber allgemeine Gewaltdrohungen wie, „To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat“ oder „Let’s beat up fat kids“ hingegen werden nicht als direkte beziehungsweise ernst zunehmende Drohung angesehen und würden nicht gelöscht.

Weitere Löschregeln in Bezug auf Tierquälerei, Erpressung und Sex - Facebookfiles auf „The Guardian“

Nur 10 Sekunden für einzelne Entscheidungen

Nach den vergangen Gewaltvideo-, Hasspostings- und Nacktbilder-Skandalen versucht Facebook auf die Kritik zu reagieren. Die Dokumente zeigen, dass sich der Konzern bemüht, das Problem in den Griff zu bekommen. Doch scheint das nicht ganz zu gelingen. Das liegt nicht an den Regeln selbst - die sind extrem komplex, aber größtenteils einleuchtend. Es liegt vielmehr an den Arbeitsbedingungen, unter denen Angestellte bei Facebook und Drittfirmen diese Regeln in praktische Entscheidungen umsetzen müssen. Das Unternehmen hat selbst Anfang Mai des Jahres die Erhöhung der Anzahl von 4500 Moderatoren auf 7000 angekündigt, die sich mit der Durchsicht sensibler Inhalte befassen. Zuwenige, wenn man bedenkt, laut Guardian jede Woche mehr als 6,5 Millionen Meldungen zu potenziellen Fake-Accounts durchsehen muss.

Eine Recherche der Süddeutschen Zeitung deckte im vergangenen Dezember auf, dass allein in Berlin 600 Menschen beim Dienstleister Arvato angestellt sind, die im Auftrag von Facebook Inhalte prüfen und löschen. Sie leiden unter ihren Arbeitsbedingungen, arbeiten für ein Gehalt knapp über dem Mindestlohn und erhalten wenig psychologische Unterstützung. Die wäre nötig, da viele der Mitarbeiter regelmäßig Fotos und Videos von Folter, Mord oder Kindesmissbrauch sichten müssen. Laut einer Quelle des Guardians, haben die Mitarbeiter oft „nur 10 Sekunden“, um zu entscheiden.

Onlinetest-Test: Löschen oder nicht löschen? - Wie würdest du entscheiden (Test auf englisch)

Was sagt Facebook dazu?

Auf eine SPIEGEL-Anfrage zum Thema schickt das Unternehmen am Montagmorgen eine Stellungnahme von Facebooks Chefin für das Regelmanagement, Monika Bickert. Für Facebook sei es das Wichtigste, dass die Nutzer sicher sind, heißt es darin: „Wir arbeiten hart daran, Facebook so sicher wie möglich zu machen, während wir eine freie Meinungsäußerung ermöglichen.“

„Ö3-Drivetime-Show“ mit Olivia Peter, 22. Mai 2017 (SC)