zum Hauptinhalt
Facebook kontrolliert 6,5 Millionen Einträge in der Woche.

© Dado Ruvic/Reuters

Hass-Kommentare auf Facebook: Entscheidung in zehn Sekunden: Löschen oder nicht?

Mit Löschkriterien geht Facebook gegen Hass-Kommentare im Netz vor. Doch die Verfahrensweise ist umstritten. Und die Content-Manager arbeiten unter extremem Zeitdruck.

Von Til Knipper

Sie werden die „Müllabfuhr des Internets“ genannt und haben ihre Arbeit bisher weitestgehend im Verborgenen erledigt. Die Content-Moderatoren des sozialen Netzwerks Facebook müssen jeden Tag entscheiden, welche Statusmeldungen der weltweit inzwischen zwei Milliarden Facebook-Nutzer gelöscht werden müssen und welche online stehen bleiben dürfen.

Die britische Zeitung „The Guardian“ hat nun erstmals Einblick in interne Handbücher für Facebook-Mitarbeiter erhalten, die die Löschkriterien des sozialen Netzwerks genauer definieren. Es geht um den Umgang mit Gewaltvideos, Pornos, Hasskommentaren, Rassismus, die Verherrlichung von Terror, Fotos von Leichen und live gestreamte Selbstmordversuche. Facebook hat sogar Richtlinien zu Sportwettenbetrug und Kannibalismus.

Weil die Löschpraxis des Internetkonzerns seit Jahren als unzureichend kritisiert wird, hat sich in Deutschland bereits die Politik des Themas angenommen. Nach den Plänen von Bundesjustizminister Heiko Maas (SPD) soll noch vor der Sommerpause das Netzwerkdurchsetzungsgesetz verabschiedet werden, wonach sozialen Netzwerken Geldbußen drohen, wenn sie rechtswidrige Inhalte nicht löschen.

Anzahl der Kontrolleure soll auf 7500 erhöht werden

Nach den Unterlagen, die dem „Guardian“ vorliegen, nimmt man die Thematik inzwischen auch bei Facebook sehr ernst. Facebook-Chef Mark Zuckerberg hat im Mai angekündigt, die Anzahl der Kontrolleure von 4500 auf 7500 zu erhöhen. Experten halten diese Aufstockung für viel zu niedrig, weil schon jetzt wöchentlich mehr als 6,5 Millionen Einträge untersucht werden müssen, die Kontrolleure im Schnitt allerdings nur zehn Sekunden Zeit haben, um eine Entscheidung zu treffen.

Dabei umfassen die Richtlinien tausende von Seiten, werden ständig aktualisiert, sind hoch komplex und teilweise widersprüchlich oder für die Mitarbeiter nur schwer nachvollziehbar: Mordaufrufe gegen den US-Präsidenten müssen demnach sofort gelöscht werden. Ein Kommentar wie „Jemand soll Trump erschießen“ ist nach den Richtlinien verboten, weil der amerikanische Präsident als Staatsoberhaupt eine tatsächlich „angreifbare Person“ ist.

Bei anderen Aufrufen zur Gewalt ist man dagegen deutlich großzügiger: Ein Eintrag wie „Um einer Schlampe das Genick zu brechen, stelle sicher, dass du am meisten Druck auf die Mitte des Halses anwendest“ darf ebenso online stehenbleiben wie „Fick dich und sterbe“ oder „Ich hoffe, dich bringt jemand um“. Die Begründung dafür lautet, dass hier keine „ernstzunehmende Bedrohung“ zu erkennen sei. Sogar Videos von Abtreibungen sind erlaubt, solange keine nackten Körperteile zu sehen sind.

Selbst Videos von Tötungen sollen die Facebook-Mitarbeiter nicht zwingend entfernen. „Videos von gewaltsamen Todesfällen sind verstörend, können aber helfen, ein Bewusstsein, beispielsweise für psychische Krankheiten zu schaffen“, zitiert der Bericht aus den Richtlinien.

Ein besonderes Problem sind gestreamte Selbstmordversuche

Videos von Tiermissbrauch sollen ebenfalls unter Umständen stehen bleiben, nämlich dann, wenn sie das Bewusstsein wecken, den Missbrauch zu verurteilen. Wenn die Videos die Grausamkeit gegen die Tiere feiern, sollen sie gelöscht werden.

Auch bei Selbstverletzungen sieht man bei Facebook häufig vom Löschen von Videos oder Bildern ab. Ein besonderes Dilemma sieht die Internetplattform bei live gestreamten Selbstmordversuchen: Facebook möchte das auch in Zukunft erlauben: „Nutzer posten selbstzerstörerische Inhalte als Hilfeschreie – diese zu entfernen könnte verhindern, dass sie gehört werden“, heißt es. Man habe diese Richtlinien mit Experten entwickelt. Für die Sicherheit der Betroffenen sei es das Beste, wenn sie live mit ihren Zuschauern in Kontakt bleiben könnten. Gelöscht wird erst, wenn es keine Möglichkeiten mehr gebe, der Person zu helfen.

Die Arbeit macht die Content-Manager psychisch krank

Experten wie die amerikanische Medienwissenschaftlerin Sarah Robert von der Universität in Los Angeles halten die Bemühungen von Facebook für nicht ausreichend: „Die Arbeitsbedingungen der Content-Moderatoren sind katastrophal.“ Sie verdienten nur knapp über dem Mindestlohn und ihre Arbeit mache sie psychisch krank. Das Problem sei, dass das soziale Netzwerk zu schnell gewachsen sei und die Kontrolle der Inhalte lange Zeit weit unten auf der Prioritätenliste stand

Zu ähnlichen Ergebnissen kam eine Recherche des „SZ-Magazins“, die im Dezember vergangenen Jahres aufdeckte, dass die Bertelsmann-Tochter Arvato mit 600 Mitarbeitern in Berlin die deutschsprachigen Kommentare für Facebook kontrolliert. Auch diese klagten über schlechte Bezahlung und mangelhafte psychische Unterstützung. Ein Sprecher von Arvato widersprach dieser Darstellung am Montag, Facebook Deutschland wollte sich dazu gar nicht äußern.

Juristen sehen noch ein weiteres Problem. Aufgrund seiner marktbeherrschenden Stellung könnte sich Facebook mit seinen Richtlinien weltweit zur größten Zensurbehörde aufschwingen. „Mit seinen eigenen Richtlinien setzt sich Facebook einfach über national geltendes Recht hinweg, das können wir nicht akzeptieren“, sagt der Kölner Medienrechtler Christian Solmecke. Die Content-Moderatoren seien außerdem inhaltlich völlig überfordert, weil ihnen die juristische Expertise fehle. Solmecke begrüßt daher das Gesetzesvorhaben der Bundesregierung. „Prozesse gegen soziale Netzwerke waren bisher sehr aufwendig und teuer, weil es häufig an einem deutschen Klagegegner fehlt.“ Zumindest das würde sich durch das neue Gesetz ändern und könnte Facebook möglicherweise zu einer Verbesserung der Kontrollstandards zwingen.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false