Facebook setzt auf das Prinzip der Selbstregulierung

Rassismus, Antisemitismus, Beleidigungen Woher kommt der Hass im Netz?

Aber nach dem Prinzip der Selbstregelung eben nur dann, wenn ein Nutzer den Inhalt meldet – doch die Bereitschaft dazu ist immer noch gering, sagt Julia Schramm, die für die Amadeu-Antonio-Stiftung in Berlin arbeitet und hier mit zwei Kollegen die Initiative No-Nazi.net betreut. Sie beobachten rechte Strömungen im Netz und planen Interventionsstrategien. „Digitales Streetworking“ nennt Schramm es. Sie wollen gezielt Menschen auf sozialen Netzwerken anschreiben, die Hetze und Hass verbreiten. An manchen Tagen stoßen sie auf mehr als 10 000 rassistische und hetzerische Kommentare, abhängig auch vom aktuellen Geschehen – allerdings melden Schramm und ihre Kollegen nicht jeden Beitrag an Facebook, da die wenigsten davon ganz eindeutig gegen die Richtlinien verstoßen würden. Mit der Technischen Universität Berlin arbeiten sie und ihre Kollegen derzeit an einer Methode, um solche Kommentare besser verfolgen zu können. Was sie beobachten kann: Meistens schlagen die „Hater“ am Abend und am Wochenende zu, vermutlich, weil sie dann mehr Zeit haben und sicher weniger kontrolliert fühlen.

Julia Schramm wurde selbst Opfer von "Hatern"

Schramm selbst ist schon Opfer solcher „Hater“ geworden. Als ehemaliges Mitglied der Piratenpartei und bekennende Feministin wurde sie zum Hassobjekt für viele Rechte und Antifeministen. Den Piraten gehört sie schon seit 2014 nicht mehr an, mit Anfeindungen hat sie trotzdem noch genug zu tun. Nicht primär gegen sie selbst, sondern gegen Asylsuchende, Deutsche mit Migrationshintergrund, Menschen verschiedener sexueller Orientierung oder diejenigen, die sich für sie einsetzen.

Liken, sharen und kommentieren. Begriffe, die fast wie selbstverständlich in unseren Sprachgebrauch übergehen. Doch was verbirgt sich eigentlich dahinter? Foto: dapd Vergrößern
Liken, sharen und kommentieren. Begriffe, die fast wie selbstverständlich in unseren Sprachgebrauch übergehen. Doch was verbirgt sich eigentlich dahinter? © dapd


Auch wenn der Hass im Netz immer sichtbarer wird, ist es auch für No-Nazi.net schwer, dagegen vorzugehen. Die Entwicklung im Netz ist rasant, auch im Bereich der Hassrede. Und eine Patentlösung gegen rechte Gesinnung gibt es nicht. „Die Gruppen und ihre Ausrichtungen individualisieren sich immer mehr, da reicht es nicht, von ,den Nazis‘ zu sprechen“, sagt Schramm. Bekennende Rechtsradikale seien eine prozentual kleine Gruppe im Netz, jedoch gut organisiert. Sie würden sich leicht zu erkennen geben, seien jedoch schwer zu erreichen. „Solche Gruppen sind zu verbohrt, da kommt man nicht ran“, sagt Schramm. Selbst wenn solche Kommentare und Gruppen von Facebook gelöscht würden, gründeten sie schnell eine neue Gruppe oder wichen auf andere Portale aus.

Eine der Herausforderungen für Schramm und ihre Kollegen ist allerdings, dass es im Netz immer mehr Gruppen gibt, die zwar rechte Ideologien verbreiten, sich selbst aber nicht als Nazis bezeichnen und auch nicht so aussehen wie die klassischen „Rechten“. Solche Gruppen sind es vor allem, die zum viel besprochenen Rechtsruck der Mitte beitragen. Wie zum Beispiel die „Identitäre Bewegung“, die vor allem junge Menschen ansprechen möchte. Sie gibt sich als verlorene Generation Y, deren Identitätskrise durch steigende Zuwanderung bedingt ist und schürt so Angst vor sogenannter „Überfremdung“. Mittlerweile hat sie 18 000 Likes auf Facebook, die französische Version, „Génération Identitaire“ sogar 74 000.

Im Netz tarnen sich Rechtsradikale als "besorgte Bürger"


Auf der anderen Seite formieren sich scheinbar vermehrt lokale „Bürgerwehren“ im Netz, beobachtet Schramm. Auf Facebook würden sie ihre Foren als Plattform für „besorgte Bürger“ tarnen. jedoch würden gerade in geschlossenen Foren mehr Anfeindungen und Fehlinformationen verbreitet. „Je geschlossener die Gruppe, desto schärfer der Ton“, sagt Schramm.
Auf frei zugänglichen Foren sind konservative Kommentare von rechten Kommentaren ebenfalls schwer auseinanderzuhalten. „Die Grenzen werden immer fließender“, sagt Schramm, „doch auffallend ist, wie salonfähig bestimmte Ausdrücke geworden sind.“ Viele Nutzer sozialer Netzwerke wüssten nicht, dass Worte wie „Asylant“, „Kinderschänder“ oder auch „Lügenpresse“ aus dem rechten Metier kämen. Dass solche Wörter jedoch in den geläufigen Sprachgebrauch übergehen, macht es ebenfalls schwerer, zwischen rechter Gesinnung und bloßer Unwissenheit zu unterscheiden. „Viele, die auf solche Foren im Netz stoßen, sind sich zunächst nicht bewusst, dass sie auf rechten Seiten sind und deshalb gewillter anzunehmen, was sie dort lesen. Bis sie eventuell selbst von den rechten Ideologien überzeugt sind“, erläutert Schramm. Sie und ihre Kollegen versuchen vorher einzugreifen und aufzuklären.

Trolle verfolgen weniger eine politische Agenda


Die Arbeit für No-Nazi.net erschwert sich auch dann, wenn Rechte nicht eigene Foren gründen, sondern bei anderen große Online-Plattformen mitmischen. Gerade Frauen würden Internetseiten wie Chefkoch.de oder Kleiderkreisel.de, wo es eigentlich um Kochen und Mode geht, nutzen, um dort Debatten über Zuwanderung, Feminismus oder sexuelle Orientierung zu entfachen. Oft geben sich rechte Frauen in solchen Foren als Mütter aus, die sich um das Wohl ihrer Kinder sorgen. „Das kann anfangen bei der Behauptung, die vielen Ausländer seien verwirrend für die Kinder, und enden mit der Aussage, man müsse Schwarze umbringen, bevor sie sich an den Kindern vergreifen“, sagt Schramm. Gerade bei Frauen würden solche Aussagen eher geduldet als bei Männern, weil viele Menschen Frauen seltener böse Absichten zuschrieben, sagt Schramm. Dabei würden rechtsradikale Frauen sehr gezielt hetzen, nicht nur im Netz, sondern auch in Kindertagesstätten oder Schulen.
Dass sich die Hetze im und außerhalb des Netzes nicht pauschalisieren lässt, ist auch an den verschiedenen Ausrichtungen der Gruppen zu merken. So gibt es Gruppen wie „Jewgida“, eine Unterkategorie der Pegida-Bewegung, die sich zwar gegen Antisemitismus, aber auch gegen die angebliche Islamisierung einsetzt.

Attacken können Traumata auslösen

Grundsätzlich unterschieden werden muss allerdings zwischen denjenigen, die aus ideologischen Gründen Hass im Netz verbreiten – und den sogenannten „Trolle“, die weniger eine politische Agenda verfolgen, sondern eine Befriedigung daraus ziehen, andere Nutzer im Netz anzugreifen. Trolle posten meist anonymisiert in sozialen Netzen, unter Arikeln oder Videos. Ihr Ziel ist, das zu erreichen, was andere tunlichst verhindern wollen: einen Shitstorm auslösen. Wenn sich „Trolle“ auf individuelle Personen fixieren, kann das verheerende Folgen haben. „Solche Attacken terrorisieren die Betroffenen regelrecht und können bei ihnen Traumata auslösen“, sagt Schramm.

Wichtig sei es, sich in solchen Fällen Hilfe zu holen, um Depressionen oder Stressattacken vorzubeugen. Oft würden sich Trolle auf Frauen oder Minderheiten fixieren, gerade wenn sie sich für eine Sache einsetzten – oft mit Wirkung. „Viele Aktivisten ziehen sich aus dem Netz zurück. Das ist schade, aber nachvollziehbar“, sagt Schramm.

Doch wie geht man am besten mit Hasskommentaren um? Das sei jeweils von Fall zu Fall verschieden, erläutert Schramm. Ignorieren, diskutieren, ironisieren – wobei sie sich selbst nicht mehr auf Diskussionen mit den Hetzern einlassen will. Denn viele würden mit nur noch mehr Hass reagieren.
Für die Facebook-Feuerwehr in Dublin wieder ein Brand mehr, den es zu löschen gilt. In Gesellschaft von Rettungsschwimmer David Hasselhoff.

Zur Startseite