zum Hauptinhalt
Mit Internet-Hassbotschaften verhält es sich ähnlich wie mit Spam-Mails. Ganz wird man sie nicht mehr los.

© Jens Schulze, epd

Digitale Putztruppe: Programme gegen den Hass

Den Hass im Internet können smarte Programme, wie sie eine Firma aus Bernau entwickelt hat, bekämpfen. Bei Fake News sieht die Situation allerdings anders aus.

Mit Hassbotschaften im Internet verhält es sich wie mit Spam-Mails. Es gibt zwar inzwischen Wege, sich diese Ärgernisse vom Hals zu schaffen, aber das Problem an sich wird man nicht mehr los. Oder anders gesagt: Wer im Internet ein Kommentarforum betreibt, muss allein schon wegen der juristischen Haftung ständig gegen Trolle und Hassmail-Versender ankämpfen. Viele Medienhäuser haben die Kommentarfunktion auf ihren Webseiten zu bestimmten Zeiten eingeschränkt, zu Plattformen wie Facebook verlagert – oder ganz eingestellt. Vor allem jetzt, vor der Bundestagswahl, nimmt das Problem mit Hate Speech und beleidigenden Kommentaren nochmals zu, hat Sven-Uwe Janietz beobachtet. Das von ihm mitgegründete Unternehmen ferret go – abgeleitet vom englischen to ferret out oder übersetzt aufspüren oder aufstöbern – hat eine Software entwickelt, mit der die Kommentarseiten des Internets von solchem Unrat befreit werden können.

Täglich werden in den Kommentarseiten von Zeitungen, Zeitschriften sowie Radio- und Fernsehsendern eine Million Posts abgesetzt, auf den dazugehörigen Facebookseiten kommen noch einmal eine Million Nutzerkommentare hinzu, rechnet Janietz vor. Per Hand kommen die Community-Manager mit dem Aufräumen kaum noch hinterher. Mit einem Filterprogramm kann der Kommentarbereich dagegen sogar nachts offengehalten werden. Für öffentlich-rechtliche Rundfunkanstalten gibt es noch einen weiteren Grund, auf technische Hilfe zu setzen. Aus dem Umstand, dass jeder Haushalt seinen Gebührenbeitrag leisten muss, leiten viele Internetnutzer die Pflicht der Sender ab, Kommentarforen zu unterhalten.

Verstehen wie Siri oder Echo

Ferret go mit seinen 15 Mitarbeitern sitzt in Bernau, nördlich von Berlin. Die meisten Mitarbeiter pendeln zwar täglich von Berlin nach Bernau, aber immerhin ein Drittel der Beschäftigten stammt aus dem Ort. Das Haus im Zentrum von Bernau verdient dabei den Namen Altbau in besonderer Weise: Das Fachwerkhaus ist inzwischen über 200 Jahre alt, an einer Wand prangt ein Hirschgeweih. Technologisch sind die Bernauer auf der Höhe der Zeit. Computerlinguistische Anwendungen erleben gerade ein immenses Wachstum. Erst durch Computersysteme, die in der Lage sind, die menschliche Sprache in ihrer Bedeutung zu analysieren, sind Assistenzsysteme wie Apples Siri oder Amazon Echo möglich.

Von echtem Verständnis könne jedoch nicht gesprochen werden, schränkt ferret-go-Geschäftsführer Daniel Köllner ein. Man dürfe sich das nicht so wie in einer Mensch-zu-Mensch-Kommunikation vorstellen, sagt er. Verständnis und Maschinelles Lernen haben mehr mit Wahrscheinlichkeiten zu tun. Dabei sind die Programme inzwischen überaus erfolgreich. Die Fehlerquote beim Verstecken von Kommentaren, die gegen die Regeln verstoßen, Hassbotschaften enthalten oder Beleidigungsstraftatbestände enthalten, liegt bei unter vier Prozent und verbessert sich stetig. Was unter anderem daran liegt, dass die Programme ständig dazulernen. Einerseits durch die Auswertung von Millionen von Forumsbeiträgen, andererseits, in dem sie analysieren, wie die Community-Redakteure entschieden haben.

Viel geholfen ist manchmal schon, wenn jene Fake-Profile in den Kommentarbereichen der Medien oder bei den sozialen Netzwerken erkannt werden, die nur dem Ziel dienen, die Identität dahinter zu verschleiern, weil der dazugehörige Nutzer zuvor bereits mehrfach rausgeschmissen wurde. Viele dieser Hass-Schleudern sind für die Filtersysteme zum Glück immer noch hinreichend identifizierbar.

Allerdings gibt es gute Argumente, die gegen den Software-Einsatz sprechen. Der Tagesspiegel hat sich zum Beispiel bewusst gegen solche Programme entschieden, weil man sich durch das maschinelle Filtern unter Umständen die Chance nimmt, interessante Hinweise zu erhalten oder sich ein Stimmungsbild zu machen.

Algorithmen sind kein Allheilmittel

Auch sonst ist der Computer als Putztruppe kein Allheilmittel. Im Kampf gegen Fake News, also gegen bewusste Falschmeldungen, sind selbst lernende Algorithmen machtlos. Vom Prinzip her wird bei der rein technischen Prüfung eine beliebige Aussage mit Informationen aus Quellen verglichen, die als gesichert gelten. Doch die Resultate sind längst nicht so zuverlässig wie zum Beispiel bei der Abwehr von Hate Speech. „Wir haben das getestet, aber die Ergebnisse halten unserem Qualitätsanspruch nicht stand“, sagt dazu Daniel Köllner. Der Fake-News-Angriff auf die Bundeswehr in Litauen in dieser Woche hat überdies gezeigt, dass solche Falschmeldungen häufig nur durch journalistische Recherchen vor Ort und nicht durch Computerprogramme zu entlarven sind.

Hinzu kommt ein anderes Problem. Dass ein möglicherweise beleidigender Kommentar zunächst versteckt wird, weil der Community Manager ihn erst später prüfen kann, wird von den Nutzern möglicherweise noch geduldet. Einen Kommentar fälschlicherweise mit der Begründung abzulehnen, es handle sich um Fake News, zieht den sofortigen Zensurvorwurf nach sich. „Schon wenige Prozent Fehlerquote können bei der Erkennung von Fake News vernichtend sein.“ Besonders vor einer wichtigen Entscheidung wie der Bundestagswahl.

Zur Startseite