Die Plattformen beginnen, auf die Inhalte zu schauen. Foto: picture alliance / Franz-Peter T
© picture alliance / Franz-Peter T

US-Plattformen löschen neuerdings Inhalte Twitter, Youtube und Facebook bewegen sich - aber das reicht nicht

Die großen Social-Media-Dienste zeigen endlich nicht mehr jede Fake News. Doch es ist viel zu intransparent, nach welchen Regeln sie löschen. Ein Kommentar.

Jahrelang sträubten sich Plattformbetreiber wie Facebook, Twitter oder Google dagegen, gesellschaftliche Verantwortung zu übernehmen. Wenn es um den Hass in den sozialen Netzwerken ging, beriefen sie sich stets auf einen US-amerikanischen Begriff von Meinungsfreiheit: Jeder darf alles sagen, so lange nicht die sehr vage formulierten Gemeinschaftsstandards verletzt werden.

Das führte zu absurden Situationen: Während bestimmte Formen von Nacktheit Sanktionen zur Folge hatten, konnte man völlig ungestraft gegen Minderheiten hetzen.

Das alles hatte System. Denn das Geschäftsmodell von werbefinanzierten Plattformen besteht darin, Nutzer möglichst lang am Bildschirm zu halten, um ihnen möglichst viel Werbung zu zeigen. Am besten gelingt das mit lauten, möglichst meinungsstarken Inhalten.

Youtube zum Beispiel ist bekannt dafür, einen Algorithmus einzusetzen, der Nutzern mit fortdauernder Zeit immer radikalere Videos anzeigt. Zuschauer verschwinden auf diese Weise im „Kaninchenbau“ – jede neue Videoempfehlung bringt einen tiefer in die dunklen Gänge extremistischer Ideenwelten. Und auch Facebook hat jahrelang extreme Meinungen sichtbar gemacht, sofern sie genug Interaktionen hervorriefen.

Die Betreiber der Plattformen beginnen, die Folgeschäden zu begreifen

Doch langsam scheint sich eine Wende abzuzeichnen. In der vergangenen Woche hat Youtube zehntausende Videos von Anhängern der „QAnon“-Verschwörungsideologie gelöscht. Facebook verbietet seinen Nutzern seit einigen Tagen, den Holocaust zu leugnen und verkauft keine Anzeigenplätze mehr an Impfgegner. Offenbar haben die Plattformbetreiber begriffen, dass ihre immer schneller laufende Interaktionsmaschine im aufgeheizten Meinungsklima des Jahres 2020 unabsehbare Folgeschäden produzieren könnte.

[Wenn Sie alle aktuellen Entwicklungen zur Coronavirus-Pandemie live auf Ihr Handy haben wollen, empfehlen wir Ihnen unsere App, die Sie hier für Apple- und Android-Geräte herunterladen können  ]

Bisweilen jedoch dringen die Plattformbetreiber dabei auch in Bereiche vor, in denen Eingriffe in den politischen Meinungsbildungsprozess heikle Folgen haben können. So drosselten Facebook und Twitter die Verbreitung einer Recherche der Boulevardzeitung „New York Post“ zu angeblichen Enthüllungen über Joe und Hunter Biden. Im Falle von Facebook geschah dies sogar noch, bevor der Faktencheck beendet worden war. Grund dafür war die Furcht vor Wahlmanipulation.

Der Bericht über die Biden-Familie wies zwar eklatante Argumentationslücken auf. Aber er kam eben auch von einer recherchierenden Zeitungsredaktion. Wenn Plattformen sich nun zu Richtern über Wahrheit und Falschaussage im Journalismus erheben: Ist das wirklich die Form von Kontrolle, die man sich auch mit Blick auf die kommende Bundestagswahl wünschen kann?

Die Plattformen müssen ihre Entscheidungen begründen können

Soziale Netzwerke haben in den vergangenen zehn Jahren eine enorme gesellschaftliche Bedeutung gewonnen. Sie ähneln dabei Stromnetzbetreibern: Facebook, Twitter und Google sind Anbieter von Kritischen Infrastrukturen zum politischen Austausch. Natürlich haben sie dadurch auch eine Verantwortung dafür, dass ihre Systeme störungs- und diskriminierungsfrei laufen.

Stromnetzanbieter müssen beispielsweise nachweisen, dass sie ihre Anlagen vor Cyberangriffen schützen. Genauso sollten soziale Netzwerke konkrete Regeln aufstellen, wie sie mit Wahlmanipulationen umgehen. Twitter hat das im Fall der „New York Post“ getan und die Gründe nennen können, die dazu geführt haben, dass man den Text nicht teilen konnte. Facebook konnte dazu auch auf Nachfrage nichts sagen.

Damit Infrastrukturen zum politischen Austausch in Wahlkampfzeiten reibungslos funktionieren, muss ebenso sichergestellt sein, dass Hassrede nicht aus kurzfristigem Profitstreben heraus bevorteilt wird. Statt solche banalen Selbstverständlichkeiten wie das Verbot der Holocaustleugnung durchzusetzen, sollten die Plattformbetreiber dazu verpflichtet werden, ihre Algorithmen offenzulegen. Nur dann erfahren wir, wie ernst es den sozialen Netzwerken mit ihrer gesellschaftlichen Verantwortung wirklich ist – und ob ihr Geschäftsmodell nicht längst schon zu einer Gefahr für die Demokratie geworden ist.

Zur Startseite