Zum Corona-Überblick: Alle Zahlen zu SARS-CoV-2 in Deutschland

Auch hier behindert Ungarns Premier Orban

Ungarns Premier Victor Orban macht der EU Sorgen. Foto: Emmanuel Dunand/AFP
Migrationspakt, Europawahl Wie gefährlich ist rechte Desinformation im Netz?

Darum sollen Vertreter der Mitgliedsstaaten nun gemeinsam gegen Desinformation vorgehen. Jede Regierung soll ihre Beobachtungen in ein schnelles Alarmsystem einspeisen, um alle anderen im Krisenfall an der Informationsfront zu warnen. Mitte März, knapp zwei Monate vor der Europawahl, wurde das Alarmsystem in einem Brüsseler Konferenzraum eingeweiht. Zur Feier hatte jeder Mitgliedsstaat seine verantwortliche Kontaktperson entsandt.

Pro Land haben nur wenige Personen Zugang zu der Plattform, in Deutschland sind es drei. Melden diese einen Fall, vibrieren die Smartphones der Kollegen in den übrigen EU-Staaten. So sollen die Regierungen der Mitgliedsstaaten schnell reagieren. Doch auch die Arbeit dieser Kontaktpersonen geht am Kernproblem vorbei. Wie die EU-Beamten der East StratCom dürfen sie nur Fälle melden, die von Nicht-EU- Akteuren stammen.

Grund dafür sei auch die Angst vor Störfeuer aus Staaten wie Ungarn, sagt ein deutscher Beamter, der mit den Vorgängen vertraut ist. Denn in Budapest operiert Regierungschef Viktor Orban selbst mit erfundenen Nachrichten, wie etwa dass die EU-Kommission „illegale Einwanderung fördern“ wolle.

Vertreter anderer EU-Staaten fürchten deshalb, dass die ungarische Kontaktperson das Alarmsystem missbrauchen könnte, um angebliche Desinformationskampagnen anderer Mitgliedsstaaten zu melden und so zu provozieren. Jenseits der Aufdeckung von möglicher Einflussnahme aus dem Ausland geschieht jedoch wenig. Denn keine Regierung, und schon gar nicht die deutsche, will ein „Wahrheitsministerium“ einrichten, heißt es im Innenministerium.

Google, Facebook und Twitter sollen es richten

Stattdessen verlegen sich Kommissare und Minister auf einen scheinbar leichten Ausweg: Die Digitalkonzerne Google/Youtube, Facebook und Twitter sollen es richten. Schließlich verdienen sie gut an dem Propagandakrieg auf ihren Plattformen. Je mehr Menschen damit ihre Zeit verbringen, umso mehr Anzeigen können sie verkaufen.

Aber lange wollten sie keine Verantwortung für die Inhalte übernehmen, die über ihre Systeme verbreitet werden. „Wir sind eine Technologiefirma, kein Medienunternehmen“, erklärte etwa Mark Zuckerberg lange Zeit die Rolle seines Konzerns. „Wir bauen nur die Werkzeuge, wir produzieren keine Inhalte.“

Doch diese Neutralität will die EU-Kommission nicht länger gelten lassen. Darum drängt sie die Konzerne im September 2018 zur Unterzeichnung eines freiwilligen Code of Practice. Darin verpflichten sich die Betreiber, die Auftraggeber ihrer Werbung zu nennen und gegen Fake Accounts, also falsche Identitäten auf ihren Webseiten, vorzugehen. Sie sollen Wissenschaftlern ermöglichen, Desinformationen auf den Plattformen zu untersuchen.

Außerdem willigen die Manager von Facebook, Google und Twitter ein, monatliche Berichte an die EU-Kommissare zu übermitteln. „Es ist das erste Mal weltweit, dass die Unternehmen freiwillig selbstregulierenden Maßnahmen zugestimmt haben, um Desinformation zu bekämpfen“, verkündet die Kommission anschließend euphorisch.

Doch ein halbes Jahr später, Mitte März, ist von der Freude nichts geblieben. Julian King, der britische Kommissar für Sicherheit, sitzt an einem langen Tisch vor Fenstern, an denen großformatige Fotos der Queen lehnen. Mitten im Brexit-Chaos weiß er nicht, wie lange er noch in Brüssel arbeiten wird.

Große Probleme auch mit Fake Accounts

Doch ihn sorgt etwas anderes noch mehr. Mit tiefen Falten auf der Stirn sagt er: „Wir haben ein Problem, wenn es um politische Werbung geht. Die Plattformen haben versprochen, etwas zu unternehmen, doch bis jetzt ist nichts geschehen und wir wissen nicht, wie lange es dauert, bis die Systeme in ganz Europa funktionieren.“

Auch wenn es um Fake Accounts gehe, gebe es Probleme, sowie beim ungehinderten Datenzugang für Wissenschaftler, sagt King und demonstriert unfreiwillig die Schwäche des gefeierten Verhaltenskodex. Es gibt keine Sanktionsmaßnahmen gegen Verstöße. So kann King nur beteuern: „Wir üben Druck auf die Plattformen aus und hoffen, dass sie handeln.“ Das aber teilt den Konzernen eine Rolle zu, die noch größere Probleme schafft.

Jahrzehntelang waren Journalisten die Türsteher für den Zugang zu Informationen. Sie recherchierten und entschieden, welche Information gedruckt oder gesendet wurden – und welche nicht. Diese Aufgaben kann heute in der digitalen Gesellschaft jeder übernehmen, der über Smartphone oder Computer verfügt, und Facebook, Google/Youtube oder Twitter ermöglichen die massenhafte Verbreitung.

Mehr als die Hälfte der Europäer bezieht Nachrichten vor allem von den Plattformen. Deren Algorithmen entscheiden, was zuerst gezeigt wird, und folgen dabei bisher allein einer kommerziellen Logik, um sie mit gezielter Werbung zu verbinden.

Google beschränkt mehrere rechtsradikale Nutzer

Aber sollen diese Plattformen auch entscheiden, was wahr ist und was nicht? Käme es dazu, dann wird Zensur privatisiert. Erste Fälle gibt es schon. Anfang März beschränkte Google etwa die Accounts mehrerer rechtsradikaler Nutzer – darunter den von Sellner, der die Kampagne gegen den Migrationspakt zündete. Seitdem kann er keine Anzeigen mehr vor seine Videos schalten und somit kein Geld verdienen.

Das gilt auch für den russischen Staatssender RT. „Facebook und Google löschen nach eigenen Regeln, weil sie sich allein als private Unternehmen begreifen und eine Art digitales Hausrecht durchsetzen wollen“, warnt der Geschäftsführer von Reporter ohne Grenzen, Christian Mihr. „Ihre Plattformen sind jedoch ein Teil der modernen Öffentlichkeit geworden, sodass Menschen dort alles sagen können müssen, was nicht gegen Gesetze verstößt.“

Bei Google gilt das nicht als großes Problem. Mitten in London befinden sich die Konzernbüros in einem Häuserblock, der dem Besucher keinen Zweifel daran lässt, wie potent das Unternehmen ist. Die gesamte Fassade ist in den Farben des Firmenlogos gestrichen. Im neunten Stock arbeitet Google-Manager Jon Steinberg.

Anzeigen sind ein Einfallstor für Desinformation

Wie Facebook auch verdient Google sehr viel Geld damit, dass Menschen für Werbung zahlen, unter anderem für die kurzen Spots, die vor vielen Youtube-Videos eingeblendet sind. Doch diese Anzeigen sind ein Einfallstor für Desinformation und Einflussnahme, wie sich vor allem bei der Brexit-Kampagne zeigte, während derer die EU-Gegner den größten Teil ihres Budgets für solche „dark ads“ ausgaben, die nur solchen Nutzern gezeigt wurden, die zuvor anhand ihres Verhalten im Netz als beeinflussbar eingeschätzt wurden.

Wer für die Werbung zahlt, erfährt der Nutzer aber bisher meistens nicht. In dem Verhaltenskodex, den Google mit der EU vereinbart hat, hat sich Steinbergs Unternehmen nun zwar verpflichtet, das für politische Werbung zu ändern. Das gilt allerdings nur für Spots und Anzeigen, die einen Kandidaten oder eine Partei bewerben. Desinformation mit dem gleichen Ziel fällt nicht darunter.

Im Europawahlkampf hatten zudem viele Parteien ihre Kampagnen bereits ausgerollt, bevor Google das Kennzeichnungssystem startete. Auch Facebook verspricht neuerdings, „alle politischen Werbeanzeigen so zu kennzeichnen, dass du weißt, wer dafür bezahlt hat“. Zunächst fehlte aber die SPD in Facebooks Datenbank – das Problem ist mittlerweile behoben.

Auch Google gibt Wissenschaftlern kaum Einblick

Doch selbst wenn alles funktioniert, bleibt vieles ungelöst. Nachdem vergangenes Jahr bekannt wurde, dass die Analysefirma Cambridge Analytica massenhaft Facebook-Daten nutzte, um im Vorfeld des Brexit-Votums Wähler zu beeinflussen, schloss der Konzern eine Schnittstelle, die es Wissenschaftlern erlaubte, zu analysieren, was auf der Plattform geschieht.

Seitdem wurde Facebook zur Dunkelkammer. Zwar hat der Konzern kürzlich die Schnittstelle wieder geöffnet, doch erlaube die zu wenig Einsicht, kritisieren Forscher. Auch ansonsten gibt der Konzern Wissenschaftlern kaum Einblick, warum einem Nutzer was angezeigt wird.

Auch Google weigert sich, Forscher oder Behörden die Algorithmen prüfen zu lassen, die etwa im Verdacht stehen, Nutzern extreme Videos wie jenes Sellners zu zeigen. Dazu gibt Google-Manager Steinberg nur eine lauwarme Erklärung. „Wir müssen ein Gleichgewicht schaffen dazwischen, Transparenz herzustellen und zu verhindern, das schlechte Akteure unser System missbrauchen.“

Gesetz gegen „unplausible Nachrichten“ in Frankreich

Die französische Regierung will sich auf solche Leerformeln nicht mehr verlassen und erließ darum im vergangenen Dezember ein Gesetz. Das stellt kurzerhand die Verbreitung von „unplausiblen Nachrichten“ in den drei Monaten vor einer Wahl unter Strafe.

Aber wie das praktiziert werden soll, ist trotz des angelaufenen Wahlkampfs bisher nicht geklärt. Es macht zwar, anders als in der übrigen EU, die Transparenzversprechen der Konzerne zur gesetzlichen Pflicht. Die mögliche Klage gegen vermeintlich falsche Nachrichten ist jedoch stark umstritten.

Tatort Christchurch. Auf der Waffe des Attentäters stand: „Hier ist euer Migrationspakt.“ Foto: Sanka Vidanagama/AFP Vergrößern
Tatort Christchurch. Auf der Waffe des Attentäters stand: „Hier ist euer Migrationspakt.“ © Sanka Vidanagama/AFP

Der Senat und zahlreiche Organisationen warnten vor einer Staatszensur, die sich schnell gegen jeden richten könne, etwa nach einem Regierungswechsel. Würde der rechtsextreme Rassemblement National regieren, könnte schnell jede Kritik als „unplausible Nachricht“ verboten werden.

Zwischen derlei Aktionismus und dem vielerorts vorherrschenden Stillstand bleibt eine enorme Unsicherheit: Wie groß das Problem der Desinformation ist, kann niemand verlässlich sagen. „Wir wissen so wenig darüber“, mahnt die US-Politikwissenschaftlerin Rebekah Tromble, und das trotz einer Vielzahl von erschienenen Studien. „Wir wissen nicht, wie viele Menschen tatsächlich in Kontakt mit Falschinformationen kommen, und noch weniger können wir sagen, wie sich das politisch auswirkt“, sagt sie. „Wir wissen nicht, wie viele Menschen durch Desinformation mobilisiert werden und wie viele deshalb ihre Meinung ändern.“

Klar ist jedoch: Das Problem existiert. Darin sind sich die Forscher einig. Und es geht keineswegs nur um bloße Worte, denn diese können schnell zu Waffen werden. Als Mitte März ein Mann im neuseeländischen Christchurch 50 Muslime erschießt, steht auf seiner Maschinenpistole: „Hier ist euer Migrationspakt.“

„Investigate Europe“ ist ein paneuropäisches Journalistenteam, das gemeinsam Themen von europäischer Relevanz recherchiert und die Ergebnisse europaweit veröffentlicht. Spenden der Leser sind ein wichtiger Beitrag, der die Arbeit ermöglicht. Das Projekt wird von der Schöpflin-Stiftung, der Rudolf-Augstein-Stiftung, der Hübner & Kennedy-Stiftung, der norwegischen Fritt-Ord-Stiftung, der Open Society Initiative for Europe, der portugiesischen Gulbenkian Foundation, der italienischen Cariplo-Stiftung und privaten Spendern unterstützt. Zu den Medienpartnern für die Recherche zu Desinformation gehören neben dem Tagesspiegel unter anderem „Diário de Noticias“, „Aftenbladet“, „De Groene Amsterdammer“, „Le Monde“ und „El País“. Außer den Autoren haben Wojciech Ciesla, Daphné Dupont-Nivet (Investico), Ingeborg Eliassen, Juliet Ferguson, Nikolas Leontopoulos, Maria Maggiore, Leila Minano und Paulo Pena beigetragen. Mehr zum Projekt unter: www.investigate-europe.eu

Zur Startseite