Zum Corona-Überblick: Alle Zahlen zu SARS-CoV-2 in Deutschland
Von der Regierungsbank zum Social Network: Nick Clegg Foto: REUTERS/Stefan Wermuth/File Photo
© REUTERS/Stefan Wermuth/File Photo

Facebook-Manager über rechtswidrige Inhalte „Wir fühlen uns unwohl dabei, wie ein Gericht entscheiden zu müssen“

Nick Clegg gilt als der "Außenminister von Facebook". Im Interview spricht er über den Kampf gegen Hassrede im Netz und Gratwanderungen der Meinungsfreiheit.

Nick Clegg (52) ist Vice President of Global Affairs and Communications bei Facebook. Zuvor war er Vize-Premierminister von Großbritannien und Parteichef der Liberal Democrats.

Herr Clegg, Sie waren früher Vize-Premierminister von Großbritannien, nun sind Sie als Vice President of Global Affairs and Communications so etwas wie der „Außenminister“ von Facebook. Was ist schwieriger: Großbritannien zu regieren – oder für einen Konzern wie Facebook zu arbeiten?

Beides ist eine Herausforderung. Zwar unterscheidet sich meine neue Rolle bei Facebook sehr stark von dem, was ich 20 Jahre lang in der Politik getan habe, aber doch gibt es eine Gemeinsamkeit: Schwierige Probleme werden nicht gelöst, indem man sie ignoriert, sondern indem man sie angeht.

Zu diesen Problemen gehört auch das Thema Hassrede. Nach der  Ermordung des Kasseler Regierungspräsidenten Walter Lübcke (CDU) wurde dessen Tod auf Facebook-Seiten gefeiert, zuvor wurde dort gegen ihn gehetzt. Warum wird das von Facebook toleriert?

Das tolerieren wir ganz und gar nicht. Nach den furchtbaren Umständen, unter denen Herr Lübcke getötet wurde, haben wir auf Facebook jede Verherrlichung des mutmaßlichen Mörders oder der Tat gelöscht, sobald uns Nutzer darauf aufmerksam gemacht haben oder unsere Mitarbeiter selbst darauf aufmerksam geworden sind.

Aber gerade die Nutzer von einschlägigen Facebook-Seiten, auf denen entsprechend gehetzt wird, stören sich ja nicht an diesem Hass, im Gegenteil. Sie werden solche Inhalte deshalb sicher nicht den Löschteams von Facebook melden.

Wir haben das Team, dass sich um Sicherheitsthemen kümmert, auf über 30.000 Personen vergrößert. Davon prüfen rund 15.000 Leute selbstständig Inhalte. Zunehmend helfen uns auch neue Technologien, um unzulässige Inhalte schneller zu finden und zu entfernen. Zum Beispiel können wir mithilfe von Künstlicher Intelligenz etwa 99 Prozent der Inhalte, in denen die Terrorgruppe Isis verherrlicht wird, löschen, bevor sie gemeldet worden sind.

Warum können Sie Ihre Algorithmen dann nicht auch dafür nutzen, dass etwa Verherrlichungen von Lübckes Mord automatisch erkannt und schneller gelöscht werden?

Hier geht es nicht um Algorithmen. Für die meiste Arbeit, die wir in diesem konkreten Fall machen, brauchen wir Menschen, die Inhalte überprüfen. Und es ist wichtig, dass uns Nutzer diese Inhalte melden. In manchen Bereichen helfen neue Technologien beim Erkennen von unzulässigen Inhalten sehr, in anderen Bereichen ist das schwieriger.

Bundespräsident Frank-Walter Steinmeier verneigt sich nach dem Eintrag in das Kondolenzbuch für den ermordeten Kasseler Regierungspräsidenten Walter Lübcke (CDU). Foto: dpa Vergrößern
Bundespräsident Frank-Walter Steinmeier verneigt sich nach dem Eintrag in das Kondolenzbuch für den ermordeten Kasseler Regierungspräsidenten Walter Lübcke (CDU). © dpa

Nach Lübckes Tod hat sich Bundespräsident Frank-Walter Steinmeier besorgt über Hass und Hetze gezeigt: „Wo die Sprache verroht, ist die Straftat nicht weit.“ Stimmen Sie ihm zu?

Ja, selbstverständlich stimme ich ihm zu - aber bitte: Vergiftete, ordinäre oder beleidigende Sprache ist doch keine Erfindung des Silicon Valley, sondern sie gehört leider nun mal zur menschlichen Natur dazu - und auch wir werden Menschen leider nicht davon abhalten können, schreckliche Dinge zueinander zu sagen. Jede Technologie ist bisher dafür genutzt worden, um Gutes und Schlechtes zu tun. Denken Sie etwa an das Radio, das vielen Menschen große Freude gebracht hat, aber ebenfalls von Demagogen zu Propaganda und Hetze genutzt worden ist.

In sozialen Medien können solche Inhalte aber heute innerhalb von Sekunden weltweit verbreitet werden, mit insgesamt 2,7 Milliarden Nutzern ist Facebook quasi so groß wie ein eigener Kontinent.

Sicher ist das eine neue Dimension, aber auch ein Mark Zuckerberg wird die menschliche Natur nicht ändern können. Wir tun unser Möglichstes, um gute Inhalte zu fördern und schlechte zu minimieren. Dabei müssen wir aber auch austarieren, wo die jeweiligen Grenzen sind. Was in einem Land als Hassrede gilt, gehört in einem anderen Land zur Meinungsfreiheit dazu. Wo die Grenzen gezogen werden, ist deshalb eine heikle Angelegenheit.

In Deutschland etwa ist die Leugnung des Holocausts verboten, in Amerika aber durch das Recht auf freie Meinungsäußerung gedeckt. Bei weniger eindeutigen Fällen soll Ihnen künftig ein externes Aufsichtsgremium helfen, das über besonders „kritische Fälle“ entscheiden soll. Warum gründen Sie dieses Gremium?

Weil wir zu dem Schluss gekommen sind, dass die Letztentscheidung darüber, welche Inhalte gelöscht werden, nicht von Facebook getroffen werden sollte. Dem Gremium werden rund 40 Expertinnen und Experten angehören, wie zum Beispiel Wissenschaftler, Juristen, Journalisten und Datenschützer. Sie werden über strittige Fragen beraten, die ihnen Facebook-Nutzer oder Facebook selbst vorstellt. Die Experten werden über einzelne Inhalte entscheiden. Das Gremium soll noch in diesem Jahr gegründet werden, die Entscheidungen des Gremiums sind für Facebook bindend.

Geht es Ihnen darum, Verantwortung für heikle Fälle auszulagern?

Nein, wir wollen uns sicher nicht unserer Verantwortung entledigen. Wir wollen vielmehr das Vertrauen der Nutzer erhöhen und eine höhere Verantwortlichkeit für den Umgang mit Inhalten erreichen. Selbstverständlich wird Facebook weiterhin selbst verantwortlich dafür sein, dass unsere Nutzungsbedingungen, Gemeinschaftsstandards und Richtlinien eingehalten werden.

Im Zweifel werden am Ende aber Gerichte entscheiden, welche Inhalte gelöscht oder reaktiviert werden müssen. Kann das Gremium also tatsächlich mehr sein als eine PR-Maßnahme?

Sicher sind Gerichtsurteile für uns bindend, und wir entfernen selbstverständlich Inhalte, die illegal sind. Es geht aber um die sehr schwierige Grauzone. Darin soll das Gremium entscheiden, welche Inhalte auf der Seite bleiben und in welcher Form. Oder welche Inhalte womöglich wieder reaktiviert werden sollen, falls wir sie aus Sicht des Gremiums fälschlicherweise gelöscht haben.

Auch aufgrund von Skandalen wie Cambridge Analytica haben Nutzer zunehmend weniger Vertrauen in Facebook. Werden Maßnahmen wie das Aufsichtsgremium ausreichen, um dieses zurückzugewinnen - oder ist ein radikalerer Ansatz notwendig?

Sicher hat der Fall Cambridge Analytica Facebook einen großen Schaden zugefügt, und einmal verlorenes Vertrauen zurückzugewinnen ist nie leicht. Mehr Transparenz schafft mehr Vertrauen. Das Aufsichtsgremium wird und kann sicher nicht die alleinige Lösung sein, aber ein Teil davon. Es geht darum, dass wir an der Regulierung des Internets weiter arbeiten, zusammen mit den Regierungen.

Die deutsche Regierung arbeitet derzeit etwa an einer Verschärfung des Netzwerkdurchsetzungsgesetzes (NetzDG), wonach soziale Medien etwa rechtswidrige Inhalte entfernen oder den Zugang zu ihnen sperren müssen. Ist diese Verschärfung in Ihrem Sinne?

Wir haben nie einen Hehl daraus gemacht, dass wir uns unwohl fühlen mit der Rolle, wie ein Gericht handeln zu müssen und zu entscheiden, dass wir Inhalte von der Plattform nehmen müssen - nur um dann von einem Gericht dazu verpflichtet zu werden, den Beitrag wieder zu veröffentlichen. Aber selbstverständlich sind wir bereit, uns an einer Weiterentwicklung des Gesetzes zu beteiligen und uns dann danach zu richten.

Ist Deutschland in Sachen Regulierung eigentlich das Land, das Facebook am stärksten herausfordert?

Am stärksten herausfordernd würde ich nicht sagen, aber sicher ist die Debatte über die Rolle der sozialen Medien und die Risiken der neuen Technologien hier besonders intensiv - was ich gut und richtig finde. Meine Bitte ist jedoch, die Sorgen und Bedenken nicht so groß werden zu lassen, dass sie am Ende zu einer Ablehnung führen. Es wäre schade, wenn Leute, die Schlechtes mit dem Netz und neuen Technologien tun, am Ende diejenigen überschatten, die Gutes wollen oder von den Chancen der Technologien enorm profitieren können. Zwischen den beiden Extremen Euphorie und Angst müssen wir ein vernünftiges Gleichgewicht finden.

Zur Startseite