zum Hauptinhalt
Freies Internet ja – Bots nein: Tausende Menschen demonstrierten in den vergangenen Wochen wie hier in Stuttgart gegen Upload-Filter anlässlich der inzwischen beschlossenen EU-Urheberrechtsreform.

© Sebastian Gollnow/dpa

Social Bots: Gefährliche Lautsprecher

In sozialen Netzwerken tummeln sich immer mehr Bots – Computerprogramme, die sich als Menschen ausgeben. Eingesetzt werden sie auch zu Propagandazwecken.

Demokratische Gesellschaften wandeln sich durch die Digitalisierung teils radikal. Parteien, Medien und Wissenschaft beginnen erst allmählich zu verstehen, wie im Internet politische Öffentlichkeit erzeugt wird, wie über Inhalte debattiert und wie Wahlentscheidungen getroffen werden. Dabei wächst die Sorge, dass Stimmungen in der Bevölkerung über digitale Kanäle gezielt manipuliert werden könnten. Kurz vor der Europawahl, die zu einer Richtungsentscheidung über die Zukunft der Europäischen Union werden könnte, ist immer wieder die Rede von Social Bots: Computerprogramme, die in sozialen Netzwerken wie menschliche Benutzer agieren. Diese Software wird teils von verschiedenen Interessengruppen mit dem Ziel eingesetzt, den politischen Meinungsbildungsprozess zu beeinflussen. Könnten sie zur Gefahr für die Demokratie werden?

„Die Vorstellung, dass sich Wahlergebnisse mithilfe von Bots direkt beeinflussen lassen, ist sicherlich überhöht – zumindest, wenn man glaubt, eine Partei könne dadurch fünf Prozent mehr oder weniger erhalten“, sagt Martin Emmer, Professor für Publizistik- und Kommunikationswissenschaft an der Freien Universität Berlin. Er ist einer der Gründungsdirektoren des „Weizenbaum-Instituts für die vernetzte Gesellschaft“, eines interdisziplinären Forschungszentrums, in dem die aktuellen gesellschaftlichen Veränderungen im Zusammenhang mit der Digitalisierung untersucht werden.

Bots könnten allerdings Stimmungen und Meinungen in der Gesellschaft beeinflussen, sagt Ulrike Klinger. „Bots kommen heute in allen großen Wahlkämpfen zum Einsatz“, sagt sie. „Sie sind ein kostengünstiges Mittel, um Themen oder Menschen populärer erscheinen zu lassen, als sie in Wirklichkeit sind.“ Ulrike Klinger ist Juniorprofessorin für Publizistik- und Kommunikationswissenschaft an der Freien Universität. Am Weizenbaum-Institut leitet sie die Forschungsgruppe „Nachrichten, Kampagnen und die Rationalität öffentlicher Diskurse“. Gemeinsam mit ihrem Kollegen Tobias Keller von der Universität Zürich hat sie jüngst eine wissenschaftliche Arbeit zum Thema Social Bots in Wahlkämpfen veröffentlicht.

Komplexere Computerprogramme posten wie Menschen

Besonders betroffen, sagt Klinger, sei die Plattform Twitter. Auf Grundlage aktueller Studien sei davon auszugehen, dass rund 9 bis 15 Prozent aller Accounts auf dem bei Politikern und Journalisten beliebten Nachrichtendienst von Algorithmen gesteuert werden. Dabei handele es sich einerseits um passive Bots, die eingesetzt würden, um Follower- und Likezahlen künstlich in die Höhe zu treiben. Andererseits um aktive Bots, die nicht nur liken und folgen, sondern auch Links teilen und sich in Diskussionen einschalten. „Sie sind oft nur schwer als Computerprogramme erkennbar“, sagt Klinger. Komplexere Bots posten meist nicht massenhaft und repetitiv. Sie veröffentlichen – wie Menschen – nur sporadisch und in wechselndem Tonfall. Programmiert sind sie dabei oft darauf, bestimmte Meinungen zu propagieren oder zu unterdrücken.

„Durch den massenhaften Einsatz von Bots lässt sich der Eindruck erwecken, dass sehr viele Menschen eine bestimmte Meinung vertreten, obwohl es sich in Wahrheit vielleicht nur um eine geringe Anzahl handelt“, sagt Klinger. „Sie können also zumindest potenziell gesellschaftliche Mehrheiten und Stimmungen vortäuschen.“ Es sei deshalb gefährlich, wenn Journalisten und Politiker aufgrund von Like- und Follower-Zahlen auf die Bedeutung von Themen oder Personen schlössen. „Wie viele Menschen einer Person folgen oder wie heiß ein Thema in den sozialen Medien diskutiert wird, ist oft weniger relevant als von vielen angenommen“, sagt Klinger.

Bots können aber nicht nur falsche Brisanz und Popularität vorspiegeln, sondern auch den Ton beeinflussen, der in sozialen Netzwerken herrscht. „Um das Diskussionsklima zu drehen, reicht es aktuellen Studien zufolge aus, dass zwei bis vier Prozent der Diskussionsteilnehmer Bots sind“, sagt Ulrike Klinger. Zurückzuführen sei dies auf das Phänomen der „Schweigespirale“. Demnach trauen sich Menschen weniger, ihre Meinung zu äußern, wenn sie denken, damit in der Minderheit zu sein. „Wenn man eine bestimmte Meinung als Mehrheitsmeinung inszeniert, lassen sich andere Meinungen zum Schweigen bringen“, sagt die Wissenschaftlerin.

Facebook & Co. haben kein Interesse daran, Bots zu löschen

Joachim Trebbe, Professor an der Arbeitsstelle Medienanalyse und Forschungsmethoden am Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität, hält die von Bots ausgehende Gefahr für beherrschbar. „Ich bin optimistisch, dass professionelle Journalisten durch verantwortungsvolles Filtern von Informationen gegensteuern können“, sagt er. Institutionen wie etwa die „Tagesschau“ genössen nach wie vor hohes Vertrauen in der Bevölkerung. „Sie werden auch weiterhin eine wichtige Rolle dabei spielen, Informationen einzuordnen und Glaubwürdigkeit zuzuweisen.“ Eine Einschätzung, der sich Martin Emmer anschließt: „Natürlich gibt es Menschen, die sich komplett von traditionellen Medien abwenden und so für Manipulationen durch Bots empfänglich sind“, sagt er. „Die große Mehrheit informiert sich aber aus vielen unterschiedlichen Quellen und kommt mit Bots nur am Rande in Berührung.“

Ulrike Klinger hält dagegen, wie wenig man noch über den Einfluss von Bots wisse – auch weil Plattformen wie Facebook und Twitter einen Großteil der Daten unter Verschluss hielten. „Wir dürfen uns nicht darauf verlassen, dass die Plattformen schon irgendwie das Richtige machen“, sagt sie. „Das sind meist börsennotierte Unternehmen, die vor allem ihren Aktionären verpflichtet sind.“ Als solche hätten sie kein Interesse daran, den Kampf gegen Bots ernsthaft zu betreiben. „Das Kapital dieser Konzerne sind ihre Nutzerzahlen“, sagt Klinger. „Bots und Fake-Accounts zu löschen, schädigt also ihr Geschäftsmodell.“

Freiwillig, fürchtet Ulrike Klinger, würden sich die Betreiber der Plattformen nicht bewegen. Für demokratische Gesellschaften sei es deshalb essenziell, sie gesetzlich stärker in die Pflicht zu nehmen. „Nur wenn die Unternehmen ihre Daten mit unabhängiger Forschung und Wissenschaft teilen, können wir erkennen, wie Bots wirklich arbeiten – und wer ihre Arbeit in Auftrag gibt.“

Dennis Yücel

Zur Startseite