zum Hauptinhalt
Protest gegen die Militärregierung von Myanmar in Bankok im Juli 2022. Digitale Berichterstatter sind immer dabei.

© IMAGO/ZUMA Wire / IMAGO/Adryel Talamantes

Digitaler Kolonialismus: Daten als Rohstoff und Machtmittel

Auf Kosten des Globalen Südens entwickeln Tech-Giganten ihre Produkte. Jetzt beginnt die Wissenschaftsszene, darüber zu diskutieren – auch in Berlin.

Jeder Like auf Instagram, jeder Post auf Facebook, jeder Griff zum Smartphone fußt auf Strukturen, die in aller Regel der westlichen Welt beziehungsweise dem Globalen Norden dienen – auf Kosten des Globalen Südens. Digitaler Kolonialismus ist kein Begriff, der in aller Munde ist. Und doch begegnen uns seine Auswirkungen tagtäglich. „Eine Debatte darüber findet kaum statt“, sagt die Politikwissenschaftlerin Lena Ulbricht vom Weizenbaum Institut, dem Deutschen Internet-Institut mit Sitz in Berlin.

Deutschland sehe sich insgesamt immer noch nicht als Kolonialmacht, Diskussionen über Kolonialismus oder Dekolonialisierung kämen zu kurz, kritisiert Ulbricht. Wie tief der digitale Kolonialismus wurzelt, beschäftigt aber zunehmend nicht nur Soziolog:innen, auch Informatiker:innen reflektieren mehr und mehr die Wechselwirkungen von technischem Fortschritt und der Gesellschaft. Einig sind sich alle: Um etwas zu verändern, muss zuallererst das Bewusstsein dafür geschaffen werden.

Was genau ist digitaler Kolonialismus? Der Soziologe Michael Kwet mehrere Studien dazu verfasst, unter anderem seine Doktorarbeit, und ist als Postdoc aktuell an der Yale Law School. Der klassische Kolonialismus baute auf Besitz und Kontrolle über Territorium und Infrastruktur auf, ebenso wie die Ausbeutung von Arbeitskräften, Wissen und Rohstoffen, schreibt Kwet in einem Essay des Transnational Institute.

Wir überschwemmen andere Länder mit unserer Technik und stülpen ihnen unsere weißen Plattformen über.

Rainer Rehak, Informatiker am Weizenbaum-Institut

Der digitale Kolonialismus umfasst ähnliche Parameter: Dominante Mächte nutzen und kontrollieren die Daten und digitale Infrastruktur, um den Globalen Süden auf Dauer von sich abhängig zu machen und auszubeuten. Dabei werden Daten als die neuen Rohstoffe gehandelt.

Rainer Rehak kann diese Machtasymmetrie nur bestätigen. Der Informatiker schreibt derzeit an seiner Dissertation am Weizenbaum-Institut und ist Teil des gemeinnützigen Vereins „Forum InformatikerInnen für den Frieden und gesellschaftliche Verantwortung“. Er verweist darauf, dass sich die kolonialen Prägungen auch in den technischen Strukturen wiederfinden.

„Wir überschwemmen andere Länder mit unserer Technik und stülpen ihnen unsere weißen Plattformen über“, sagt er. Bestes Beispiel dafür sei Myanmar. Bis 2010 war das Land komplett von der Außenwelt abgeschottet – ohne Handys, ohne Internet.

Abgeschöpft und instrumentalisiert werden Berichten zufolge auch Migranten in Flüchtlingsheimen.
Abgeschöpft und instrumentalisiert werden Berichten zufolge auch Migranten in Flüchtlingsheimen.

© imago/Winfried Rothermel / imago stock

Die burmesische Journalist:in Aye Min Thant berichtete auf dem Digitalfestival re:publica 2022 davon, wie aggressiv die Plattform Facebook in das Land kam. „Die Leute kamen in Scharen zu uns und zeigten der Bevölkerung, wie man die tollen glänzenden Sachen benutzt“, sagte Min Thant. Als sich im Internet schnell ein Mob radikalisierte, der sich in die reale Welt übertrug, kam es zu regelrechten Gewaltwellen.

Wie Flüchtlinge mit ihren Augen zahlen

Tech-Firmen schlussfolgerten daraus, dass wohl digitale Kompetenz fehle. „Als wären wir nicht in der Lage, das Internet richtig zu nutzen“, sagte Min Thant. Mit dieser Uminterpretation würden die Firmen den Nutzer:innen die Schuld zuweisen, anstatt das Problem im Produkt zu suchen. „Sie geben ihre Verantwortung für ihr Werk ab und sind niemandem Rechenschaft schuldig“, sagte Min Thant.

Gleichzeitig tragen große Tech-Unternehmen auch westliche Konzepte in Kulturen hinein, die vielleicht ganz anders funktionieren, sagt Informatiker Rehak. Ein Beispiel seien soziale Interaktionen: „Facebook sagt dir, das ist ein Freund, so kommuniziert ihr miteinander. Wie das gesamte Netzwerk aufgebaut ist, basiert allerdings auf den Vorstellungen von weißen Männern aus der Tech-Szene.“

Vielleicht agieren verschiedene Kulturen aber ganz anders miteinander, etwa mit mehr Bildern. Rehak ist überzeugt, dass die technischen Möglichkeiten auch viele andere Varianten erlauben würden. Stattdessen würden andere Ansätze zerstört und die epistemische Ebene – wie man mit Wissen umgeht – ausgelöscht werden.

Datenschutz ist auch Menschrecht, das vor allem im Globalen Norden eingehalten wird, während Wohlstand auf dem Globalen Süden fußt, wo diese Rechte nicht herrschen.

Lena Ulbricht, Politikwissenschaftlerin am Weizenbaum-Institut

All diese Plattformen funktionieren jedoch nur mit Menschen. Zum einen sind das die User:innen, zum anderen aber auch die, die für das Netzwerk arbeiten oder deren Daten zur Entwicklung der Software benutzt wurden. Wie Michael Veale, Professor für Informationstechnologie am University College London, in einer Studie schreibt, kommen in maschinell lernenden Systemen geografische Ungleichheiten vor. So werde Arbeit oft in billigere Märkte, wie etwa in die Philippinen, ausgelagert.

Daten, die nur aus „westlicher“ Perspektive erhoben werden, bilden Ungleichheiten nicht ab, kritisiert ein Experte.
Daten, die nur aus „westlicher“ Perspektive erhoben werden, bilden Ungleichheiten nicht ab, kritisiert ein Experte.

© imago images/YAY Images

Doch auch die Daten, die in die Systeme eingespeist werden, um daraus zu lernen, werden oft unter prekären Umständen gesammelt. Veale schreibt von „unethischen Experimenten“, in denen die Trainingsdaten gesammelt werden. Auch Politikwissenschaftlerin Lena Ulbricht sieht „schockierende Praktiken“ weltweit, um an die digitalen Rohstoffe zu kommen. So würden viele westliche Firmen Daten aus Regionen nehmen, die kein Datenschutzgesetz haben. Oder vulnerable Gruppen nutzen.

Die Zeitung „Le Monde diplomatique“ berichtete darüber, wie in einem jordanischen Flüchtlingscamp Geflüchtete als Testpersonen mit ihren Augen zahlen. Paul Currion, ein unabhängiger Berater für humanitäre Fragen, bezeichnet die Geflüchteten der Zeitung gegenüber als „Versuchskaninchen für neue biometrische Anwendungen“.

Viele denken: Ich habe ja nichts zu verbergen

Der Ansatz hierzu sei nicht neu: Dem US-Experten Michael Kwet zufolge testeten imperiale Mächte seit Jahrhunderten Technologien zur Überwachung und Kontrolle in ihren Kolonien. Angefangen mit der Anwendung von Fingerabdrücken in Indien und Südafrika bis hin zur Biometrie, Statistik und Datensammlung auf den Philippinen. Basierend auf diesen Methoden stellt Kwet im Paper „Digital colonialism. The evolution of US empire“ die These auf, dass Afrika für die Hightech-Überwachungsprojekte von Microsoft als Labor für den Strafvollzug diene.

Über diese Praxis berichten auch weitere Expert:innen. So beschreibt Mirca Madianou, Professorin für Medien und Kommunikation an der University of London, im Magazin „Social Media + Society“, wie technologische Innovationen gerade von Flüchtlingskrisen profitieren, indem sie dort Daten abgriffen.

Aber warum ist das Datensammeln überhaupt ein Problem? „Viele denken vielleicht zunächst, ich habe ja nichts zu verbergen“, sagt Lena Ulbricht vom Weizenbaum Institut. Die Menschen hätten jedoch keine Kontrolle darüber, was mit ihren Daten passiert. Sie seien dadurch angreifbar für möglichen Missbrauch. „Datenschutz ist auch Menschrecht. Und dass dieses vor allem im Globalen Norden eingehalten wird, während dessen Wohlstand und wirtschaftliche Stabilität auf dem Globalen Süden fußt, wo diese Rechte nicht herrschen, ist ein koloniales Problem“, sagt sie.

Nicht nur die Datenerhebung ist problematisch. Auch die Qualität der Daten ist ein wichtiger Punkt, wenn es um die herrschende Ungerechtigkeit geht, findet Informatiker Rainer Rehak. Und was sie über uns aussagt. „Man muss sich das so vorstellen: Wir trainieren Maschinen mit Daten aus der Vergangenheit, damit sie daraus lernen. Wir nehmen also an, dass sich die Zukunft wie die Vergangenheit verhält.“ Warum das nicht einwandfrei funktioniert, erklärt Rehak so: „Mit einer Künstlichen Intelligenz Vorhersagen zu machen, ist wie Auto zu fahren und dabei nur in den Rückspiegel zu schauen.“

Die Daten können jedoch unvollständig, oder – weil sie nur in einem Teil der Welt erhoben wurden – nicht auf die Gesamtbevölkerung anwendbar sein. Doch auch eine vollständige Datenbasis wäre nicht die Lösung. „Eine exakte Erhebung unserer Gesellschaft würde auch alle strukturellen Ungleichheiten und Diskriminierungen mit abbilden“, sagt Rehak.

Für den Informatiker liegt hier genau das Problem „Wir glauben, dass es einen Tech-Fix gibt. Dass die Systeme nur besser gebaut werden müssten, um wirklich objektiv zu sein, aber Daten sind nie objektiv.“ Viel sinnvoller wäre es, sich vorher zu überlegen, was man mit der Technik eigentlich erreichen will und entsprechend andere Kriterien zu nutzen.

Um möglichst viele Menschen dafür zu sensibilisieren, spricht Rehak das Thema auch bei seinen Student:innen an. Es gebe durchaus auch kritische Fachschaften, die sich mit den kolonialen Perspektiven der Technik befassen. Aber eigentlich „leben wir immer noch hinter dem Mond, was das angeht“, sagt er. Zugleich weist der Informatiker auf die Grenzen hin. „Die Entscheidungen trifft das Management. Da haben die Techniker eher wenig Mitspracherecht.“

Digitale Technologien seien immer in einer Struktur eingebunden, das sieht auch die Wissenschaftlerin Ulbricht so. Um wirklich etwas zu verändern, müsse man an verschiedenen Punkten ansetzen und auch stärkere Kontrollen auf struktureller Ebene einfordern.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false