zum Hauptinhalt
Tech-Unternehmen diskutieren, ob KI die Menschheit gefährden könnte.

© stock.adobe/Marco (KI generiert)

„Atomkriegs“-Szenario?: Die Regulierung von Künstlicher Intelligenz spaltet die Ampel

Der Chef von ChatGPT warnt vor den Risiken seiner eigenen Technologie. Auch die Ampel ist einig: Künstliche Intelligenz muss reguliert werden. Wie das gelingen soll, ist aber umstritten.

Es war ein Statement, das alarmierend klang: „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“ Künstliche Intelligenz als Atomkriegs-Szenario – ausgerechnet die Tech-Industrie selbst war es, die diese Woche solch dramatischen Töne anschlug.

Sam Altman, dessen Unternehmen OpenAI ChatGPT entwickelt hat, und andere namhafte KI-Unternehmer sowie Forscher fanden sich unter den Unterzeichnern der Stellungnahme. Mögliche Gefahren: Der Einsatz von KI in der Kriegsführung und zur Verbreitung von Falschinformationen.

Seitdem wird noch stärker darüber diskutiert, wie die Politik mit den Warnungen umgehen soll. Dass Künstliche Intelligenz (KI) reguliert werden muss, ist Konsens. Wie stark – darüber gehen die Meinungen auseinander. Digitalminister Volker Wissing (FDP) spricht sich für eine maßvolle Regulierung aus. Es müsse dafür gesorgt werden, dass einerseits die europäischen Werte wie Transparenz und Demokratie sichergestellt würden. „Andererseits dürfen Systeme Künstlicher Intelligenz bei uns nicht zurückgedrängt werden, weil wir ansonsten neue Abhängigkeiten entstehen lassen“, sagte Wissing. Der in der Europäischen Union geplante sogenannte AI Act soll klare Regeln bringen.

Steckt Kalkül hinter der Panikmache?

Experten und Politiker weisen aber auch darauf hin, dass man sich von dem Warnruf der Branche nicht verrückt machen lassen sollte. Der ist zwar drastisch, aber alles andere als neu. Und vielleicht auch nicht ganz ehrlich.

Zu warnen, dass die Technologie uns ausrotten könnte, aber gleichzeitig den Wettbewerb weiterzuführen, ist Hohn.

Natali Helberger, Professorin für Recht und digitale Technologien an der Universität Amsterdam

Für Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen an der Technischen Universität Darmstadt, handelt es sich – ähnlich wie bei der kürzlich auch von Elon Musk unterzeichneten Forderung nach einem KI-Moratorium – um „Angstmacherei, die den öffentlichen Diskurs auf hypothetische Risiken einer ‚Konkurrenzintelligenz‘ lenkt und aktuelle Risiken beim Einsatz von KI-Systemen ignoriert“.

Noch schärfere Kritik an Altman übt die Professorin für Recht und digitale Technologien an der Universität Amsterdam, Natali Helberger: „Uns davor zu warnen, dass die Technologie uns ausrotten könnte, aber gleichzeitig den Wettbewerb um das schnellste und beste Modell weiterzuführen, ist nicht nur verantwortungslos“, sagt sie. „Es ist Hohn.“

Auch Maximilian Funke-Kaiser, digitalpolitischer Sprecher der FDP-Bundestagsfraktion, zweifelt an der Ernsthaftigkeit von Altmans Aussagen. „Während er in der Europäischen Union die KI-Verordnung anprangert und mit dem Rückzug von OpenAI droht, betont er gleichzeitig vor dem US-Kongress und in offenen Briefen die Risiken und die entscheidende Bedeutung von Kontrollinstanzen. Diese Positionen passen nicht zusammen.“

Noch vor wenigen Tagen hatte Altman mit dem Rückzug seines Unternehmens aus Europa gedroht, würde die EU die angedachten Regeln des AI Acts nicht lockern.

Die Grünen-Politikerin und Digitalexpertin Tabea Rößner sieht Parallelen zu Facebook: Auch das Unternehmen von Mark Zuckerberg habe „zeitweise nach Regulierung gerufen, dann aber Probleme mit der Einhaltung der Datenschutzregeln bekommen“. Dahinter steckt vermutlich Kalkül. Die Männer an der Spitze der Tech-Unternehmen möchten möglichst mitbestimmen, wie die Regeln, an die sie sich halten sollen, am Ende aussehen.

Der Vergleich mit dem Atomkrieg ist sehr alarmistisch.

Doris Weßels, Professorin für Wirtschaftsinformatik

Ronja Kemmer mutmaßt, dass es sich um eine Strategie handeln könnte, die kleinere Wettbewerber aus dem Markt halten soll. Altman habe im US-Kongress selbst angemerkt, „dass es wegen des damit verbundenen Aufwands sowieso nur wenige Unternehmen geben würde, die Vorreiter beim Training von KI-Modellen sein könnten“, sagt die digitalpolitische Sprecherin der Unionsfraktion.

Wie ernst große Tech-Unternehmen es am Ende mit ihren Warnungen meinen, vermag Doris Weßels nicht zu sagen. Die Professorin für Wirtschaftsinformatik an der Fachhochschule Kiel meint: „Der Vergleich mit dem Atomkrieg ist natürlich sehr alarmistisch, aber wir müssen auch die exponentiell anmutende Beschleunigung der KI-Entwicklung berücksichtigen.“ Neue ChatGPT-Versionen erschienen nicht mehr im Monats-, sondern im Wochenrhythmus. „Eine vergleichbare Dynamik habe ich bei anderen Technologien bisher nicht beobachtet.“

SPD-Chefin Saskia Esken forderte in diesen Tagen die Einrichtung einer deutschen Aufsichtsbehörde für den Einsatz von KI. Man brauche eine solche Behörde, „die beurteilt, ob der Einsatz von KI Recht und Gesetz folgt“, sagte sie der Deutschen Presse-Agentur. „Weil der Umgang mit Daten bei der Aufsicht eine bedeutende Rolle spielt, könnte der Beauftragte für den Datenschutz und die Informationsfreiheit eine gute Wahl sein.“

Bei der Grünen-Politikerin und Digitalexpertin Tabea Rößner findet diese Idee Zuspruch. Die Einrichtung einer nationalen Behörde ist nach dem europäischen AI Act künftig ohnehin vorgesehen, um Aufgaben wie die Marktzulassung von KI-Systemen übernehmen. Wer das macht, sei noch offen, sagt Rößner. Den Beauftragten für Datenschutz und Informationsfreiheit könne sie sich dafür genauso vorstellen wie die Bundesnetzagentur oder „eine gänzlich neue Behörde, eine Digitalagentur“.

Kritik wiederum kommt aus der FDP: „Ich lehne den Vorschlag von Frau Esken, eine nationale Aufsichtsbehörde in Form des Beauftragten für den Datenschutz und die Informationsfreiheit einzurichten, ab“, sagt Funke-Kaiser. Denn es sei von „höchster Bedeutung, dass wir nationale Alleingänge vermeiden und damit eine Fragmentierung der Regulierungslandschaft verhindern“, sagt Funke-Kaiser.

In einem allerdings scheinen sich alle einig zu sein: Ob Vergleiche mit Pandemien und Atomkriegen nun angemessen sind oder nicht, es braucht Regeln für KI.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false