zum Hauptinhalt
Gehört Künstliche Intelligenz hinter Gitter? Führende Fachleute fordern eine Pause in der Entwicklung.

© dpa/THOMAS OLLENDORF

Gefahren der Künstlichen Intelligenz : Muss die Entwicklung gestoppt werden?

Forscher und Unternehmer haben in einem Brief eine Pause in der Entwicklung von KI gefordert. Kritiker werfen den Unterzeichnern vor, den Hype erst zu befördern.

Wie gefährlich können Künstliche Intelligenzen für die Menschheit werden? In einem offenen Brief haben KI-Forscher und Unternehmer gefordert, für mindestens sechs Monate die Weiterentwicklung von KI-Systemen zu stoppen, die über das Niveau von ChatGPT-4 hinausgehen, also des neuesten, von OpenAI entwickelten Sprachmodells.

Warnungen vor der Übermacht eines digitalen Verstandes gibt es schon länger. „Bis vor kurzem dachte ich, dass es noch 20 bis 50 Jahre dauern würde, bis wir eine Allgemeine Künstliche Intelligenz haben“, sagte der Computerwissenschaftler Geoffrey Hinton erst kürzlich in einem Interview im US-Fernsehen. „Jetzt denke ich, dass es möglicherweise 20 Jahre oder weniger sein könnten.“ Auf die Frage nach den Chancen, dass KI die Menschheit „auslöscht“, sagte Hinton, der bei Google und an der Universität von Toronto forscht: „Ich denke, es ist nicht undenkbar.“

Beängstigende Rhetorik

Mit einer „Allgemeinen Künstlichen Intelligenz“ meint Hinton die bislang hypothetische Fähigkeit eines Computerprogramms, jede intellektuelle Fähigkeit eines Menschen zu erlernen. Ob die neuen Sprachgeneratoren dem schon gefährlich nahe kommen, ist aber höchst umstritten. In dem offenen Brief geht es allerdings auch um naheliegendere Risiken, etwa, mithilfe der neuen Sprachmodelle Desinformation zu streuen. Diese Vermischung ruft Kritik hervor: Thomas G. Dietterich, emeritierter KI-Professor und ehemaliger Präsident der Association for the Advancement of Artificial Intelligence, bezeichnet den Brief als ein „Durcheinander aus beängstigender Rhetorik und unwirksamen politischen Vorgaben“.

Ähnlich äußert sich auch Arvind Narayanan, Computer-Wissenschaftler an der Princeton University auf Twitter: „Dieser Brief schürt – ironischerweise, aber nicht überraschend – den Hype um die KI weiter und erschwert es, gegen reale, bereits auftretende KI-Schäden vorzugehen. Ich vermute, dass er den Unternehmen zugutekommt, die er regulieren soll, und nicht der Gesellschaft.“

Die Risiken entstünden, so Narayanan, in erster Linie durch die Tausenden von Apps, in die Sprachgeneratoren bereits jetzt eingebettet werden – und von den Plugins, die wiederum in Chatbots eingebettet werden. „Das Moratorium tut nichts, um dies anzugehen. Das macht es nicht nur kontraproduktiv, sondern einfach nur rätselhaft.“

Falsche Maßnahme

KI-Forscher aus Deutschland haben den Brief kaum unterzeichnet. „Eine sechsmonatige Pause wird nicht funktionieren und ist die falsche Maßnahme“, begründet Kristian Kersting, Co-Direktor des Hessian Center for AI. Eine „Entschleunigung des Wettrennens“ wäre aus seiner Sicht zwar gut, doch die würde mit der Pause nicht erreicht, zudem würden Firmen bevorteilt, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen“, sagt Kersting.

Es wäre klug, innezuhalten, um diese Systeme zu verstehen.

Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen

„Grundsätzlich begrüße ich diesen Ansatz“, sagt auch Björn Ommer, Entwickler des Bildgenerators „Stable Diffusion“ und Professor an der LMU München. „Aber in dem Brief wird nur vage formuliert, wo genau die Grenze liegen soll. Was genau bedeutet ,more powerful than GPT-4’? Und wie will man die Entwicklung in großen privaten Unternehmen überwachen und stoppen?“

Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme in Tübingen, kommentiert: „Es wäre klug, innezuhalten, um diese Systeme zu verstehen und darüber nachzudenken, wie unsere Gesellschaft damit umgehen kann. Alle Firmen und Länder von einem Moratorium zu überzeugen, erscheint unrealistisch – umso wichtiger ist es, jetzt ernsthaft darüber nachzudenken, wie wir uns gegen negative Auswirkungen absichern können. Das betrifft die Systeme selbst, aber auch unseren Umgang damit.“

„Ein dummer Brief“

Unter den kritischen Stimmen finden sich insbesondere Expert:innen, die sich seit langem mit dem ethischen Einsatz von KI beschäftigen. Zu ihnen gehört etwa Timnit Gebru, eine der Autorinnen einer bekannten Studie, die sich vor zwei Jahren kritisch mit den großen Sprachmodellen beschäftigt hat und diese als „stochastische Papageien“ bezeichnet. Im Streit darum hatte sie Google verlassen, wo sie die Abteilung für KI-Ethik mit geleitet hatte.

In dem offenen Brief, den unter andere Elon Musk und Apple-Gründer Steve Wozniak unterzeichnet haben, wird ihre Arbeit nun als erster Beleg mögliche Gefahren zitiert. Gebru spricht von einem „dummen Brief“ und sieht wie auch ihre Mitautorin Emily Bender vor allem die Übertreibung der Fähigkeiten von KI in dem Brief problematisch. „Ja, die KI-Labors befinden sich in einem außer Kontrolle geratenen Wettlauf, aber niemand hat einen „digitalen Verstand“ entwickelt, und sie sind auch nicht dabei, dies zu tun“, sagt Bender, Professorin an der University of Washington.

„Das Problem ist nicht, dass KI-Systeme aktuell oder in naher Zukunft zu intelligent sind – sie sind eher zu dumm“, sagt auch der Darmstädter Forscher Kersting. So können Programme wie ChatGPT zwar erstaunlich gut klingende Texte formulieren, das Grundprinzip dabei ist es jedoch, auf der Grundlage riesiger Trainingsdaten die am besten passenden Wörter vorherzusagen. Dabei erfinden sie jedoch Fakten und auch vermeintliche Quellen.

Der Entwickler Open AI weist selbst darauf hin, dass die KI „Fakten halluziniert“. Beim neuesten Modell GPT-4 liegt die Genauigkeit der Angaben in vielen Kategorien demnach bei etwa 70 Prozent, bei der ersten öffentlich zugänglichen Version von ChatGPT war es sogar meist unter 60 Prozent. Auch die Integration von GPT-4 in Microsofts Bing-Suchmaschine produziert in Tests immer wieder zahlreiche falsche Angaben, obwohl dort Internetlinks als Fußnoten die Richtigkeit belegen sollen.

Bender warnt auch davor, dass ChatGPT & Co. „unser Informations-Ökosystem vergiften“. Zu den Sprachmodellen und ihren tiefen neuronalen Netzen gebe es viele Fragen. Statt eines Moratoriums brauche es mehr Offenheit und Transparenz zu den Systemen. „Wir wären viel besser in der Lage, sie zu studieren, wenn die KI-Labors Transparenz über Trainingsdaten, Modellarchitektur und Trainingsverfahren herstellen würden“, sagt Bender.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false