zum Hauptinhalt
Die zunehmende Vermenschlichung von Robotern und Künstlicher Intelligenz ist ethisch mindestens fragwürdig.

© Fabian Bimmer/REUTERS

Künstliche Intelligenz: Wir sind hier die einzigen Menschen!

Filme, Feuilletons und Juristen schreiben Robotern immer mehr menschliche Eigenschaften zu. Warum das gefährlich ist. Ein Essay.

Früh am Morgen. Detective Spooner, ein cooler Typ in Ledermantel, Chucks und mit einer Mütze auf dem Kopf, macht sich bereit, zur Arbeit zu gehen. Als er die Tür aufreißt, schreckt er zusammen. Vor ihm steht ein metallener humanoider FedEx-Roboter, der ein Päckchen für ihn unter dem Arm hält. „Guten Morgen, Sir“, begrüßt dieser ihn höflich und fährt fort: „Und wieder eine pünktliche Lieferung von …“ Doch weiter kommt er nicht. Spooner greift dem Roboter unsanft ins Gesicht: „Aus dem Weg, Blechbüchse!“ Der Roboter blickt ihn scheinbar verwirrt an, wünscht ihm aber dennoch einen schönen Tag.

Wir schreiben das Jahr 2035. Roboter kommen nicht nur in Fabriken zum Einsatz, sondern auch in Privathaushalten. Sie laufen selbstverständlich neben Menschen auf der Straße, bringen den Müll weg, erledigen Einkäufe und gehen mit den Hunden ihrer Besitzer Gassi. So sieht es zumindest in der Welt von „I, Robot“ aus, ein Film des Regisseurs Alex Proyas von 2004. Dienstbar sehen die Roboter aus. Und ein bisschen unterwürfig. Besonders gut behandelt werden sie nicht. Wenn sie angerempelt werden, sind sie es, die sich entschuldigen. Ihr Status entspricht dem von Sklaven.

Zu Beginn des Films wird durch eine Einblendung klargemacht, dass Roboter ausschließlich Pflichten zu erfüllen haben. 1. Ein Roboter darf einem Menschen weder Schaden zufügen noch durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt. 2. Ein Roboter muss den Befehlen der Menschen gehorchen, außer solchen Befehlen, die ihn in Konflikt mit dem ersten Gesetz bringen. 3. Ein Roboter muss seine eigene Existenz verteidigen, solange er dabei nicht in Konflikt mit dem ersten und zweiten Gesetz gerät. Diese Gesetze stammen im Übrigen nicht aus der Feder des Drehbuchschreibers, sondern wurden erstmals in der Erzählung „Runaround“ des Wissenschaftlers und Romanautor Isaac Asimov im Jahr 1942 veröffentlicht.

Spooner, der Held des Films, hat für die Roboter nur Verachtung übrig. Zudem stehen sie für ihn unter Generalverdacht. Wenn in der Stadt ein Diebstahl geschieht, verdächtigt er zuallererst Roboter, nicht Menschen. Doch nicht nur Spooner, die Gesellschaft insgesamt hat wenig Mitgefühl mit ihren Robotersklaven. Wenn diese einmal nicht mehr gebraucht werden und ausgedient haben, werden sie am Rande der Stadt entsorgt und in Container gesteckt, wo sie den Rest ihrer digitalen Existenz verbringen müssen. Dort stehen sie dann, eng aneinandergeschmiegt, so als wollten sie sich trösten. Auf den Gesichtern der Roboter spiegelt sich auch eine Art noble Leidensfähigkeit. Roboter, die nicht verstehen, warum man sie so schlecht behandelt.

Proyas will uns vor Augen führen, dass eine diskriminierende Behandlung von Robotern ungerecht und unmenschlich ist. In der Realität ist bisher noch niemand auf die Idee gekommen, die Normen des deutschen Tierschutzgesetzes auf Roboter anzuwenden oder ihnen gar Menschenrechte zuzuerkennen. Es besteht ein praktischer Konsens darüber, dass Computer und Roboter keine mentalen Eigenschaften haben. Wir sind uns weitgehend einig darüber, dass im Gegensatz zu Tieren – denen Leidensfähigkeit zugesprochen wird – Roboter keine Empfindungsfähigkeit aufweisen. Nichts spricht dafür, dass auch die komplexesten Softwaresysteme über Bewusstsein verfügen. Wäre es so, müssten wir den weiteren Umgang mit ihnen ab sofort streng reglementieren und die Grund- und Menschenrechte auch auf diese anwenden. Auch die schmerzlose Tötung, die bei Tieren zulässig, bei Menschen ethisch und gesetzmäßig unzulässig ist, wäre dann untersagt. In Analogie zum Projekt „Menschenrechte für die Großen Menschenaffen“, das den Speziesismus überwinden und Tieren in dem Umfang Menschenrechte zugestehen wollte, in dem diese vergleichbare Eigenschaften haben, müssten Robotern und autonomen Softwaresystemen ebenfalls Menschenrechte zuerkannt werden. Wenn wir davon ausgehen, dass von uns geschaffene Roboter personale Wesen sind, die mit einer Identität, mit Handlungsverantwortung, Autonomie und der damit einhergehenden individuellen Würde ausgestattet sind – eine sogenannte e-Person (elektronische Person) also –, dürften die betreffenden Softwaresysteme dann in Analogie zum informationellen Selbstbestimmungsrecht menschlicher Individuen nicht mehr manipuliert werden, denn dies widerspräche dem kantischen Instrumentalisierungsverbot von Vernunftwesen.

Sollen Roboter selbst haften?

Roboter Menschenrechte zu verleihen, entwertet die Menschen.
Roboter Menschenrechte zu verleihen, entwertet die Menschen.

© Getty Images/iStockphoto

Und doch vertreten manche Befürworter der Künstlichen Intelligenz die These, dass man grundsätzlich zwischen einem menschlichen Gehirn und einem Computer nicht unterscheiden könne. So befassen sich zunehmend Juristen und Soziologen mit der Frage, inwieweit (zukünftige) Roboter bei Fehlern haftbar gemacht werden können, also eine juridische Verantwortlichkeit besitzen. In internationalen Forschungsinstitutionen fragen Juristen danach, ob Roboter als bloßes Werkzeug zu betrachten sind, für das ihre Besitzer oder Hersteller haften müssen, oder ob sie je nach Autonomiegrad irgendwann einen speziellen Status genießen werden, der ihnen Verantwortung, aber auch Rechte zugesteht. Schließlich, so lautet hier das juristische Argument, hätten Roboter auch Pflichten zu erfüllen. In Saudi-Arabien hat ein Roboter im Oktober 2016 zum ersten Mal in der Geschichte offiziell eine Staatsbürgerschaft erhalten. Es handelt sich um „Sophie“, einen androiden Roboter mit weiblichem Gesicht und Körper, der auf mechanische Weise Gesichtsmimik simuliert. Diese Staatsbürgerschaft gibt Sophie theoretisch Rechte, aber auch Pflichten. Allein schon, dass sie sich – im Gegensatz zu allen anderen saudi-arabischen Frauen – unverschleiert bewegen darf, sorgte für viele Diskussionen in Saudi-Arabien und darüber hinaus.

In „I, Robot“ haben Roboter eine Menge Pflichten. Wenn sie diese nicht erfüllen, werden sie genauso strafrechtlich verfolgt wie Menschen. Muss aber dann nicht im Umkehrschluss gelten, dass sie auch Rechte wie Menschen haben sollten? So lautet zumindest das Fundament von Ethik und Recht ziviler und demokratischer Gesellschaften.

Auch in „A. I. – Künstliche Intelligenz“, dem Steven-Spielberg-Film von 2001, wird eine Welt der Zukunft imaginiert, in der Roboter zu einem selbstverständlichen Teil der Menschheit geworden sind. Auch dort sind sie – wie in „I, Robot“ – Sklaven und Dienstleister. Und ebenso wie dort sind sie traurige Dienstleister, die darunter leiden, als „Menschen“ zweiter oder sogar dritter Klasse behandelt zu werden. Spielberg macht sehr deutlich, was seine Position im Hinblick auf Roboter ist, und greift dafür zu besonders melodramatischen Mitteln, um dem Zuschauer nahezulegen, es sei unerlässlich, Robotern in naher Zukunft nicht nur rechtliche Zugeständnisse zu machen, sondern vor allem auch das Recht auf (Menschen-)Würde zukommen zu lassen.

Wer Spielbergs These, ein Roboter besitze die gleiche Würde wie ein Mensch, wirklich ernst nimmt, muss von einer Ununterscheidbarkeit zwischen Mensch und Computer beziehungsweise softwaregesteuerten Systemen ausgehen. Wer aber meint, es könne zwischen menschlichen Gehirnen und Computern keinen kategorialen Unterschied geben, legt die Axt an die Fundamente nicht nur der wissenschaftlichen Praxis, sondern einer humanen Lebenswelt generell.

Wer seinem PC gram ist, hat ein Rationalitätsproblem

Die Erschaffung Adams von Michelangelo reloaded.
Die Erschaffung Adams von Michelangelo reloaded.

© Linda Bucklin

Wer seinem PC gram ist, weil er sich beim Hochfahren als ungehorsam erwies, hat ein Rationalitäts- und Realitätsproblem. Er schreibt seinem Computer Eigenschaften zu, die dieser nicht hat. Nur im philosophischen Oberseminar oder in manchen Feuilletons und KI-Zirkeln kann die Ununterscheidbarkeit von Mensch und Maschine behauptet werden. Außerhalb wirkt diese Behauptung grotesk, da sie mit der tatsächlichen Praxis derjenigen, die diese aufstellen, unvereinbar ist. Natürlich schalten wir unsere Computer ab, wenn wir sie nicht mehr brauchen. Der Computer ist kein Gegenüber, sondern ein Werkzeug, weit komplexer zwar als eine Schaufel, aber eben doch nur eine physikalisch beschreibbare Apparatur ohne Wünsche und Überzeugungen. In diesem Sinne sollten wir nicht danach trachten, Roboter möglichst menschenähnlich zu gestalten.

In einer der emotionalsten Szenen des Films sehen wir, wie ausrangierte Roboter in eine Art Zirkusarena gebracht werden, wo sie unter den Augen einer grölenden Menge wahllos entweder in eine Kanone gesteckt und in die Luft geschossen oder mit heißem Öl übergossen werden, sodass am Ende nur noch einzelne Metallteile von ihnen übrig bleiben. Doch die Roboter wollen nicht sterben. „Aber ich funktioniere noch einwandfrei“, protestiert einer verzweifelt, während er in die Arena abgeführt wird. Die betrunkene Menge hat allerdings kein Mitleid. Nur weil Roboter Maschinen sind, so lautet die Botschaft des Films, bedeutet das nicht, dass sie weniger wert sind als Menschen: Sie besitzen die gleiche Würde.

Es ist in der Philosophie durchaus umstritten, was die Würde des Menschen eigentlich ausmacht. Manche meinen, dass es die besondere Sensibilität und Leidensfähigkeit ist, die eine gleichermaßen besondere Rücksichtnahme verlangt. Andere glauben, dass Menschen von Natur aus – oder von Gott – (Grund-)Rechte hätten, die unveräußerlich sind und die besondere Würde von Menschen ausmachen. Diejenigen, die in der Tradition Immanuel Kants stehen, machen die Würde an der Autonomie, präziser: an der Fähigkeit zur Autonomie fest, die Menschen eigen ist. Demnach ist es die menschliche Fähigkeit, Gründe abzuwägen, die Menschen zu autonomen Akteuren macht und ihnen den besonderen Status als Wesen verleiht, die eine Würde haben.

Der israelische Philosoph Avishai Margalit hat in seinem Buch „Politik der Würde“ (1999) die menschliche Selbstachtung ins Zentrum gestellt: Wir dürfen niemanden so behandeln, dass er Grund hat, sich in seiner Selbstachtung (existenziell) beschädigt zu sehen. Es geht nicht lediglich um das Gefühl einer Beschädigung der Selbstachtung, sondern darum, dass man niemandem einen Grund geben darf, sich in seiner Selbstachtung beschädigt zu fühlen. Künstliche Intelligenzen haben jedoch keine Selbstachtung, keine Gefühle, die wir verletzen können. Sie sind in ihrer personalen Identität nicht gefährdet, und sie haben nicht die Fähigkeit, ihre Lebenssituation zu überdenken. Die Voraussetzungen, ihnen Würde zuzuschreiben, sind nicht gegeben.

Da Menschenwürde und Menschenrechte so zentral sind für unser Selbstverständnis, aber auch für die rechtliche und politische Ordnung, in der wir leben, sollten wir darauf achten, dass dieser Kern eines humanen Ethos nicht durch Überdehnung gefährdet wird. Die Bevölkerung der Welt mit Künstlichen Intelligenzen, denen wir vergleichbare Fähigkeiten und Eigenschaften zuerkennen wie menschlichen Individuen, würde zwangsläufig zu einer Art Kernschmelze dieses Ethos führen.

Julian Nida-Rümelin lehrt Philosophie und politische Theorie an der Universität München und leitet den Bereich Kultur am Zentrum Digitalisierung Bayern. Nathalie Weidenfeld verfasst Romane und Sachbücher. Zuvor war sie Lektorin und Filmwissenschaftlerin.

Der Text ist ein Auszug aus: Julian Nida-Rümelin und Nathalie Weidenfeld, Digitaler Humanismus. Eine Ethik für das Zeitalter künstlicher Intelligenz, Piper 2018, 219 Seiten, 24 Euro.

Julian Nida-Rümelin, Nathalie Weidenfeld

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false