zum Hauptinhalt
Übernimmt bald die Künstliche Intelligenz? Nicht nur der Deutsche Ethikrat versucht, Regeln und Grenzen zu formulieren, auch die EU entwirft gerade ein Gesetz, den „AI Act“.

© graphiCrash/stock.adobe

Ethikrat zu Künstlicher Intelligenz: „Menschliche Entfaltung nicht vermindern“

Der Ethikrat hat sich zu „Auswirkungen digitaler Technologien“ auf Medizin, Schule, Meinungsbildung und Verwaltung beraten. Und Empfehlungen formuliert.

Konventionelle Intelligenz hat sich Gedanken über Künstliche Intelligenz (KI) gemacht: Der Deutsche Ethikrat hat am heutigen Montag seine Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ veröffentlicht.

„Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern“, kommentierte Alena Buyx, Vorsitzende des Deutschen Ethikrates, das Papier, in dem das Gremium aus Experten verschiedener Disziplinen die „Auswirkungen digitaler Technologien auf das menschliche Selbstverständnis und Miteinander“ untersucht hat. KI dürfe den Menschen nicht ersetzen, sagte Buyx.

Vor allem die Auswirkungen von KI-Systemen auf die Bereiche Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung hat der Ethikrat untersucht. In der Medizin werde KI beispielsweise bereits in der Krebsdiagnostik eingesetzt, in der Schule sind intelligente Tutorsysteme denkbar, aber auch im Sozial- und Justizwesen und bei der Polizei könnte KI fundamentale Veränderungen herbeiführen.

Chat GPT

© Unsplash

Die Beurteilung des jeweiligen KI-Einsatzes müsse „immer kontext-, anwendungs- und personenspezifisch erfolgen“, so der Ethikrat.

„Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben“, sagte Judith Simon, Philosophin an der Universität Hamburg und Sprecherin der Arbeitsgruppe. „Daher ist es wichtig, genau hinzuschauen, für wen dies mit erweiterten Handlungsspielräumen verbunden ist und wessen Handlungsmöglichkeiten eher vermindert werden.“

Wir werden nicht in der Lage sein, superintelligente Maschinen zu kontrollieren.

Studie der Max-Planck-Gesellschaft zur Regulierung Künstlicher Intelligenz

Empfehlungen an die Politik formuliert

Die „zentrale Schlüsselfrage“ für die ethische Beurteilung von KI-Systemen sei für den Ethikrat gewesen, ob „menschliche Autorschaft und die Bedingungen für verantwortliches Handeln durch den Einsatz von KI erweitert oder vermindert werden“. Dementsprechend seien auch die Empfehlungen an die Politik formuliert.

Im Medizinbereich weisen die Experten vor allem auf die Bedeutung der „Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten“ hin, sowie auf die „Vermeidung ärztlicher Kompetenzverluste“.

Außerdem müsse die Privatsphäre von Patientinnen und Patienten einerseits mit der Notwendigkeit der „intensiven Datennutzung in der medizinischen Forschung“ in Einklang gebracht werden. Es gelte andererseits, „das Vertrauensverhältnis zwischen allen beteiligten Personen zu schützen und die vollständige Ersetzung medizinischer Fachkräfte zu vermeiden“.

In der schulischen Bildung solle sich der Einsatz von KI „an grundlegenden Bildungsvorstellungen orientieren und auf Elemente beschränken, die nachweislich die Kompetenzen und sozialen Interaktionen der Lernenden erweitern“. Auch hier müsse die Privatsphäre geschützt werden.

Das „blinde Befolgen maschineller Empfehlungen“ vermeiden

Auch zum Einfluss von Künstlicher Intelligenz auf die Meinungsbildung und die öffentliche Kommunikation äußerte sich der Ethikrat und plädiert für „Regeln für Online-Plattformen“, die sowohl die „Auswahl“ als auch die „Moderation von Inhalten“ betreffen. Ebenso solle personalisierte Werbung und Datenhandel reguliert werden und die Forschung müsse besseren Zugang auf Plattformdaten erhalten.

In der öffentlichen Verwaltung müsse KI so eingesetzt werden, dass Diskriminierungen vermieden und das „blinde Befolgen maschineller Empfehlungen“ vorgebeugt werde. Zudem müssten Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen gewährleistet werden.

Bei der Anwendung von KI in der Arbeit von Gefahrenabwehrbehörden sollten gesellschaftliche Aushandlungsprozesse über ein angemessenes Verhältnis zwischen Risiken und Chancen geführt werden, so der Ethikrat.

Regulierung als Standortnachteil für KI-Technologie

Inwieweit diese Empfehlungen Eingang in künftige Gesetzgebung finden, ist jedoch offen. In der Europäischen Union wird derzeit die erste umfassende KI-Regulierung diskutiert, der „AI Act“. Allerdings laufen die Verhandlungen „schleppend“, schreibt Tagesspiegel Background Digitalisierung und KI.

Denn es gehe um einen „dynamischen Zukunftsmarkt“, auf den etwa die US-Regierung ebenso Einfluss zu nehmen versuche wie China, wo ein KI-Ökosystem entstehe, das für viele Unternehmen aus anderen Weltregionen zugänglicher sein könnte als jenes des Westens.

Der AI Act der EU könnte zum echten Standortnachteil werden, befürchtet der KI-Professor Patrick Glauner von der Technischen Hochschule Deggendorf. „Unter Regulierung werden unterschiedliche Dinge verstanden“, sagte er dem Tagesspiegel-Background. „In der EU geht es vor allem um Auflagen und Verbote, andernorts werden eher die Chancen gesehen.“

Der Europäische Rat plädiere daher dafür, die ursprüngliche Vorlage der Kommission vom April 2021 zu entschärfen – unter anderem durch eine engere KI-Definition und weniger strikte Auflagen für Entwickler und Anwender von Hochrisiko-Systemen.

„Die Kommission wollte eine sehr breite Definition, da wäre im Zweifelsfall jeder Taschenrechner KI“, sagt Glauner. „Auch wurde nicht sinnvoll abgegrenzt, wann eine Anwendung hochriskant ist, während die damit verbundenen Auflagen sehr weit gehen und teilweise unerfüllbar sind.“

Während also die einen um Standort- und Wettbewerbsvorteile besorgt sind, sorgen sich andere darum, wie der Geist der KI halbwegs in der Flasche gehalten werden kann.

Eine Studie der Max-Planck-Gesellschaft etwa kommt zu dem Schluss, dass Künstliche Intelligenz letztlich nicht im Interesse des Menschen handelt. „Wir werden nicht in der Lage sein, superintelligente Maschinen zu kontrollieren“, heißt es in der Studie von 2021 „Superintelligence cannot be contained: Lessons from Computability Theory“ im „Journal of Artificial Intelligence Research“.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false