zum Hauptinhalt
Unfreiwillige Begegnung am Unfallort. Bei Entscheidungen, welchen Aufwand Versicherungen zur Beurteilung einer Schadenshöhe betreiben, könnte der Einsatz Künstlicher Intelligenz eine zunehmend wichtige Rolle spielen.

© Shutterstock_tommaso79

Künstliche Intelligenz: Computer ersetzen den Gutachter

Am Fachbereich Rechtswissenschaft arbeiten Juristen der Freien Universität zu Fragen der Künstlichen Intelligenz und deren Herausforderungen für das Versicherungsrecht.

Ihr Assistent im Schadensfall – so bewirbt das Versicherungsunternehmen VHV seine Kfz-Versicherungs-App für das Smartphone. Nach einem Unfall soll das Programm den Versicherten bei der Schadensabwicklung helfen: Der Nutzer oder die Nutzerin gibt die Daten des Unfallgegners ein, die App hält mittels GPS den Standort sowie Datum und Uhrzeit fest, und wer möchte, kann gleich Fotos von den Schäden als Beweismittel hochladen.

Noch sitzen bei den meisten Versicherern Sachbearbeiter am Computer und beurteilen nach einem Blechschaden die Schadensmeldungen anhand von Erfahrung. Entschieden wird: Muss ein Gutachter die Schadenshöhe bestimmen? Oder ist es besser, den Bagatellschaden großzügig und dafür kostengünstig zu regulieren?

„Wir erleben im Versicherungswesen gerade einen tiefgreifenden Wandel“, sagt Christian Armbrüster, Professor für Privatversicherungsrecht am Fachbereich Rechtswissenschaft der Freien Universität Berlin. Gemeinsam mit dem Doktoranden Jonathan Prill leitet er das Forschungsprojekt „Künstliche Intelligenz und Versicherung“, das vom Deutschen Verein für Versicherungswissenschaft finanziert wird und bei dem auch das King's College in London als Partner im Ausland an Bord ist.

Künstliche Intelligenz (KI) ist aus unserer Welt nicht mehr wegzudenken: Computerprogramme helfen bei der Suche nach Tumoren auf Röntgenbildern, Bordcomputer in Autos und Flugzeugen entscheiden nach vorgegebenen Szenarien selbstständig anhand von Daten. Dabei werden unter dem Begriff Künstliche Intelligenz in einem weiten Sinne automatisierte Lösungen zusammengefasst, die menschliches Verhalten simulieren. Die Bandbreite reicht von visueller Mustererkennung bis hin zu neuronalen Netzen.

Wem gehören die Daten?

Für die Praxis der Versicherer sind bisher vor allem Algorithmen bedeutsam, die Sachbearbeiter unterstützen, etwa bei der Schadensabwicklung oder der vorvertraglichen Beratung; hinzu kommen Prämienbemessung und Risikoprognose. „Dabei stellen sich immer wieder auch interessante rechtliche Fragen“, sagt Jonathan Prill. „Wem gehören die Daten, die etwa Bordcomputer eines Autos oder ein Fitness-Armband sammeln, und wer darf auf sie zugreifen? Wie transparent muss der Einsatz von KI durch Versicherungsunternehmen sein?“ Ein spannendes und zukunftsträchtiges Feld, befindet der Doktorand.

Hintergrund ist neben dem Datenschutzrecht nicht zuletzt die starke Regulierung des Versicherungswesens: Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) wacht über die Einhaltung der gesetzlichen Vorgaben, etwa zur Beratungspflicht oder zur Prämienkalkulation: Wie kommen Prämien zustande? Wie werden Schäden kalkuliert? „Bei einer automatisierten Schadensabwicklung stößt die Transparenz an ihre Grenzen, denn der Versicherer wird nicht immer erklären können, wie die KI entschieden hat und warum“, sagt Jonathan Prill.

Gericht untersagt eine Differenzierung der Geschlechter

Eine besondere Herausforderung ist dabei die Künstliche Intelligenz im engeren Sinne; betrachtet werden also selbstlernende Algorithmen. Diese Programme überprüfen die von ihnen getroffenen Entscheidungen, lernen so mit der Zeit aus Fehlern und optimieren dadurch ihre Ergebnisse. Dabei entwickeln sie oft ein Verhalten, mit dem die Programmiererinnen und Programmierer nicht gerechnet haben, denn ihnen bleibt unbekannt, welche Parameter im Einzelnen in die Entscheidung des Rechners einfließen. „Das ist wie bei einem Kleinkind“, erläutert Jonathan Prill. „Meistens können Erwachsene antizipieren, wie das Kind in einer bestimmten Situation reagieren wird – und trotzdem überrascht uns das Verhalten eines Kindes bisweilen, weil es Erfahrungen anders verarbeitet, als wir dies vermutet hätten.“

Auch die Vorgaben des Europäischen Gerichtshofs (EuGH) stellen die Softwareentwicklerinnen und -entwickler vor schwierige Aufgaben, denn manchmal vertragen sich Statistik und Recht gewissermaßen nicht. So hat der EuGH es den Versicherern untersagt, ihre Prämien nach dem Geschlecht zu differenzieren. Daher dürfen Frauen trotz nachweislich weniger schadensträchtigen Fahrverhaltens keine günstigeren Kfz-Tarife mehr erhalten als Männer. Umgekehrt ist es in der privaten Rentenversicherung untersagt, Männern niedrigere Prämien anzubieten als Frauen – obwohl letztere statistisch betrachtet länger leben und deshalb größere Rentenaufwendungen verursachen. „Begründet wurde dies damit, dass die höhere Lebenserwartung der Frauen nicht zwingend von ihrem Geschlecht abhängt, sondern von ihrem Verhalten.

Frauen leben gesünder

Frauen gehen statistisch regelmäßiger zu Vorsorgeuntersuchungen, trinken weniger Alkohol und ernähren sich gesünder“, erläutert Christian Armbrüster. „Das Geschlecht darf aber nach dieser Rechtsprechung auch nicht mittelbar zu einer unterschiedlichen Behandlung führen, ohne dass der Versicherer dafür eine sachliche Rechtfertigung nachweisen kann. Computer erfassen allerdings keine Diskriminierungsabsicht – an dieser Stelle sind sie anfällig.“

So lasse sich etwa nachweisen, dass lernende Algorithmen, die mit rassistischen Aussagen konfrontiert werden, diesen Rassismus – wenn solche Aussagen häufig auftreten – irgendwann als „normal“ werten und in ihren Vorgaben nicht mehr als negativ berücksichtigen.

Auch eine andere Fähigkeit des Menschen fehlt der Datenwelt: Empathie. „Sachbearbeiter entscheiden Fälle manchmal aus Kulanz zugunsten der Versicherten“, sagt Armbrüster: „Faktoren wie den bisherigen Schadensverlauf oder die Anzahl der Versicherungen, die der Kunde insgesamt beim Versicherer unterhält, kann man in einem Algorithmus noch abbilden. Aber individuelle Notlagen? Aufrichtigkeit? Sympathie? Da stößt die Künstliche Intelligenz an Grenzen, denn sie ist auf eine Historie angewiesen, wird also nur assoziativ gesteuert. Wir Menschen hingegen können auf gänzlich neue Situationen intuitiv reagieren.“

Noch schaffe das ein Computer nicht. Doch auch daran werde gearbeitet, etwa indem die Stimmlage eines Anrufers analysiert wird, der einen Schaden meldet, sagt der Jurist. Man mag dies als Rationalisierung der Entscheidungsprozesse begrüßen oder den Verlust an menschlicher Kommunikation beklagen – im Bereich der Kulanz, also bei einem rechtlich nicht geschuldeten Entgegenkommen, vermag auch das Recht der technischen Entwicklung jenseits der Diskriminierungsverbote kaum Grenzen zu setzen.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false