zum Hauptinhalt
Den Unfallort, an dem erstmals ein Mensch durch ein selbstfahrendes Auto ums Leben kam

© ABC-15/AP/dpa

Unfall von Uber-Fahrzeug: Autonomes Auto verwechselte Frau mit Plastiktüte

Eine Softwarepanne verursachte den tödlichen Unfall eines Uber-Fahrzeugs in den USA. Auch sonst macht Bilderkennungssoftware haarsträubende Fehler.

Die Ursache für den ersten tödlichen Unfall mit einem selbstfahrenden Auto steht wahrscheinlich fest. Nach einem Bericht des US-Onlinemagazins „The Information“ führte ein Softwarefehler des Uber-Fahrzeugs zu dem Zusammenstoß mit einer Frau im US-Bundesstaat Arizona. Die 49-jährige hatte im März ihr Fahrrad im Dunklen auf die Straße geschoben. Das selbstfahrende Auto des Fahrdienstleisters Uber war ungebremst weitergefahren, die am Steuer sitzende Testfahrerin hatte nicht auf die Straße geachtet.

Laut dem Bericht hatten die Sensoren des Fahrzeugs die 49-Jährige sogar registriert, offenbar jedoch nicht als Mensch mit einem Fahrrad erkannt. Stattdessen wurde sie als so genanntes „false positive“ Objekt eingestuft, sagen zwei Personen die mit der Analyse des Vorfalls vertraut seien. In diese Kategorie gehören beispielsweise Plastiktüten oder Zeitungen, die durch die Luft wehen und von Autos ignoriert werden können.

Bei der Bilderkennung haben Computer in den letzten Jahren zwar enorme Sprünge gemacht. Trotzdem sind es nicht nur bewegte Objekte, bei deren Interpretation die Softwaresysteme schnell daneben liegen können. Auch bei vermeintlich leichten Aufgaben wie dem Erkennen von Verkehrsschildern kann die Künstliche Intelligenz (KI) noch versagen, wie verschiedene Studien zeigen.

Gefährliche Sticker auf Schildern

Problematisch wird es dabei oft, wenn es Fremdkörper auf den Schildern gibt. So haben in einer gemeinsamen Untersuchung Wissenschaftler mehrerer US-Universitäten kleine schwarze und weiße Streifen auf Stopschilder geklebt. Obwohl der Stop-Schriftzug selbst noch vollständig erkennbar war, wurden 73 Prozent der Bilder falsch klassifiziert. Ähnliche Fehler könnten durch Graffiti oder mit Stickern beklebte Schilder auch im echten Straßenverkehr passieren.

Ergebnisse eines ähnlichen Experiments haben Forscher der Princeton University im Februar veröffentlicht. Dabei zeigten sie, dass auch Werbung zum Problem werden kann. Denn die Fahrzeuge sind darauf trainiert, runde Schilder als Verkehrszeichen zu interpretieren. Runde Logos wie die der Fastfood-Ketten KFC oder des Tankstellenbetreibers Texaco interpretieren die Fahrzeuge teilweise als Schilder für Fahrradwege oder Straßenarbeiten. Allerdings nur mit einer Wahrscheinlichkeit von um die 50 Prozent. Doch durch leichte, für das menschliche Auge kaum sichtbare optische Veränderungen verstärkten die Forscher diesen Effekt dann enorm. Die Modifikationen führten nämlich dazu, dass die Werbelogos mit hundertprozentiger Wahrscheinlichkeit für Stoppschilder oder Überholverbote gehalten wurden.

Die Forscher wollten damit zeigen, dass böswillige Attacken auf selbstfahrende Autos möglich sind, indem Angreifer Schilder manipulieren. Der gleiche Effekt könnte aber auch durch natürliche Ursachen hervorgerufen werden wie beispielsweise Verschmutzungen. Denn oft reicht es, schon wenige Pixel in einem Bild auszutauschen, um die Algorithmen zu verwirren. Japanische Wissenschaftler haben gezeigt, dass dafür meist nur drei oder fünf Bildpunkte nötig sind, zum Teil genügte sogar ein falscher aber farblich besonders auffälliger Pixel.

Künstliche Intelligenz hält Michelle Obama für ein Handy

In einem anderen Fall haben Forscher des Massachusetts Institute of Technology (MIT) Objekte mit einem 3D-Drucker hergestellt und damit die Bilderkennungssysteme von Google getäuscht. Die Künstliche Intelligenz hielt dabei eine Schildkröte mit einer Wahrscheinlichkeit von 90 Prozent für ein Gewehr. In anderen Fällen des Tests wurde eine Katze mit Guacamole verwechselt und ein Baseball für Espresso gehalten.

Auch die Künstliche Intelligenz von Microsoft stellt sich teils ziemlich dumm an. Der Konzern bietet ein Programm namens Captionbot, das für Fotos automatisch eine Beschreibung abgibt. Das funktioniert oft erstaunlich gut, dann passieren wieder haarsträubende Fehler. So verwechselt die KI gern Wischmopps mit Kuchen. Berühmt wurde auch folgende Beschreibung: „Ich denke, es ist ein Mann mit Anzug und Krawatte, der auf einem Handy spricht“. Das analysierte Foto zeigte, wie Barack Obama seine Frau Michelle umarmte.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false