zum Hauptinhalt
Ein Messebesucher geht an einem Leuchtdisplay auf der CeBIT vorbei. Für den Einsatz von Künstlicher Intelligenz (KI) sollen in der EU künftig strengere Regeln gelten. Unterhändler von Europaparlament und EU-Staaten verständigten sich am Freitagabend in Brüssel nach langen Verhandlungen auf entsprechende Regeln.

© dpa/Peter Steffen

Recherche des SWR: Künstliche Intelligenz wird für Kinderpornografie missbraucht

Sexueller Missbrauch von Kindern macht vor KI nicht halt. Wie der Südwestrundfunk herausfand, beruhen künstlich generierte und in sozialen Netzwerken geteilte Bilder teilweise auf echten Missbrauch.

Künstliche Intelligenz (KI) wird einem Bericht zufolge zunehmend für Kinder- und Jugendpornografie missbraucht. Neben komplett künstlichen Abbildungen basiert ein Teil des Materials auch auf echten Kinderbildern, wie nach Angaben des Südwestrundfunks (SWR) vom Montag Recherchen des Investigativformats „Vollbild“ ergaben. Teilweise gehen die KI-Bilder dem Bericht zufolge sogar auf echten Missbrauch zurück.

Künstlich generierte pornografische Bilder von Kindern und Jugendlichen werden demnach unter anderem über die Social-Media-Plattform Instagram verbreitet. Einige Accounts, die Bilder von Kindern und Jugendlichen in knapper Unterwäsche, Badebekleidung oder in sexualisierten Posen zeigten, verlinkten zudem auf externe Plattformen, die teilweise auch Abbildungen von explizitem KI-generierten Kindesmissbrauch verbreiteten.

32,1
Prozent betrug die Steigerung bei den Fallzahlen zur Jugendpornografie 2022 im Vergleich zum Vorjahr.

Das Bundeskriminalamt (BKA) erfasst Fälle von KI-generierter Pornografie nicht gesondert, stuft die Gefahr bei Kinder- und Jugendpornografie insgesamt aber als „hoch“ ein. Im Jahr 2022 stiegen die Fallzahlen um 7,4 Prozent bei Kinderpornografie sowie um 32,1 Prozent bei Jugendpornografie im Vergleich zum Vorjahr, wie das BKA auf SWR-Anfrage mitteilte.

Es gebe die Gefahr, dass alltägliche echte Fotos als Grundlage für KI-generierte Pornografie dienen könnten, hieß es. Die künstlichen Abbildungen sind dem BKA zufolge schon jetzt kaum von echten zu unterscheiden, was auch die Ermittlungsarbeit erschwert.

Plattformen wie Instagram reagieren dem Bericht zufolge unzureichend. Die SWR-Redaktion meldete im Zuge der Recherche nach eigenen Angaben mehrere Dutzend Instagram-Accounts, deren Besitzer damit werben, Kinder- und Jugendpornografie zu verkaufen. Nur ein Drittel der Accounts wurden demnach von Instagram innerhalb von 48 Stunden gelöscht. (AFP)

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false