zum Hauptinhalt
Tatort: Auf dem Campingplatz in Lügde wurden Kinder missbraucht.

© G. Kirchner/dpa

Forschungsprojekt in Nordrhein-Westfalen: KI soll Daten nach Kinderpornografie durchsuchen

Nach dem Missbrauchsfall Lügde stellen Behörden ein Forschungsprojekt vor: KI soll Ermittlern helfen, Datenmengen nach Kinderpornografie zu durchsuchen.

Berlin - Das Land ist immer noch erschüttert vom hundertfachen Missbrauch in Lügde. Der Fall ist an sich schon verstörend: Zwei Männer sollen jahrelang auf einem Campingplatz in Lügde hundertfach Kinder schwer sexuell missbraucht und dabei gefilmt haben, der Prozess gegen die beiden läuft gerade. Ein dritter inzwischen verurteilter Mann soll über eine Webcam daran beteiligt gewesen sein. Darüber hinaus offenbarte sich in Lügde eine weitere verstörende Dimension: die Unfähigkeit der wegen schwerer Ermittlungspannen ohnehin schon in der Kritik stehenden Behörden, große Datenmengen auszuwerten.

Die Ermittler stellten nämlich Festplatten und andere Datenträger mit rund 3,3 Millionen Bildern und fast 86 300 Videos sicher – für die Auswertung fehlt aber in Deutschland bislang die geeignete Technik. Das könnte sich jetzt ändern.

In Nordrhein-Westfalen haben die Behörden Anfang dieser Woche ein bundesweit einzigartiges Forschungsprojekt vorgestellt: Künstliche Intelligenz soll dabei helfen, Pädophilie und Kinderpornografie zu bekämpfen. Denn der Fall Lügde – die Rede ist von 40 betroffenen Jungen und Mädchen und 1000 Missbrauchsfällen zwischen 2008 und 2018 – ist nur die Spitze des Eisbergs.

Um alle im vergangenen Jahr in Nordrhein-Westfalen sichergestellten Tausenden Terabyte an Daten durchzusehen, würde ein einzelner Beamter 2000 Jahre brauchen, erklärte Peter Biesenbach (CDU), NRW-Justizminister in Düsseldorf. Herbert Reul (CDU), sein Kollege aus dem Innenministerium, drückte durch diesen Vergleich schon vor Wochen seine Verzweiflung über die Lage aus. Der Kampf der Behörden müsse scheitern, wenn die verfügbaren Waffen nicht ausreichten, sagte Biesenbach. „Nicht ausgewertetes Bildmaterial kann im Einzelfall die Ursache dafür sein, dass Missbrauchstaten unentdeckt bleiben.“ Ende März waren in NRW nur zwölf Prozent von rund 1900 anhängigen Ermittlungsverfahren wegen Kinderpornografie in der Auswertung.

Bald soll die Lösung des Problems allerdings ein Stück weit näher rücken: Biesenbach stellte in Düsseldorf die ersten Zwischenergebnisse eines seit 2017 laufenden gemeinsamen Forschungsprojekts mit der Firma Microsoft vor, von dem die Öffentlichkeit bisher nichts wusste. Künstliche Intelligenz (KI) soll in Zukunft dabei helfen, die immer schneller anwachsenden Datenberge abzutragen. Das sei bundesweit einzigartig, berichten alle Beteiligten. „Wenn Straftäter die Schattenseiten der Digitalisierung nutzen, müssen die Strafverfolger die Chancen der Digitalisierung ergreifen“, sagte Biesenbach. Künstliche Intelligenz, sagte der Justizminister, könne riesige Datenmengen nicht nur schnell bewältigen, sondern bekomme auch keine Probleme mit psychischer Belastung bei der Sichtung verstörenden Materials.

Das interdisziplinäre Team entwickelte eine KI-Lösung, die über eine Cloudinfrastruktur das sensible Ausgangsmaterial auf Rechnern der Justiz verarbeitet und so weit dekonstruiert, dass die bearbeiteten Daten für die Auswertung in einer externen Cloud verwendet werden können. „Die Entwicklung des Dekonstruktionsprozesses ist ein wichtiger Meilenstein“, sagte Biesenbach.

So soll sichergestellt sein, dass auch die rechtlich hohen Ansprüche beim Umgang mit kinderpornografischem Material erfüllt werden. Es ist etwa verboten, dass Daten in die Hände Dritter gelangen. Zudem darf bei der Auswertung der Bilder deren Beweiswert nicht verändert werden.

Microsoft stellt die Algorithmen zur Anonymisierung und Abstraktion der Bilddateien zur Verfügung sowie eine intelligente Bilderkennung und die Rechenkapazitäten aus der Cloud. Der Verschlüsselungsalgorithmus funktioniere dabei über einen sogenannten Abstraktions-Layer, der die konkreten Bildinhalte so weit anonymisiert, dass auf den Bilddateien weder ein Personenbezug noch die Abbildung strafrechtlich relevanter kinderpornografischer Inhalte erkennbar sind, erklärt das Unternehmen. Was dem menschlichen Auge nun verborgen bleibt, kann der Analysealgorithmus trotzdem noch erkennen und auswerten. So können Dateien vorsortiert werden. Am Ende entscheiden weiterhin menschliche Experten, ob tatsächlich strafrechtlich relevantes Bildmaterial vorliegt, und sichern diese Dateien als gerichtsfestes Beweismaterial.

Zusätzlich soll der Algorithmus durch die eingespeisten Daten lernen und sich weiter verbessern. Bisher lernte er durch Bilder von Hunden und Katzen, in der nächsten Testphase mit tatsächlich strafrechtlich relevantem Material. Im Laufe des nächsten Jahres soll das System dann komplett an den Start gehen, hofft der Justizminister.

Neben Microsoft war auch die Zentral- und Ansprechstelle Cybercrime Nordrhein-Westfalen (ZAC NRW) in das laufende Projekt eingebunden. Die bei der Staatsanwaltschaft Köln angesiedelte ZAC ist nach Angaben der Landesregierung die bundesweit größte Cybercrime-Einheit der Justiz. Markus Hartmann, Leiter der ZAC, hofft darauf, dass es künftig nicht mehr passieren kann, dass Beweisdatenträger an Beschuldigte zurückgegeben werden müssen, bevor sie vollständig ausgewertet werden konnten. Das Gesetz verlange von den Behörden nämlich, dass sie Beweismittel nicht „unverhältnismäßig lange“ einbehalten dürften, erklärte der Oberstaatsanwalt gestern in Düsseldorf.

Außerdem sollten dann Initiativen wie die des Landeskriminalamts in Nordrhein-Westfalen hoffentlich bald der Vergangenheit angehören. Dort wurden noch vor Kurzem neu eingerichtete Stellen ausgeschrieben, wie „der Spiegel“ berichtete. Die Bewerber sollen die Behörden entlasten und kinderpornografisches Material sichten, eine kriminalistische Ausbildung wurde dafür nicht vorausgesetzt.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false