All Stories
Follow
Subscribe to Universität Konstanz

Universität Konstanz

Künstliche Intelligenz als „Schlüssel zur Hausdurchsuchung“, PI Nr. 08/2024

One document

Künstliche Intelligenz als „Schlüssel zur Hausdurchsuchung“

Nutzt Deutschland US-amerikanische Daten, die von einer künstlichen Intelligenz ausgewertet wurden, als Grundlage für Hausdurchsuchungen? Das Centre for Human | Data | Society der Universität Konstanz warnt davor, dass digitale Prozesse immer häufiger gesetzliche Regelungen vorwegnehmen. Algorithmen erhalten dadurch eine quasi-gesetzliche Macht.

Es klingt wie aus einem Zukunftsroman: Eine künstliche Intelligenz (KI) interpretiert Daten aus Millionen von Verbrechensmeldungen, entscheidet, was strafrechtlich relevant sein könnte, und stößt dadurch Hausdurchsuchungen an, die dann real vollstreckt werden. Es gibt jedoch gute Gründe anzunehmen, dass dies bereits heute in Deutschland faktisch geschieht: Die US-amerikanische Meldeplattform „CyberTipline“ der halbstaatlichen Kinderschutzorganisation NCMEC sendet mutmaßlich maschinell ausgewertete Daten über die Verbreitung von Darstellungen sexualisierten Kindesmissbrauchs (im Folgenden: CSAM) an deutsche Behörden. Diese Daten werden in Deutschland relativ ungefiltert als „Schlüssel zur Hausdurchsuchung“ genutzt, schildert Staatsanwalt Simon Pschorr, abgeordneter Praktiker an der Universität Konstanz. Das Centre for Human | Data | Society der Universität Konstanz sieht ein Transparenzproblem bei der juristischen Nutzung von KI-verarbeiteten Daten und warnt davor, wenn ein Algorithmus eine quasi-gesetzliche Macht erhält.

32 Millionen Hinweise, 350 Mitarbeiter*innen und mutmaßlich eine KI

Das „National Center for Missing & Exploited Children“ (NCMEC) ist eine private amerikanische Kinderschutzorganisation, die teils unter staatlichem Auftrag arbeitet. Das NCMEC hat die Online-Meldeplattform „CyberTipline“ eingerichtet. Menschen aus allen Ländern können dort die Verbreitung von CSAM melden; amerikanische Internetprovider sind dazu sogar gesetzlich verpflichtet.

Allein im Jahr 2022 gingen mehr als 32 Millionen Hinweise bei der Plattform ein; das sind im Schnitt rund 87.600 Eingänge pro Tag. Dem steht ein Team von rund 350 Mitarbeiter*innen gegenüber, davon 30 Analyst*innen, die diesen Berg an Verbrechensmeldungen sichten sollen. Trotzdem werten sie die Daten innerhalb von teils nur 28 Sekunden seit Tatzeitpunkt aus, wie ein Beschluss des Amtsgerichts Reutlingen nahelegt, und leiten diesen Bericht an deutsche Behörden weiter.

„Innerhalb von Sekunden kann kein Mensch die Hinweise angesehen, bewertet und weitergegeben haben. Das muss ein automatisch agierendes System gewesen sein“, schlussfolgert Staatsanwalt Simon Pschorr, Forscher am Centre for Human | Data | Society. Pschorr vermutet den Einsatz einer künstlichen Intelligenz zur Verarbeitung der Daten. Weitere Hinweise darauf sind die stark musteridentischen Berichte der CyberTipline sowie die bekannte Kooperation der Trägerorganisation NCMEC mit dem amerikanischen Software-Unternehmen Palantir, das maschinelle Lösungen zur Verarbeitung großer Datenmengen entwickelt.

Rechtliche Probleme und Lösungsansätze

Das NCMEC und seine Meldeplattform CyberTipline werden in der Bekämpfung von CSAM als vorbildlich betrachtet. In weit mehr als der Hälfte der gemeldeten Fälle führen Hausdurchsuchungen an der Anschrift der gemeldeten Anschlüsse zu Funden von CSAM, so Pschorr. Deshalb zweifelt der abgeordnete Praktiker den großen Nutzen dieser Einrichtung nicht an, äußert jedoch grundsätzliche Bedenken hinsichtlich der Rechtsstaatlichkeit der Beweisgewinnung:

  • Transparenz der Daten: Es ist nicht nachvollziehbar, wie die künstliche Intelligenz der CyberTipline zum Ergebnis ihrer Auswertung kam. Die Arbeitsschritte und Beweisführungen des Algorithmus sind nicht dokumentiert. Die Nutzung dieser Daten zur Strafverfolgung steht daher prozessrechtlich auf sehr dünnem Eis. Tatsächlich werden nur sehr wenige Anklagen unmittelbar auf Grundlage der Daten erhoben. In den meisten Fällen dienen die Datenberichte der CyberTipline vielmehr zur Begründung eines Anfangsverdachts, der eine Hausdurchsuchung ermöglicht. Die Anklage findet dann auf Basis der Ergebnisse der Hausdurchsuchung statt, nicht aber auf Grundlage der gemeldeten Daten.
  • Umgehung nationaler Gesetze: Nach einer Entscheidung des Bundesverfassungsgerichts von 2023 dürfen automatische Datenverarbeitungssysteme in Deutschland nicht ohne besondere rechtliche Grundlage zur automatischen Verarbeitung von Polizeidaten genutzt werden. Dieses Verbot umgeht die deutsche Justiz, indem sie maschinell ausgewertete Daten aus dem Ausland verwendet und als „Schlüssel zur Hausdurchsuchung“ heranzieht. „Es darf kein Befugnis-Shopping zur Umgehung der Schranken des nationalen Rechts geben“, fordert Simon Pschorr. „Es dient einem guten Zweck – aber der Zweck heiligt nicht alle Mittel.“
  • Keine staatliche Einrichtung: Der Träger der CyberTipline ist eine private Organisation und keine staatliche Einrichtung. Staatliche Aufgaben der Verbrechensdokumentation und -bekämpfung sind hier einer privaten Organisation anvertraut und damit gerichtlicher Kontrolle entzogen.

Zur Lösung des Problems schlägt Simon Pschorr die Einrichtung eines europäischen Pendants der CyberTipline vor, das aber erstens in Einklang mit dem europäischen Recht arbeitet, zweitens eine Transparenz der Daten gewährleistet und drittens einen staatlichen (oder europäischen) Träger hat. So werde effektiver Grundrechtsschutz garantiert und eine „Strafverfolgung um jeden Preis“ vermieden, verdeutlicht Pschorr.

Wenn der Algorithmus zum Gesetz wird

Das Centre for Human | Data | Society beobachtet im Zuge der Datafizierung zunehmende Tendenzen, in denen Algorithmen eine quasi-gesetzliche Macht erhalten. Die CyberTipline ist nur eines der Beispiele dafür. „Code creates law – der Algorithmus wird Gesetz“, schildert Liane Wörner, Direktorin des Centre for Human | Data | Society, das Problem: „Wir beobachten im digitalen Raum ein Regelungschaos; Verantwortlichkeiten werden häufig nicht geklärt. Mittels Programmierung werden Regelungen festgeschrieben, denen quasi-gesetzgeberische Macht zukommt.“ Die programmierbaren Möglichkeiten bestimmen demnach viel zu häufig die Rechtspraxis im digitalen Bereich – anstelle von echten gesetzlichen Regelungen.

Über das Centre for Human | Data | Society

Das Centre for Human | Data | Society (CHDS) wurde im Herbst 2022 an der Universität Konstanz gegründet. Das Forschungszentrum untersucht die Prozesse der Digitalisierung und Datafizierung in unserer (Daten-)Gesellschaft und stellt dabei den Menschen in den Mittelpunkt: Welche Interaktionen bestehen zwischen Mensch und Datengesellschaft? Was für eine Datengesellschaft wollen wir und wie soll sie gestaltet werden? Das CHDS analysiert hierfür mit einer transdisziplinären Perspektive die technischen, rechtlichen, politischen, psychologischen, medienkulturellen, historischen, wirtschaftlichen und sozialen Aspekte der Datengesellschaft. Weitere Informationen unter: www.uni-konstanz.de/centre-for-human-data-society/

Faktenübersicht:

Hinweis an die Redaktionen:

Fotos stehen zum Download zur Verfügung:

  1. https://www.uni-konstanz.de/fileadmin/pi/fileserver/2024/kuenstliche_intelligenz_simon_pschorr.jpg Bildunterschrift: Staatsanwalt Simon Pschorr, abgeordneter Praktiker an der Universität Konstanz Copyright: Simon Pschorr
  2. https://www.uni-konstanz.de/fileadmin/pi/fileserver/2024/kuenstliche_intelligenz_woerner.jpg Bildunterschrift: Prof. Dr. Liane Wörner, Professorin für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung, Medizinstrafrecht und Rechtstheorie an der Universität Konstanz und Direktorin des Centre for Human | Data | Society Copyright: Universität Konstanz/Inka Reiter
Kontakt:
Universität Konstanz
Kommunikation und Marketing
Telefon: + 49 7531 88-3603
E-Mail:  kum@uni-konstanz.de

- uni.kn

More stories: Universität Konstanz
More stories: Universität Konstanz