
Bayern KI in der Strafverfolgung: Darf der Staat Identitäten stehlen?
In welcher Form dürfen Strafverfolgungsbehörden Deepfakes einsetzen? Mit diesem Thema beschäftigt sich ein Projekt an der Uni Bayreuth. Der Einsatz von realistisch wirkenden, aber verfälschten Medieninhalten wirft nicht nur juristische Fragen auf.
"Es geht um mehrere Tausend Euro. Bitte Oma, ich darf nicht mit jemand anderem sprechen", ertönt es aus dem Lautsprecher. Wenn man genau darauf achtet, klingt die Stimme etwas abgehakt. Doch vielen Laien dürfte das Video, in dem der Professor für Wirtschaftsinformatik Niklas Kühl seine Großmutter angeblich um Hilfe bittet, nicht sonderlich auffallen.
"Die Videoaufnahme ist echt, das ist eine Vorlesung, die ich mal gehalten habe. Was nicht echt ist: Das, was ich sage und wie die Lippen sich bewegen" sagt Kühl über das selbsterstellte Beispiel eines Deepfakes. Es soll verdeutlichen, wie sich Betrüger Künstliche Intelligenz (KI) zunutze machen können.
Wie dürfen Polizei und Staatsanwaltschaften künftig KI verwenden?
Kühl ist einer von drei Professoren der Uni Bayreuth, die zusammen mit weiteren Forschern und Staatsanwälten vor wenigen Wochen ein Forschungsprojekt zum Thema "Deepfakes in der Strafverfolgung" gestartet haben. Dabei soll beleuchtet werden, wie der Einsatz von KI in diesem Bereich konkret aussehen kann – also, ob die Technik der Betrüger künftig auch von Polizei und Staatsanwaltschaft genutzt werden darf.
Ein mögliches Fallbeispiel: KI wird von einem verdeckten Ermittler benutzt. "Die Grundidee ist, dass ich erst mal eine gewisse Zeit lang Aufnahmen von jemandem habe, der in so einem kriminellen Ring aktiv ist", erklärt Kühl. Dadurch könnten sich die Ermittler einen Klon von dem Bild und einen Klon von der Stimme erstellen. "Ab diesem Zeitpunkt könnte ich mich dann virtuell als diese Person ausgeben." Bei Tätergruppen, die sich nur über das Internet treffen, könnten sich Ermittler so digital einschleusen – und zu einem späteren Zeitpunkt bestenfalls zugreifen und die Täter festnehmen. Soweit die Theorie.
Diebstahl einer Identität ist auch ein Eingriff ins Persönlichkeitsrecht
Die klassische verdeckte Ermittlungsarbeit würde mithilfe der KI optimiert, erklärt Christian Rückert, Professor für Strafrecht an der Uni Bayreuth: "Das neue Potenzial ist das komplette Faken von existierenden Personen. Das wird – zumindest, soweit ich weiß – von deutschen Behörden noch nicht gemacht." Ein Teil des Projekts an der Uni sei deshalb auch, herauszufinden, ob Strafverfolgungsbehörden das zukünftig machen dürfen. Denn, die Frage, ob der Staat Identitäten stehlen darf, wirft juristische Fragen auf.
Künstliche Intelligenz könnte im besten Fall zwar schneller dazu führen, dass Täter überführt werden. Aber die KI sorgt auch dafür, "dass wir gleichzeitig die Identität einer anderen Person kopieren und dementsprechend auch in dessen allgemeines Persönlichkeitsrecht zusätzlich eingreifen", so Rückert. Diese Art von Grundrechtseingriff sei neu.
Normalisierung von Deepfakes birgt gesellschaftliche Folgen
Das Thema "KI in der Strafverfolgung" birgt demnach nicht nur aus juristischer Perspektive Konfliktpotential. Das Forschungsteam an der Uni Bayreuth bezieht deshalb auch die ethische Sicht in ihre Forschung mit ein. Denn die neuen Maßnahmen können langfristige Folgen haben, sagt Philosophieprofessorin Lena Kästner: "Angenommen, man würde Deepfakes weitgehend legitimieren, dann hätte man womöglich den Effekt, dass jeder jeden noch einfacher faken kann. Und das scheint mir doch aus verschiedenen Gründen problematisch."
Einsatz von Deepfakes: Gesetzeslage in Deutschland unklar
Der aktuelle Stand zur Verwendung von Künstlicher Intelligenz in der Strafverfolgung ist in Deutschland übrigens unklar, betont Strafrechtsprofessor Rückert. "Es gibt keine spezifische gesetzliche Regelung für den Einsatz von kopierten Personen durch Deepfakes. Wenn Sie in Gesetzen danach suchen, finden Sie nichts." Es gebe nur allgemeine Regelungen, zum Beispiel für den verdeckten Ermittler.
Ob diese Regelungen ausreichen? Und wie können Deepfakes die Verfolgung von Straftätern verändern? Mit diesen und ähnlichen Fragen beschäftigt sich das Team der Uni Bayreuth, dessen Forschungsprojekt auf die nächsten drei Jahre ausgelegt ist. Das Ziel der Grundlagenforschung: Hinweise für Gesetzgeber und Strafverfolgungsbehörden formulieren.
💡 Was ist ein Deepfake?
Ein Deepfake ist ein echt wirkender, mit KI bearbeiteter Medieninhalt, in der Regel von einer Person. Der Begriff setzt sich aus den Worten "Deep-Learning" (einer Art maschinellem Lernen von Computern) und "Fake" zusammen. Bei einem Deepfake-Video wird dabei entweder eine Art digitale Maske über eine andere Person gezogen und eine - häufig bekannte - Person somit in eine komplett andere Situation gebracht. Oder es werden bei echtem Videomaterial der betreffenden Person die Mimik und die Mundbewegungen so angepasst, dass es zu einem neuen, häufig ebenfalls KI-generierten, Sprachinhalt passt.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!
Quelle: Frankenschau aktuell 24.04.2025 - 17:30 Uhr