Europol: Deepfakes werden bei Kriminellen ein immer beliebteres Werkzeug

Europol: Deepfakes werden bei Kriminellen ein immer beliebteres Werkzeug

In den kommenden Monaten und Jahren ist es sehr wahrscheinlich, dass Gefährder zunehmend auf Deepfakes setzen, um einfacher Straftaten zu begehen. Davor warnt das Innovationslabor von Europol in einem am Donnerstag veröffentlichten Bericht. „Bedrohliche Akteure“ dürften demnach computergenerierte Manipulationen zudem vermehrt nutzen, um Desinformationskampagnen durchzuführen. Dahinter stehe das Ziel, die öffentliche Meinung zu beeinflussen oder zu verzerren.

Unter Deepfakes verstehen Wissenschaftler zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mit Hilfe von Systemen Künstlicher Intelligenz (KI) in neue Kontexte gestellt werden. Oft werden so Dritten etwa Worte in den Mund gelegt, die sie so niemals gesagt haben.

Die Autoren der Untersuchung führen mehrere aktuelle Beispiele für den potenziellen Einsatz der Technik bei schweren Straftaten an. Dazu gehört die an Phishing-Kampagnen erinnernde sogenannte Chef-Masche alias CEO-Betrug, wobei sich Kriminelle als führende Mitarbeiter auszugeben und Organisationen zu prellen versuchen, die Manipulation von Beweismaterial und die Herstellung von Pornografie ohne Einwilligung des Betroffenen.

„Berichte aus erster Hand werden höher bewertet als Versionen eines Ereignisses aus zweiter Hand“, erläutern die Verfasser. Auditive und visuelle Aufzeichnungen eines Vorgangs würden oft als wahrheitsgetreue Darstellung betrachtet. Fotos und Videos seien auch wichtige Informationen für die Polizeiarbeit und stellten vor Gericht Beweise. Die Experten fragen: „Was aber, wenn diese Medien künstlich erzeugt und so angepasst werden können, dass sie Ereignisse zeigen, die nie stattgefunden haben“, oder die Wahrheit verfälschen?

Vor dem Einmarsch Russlands in die Ukraine haben die USA dem Bericht zufolge ein Komplott des Kremls zur Verwendung gefälschter Videos aufgedeckt, um eine Invasion im Nachbarland zu rechtfertigen. Nach dem bewaffneten Angriff „warnten Beamte der ukrainischen Regierung, dass Russland Deepfakes verbreiten könnte, die die Kapitulation des ukrainischen Präsidenten Wolodymyr Selenskyj zeigen“. Diese Befürchtung scheine sich bewahrheitet zu haben, nachdem Hacker auf einer ukrainischen Nachrichtenwebsite ein entsprechendes Video eingespielt hätten.

Fortschritte bei Systemen für maschinelles Lernen und die öffentliche Verfügbarkeit großer Bild- und Videodatenbanken bedeuten der Analyse zufolge, „dass Umfang und Qualität von Deepfake-Inhalten zunehmen“. Experten schätzten, dass insbesondere Generative Adversarial Networks (GANs), die Verfügbarkeit öffentlicher Datensätze und die zunehmende Rechenleistung die Antriebskräfte für die künftige Entwicklung computergenerierter Manipulationen seien. Diese Trends machten es schwieriger, Deepfakes von authentischen Inhalten zu unterscheiden. Dies werde einschlägige Straftaten weiter erleichtern und die Polizeiarbeit vor größere Herausforderungen stellen.

Ein Großteil der heute erstellten computergenerierten Tricks kann durch manuelle Methoden identifiziert werden, bei denen menschliche Analysten verräterische Anzeichen in Bildern und -Videos erkennen. Dies ist jedoch eine arbeitsintensive Aufgabe, die nicht im großen Stil durchgeführt werden kann. Die Autoren drängen daher darauf, dass auch die Strafverfolgungsbehörden ihre Fähigkeiten und Technologien verbessern müssen, wenn sie mit der kriminellen Nutzung von Deepfakes Schritt halten wollen. Zudem sehen sie den Gesetzgeber und die Plattformbetreiber gefordert. Europol hatte schon 2019 wegen disruptiver Technologien Alarm geschlagen.


(mho)

Zur Startseite

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.