Experte warnt: Deepfake-Pornos werden in Sekunden erstellt – Fall Collien Fernandes zeigt Gefahren
Deepfake-Pornos in Sekunden erstellt – Experte warnt vor Gefahren

Deepfake-Pornos: Experte erklärt, wie in Sekunden gefälschte Inhalte entstehen

Es sind Bilder und Videos, die Existenzen ruinieren können – obwohl sie nicht real sind. Mit einer perfiden Technologie werden Frauen in entwürdigenden Posen dargestellt. Das Internet ist voll von sogenannten Deepfake-Pornos. Der Fall der Schauspielerin Collien Fernandes (44) verdeutlicht, welche Dimensionen KI-generierte Inhalte mittlerweile annehmen können.

Der Fall Collien Fernandes: Jahre der Manipulation

Ihr eigener Ehemann, Christian Ulmen (50), soll sie über ein Jahrzehnt hinweg gefälscht haben. „Jahrelang wurden unter meinem Namen Fake-Profile erstellt, die sich eng mit meinem beruflichen Umfeld vernetzten – vor allem Männer kontaktierten. Nach anfänglich normaler Konversation wurde es flirtiver, die Person schickte (falsche) Nacktfotos und Sexvideos von mir“, schreibt Collien Fernandes auf Instagram. Und weiter: „Die Person telefonierte mit den Männern (mit KI‑generierter Stimme von mir), irgendwann ging es über in Telefonsex.“

Technische Entwicklung: Von Wochen zu Sekunden

BILD sprach mit Dr. Martin Steinebach (54), Experte für Deepfakes und Professor für Informatik. Er leitet die Abteilung „Media Security and IT Forensics“ am Fraunhofer-Institut für Sichere Informationstechnologie „SIT| ATHENE“ in Darmstadt (Hessen). „Man spricht davon, dass 2017 die Geburtsstunde der Deepfakes war. Damals sind die ersten durch das Netz kursiert. Die Tools waren wirklich noch schwer anzuwenden“, erklärt Steinebach.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Nur technisch versierten Personen gelang es damals, mit Programmiercodes Deepfakes zu erstellen. Der Computer benötigte dafür zwei bis drei Wochen Rechenzeit. 2019 gab es bereits die erste App, die automatisch Nacktfotos erstellen konnte. „Das Tool war aber noch stark darauf angewiesen, dass man ihm geeignetes Ausgangsmaterial lieferte“, so der Experte.

Heutige Realität: Fakes in Echtzeit

Die Technik hat sich rasant verbessert und macht es Tätern immer einfacher. „Pornografische Fotoinhalte zu erstellen, ist heute eine Sache von Sekunden. Ich drücke auf einen Knopf und habe 10 Sekunden später einen Kopf auf ein Nacktfoto gelegt. Bei Videos kommt es ein bisschen auf die Länge an. Aber auch das ist heute echtzeitfähig“, warnt Steinebach.

Programme können den Kopf des Opfers auf den Körper einer Erotikdarstellerin montieren. Andere ziehen eine Person auf einem Foto automatisch aus. So hatte beispielsweise der KI-Assistent „Grok“ von X auf Nachfrage Nacktfotos erstellt.

Täter und Motive: Von Rache bis zu virtuellen Models

Doch wer sind die Nutzer und Täter? Laut dem Experten werden solche KI-Pornos häufig für Rachefeldzüge gegen Ex-Partner genutzt, aber auch für Erpressungsversuche (Sextortion). „Und dann gibt es noch Leute, die das wirklich in ihrer Freizeit machen. Da geht es meistens um Prominente, etwa Schauspielerinnen, die sie in einem Film gesehen haben. Mittlerweile gibt es sogar schon OnlyFans-Models, die komplett virtuell sind“, erklärt der Informatiker.

Stimmenfälschung: Dieselbe Technik wie beim Enkeltrick

Unfassbar: Christian Ulmen soll mithilfe von KI auch Telefonsex im Namen seiner Ehefrau gehabt haben. Auch das hält der Experte technisch für durchaus möglich. „Seit etwa zwei Jahren gibt es Voice-Transformer, mit denen Täter in Echtzeit bei einem Telefonat ihre Stimme ändern können“, sagt Steinebach. Dieselbe Technik nutzten Täter auch bei Schockanrufen und Enkeltricks.

Weitreichende Gefahren: Von Desinformation bis Kinderpornografie

Der Experte warnt vor den vielfältigen Gefahren: „Deepfakes haben in ganz vielen Feldern gefährlichen Einfluss. Desinformation, Mobbing, sexualisierte Gewalt oder Betrugsfälle“. In Hongkong wurde einmal die komplette Führungsriege eines Unternehmens simuliert und eine Person angewiesen, 25 Millionen Euro zu überweisen. „Auch im Kontext von Kinderpornografie werden Deepfakes genutzt. Die Polizei hat dann das Problem, dass es kinderpornografische Inhalte gibt, aber keine Opfer dazu, und die Ermittlungen laufen ins Leere“.

Die Entwicklung zeigt: Was vor wenigen Jahren noch technisch aufwendig war, ist heute in Sekunden möglich – mit verheerenden Folgen für die Betroffenen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration