Deepfake-Angriff auf CDU-Mitarbeiterin: Rechtliche Lücken bei digitaler Gewalt
Eine Mitarbeiterin der niedersächsischen CDU-Fraktion im Landtag ist mutmaßlich Opfer eines Deepfake-Videos mit sexualisiertem Inhalt geworden. Die Staatsanwaltschaft Hannover bestätigte, dass ein Bild der Frau vermutlich mit spezieller Software in ein Video montiert wurde. Das manipulierte Material zeigt die Frau angeblich lasziv und aufreizend tanzend in einem Bikini. Das Video soll in einer privaten WhatsApp-Gruppe mit Bezug zur Mitarbeiterschaft der CDU-Fraktion geteilt worden sein.
Ermittlungen ohne klare Rechtsgrundlage
Die Staatsanwaltschaft prüft die Vorwürfe nach einer Information durch die CDU-Fraktionsführung. Bisher wird jedoch nicht gegen den mutmaßlichen Ersteller des Videos ermittelt. Laut Behördenangaben kommt möglicherweise eine Verletzung des Kunsturhebergesetzes in Betracht – Ermittlungen würden aber nur eingeleitet, wenn das Opfer einen Strafantrag stellt. Diese Situation verdeutlicht die gravierenden Lücken im deutschen Strafrecht bei digitaler Gewalt.
Warum Deepfakes bisher kaum strafbar sind
Bisher existiert kein spezieller Straftatbestand für nicht einvernehmliche sexualisierte Deepfakes, wie die auf digitale Gewalt spezialisierte Beratungsstelle Hateaid mitteilte. Deepfakes sind täuschend echte, mit Künstlicher Intelligenz generierte oder manipulierte Bilder, Videos und Audioaufnahmen. Derzeit arbeitet das Bundesjustizministerium an einem Gesetz gegen digitale sexuelle Gewalt, das unter anderem das Erstellen und Verbreiten sexualisierter Deepfakes unter Strafe stellen soll. Der Bundestag könnte im Herbst 2026 darüber entscheiden.
Anna-Lena von Hodenberg, Mitgründerin von Hateaid, betont die Dringlichkeit: „Wir merken seit Jahren einen Anstieg der Fälle in unserer Betroffenenberatung. Insbesondere seitdem KI-Tools leichter zugänglich sind.“ Die Organisation verzeichnet eine stetig wachsende Zahl von Betroffenen, die sich mit den Folgen solcher digitaler Angriffe konfrontiert sehen.
Begrenzte rechtliche Möglichkeiten für Betroffene
Betroffene können sich derzeit hauptsächlich auf folgende Rechtsgrundlagen berufen:
- Verletzung des Rechts am eigenen Bild nach dem Kunsturhebergesetz
- Mögliche Beleidigung oder Verleumdung
- Zivilrechtliche Ansprüche auf Unterlassung und Schadenersatz
Juristisch wird auch über den Straftatbestand der Verletzung des höchstpersönlichen Lebensbereiches diskutiert. Allerdings sind alle strafrechtlich infrage kommenden Tatbestände laut Hateaid Bagatelldelikte, die häufig eingestellt werden. „Das Problem ist: Das Strafrecht hinkt den technologischen Entwicklungen hinterher“, erklärt von Hodenberg.
Besondere Herausforderungen bei sexualisierten Inhalten
Die bloße Herstellung von Deepfakes ist derzeit strafrechtlich überhaupt nicht erfasst, obwohl bereits dadurch das Recht auf Intimsphäre und sexuelle Selbstbestimmung verletzt wird. Bei der Frage, wie sexuell explizit ein Deepfake ist, wird die Unterscheidung laut von Hodenberg vor allem im Bereich der Strafzumessung relevant.
Bei den Straftatbeständen selbst gestaltet sich die Einordnung schwieriger: Damit eine sexuelle Belästigung vorliegt, benötigt es eine „sexuell bestimmte Handlung“, die die Würde der betroffenen Person verletzt. Bei Deepfakes ist dies juristisch problematisch, weil keine physische Handlung stattfindet. Wie sexualisiert ein Deepfake ist, kann jedoch eine Rolle dabei spielen, ob eine Beleidigung oder Verleumdung angeklagt wird – „insbesondere, wenn das Material eindeutig sexualisiert und ehrverletzend ist“, so von Hodenberg.
Geplante Gesetzesänderungen und ihre Grenzen
Der Gesetzesentwurf des Bundesjustizministeriums sieht vor, die unerlaubte Herstellung und Verbreitung von Nacktbildern und KI-manipuliertem Material zu bestrafen. Konkret könnte dies bedeuten, dass „das Abbild einer Person mit künstlich generierten nackten Körperteilen verbunden und im Falle der Erstellung von Videos mit künstlich generierten Lauten, Geräuschen oder Sätzen unterlegt wird“. Als Strafen sind Geldstrafen und Haftstrafen bis zu zwei Jahren vorgesehen.
Ob diese Maßnahmen ausreichen, hängt nach Ansicht von Hateaid von der konkreten Ausgestaltung ab. „Entscheidend ist, dass auch nicht vollständig nackte, aber eindeutig sexualisierte Deepfakes erfasst werden“, betont von Hodenberg. Zusätzlich brauche es Aufklärung über oder ein Verbot von Software, die Deepfakes erst ermögliche. Auch Pornoplattformen müssten stärker in die Pflicht genommen und die Löschung derartiger Inhalte erleichtert werden.
Der Fall der CDU-Mitarbeiterin zeigt deutlich, wie dringend der Gesetzgeber handeln muss, um Betroffene digitaler Gewalt angemessen zu schützen und Täter zur Verantwortung ziehen zu können.



