Deepfakes im Netz: So wehren sich Betroffene gegen gefälschte Inhalte
Deepfakes: So wehren Sie sich gegen gefälschte Inhalte

Deepfakes im Netz: So wehren sich Betroffene gegen gefälschte Inhalte

Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat eine neue Dimension der digitalen Manipulation ermöglicht: sogenannte Deepfakes. Dabei handelt es sich um mit KI erzeugte oder stark veränderte Fotos, Videos oder Audiodateien, die täuschend echt wirken sollen. Besonders problematisch sind dabei unerlaubte Montagen von Gesichtern oder Stimmen realer Personen in peinliche, sexuelle oder politische Kontexte.

Was genau sind Deepfakes und wann werden sie illegal?

„Meist werden Gesichter oder Stimmen realer Personen so in eine Szene eingebaut, dass der Eindruck entsteht: Das hat diese Person wirklich gesagt oder getan“, erklärt Marvin Pawelczyk vom Digital-Branchenverband Bitkom in Berlin. Deepfakes sind nicht automatisch verboten, werden jedoch problematisch, sobald sie Rechte anderer verletzen. In Deutschland gilt insbesondere das Recht am eigenen Bild, das eine Veröffentlichung ohne Zustimmung grundsätzlich untersagt.

„Wird ein Gesicht per KI in eine peinliche oder sexuelle Szene montiert oder für Werbung benutzt, ist das in der Regel unzulässig“, betont Pawelczyk. Kommt eine Täuschungsabsicht hinzu – etwa bei gefälschten Sprachnachrichten zur Gelderschleichung oder bei erfundenen, ehrverletzenden Zitaten von Politikerinnen und Politikern – kann dies strafbar sein. Mögliche Delikte umfassen Beleidigung, Verleumdung, Verletzung der Privatsphäre oder Betrug.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Erste Schritte: Wie Betroffene schnell reagieren können

Für Betroffene steht zunächst im Vordergrund, das betreffende Material unzugänglich zu machen und eine Weiterverbreitung zu unterbinden. Die schnellste Möglichkeit ist ein Vorgehen gegen die Plattformen, über die das Material verbreitet wird, also meist soziale Netzwerke. „Diese sind rechtlich verpflichtet, solche rechtsverletzenden Inhalte schnell zu prüfen und gegebenenfalls zu löschen, um sich nicht haftbar zu machen“, erläutert Prof. Christian Solmecke, Rechtsanwalt für Medien- und IT-Recht.

Dieses Verfahren, bekannt als „Notice and take down“ (Meldung und Entfernung), ist nach Artikel 16 des Digital Services Act (DSA) verpflichtend. Betroffene können dafür die von den Plattformen vorgesehenen Meldewege wie Online-Formulare oder Melde-Buttons nutzen. Parallel dazu ist eine umfassende Beweissicherung entscheidend: Screenshots, gespeicherte Internetadressen (URLs) und Upload-Zeitpunkte sollten dokumentiert werden. Organisationen wie Hate Aid bieten Unterstützung bei der Beweissicherung und beim Kontakt zu Plattformen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration

Sieben konkrete Maßnahmen gegen Deepfakes

  1. Beweise sichern: Für jede Meldung und jedes weitere Vorgehen ist eine lückenlose Dokumentation unerlässlich. Dazu zählen Screenshots, URLs und Zeitstempel. Bei Bedarf helfen Stellen für Opfer digitaler Gewalt wie Hate Aid.
  2. Interne Beschwerdestellen nutzen: Bei Unzufriedenheit mit der Entscheidung des Netzwerks kann die interne Beschwerdestelle nach Artikel 20 DSA kontaktiert werden. Bleibt auch diese erfolglos, steht nach Artikel 21 DSA eine außergerichtliche Streitbeilegungsstelle zur Verfügung, aktuell in Deutschland die User Rights GmbH.
  3. Gegen Suchmaschinen vorgehen: Auf Basis von Artikel 17 der Datenschutzgrundverordnung (DSGVO) können Betroffene von Suchmaschinenanbietern die Entfernung von Verlinkungen auf unzulässige Inhalte verlangen. Zudem ist über das „Notice and take down“-Verfahren ein Vorgehen gegen alle betroffenen Webseiten möglich.
  4. Gerichtliche Schritte einleiten: Reagieren Plattformen oder Websites nicht, können sie über eine einstweilige Verfügung oder Klage zum Löschen gezwungen werden. Grundlage sind Beseitigungs- und Löschungsansprüche wegen Verletzung des Persönlichkeitsrechts.
  5. Aufsichtsbehörden einschalten: Soziale Netzwerke sind nach Artikel 34 und 35 DSA verpflichtet, Missbrauchsrisiken zu minimieren und Deepfakes zu erkennen. Bei Verdacht auf Pflichtverletzungen kann die Bundesnetzagentur als nationale DSA-Aufsichtsstelle informiert werden.
  6. Strafanzeige erstatten: Zusätzlich zur Meldung bei Plattformen sollten Betroffene die Urheber oder Verbreiter von Deepfakes bei Polizei oder Staatsanwaltschaft anzeigen und gegebenenfalls Strafantrag stellen. Datenschutzaufsichtsbehörden können ebenfalls eingeschaltet werden. Verbreitern drohen Bußgelder bis zu 20 Millionen Euro gemäß Artikel 83 Absatz 5 DSGVO.
  7. Zivilrechtliche Ansprüche geltend machen: Über einstweilige Verfügungen oder Klagen direkt gegen Urheber oder Veröffentlichende können Löschungs- und Unterlassungsansprüche durchgesetzt werden. Im Klageverfahren sind auch Schadensersatzansprüche gegen alle schuldhaft Handelnden möglich, einschließlich wissentlicher Weiterverbreiter.

Die zunehmende Verbreitung von Deepfakes unterstreicht die Dringlichkeit, rechtliche Rahmenbedingungen und technische Gegenmaßnahmen weiterzuentwickeln. Betroffene sollten nicht zögern, ihre Rechte konsequent durchzusetzen, um der digitalen Manipulation entgegenzuwirken.