Faktencheck: So erkennen Sie KI-Fakes in der Epstein-Affäre – Experten erklären Methoden
Faktencheck: KI-Fakes in Epstein-Affäre erkennen – Experten-Tipps

Faktencheck: Wie man KI-Fakes in der Epstein-Affäre erkennt

Seit der Veröffentlichung der Epstein-Files kursieren unzählige manipulierte KI-Bilder und Videos auf Social-Media-Plattformen. Behauptungen, dass Ghislaine Maxwell frei in Kanada lebe oder Jeffrey Epstein in Israel gesichtet wurde, verbreiten sich rasend schnell. Die SPIEGEL-Dokumentation erklärt nun, wie man solche Falschinformationen erkennt und nicht auf sie hereinfällt.

Deepfake-Video entlarvt: Ghislaine Maxwell in Québec?

Ein Video, das angeblich zeigt, wie Ghislaine Maxwell frei auf den Straßen von Québec herumläuft, wurde von Experten als KI-Fake identifiziert. Friederike Röhreke, Dokumentationsjournalistin im SPIEGEL-Osint-Team, analysierte das Material: „Nein, das Video ist nicht echt. Wenn man es in Einzelbilder zerlegt, erkennt man deutliche Unstimmigkeiten.“

Sie wies auf mehrere Anzeichen hin:

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram
  • Verzerrungen im Gesichtsbereich
  • Unnatürlich wirkende Zähne in Standbildern
  • Ungewöhnliche Schärfeverteilung (Gesicht scharf, Umgebung unscharf)
  • Inkonsistenzen im Nasenrücken zwischen verschiedenen Frames

Laut Röhreke handelt es sich um einen Face-Swap-Deepfake, bei dem ein Gesicht durch das einer anderen Person ausgetauscht wurde.

Praktische Tipps zur Erkennung von KI-Manipulationen

Die Expertin gibt konkrete Ratschläge, wie Nutzer Fakes erkennen können:

  1. Quellenprüfung: Immer überprüfen, welcher Account das Material verbreitet. Ein Screenshot mit anschließender Bildrückwärtssuche bei Google kann Aufschluss geben.
  2. Plausibilitätscheck: Kritisch hinterfragen, ob die Behauptung realistisch ist. Wenn die inhaftierte Ghislaine Maxwell tatsächlich frei in Québec leben würde, gäbe es vermutlich mehr Aufnahmen und Zeugen.
  3. Technische Analyse: Auf Details achten – bei dem angeblichen Epstein-Foto in Israel fielen mehrere Ungereimtheiten auf.

Fallbeispiel: Jeffrey Epstein in Israel?

Ein Foto, das Jeffrey Epstein in Israel zeigen soll, entpuppte sich bei genauerer Betrachtung als Fälschung. Friederike Röhreke erklärt die Auffälligkeiten:

  • Das untere Schild ist nicht konsequent dreisprachig (oben Hebräisch/Arabisch/Englisch, unten doppelt Hebräisch)
  • Die hebräischen Wörter ergeben keinen Sinn und entsprechen keinem realen Ortsnamen in Israel
  • Unten rechts ist das Wasserzeichen der Gemini-KI erkennbar
  • Die Ampel zeigt Grün oben statt unten – ein typischer Fehler in KI-generierten Bildern

„Immer kritisch prüfen, wer etwas verbreitet, ob es plausibel ist und im Zweifel nicht weiterverbreiten“, rät die Expertin abschließend.

Verantwortungsvoller Umgang mit Social-Media-Inhalten

Die Verbreitung von KI-generierten Falschinformationen stellt eine wachsende Herausforderung dar. Besonders bei sensiblen Themen wie der Epstein-Affäre ist sorgfältige Verifikation essenziell. Die SPIEGEL-Dokumentation zeigt, dass mit einfachen Methoden und kritischem Hinterfragen viele Fakes entlarvt werden können. Verlässliche Informationen bleiben dabei unverzichtbar – insbesondere wenn spektakuläre Behauptungen im Umlauf sind.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration