Deepfakes aufdecken: Die Arbeit der IT-Forensiker im digitalen Zeitalter
Ein Interview bei strahlendem Sonnenschein - doch der Schatten fällt in die falsche Richtung? Immer häufiger müssen IT-Forensiker täuschend echte, KI-generierte Inhalte entlarven. Deepfakes - künstlich erzeugte Bilder, Videos und Audioaufnahmen - verbreiten sich rasant auf Social Media, Pornoseiten und politischen Plattformen. Während sie manchmal nur der Unterhaltung dienen, können sie ebenso Reputationen zerstören oder sogar Wahlen beeinflussen. Die Politik hat das Problem mittlerweile auf ihrer Agenda erkannt.
Der menschliche Blick: Erste Anhaltspunkte für Fälschungen
Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching bei München leitet eine Forschungsgruppe zu Deepfakes. Er betont, dass eine erste Analyse bereits mit den eigenen Sinnen möglich ist. "Bei einem Interview mit einer Person kann man prüfen: Soll die Aufnahme an einem bestimmten Tag in Berlin entstanden sein? Passt dann das Wetter? Bei Videos kann man außerdem kontrollieren: Kommen alle Schatten aus der korrekten Richtung?"
Diese Überprüfung lässt sich manuell durchführen: "Auf einem Standbild zieht man von den Schatten Linien zu den Schattengebern und prüft, ob alle diese Linien, wenn man sie nach oben verlängert, von einem gemeinsamen Punkt ausgehen. Wenn das nicht der Fall ist, handelt es sich mit hoher Wahrscheinlichkeit um einen Deepfake - zumindest bei Außenaufnahmen mit nur einer Lichtquelle."
Klassische Indizien und subtile Hinweise
Weitere Anzeichen für manipulierte Inhalte sind zahlreich:
- Der Mund einer sprechenden Person bleibt geschlossen, während ihre Stimme zu hören ist
- Artefakte erscheinen im Mundbereich
- Hals und Oberkörper weisen unterschiedliche Hauttöne auf
- Eine Hand besitzt sechs Finger statt fünf
- Gegenstände verschmelzen mit Händen oder schweben darüber
Ein weiterer wichtiger Hinweis sind die Metadaten - oder deren Fehlen. "Wenn aktuelle KI-Modelle wie Gemini oder ChatGPT Deepfakes erzeugen, steht in deren Metadaten normalerweise, dass es sich um KI-generierte Inhalte handelt. Allerdings können diese Metadaten auch bewusst entfernt werden", erklärt Müller.
Mit KI gegen KI: Der technologische Wettlauf
Neben dem kritischen menschlichen Blick existieren spezielle KI-Tools zur schnellen Deepfake-Erkennung. "Am Ende liefern sie einen Zahlenwert zwischen 0 und 100. 0 steht für echt, 100 für gefälscht. Typischerweise erreichen Deepfakes Werte um 95", so Müller. Doch dieser Wettlauf ist dynamisch: "Die Modelle entwickeln sich kontinuierlich weiter und erzeugen Bilder, die kaum noch von echtem Material zu unterscheiden sind. Ähnlich wie in der IT-Sicherheit verbessern sich sowohl Angreifer als auch Verteidiger ständig."
Forensische Detailarbeit: Vom Tatort zur digitalen Spurensuche
Jens Kramosch (42) vom Unternehmen Leak.Red in Erfurt nähert sich Deepfakes wie ein klassischer Ermittler: "Das ähnelt der Arbeit an einem Tatort. Zuerst beobachtet man das Gesamtbild. Ich achte besonders auf Haare, Haaransatz, Wimpernschlag und Hautstruktur." Oft wirke die Haut bei Deepfakes unnatürlich glatt.
"Wichtig ist, nicht nur die Bildmitte zu betrachten, sondern auch die Ränder: Stimmen die Linien überein? Passen die Schatten? Viele KI-Modelle konzentrieren sich auf das zentrale Objekt und vernachlässigen die Umgebung."
Besonders schwierig seien Aufnahmen mit nur einer Person im Zentrum und diffusem Hintergrund. "Bei einer Frau in einem Blumenmeer wird es für die KI deutlich komplizierter, täuschend echte Berechnungen durchzuführen." In solchen Fällen werden Metadaten entscheidend: Stimmen Geolocation, Uhrzeit und Ort? "Manchmal findet man dort 0.00 Uhr und 1970 als Erstellungsjahr - klare Hinweise auf Manipulation."
Forensische Sicherung und Beweisketten
"Mit unserer KI können wir Beweisketten erstellen", erklärt Kramosch, dessen Unternehmen von Geschädigten beauftragt werden kann. "Wenn ein Deepfake beispielsweise auf Instagram veröffentlicht wurde, können wir diesen Inhalt als Beweis einfrieren, sodass er nicht mehr verändert werden kann. Das erfolgt nach forensischen Standards."
Auch Kramosch beobachtet die rasante Entwicklung: "Wenn wir über KI-Deepfakes sprechen, die vor einem Jahr online gingen: Seitdem sind bereits 23 bessere Modelle entstanden. Ich vermute, dass Laien auf Social Media bis Jahresende kaum noch Unterschiede erkennen können."
Die Zukunft: Digitale Echtheitsstempel und rechtliche Herausforderungen
Für die Zukunft prognostiziert Kramosch einen grundlegenden Wandel: "Irgendwann wird es fast nur noch Deepfakes oder künstlich generierte Inhalte geben. Dann wird es entscheidend sein, Originale zu kennzeichnen. Wir benötigen so etwas wie den blauen Haken bei Instagram - einen digitalen Echtheits-Stempel. Auch wenn das dramatisch klingt: Nächstes Jahr könnten wir bereits an diesem Punkt angelangt sein."
Doch bleiben Deepfakes mit KI-Tools überhaupt identifizierbar? "Ich sage optimistisch ja, weil jede KI bestimmte Muster hinterlässt. Allerdings zeigen die letzten Monate, dass die Entwicklung extrem schnell verläuft."
Rechtliche Probleme: KI-Erkenner vor Gericht
Tobias Wirth vom Deutschen Forschungszentrum für Künstliche Intelligenz warnte bereits im Februar vor rechtlichen Herausforderungen: "KI-Erkenner sind oft Blackbox-Systeme. Sie bestimmen mit einer Wahrscheinlichkeit, ob es sich um einen Deepfake handelt, liefern aber nicht unbedingt eine nachvollziehbare Erklärung."
Die KI kann zwar Systeme, Muster und Indikatoren erkennen, die für das menschliche Auge kaum wahrnehmbar sind - etwa feine Unstimmigkeiten auf Pixelebene. Vor Gericht wird dies jedoch problematisch, da die Beweiswürdigung nachvollziehbare Aussagen erfordert. Dieser Widerspruch zwischen technischer Effektivität und rechtlicher Nachvollziehbarkeit stellt eine der größten Herausforderungen im Kampf gegen Deepfakes dar.



