Deepfakes aufdecken: Die Arbeit der IT-Forensiker im Detail
Die Zahl täuschend echter, KI-generierter oder manipulierter Bilder, Videos und Audioaufnahmen nimmt rasant zu. Während Deepfakes auf Social Media im besten Fall für Unterhaltung sorgen, können sie auf Pornoseiten Reputationen zerstören und auf politischen Plattformen sogar Wahlen beeinflussen. In der aktuellen politischen Debatte werden Deepfakes zunehmend als ernsthaftes Problem erkannt.
Erste Analyse mit eigenen Sinnen
Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in Garching bei München leitet eine Forschungsgruppe zu Deepfakes. Er betont, dass eine erste Analyse bereits mit den eigenen Augen und Ohren erfolgen kann. „Bei einem Interview mit einer Person kann man prüfen: Soll die Aufnahme in Berlin an einem bestimmten Tag entstanden sein? Passt dann das Wetter?“ erklärt Müller. „Man kann bei einem Video auch untersuchen: Kommen alle Schatten aus der richtigen Richtung?“
Diese manuelle Überprüfung ist einfach durchzuführen: „Auf einem Standbild zieht man von den Schatten Linien zu den Schattengebern und prüft, ob alle diese Linien, wenn man sie nach oben verlängert, von einem gemeinsamen Punkt ausgehen. Wenn das nicht der Fall ist, handelt es sich mit hoher Wahrscheinlichkeit um einen Deepfake – zumindest bei Außenaufnahmen mit nur einer Lichtquelle.“
Klassische Indizien für Manipulationen
Weitere deutliche Hinweise auf Deepfakes sind zahlreich. Dazu gehören Momente, in denen zwar eine Stimme zu hören ist, der Mund der sprechenden Person jedoch geschlossen bleibt. Müller erläutert: „Dann kann man untersuchen: Liegt nur eine gleichmäßige Verzögerung zwischen Video und Tonspur vor, oder hat die KI hier einen Fehler gemacht?“
Zu den klassischen Indizien zählen außerdem:
- Artefakte im Mundbereich
- Unstimmige Hauttöne zwischen Hals und Oberkörper
- Anomalien wie Hände mit sechs Fingern
- Gegenstände, die mit Händen verschmelzen oder über ihnen schweben
Ein weiterer wichtiger Hinweis sind die Metadaten – oder deren Fehlen. „Wenn man mit aktuellen KI-Modellen wie Gemini oder ChatGPT Deepfakes erzeugt, steht in deren Metadaten normalerweise, dass es sich um KI-generierte Inhalte handelt. Allerdings können diese Metadaten auch entfernt werden.“
Forensische Ermittlungsmethoden
Jens Kramosch vom Unternehmen Leak.Red in Erfurt nähert sich Deepfakes wie ein Ermittler an einem Tatort. „Am besten beobachtet man zunächst das Gesamtbild. Ich achte besonders auf Haare, Haaransatz, Wimpernschlag und Hautstruktur.“ Oft sei die Haut bei Deepfakes unnatürlich glatt.
Kramosch betont: „Wichtig ist, nicht nur die Bildmitte zu betrachten, sondern auch die Ränder: Passen die Linien? Stimmen die Schatten? Verschiedene KI-Modelle fokussieren sich auf das zentrale Objekt und vernachlässigen die Umgebung.“
Besonders schwierig sei die Erkennung bei Aufnahmen mit nur einer Person in der Bildmitte und diffusem Hintergrund. „Bei einer Frau in einem Blumenmeer ist es für die KI deutlich schwieriger, täuschend echte Berechnungen durchzuführen.“ In solchen Fällen werden Metadaten überprüft: Stimmen Geolocation, Uhrzeit und Ort? „Manchmal steht dort 0.00 Uhr und 1970 als Erstellungsjahr.“
KI-Tools zur Deepfake-Erkennung
Neben dem kritischen Blick und der eigenen Logik existieren spezielle KI-Tools zur schnellen Entlarvung von Deepfakes. Müller erklärt: „Am Ende liefern diese Tools einen Zahlenwert zwischen 0 und 100. 0 steht für echt, 100 für gefälscht. Normalerweise erreichen Deepfakes Werte um 95.“
Allerdings werden die KI-Modelle kontinuierlich verbessert. „Die Modelle entwickeln sich dahin, Bilder auszugeben, die kaum noch von echtem Material zu unterscheiden sind.“ Dennoch sieht der Forscher nicht schwarz für die Wirklichkeit: „Das ist wie in der IT-Sicherheit: Der Angreifer verbessert sich, und die Verteidigung zieht entsprechend nach.“
Kramosch beschreibt den forensischen Ansatz seines Unternehmens: „Wir können mit unserer KI eine Beweiskette erstellen. Wenn ein Deepfake beispielsweise bei Instagram online ist, können wir dies als Beweis einfrieren, sodass es nicht mehr verändert werden kann. Das wird wirklich forensisch gesichert.“
Rasante Entwicklung und zukünftige Herausforderungen
Beide Experten erkennen die rasante Entwicklung der Technologie. Kramosch warnt: „Wenn wir über KI-Deepfakes sprechen, die vor einem Jahr online gingen: Seitdem sind bereits 23 bessere Modelle entstanden. Ich denke, bis Jahresende werden Laien auf Social Media keinen Unterschied mehr erkennen können.“
In der Zukunft werde ein Umdenken notwendig sein: „Irgendwann wird es fast nur noch Deepfakes oder künstlich generierte Inhalte geben. Dann ist es wichtig zu sagen: Das ist aber ein Original. Wir benötigen so etwas wie den blauen Haken bei Instagram – eine Art digitalen Echtheits-Stempel. Auch wenn das jetzt dramatisch klingt: Nächstes Jahr sind wir bereits an diesem Punkt.“
Probleme vor Gericht
Doch bleiben Deepfakes mit Hilfe von KI-Tools als Fakes identifizierbar? Müller antwortet optimistisch: „Ich sage jetzt einfach mal ja, weil ich optimistisch bin und weil jede KI ein gewisses Muster hat. Aber die letzten Monate zeigen, dass die Entwicklung extrem schnell verläuft.“
Tobias Wirth vom Deutschen Forschungszentrum für Künstliche Intelligenz warnte bereits im Februar vor Problemen in Gerichtsverfahren: „KI-Erkenner sind oft Blackbox-Systeme. Sie bestimmen mit einer Wahrscheinlichkeit, ob es sich um ein Deepfake handelt, liefern aber nicht unbedingt eine Erklärung, warum.“
Die KI könne Systeme, Muster und Indikatoren erkennen, die für das menschliche Auge nicht oder nur schwer wahrnehmbar sind – etwa feine Unstimmigkeiten auf Pixelebene. Vor Gericht sei dies jedoch problematisch, da im Sinne der Beweiswürdigung nachvollziehbare Aussagen benötigt werden.



