ZDF entschuldigt sich für gravierende Fehler im »heute journal«
Das Zweite Deutsche Fernsehen (ZDF) hat sich in seiner Hauptnachrichtensendung »heute journal« in einem ungewöhnlichen Schritt bei den Zuschauerinnen und Zuschauern entschuldigt. Grund dafür waren schwerwiegende redaktionelle Fehler in einem Beitrag über Einsätze der US-Migrationsbehörde ICE, der am Sonntag ausgestrahlt wurde.
Doppelfehler mit KI-Bildern und veralteten Aufnahmen
Die stellvertretende ZDF-Chefredakteurin und Moderatorin Anne Gellinek wandte sich am Dienstagabend persönlich an das Publikum und sprach von einem »Doppelfehler«. Zum einen enthielt der Beitrag KI-generierte Bilder und Videos, die nicht als solche gekennzeichnet waren. Laut ZDF-Richtlinien ist der Einsatz solcher mit künstlicher Intelligenz erzeugter Darstellungen von Menschen, Ereignissen und politischen Zusammenhängen im Nachrichtenbereich grundsätzlich nicht zulässig. Eine Ausnahme besteht nur, wenn der Beitrag ausdrücklich KI-Fälschungen thematisiert – was in diesem Fall nicht zutraf.
Zum anderen zeigte eine Szene reale Aufnahmen, die jedoch aus einem völlig anderen Kontext stammten. Diese Bilder wurden bereits im Jahr 2022 aufgenommen und hatten nichts mit den aktuellen ICE-Einsätzen zu tun, über die berichtet wurde.
»Handwerkliche Fehler« schmerzen das ZDF
Anne Gellinek bezeichnete die Vorfälle als »handwerkliche Fehler«, die besonders schmerzhaft seien, weil die ZDF-Nachrichten normalerweise großen Wert auf sorgfältig geprüfte Informationen legen. »Das ist uns diesmal nicht gelungen«, gestand die Nachrichtenchefin ein. »Dafür bitte ich Sie, unsere Zuschauer, als ZDF-Nachrichtenchefin ausdrücklich um Entschuldigung. Dieser Beitrag entsprach nicht unseren hohen Standards.«
Der Sender hatte zuvor auf Nachfrage mitgeteilt, dass die KI-Bilder eigentlich hätten gekennzeichnet werden müssen. Diese Kennzeichnung sei jedoch bei der technischen Überspielung des Beitrags verloren gegangen. In der ZDF-Mediathek war zwischenzeitlich eine korrigierte Version des Beitrags verfügbar, in der die KI-generierten Inhalte durch andere Videosequenzen und Standbilder ersetzt wurden.
Transparenz und Konsequenzen
Über Teilen des geänderten Beitrags wurde ein Hinweis eingeblendet, der darauf hinwies, dass das Video aus redaktionellen Gründen nachträglich verändert worden sei. Der Vorfall wirft Fragen zur Transparenz im Umgang mit künstlicher Intelligenz in Nachrichtenredaktionen auf und zeigt, wie wichtig klare Richtlinien und deren konsequente Umsetzung sind.
Das ZDF betonte erneut, dass der Einsatz von KI-generierten Bildern und Videos von realen Ereignissen, Menschen oder politischen Zusammenhängen in Nachrichtenbeiträgen nicht akzeptabel ist, es sei denn, der Beitrag thematisiert explizit solche KI-Fälschungen. In diesem Fall hätte auch eine einfache Kennzeichnung nicht ausgereicht, da die grundsätzliche Verwendung bereits gegen die redaktionellen Standards verstieß.



