KI im Wahlkampf: Politik braucht dringend Regeln für künstliche Intelligenz
KI im Wahlkampf: Politik braucht dringend Regeln

KI in der Politik: Wild-West-Stimmung ohne klare Regeln

Die Nutzung künstlicher Intelligenz in der deutschen Politik hat ein alarmierendes Ausmaß erreicht, während verbindliche Regeln und ethische Leitlinien fehlen. Ein aktuelles Video der CDU in Mecklenburg-Vorpommern zeigt exemplarisch, wohin der unkontrollierte Einsatz von KI-Technologien führen kann.

Manipulative Videos und unklare Kennzeichnung

Im Vorfeld der Landtagswahl in Mecklenburg-Vorpommern hat die CDU-Landtagsfraktion auf Instagram ein Video veröffentlicht, das Bildungsministerin Simone Oldenburg (Linke) und Ministerpräsidentin Manuela Schwesig (SPD) in fragwürdigem Licht erscheinen lässt. Das Material enthält KI-generierte Inhalte: Eine künstliche Stimme im Stil der "Sendung mit der Maus" kommentiert, während gefälschte Bilder überforderte Lehrkräfte und sorgenvolle Kita-Erzieherinnen zeigen. Besonders brisant: Ein Deepfake zeigt Ministerin Oldenburg lächelnd zwischen Papiergeldstapeln, wie sie 500-Euro-Scheine zählt.

Der winzige Hinweis "KI-generiert" erscheint nur für Sekundenbruchteile, während der manipulierte Eindruck deutlich länger haften bleibt. Diese Episode wirft ein Schlaglicht auf ein grundlegendes Problem: Die Politik nutzt KI bereits im großen Stil, hat aber keine klaren Antworten darauf, was erlaubt sein sollte und wie Inhalte gekennzeichnet werden müssen.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Fehlende Spielregeln im digitalen Wahlkampf

Eine Auswertung des Politikberaters Martin Fuchs und des Vereins AI4Democracy zeigt, dass bei fast allen Parteien eine Art Wild-West-Stimmung herrscht. Fuchs befragte Landesparteien in fünf Bundesländern zu ihrer KI-Nutzung. Die Ergebnisse sind ernüchternd: Nur die Grünen berichten von bundesweit geltenden Leitlinien. Alle anderen Parteien haben Regeln "in Planung" oder berufen sich auf allgemeine Werte.

Die CDU in Baden-Württemberg antwortete beispielsweise, der KI-Einsatz müsse "menschenzentriert" und "vertrauenswürdig" erfolgen, man orientiere sich "an den üblichen best-practice Methoden". Konkrete Fairness-Zusagen gibt jedoch keine Partei ab – oft mit dem Verweis, dass andere Parteien sich nicht an Vereinbarungen halten würden.

Beispiele aus der Praxis

Die Grünen ließen eine Lokalpolitikerin aus Gießen mit dem Fahrrad einen Looping springen, um bei der Kommunalwahl in Hessen für neue Radwege zu werben. Dass es sich um KI-generierte "krassen Moves" handelt, blieb im Post unerwähnt.

Der Rostocker CDU-Politiker Patrick Tempel nutzte KI, um einen Rapsong über die Haushaltslage seiner Stadt zu dichten. Im Video findet sich kein Hinweis, erst in der Caption betont Tempel, der Text sei "100% KI und reine Satire".

Der AfD-Landtagsabgeordnete Martin Schmidt aus Mecklenburg-Vorpommern erstellte im Februar einen Clip, in dem er Ministerpräsidentin Schwesig Worte in den Mund legt, die sie nie gesagt hat. Erst nach Berichterstattung des NDR fügte Schmidt nachträglich den Hinweis "Achtung KI-Satire!" an.

Forschungsergebnisse und politische Konsequenzen

Das Forschungsprojekt "CampAIgn Tracker" identifizierte im Bundestagswahlkampf vor einem Jahr rund 1000 KI-Beiträge. Nur 13 Prozent waren entsprechend gekennzeichnet. Gut die Hälfte der Beiträge stammte von der AfD, aber auch FDP, Grüne, Linke, SPD und CDU luden jeweils Dutzende KI-Inhalte ins Netz.

Politikberater Martin Fuchs warnt: "Dieser unreflektierte Einsatz führt zu weiterem Vertrauensverlust in der Bevölkerung, die jetzt schon nicht weiß, was sie glauben soll und was nicht." Nicht das manipulierte Video selbst werde zur Gefahr, sondern das dadurch erzeugte Grundmisstrauen.

Der Politikwissenschaftler Andreas Jungherr argumentiert ähnlich. Dass KI im Wahlkampf eingesetzt wird, hält er nicht für das Hauptproblem. Dass in öffentlichen Debatten aber fast ausschließlich kritisch über Deepfakes gesprochen wird, nicht aber über die Regulierung anderer KI-Praktiken, schaffe langfristig "realen Schaden für Regulierung, Kampagnenpraxis und demokratische Prozesse".

KI im Bundestag: Unterschiedliche Herangehensweisen

Eine Abfrage des SPIEGEL unter allen Bundestagsfraktionen zeigt unterschiedliche Ansätze:

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration
  • In der Unionsfraktion wird eine Handlungsempfehlung erarbeitet
  • Die AfD diskutiert die Nutzung "intensiv" und "technologieoffen"
  • Die SPD hat bereits KI-Leitlinien, allerdings unverändert seit Juli 2024
  • Die Linksfraktion äußert sich defensiv und warnt vor Risiken wie "halluzinierender" KI
  • Die Grünenfraktion geht am progressivsten vor und nutzt hauseigene Tools wie den "Grünerator"

Vereinheitlicht ist die KI-Arbeit im Bundestag jedoch nicht. Alle Abgeordneten entscheiden selbst, ob und wie viel KI sie nutzen. Auch die Bundestagsverwaltung arbeitet an eigenen Richtlinien. Eine Arbeitsgruppe mit 20 bis 30 Personen befasst sich seit Ende 2024 mit der Frage, wie KI im Hohen Haus für alle nutzbar gemacht werden kann. Allerdings trifft sich die Gruppe nur gut viermal im Jahr, und "zeitliche Vorgaben" gibt es keine.

Die Politik steht vor einer dringenden Aufgabe: Sie muss nicht nur über den Einsatz von KI diskutieren, sondern verbindliche Regeln schaffen, die Transparenz, Fairness und demokratische Grundwerte gewährleisten. Bis dahin bleibt der digitale Wahlkampf eine Grauzone mit unkalkulierbaren Risiken für die Demokratie.