Konflikt um KI-Ethik: Pentagon droht mit Bruch bei Anthropic
Das US-Verteidigungsministerium steht offenbar vor einem grundlegenden Konflikt mit dem KI-Unternehmen Anthropic. Wie das Nachrichtenportal Axios unter Berufung auf einen Regierungsvertreter berichtete, erwägt das Pentagon, die Zusammenarbeit mit dem kalifornischen Unternehmen zu beenden. Der zentrale Streitpunkt: Anthropic besteht auf strikten Nutzungsbeschränkungen für seine KI-Modelle, während das Pentagon uneingeschränkten Zugang für militärische Zwecke fordert.
Hegseths klare Forderung: KI muss Kriege ermöglichen
US-Verteidigungsminister Pete Hegseth hatte bereits im Januar unmissverständlich klargemacht, dass das Pentagon keine KI-Modelle nutzen wolle, "die es nicht erlauben, Kriege zu führen". Diese Position vertritt das Ministerium nun mit Nachdruck in den Verhandlungen mit vier führenden KI-Unternehmen, zu denen neben Anthropic auch OpenAI, Google und Elon Musks xAI gehören.
Das Pentagon drängt darauf, dass diese Unternehmen dem Militär den Einsatz ihrer KI-Werkzeuge für alle rechtmäßigen Zwecke gestatten müssen. Dazu gehören explizit:
- Die Entwicklung neuer Waffensysteme
- Die Beschaffung von Geheimdienstinformationen
- Direkte Einsätze auf dem Schlachtfeld
Anthropic beharrt auf ethischen Grenzen
Anthropic hat diesen weitreichenden Forderungen bisher nicht zugestimmt. Ein Sprecher des Unternehmens betonte, dass Gespräche mit der US-Regierung sich auf klare Grenzen konzentriert hätten, insbesondere bei:
- Vollständig autonomen Waffensystemen
- Massenüberwachung im Inland
Die Nutzungsrichtlinien von Anthropic verbieten ausdrücklich den Einsatz ihres KI-Modells Claude für Gewaltanwendung, Waffenentwicklung oder Überwachungszwecke. "Jegliche Nutzung – egal ob in der Privatwirtschaft oder durch Regierungen – muss im Rahmen unserer Nutzungsrichtlinie bleiben", so die klare Position des Unternehmens.
Bericht über geheimen Militäreinsatz
Das Wall Street Journal hatte am Freitag berichtet, dass das KI-Modell Claude über eine Partnerschaft mit dem Datenunternehmen Palantir bei einer Militäroperation zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt worden sein soll. Wofür genau die Software verwendet wurde, bleibt unklar – Claude kann wie ähnliche Modelle Dokumente analysieren und Informationen zusammenfassen.
Anthropic wollte sich nicht dazu äußern, ob Claude in dieser spezifischen Operation zum Einsatz kam. Die Geduld des Pentagon sei nach monatelangen Verhandlungen jedoch erschöpft, berichtete Axios. Ein Pentagon-Sprecher stand für eine Stellungnahme zunächst nicht zur Verfügung.
Philosophische Debatte über autonome Waffen
Die Oxford-Philosophin Mariarosaria Taddeo fordert angesichts dieser Entwicklung neue Kriegsregeln für den Einsatz künstlicher Intelligenz. Vollautonome Waffensysteme, die ohne menschliche Beteiligung Ziele auswählen und eliminieren, stellen eine grundlegende ethische Herausforderung dar.
Anthropic-Chef Dario Amodei, der sich anders als viele Kollegen für strengere Leitplanken in der KI-Entwicklung einsetzt, gerät damit auf Kollisionskurs nicht nur mit dem Pentagon, sondern auch mit dem KI-Beauftragten des Weißen Hauses, David Sacks. Der Konflikt zeigt, wie der Einsatz künstlicher Intelligenz die Machtverhältnisse in der Rüstungsindustrie fundamental verändert und neue ethische Grenzziehungen erforderlich macht.



