Anthropic vs. Pentagon: KI-Firma wehrt sich gegen militärische Nutzung ihrer Software
Anthropic vs. Pentagon: Streit um militärische KI-Nutzung

Anthropic im Konflikt mit dem Pentagon: KI-Firma setzt Grenzen für militärische Nutzung

Der KI-Entwickler Anthropic, ein direkter Konkurrent von OpenAI, befindet sich in einem offenen Streit mit dem US-Verteidigungsministerium. Das Unternehmen aus San Francisco will dem Pentagon verbieten, seine Software für Massenüberwachung innerhalb der USA sowie in vollständig autonomen Waffensystemen einzusetzen. Dies bestätigte Mitgründer und CEO Dario Amodei in einem aktuellen Blogeintrag, der tagelange Medienberichte über die Spannungen zwischen der Firma und dem Militär bestätigt.

Pentagon droht mit drastischen Geschäftseinschränkungen

Das Verteidigungsministerium reagierte mit scharfen Worten auf die Forderungen von Anthropic. Ein ranghoher Beamter, Emil Michael, warf Amodei auf der Plattform X einen „Gott-Komplex“ vor und unterstellte ihm, persönlich das US-Militär kontrollieren zu wollen. Noch konkreter ist die Drohung des Pentagons, Anthropic als Lieferketten-Risiko einzustufen. Diese Maßnahme würde das Geschäft des Unternehmens in den Vereinigten Staaten erheblich beeinträchtigen und möglicherweise existenzbedrohend einschränken.

Technische und ethische Bedenken als Grund für die Weigerung

Anthropic begründet seine Haltung mit technischen und ethischen Überlegungen. Amodei warnte davor, dass KI-Systeme es ermöglichen, verstreute Daten einzelner Personen automatisiert zu einem detaillierten Lebensbild zusammenzufügen – eine Praxis, die er für die Massenüberwachung als besonders riskant ansieht. Gleichzeitig betonte er, dass die Technologie noch nicht ausreichend verlässlich sei, um in vollständig autonomen Waffensystemen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb der Anthropic-Chef in seinem Blog.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Rechtlicher Druck und mögliche Alternativen

Das Pentagon setzte Anthropic eine Frist bis zum späten Freitagnachmittag in Washington, um jeglichem legalen Einsatz der Software zuzustimmen. Sollte das Unternehmen nicht nachgeben, droht das Ministerium, auf den Defense Production Act aus dem Jahr 1950 zurückzugreifen, um die Beschränkungen juristisch aufzuheben. Die Lücke, die durch einen möglichen Ausschluss von Anthropic in den Militärsystemen entstehen würde, könnte unter anderem von Elon Musks Firma xAI gefüllt werden. Allerdings ist unklar, ob andere Entwickler die spezifischen Fähigkeiten der Anthropic-KI bieten können.

Hintergrund: Frühere Nutzung bei Militäroperationen

Die Spannungen wurden öffentlich, nachdem bekannt wurde, dass Anthropic-Software bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Welche genaue Rolle die KI dabei spielte, blieb unklar. Anthropics Chatbot Claude kann ähnlich wie ChatGPT Dokumente analysieren und Informationen zusammenfassen. Das Unternehmen betonte damals, dass jegliche Nutzung – ob in der Privatwirtschaft oder durch Regierungen – im Rahmen der Nutzungsrichtlinien bleiben müsse.

Politische Dimension und langfristige Konflikte

Dario Amodei warnt seit längerem vor den Risiken Künstlicher Intelligenz und setzt sich – anders als viele Kollegen in der Branche – für strengere Leitplanken bei der KI-Entwicklung ein. Diese Haltung brachte ihn bereits auf Kollisionskurs mit dem KI-Beauftragten des Weißen Hauses, David Sacks. US-Verteidigungsminister Pete Hegseth hatte im Januar erklärt, das Pentagon wolle keine KI-Modelle nutzen, „die es nicht erlauben, Kriege zu führen“. Dieser grundsätzliche Konflikt zwischen militärischen Erfordernissen und ethischen KI-Beschränkungen scheint sich nun im Fall Anthropic zuzuspitzen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration