Pentagon droht mit Ende der KI-Kooperation: Anthropic weigert sich, KI für Kriegsführung freizugeben
Pentagon droht Anthropic mit Ende der KI-Kooperation

Streit um KI-Einsatz im Militär: Pentagon droht mit Bruch zu Anthropic

Das US-Verteidigungsministerium, auch bekannt als Pentagon, erwägt laut einem aktuellen Medienbericht, die Zusammenarbeit mit dem KI-Unternehmen Anthropic zu beenden. Grund für diese drastische Maßnahme sind anhaltende Differenzen über die Nutzungsbedingungen der KI-Modelle für militärische Zwecke. Das Nachrichtenportal Axios berichtete am Samstag unter Berufung auf einen Regierungsvertreter, dass das Pentagon darauf besteht, dass KI-Unternehmen wie Anthropic den Einsatz ihrer Werkzeuge für alle rechtmäßigen Zwecke gestatten müssen, einschließlich der Waffenentwicklung, der Beschaffung von Geheimdienstinformationen und direkten Einsätzen auf dem Schlachtfeld.

Anthropic beharrt auf ethischen Grenzen

Anthropic hat diesen Bedingungen jedoch nicht zugestimmt und beharrt auf strikten Nutzungsregeln für sein KI-Modell Claude. Ein Sprecher des Unternehmens erklärte, dass Gespräche mit der US-Regierung sich bisher auf klare Grenzen für vollständig autonome Waffen und Massenüberwachung im Inland konzentriert hätten, nicht auf aktuelle Operationen. Die Nutzungsrichtlinien von Anthropic verbieten ausdrücklich den Einsatz von Claude für Gewaltanwendung, Waffenentwicklung oder Überwachung, was im Widerspruch zu den Forderungen des Pentagons steht.

Die Geduld des Pentagons sei nach monatelangen Verhandlungen erschöpft, so der Bericht. Neben Anthropic sind auch andere KI-Firmen wie OpenAI, Google und xAI in die Diskussionen involviert. US-Verteidigungsminister Pete Hegseth hatte bereits im Januar betont, dass das Pentagon keine KI-Modelle nutzen wolle, die es nicht erlauben, Kriege zu führen. Dies unterstreicht die wachsende Bedeutung von künstlicher Intelligenz in der modernen Kriegsführung und die damit verbundenen ethischen Debatten.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Hintergrund: KI-Einsatz in Militäroperationen

Laut einem Bericht des Wall Street Journal wurde das KI-Modell Claude von Anthropic über eine Partnerschaft mit dem Datenunternehmen Palantir bei einer US-Militäroperation zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt. Wofür genau die Software verwendet wurde, bleibt unklar, doch Claude kann ähnlich wie ChatGPT Dokumente analysieren und Informationen zusammenfassen. Anthropic äußerte sich nicht dazu, ob Claude in dieser spezifischen Operation genutzt wurde, betonte aber, dass jegliche Nutzung im Rahmen der Nutzungsrichtlinie bleiben müsse.

Anthropic-Chef Dario Amodei, der sich für mehr Leitplanken in der KI-Entwicklung einsetzt, warnt vor den Risiken künstlicher Intelligenz und steht damit im Kontrast zu anderen Branchenkollegen. Dieser Konflikt hat ihn auch auf Kollisionskurs mit dem KI-Beauftragten des Weißen Hauses, David Sacks, gebracht. Der Einsatz von KI verschiebt zunehmend die Machtverhältnisse in der Rüstungsindustrie und wirft Fragen nach neuen Kriegsregeln auf, wie von Experten wie der Oxford-Philosophin Mariarosaria Taddeo gefordert.

Das Pentagon hat bisher keine offizielle Stellungnahme zu den laufenden Verhandlungen abgegeben, doch die Drohung, die Zusammenarbeit mit Anthropic zu beenden, signalisiert eine kritische Phase in der Integration von KI-Technologien in militärische Strategien. Die Debatte um ethische Grenzen versus operative Flexibilität wird voraussichtlich weiter an Schärfe gewinnen, während Regierungen und Unternehmen weltweit mit den Implikationen von KI in Konfliktszenarien ringen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration