Gericht blockiert Pentagon-Vorgehen gegen KI-Firma Anthropic
Die KI-Firma Anthropic hat einen bedeutenden Etappensieg in ihrem anhaltenden Konflikt mit dem US-Verteidigungsministerium errungen. Eine Richterin in San Francisco erließ eine einstweilige Verfügung, die die Einstufung von Anthropic als Lieferketten-Risiko für die nationale Sicherheit vorerst blockiert. Diese Verfügung tritt erst nach einer siebentägigen Frist in Kraft, um der US-Regierung die Möglichkeit zu geben, vor einem Berufungsgericht Einspruch einzulegen.
Streit um ethische KI-Nutzung im Militär
Der Kern des Konflikts liegt in der unterschiedlichen Auffassung über die Nutzung Künstlicher Intelligenz für militärische Zwecke. Anthropic beharrt strikt darauf, dass seine KI-Modelle nicht zur Massenüberwachung von amerikanischen Bürgern und nicht in vollständig autonomen Waffensystemen eingesetzt werden dürfen. Das Unternehmen hat diese ethischen Grenzen in seinen Nutzungsbedingungen fest verankert.
Das Pentagon hingegen fordert die Rechte für „jede rechtmäßige Nutzung“ ein und betont, dass kein privates Unternehmen der US-Regierung Vorschriften machen könne. Nachdem Anthropic nicht von seiner Position abrückte, erklärte das Verteidigungsministerium die Firma zum „Supply-Chain Risk to National Security“ – einem Lieferketten-Risiko für die nationale Sicherheit.
Präsident Trump ordnete Nutzungsstopp an
Präsident Donald Trump ging noch einen Schritt weiter und ordnete an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie unverzüglich einstellen müssen. Verteidigungsminister Pete Hegseth ergänzte, dass auch alle Unternehmen, die das US-Militär beliefern wollen, ihre Geschäftsbeziehungen zu Anthropic kappen müssten.
Diese Maßnahmen sind höchst ungewöhnlich im Umgang der US-Regierung mit heimischen Technologieunternehmen. Die Einstufung als Lieferketten-Risiko schließt ein Unternehmen effektiv von allen Regierungsaufträgen aus und kann existenzbedrohende wirtschaftliche Folgen haben.
Richterin sieht Verfassungsverletzung
Richterin Rita Lin betonte in ihrer Begründung, dass es dem Verteidigungsministerium zwar frei stehe, keine Anthropic-Produkte zu verwenden. Die Regierung scheine mit ihrem Vorgehen aber die Firma darüber hinaus für deren öffentliche Kritik an der militärischen KI-Nutzung bestrafen zu wollen.
„Das wäre eine Verletzung der verfassungsrechtlich garantierten Redefreiheit“, urteilte die Richterin. Sie bezeichnete die Einstufung als Lieferketten-Risiko als wahrscheinlich rechtswidrig und willkürlich und begründete damit ihre Entscheidung für die einstweilige Verfügung.
Anthropic-Chef warnt vor KI-Risiken
Anthropic-Chef Dario Amodei verteidigte die Position seines Unternehmens mit deutlichen Worten. Er warnt davor, dass Künstliche Intelligenz es ermögliche, über das Internet verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammenzusetzen – eine perfekte Grundlage für Massenüberwachung.
Gleichzeitig betonte Amodei, dass KI noch nicht verlässlich genug sei, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt“, schrieb der Anthropic-Chef in einem ausführlichen Blogbeitrag.
OpenAI springt in die Bresche
Interessant ist die strategische Positionierung von OpenAI in diesem Konflikt. Anthropic war bisher die einzige KI-Firma, deren Software auch für vertrauliche Nutzung im US-Militär freigegeben war. Nach dem Vorgehen des Pentagons gegen Anthropic schloss der ChatGPT-Erfinder OpenAI jedoch eine Vereinbarung mit dem Verteidigungsministerium ab und könnte damit die entstandene Lücke füllen.
Dieser Fall zeigt die wachsende Spannung zwischen ethischen Grundsätzen in der KI-Entwicklung und den strategischen Interessen nationaler Sicherheitsbehörden. Die gerichtliche Entscheidung markiert einen wichtigen Präzedenzfall für die Rechte von Technologieunternehmen, die sich weigern, ihre Entwicklungen für bestimmte militärische Anwendungen bereitzustellen.



