KI-Firma Anthropic verklagt US-Regierung: Streit um autonome Waffen eskaliert
Der Konflikt zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium, bekannt als Pentagon, hat eine neue Eskalationsstufe erreicht. Anthropic hat nun Klage gegen die US-Regierung eingereicht, nachdem das Unternehmen als Lieferkettenrisiko für die nationale Sicherheit eingestuft wurde. Diese Einstufung schließt Anthropic weitgehend von Regierungsaufträgen aus und verschärft die Auseinandersetzung um die Nutzung künstlicher Intelligenz im Militärbereich.
Anthropics Standpunkt: Keine KI für autonome Waffen
Anthropic beharrt in der Klage darauf, dass seine KI-Modelle nicht für Massenüberwachung von Amerikanern oder in autonomen Waffensystemen eingesetzt werden dürfen. Das Unternehmen argumentiert, dass das Vorgehen der US-Regierung sein Recht auf freie Meinungsäußerung verletzt, da es für seine ethischen Grundsätze bestraft wird. Anthropic-Chef Dario Amodei warnte in einem Blogbeitrag, dass KI noch nicht verlässlich genug für vollständig autonome Waffen sei und betonte: "Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt."
Reaktion des Pentagons und politischer Kontext
Das Verteidigungsministerium fordert hingegen die Rechte für "jede rechtmäßige Nutzung" der KI-Technologie ein. Die Einstufung als Sicherheitsrisiko erfolgte auf Anordnung von Präsident Donald Trump, der alle US-Bundesbehörden anwies, die Nutzung von Anthropic-Technologie einzustellen. Diese Maßnahme ist höchst ungewöhnlich, da Anthropic bisher die einzige KI-Firma war, deren Software für vertrauliche Nutzung im US-Militär freigegeben war.
Folgen und Konkurrenzsituation
Nach dem Streit mit Anthropic schloss der ChatGPT-Entwickler OpenAI eine Vereinbarung mit dem Pentagon ab. OpenAI-Chef Sam Altman akzeptierte die Bedingungen des Ministeriums, versicherte aber, dass technische Hürden für den Einsatz zur Massenüberwachung in den USA bestehen sollten. Die Robotik-Chefin von OpenAI, Caitlin Kalinowski, trat aus Protest gegen diesen Deal zurück. Anthropics KI-Software Claude gilt als scharfer Konkurrent von ChatGPT, insbesondere für den Einsatz in Unternehmen.
Der Aufstieg der künstlichen Intelligenz wird von Experten als ähnlich gefährlich wie die Erfindung der Atombombe eingeschätzt. KI-Pioniere warnen davor, dass die Menschheit die Maschinen einhegen muss, solange dies noch möglich ist. Der aktuelle Rechtsstreit unterstreicht die ethischen und sicherheitspolitischen Herausforderungen, die mit der militärischen Nutzung von KI verbunden sind.



