KI-Firma Anthropic verklagt US-Regierung: Streit um autonome Waffen eskaliert
Der Konflikt zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium, dem Pentagon, hat eine neue, dramatische Wendung genommen. Anthropic hat nun offiziell Klage gegen die US-Regierung eingereicht, nachdem das Unternehmen als Lieferketten-Risiko für die nationale Sicherheit eingestuft wurde. Diese Einstufung schließt Anthropic weitgehend von Regierungsaufträgen aus und verschärft die Auseinandersetzung um die Nutzung künstlicher Intelligenz im militärischen Bereich.
Anthropics Grundsätze gegen autonome Waffen
Anthropic beharrt in der Klage darauf, dass seine KI-Modelle nicht für Massenüberwachung von Amerikanern oder in vollständig autonomen Waffensystemen eingesetzt werden dürfen. Das Unternehmen argumentiert, dass die Maßnahmen der US-Regierung sein Recht auf freie Meinungsäußerung verletzen, da es für seine ethischen Grundsätze bestraft werde. Anthropic-Chef Dario Amodei betonte in einem Blogbeitrag, dass KI noch nicht verlässlich genug für den Einsatz in autonomen Waffen sei und das Unternehmen nicht wissentlich Produkte liefern werde, die Kämpfer und Zivilisten gefährden.
Pentagon fordert umfassende Nutzungsrechte
Das Verteidigungsministerium hält dagegen und fordert die Rechte für jede rechtmäßige Nutzung der KI-Technologie ein. Diese Forderung steht im direkten Widerspruch zu Anthropics Prinzipien und hat den Streit weiter angeheizt. Präsident Donald Trump ordnete zudem an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen, was die Position des Unternehmens zusätzlich unter Druck setzt.
OpenAI ersetzt Anthropic im Militärgeschäft
Nach dem eskalierenden Konflikt mit Anthropic schloss der ChatGPT-Entwickler OpenAI eine Vereinbarung mit dem Pentagon ab. OpenAI-Chef Sam Altman ließ sich auf die Bedingungen des Ministeriums ein, versicherte aber, dass technische Hürden für den Einsatz zur Massenüberwachung in den USA bestehen sollten. Die Robotik-Chefin von OpenAI, Caitlin Kalinowski, trat aus Protest gegen diesen Deal zurück, was die ethischen Spannungen in der KI-Branche unterstreicht. Anthropic war zuvor die einzige KI-Firma, deren Software für vertrauliche Nutzung im US-Militär freigegeben war, und sein KI-System Claude gilt als scharfer Konkurrent von ChatGPT, insbesondere für Unternehmensanwendungen.
Gefahren der KI und politische Implikationen
Der Aufstieg der künstlichen Intelligenz wird von Experten als so gefährlich wie die Erfindung der Atombombe eingestuft. KI-Pioniere warnen davor, dass die Menschheit die Technologie kontrollieren muss, solange dies noch möglich ist. Der Fall Anthropic verdeutlicht die komplexen ethischen und politischen Herausforderungen, die mit der militärischen Nutzung von KI verbunden sind, und könnte Präzedenzwirkung für ähnliche Konflikte in Zukunft haben.



