Anthropic stellt sich gegen das Pentagon: KI-Einsatzbeschränkungen führen zu heftigem Streit
Der KI-Entwickler Anthropic, ein direkter Konkurrent von OpenAI, befindet sich in einem offenen Konflikt mit dem US-Verteidigungsministerium. Das Unternehmen will dem Pentagon verbieten, seine fortschrittliche Künstliche-Intelligenz-Software für Massenüberwachungszwecke innerhalb der Vereinigten Staaten sowie in vollständig autonomen Waffensystemen einzusetzen. Diese klare Positionierung hat zu einer ernsten Auseinandersetzung geführt, bei der das Verteidigungsministerium mit drastischen wirtschaftlichen Konsequenzen für das Technologieunternehmen droht.
Firmenchef Amodei begründet die strikten Einschränkungen
In einem ausführlichen Blogeintrag erläuterte Mitgründer und CEO Dario Amodei die Beweggründe für die festgelegten Grenzen. Er warnte davor, dass KI-Technologie es ermögliche, verstreute Daten einzelner Personen in großem Maßstab automatisiert zu sammeln und daraus detaillierte Lebensbilder zu erstellen – eine Praxis, die Anthropic im Inland nicht unterstützen will. Gleichzeitig betonte Amodei, dass die aktuelle KI noch nicht zuverlässig genug für den Einsatz in vollständig autonomen Waffensystemen sei. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, schrieb der Anthropic-Chef entschieden.
Pentagon reagiert mit scharfer Kritik und Drohungen
Das Verteidigungsministerium lehnt diese Einschränkungen kategorisch ab und besteht darauf, nur mit KI-Firmen zusammenzuarbeiten, die jedem legalen Einsatz ihrer Software zustimmen. Als Reaktion auf Anthropics Haltung drohte das Pentagon damit, das Unternehmen als Lieferketten-Risiko einzustufen, was dessen Geschäftstätigkeit in den USA erheblich einschränken würde. Ein ranghoher Beamter, Emil Michael, griff Amodei auf der Plattform X persönlich an und unterstellte ihm einen „Gott-Komplex“ sowie den Wunsch, das US-Militär kontrollieren zu wollen.
Darüber hinaus erwägt das Pentagon, auf ein Gesetz aus dem Jahr 1950, den Defense Production Act, zurückzugreifen, um Anthropic zur Aufhebung der Beschränkungen zu zwingen. Dem Unternehmen wurde eine Frist bis zum späten Freitagnachmittag in Washington gesetzt, um jeglichem legalen Einsatz der Software zuzustimmen.
Hintergrund des Konflikts und mögliche Folgen
Die Spannungen wurden öffentlich, nachdem bekannt wurde, dass Anthropic-Software bei einer US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Der genaue Verwendungszweck blieb dabei unklar. Anthropic betonte, dass jegliche Nutzung – ob in der Privatwirtschaft oder durch Regierungen – im Rahmen der Nutzungsrichtlinien bleiben müsse.
Die Lücke, die durch einen möglichen Ausschluss von Anthropic in den US-Militärsystemen entstehen könnte, könnte von anderen Anbietern wie der Firma xAI von Tech-Milliardär Elon Musk gefüllt werden. Allerdings ist ungewiss, ob diese die spezifischen Fähigkeiten der Anthropic-KI bieten können.
Amodei setzt sich seit längerem für mehr Leitplanken in der KI-Entwicklung ein und warnt vor den Risiken der Technologie. Diese Haltung bringt ihn auch in Konflikt mit dem KI-Beauftragten des Weißen Hauses, David Sacks. Verteidigungsminister Pete Hegseth hatte im Januar erklärt, das Pentagon wolle keine KI-Modelle nutzen, „die es nicht erlauben, Kriege zu führen“.
Der Chatbot Claude von Anthropic kann ähnlich wie ChatGPT von OpenAI Dokumente analysieren und Informationen zusammenfassen. Das Unternehmen beharrt darauf, dass ethische Grenzen in der KI-Nutzung unverzichtbar sind, während das Pentagon auf maximale Flexibilität für militärische Zwecke pocht.



