Konflikt um militärische KI-Nutzung: Pentagon stellt Anthropic Ultimatum
Das US-Verteidigungsministerium hat dem KI-Unternehmen Anthropic ein klares Ultimatum gestellt. Verteidigungsminister Pete Hegseth setzte dem für seinen Chatbot Claude bekannten Unternehmen eine Frist bis Freitag, um seine Sicherheitsbeschränkungen für militärische Einsätze zu lockern. Sollte Anthropic nicht einlenken, drohen dem Unternehmen harte Strafen durch das Pentagon.
Rechtliche Drohkulisse durch Defense Production Act
Nach Informationen des Nachrichtenportals Axios und der Nachrichtenagentur AP plant das Pentagon, bei einer Weigerung Anthropics vom Defense Production Act Gebrauch zu machen. Dieses Gesetz aus der Zeit des Kalten Krieges ermöglicht es der US-Regierung, Unternehmen zu zwingen, den Bedürfnissen der nationalen Sicherheit Vorrang einzuräumen. Ein ranghoher Pentagon-Vertreter bestätigte diese Strategie gegenüber Medien.
Hintergrund des Konflikts ist der Plan des Verteidigungsministeriums, KI-Modelle auch in geheimen Netzwerken zu nutzen, ohne dabei den üblichen Einschränkungen der Hersteller zu unterliegen. Die US-Regierung will künstliche Intelligenz verstärkt auf allen Geheimhaltungsstufen einsetzen, um militärische Entscheidungsprozesse deutlich zu beschleunigen.
Anthropics ethische Bedenken gegen militärische Nutzung
Die Verhandlungen zwischen Anthropic und der US-Regierung gestalten sich nach Insiderinformationen äußerst schwierig. Manager des KI-Unternehmens haben Regierungsvertretern gegenüber deutlich gemacht, dass ihre Technologie nicht für autonome Zielerfassung oder Inlandsüberwachung eingesetzt werden soll. Ein Unternehmenssprecher betonte zwar die Bereitschaft, den US-Vorsprung bei KI-Technologie zu sichern, verwies aber auf anhaltende Diskussionen über die genaue Art der Zusammenarbeit.
Ein hochrangiger Pentagon-Vertreter wies die ethischen Bedenken Anthropics zurück und erklärte, das Verteidigungsministerium habe stets im Rahmen der geltenden Gesetze gehandelt. Diese Positionierung verdeutlicht die grundsätzlich unterschiedlichen Herangehensweisen beider Seiten.
Anthropic als Ausnahme in der KI-Branche
Mit seiner ablehnenden Haltung bildet Anthropic derzeit eine bemerkenswerte Ausnahme in der KI-Branche. Konkurrenten wie die Google-Mutter Alphabet, das von Tesla-Chef Elon Musk geführte Unternehmen xAI und der ChatGPT-Entwickler OpenAI haben bereits Abkommen mit der US-Regierung geschlossen. OpenAI hat beispielsweise zugestimmt, viele der üblichen Nutzungsbeschränkungen für das militärische Netzwerk »genai.mil« aufzuheben.
Experten warnen jedoch vor den Risiken unkontrollierter militärischer KI-Nutzung. KI-Modelle neigen zu sogenannten »Halluzinationen«, bei denen sie Informationen erfinden oder verfälschen. Diese technischen Unzulänglichkeiten könnten bei militärischen Einsätzen schwerwiegende Konsequenzen haben.
Hintergrund des KI-Unternehmens Anthropic
Anthropic wurde 2021 von ehemaligen Mitarbeitern des KI-Unternehmens OpenAI gegründet. Während OpenAI mit seinem Chatbot ChatGPT der breiten Öffentlichkeit deutlich bekannter ist, zielt Anthropic mit Claude speziell auf Programmierer und Unternehmen ab, denen Datensicherheit und ethische Standards besonders wichtig sind. Diese Ausrichtung erklärt teilweise die zurückhaltende Position des Unternehmens gegenüber militärischen Anwendungen.
Der aktuelle Konflikt zwischen Anthropic und dem Pentagon wirft grundsätzliche Fragen zur Regulierung künstlicher Intelligenz in sensiblen Bereichen auf. Während die US-Regierung technologische Vorteile für die nationale Sicherheit nutzen will, beharren einige KI-Unternehmen auf strikten ethischen Richtlinien. Die kommenden Tage werden zeigen, ob Anthropic dem Druck des Verteidigungsministeriums nachgibt oder an seinen Prinzipien festhält.



