Pentagon setzt KI-Firma Anthropic Ultimatum: Militärischer Einsatz von KI-Chatbot gefordert
Pentagon setzt KI-Firma Anthropic Ultimatum für Militäreinsatz

Pentagon erhöht Druck auf KI-Unternehmen Anthropic für militärische Nutzung

Das US-Verteidigungsministerium hat dem KI-Unternehmen Anthropic ein klares Ultimatum gestellt. Verteidigungsminister Pete Hegseth fordert die Firma auf, ihre Sicherheitsbeschränkungen für den militärischen Einsatz zu lockern. Sollte Anthropic dieser Aufforderung nicht bis Freitag nachkommen, drohen dem Unternehmen harte Strafen und rechtliche Konsequenzen.

Streit um Nutzungsbedingungen für KI-Technologie

Nach Berichten des Nachrichtenportals Axios und der Nachrichtenagentur AP hat das Pentagon dem für seinen Chatbot Claude bekannten Unternehmen eine Frist gesetzt. Hintergrund ist der Plan des Verteidigungsministeriums, KI-Modelle auch in geheimen Netzwerken zu nutzen, ohne dabei den üblichen Einschränkungen der Hersteller zu unterliegen. Die US-Regierung will künstliche Intelligenz verstärkt auf allen Geheimhaltungsstufen einsetzen, um militärische Entscheidungsprozesse zu beschleunigen und zu optimieren.

Ein ranghoher Pentagon-Vertreter erklärte, das Ministerium könnte vom Defense Production Act Gebrauch machen. Dieses Gesetz aus der Zeit des Kalten Krieges erlaubt es der US-Regierung, Unternehmen zu zwingen, den Bedürfnissen der nationalen Sicherheit Vorrang einzuräumen. Damit würde das Verteidigungsministerium über besondere Befugnisse verfügen, um seine Forderungen durchzusetzen.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Anthropic wehrt sich gegen bestimmte militärische Anwendungen

Die Verhandlungen zwischen Anthropic und der US-Regierung gestalten sich nach Insider-Informationen jedoch äußerst schwierig. Manager des KI-Unternehmens haben Regierungsvertretern gegenüber deutlich gemacht, dass ihre Technologie nicht für die autonome Zielerfassung oder für die Überwachung im Inland eingesetzt werden soll. Ein Sprecher von Anthropic betonte, das Unternehmen wolle zwar helfen, den US-Vorsprung bei der künstlichen Intelligenz zu sichern, befinde sich aber noch in intensiven Diskussionen über die genaue Art und den Umfang der möglichen Zusammenarbeit.

Ein hochrangiger Pentagon-Vertreter wies die Bedenken von Anthropic gegen die militärische Nutzung seiner Technologie entschieden zurück. Das Verteidigungsministerium habe stets im Rahmen der geltenden Gesetze gehandelt und werde dies auch weiterhin tun, erklärte der Vertreter. Die Sicherheitsinteressen der Vereinigten Staaten müssten dabei oberste Priorität genießen.

Anthropic als Ausnahme in der KI-Branche

Mit seiner zurückhaltenden Haltung bildet Anthropic derzeit eine bemerkenswerte Ausnahme in der Branche. Konkurrenten wie die Google-Mutter Alphabet, das von Tesla-Chef Elon Musk geführte Unternehmen xAI und der ChatGPT-Entwickler OpenAI haben bereits entsprechende Abkommen mit der US-Regierung geschlossen. OpenAI hat beispielsweise zugestimmt, viele der üblichen Nutzungsbeschränkungen für das militärische Netzwerk »genai.mil« aufzuheben.

Experten warnen jedoch vor den potenziellen Risiken eines uneingeschränkten militärischen Einsatzes von KI-Technologien. KI-Modelle neigen unter anderem dazu, Informationen zu erfinden – ein Phänomen, das als »Halluzinationen« bekannt ist. Diese technischen Unzulänglichkeiten könnten in militärischen Kontexten schwerwiegende Folgen haben.

Anthropic wurde im Jahr 2021 von ehemaligen Mitarbeitern des KI-Unternehmens OpenAI gegründet. Während OpenAI mit seinem Chatbot ChatGPT der breiten Öffentlichkeit deutlich bekannter ist, zielt Anthropic mit Claude primär auf Programmierer und Unternehmen ab, denen insbesondere Datensicherheit und ethische Standards wichtig sind. Dieser unterschiedliche Fokus erklärt teilweise die divergierenden Positionen der beiden Unternehmen in der aktuellen Auseinandersetzung mit dem Pentagon.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration