KI im Krieg: OpenAI-Chef Altman räumt Kontrollverlust über Pentagon-Einsatz ein
OpenAI-Chef: Keine Kontrolle über KI-Einsatz des Pentagons

Umstrittener KI-Einsatz im Krieg: OpenAI-Chef gesteht Kontrollverlust

Im anhaltenden Streit über den Einsatz von künstlicher Intelligenz in militärischen Konflikten hat OpenAI-Chef Sam Altman ein bedeutsames Eingeständnis gemacht. Laut Medienberichten räumte er intern ein, dass sein Unternehmen nicht kontrollieren könne, wie das US-Verteidigungsministerium die KI-Technologie tatsächlich einsetzt.

Betriebsversammlung offenbart Machtlosigkeit

Das verblüffende Geständnis soll während einer Betriebsversammlung am Dienstag gefallen sein, in der Altman die wachsende Kritik an der jüngsten Vereinbarung mit dem Pentagon adressierte. »Ihr dürft keine operativen Entscheidungen treffen«, sagte der Unternehmenschef laut Bloomberg und CNBC zu den besorgten Mitarbeitenden. Ihre persönliche Haltung zu Militäreinsätzen wie in Venezuela oder im Iran spiele dabei keinerlei Rolle. »Ihr habt dabei kein Mitspracherecht«, so Altman weiter.

Hitzige Debatten in der KI-Branche

Die gesamte KI-Branche befindet sich seit Wochen in hitzigen Diskussionen über ethische Grenzen. Das Pentagon hatte von KI-Unternehmen gefordert, Sicherheitsbeschränkungen aus ihren Modellen zu entfernen, um ein breiteres Spektrum militärischer Anwendungen zu ermöglichen. Medienberichten zufolge sollen KI-gestützte Systeme bereits bei der Militäroperation zur Festnahme des venezolanischen Staatschefs Nicolás Maduro sowie bei Zielentscheidungen im Krieg gegen den Iran zum Einsatz gekommen sein.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Anthropic lehnt Pentagon-Forderungen ab

OpenAIs großer Rivale Anthropic, Entwickler des Chatbots Claude, weigerte sich standhaft, den Forderungen des Pentagons nachzugeben. Das Unternehmen befürchtete konkret, dass seine KI-Technologie für inländische Massenüberwachung oder vollautonome Waffensysteme missbraucht werden könnte. Diese Haltung führte zu massiven Konsequenzen: US-Präsident Donald Trump ordnete an, dass Bundesbehörden die Nutzung von Anthropic-Diensten umgehend einstellen sollten, und beschimpfte die Firma öffentlich als »linke Spinner«.

Folgenreiche Entscheidungen

Nicht nur der lukrative 200-Millionen-Dollar-Vertrag von Anthropic mit dem Pentagon wurde daraufhin beendet. Verteidigungsminister Pete Hegseth stufte das Unternehmen zusätzlich als Lieferkettenrisiko für die nationale Sicherheit ein, was Geschäfte mit Militärpartnern praktisch unmöglich macht. Anthropic kündigte an, diese Einstufung gerichtlich anzufechten.

OpenAI nutzt die Gelegenheit

Während Anthropic in Ungnade fiel, nutzte OpenAI die Situation geschickt aus. Am selben Tag, an dem Hegseth Strafmaßnahmen gegen den Konkurrenten androhte, kündigte das Pentagon einen neuen Vertrag mit OpenAI an. Altman versuchte anschließend zu beteuern, dass die US-Regierung ihre Dienste nicht nach Belieben zu jedem Zweck einsetzen könne. In dem Deal sei explizit vereinbart worden, dass die KI weder zur Massenüberwachung in den USA noch zur Steuerung autonomer Waffensysteme verwendet werden dürfe.

Kritik und Nutzerproteste

Doch diese Versicherungen konnten Kritiker nicht besänftigen. Sie warnten davor, dass OpenAI dem US-Militär zu viel Interpretationsspielraum in der Vereinbarung gelassen habe. Erst am Montag teilte OpenAI mit, dass nach eiligen Nachverhandlungen nun ausdrücklich festgehalten wurde, dass KI-Systeme nicht »absichtlich« zur Überwachung der US-Bevölkerung genutzt werden dürften.

Die Reaktion der Nutzer fiel deutlich aus: Nach Bekanntwerden der Vereinbarung mit dem US-Verteidigungsministerium stiegen die Deinstallationen der mobilen ChatGPT-App in den USA am 28. Februar um 295 Prozent gegenüber dem Vortag. Gleichzeitig sank die Downloadrate von ChatGPT spürbar.

Claude profitiert von der Kontroverse

Während OpenAI Nutzer verliert, profitiert der Konkurrent Anthropic von der kontroversen Haltung seines Rivalen. Die Downloads von Claude, dem Chatbot von Anthropic, stiegen um 37 Prozent gegenüber dem Vortag. Diese Daten deuten klar darauf hin, dass viele US-Verbraucher die ethische Position von Anthropic in dieser brisanten Angelegenheit aktiv unterstützen und mit ihren Download-Entscheidungen belohnen.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration

Die Kontroverse um den militärischen Einsatz von KI-Technologie zeigt, wie tief die gesellschaftlichen Gräben in dieser Frage bereits verlaufen. Während Unternehmen wie OpenAI lukrative Verträge mit dem Militär eingehen, bezahlen sie dafür mit Vertrauensverlust bei Teilen ihrer Nutzerschaft. Die grundsätzliche Frage, wie viel Kontrolle Tech-Unternehmen über die Anwendung ihrer Technologien behalten können – oder sollten – bleibt unbeantwortet.