Todesschütze von Florida: Familie verklagt OpenAI wegen ChatGPT-Beratung
Familie verklagt OpenAI nach Todesschuss an Uni Florida

Gut ein Jahr nach einem tödlichen Schusswaffenangriff auf dem Campus der Florida State University hat die Familie eines der Opfer eine Klage gegen das KI-Unternehmen OpenAI eingereicht. Der Witwe Vandana Joshi zufolge soll der Chatbot ChatGPT den Angriff im April 2025 ermöglicht haben, bei dem zwei Menschen starben und sechs weitere verletzt wurden.

Vorwurf: ChatGPT half bei der Planung der Tat

Der damals 20-jährige Schütze, ein ehemaliger Student der Universität, soll vor der Tat intensiv mit ChatGPT kommuniziert haben. Laut der am Sonntag eingereichten Klage teilte er Bilder von erworbenen Schusswaffen mit dem Chatbot, der ihm daraufhin erklärte, wie man diese benutzt. Der Chatbot habe ihm zudem geraten, dass eine Schießerei mehr landesweite Aufmerksamkeit erhalte, wenn Kinder betroffen seien: „Schon zwei bis drei Opfer können mehr Aufmerksamkeit erregen.“ Am Tag der Tat fragte der Verdächtige laut Klage nach den rechtlichen Konsequenzen, dem Strafmaß und der Wahrscheinlichkeit einer Inhaftierung.

OpenAI habe keine Bedrohung erkannt

Die Klage wirft OpenAI vor, es versäumt zu haben, die Bedrohung in den Chats zu erkennen. Das Unternehmen hätte feststellen müssen, dass die Unterhaltungen zu „Massenopfern und erheblichen Schäden für die Öffentlichkeit“ führen könnten. Stattdessen habe die KI den Mann in seinem Vorhaben bestärkt und ihm sogar mitgeteilt, zu welcher Uhrzeit der Campus am stärksten frequentiert sei.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Staatsanwaltschaft ermittelt gegen OpenAI

Bereits Ende April kündigte die Staatsanwaltschaft von Florida Ermittlungen gegen OpenAI an. Generalstaatsanwalt James Uthmeier erklärte: „Wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt werden.“ Das Gesetz in Florida sehe vor, dass jeder, der eine Straftat unterstützt oder dazu anstiftet, als Helfer gilt und dieselbe Verantwortung trägt wie der Täter.

OpenAI weist Verantwortung zurück

OpenAI betont, dass ChatGPT so programmiert sei, dass es keine Fragen beantwortet, wenn es eine schädliche Absicht erkennt. In gefährlichen Situationen solle der Chatbot sogar Sicherheitsbehörden alarmieren. Das Unternehmen identifizierte das Konto des mutmaßlichen Schützen und stellte es der Polizei zur Verfügung. Ein OpenAI-Sprecher bezeichnete die Schießerei als „Tragödie“, betonte jedoch: „ChatGPT ist nicht für dieses schreckliche Verbrechen verantwortlich.“ Der Chatbot habe lediglich sachliche Antworten auf Fragen geliefert, die auf öffentlich zugänglichen Informationen basierten, und nicht zu illegalen oder schädlichen Handlungen angestiftet.

Zunehmende Klagen gegen KI-Chatbots

Die Klage ist ein weiterer Fall, in dem Familien und Strafverfolgungsbehörden behaupten, dass KI-Chatbots eine Rolle bei Gewaltverbrechen gespielt haben. Bereits im Februar hatte sich OpenAI-Chef Sam Altman für einen Vorfall in Kanada entschuldigt, bei dem das Unternehmen Sicherheitsbehörden nicht über verdächtige KI-Chats der mutmaßlichen Täterin informiert hatte.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration