Ermittlungen gegen OpenAI nach tödlichem Angriff an Universität in Florida
Die Staatsanwaltschaft in Florida hat Ermittlungen gegen den Entwickler von ChatGPT, OpenAI, eingeleitet. Dies geschieht im Zusammenhang mit einem Schusswaffenangriff auf dem Gelände der Florida State University im April 2025, bei dem zwei Menschen getötet und sechs weitere verletzt wurden.
KI-Chatbot als Berater für den Täter
Nach Angaben von Ermittlern ließ sich der Schütze vor der Tat erheblich von dem KI-Chatbot ChatGPT beraten. Floridas Generalstaatsanwalt James Uthmeier erklärte bei einer Pressekonferenz, dass die Beratung Details umfasste, wie die Wahl der Waffe, passende Munition sowie Informationen darüber, wo und wann die meisten Menschen auf dem Campus anzutreffen wären.
Uthmeier betonte, dass in einem ähnlichen Fall, in dem die Ratschläge von einer anderen Person stammten, bereits eine Mordanklage verfasst worden wäre. Er räumte jedoch ein, dass ChatGPT keine Person ist, und verwies auf die komplexe rechtliche Frage, ob ein Unternehmen in solchen Fällen haftbar gemacht werden kann.
Forderung nach mehr Informationen von OpenAI
Die Behörde hat OpenAI aufgefordert, Informationen zu Vorkehrungen für Bedrohungssituationen bereitzustellen. Bisher gab es von OpenAI keine offizielle Reaktion auf die Vorwürfe. Chatbots wie ChatGPT sind normalerweise so programmiert, dass sie keine Fragen beantworten, wenn sie erkennen, dass der Nutzer sich oder anderen Schaden zufügen will. In bestimmten Situationen sollen sie auch interne Zuständige alarmieren, die dann Sicherheitsbehörden einschalten können.
Allerdings wurde berichtet, dass es in der Vergangenheit möglich war, diese Sicherheitsvorkehrungen zu umgehen. Dies wirft Fragen zur Effektivität der Schutzmechanismen von KI-Systemen auf und könnte weitreichende Konsequenzen für die Regulierung von Künstlicher Intelligenz haben.
Die Ermittlungen in Florida könnten somit einen Präzedenzfall für die Haftung von Technologieunternehmen in Fällen von KI-gestützter Kriminalität schaffen. Experten warnen, dass solche Vorfälle die Debatte über ethische Richtlinien und gesetzliche Rahmenbedingungen für KI-Anwendungen intensivieren könnten.



