OpenAI entdeckte Warnsignale vor Amoklauf in Kanada – meldete sie aber nicht
OpenAI sah Warnsignale vor Amoklauf, meldete sie nicht

OpenAI erkannte Warnsignale vor tödlichem Amoklauf in Kanada

Der Hersteller des KI-Chatbots ChatGPT, OpenAI, hat am Freitag bekannt gegeben, dass das Unternehmen bereits im vergangenen Jahr über eine Meldung besorgniserregender Online-Aktivitäten einer kanadischen Nutzerin an die Polizei nachgedacht hatte. Letztendlich entschied sich das Technologieunternehmen jedoch dagegen. Monate später verübte dieselbe Person einen der verheerendsten Schulamokläufe in der Geschichte Kanadas.

Tragödie in Tumbler Ridge erschüttert das Land

Im Februar dieses Jahres tötete eine 18-jährige Frau in der Kleinstadt Tumbler Ridge in British Columbia acht Menschen, bevor sie sich selbst das Leben nahm. Nach Angaben der Royal Canadian Mounted Police (RCMP) ermordete die Täterin zunächst ihre Mutter und ihren Stiefbruder im elterlichen Haushalt, bevor sie eine nahegelegene Schule angriff. Unter den Opfern befanden sich eine 39-jährige Lehrassistentin sowie fünf Schüler im Alter von 12 bis 13 Jahren.

Die Stadt Tumbler Ridge, die mit etwa 2.700 Einwohnern in den kanadischen Rockies mehr als 1.000 Kilometer nordöstlich von Vancouver liegt, wurde von dieser Gewalttat zutiefst erschüttert. Es handelte sich um den tödlichsten Amoklauf in Kanada seit dem Jahr 2020, als ein Schütze in Nova Scotia 13 Menschen tötete und durch gelegte Brände neun weitere Todesopfer forderte.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

OpenAI sperrte Konto, sah aber keine unmittelbare Gefahr

OpenAI gab an, das Konto der Nutzerin bereits im Juni 2025 im Rahmen von Routineüberprüfungen zur Erkennung von Regelverstößen identifiziert und wegen der »Förderung gewalttätiger Aktivitäten« gesperrt zu haben. Das Unternehmen aus San Francisco erwog eine Meldung an die RCMP, kam jedoch zu dem Schluss, dass die Aktivitäten des Kontos nicht die internen Kriterien für eine Benachrichtigung der Strafverfolgungsbehörden erfüllten.

»Unsere Schwelle für die Meldung eines Nutzers an die Strafverfolgungsbehörden ist ein unmittelbares und glaubwürdiges Risiko ernsthafter körperlicher Schäden für andere«, erklärte ein Sprecher von OpenAI. Das Unternehmen habe in diesem Fall keine glaubwürdigen oder unmittelbaren Planungen für eine Gewalttat erkennen können.

Nach der Tat erfolgte Kooperation mit den Ermittlern

Nach dem Amoklauf kontaktierte OpenAI proaktiv die kanadische Polizei und bot Unterstützung bei den Ermittlungen an. »Unsere Gedanken sind bei allen, die von der Tragödie in Tumbler Ridge betroffen sind. Wir haben die Royal Canadian Mounted Police mit Informationen über die Person und ihre Nutzung von ChatGPT kontaktiert und werden deren Ermittlungen weiterhin unterstützen«, so der OpenAI-Sprecher.

RCMP-Stabssergeant Kris Clark bestätigte am Freitag den Kontakt durch OpenAI und teilte mit, dass eine umfassende Untersuchung der elektronischen Geräte, sozialen Medien und Online-Aktivitäten der 18-Jährigen durchgeführt werde. Die Täterin hatte in der Vergangenheit bereits Kontakt zu Polizei und psychologischen Gesundheitsdiensten gehabt.

Die Enthüllungen werfen kritische Fragen zur Verantwortung von KI-Unternehmen bei der Erkennung und Meldung potenzieller Gefahren auf. Während OpenAI betont, strenge interne Richtlinien zu befolgen, zeigt dieser Fall die komplexen ethischen und praktischen Herausforderungen bei der Überwachung von Nutzerverhalten durch künstliche Intelligenz.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration