Kanada-Schulmassaker: OpenAI sperrte Konto der mutmaßlichen Täterin bereits vor der Tat
Zwei Wochen nach den verheerenden Schüssen an einer Schule im Westen Kanadas, bei denen acht Menschen ihr Leben verloren, rücken nun Chatbot-Unterhaltungen der mutmaßlichen Täterin in den Fokus der Ermittlungen. Das leitende Sicherheitsteam des ChatGPT-Entwicklers OpenAI wird heute zu Gesprächen in der kanadischen Hauptstadt Ottawa erwartet, wie der Minister für Künstliche Intelligenz, Evan Solomon, bestätigte. Die Gespräche drehen sich nicht nur um die konkreten Vorfälle, sondern auch um den generellen Umgang von Plattformbetreibern mit gewaltverherrlichenden Inhalten.
Konto bereits im Juni gesperrt
Wie der kanadische Sender CBC berichtete, hatte OpenAI das Konto der mittlerweile toten Tatverdächtigen bereits im vergangenen Juni gesperrt. Der Grund: Die 18-Jährige habe den KI-Chatbot zur „Förderung gewalttätiger Aktivitäten“ missbraucht. Allerdings erreichten die Aktivitäten des Kontos laut einer Stellungnahme des Unternehmens nicht die Schwelle für eine automatische Weiterleitung an die Strafverfolgungsbehörden. „Wir wollen ein besseres Verständnis dafür bekommen, was geschieht und wie OpenAI vorgeht“, erklärte Minister Solomon zu den anstehenden Gesprächen.
Die tragischen Ereignisse vom 10. Februar
Die Gewalttat erschütterte die ländlich geprägte Gemeinde Tumbler Ridge in der kanadischen Provinz British Columbia zutiefst. Eine 18-Jährige soll am 10. Februar acht Menschen getötet haben, darunter sechs in einer örtlichen Schule. Unter den Opfern befanden sich:
- Schülerinnen und Schüler
- eine Lehrkraft
- die Mutter der mutmaßlichen Schützin
- der Stiefbruder der mutmaßlichen Schützin
Die Tatverdächtige tötete sich anschließend selbst. Laut Polizeiangaben war bekannt, dass sie unter psychischen Problemen litt. Nach Ermittlerinformationen war sie bei der Geburt als männlich registriert worden, ihre Transition zur Frau habe Jahre vor der Tat begonnen. Kanadischen Medien zufolge handelt es sich bei diesem Vorfall um den schlimmsten an einer Ausbildungsstätte in dem nordamerikanischen Land seit dem Jahr 1989.
OpenAI diskutierte interne Warnung
Das „Wall Street Journal“ berichtete am Freitag unter Berufung auf informierte Kreise, dass OpenAI erwogen habe, kanadische Behörden über die ChatGPT-Interaktionen der damals 18-Jährigen zu informieren. Über mehrere Tage hinweg habe sie dem KI-Chatbot Szenarien beschrieben, die auch Waffengewalt beinhalteten. Ihre Beiträge seien bei einer automatisierten Überprüfung erfasst worden, woraufhin bei OpenAI intern diskutiert wurde, ob eine reale Bedrohungslage bestehe und ob kanadische Behörden informiert werden sollten. Letztlich sei dagegen entschieden worden.
Nach der Tat kontaktierte OpenAI laut Bericht die kanadische Polizei und unterstützt seither die Ermittlungen. Das Unternehmen wäge in solchen Fällen stets das Risiko von Gewalt gegen den Schutz der Privatsphäre ab, hieß es weiter. Dabei berücksichtige OpenAI auch die mögliche Belastung für Betroffene, die durch eine unnötige Einschaltung der Polizei entstehen könnte.
Die tragischen Ereignisse werfen grundlegende Fragen auf über die Verantwortung von KI-Unternehmen bei der Erkennung und Meldung potenziell gefährlicher Inhalte sowie über die Balance zwischen Sicherheitsinteressen und Privatsphärenschutz in der digitalen Welt.



