Nach Schulmassaker: Kanadas KI-Minister sieht ChatGPT in der Pflicht zur Meldung von Warnzeichen
Zwei Wochen nach den verheerenden Schüssen an einer Schule in Kanada haben Regierungsvertreter deutliche Verbesserungen bei der Gefahren-Meldekette des ChatGPT-Entwicklers OpenAI gefordert. Kanadas Minister für Künstliche Intelligenz (KI), Evan Solomon, erklärte nach einem Gespräch mit dem führenden Sicherheitsteam des Plattform-Betreibers, dass interne Überprüfungen allein nicht ausreichen, wenn die öffentliche Sicherheit auf dem Spiel steht.
Hintergrund: Tödliche Gewalttat in Tumbler Ridge
Hintergrund des Treffens von Solomon und weiteren Ministern war die Gewalttat vom 10. Februar im westkanadischen Ort Tumbler Ridge. Bei diesem tragischen Vorfall starben insgesamt neun Menschen. Den Ermittlungen zufolge hatte eine 18-jährige Trans-Frau acht Menschen getötet, sechs davon in einer Schule, bevor sie sich das Leben nahm. Die Tat löste in Kanada große Trauer und Bestürzung aus.
Missbrauch von ChatGPT für Gewaltfantasien
Nach dem Massaker wurde bekannt, dass die 18-jährige Schützin Monate vor ihrer Tat den KI-Chatbot ChatGPT missbraucht haben soll. Laut Medienberichten, unter anderem vom Sender CBC, nutzte sie die Plattform zur „Förderung gewalttätiger Aktivitäten“. Sie soll dem KI-Bot Szenarien beschrieben haben, die Waffengewalt beinhalteten. OpenAI sperrte daraufhin ihr Konto, eine Meldung an Strafverfolgungsbehörden erfolgte jedoch nicht.
Minister fordert zeitnahe Eskalation von Warnzeichen
Minister Solomon zeigte sich enttäuscht über die bisherigen Maßnahmen. „Wir haben deutlich gemacht, dass die Kanadier erwarten, dass glaubwürdige Warnzeichen für schwere Gewalt zeitnah und verantwortungsvoll eskaliert werden“, betonte er nach dem Gespräch mit den OpenAI-Vertretern. Es sei darüber diskutiert worden, wie ein „unmittelbares und glaubhaftes Risiko“ bei der Nutzung der Chat-Plattform identifiziert und überprüft werden könne.
Enttäuschenderweise habe der Plattform-Betreiber zunächst keine nennenswerten neuen Sicherheitsmaßnahmen präsentiert. OpenAI habe jedoch in Aussicht gestellt, bald konkretere, „auf den kanadischen Kontext zugeschnittene Vorschläge“ vorzulegen. Solomon betonte, dass solche Vorfälle die dringende Notwendigkeit strengerer Meldeverfahren und transparenterer Sicherheitsprotokolle bei KI-Plattformen unterstreichen.
Die Diskussionen konzentrierten sich darauf, wie Technologieunternehmen besser mit Behörden zusammenarbeiten können, um potenzielle Bedrohungen frühzeitig zu erkennen und zu melden. Dies sei entscheidend, um ähnliche Tragödien in Zukunft zu verhindern und das Vertrauen der Öffentlichkeit in KI-Technologien zu wahren.



