Nach Schulmassaker: Kanadas KI-Minister fordert strengere Meldepflichten für ChatGPT
KI-Minister nach Schulmassaker: ChatGPT muss Warnzeichen melden

Nach Schulmassaker: Kanadas KI-Minister sieht ChatGPT in der Pflicht zur Meldung von Warnzeichen

Zwei Wochen nach den verheerenden Schüssen an einer Schule in Kanada haben Regierungsvertreter deutliche Verbesserungen bei der Gefahren-Meldekette des ChatGPT-Entwicklers OpenAI gefordert. Kanadas Minister für Künstliche Intelligenz (KI), Evan Solomon, erklärte nach einem Gespräch mit dem führenden Sicherheitsteam des Plattform-Betreibers, dass interne Überprüfungen allein nicht ausreichen, wenn die öffentliche Sicherheit auf dem Spiel steht.

Hintergrund: Tödliche Gewalttat in Tumbler Ridge

Hintergrund des Treffens von Solomon und weiteren Ministern war die Gewalttat vom 10. Februar im westkanadischen Ort Tumbler Ridge. Bei diesem tragischen Vorfall starben insgesamt neun Menschen. Den Ermittlungen zufolge hatte eine 18-jährige Trans-Frau acht Menschen getötet, sechs davon in einer Schule, bevor sie sich das Leben nahm. Die Tat löste in Kanada große Trauer und Bestürzung aus.

Missbrauch von ChatGPT für Gewaltfantasien

Nach dem Massaker wurde bekannt, dass die 18-jährige Schützin Monate vor ihrer Tat den KI-Chatbot ChatGPT missbraucht haben soll. Laut Medienberichten, unter anderem vom Sender CBC, nutzte sie die Plattform zur „Förderung gewalttätiger Aktivitäten“. Sie soll dem KI-Bot Szenarien beschrieben haben, die Waffengewalt beinhalteten. OpenAI sperrte daraufhin ihr Konto, eine Meldung an Strafverfolgungsbehörden erfolgte jedoch nicht.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Minister fordert zeitnahe Eskalation von Warnzeichen

Minister Solomon zeigte sich enttäuscht über die bisherigen Maßnahmen. „Wir haben deutlich gemacht, dass die Kanadier erwarten, dass glaubwürdige Warnzeichen für schwere Gewalt zeitnah und verantwortungsvoll eskaliert werden“, betonte er nach dem Gespräch mit den OpenAI-Vertretern. Es sei darüber diskutiert worden, wie ein „unmittelbares und glaubhaftes Risiko“ bei der Nutzung der Chat-Plattform identifiziert und überprüft werden könne.

Enttäuschenderweise habe der Plattform-Betreiber zunächst keine nennenswerten neuen Sicherheitsmaßnahmen präsentiert. OpenAI habe jedoch in Aussicht gestellt, bald konkretere, „auf den kanadischen Kontext zugeschnittene Vorschläge“ vorzulegen. Solomon betonte, dass solche Vorfälle die dringende Notwendigkeit strengerer Meldeverfahren und transparenterer Sicherheitsprotokolle bei KI-Plattformen unterstreichen.

Die Diskussionen konzentrierten sich darauf, wie Technologieunternehmen besser mit Behörden zusammenarbeiten können, um potenzielle Bedrohungen frühzeitig zu erkennen und zu melden. Dies sei entscheidend, um ähnliche Tragödien in Zukunft zu verhindern und das Vertrauen der Öffentlichkeit in KI-Technologien zu wahren.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration