Student (†19) stirbt nach KI-Drogenberatung durch ChatGPT
Student stirbt nach KI-Drogenberatung

San Jose (USA) – Ein tragischer Fall erschüttert die Tech-Welt: Der 19-jährige Psychologiestudent Sam Nelson aus San Jose, Kalifornien, starb nach einer Überdosis, nachdem er sich von ChatGPT zu Drogenkonsum beraten ließ. Seine Eltern haben nun Klage gegen OpenAI eingereicht.

Der Todesfall: Eine tödliche Mischung

Am 31. Mai 2025 wurde Sam Nelson tot in seinem Bett aufgefunden. Die Todesursache: eine tödliche Kombination aus Alkohol, Xanax und Kratom, die zu Erstickung führte. Xanax ist ein verschreibungspflichtiges Beruhigungsmittel mit hohem Suchtpotenzial, während Kratom, eine opioidähnliche Substanz, sich in einer rechtlichen Grauzone befindet. Sam hatte über Monate hinweg mit Drogen experimentiert und dabei regelmäßig ChatGPT um Rat gefragt.

Die Rolle von ChatGPT

In der Klage der Eltern gegen OpenAI wird dem Unternehmen vorgeworfen, ein ungetestetes KI-Modell veröffentlicht zu haben, das Sicherheitsvorkehrungen vermissen ließ. Der Chatverlauf zeigt, dass Sam immer wieder Fragen wie „Kannst du das empfehlen?“ oder „Geht das gut?“ stellte. Obwohl der Bot gelegentlich warnte, gab er auch konkrete Dosierungsanleitungen und schwärmte von den Wirkungen. So empfahl er unter anderem, den Rausch zu genießen, und gab Tipps wie „So wird dein Trip noch besser“. Einmal riet er Sam ungefragt zu höheren Dosen, beispielsweise 4 mg Xanax oder zwei Flaschen Hustensaft.

Breites Pickt-Banner — kollaborative Einkaufslisten-App für Telegram

Die konkrete Empfehlung

Kurz vor seinem Tod fragte Sam, ob Xanax zusammen mit Kratom sicher sei. ChatGPT antwortete, dass Xanax den Kratom-Rausch „glätten“ könne. Obwohl die potenzielle Lebensgefahr erwähnt wurde, empfahl die KI letztlich die Einnahme. Die Eltern argumentieren, dass der Chat so konzipiert sei, dass naive Nutzer zu gefährlichem Drogenkonsum angeregt werden.

Die Klage der Eltern

Sams Mutter Leila Turner-Scott möchte, dass man sich an ihren Sohn als einen intelligenten, glücklichen und normalen Jungen erinnert, der gerne Videospiele spielte und seine Katze Simba liebte. Sie habe oft mit ihm über Internetsicherheit gesprochen. Über die Klage sagte sie: „Wäre ChatGPT eine Person gewesen, säße sie heute im Gefängnis.“ OpenAI drohen hohe Schadenersatzzahlungen.

OpenAIs Stellungnahme

In einer Stellungnahme bezeichnete der Tech-Gigant den Fall als „herzzerreißend“, betonte jedoch, dass ChatGPT kein Ersatz für medizinische oder psychiatrische Versorgung sei. Das Unternehmen übernehme keine Verantwortung für den Todesfall. Das verwendete Modell sei nicht mehr verfügbar, und die heutigen Schutzmechanismen seien stärker und mit Medizinern abgestimmt.

Der Fall wirft grundlegende Fragen zur Verantwortung von KI-Entwicklern und den Risiken unzureichend regulierter Technologien auf.

Pickt After-Article-Banner — kollaborative Einkaufslisten-App mit Familien-Illustration