San Francisco – Der KI-Chatbot ChatGPT erhält eine neue Sicherheitsfunktion namens „Trusted Contact“. OpenAI hat mit der Einführung begonnen, um Erwachsene in Krisensituationen zu unterstützen. Die Funktion erkennt Gespräche, die auf ernsthafte Selbstgefährdung hindeuten, und benachrichtigt eine zuvor benannte Vertrauensperson.
So funktioniert „Trusted Contact“
Nutzer ab 18 Jahren können in den Einstellungen eine Person bestimmen, der sie vertrauen – etwa einen Freund, ein Familienmitglied oder eine andere Bezugsperson. Damit die Funktion greift, muss der Nutzer aktiv jemanden benennen, und die Vertrauensperson muss die Einladung annehmen. Die Funktion ist optional und kann jederzeit deaktiviert oder bearbeitet werden.
Mehrstufiges Eingreifen bei Gefahr
Erkennt das automatische System von ChatGPT Hinweise auf Suizidgedanken oder -planungen, erfolgt ein mehrstufiger Prozess: Zunächst wird der Chattende darauf hingewiesen, dass eine Benachrichtigung der Vertrauensperson möglich ist. Der Nutzer wird ermutigt, sich selbst an die Vertrauensperson zu wenden. Bestehen weiterhin ernsthafte Sicherheitsbedenken, übernehmen speziell geschulte Mitarbeiter von OpenAI. Sie informieren die Vertrauensperson per E-Mail, SMS oder In-App-Benachrichtigung. Die Nachricht enthält keine Details, sondern nur eine allgemeine Aufforderung, sich zu melden.
Kein Ersatz für professionelle Hilfe
OpenAI betont, dass „Trusted Contact“ keine professionelle Notfallhilfe ersetzt. Die Funktion soll lediglich eine Brücke zu persönlichen Unterstützern bauen. Im Herbst 2025 hatte das Unternehmen mitgeteilt, dass rund 0,15 Prozent der Nutzer innerhalb einer Woche KI-Gespräche führten, die eindeutige Hinweise auf mögliche Suizidabsichten enthielten. Die neue Funktion ist ab sofort für Nutzer ab 18 Jahren verfügbar.



