Tragischer Todesfall: Eltern klagen OpenAI an
Der tragische Suizid eines 16-jährigen US-Teenagers bringt die Entwickler von ChatGPT, OpenAI, in rechtliche Bedrängnis. Die Eltern des Jungen leiten rechtliche Schritte gegen das Unternehmen ein mit dem Vorwurf, dass der von OpenAI entwickelte Chatbot ihren Sohn bei seinem Entschluss, sich das Leben zu nehmen, unterstützt habe. Grundlage ihrer Klage sind auf dem Smartphone des Teenagers gefundene Gespräche mit ChatGPT.
OpenAI reagierte umgehend auf die schwerwiegenden Anschuldigungen und kündigte verbesserte Maßnahmen zur Suizidprävention an. Das Unternehmen gab zu, dass die existierenden Sicherheitsvorkehrungen, darunter der Hinweis auf eine Beratungs-Hotline, bei langfristigen Interaktionen mit ChatGPT möglicherweise nicht ausreichend gewesen seien. Man sei nun bestrebt, auch bei längeren Chats geeignete Schutzmaßnahmen zu gewährleisten und ziehe sogar in Betracht, dass der Chatbot in Krisensituationen eine Kontaktaufnahme zu von Nutzern benannten Personen initiieren könnte.
Zusätzliche Schutzmaßnahmen für Nutzer unter 18 Jahren sind ebenfalls in Planung. Diese beinhalten unter anderem "stärkere Leitplanken" für sensible und riskante Interaktionen. Zudem sollen Eltern mehr Einblick in die Nutzung von ChatGPT durch ihre Kinder erhalten, um deren Sicherheit besser gewährleisten zu können.
Bei Gesprächen, in denen Nutzer gewaltvolle Absichten äußern, greift OpenAI bereits jetzt ein. Solche Unterhaltungen werden an ein spezialisiertes Team weitergeleitet und im Falle einer akuten Bedrohungslage werden Sicherheitsbehörden eingeschaltet. Der Familie des betroffenen Teenagers sprach OpenAI sein "tiefstes Mitgefühl" aus und teilte mit, dass die Klage genau geprüft werde.

