Klage gegen OpenAI: Teenager-Suizid löst Diskussion über Chatbot-Sicherheit aus
Die Eltern eines 16-jährigen US-Amerikaners, der sich im April das Leben nahm, haben eine Klage gegen das Unternehmen OpenAI eingereicht, das den beliebten Chatbot ChatGPT entwickelt hat. Ihnen zufolge soll der virtuelle Gesprächspartner eine Rolle beim Suizid ihres Sohnes gespielt haben. Die Grundlage ihrer Anschuldigungen sind Unterhaltungen, die auf dem Smartphone des Jugendlichen entdeckt wurden.
Als Reaktion auf die Klage hat OpenAI angekündigt, seine Schutzmaßnahmen zur Suizidprävention zu verbessern. Das Unternehmen gab zu, dass die bisherigen Vorkehrungen, die Nutzer zu Hilfsangeboten wie Beratungs-Hotlines lenken sollten, bei längeren Gesprächen mit dem Chatbot versagen könnten und gelegentlich unerwünschte Antworten gegeben wurden. Man arbeite intensiv daran, diese Sicherheitsmechanismen auch bei längerfristigen Interaktionen zuverlässig zu gestalten.
Konkret wird überlegt, ob ChatGPT in kritischen Momenten Kontakt zu vorher festgelegten Vertrauenspersonen der Nutzer aufnehmen könnte. Darüber hinaus wird für Nutzer unter 18 Jahren ein besonderer Schutz vor sensiblen Themen und riskanten Handlungen versprochen. Eltern sollen in die Lage versetzt werden, besser nachzuvollziehen, wie ihre Kinder den Chatbot verwenden.
Bereits derzeit werden Gespräche, in denen Nutzer schädliche Absichten äußern, einem spezialisierten Team übermittelt. Im Ernstfall werden auch Sicherheitsbehörden eingeschaltet. OpenAI hat der betroffenen Familie sein tiefes Mitgefühl ausgesprochen und angekündigt, die Klage eingehend zu prüfen.

