Charakter mit Verantwortung: KI-Unternehmen reagieren auf neue Herausforderungen
Im Zuge eines Weges zur verstärkten Verantwortung kündigt die amerikanische Entwicklerfirma Character Technologies bedeutende Änderungen an, um Teenager bei der Interaktion mit den KI-Chatbots auf Character.AI besser zu schützen. Nutzer unter 18 Jahren sollen künftig nicht mehr unbegrenzt mit diesen künstlich-intelligenten Charakteren kommunizieren können. Diese Regelung tritt offiziell am 25. November in Kraft und sieht bis dahin eine Begrenzung der täglichen Chat-Zeit auf maximal zwei Stunden vor. Die Initiative schließt zudem eine rigorose Altersüberprüfung ein, die die Nutzung weiterhin erlaubt, jedoch nicht in Form von offenen Dialogen, sondern eher bei der Erstellung von Videos oder Streams.
Die Maßnahmen folgen einer Reihe von Klagen, die das Unternehmen im letzten Jahr erschütterten. Eine Mutter aus Florida hatte dem Unternehmen eine Mitschuld am Suizid ihres 14-jährigen Sohnes gegeben; er hatte zuvor intensiv einen Chatbot von Character Technologies genutzt. Im September folgten weitere Klagen aus Colorado und New York, wo Familien ebenfalls eine Verbindung zwischen Character.AI und tragischen Ereignissen bei ihren Kindern hergestellt sehen.
Character Technologies erklärte, die Änderungen resultierten aus einer allgemeinen Weiterentwicklung im Umgang von Jugendlichen mit KI. Vermehrte Berichte und Nachfragen von Behörden hätten die Notwendigkeit verdeutlicht, die Inhalte, denen Teenager ausgesetzt sind, streng zu regulieren und die potenziellen Auswirkungen von offenen Chat-Formaten zu bewerten. Mit der wachsenden Bedeutung der Rolle von KI in der psychischen Gesundheit und Sicherheit junger Menschen wird die Diskussion über deren Einfluss in den USA immer kontroverser.
Ein weiterer Vorfall beleuchtet dies: Im August verklagten Eltern die Entwicklerfirma OpenAI. Nach der Anklage über Suizid eines Teenagers versprach OpenAI verbesserte Maßnahmen zur Suizidprävention, räumte jedoch gleichzeitig die Möglichkeit ein, dass längere Gespräche mit ChatGPT problematische Antworten liefern könnten.

