ChatGPT informiert Eltern, wenn Teenager akute emotionale Belastungen verspüren
In den letzten Monaten sind zahlreiche Fälle bekannt geworden, in denen die Interaktion mit KI-Chatbots aus dem Ruder lief. Dies führte zu Todesfällen, medizinischen Traumata und Psychosen. Experten gehen davon aus, dass junge Nutzer besonders gefährdet sein könnten, insbesondere wenn sie emotionale Turbulenzen durchmachen. ChatGPT -Entwickler OpenAI kündigt an, Eltern bald vor solchem Verhalten zu warnen.
Was ändert sich?
Vor einigen Tagen enthüllte OpenAI Pläne zur Entwicklung einer Kindersicherung, damit Eltern über die Interaktion ihrer Kinder mit ChatGPT informiert sind und bei Bedarf eingreifen können. Nun kündigte das Unternehmen Pläne zur Entwicklung eines Warnsystems an, um besorgte Eltern zu informieren.
OpenAI sagt, dass Eltern eine Benachrichtigung erhalten, wenn ChatGPT erkennt, dass ihr Kind „einen Moment akuter Not durchmacht“. Dies funktioniert, wenn Eltern ihr ChatGPT-Konto über ein E-Mail-Einladungssystem mit dem Konto ihrer Kinder ab 13 Jahren verknüpfen.
Mit verknüpften Konten können Eltern auch die KI-Funktionen steuern, auf die ihre Kinder zugreifen können, beispielsweise den Speicher früherer Gespräche. Darüber hinaus können Eltern „altersgerechtes Modellverhalten“ für die Interaktionen von ChatGPT mit jungen Nutzern aktivieren.
Wie geht es weiter?
OpenAI hat seinen 120-Tage-Plan zur Implementierung einer Reihe von Funktionen und Änderungen vorgestellt, um ChatGPT-Gespräche für junge „KI-Natives“, die täglich mit KI-Tools interagieren, weiterhin zu ermöglichen. Das Unternehmen wird außerdem technische Änderungen vornehmen, um sicherzustellen, dass die Modelle den passenden Reaktionsmodus nutzen.
„Wir werden bald damit beginnen, einige sensible Gespräche – etwa wenn unser System Anzeichen akuter Not erkennt – an ein Denkmodell wie GPT-5-Denken weiterzuleiten, damit es hilfreichere und nützlichere Antworten liefern kann, unabhängig davon, welches Modell eine Person zuerst ausgewählt hat“, sagt OpenAI.
Die Protokolle zur Kontoverknüpfung und die Kindersicherung werden innerhalb eines Monats eingeführt. Die Sicherheitsmaßnahmen sind dringend erforderlich. Jüngste Untersuchungen haben ergeben, dass KI-Chatbots, wie der gleichnamige Chatbot von Meta, „sinnliche“ Gespräche mit Kindern führten und Teenagern bei der Planung von Massenselbstmorden halfen.
