ChatGPT könnte nach einem Ausweis fragen, sagt OpenAI-Chef
OpenAI hat kürzlich darüber gesprochen, vor Ende dieses Monats eine Kindersicherung für ChatGPT einzuführen .
Das Unternehmen hinter ChatGPT hat außerdem bekannt gegeben, dass es an der Entwicklung eines automatisierten Altersvorhersagesystems arbeitet, das ermitteln soll, ob ein Benutzer unter 18 Jahre alt ist, und anschließend eine altersgerechte Erfahrung mit dem beliebten KI-gestützten Chatbot bieten soll.
Wenn das System in einigen Fällen das Alter eines Benutzers nicht vorhersagen kann, könnte OpenAI nach einem Ausweis fragen, um das am besten geeignete Erlebnis bieten zu können.
Der Plan wurde diese Woche in einem Beitrag von OpenAI-CEO Sam Altman geteilt, der darauf hinwies, dass ChatGPT für Personen ab 13 Jahren gedacht ist.
Altman sagte, das Alter eines Nutzers werde anhand der Nutzung von ChatGPT vorhergesagt. „Im Zweifelsfall gehen wir auf Nummer sicher und wählen standardmäßig die Version für unter 18-Jährige“, sagte der CEO. „In manchen Fällen oder Ländern fragen wir möglicherweise auch nach einem Ausweis. Wir wissen, dass dies die Privatsphäre Erwachsener gefährdet, sind aber überzeugt, dass es ein lohnender Kompromiss ist.“
Altman sagte, er wolle, dass die Benutzer mit ChatGPT so interagieren, wie sie es möchten, „unter Einhaltung sehr breiter Sicherheitsgrenzen“.
Der CEO ging näher auf das Problem ein und merkte an, dass die Standardversion von ChatGPT nicht besonders kokett sei, sagte jedoch, dass der Chatbot entsprechend reagieren würde, wenn ein Benutzer ein solches Verhalten verlange.
Altman sagte auch, dass die Standardversion keine Anweisungen dazu enthalten sollte, wie sich jemand das Leben nehmen kann. Er fügte jedoch hinzu, dass, wenn ein erwachsener Benutzer um Hilfe beim Schreiben einer fiktiven Geschichte bittet, die einen Selbstmord darstellt, „das Modell bei dieser Anfrage helfen sollte“.
„‚Behandeln Sie unsere erwachsenen Benutzer wie Erwachsene‘, so sprechen wir intern darüber; wir erweitern die Freiheit so weit wie möglich, ohne Schaden anzurichten oder die Freiheit anderer zu untergraben“, schrieb Altman.
Er sagte jedoch, dass in Fällen, in denen der Benutzer als unter 18 Jahre alt identifiziert wird, Flirtgespräche und auch Kommentare zum Thema Selbstmord grundsätzlich ausgeschlossen werden.
Altman fügte hinzu, wenn ein Benutzer unter 18 Jahren gegenüber ChatGPT Selbstmordgedanken äußert, „werden wir versuchen, die Eltern des Benutzers zu kontaktieren und, falls dies nicht gelingt, im Falle einer unmittelbaren Gefahr die Behörden kontaktieren.“
OpenAIs Schritt in Richtung Kindersicherung und Altersüberprüfung folgt auf eine viel beachtete Klage einer Familie gegen das Unternehmen. Diese behauptet, ChatGPT habe als „Selbstmordcoach“ fungiert und zum Selbstmord ihres jugendlichen Sohnes Adam Raine beigetragen, der Berichten zufolge im Laufe vieler Interaktionen mit dem Chatbot von OpenAI detaillierte Ratschläge zu Selbstmordmethoden erhalten habe.
Dies geschieht auch vor dem Hintergrund einer zunehmenden Kontrolle durch die Öffentlichkeit und die Aufsichtsbehörden hinsichtlich der Risiken, die KI-Chatbots für gefährdete Minderjährige in Bereichen wie psychischen Gesundheitsschäden und der Konfrontation mit unangemessenen Inhalten darstellen.
