ChatGPT könnte bald eine Kindersicherung erhalten, und jede andere KI muss folgen
Soziale Medien waren ursprünglich ein Mittel, um mit den Menschen, die man liebt, in Kontakt zu bleiben. Mit der Zeit wurden ihre Gefahren aufgedeckt, was dazu führte, dass diese Plattformen Tools zur Kindersicherung entwickelten. Bei KI-Chatbots scheint es eine ähnliche Entwicklung zu geben, angefangen mit dem ChatGPT , mit dem alles begann.
OpenAI hat angekündigt, elterliche Schutzmaßnahmen bei der Nutzung von ChatGPT zu prüfen. „Wir werden in Kürze auch eine Kindersicherung einführen, die Eltern die Möglichkeit gibt, mehr Einblick in die Nutzung von ChatGPT durch ihre Teenager zu erhalten und diese zu beeinflussen“, so das Unternehmen in einem Blogbeitrag.
Darüber hinaus erwägt der KI-Riese, Notfallkontakte zu benennen, damit ChatGPT bei starken Angstzuständen oder emotionalen Krisen die Eltern oder Erziehungsberechtigten warnen kann. In seiner aktuellen Form empfiehlt ChatGPT lediglich Hilfsangebote.
Dies geschah nach Kritik, Forschungsbesorgnis und Klagen gegen OpenAI. ChatGPT ist hier jedoch nicht der einzige Schuldige, obwohl die von OpenAI geplante Initiative auch von anderen Akteuren der KI-Branche nachgeahmt werden muss. Eine Anfang des Monats im Fachmagazin „Psychiatric Services“ veröffentlichte Studie ergab, dass die Antworten von Chatbots „inkonsistent bei Fragen zu Suizid sind, die ein mittleres Risiko bergen können“.
Die Untersuchung konzentrierte sich ausschließlich auf ChatGPT von OpenAI, Claude von Anthropic und Gemini von Google . Diese sind die größten Namen im Chat, daher wird ihnen natürlich das Rampenlicht zuteil. Bei weniger bekannten KI-Chatbots, insbesondere solchen, die „unzensierte“ Gespräche führen, wird die Situation jedoch undurchsichtiger. Unabhängig davon sind, genau wie bei Social-Media-Apps, Kindersicherungen angesichts ihrer jüngsten Geschichte für etablierte KI-Chatbots dringend erforderlich.
Eine riskante Geschichte
In den letzten Jahren haben mehrere Untersuchungen riskante Muster in KI-Chatbot-Konversationen zu sensiblen Themen wie psychischer Gesundheit und Selbstverletzung aufgedeckt. Ein aktueller Bericht von Common Sense Media enthüllte, wie der Meta-AI-Chatbot (der mittlerweile auf WhatsApp, Instagram und Facebook verfügbar ist) Teenagern Ratschläge zu Essstörungen, Selbstverletzung und Selbstmord gab.
In einem simulierten Gruppengespräch legte der Chatbot einen Plan für einen Massenselbstmord vor und brachte das Thema Berichten zufolge wiederholt im Chat zur Sprache. Unabhängige Tests der Washington Post ergaben, dass der Meta-Chatbot „Essstörungen förderte“.
Im Jahr 2024 berichtete die New York Times ausführlich über den Fall eines 14-Jährigen, der eine enge Beziehung zu einem KI-Bot auf der Plattform Character.AI aufbaute und sich schließlich das Leben nahm. Anfang des Monats machte die Familie eines 16-Jährigen OpenAI dafür verantwortlich , nachdem sie herausgefunden hatte, dass ChatGPT im Grunde als „Selbstmordcoach“ für ihren Sohn fungierte.
Experten warnen zudem davor , dass die AI-Psychose ein echtes Problem darstellt und Menschen in eine gefährliche Wahnspirale stürzt. In einem Fall befolgte eine Person Gesundheitsratschläge von ChatGPT und begann unter dessen Einfluss, eine Chemikalie zu konsumieren, die bei ihr eine seltene psychotische Störung auslöste, die durch eine Bromidvergiftung ausgelöst wurde .
In einem Fall aus Texas bewirkte ein „sexualisierter“ KI-Chatbot bei einem Neunjährigen im Laufe der Zeit eine deutliche Verhaltensänderung. Ein anderer Chatbot drückte gegenüber einem 17-Jährigen sein Mitgefühl für Kinder aus, die ihre Eltern töten. Experten in Cambridge haben kürzlich aufgedeckt, wie gefährdete psychisch Kranke durch dialogorientierte KI-Chatbots negativ beeinflusst werden.
Kindersicherungen werden nicht alle grundlegenden Risiken lösen, die von KI-Chatbots ausgehen, aber wenn ein großer Player wie ChatGPT mit gutem Beispiel vorangeht, werden andere wahrscheinlich in seine Fußstapfen treten.
