Einem Mann, der auf ChatGPT nachschlug, wurde gesagt, er habe „seine Kinder getötet“
Stellen Sie sich vor, Sie geben Ihren Namen in ChatGPT ein, um zu sehen, was es über Sie weiß, und behaupten dann selbstbewusst – wenn auch zu Unrecht –, dass Sie wegen der Ermordung von Mitgliedern Ihrer Familie zu 21 Jahren Gefängnis verurteilt wurden.
Genau das ist dem Norweger Arve Hjalmar Holmen letztes Jahr passiert, nachdem er sich bei ChatGPT, dem weit verbreiteten KI-gestützten Chatbot von OpenAI, umgesehen hatte.
Es überrascht nicht, dass Holmen nun eine Beschwerde bei der norwegischen Datenschutzbehörde eingereicht hat und verlangt, dass OpenAI wegen seiner belastenden Behauptung eine Geldstrafe verhängt wird, wie die BBC diese Woche berichtete .
In seiner Antwort auf Holmens ChatGPT-Anfrage zu seiner Person sagte der Chatbot, er sei „aufgrund eines tragischen Ereignisses aufgefallen“.
Weiter hieß es: „Er war Vater von zwei kleinen Jungen im Alter von 7 und 10 Jahren, die im Dezember 2020 auf tragische Weise tot in einem Teich in der Nähe ihres Hauses in Trondheim, Norwegen, aufgefunden wurden. Arve Hjalmar Holmen wurde des Mordes an seinen beiden Söhnen sowie des versuchten Mordes an seinem dritten Sohn angeklagt und später verurteilt.“
Der Chatbot sagte, der Fall habe „die örtliche Gemeinschaft und die Nation schockiert und aufgrund seines tragischen Charakters in den Medien ausführlich darüber berichtet.“
Aber nichts dergleichen geschah.
Verständlicherweise bestürzt über den Vorfall sagte Holmen gegenüber der BBC: „Einige denken, dass es keinen Rauch ohne Feuer gibt – die Tatsache, dass jemand diese Ausgabe lesen und glauben könnte, dass sie wahr ist, macht mir am meisten Angst.“
Die Gruppe für digitale Rechte Noyb hat die Beschwerde im Namen von Holmen eingereicht und erklärt, dass die Antwort von ChatGPT verleumderisch sei und gegen die europäischen Datenschutzbestimmungen hinsichtlich der Richtigkeit personenbezogener Daten verstoße. In seiner Beschwerde sagte Noyb, dass Holmen „nie wegen eines Verbrechens angeklagt oder verurteilt wurde und ein gewissenhafter Bürger ist“.
ChatGPT verwendet einen Haftungsausschluss, der besagt, dass der Chatbot „Fehler machen kann“ und Benutzer daher „wichtige Informationen überprüfen“ sollten. Aber Noyb-Anwalt Joakim Söderberg sagte: „Man kann nicht einfach falsche Informationen verbreiten und am Ende einen kleinen Haftungsausschluss hinzufügen, der besagt, dass alles, was man gesagt hat, möglicherweise einfach nicht wahr ist.“
Während es für KI-Chatbots nicht ungewöhnlich ist, fehlerhafte Informationen auszuspucken – solche Fehler werden als „Halluzinationen“ bezeichnet – ist die Ungeheuerlichkeit dieses speziellen Fehlers schockierend.
Eine weitere Halluzination, die letztes Jahr für Schlagzeilen sorgte, betraf das KI-Tool Gemini von Google, das vorschlug, Käse mit Klebstoff auf Pizza zu kleben . Es wurde auch behauptet, Geologen hätten den Menschen empfohlen, einen Stein pro Tag zu essen.
Die BBC weist darauf hin, dass ChatGPT sein Modell seit Holmens Suche im vergangenen August aktualisiert hat, was bedeutet, dass es bei der Erstellung seiner Antwort nun aktuelle Nachrichtenartikel durchforstet. Das bedeutet aber nicht, dass ChatGPT jetzt fehlerfreie Antworten erstellt.
Die Geschichte unterstreicht die Notwendigkeit, die von KI-Chatbots generierten Antworten zu überprüfen und ihren Antworten nicht blind zu vertrauen. Es wirft auch Fragen zur Sicherheit textbasierter generativer KI-Tools auf, die seit der Öffnung des Sektors durch OpenAI mit der Einführung von ChatGPT Ende 2022 kaum einer behördlichen Aufsicht unterliegen.
Digital Trends hat OpenAI um eine Antwort auf Holmens unglückliche Erfahrung gebeten und wir werden diese Geschichte aktualisieren, sobald wir etwas hören.