Der ChatGPT-Ersteller startet ein Bug-Bounty-Programm mit Geldprämien
ChatGPT ist noch nicht so schlau, dass es seine eigenen Fehler finden kann, also wendet sich sein Schöpfer an Menschen um Hilfe.
OpenAI hat am Dienstag ein Bug-Bounty-Programm vorgestellt, das die Leute dazu ermutigt, Schwachstellen und Fehler in seinen künstlichen Intelligenzsystemen wie ChatGPT und GPT-4 zu lokalisieren und zu melden.
In einem Beitrag auf seiner Website, in dem Einzelheiten des Programms skizziert werden, sagte OpenAI, dass die Belohnungen für Berichte von 200 US-Dollar für Ergebnisse mit geringem Schweregrad bis zu 20.000 US-Dollar für sogenannte „außergewöhnliche Entdeckungen“ reichen werden.
Das von Microsoft unterstützte Unternehmen sagte, sein Ziel sei es, KI-Systeme zu entwickeln, die „allen zugute kommen“, und fügte hinzu: „Zu diesem Zweck investieren wir stark in Forschung und Technik, um sicherzustellen, dass unsere KI-Systeme sicher und geschützt sind. Wie bei jeder komplexen Technologie verstehen wir jedoch, dass Schwachstellen und Fehler auftreten können.“
Zu Sicherheitsforschern gewandt, die daran interessiert sind, sich an dem Programm zu beteiligen, sagte OpenAI, es erkenne „die entscheidende Bedeutung der Sicherheit und betrachte es als eine gemeinsame Anstrengung. Indem Sie Ihre Erkenntnisse teilen, spielen Sie eine entscheidende Rolle dabei, unsere Technologie für alle sicherer zu machen.“
Da immer mehr Leute ChatGPT und andere OpenAI-Produkte ausprobieren, ist das Unternehmen bestrebt, potenzielle Probleme schnell aufzuspüren, um sicherzustellen, dass die Systeme reibungslos funktionieren und um zu verhindern, dass Schwachstellen für schändliche Zwecke ausgenutzt werden. OpenAI hofft daher, dass es durch die Zusammenarbeit mit der Tech-Community alle Probleme lösen kann, bevor sie zu ernsthafteren Problemen werden.
Das in Kalifornien ansässige Unternehmen hatte bereits einen Schrecken , bei dem ein Fehler die Titel der Konversationen einiger Benutzer offenlegte, obwohl sie privat hätten bleiben sollen.
Sam Altman, CEO von OpenAI, sagte nach dem Vorfall im letzten Monat, dass er das Datenschutz-Missgeschick als „bedeutendes Problem“ betrachte, und fügte hinzu: „Wir fühlen uns schrecklich deswegen.“ Es ist jetzt behoben.
Der Fehler wurde für OpenAI zu einem größeren Problem, als Italien ernsthafte Bedenken hinsichtlich der Datenschutzverletzung äußerte und beschloss, ChatGPT zu verbieten, während es eine gründliche Untersuchung durchführt. Die italienischen Behörden fordern auch Einzelheiten zu Maßnahmen, die OpenAI zu ergreifen gedenkt, um eine Wiederholung zu verhindern.