Meta gibt eine Warnung heraus, um nach ChatGPT-bezogenen Betrügereien Ausschau zu halten
So sicher, wie die Nacht dem Tag folgt, haben sich Betrüger schnell für ChatGPT interessiert, den fortschrittlichen KI-gestützten Chatbot des von Microsoft unterstützten OpenAI, der im November auf die Bildfläche stürmte.
In einem neuen Sicherheitsbericht, der am Mittwoch von Meta veröffentlicht wurde , sagte das früher als Facebook bekannte Unternehmen, dass seine Sicherheitsanalysten allein seit März rund 10 Arten von Malware entdeckt haben, die sich als ChatGPT und ähnliche KI-basierte Tools ausgeben, die darauf abzielen, insbesondere Online-Konten zu kompromittieren die von Unternehmen.
Die Betrügereien könnten beispielsweise über Webbrowser-Erweiterungen übermittelt werden – einige davon sind in offiziellen Webshops zu finden – die ChatGPT-bezogene Tools anbieten und möglicherweise sogar einige ChatGPT-ähnliche Funktionen bieten, schrieb Guy Rosen, Chief Information Security Officer von Meta die Post. Aber die Erweiterungen sind letztendlich darauf ausgelegt, Benutzer dazu zu verleiten, vertrauliche Informationen preiszugeben oder schädliche Payloads zu akzeptieren.
Der Chief Information Security Officer von Meta sagte, sein Team habe Malware gesehen, die sich als ChatGPT-Apps tarnte, und dann, nach der Entdeckung, ihre Köder einfach auf andere beliebte Produkte wie Googles KI-gestütztes Bard-Tool umgestellt, um eine Entdeckung zu vermeiden.
Rosen sagte, Meta habe mehr als 1.000 eindeutige bösartige URLs erkannt und blockiert, die in seinen Apps geteilt werden, und sie den Unternehmen gemeldet, bei denen die Malware gehostet wurde, damit sie ihre eigenen geeigneten Maßnahmen ergreifen können.
Meta versprach, weiterhin hervorzuheben, wie diese bösartigen Kampagnen funktionieren, Bedrohungsindikatoren mit Unternehmen zu teilen und aktualisierte Schutzmaßnahmen einzuführen, um den neuen Taktiken von Betrügern zu begegnen. Zu seinen Bemühungen gehört auch die Einführung eines neuen Support-Flows für Unternehmen, die von Malware betroffen sind.
Unter Berufung auf das Beispiel von Krypto-Betrug bemerkte Rosen, wie der neue Angriff von Cyberkriminellen einem Muster folgt, bei dem sie die Popularität neuer oder lebhafter technischer Produkte ausnutzen, um zu versuchen, unschuldige Benutzer dazu zu bringen, auf ihre Tricks hereinzufallen.
„Der Bereich der generativen KI entwickelt sich schnell und schlechte Akteure wissen das, also sollten wir alle wachsam sein“, warnte Rosen.