Fallen Sie nicht darauf herein – ChatGPT-Betrug ist in den sozialen Medien weit verbreitet
Malware und Betrug für ChatGPT werden immer häufiger, da das Interesse an dem von OpenAI entwickelten Chatbot zunimmt.
Seit seiner Einführung im November 2022 hat es eine Reihe von Fällen gegeben, in denen schlechte Akteure die Popularität von ChatGPT ausgenutzt haben. Viele haben falsche ChatGPT-Schnittstellen verwendet, um ahnungslose mobile Benutzer um Geld zu betrügen oder Geräte mit Malware zu infizieren. Die jüngste Bedrohung ist eine Mischung aus beidem, wobei Hacker Windows- und Android-Benutzer über Phishing-Seiten angreifen und darauf abzielen, ihre privaten Daten zu stehlen, zu denen laut Bleeping Computer Kreditkarten- und andere Bankinformationen gehören könnten.
Der Sicherheitsforscher Dominic Alvieri beobachtete zuerst die verdächtige Aktivität von chat-gpt-pc.online , einer Domain, die eine Informationen stehlende Malware namens Redline hostete, die sich als ChatGPT für Windows-Desktop-Download ausgab. Die Website mit dem ChatGPT-Branding wurde auf einer Facebook-Seite als legitimer OpenAI-Link beworben, um Menschen zum Zugriff auf die schändliche Website zu bewegen.
Alvieri fand heraus, dass es auch gefälschte ChatGPT-Apps bei Google Play und verschiedenen anderen Android-App-Stores von Drittanbietern gab, die Malware an Geräte senden könnten, wenn sie heruntergeladen würden.
Andere Forscher haben die ursprünglichen Behauptungen untermauert, indem sie andere Malware gefunden haben, die andere böswillige Kampagnen ausführt. Forscher von Cyble entdeckten chatgpt-go.online , das Malware versendet, die „Inhalte aus der Zwischenablage stiehlt“, einschließlich Aurora Stealer . Eine andere Domain namens chat-gpt-pc[.]online versendet Malware namens Lumma Stealer. Noch eine andere namens openai-pc-pro[.]online , Malware, die noch nicht identifiziert wurde.
Cyble hat außerdem die Domain pay.chatgptftw.com mit einer Seite zum Diebstahl von Kreditkarten verbunden, die sich als Zahlungsseite für ChatGPT Plus ausgibt.
In der Zwischenzeit sagte Cyble, dass es über 50 dubiose mobile Anwendungen aufgedeckt hat, die sich als ChatGPT ausgeben, indem sie ihr Branding oder einen Namen verwenden, der Benutzer leicht verwirren könnte. Das Forschungsteam sagte, dass sie alle als gefälscht und schädlich für Geräte eingestuft wurden. Eine davon ist eine App namens chatGPT1 , bei der es sich um eine SMS-Abrechnungsbetrugs-App handelt, die wahrscheinlich Kreditkarteninformationen stiehlt, ähnlich wie oben beschrieben. Eine weitere App ist AI Photo , die Spynote-Malware hostet, die auf ein Gerät zugreifen und „Anrufprotokolle, Kontaktlisten, SMS und Dateien stehlen“ kann
Der Zustrom von Malware und bezahlten Betrügern begann, als OpenAI aufgrund seiner boomenden Popularität begann, die Geschwindigkeit und den Zugriff auf ChatGPT zu drosseln . Die ersten gefälschten kostenpflichtigen mobilen Apps kamen im Dezember 2022 in die Stores von Apple App und Google Play2, fanden aber Mitte Januar fast einen Monat lang keine Medienaufmerksamkeit. Der erste bekannte große ChatGPT-Hack folgte bald darauf Mitte Februar. Bösewichte verwendeten die OpenAI GPT-3-API, um einedunkle Version von ChatGPT zu erstellen, die Phishing-E-Mails und Malware-Skripte generieren kann. Die Bots arbeiten über die Messaging-App Telegram.
Jetzt scheint die Saison für Fälschungen und Alternativen offen zu sein, da OpenAI am 10. Februar seine kostenpflichtige ChatGPT Plus-Stufe für 20 US-Dollar pro Monat eingeführt hat. Benutzer sollten jedoch vorsichtig sein, dass der Chatbot ein browserbasiertes Tool bleibt, auf das nur als zugegriffen werden kann chat.openai.com. Derzeit sind auf keinem System mobile oder Desktop-Apps für ChatGPT verfügbar.