ChatGPT hat gerade Malware erstellt, und das ist ernsthaft beängstigend
Ein bekennender Anfänger hat Berichten zufolge innerhalb weniger Stunden eine leistungsstarke Data-Mining-Malware erstellt, die nur ChatGPT- Eingabeaufforderungen verwendet.
Aaron Mulgrew, ein Forcepoint-Sicherheitsforscher, teilte kürzlich mit, wie er Zero-Day-Malware exklusiv auf dem generativen Chatbot von OpenAI erstellt hat. Während OpenAI Schutzmaßnahmen gegen jeden bietet, der versucht, ChatGPT aufzufordern, bösartigen Code zu schreiben, fand Mulgrew eine Lücke , indem er den Chatbot aufforderte, einzelne Zeilen des bösartigen Codes Funktion für Funktion zu erstellen.
Nachdem er die einzelnen Funktionen kompiliert hatte, hatte Mulgrew eine nahezu unsichtbare, Daten stehlende ausführbare Datei auf seinen Händen erstellt. Und das war auch nicht Ihre Garten-Malware – die Malware war so ausgeklügelt wie alle nationalstaatlichen Angriffe und in der Lage, alle erkennungsbasierten Anbieter zu umgehen.
Ebenso entscheidend ist, wie sich Mulgrews Malware von „normalen“ nationalstaatlichen Iterationen unterscheidet, indem sie keine Hackerteams (und einen Bruchteil der Zeit und Ressourcen) zum Erstellen benötigt. Mulgrew, der nichts von der Codierung selbst übernahm, hatte die ausführbare Datei in nur wenigen Stunden fertiggestellt, im Gegensatz zu den normalerweise benötigten Wochen.
Die Malware Mulgrew (sie hat einen netten Klang, nicht wahr?) tarnt sich als Bildschirmschoner-App (SCR-Erweiterung), die dann automatisch unter Windows gestartet wird. Die Software durchsucht dann Dateien (wie Bilder, Word-Dokumente und PDFs) nach zu stehlenden Daten. Der beeindruckende Teil ist, dass die Malware (durch Steganografie) die gestohlenen Daten in kleinere Teile zerlegt und sie in Bildern auf dem Computer versteckt. Diese Bilder werden dann in einen Google Drive-Ordner hochgeladen, ein Verfahren, das eine Erkennung vermeidet.
Ebenso beeindruckend ist, dass Mulgrew in der Lage war, seinen Code mithilfe einfacher Eingabeaufforderungen auf ChatGPT zu verfeinern und gegen Erkennung zu stärken, was wirklich die Frage aufwirft, wie sicher die Verwendung von ChatGPT ist . Bei frühen VirusTotal-Tests wurde die Malware von fünf von 69 Erkennungsprodukten erkannt. Eine spätere Version seines Codes wurde anschließend von keinem der Produkte erkannt.
Beachten Sie, dass die von Mulgrew erstellte Malware ein Test war und nicht öffentlich verfügbar ist. Nichtsdestotrotz hat seine Forschung gezeigt, wie einfach Benutzer mit wenig bis gar keiner fortgeschrittenen Programmiererfahrung den schwachen Schutz von ChatGPT umgehen können, um auf einfache Weise gefährliche Malware zu erstellen, ohne auch nur eine einzige Codezeile einzugeben.
Aber hier ist der beängstigende Teil von all dem: Diese Art von Code benötigt normalerweise Wochen, um ein größeres Team zu kompilieren. Wir wären nicht überrascht, wenn ruchlose Hacker bereits ähnliche Malware über ChatGPT entwickeln würden, während wir hier sprechen.