Hacker verwenden KI, um gefährliche Malware auf YouTube zu verbreiten

YouTube ist die neueste Grenze, an der KI-generierte Inhalte verwendet werden, um Benutzer dazu zu bringen, Malware herunterzuladen, die ihre persönlichen Daten stehlen kann.

Da die KI-Generierung auf mehreren Plattformen immer beliebter wird, wächst auch der Wunsch, auf böswillige Weise davon zu profitieren. Das Forschungsunternehmen CloudSEK hat seit November 2022 einen Anstieg der Anzahl von Videos auf YouTube um 200 % bis 300 % beobachtet, die Links zu beliebten Malware-Quellen wie Vidar, RedLine und Raccoon direkt in den Beschreibungen enthalten.

Die Videos sind als Tutorials zum Herunterladen gecrackter Versionen von Software konzipiert, für deren Verwendung normalerweise eine kostenpflichtige Lizenz erforderlich ist, z. B. Photoshop, Premiere Pro, Autodesk 3ds Max, AutoCAD und andere.

Böse Schauspieler profitieren davon, indem sie KI-generierte Videos auf Plattformen wie Synthesia und D-ID erstellen. Sie erstellen Videos, die Menschen mit allgemein bekannten und vertrauenswürdigen Merkmalen zeigen. Dieser beliebte Trend wurde in den sozialen Medien genutzt und wird seit langem in Rekrutierungs-, Bildungs- und Werbematerial verwendet, stellte CloudSEK fest.

‍Durch die Kombination der zuvor genannten Methoden können Benutzer leicht dazu verleitet werden, bösartige Links anzuklicken und den Malware-Infostealer herunterzuladen. Nach der Installation hat es Zugriff auf die privaten Daten des Benutzers, darunter „Passwörter, Kreditkarteninformationen, Bankkontonummern und andere vertrauliche Daten“, die dann auf den Command-and-Control-Server des Angreifers hochgeladen werden können.

Andere private Informationen, die für Infostealer-Malware gefährdet sein könnten, umfassen Browserdaten, Crypto-Wallet-Daten, Telegrammdaten, Programmdateien wie .txt und Systeminformationen wie IP-Adressen.

‍Während es neben dieser neuen Art von KI-generierter Malware viele Antiviren- und Endpunkterkennungssysteme gibt, gibt es auch viele Entwickler von Informationsdiebstahl, um sicherzustellen, dass das Ökosystem am Leben und gesund bleibt. Obwohl CloudSEK feststellte, dass die schlechten Schauspieler zusammen mit der KI-Revolution im November 2022 auftauchten, tauchte ein Teil derersten Medienaufmerksamkeit von Hackern, die ChatGPT-Code zur Erstellung von Malware verwendeten, erst Anfang Februar auf.

Entwickler von Informationsdiebstahl rekrutieren und arbeiten auch mit Menschenhändlern zusammen, anderen Akteuren, die Informationen über potenzielle Opfer über unterirdische Marktplätze, Foren und Telegrammkanäle finden und austauschen können. Traffer sind in der Regel diejenigen, die die gefälschten Websites, Phishing-E-Mails, YouTube-Tutorials oder Social-Media-Beiträge bereitstellen, auf denen Entwickler von Informationsdiebstahl ihre Malware anhängen können. Es gab auch einen ähnlichen Betrug mit schlechten Schauspielern , die gefälschte Anzeigen in sozialen Medien und auf Websites für die kostenpflichtige Version von ChatGPT hosten .

Auf YouTube übernehmen sie jedoch Konten und laden mehrere Videos gleichzeitig hoch, um die Aufmerksamkeit der Follower des ursprünglichen Erstellers zu erregen. Bösewichte übernehmen sowohl beliebte Konten als auch selten aktualisierte Konten für verschiedene Zwecke.

Die Übernahme eines Kontos mit über 100.000 Abonnenten und das Hochladen von fünf bis sechs mit Malware verseuchten Videos wird sicherlich einige Klicks bringen, bevor der Besitzer wieder die Kontrolle über sein Konto erlangt. Zuschauer könnten das Video als ruchlos identifizieren und es YouTube melden, das es letztendlich entfernen wird. Ein weniger beliebtes Konto hat möglicherweise Videos live infiziert und der Besitzer ist sich möglicherweise einige Zeit nicht bewusst.

Das Hinzufügen von gefälschten Kommentaren und verkürzten bit.ly- und cutt.ly-Links zu Videos lässt sie auch valider erscheinen.