Ein Hacker verwandelte ein beliebtes KI-Tool in eine Cybercrime-Maschine

Das Unternehmen hinter dem beliebten KI-Chatbot Claude hat eine eindringliche Warnung vor der zunehmenden Nutzung von KI-Tools durch Cyberkriminelle herausgegeben, da die Technologie immer ausgefeilter wird.

In seinem jüngsten Threat Intelligence-Bericht beschrieb Anthropic detailliert den jüngsten Fall , in dem ein Hacker seine KI-Tools nutzte, um einen Cyberangriff auf zahlreiche Unternehmen und Organisationen zu starten.

Laut Anthropic verwendete der Hacker einen KI-Codierungsagenten (in diesem Fall Claude Code), ein Tool, das Code mit minimalem menschlichen Input schreiben, bearbeiten und ausführen kann.

Demnach habe der Hacker den Agenten im vergangenen Monat dazu verwendet, „Aufklärung, das Sammeln von Anmeldeinformationen und das Eindringen in Netzwerke in großem Umfang zu automatisieren“ und dabei vertrauliche Daten von mindestens 17 Unternehmen und Organisationen aus den Bereichen Regierung, Gesundheitswesen, Rettungsdienste und religiöse Einrichtungen zu stehlen.

Dem Täter gelang es, an persönliche Daten von Menschen zu gelangen, darunter Gesundheitsdaten, Finanzinformationen und behördliche Ausweise. Anschließend forderte er Lösegeld und drohte, die Daten online zu veröffentlichen, wenn die Forderungen nicht erfüllt würden.

Der KI-Agent von Claude analysierte sogar die gestohlenen Finanzdaten, um die entsprechende Lösegeldsumme zu ermitteln – bei einigen Angriffen wurden bis zu 500.000 US-Dollar gefordert – und erstellte außerdem „visuell alarmierende“ Lösegeldforderungen, die auf den Computerbildschirmen der Opfer erschienen.

Anthropic sagte, dass die mutige Operation „eine besorgniserregende Entwicklung in der KI-gestützten Cyberkriminalität“ zeige und „eine grundlegende Veränderung in der Art und Weise darstelle, wie Cyberkriminelle ihre Operationen skalieren können“, da KI nun verwendet werden könne, um einen Großteil des Hacking-Prozesses zu automatisieren, wenn auch unter menschlicher Leitung.

Obwohl unklar ist, ob eines der Opfer in diesem speziellen Fall bezahlt hat, erklärte Anthropic, man habe nun Schritte unternommen, um diesen Missbrauch zu verhindern. Allerdings fügte das Unternehmen hinzu, dass diese Angriffsmethode wahrscheinlich immer häufiger zum Einsatz kommen werde, „da KI die Eintrittsbarriere für anspruchsvolle Cybercrime-Operationen senkt“.

Der jüngste Threat Intelligence-Bericht hob außerdem hervor, wie nordkoreanische Agenten Claude nutzten, um sich auf betrügerische Weise Remote-Arbeitsplätze bei US-amerikanischen Fortune 500-Technologieunternehmen zu sichern. Außerdem wurde in einem weiteren Fall hervorgehoben, dass ein Cyberkrimineller die KI-Tools des Unternehmens nutzte, um verschiedene Ransomware-Produkte zu erstellen und zu vermarkten und sie für bis zu 1.200 US-Dollar pro Stück an andere Cyberkriminelle weiterzuverkaufen.

Viele Hacker nutzen KI in irgendeiner Form schon seit Jahren. Chatbots wie ChatGPT, der 2022 veröffentlicht wurde, haben Angriffe jedoch vereinfacht, und der Aufstieg von KI-Agenten stellt nun eine noch größere Bedrohung dar. Glücklicherweise nutzen Cybersicherheitsfirmen genau die Technologie, die von Angreifern ausgenutzt wird, um eine kritische Verteidigungslinie aufzubauen, obwohl es offensichtlich ein ständiger Kampf ist, mit der Entwicklung Schritt zu halten.