Hacker nutzen KI, um bösartige Malware zu erstellen, sagt das FBI
Das FBI hat gewarnt, dass Hacker mit Tools zur generativen künstlichen Intelligenz (KI) wie ChatGPT wild um sich greifen, schnell bösartigen Code erstellen und Cyberkriminalität starten, die in der Vergangenheit weitaus aufwändiger gewesen wäre.
Das FBI erläuterte seine Bedenken in einem Telefonat mit Journalisten und erklärte, dass KI-Chatbots alle Arten illegaler Aktivitäten angeheizt hätten, von Betrügern und Betrügern, die ihre Techniken perfektionierten, bis hin zu Terroristen, die die Werkzeuge konsultierten, um schädlichere chemische Angriffe zu starten.
Laut einem hochrangigen FBI-Beamten (über Tom's Hardware ) „gehen wir davon aus, dass diese Trends im Laufe der Zeit zunehmen werden, wenn die Akzeptanz und Demokratisierung von KI-Modellen weiter voranschreitet.“ Kriminelle nutzen KI, um ihre regulären kriminellen Aktivitäten zu ergänzen, fuhren sie fort, einschließlich der Verwendung von KI-Sprachgeneratoren, um sich als vertrauenswürdige Personen auszugeben, um Angehörige oder ältere Menschen zu betrügen.
Es ist nicht das erste Mal, dass Hacker Tools wie ChatGPT nutzen und sie verfälschen, um gefährliche Malware zu erstellen. Im Februar 2023entdeckten Forscher des Sicherheitsunternehmens Checkpoint, dass es böswilligen Akteuren gelungen war, die API eines Chatbots zu ändern, sodass dieser Malware-Code generieren konnte und fast jedem potenziellen Hacker die Erstellung von Viren ermöglicht wurde.
Ist ChatGPT eine Sicherheitsbedrohung?
Das FBI vertritt eine ganz andere Haltung als einige der Cyber-Experten, mit denen wir im Mai 2023 gesprochen haben. Sie sagten uns , dass die Bedrohung durch KI-Chatbots weitgehend übertrieben sei, da die meisten Hacker bessere Code-Exploits aus traditionelleren Datenlecks und Open-Source-Lösungen finden Forschung.
Martin Zugec, Technical Solutions Director bei Bitdefender, erklärte beispielsweise, dass „die Mehrheit der unerfahrenen Malware-Autoren wahrscheinlich nicht über die erforderlichen Fähigkeiten verfügt“, um die Anti-Malware-Schutzmaßnahmen von Chatbots zu umgehen. Darüber hinaus, so Zugec, „ist die Qualität des von Chatbots produzierten Malware-Codes tendenziell gering.“
Das stellt einen Kontrapunkt zu den Behauptungen des FBI dar, und wir müssen sehen, welche Seite sich als richtig erweist. Aber da der ChatGPT-Hersteller OpenAI sein eigenes Tool zur Erkennung von Chatbot-generiertem Plagiat einstellt, waren die Nachrichten in letzter Zeit nicht gerade ermutigend. Wenn das FBI recht hat, könnten schwierige Zeiten im Kampf gegen Hacker und ihre Versuche mit Chatbot-basierter Malware bevorstehen.