OpenAI verwendet eigene Modelle, um Wahleinmischung zu bekämpfen
OpenAI, der Kopf hinter der beliebten generativen KI-Lösung ChatGPT , veröffentlichte einen Bericht , der besagt, dass es im Jahr 2024 weltweit bisher mehr als 20 Operationen und betrügerische Netzwerke blockiert hat. Die Operationen unterschieden sich in Ziel, Umfang und Schwerpunkt und dienten dazu, Malware zu erstellen und gefälschte Medienkonten, gefälschte Biografien und Website-Artikel zu schreiben.
OpenAI bestätigt, dass es die gestoppten Aktivitäten analysiert und wichtige Erkenntnisse aus seiner Analyse geliefert hat. „Bedrohungsakteure entwickeln sich weiter und experimentieren mit unseren Modellen, aber wir haben keine Beweise dafür gesehen, dass dies zu bedeutenden Durchbrüchen in ihrer Fähigkeit führt, grundlegend neue Malware zu erstellen oder virale Zielgruppen aufzubauen“, heißt es in dem Bericht.
Dies ist besonders wichtig, da es in verschiedenen Ländern, darunter den Vereinigten Staaten, Ruanda, Indien und der Europäischen Union, ein Wahljahr ist. Beispielsweise hat OpenAI Anfang Juli eine Reihe von Konten gesperrt, die Kommentare zu den Wahlen in Ruanda erstellten, die von verschiedenen Konten auf X (ehemals Twitter) gepostet wurden. Daher ist es gut zu hören, dass OpenAI sagt, dass die Bedrohungsakteure mit ihren Kampagnen nicht viel vorankommen konnten.
Ein weiterer Erfolg für OpenAI ist die Zerschlagung eines in China ansässigen Bedrohungsakteurs namens „SweetSpecter“, der versuchte, die Unternehmens- und Privatadressen von OpenAI-Mitarbeitern per Spear-Phishing abzufangen . In dem Bericht heißt es weiter, dass Microsoft im August eine Reihe von Domänen offengelegt habe, die sie einer verdeckten iranischen Einflussoperation namens „STORM-2035“ zuschrieben. „Auf der Grundlage ihres Berichts haben wir eine Reihe damit verbundener Aktivitäten auf ChatGPT untersucht, gestört und gemeldet.“
OpenAI sagt auch, dass die von ihren Modellen erstellten Social-Media-Beiträge nicht viel Aufmerksamkeit erregten, weil sie nur wenige oder keine Kommentare, Likes oder Shares erhielten. OpenAI stellt sicher, dass sie weiterhin vorhersehen, wie Bedrohungsakteure fortschrittliche Modelle für schädliche Zwecke nutzen, und die notwendigen Maßnahmen planen, um dies zu stoppen.