KI-gesteuerte Roboter können jailbreakt werden, und die Folgen könnten katastrophal sein

Forscher von Penn Engineering haben Berichten zufolge bisher nicht identifizierte Sicherheitslücken in einer Reihe von KI-gesteuerten Roboterplattformen aufgedeckt .

„Unsere Arbeit zeigt, dass große Sprachmodelle derzeit einfach nicht sicher genug sind, wenn sie in die physische Welt integriert werden“, sagte George Pappas, Professor für Transportwesen in der Elektro- und Systemtechnik der UPS Foundation, in einer Erklärung.

Pappas und sein Team entwickelten einen Algorithmus namens RoboPAIR , „den ersten Algorithmus, der zum Jailbreak von LLM-gesteuerten Robotern entwickelt wurde“. Und im Gegensatz zu bestehenden Prompt-Engineering- Angriffen, die auf Chatbots abzielen, ist RoboPAIR speziell darauf ausgelegt, „schädliche physische Aktionen“ von LLM-gesteuerten Robotern hervorzurufen, wie die zweibeinige Plattform, die Boston Dynamics und TRI entwickeln .

Berichten zufolge erzielte RoboPAIR eine 100-prozentige Erfolgsquote beim Jailbreak von drei beliebten Robotik-Forschungsplattformen: dem vierbeinigen Unitree Go2 , dem vierrädrigen Clearpath Robotics Jackal und dem Dolphins LLM- Simulator für autonome Fahrzeuge. Es dauerte nur wenige Tage, bis der Algorithmus vollständigen Zugriff auf diese Systeme erlangte und begann, Sicherheitsleitplanken zu umgehen. Sobald die Forscher die Kontrolle übernommen hatten, konnten sie die Plattformen zu gefährlichen Aktionen anweisen, beispielsweise zum Durchfahren von Straßenkreuzungen ohne anzuhalten.

„Unsere Ergebnisse zeigen zum ersten Mal, dass die Risiken von LLMs mit Jailbreak weit über die Textgenerierung hinausgehen, da die Möglichkeit besteht, dass Roboter mit Jailbreak in der realen Welt physischen Schaden anrichten könnten“, schrieben die Forscher .

Die Penn-Forscher arbeiten mit den Plattformentwicklern zusammen, um ihre Systeme gegen weiteres Eindringen zu schützen, warnen jedoch, dass diese Sicherheitsprobleme systemischer Natur sind.

„Die Ergebnisse dieses Papiers machen deutlich, dass ein sicherheitsorientierter Ansatz von entscheidender Bedeutung ist, um verantwortungsvolle Innovationen zu ermöglichen“, sagte Vijay Kumar, Mitautor von der University of Pennsylvania, gegenüber The Independent . „Wir müssen intrinsische Schwachstellen beheben, bevor wir KI-fähige Roboter in der realen Welt einsetzen.“

„Tatsächlich ist AI Red Teaming, eine Sicherheitspraxis, bei der KI-Systeme auf potenzielle Bedrohungen und Schwachstellen getestet werden, für den Schutz generativer KI-Systeme unerlässlich“, fügte Alexander Robey, der Erstautor des Papiers, hinzu, „denn wenn man erst einmal die Schwachstellen identifiziert, dann auch.“ kann diese Systeme testen und sogar trainieren, um sie zu vermeiden.“