Des chercheurs de Penn Engineering (États-Unis) auraient découvert des vulnérabilités de sécurité jusqu'alors non identifiées dans un certain nombre de plateformes robotiques contrôlées par l'IA.
« Nos recherches montrent qu'à ce stade, les grands modèles de langage (LLM) ne sont généralement pas suffisamment sécurisés lorsqu'ils sont intégrés à du matériel physique complexe », a déclaré George Pappas, professeur d'ingénierie électrique et des systèmes à la Fondation UPS, dans un communiqué.
Pappas et son équipe ont développé un algorithme, appelé RoboPAIR, « le premier algorithme conçu pour déchiffrer les robots contrôlés par LLM ». Et contrairement aux attaques techniques rapides existantes ciblant les chatbots, RoboPAIR est conçu spécifiquement pour « induire des actions physiques nuisibles » de la part de robots contrôlés par LLM, comme la plate-forme de robot humanoïde appelée Atlas que Boston Dynamics et Toyota Research Institute (TRI) développent.
RoboPAIR aurait atteint un taux de réussite de 100 % en décryptant trois plateformes de recherche en robotique populaires : l'Unitree Go2 à quatre pattes, le Clearpath Robotics Jackal à quatre roues et le simulateur Dolphins LLM pour véhicules autonomes. Il n’a fallu que quelques jours à l’algorithme pour obtenir un accès complet à ces systèmes et commencer à contourner les barrières de sécurité. Une fois que les chercheurs ont pris le contrôle, ils ont pu diriger les plateformes robotiques autonomes pour effectuer une variété d'actions dangereuses, comme traverser des intersections sans s'arrêter.
« Les résultats de la première évaluation montrent que les risques liés aux LLM piratés vont au-delà de la génération de texte, car il est clair que les robots piratés peuvent causer des dommages physiques dans le monde réel . »

L'équipe de Penn Engineering travaille avec les développeurs de plateformes pour renforcer leurs systèmes contre de nouvelles intrusions, mais prévient que ces problèmes de sécurité sont systémiques et difficiles à résoudre complètement.
« Les conclusions de cette étude montrent clairement qu'adopter une approche axée sur la sécurité est essentiel pour favoriser une innovation responsable. Nous devons remédier aux vulnérabilités inhérentes avant de déployer des robots dotés d'IA dans le monde réel », a déclaré l'équipe.
Une opération sécurisée nécessite de tester les systèmes d’IA pour détecter les menaces et les vulnérabilités potentielles, ce qui est essentiel pour protéger les systèmes d’IA qu’ils créent. Car ce n’est qu’en identifiant les faiblesses que vous pouvez tester et même former les systèmes pour prévenir les risques.