L'essor rapide de l'intelligence artificielle générative ouvre des perspectives considérables pour les entreprises, mais il expose aussi de nouvelles vulnérabilités. Une récente expérience menée par des chercheurs de la société de cybersécurité CodeWall illustre à quel point des technologies toutes nouvelles peuvent être fragiles si leurs mécanismes de sécurité ne sont pas parfaitement maîtrisés. Les spécialistes ont réussi à infiltrer Lilli, le chatbot interne d'intelligence artificielle utilisé par le cabinet de conseil McKinsey, grâce à un agent d'IA conçu pour identifier et exploiter des failles. L'opération s'inscrivait dans un exercice de "red-teaming" (test de sécurité), une méthode couramment utilisée en cybersécurité pour tester la robustesse d'un système en simulant des attaques. Les chercheurs ont développé un agent d'IA autonome, capable d'explorer l'architecture du chatbot, de repérer des vulnérabilités et de tenter d'y accéder sans intervention humaine directe. Ce type d'agent fonctionne comme un pirate informatique automatisé, capable d'expérimenter différentes stratégies jusqu'à trouver une brèche exploitable. Selon les résultats publiés par l'équipe de CodeWall, l'agent a réussi à pénétrer le système en moins de deux heures. Une fois la faille identifiée, il a pu accéder à une base de données particulièrement vaste. Les chercheurs affirment publiquement sur leur site avoir obtenu accès à environ 46,5 millions de messages issus des conversations avec le chatbot, ainsi qu'à 728 000 fichiers internes, 57 000 comptes utilisateurs et 95 "system prompts", c'est-à-dire les instructions internes qui orientent le comportement et les réponses du modèle d'intelligence artificielle. Ces informations pourraient être sensibles dans un contexte réel. Les échanges contenaient en effet des discussions liées à des projets clients, à des stratégies d'entreprise ou encore à des opérations de fusion-acquisition, autant de domaines où la confidentialité est essentielle pour les cabinets de conseil internationaux. L'expérience montre ainsi que les outils d'IA déployés dans les organisations peuvent devenir des points d'entrée vers des données stratégiques si leur architecture n'est pas suffisamment sécurisée. Certains sites web ont vite crié à la « cyberattaque criminelle », mais il s'agit en vérité d'un test de sécurité contrôlé réalisé dans le cadre d'une démarche responsable. Une fois la vulnérabilité identifiée, l'équipe de CodeWall a immédiatement signalé la faille à McKinsey, permettant au cabinet de corriger le problème et de renforcer les protections de son système. Au-delà du cas particulier de Lilli, cette expérience met en lumière un enjeu croissant pour les entreprises : l'arrivée d'agents d'intelligence artificielle capables de mener eux-mêmes des attaques informatiques. Contrairement aux pirates traditionnels, ces agents peuvent analyser un système à grande vitesse, tester des milliers de scénarios et exploiter automatiquement la moindre faiblesse. Pour les spécialistes de la cybersécurité, cette évolution annonce une nouvelle phase de la guerre numérique, où l'IA servira autant à défendre les systèmes qu'à tenter de les pirater.