Le débat mondial sur l'intelligence artificielle appliquée aux armées prend une tournure de plus en plus préoccupante. À Pékin, les autorités chinoises ont choisi une image frappante pour illustrer leurs craintes : celle du film Terminator. Selon le ministère chinois de la Défense, laisser des algorithmes décider de la vie ou de la mort sur un champ de bataille pourrait ouvrir la porte à un futur digne des dystopies de science-fiction. Lors d'un point presse, Jiang Bin, porte-parole du ministère, a évoqué le célèbre long métrage de 1984 pour alerter sur les dérives possibles d'une automatisation excessive des systèmes militaires. Le responsable a estimé qu'un scénario où des machines prennent le contrôle d'opérations de combat n'appartient plus seulement à la fiction. Dans ce contexte, Pékin pointe directement la stratégie américaine, accusée d'intégrer de plus en plus d'intelligence artificielle dans ses dispositifs militaires. Selon la position officielle chinoise, une ligne rouge doit être maintenue : l'humain doit toujours conserver la décision finale. Pour Pékin, confier à des algorithmes le pouvoir de déterminer qui doit vivre ou mourir constituerait une rupture grave avec les principes éthiques qui encadrent les conflits armés. Les autorités chinoises appellent donc à maintenir une « primauté humaine » dans tous les systèmes d'armes intégrant de l'intelligence artificielle. La Chine plaide également pour un encadrement international plus strict de ces technologies émergentes. Pékin souhaite voir progresser des discussions multilatérales, notamment au sein des Nations unies, afin d'établir des règles claires sur l'utilisation militaire de l'IA. L'objectif affiché est d'éviter que la course technologique entre puissances ne conduise à une perte de contrôle sur des systèmes automatisés capables d'agir de manière autonome. Cette prise de position intervient dans un contexte tendu aux Etats-Unis autour de l'usage militaire de l'intelligence artificielle. Le Pentagone est actuellement en désaccord avec la société américaine Anthropic, connue pour développer l'IA Claude. L'entreprise refuse d'assouplir certaines limites d'utilisation de son modèle, notamment pour empêcher qu'il serve à des opérations violentes, à la surveillance massive ou à la conception d'armes. Le département de la Défense souhaitait pourtant pouvoir utiliser ce type d'IA pour « tout usage légal », une position qui a provoqué un blocage dans les discussions. Selon plusieurs informations relayées dans la presse internationale, Washington aurait même menacé d'exclure Anthropic de ses fournisseurs si la société maintenait ses restrictions. Dans le même temps, les armées américaines s'appuient déjà sur plusieurs modèles développés par les géants technologiques. Alphabet propose par exemple une version gouvernementale de son IA Gemini, tandis que la société xAI d'Elon Musk commercialise une suite baptisée « Grok for Government », destinée aux institutions publiques. Au-delà de la rivalité entre grandes puissances, le sujet soulève une question centrale pour l'avenir des conflits : jusqu'où peut-on automatiser la guerre sans perdre le contrôle des décisions les plus critiques. À mesure que l'intelligence artificielle progresse, la frontière entre assistance technologique et autonomie des machines devient l'un des débats stratégiques majeurs du XXIe siècle.