Au terme de plusieurs semaines de tensions inédites entre la Silicon Valley et l'administration américaine, la décision d'Anthropic de fermer la porte au ministère de la Défense a provoqué un tournant stratégique. L'entreprise dirigée par Dario Amodei refuse désormais que son modèle Claude soit exploité dans des opérations militaires, une prise de position rarissime dans une industrie habituée à coopérer avec le Pentagone. Cette rupture s'est cristallisée après l'utilisation de Claude dans un dispositif embarqué sur drone lors d'un raid au Venezuela. Anthropic juge ces usages incompatibles avec ses principes, qui proscrivent les armes, la surveillance massive et l'autonomisation létale. Malgré les pressions exercées par le secrétaire à la Défense Pete Hegseth, la start-up a maintenu son refus, estimant que les IA actuelles demeurent trop peu fiables pour des scénarios où des vies peuvent dépendre d'une décision algorithmique. La réaction de Donald Trump a immédiatement enflammé la scène politique. Dans une série de déclarations, le président a ordonné l'arrêt complet de Claude dans l'ensemble des agences fédérales, accusant Anthropic de mettre en péril la sécurité nationale. Une posture qui tranche avec la réalité opérationnelle : les forces armées continuent d'utiliser Claude pour une période transitoire de plusieurs mois, le temps de migrer l'ensemble des outils. Dans le même temps, de nombreux ingénieurs de la tech ont salué la prise de position d'Anthropic. Plus de 400 employés issus de sociétés comme Google, Amazon ou Microsoft ont signé une lettre ouverte appelant les géants du secteur à refuser les usages militaires contraires à leurs principes internes. Une mobilisation qui rappelle les précédents débats sur le rôle de l'IA dans le domaine militaire américain. Dans ce contexte électrique, OpenAI a accepté de reprendre le relais. Après des discussions serrées, la société dirigée par Sam Altman a conclu un accord avec le Pentagone, encadré par deux garanties : l'interdiction de la surveillance de masse à l'intérieur des Etats-Unis et l'obligation d'une supervision humaine pour tout usage lié à la force. OpenAI assure déployer des garde-fous techniques supplémentaires, convaincue que ce type d'approche limite mieux les dérives que de simples politiques d'utilisation. Pour Washington, l'enjeu est considérable : conserver des capacités d'analyse, de simulation et de décision alimentées par l'IA, alors que les conflits récents ont démontré le rôle croissant des outils génératifs dans le renseignement et la planification tactique. Pour OpenAI, il s'agit d'un équilibre délicat entre sécurité nationale et éthique technologique, dans un paysage où chaque prise de position peut créer un précédent. Ce nouvel épisode illustre une réalité désormais incontournable : les systèmes d'IA sont devenus des acteurs géopolitiques à part entière. Leur disponibilité, leurs garde-fous et leurs alliances redessinent déjà les rapports de force entre Etats, entreprises et créateurs d'algorithmes.