Dans la nuit du 26 au 27 février, la start-up Anthropic a pris la décision de ne pas accorder à l’armée américaine une utilisation illimitée de sa technologie d’intelligence artificielle. Le Pentagone, par la voix de son ministre de la Défense, Pete Hegseth, avait posé un ultimatum : soit Anthropic levait toutes ses restrictions, soit elle courait le risque d’être ostracisée au sein de l’économie nationale, se voyant étiquetée comme un « fournisseur à risque ». Un statut très rare, souvent réservé aux entreprises jugées problématiques.
Les raisons de l’ultimatum
Un mémo du ministre Hegseth, datant de janvier 2026, mettait en avant l’ambition de transformer les opérations militaires en les rendant « AI-first ». Cet objectif concerne non seulement les troupes sur le terrain, mais également les outils de commandement. Hegseth avait pressé les développeurs d’IA de supprimer toutes leurs protections pour permettre l’expérimentation et l’exploitation d’agents d’IA dans la prise de décision opérationnelle. Une telle démarche pourrait déboucher sur l’usage de robots, de drones et de systèmes de combat autonomes, un seuil que la direction d’Anthropic refuse de franchir.
Contrairement à des géants comme Google ou OpenAI, qui ont ouvert leurs modèles d’IA, Anthropic demeure ferme sur sa position face à une telle exploitation.
Les raisons du refus d’Anthropic
Anthropic s’est toujours affichée comme une entreprise guidée par des valeurs humanistes, comme l’indique son nom. Dès la fin de l’année 2022, au moment où ChatGPT faisait parler de lui, elle a présenté son IA comme soumise à une « constitution », fixée par des principes édictés par des humains. Écrite par des ingénieurs et des citoyens non spécialisés en IA, cette constitution a évolué pour intégrer une approche plus préoccupée par l’impact sociétal des modèles d’IA. Fin janvier 2026, Anthropique a actualisé ses directives pour mieux considérer les enjeux éthiques liés au développement de ses produits.
Dans cette optique, la start-up a récemment connu un succès fulgurant, avec des outils tels que Claude Cowork, prisés par de nombreuses entreprises. Déjà reconnu comme leader des LLM pour les entreprises à l’été 2025, Anthropic a vu sa part de marché grimper de 32 % à 40 % en moins de six mois.
Les risques encourus par Anthropic
En cas de refus, le Pentagone a averti qu’Anthropic pourrait être reléguée au rang de paria dans le paysage économique américain. L’administration envisagerait de couper toute collaboration avec la société, et cette dernière se verrait empêchée de fournir ses solutions aux entreprises travaillant avec le gouvernement. Certaines d’entre elles, comme Palantir ou Amazon Web Services, utilisent déjà Claude de manière fréquente. Selon des sources anonymes au sein du Pentagone, se passer des services d’Anthropic serait « un véritable casse-tête à résoudre », ajoutant que les autorités pourraient intensifier la pression pour les contraindre à céder.
Pourtant, Dario Amodei, le dirigeant d’Anthropic, a affirmé dans un communiqué que « ces menaces ne changeront pas notre position : nous ne pouvons pas accéder à leur demande ».
La position d’Anthropic face à l’ultimatum
La résistance d’Anthropic, caractéristique de l’entreprise, reflète ses valeurs fondamentales. Sa stratégie B2B, ses recherches internes et ses publications témoignent de son engagement envers une intelligence artificielle régulée. Accepter l’ultimatum de l’administration aurait constitué un renoncement à son identité, remplaçant la priorité accordée à l’humain par une soumission inconditionnelle aux situations de guerre. Le ministère de la Défense semble vouloir limiter l’intervention humaine, tandis qu’Anthropic plaide pour un contrôle humain, surtout lorsqu’il s’agit de préservation de vies.
Il est également pertinent de noter que ce choix pourrait influencer la rétention des talents au sein de l’entreprise. De nombreux employés ont rejoint Anthropic précisément pour sa position éthique. Un changement d’orientation pourrait favoriser des départs massifs.
Un moment charnière pour l’industrie de l’IA
Ce conflit révèle deux philosophies divergentes concernant l’évolution de l’intelligence artificielle. D’une part, une approche utilitariste qui privilégie la supériorité nationale à tout prix ; d’autre part, la vision d’Anthropic, qui prône des limites éthiques. Actuellement, les tensions sont principalement discursives, mais la rupture ouverte par cet ultimatum pourrait avoir des conséquences concrètes sur le marché. Le Pentagone mettra-t-il réellement sa menace à exécution ? Quelles en seraient les répercussions ? Anthropic s’est récemment trouvée dans une position favorable, tant d’un point de vue technologique qu’économique. Il semble peu probable que les entreprises américaines puissent se passer des outils de Claude, tant leur agilité est reconnue. Toutefois, la détermination de l’administration Trump pourrait mener à une confrontation. Ce n’est que le début d’une bataille qui promet d’être déterminante pour l’avenir de l’IA.