
Le Pentagone qualifie Anthropic de menace pour la sécurité n...
Le département de la Défense américain classe Anthropic comme risque inacceptable pour la sécurité nationale, une première pour une entreprise américaine. Les e...
Un bras de fer sans précédent entre l'armée et la Silicon Valley
Le 18 mars 2026, le département de la Défense américain a franchi un cap historique. Dans un document de 40 pages déposé devant un tribunal fédéral de Californie, le Pentagone qualifie Anthropic — la société qui développe l'assistant IA Claude — de « risque inacceptable pour la sécurité nationale ». C'est la première fois qu'une entreprise américaine reçoit cette désignation, habituellement réservée aux adversaires étrangers.
Pour comprendre comment on en est arrivé là, il faut remonter à l'été 2025. En juillet, Anthropic signe un contrat de 200 millions de dollars avec le Pentagone. L'entreprise est alors la seule à avoir intégré ses modèles d'IA dans les réseaux classifiés du ministère de la Défense, une position privilégiée acquise dès juin 2024. Tout semble rouler.
Le point de rupture : surveillance de masse et armes autonomes
Les négociations déraillent quand Anthropic pose deux conditions fermes. Premièrement, que sa technologie ne serve pas à la surveillance de masse des citoyens américains. Deuxièmement, que Claude ne soit pas utilisé pour les décisions de ciblage et de tir d'armes létales autonomes. Pour Dario Amodei, le patron d'Anthropic, la raison est technique autant qu'éthique : « Nous ne pensons pas que les modèles d'IA actuels soient suffisamment fiables pour être utilisés dans des armes entièrement autonomes. »
Le Pentagone voit les choses autrement. Pour le ministère, un fournisseur privé n'a pas à dicter les conditions d'utilisation d'une technologie par l'armée. Les militaires réclament un accès « sans restriction à toutes les utilisations légales ». Ils arguent que les lois fédérales et les politiques internes encadrent déjà ces questions, rendant les garde-fous d'Anthropic redondants — voire insultants.
L'ultimatum de Hegseth
Le 27 février 2026, le secrétaire à la Défense Pete Hegseth met Anthropic au pied du mur. L'entreprise a jusqu'à 17h01 le vendredi pour retirer ses restrictions, sous peine de perdre son contrat. « Les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech. Cette décision est définitive », déclare Hegseth.
Anthropic ne cède pas. Le délai expire. Hegseth classe immédiatement Anthropic comme « risque pour la chaîne d'approvisionnement de la sécurité nationale », interdisant à tout sous-traitant, fournisseur ou partenaire du Pentagone de travailler avec l'entreprise. Dans la foulée, le président Trump ordonne à toutes les agences fédérales de cesser d'utiliser les produits d'Anthropic, avec un délai de transition de six mois.
L'argument du Pentagone : une bombe à retardement potentielle
Le cœur du dossier de 40 pages est le suivant : le Pentagone craint qu'Anthropic « tente de désactiver sa technologie ou de modifier préventivement le comportement de son modèle » en pleine opération militaire, si l'entreprise juge que ses lignes rouges éthiques sont franchies. En résumé, le gouvernement ne reproche pas à Anthropic d'avoir fait quelque chose, mais de pouvoir potentiellement le faire.
Un raisonnement que les juristes contestent vertement. Chris Mattei, ancien procureur du département de la Justice, souligne qu'aucune enquête n'a été menée pour étayer cette hypothèse. Dean Ball, de la Foundation for American Innovation, va plus loin en qualifiant la démarche de Hegseth de « tentative de meurtre d'entreprise » et d'« action presque certainement illégale ».
Anthropic contre-attaque en justice
Le 9 mars, Anthropic dépose deux plaintes fédérales contre l'administration Trump. L'entreprise accuse le Pentagone d'avoir violé ses droits constitutionnels, notamment la liberté d'expression, et de la punir pour ses positions sur la sécurité de l'IA. « Nous sommes des Américains patriotes. Tout ce que nous avons fait, c'est pour le bien de ce pays », martèle Dario Amodei.
Le soutien ne tarde pas à se manifester. Des employés d'OpenAI, Google et Microsoft, ainsi que des organisations de défense des droits numériques, déposent des mémoires de soutien (amicus briefs) en faveur d'Anthropic. Même Sam Altman, le patron d'OpenAI — concurrent direct d'Anthropic —, prend publiquement position.
L'ironie : OpenAI obtient le même contrat avec les mêmes garde-fous
Et c'est peut-être le détail le plus révélateur de toute l'affaire. Quelques heures après le bannissement d'Anthropic, OpenAI annonce avoir conclu un accord avec le Pentagone. Le contenu de cet accord ? Des garde-fous techniques contre la surveillance de masse et les armes autonomes — exactement les conditions qu'Anthropic avait demandées.
Sam Altman déclare : « Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine dans l'utilisation de la force, y compris pour les systèmes d'armes autonomes. » Ce qui soulève une question gênante : pourquoi ces principes sont acceptables quand ils viennent d'OpenAI, mais pas quand ils viennent d'Anthropic ?
Les retombées concrètes pour le secteur
Au-delà du cas Anthropic, cette affaire crée une onde de choc dans l'industrie tech. La désignation de « risque pour la chaîne d'approvisionnement » ne touche pas seulement le contrat direct avec le Pentagone. Elle menace potentiellement toute entreprise faisant affaire avec Anthropic : Amazon, Google et Nvidia, qui ont investi des milliards dans la société, pourraient être contraints de couper les ponts pour conserver leurs propres contrats militaires.
Anthropic venait tout juste de boucler une levée de 30 milliards de dollars pour une valorisation de 380 milliards. Une introduction en bourse était prévue fin 2026. Tout cela est désormais remis en question. Peter Harrell, ancien responsable au Conseil national de sécurité, estime que le gouvernement ne peut pas légalement empêcher les sous-traitants d'utiliser Anthropic dans leurs activités privées — mais la menace suffit à refroidir les directeurs juridiques des entreprises du Fortune 500.
Ce que cette affaire révèle sur l'avenir de l'IA
Cette confrontation dépasse largement le cadre d'un litige contractuel. Elle pose la question de la souveraineté technologique : qui décide des limites de l'IA dans un contexte militaire ? L'entreprise qui la construit, ou le gouvernement qui l'achète ?
Si le Pentagone l'emporte, le message est clair : aucune entreprise d'IA ne pourra fixer de limites éthiques à un gouvernement sans s'exposer à des représailles économiques massives. Si Anthropic gagne, un précédent juridique protégera le droit des entreprises technologiques à refuser certains usages de leurs produits.
Une audience sur la demande d'injonction préliminaire d'Anthropic est prévue dans les prochains jours. Quelle que soit l'issue, cette affaire redéfinira les rapports de force entre l'industrie de l'IA et les États — pas seulement aux États-Unis, mais partout dans le monde.
À lire aussi
GPT-5.4 mini débarque sur ChatGPT gratuit : ce que ça change...
OpenAI rend GPT-5.4 mini accessible aux utilisateurs gratuits de ChatGPT. Plus rapide, plus intelligent et capable de rivaliser avec le modèle phare, voici ce que cet...
Apple bloque le « vibe coding » sur l'App Store : Replit et ...
Apple empêche Replit et Vibecode de publier des mises à jour sur l'App Store. En cause : des règles anciennes sur l'exécution de code dynamique qui s'appliquent dÃ...
Mistral Forge : l'IA sur mesure pour les entreprises
Mistral lance Forge au GTC 2026, une plateforme qui permet aux entreprises de créer leurs propres modèles d'IA à partir de leurs données internes.