Call-Informatique
Call-Informatique
Le média tech
Anthropic vs Pentagone : supply chain risk, red lines et préc...
Intelligence ArtificielleActualites4 min de lecture

Anthropic vs Pentagone : supply chain risk, red lines et préc...

Le DOD qualifie Anthropic de risque supply chain après un désaccord contractuel sur les lignes rouges éthiques. Analyse juridique et implications pour le secteur IA.

Le Département de la Défense américain a déposé mardi soir un mémoire de 40 pages devant un tribunal fédéral californien, qualifiant Anthropic de « risque inacceptable pour la sécurité nationale ». Ce document constitue la première réponse officielle du DOD aux procédures judiciaires initiées par Anthropic début mars.

Le contexte contractuel est le suivant. En été 2025, Anthropic a signé un contrat de 200 millions de dollars avec le Pentagone pour déployer ses modèles Claude dans des environnements classifiés. Lors des négociations sur les conditions d'utilisation, Anthropic a posé deux restrictions : interdiction de la surveillance de masse des citoyens américains, et exclusion des décisions de ciblage et de tir d'armes létales. La position d'Anthropic repose sur une évaluation technique : ses systèmes ne présentent pas un niveau de fiabilité suffisant pour des décisions de vie ou de mort.

Le Pentagone a contesté le principe même qu'un fournisseur privé puisse dicter les conditions d'emploi de sa technologie par l'armée. Le 5 mars, le secrétaire à la Défense Pete Hegseth a formellement classifié Anthropic comme « supply chain risk ». Le 9 mars, Anthropic a déposé plainte, demandant au tribunal de bloquer temporairement l'application de cette classification.

L'argument central du DOD, exposé dans le filing du 18 mars (référence : docket 72379655/96, Anthropic PBC v. U.S. Department of War), repose sur le risque qu'Anthropic « tente de désactiver sa technologie ou de modifier préventivement le comportement de son modèle » avant ou pendant des « opérations de combat » si l'entreprise estime que ses « lignes rouges corporate » sont franchies.

Ce raisonnement est juridiquement fragile, selon Chris Mattei, avocat spécialisé en Premier Amendement et ancien du Department of Justice. Mattei souligne qu'aucune investigation n'a été menée pour étayer le scénario de désactivation en contexte opérationnel. Le DOD s'appuie, selon lui, sur des « imaginaires conjecturaux et spéculatifs » pour justifier une mesure légale dont les conséquences sont considérables.

Le label « supply chain risk » n'est pas anodin. Il place Anthropic dans la même catégorie que des entités comme Huawei ou Kaspersky — des entreprises considérées comme compromises par des intérêts étatiques adverses. Pour Anthropic, les conséquences sont immédiates : exclusion potentielle de tous les contrats fédéraux, pas seulement militaires, et signal négatif pour les clients du secteur privé sensible (finance, santé, infrastructure critique).

Anthropic invoque le Premier Amendement, arguant que le DOD la punit pour ses positions éthiques publiques. Cette approche constitutionnelle est inédite dans le secteur de l'IA. Plusieurs acteurs majeurs ont déposé des amicus briefs en soutien : des employés d'OpenAI et Google, Microsoft, ainsi que des organisations de défense des droits civiques.

Le point technique sous-jacent mérite attention. Anthropic ne refuse pas de travailler avec le Pentagone — elle l'a fait via un contrat de 200 millions. Elle refuse spécifiquement l'insertion d'une clause « all lawful use » qui donnerait au DOD un contrôle total sur les cas d'usage, y compris ceux qu'Anthropic juge techniquement non fiables. Le DOD interprète ce refus comme une preuve de risque. Mattei argue que c'est simplement la position d'un « vendor que le DOD ne souhaite pas utiliser » — ce qui ne justifie pas une classification supply chain.

Les implications pour l'industrie de l'IA sont majeures. Si le DOD peut qualifier de « risque de sécurité nationale » toute entreprise d'IA qui pose des conditions éthiques à l'utilisation de ses modèles, l'incitation pour les autres fournisseurs sera de ne poser aucune condition. Cela créerait un environnement réglementaire inversé où l'absence de garde-fous éthiques deviendrait un avantage compétitif pour les contrats gouvernementaux.

À surveiller : l'audience sur l'injonction préliminaire est programmée pour mardi 25 mars. La décision du juge sur le blocage temporaire du label supply chain donnera une première indication sur la solidité des arguments constitutionnels d'Anthropic.

Sur le même sujet

À lire aussi

#Anthropic#DOD#supply chain risk#IA militaire#Premier Amendement#réglementation IA#Claude