Call-Informatique
Call-Informatique
Le média tech
Le Pentagone accuse Anthropic de menacer la sécurité nationa...
Intelligence ArtificielleActualites3 min de lecture

Le Pentagone accuse Anthropic de menacer la sécurité nationa...

Le ministère de la Défense américain qualifie Anthropic, créateur de Claude, de risque inacceptable pour la sécurité nationale. Voici pourquoi cette affaire nous...

Imaginez qu'un constructeur automobile refuse que ses voitures soient utilisées pour des courses-poursuites policières. Maintenant, imaginez que le gouvernement le traite de menace pour la sécurité nationale à cause de ce refus. C'est à peu près ce qui se passe entre Anthropic et le Pentagone.

Anthropic, c'est l'entreprise américaine qui développe Claude, un assistant d'intelligence artificielle concurrent de ChatGPT. L'été dernier, elle avait signé un contrat de 200 millions de dollars avec le ministère de la Défense pour déployer sa technologie dans des systèmes classifiés. Un gros contrat, et un signe de confiance mutuelle — du moins en apparence.

Sauf que les négociations ont dérapé. Anthropic a posé deux conditions : pas de surveillance de masse des citoyens américains, et pas d'utilisation de son IA pour décider du ciblage ou du tir d'armes létales. L'entreprise estime que sa technologie n'est tout simplement pas assez fiable pour ce genre de décisions.

Le Pentagone n'a pas apprécié. Dans un document de 40 pages déposé devant un tribunal fédéral en Californie, le ministère de la Défense affirme qu'Anthropic représente un « risque inacceptable pour la sécurité nationale ». Leur argument principal : Anthropic pourrait décider de désactiver ou modifier le comportement de son IA en pleine opération militaire si l'entreprise estime que ses « lignes rouges » éthiques sont franchies.

Dit autrement, le Pentagone n'accuse pas Anthropic d'avoir fait quelque chose de mal. Il accuse l'entreprise de pouvoir potentiellement faire quelque chose de mal dans le futur — une accusation basée sur des scénarios hypothétiques, pas sur des faits.

C'est exactement ce que souligne Chris Mattei, un avocat spécialisé en droit constitutionnel. Selon lui, le gouvernement s'appuie « entièrement sur des imaginaires conjecturaux et spéculatifs » pour justifier une action légale très sérieuse. Il n'y a eu aucune enquête prouvant qu'Anthropic désactiverait réellement ses systèmes en situation de combat.

Anthropic a riposté en attaquant le Pentagone en justice, accusant le ministère de violer ses droits du Premier Amendement (la liberté d'expression) et de la punir pour ses positions éthiques. Plusieurs poids lourds de la tech — des employés d'OpenAI, Google et Microsoft — ont déposé des mémoires de soutien à Anthropic devant le tribunal.

Pourquoi cette affaire nous concerne ? Parce qu'elle pose une question fondamentale : une entreprise d'IA a-t-elle le droit de fixer des limites à l'utilisation de sa technologie par un gouvernement ? Si la réponse est non, alors aucun garde-fou éthique ne tient face à la pression militaire. Et les IA que nous utilisons au quotidien — pour écrire, chercher des informations, prendre des décisions — pourraient être façonnées non pas par ce qui est juste, mais par ce que les gouvernements exigent.

Une audience sur la demande d'injonction préliminaire d'Anthropic est prévue mardi prochain. La suite de cette bataille juridique pourrait redéfinir les règles du jeu entre l'industrie de l'IA et les pouvoirs publics — pas seulement aux États-Unis, mais partout dans le monde.

Sur le même sujet

À lire aussi

#Anthropic#Pentagone#intelligence artificielle#sécurité nationale#Claude#éthique IA