Le Pentagone vs Anthropic : menace de rupture

IA
Pentagon vs Anthropic: Cut-off Threat
Le Pentagone menace de rompre ses liens avec Anthropic en raison des restrictions imposées sur l'usage militaire de son IA, pressant les entreprises d'autoriser leurs outils sur les réseaux classifiés. Cette impasse souligne les tensions entre les exigences de la défense, les garde-fous éthiques des entreprises et les risques pour la sécurité nationale.

Le Pentagone menace de rompre les liens alors que les discussions avec Anthropic sont dans l'impasse

Cette semaine, le Pentagone a menacé de rompre ses relations avec Anthropic, selon des informations parues le 16 février 2026, alors que le Département de la Défense des États-Unis presse l'entreprise d'assouplir les limites qu'elle impose à l'utilisation de ses grands modèles de langage par l'armée. Le différend — rapporté par CNBC parallèlement aux couvertures précédentes de Reuters et d'Axios — porte sur la question de savoir si les entreprises d'IA commerciale permettront que leurs systèmes soient utilisés pour ce que le Pentagone décrit comme « toutes fins licites », y compris le développement d'armes, la collecte de renseignements et les opérations sur le champ de bataille. Anthropic affirme être restée ferme sur des contraintes de sécurité spécifiques, telles que des limites strictes sur les armes entièrement autonomes et la surveillance domestique de masse, et le désaccord a dégénéré en menaces de rupture de la relation.

Menace de rupture du Pentagone : les points de friction juridiques et contractuels

Le cœur du conflit réside dans la terminologie juridique et contractuelle. Le Pentagone souhaite accéder aux modèles sur des réseaux classifiés et une formulation plus large qui permettrait une utilisation pour une vaste gamme de missions militaires ; les entreprises ont généralement fourni un accès sous réserve de garde-fous au niveau du modèle et de restrictions basées sur des politiques d'utilisation. Pour le Pentagone, l'expression « toutes fins licites » est un terme contractuel unique qui réduirait l'ambiguïté sur les utilisations militaires autorisées. Pour des entreprises telles qu'Anthropic, OpenAI, Google et xAI, accepter cette formulation risque d'éroder les garde-fous de sécurité internes — tant les contrôles techniques intégrés aux modèles que les engagements de politique d'entreprise destinés à limiter les abus.

Les négociations portent également sur des détails techniques : la manière dont les modèles sont déployés sur des réseaux classifiés, le maintien des filtres de contenu et de la journalisation de l'utilisation, et la responsabilité en cas de production de résultats nuisibles par un système piloté par l'IA. Le Pentagone a exprimé sa frustration après des mois de discussions ; la volonté de supprimer ou d'assouplir les restrictions reflète un désir opérationnel d'utiliser les systèmes les plus performants disponibles dans des environnements contestés, tandis que les entreprises s'inquiètent de leur responsabilité, du risque de réputation et de l'éthique plus large des applications militaires.

Comment Anthropic et les autres fournisseurs ont réagi

Anthropic a déclaré publiquement que les premières conversations avec le gouvernement américain s'étaient concentrées sur les questions de politique d'utilisation et les limites explicites — notamment les interdictions sur les armes entièrement autonomes et les limites de la surveillance domestique de masse — plutôt que sur l'approbation d'opérations spécifiques. Un porte-parole de l'entreprise a déclaré aux journalistes qu'elle n'avait pas discuté avec le Pentagone de l'utilisation de son modèle Claude pour des opérations tactiques nommées. Cette déclaration contraste avec des rapports indiquant que Claude a été utilisé dans au moins une opération de haut profil via un partenaire : le Wall Street Journal a rapporté que Claude a été déployé par l'intermédiaire de Palantir lors d'une opération visant à capturer l'ancien président du Venezuela, illustrant comment les intégrations de partenaires compliquent les caractérisations simples de la retenue de l'entreprise.

D'autres grandes entreprises d'IA mentionnées dans les rapports — OpenAI, Google et xAI — font également l'objet de pressions de la part du Pentagone pour élargir l'accès. Reuters et CNBC ont décrit des demandes générales du Département de la Défense visant à rendre les modèles disponibles sur des réseaux classifiés sans bon nombre des restrictions standard que les entreprises appliquent aux utilisateurs civils. Les entreprises ont traité ces demandes différemment, équilibrant les opportunités de contrats et les habilitations de sécurité face à leurs politiques internes et à l'examen externe.

Pourquoi le Pentagone insiste et ce qu'il cherche à accomplir

Cependant, réclamer une formulation contractuelle globale et ouverte — « toutes fins licites » — soulève des questions sur les garde-fous qui subsistent lorsque les modèles sont utilisés dans des contextes cinétiques ou secrets. L'utilisation licite est une norme juridique large qui nécessite toujours la mise en œuvre de contrôles pour éviter une escalade involontaire, des dommages civils ou des violations du droit national et international. Ces exigences opérationnelles sont à l'origine de la tension actuelle.

Garde-fous techniques en jeu et préoccupations du Pentagone

Les entreprises intègrent des garde-fous dans les modèles selon deux axes : les contrôles au niveau du modèle (réglage fin, couches de sécurité, tests par équipe rouge et filtres de contenu) et les contrôles au niveau des politiques (conditions de service et restrictions d'utilisation contractuelles). La volonté du Pentagone de réduire ou de contourner les restrictions modifierait le fonctionnement concret de ces contrôles. Par exemple, placer un modèle sur un réseau classifié peut supprimer certaines télémétries et journalisations pour des raisons de sécurité, mais cela peut également compromettre la capacité de l'entreprise à surveiller les abus et à corriger les comportements problématiques.

Selon les rapports, le Pentagone est frustré qu'Anthropic se soit opposée aux propositions visant à assouplir les limites sur des scénarios que l'entreprise juge à haut risque — tels que le contrôle d'armes entièrement autonomes et la surveillance domestique de masse. Ce sont des domaines où de nombreuses entreprises d'IA, pas seulement Anthropic, ont défendu des interdictions strictes sur la prise de décision autonome qui pourrait entraîner des conséquences létales sans supervision humaine.

Comment une rupture d'accès pourrait se répercuter sur la sûreté et la sécurité

Si le Pentagone met à exécution sa menace et rompt les liens avec Anthropic, l'effet immédiat serait une réduction du nombre de fournisseurs disponibles pour la communauté de la défense américaine. Cela accélérerait probablement les efforts internes du Département de la Défense pour construire ou contracter des modèles sur mesure, augmenterait la dépendance envers les entreprises qui acceptent des conditions d'utilisation plus larges, ou encouragerait des partenariats avec des fournisseurs étrangers — chaque issue comportant ses propres compromis en matière de sécurité et de surveillance. Une rupture pourrait également pousser les agences à accepter des solutions avec moins de contrôles de sécurité du côté du fournisseur, augmentant ainsi le risque de détournement ou de conséquences imprévues.

À l'inverse, les entreprises qui maintiennent des restrictions de sécurité robustes soutiennent que ces garde-fous réduisent les risques en aval, empêchent la dérive des missions et préservent la confiance du public. L'impasse révèle un choix stratégique plus profond : soit les acteurs de la sécurité nationale tolèrent des garde-fous d'entreprise limitant certaines applications militaires, soit ils insistent sur un accès sans entraves et acceptent de nouvelles charges de surveillance au sein des systèmes gouvernementaux.

Précédents historiques et contexte politique global

Le Département de la Défense a déjà financé la recherche en IA et formé des partenariats avec l'industrie, mais le moment actuel se distingue par l'échelle et la maturité des grands modèles de langage disponibles dans le commerce. Les collaborations antérieures comprenaient des subventions conditionnelles et des projets pilotes qui exigeaient des garde-fous spécifiques ; le différend actuel porte sur des conditions opérationnelles larges plutôt que sur le financement de projets pilotes. La menace du Pentagone de couper les vivres à un fournisseur pour des désaccords politiques constitue une escalade publique et signale des négociations difficiles à venir pour tous les principaux fournisseurs d'outils d'IA avancés.

Des pressions politiques sont également en jeu. Des personnalités publiques et des concurrents sont intervenus — notamment Elon Musk, qui a récemment attaqué les modèles d'Anthropic dans des commentaires publics — soulignant que les débats sur les biais, la sécurité et le rôle approprié de l'IA dans les contextes militaires font désormais partie d'une conversation publique bruyante, et ne sont plus de simples litiges d'approvisionnement à huis clos.

Négociations et prochaines étapes

Les deux parties ont intérêt à éviter une rupture nette. Le Pentagone a besoin de capacités de pointe ; les entreprises souhaitent conserver les marchés gouvernementaux et éviter d'être exclues de contrats importants. On peut s'attendre à des négociations intensives en coulisses sur la formulation des contrats, les mesures d'isolement technique (par exemple, des déploiements isolés physiquement ou décalés), des procédures d'audit et de surveillance renforcées, et éventuellement de nouveaux cadres juridiques clarifiant la responsabilité et l'utilisation acceptable dans des contextes classifiés.

Pour le grand public et les décideurs, ce différend soulève des questions familières sur le contrôle des exportations, la surveillance des technologies à double usage et la nécessité ou non de nouveaux modèles de gouvernance pour l'IA utilisée dans la sécurité nationale. Quel que soit le résultat immédiat, cette négociation créera des précédents sur la manière dont les gouvernements et les développeurs d'IA privés partagent des capacités sensibles tout en essayant de maintenir intacts les garde-fous de sécurité.

Sources

  • Déclarations publiques et documents d'approvisionnement du Département de la Défense des États-Unis (Pentagone)
  • Dossiers de presse et déclarations officielles d'Anthropic
  • Divulgations publiques de Palantir Technologies concernant les déploiements de partenaires
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Qu'est-ce qu'Anthropic et pourquoi le Pentagone menace-t-il de rompre ses liens avec l'entreprise en raison des garde-fous de l'IA ?
A Anthropic est une entreprise d'IA basée à San Francisco, connue pour son modèle d'IA Claude, qui a été utilisé dans des opérations militaires comme un raid au Venezuela. Le Pentagone, sous la direction du secrétaire à la Défense Pete Hegseth, menace de rompre les liens et de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » en raison du refus de l'entreprise d'autoriser une utilisation militaire sans restriction de Claude à toutes fins légales, insistant plutôt sur des garde-fous contre la surveillance de masse des Américains et les armes autonomes. Ce différend s'est intensifié malgré des mois de négociations, le Pentagone considérant les restrictions d'Anthropic comme excessivement limitatives.
Q Quels sont les garde-fous de l'IA que le Pentagone a jugé insuffisants de la part d'Anthropic ?
A Le Pentagone a déclaré qu'Anthropic n'avait pas répondu aux exigences d'accès sans restriction à l'IA Claude pour toutes les utilisations militaires légales, en particulier dans les systèmes classifiés. Anthropic cherche à obtenir des clauses contractuelles interdisant la surveillance de masse des Américains et le développement d'armes fonctionnant sans intervention humaine, ce que le Pentagone juge impraticable en raison de zones d'ombre. Le Pentagone fait également pression sur OpenAI, Google et xAI pour obtenir un accès sans restriction similaire.
Q Le Pentagone a-t-il pris des mesures similaires contre d'autres entreprises d'IA ?
A Le Pentagone n'a pas encore pris de mesures similaires, comme désigner d'autres entreprises d'IA comme risques pour la chaîne d'approvisionnement, mais il est engagé dans des négociations difficiles avec OpenAI, Google et xAI sur les mêmes questions d'accès sans restriction. Ces entreprises ont accepté d'assouplir les restrictions pour une utilisation militaire dans les systèmes classifiés, bien que cela ne soit pas encore totalement mis en œuvre pour les opérations sensibles. Aucun rapport n'indique de ruptures effectives ou de désignations pour ces entreprises à ce jour.
Q Comment une rupture avec Anthropic pourrait-elle affecter la sécurité de l'IA et les initiatives de sécurité nationale ?
A Rompre avec Anthropic pourrait entraver la sécurité nationale en perturbant l'accès à Claude, qui est en tête dans les applications militaires spécialisées, alors que les modèles rivaux ne sont que « juste derrière », retardant potentiellement des opérations critiques. Cela pourrait pousser les entreprises d'IA à affaiblir les dispositifs de sécurité, risquant d'amplifier les violations de la vie privée par la surveillance de masse ou le développement d'armes autonomes. À l'inverse, cela crée un précédent en donnant la priorité aux besoins militaires sur les restrictions éthiques des entreprises d'IA, ce qui pourrait faire progresser les initiatives d'IA de défense mais au détriment des garde-fous éthiques.
Q Qu'a rapporté CNBC au sujet du différend entre le Pentagone et Anthropic ?
A CNBC n'est pas directement cité dans les rapports disponibles sur le différend ; la couverture provient principalement d'Axios et du Hindustan Times. Axios a détaillé la quasi-décision du secrétaire à la Défense Pete Hegseth de rompre les liens avec Anthropic en raison des restrictions d'utilisation de Claude, citant des responsables du Pentagone sur sa désignation comme risque pour la chaîne d'approvisionnement et leur frustration après des mois de discussions. Le Hindustan Times a fait écho à cela, soulignant les garde-fous d'Anthropic contre la surveillance et les armes autonomes.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!