Le Pentagone donne trois jours à Anthropic

I.A.
Pentagon Gives Anthropic Three Days
Le Pentagone a lancé un ultimatum de trois jours à Anthropic pour supprimer les limites de sécurité de son modèle Claude, sous peine de bannissement ou de réquisition en vertu du Defense Production Act (DPA), marquant une escalade dans la lutte pour l'accès militaire aux IA de pointe.

Le Pentagone donne trois jours à Anthropic : un ultimatum laconique

L'expression « le Pentagone donne trois jours à Anthropic » est désormais plus qu'un simple titre sur Internet : cette semaine, le Pentagone a fait pression sur Anthropic avec un délai de trois jours pour lever les garde-fous de sécurité sur son modèle Claude, sous peine d'être étiquetée comme un risque pour la chaîne d'approvisionnement et d'être exclue des travaux de défense américains. La demande a été formulée lors d'une réunion tendue mardi matin au Pentagone, à laquelle participaient le secrétaire à la Défense Pete Hegseth et des juristes de haut rang du département, selon les rapports des participants et les déclarations de l'entreprise. Le choix présenté à Anthropic était radical : accéder aux conditions du Pentagone, ou être placée sur liste noire et potentiellement contrainte en vertu du Defense Production Act (DPA).

Le Pentagone donne trois jours à Anthropic — ce qui s'est passé lors de la réunion

Les responsables présents à la réunion ont déclaré aux journalistes que le ton était à la confrontation. Un responsable de la défense a décrit la session comme « pas vraiment chaleureuse », et un autre a reconnu le paradoxe selon lequel le Pentagone était simultanément dépendant des modèles de pointe tout en étant peu disposé à accepter que des entreprises privées fixent des conditions à l'usage militaire. Le PDG d'Anthropic, Dario Amodei, a assisté à la réunion et, après la conversation, l'entreprise a publié un communiqué affirmant qu'elle restait déterminée à soutenir les missions de sécurité nationale légitimes tout en préservant un comportement de modèle sûr et testable.

L'élément déclencheur immédiat de la confrontation, tel que décrit dans les rapports de presse, a été une série de révélations selon lesquelles le modèle Claude avait été utilisé — sans préavis à Anthropic — lors d'une opération militaire en janvier. Cet épisode, et les rapports à son sujet, ont intensifié la pression au sein du Pentagone pour exiger un accès sans entrave. Le Département de la Défense a été explicite sur un calendrier à court terme pour l'accélération de l'IA : une stratégie de combat « l'IA d'abord » publiée en janvier prévoyait des projets démontrables cet été, et les hauts responsables affirment avoir besoin dès maintenant des modèles les plus performants pour respecter ces délais.

Parallèlement à l'ultimatum, le Pentagone a annoncé un accord distinct pour déployer le modèle Grok d'xAI sur des réseaux militaires classifiés sous une rubrique « toutes fins licites ». Les différences rapportées dans les termes contractuels entre les deux entreprises — l'une acceptant une formulation d'usage large tandis que l'autre résistait — ont souligné le message de l'administration selon lequel l'État ne tolérera pas de restrictions de la part des fournisseurs qu'il juge incompatibles avec les besoins opérationnels.

Le Pentagone donne trois jours à Anthropic — outils juridiques et menace de mise sur liste noire

Le Pentagone a structuré ses options en deux catégories juridiques : l'inscription sur liste noire en tant que risque pour la chaîne d'approvisionnement et l'invocation du Defense Production Act pour imposer un comportement spécifique. L'inscription sur liste noire signifierait l'annulation des futurs contrats du Pentagone et une pression exercée sur les principaux contractants pour qu'ils rompent leurs liens. En pratique, cela exclurait Anthropic d'une grande partie des revenus et des partenariats gouvernementaux, et inciterait d'autres clients à reconsidérer leurs relations commerciales. L'avertissement est punitif : il vise à forcer une entreprise à choisir entre un modèle commercial filtré et la perte de contrats gouvernementaux lucratifs.

Le Defense Production Act occupe une place juridique différente. Le DPA accorde au président des pouvoirs étendus pour exiger des entreprises qu'elles accordent la priorité et acceptent des contrats gouvernementaux, et qu'elles produisent des biens et services nécessaires à la défense nationale. Pour l'IA, cela pourrait être utilisé pour ordonner à un fournisseur de personnaliser ou de reconfigurer des modèles, de supprimer des fonctionnalités de sécurité particulières ou de fournir un accès technique pour des tâches classifiées. Utiliser le DPA contre un fournisseur de logiciels de cette manière serait inédit et contesté juridiquement, mais les responsables du Pentagone l'auraient soulevé comme un instrument crédible pour faire respecter la conformité.

Pour les observateurs extérieurs et les experts juridiques, ces options soulèvent des questions immédiates sur le précédent et la surveillance. La mise sur liste noire modifie le paysage de l'approvisionnement par décret administratif ; le DPA effectuerait un changement technique forcé sur un produit. Les deux mesures ont des implications pour l'autonomie des entreprises, les libertés civiles et le marché international de l'IA de pointe.

Les garde-fous d'Anthropic et son positionnement d'entreprise

Anthropic a décrit son régime de sécurité dans des documents publics et des entretiens comme un mélange de garde-fous techniques et politiques. Ces protections incluent le filtrage de contenu, des modes de refus pour certaines classes de requêtes et des déclarations de politique explicites qui interdisent des applications telles que les « armes pleinement autonomes » et la « surveillance domestique de masse des Américains ». L'entreprise a également résisté à la signature de clauses contractuelles larges s'engageant à soutenir « toutes fins licites », arguant qu'une telle formulation éliminerait toute limite significative sur la manière dont les modèles sont déployés.

Cette position s'accompagne toutefois d'un historique d'engagements commerciaux et gouvernementaux. Anthropic a poursuivi des déploiements sur des réseaux classifiés avec des partenaires d'infrastructure, a lancé une offre orientée vers le gouvernement appelée Claude Gov, et a remporté d'importants contrats avec des clients de la défense. L'entreprise compte également parmi ses soutiens des investisseurs majeurs dans le domaine du cloud et des puces, et entretient des relations commerciales qui l'entremêlent avec l'écosystème du renseignement militaire. Ces enchevêtrements compliquent les affirmations selon lesquelles l'entreprise se tiendrait entièrement à l'écart des priorités de la défense.

Lorsqu'on demande pourquoi le Pentagone a donné trois jours à Anthropic pour abandonner les garde-fous de l'IA, les observateurs pointent un mélange de pression stratégique et de demande opérationnelle immédiate. Le département souhaite une voie testée et explicable pour intégrer rapidement les grands modèles dans la planification de mission, la logistique et les systèmes d'armes. Toute restriction de fournisseur qui pourrait empêcher une utilisation rapide et sans contrainte — en particulier selon la norme juridique de « toutes fins licites » — est présentée par le Pentagone comme un risque inacceptable pour la préparation opérationnelle.

Ce que signifieraient en pratique une mise sur liste noire et un recul des garde-fous

Si Anthropic était placée sur liste noire, l'entreprise perdrait l'accès direct à de nombreuses opportunités de défense ; les contractants pourraient recevoir l'ordre de couper les ponts et les canaux d'approvisionnement du gouvernement se fermeraient. Si Anthropic supprimait plutôt ses garde-fous sous la pression ou la contrainte, la conséquence technique immédiate serait des modèles acceptant une gamme plus large de prompts et d'instructions opérationnelles, y compris ceux touchant au ciblage, à la surveillance ou à d'autres missions sensibles.

Les effets en aval seraient à la fois techniques et sociétaux. La suppression des garde-fous augmente le risque que les modèles soient détournés pour la surveillance de masse, permettant aux systèmes de surveillance automatisés de se développer plus rapidement. Cela pourrait accélérer l'intégration dans des systèmes de soutien à l'armement où la supervision humaine peut être limitée. Du point de vue de la sécurité, le relâchement des contraintes peut dégrader la capacité à tester et à auditer les modèles pour les biais, les hallucinations et la vulnérabilité aux attaques adverses — des problèmes qui rendent déjà risqué le déploiement de modèles dans des systèmes critiques.

Pour les libertés civiles et les normes internationales, les enjeux sont élevés : des modèles dépouillés de restrictions pourraient être utilisés pour des programmes de surveillance domestique à grande échelle, de la désinformation ciblée massive ou des opérations étrangères avec des seuils de preuve inférieurs. Ce sont précisément les compromis que l'entreprise a déclaré publiquement chercher à éviter, ce qui explique pourquoi le différend est devenu un point de friction majeur.

Implications plus larges : marchés, politique et avenir de l'IA militaire

Cette confrontation illustre une tension plus large dans l'écosystème de l'IA. Les gouvernements veulent un accès prévisible et auditable aux modèles les plus performants pour accélérer les applications en temps de guerre. De nombreuses entreprises, d'autre part, craignent les répercussions éthiques et sur leur réputation d'une utilisation militaire sans restriction. La fracture est accentuée par la politique : les entreprises prêtes à accepter des clauses contractuelles larges obtiennent un accès rapide aux réseaux gouvernementaux, tandis que celles qui tentent de maintenir des limites conditionnelles risquent l'exclusion ou la coercition.

Elle souligne également une réalité opérationnelle glaçante : lorsqu'une capacité technologique est jugée stratégiquement nécessaire, l'État peut recourir à des pressions juridiques et économiques extraordinaires pour la sécuriser. Cette dynamique forcera les fournisseurs privés d'IA à peser les impératifs commerciaux, les attentes des investisseurs, l'exposition juridique et l'examen du public lors des négociations avec les gouvernements. Pour les décideurs politiques, l'épisode soulève des questions sur la transparence, la surveillance et les normes internationales régissant l'IA dans les contextes militaires.

Pour les chercheurs, les ingénieurs et le public, le résultat sera déterminant car il façonne la manière dont les modèles les plus avancés sont gouvernés et testés. Si l'industrie accepte la suppression massive des garde-fous au nom de la sécurité nationale, l'espace pour la recherche indépendante sur la sécurité, l'audit public et la protection des libertés civiles se réduira. Inversement, si les entreprises parviennent à défendre certaines limites, la confrontation pourrait pousser le gouvernement à développer ses propres capacités internes ou à créer des règles d'approvisionnement équilibrant les besoins opérationnels et les exigences de sécurité.

Le calendrier immédiat reste serré : la demande de trois jours du Pentagone a mis Anthropic sous une pression énorme pour choisir une voie. Quelle que soit la décision, l'épisode fera figure de test pour savoir si les entreprises privées d'IA peuvent fixer des limites efficaces à l'utilisation militaire des modèles de pointe, ou si l'État imposera un accès plus large au nom de la préparation à la défense.

Sources

  • Documents de presse du Département de la Défense des États-Unis
  • Documents de presse et documents de politique publique d'Anthropic
  • Documents de presse d'xAI (Grok)
  • Texte et orientations juridiques du Defense Production Act
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Pourquoi le Pentagone a-t-il donné trois jours à Anthropic pour supprimer ses mesures de sécurité en IA ?
A Il n'existe aucune preuve dans les sources disponibles indiquant que le Pentagone a donné trois jours à Anthropic pour abandonner ses mesures de sécurité en IA ; le titre de l'article fourni semble infondé selon les résultats de recherche. Anthropic a au contraire renforcé sa Politique de Développement Responsable (RSP) avec une transparence accrue et des contrôles de risques renforcés, incluant des Niveaux de Sécurité de l'IA (ASL) pour les modèles avancés. L'entreprise a mis à jour sa RSP en réponse aux leçons tirées de sa mise en œuvre, et non suite à une pression externe du Pentagone.
Q Quelles sont exactement les mesures de sécurité en IA utilisées par Anthropic ?
A Les mesures de sécurité en IA d'Anthropic incluent la Politique de Développement Responsable (RSP) avec des Niveaux de Sécurité de l'IA (ASL), comprenant des classificateurs pour bloquer les contenus chimiques et biologiques dangereux, des contrôles d'accès, du red-teaming, des programmes de primes aux bogues (bug bounties) et des systèmes de détection en temps réel. Celles-ci englobent les classificateurs constitutionnels (Constitutional Classifiers), le pilotage des réponses, l'application des règles relatives aux comptes et des évaluations pour prévenir les utilisations malveillantes comme le développement d'armes biologiques ou les attaques par distillation. Les mesures de sécurité sont intégrées tout au long de l'entraînement, du déploiement et de la surveillance des modèles afin de garantir la sécurité comme condition préalable au lancement.
Q Que signifie le fait qu'une entreprise soit placée sur liste noire par le Pentagone ?
A Les résultats de recherche ne précisent pas ce que signifie pour une entreprise d'être placée sur liste noire par le Pentagone. Aucune information pertinente sur les procédures de mise sur liste noire du Pentagone ou sur les implications pour des entreprises d'IA comme Anthropic n'est fournie.
Q Que pourrait-il se passer si Anthropic abandonnait ses mesures de sécurité en IA ?
A L'abandon des mesures de sécurité en IA pourrait accroître les risques catastrophiques liés à l'IA avancée, comme le fait de permettre le développement d'armes biologiques ou d'autres utilisations malveillantes par des acteurs menaçants, car la RSP d'Anthropic est conçue pour atténuer ces risques grâce aux protections ASL. Cela pourrait permettre à des concurrents ayant des mesures de sécurité plus faibles de dominer, ce qui pourrait conduire à un monde globalement moins sûr, selon la logique de la politique d'Anthropic. Cependant, Anthropic maintient ses engagements à égaler ou surpasser les efforts de sécurité de ses concurrents.
Q Qui est Anthropic et quelle est sa position sur la sécurité de l'IA ?
A Anthropic est une entreprise d'IA axée sur le développement de systèmes sûrs et fiables comme Claude, fondée avec un accent prononcé sur la sécurité de l'IA. Sa position s'appuie sur la Politique de Développement Responsable (RSP), qui utilise des Niveaux de Sécurité de l'IA pour imposer des mesures de protection croissantes pour les modèles avancés, favorisant la transparence, l'atténuation des risques et des protections de pointe contre les dommages catastrophiques. L'entreprise réalise des évaluations approfondies, du red-teaming et des mesures d'application pour équilibrer l'utilité et la sécurité.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!