Vue normale

IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non

26 février 2026 à 17:08

{ Mise à jour } – Dario Amodei n’aura pas attendu la date limite de l’ultimatum, ce 27 février, fixé par Pete Hegseth, secrétaire à la Défense.

Dans un long communiqué, le PDG d’Anthropic a donné sa réponse dès hier après-midi ( à l’heure californienne) : c’est Non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit Dario Amodei.

Et de poursuivre : « Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit-il, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

Pour clarifier son refus, Mario Amodei rappelle sa doctrine sur l’IA militaire: « Nous soutenons l’utilisation de l’IA pour des missions légitimes de renseignement et de contre-espionnage à l’étranger. Mais l’utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques », écrit-il en estimant que cette pratique « représente un risque grave et inédit pour nos libertés fondamentales ».

Autre sujet de désaccord : les armes autonomes.  Le PDG précise « Sans un contrôle adéquat, on ne peut compter sur des armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement qualifiées. Leur déploiement doit être encadré par des garde-fous appropriés, qui n’existent pas actuellement ». Et d’ajouter qu’aucun de ces sujets n’avaient  « constitué, jusqu’à présent, un obstacle à l’accélération de l’adoption et de l’utilisation de nos modèles au sein de nos forces armées ».

Il relève aussi que « Ces deux menaces sont incohérentes : l’une nous qualifie de risque pour la sécurité, la seconde fait de Claude un élément essentiel pour la sécurité nationale. »

Le refus d’obtempérer aux menaces de Pete Hegseth d’une désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » étant désormais acté, le Ministère de la Guerre va-t-il mettre sa menace à exécution ? .

——————————————————————-

La bataille sans précédent qui se joue en ce moment entre le Pentagone et Anthropic prend une nouvelle tournure. Selon des informations exclusives d’Axios, le département de la Défense a contacté ce mercredi deux géants de l’industrie de défense – Boeing et Lockheed Martin – pour évaluer leur dépendance au modèle d’IA Claude. Une première étape vers une éventuelle désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».

Cette sanction, habituellement réservée aux entreprises issues de pays adversaires, comme le chinois Huawei, n’a jamais été appliquée à une firme technologique américaine de premier plan. L’appliquer à Anthropic constituerait un précédent historique.

Claude au cœur des systèmes classifiés

L’enjeu est considérable. Claude est aujourd’hui le seul modèle d’IA opérant dans les systèmes classifiés de l’armée américaine. Selon Axios, il aurait été mobilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, via le partenariat d’Anthropic avec Palantir, et pourrait à terme être engagé dans d’éventuelles opérations militaires en Iran.

Si le Pentagone salue les performances de Claude, il est en revanche « furieux » qu’Anthropic refuse de lever ses garde-fous pour autoriser une utilisation aux fins de « toutes missions légales ». La startup tient notamment à bloquer le recours à son IA pour la surveillance de masse des citoyens américains ou pour le développement d’armements autonomes, c’est-à-dire capables de tirer sans intervention humaine.

Un ultimatum fixé au 27 février

La tension a culminé le 24 février lors d’une réunion particulièrement tendue. Le secrétaire à la Défense Pete Hegseth aurait fixé un ultimatum au PDG d’Anthropic, Dario Amodei : se plier aux exigences du Pentagone d’ici le 27 février. Faute de quoi, l’administration aurait recours soit au Defense Production Act, une loi permettant de contraindre des entreprises privées à servir les intérêts nationaux, soit à la désignation de « risque pour la chaîne d’approvisionnement ».

« Ce sera une vraie galère à démêler, et nous allons faire en sorte qu’ils paient le prix de nous avoir forcé la main », a déclaré à Axios un haut responsable de la Défense, évoquant cette possible désignation.

Du côté d’Anthropic, on préfère minimiser les tensions. Un porte-parole a décrit la réunion comme « une continuation de conversations de bonne foi sur notre politique d’utilisation, afin de garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement dans le cadre de ce que nos modèles peuvent faire de manière fiable et responsable ». Aucun commentaire n’a été formulé sur la possible désignation de risque.

La concurrence s’engouffre dans la brèche

Pendant ce temps, les concurrents se positionnent. xAI, la société d’IA d’Elon Musk, vient de signer un accord pour intégrer les systèmes classifiés de l’armée, sous la clause d’« usage légal complet » qu’Anthropic a précisément refusée. Google et OpenAI, dont les modèles sont déjà présents dans les systèmes non classifiés, seraient en négociations pour franchir le même pas. Selon une source citée par Axios, le Gemini de Google représente déjà « une solide alternative » à Claude dans plusieurs cas d’usage militaires.

Une désignation de risque serait un coup sévère pour Anthropic si elle conduisait les entreprises partenaires de l’État à retirer Claude de leurs infrastructures. Mais la scale-up pourrait aussi y trouver un bénéfice inattendu : être perçue, aux yeux de ses clients et de ses talents, comme l’entreprise qui a tenu bon face aux pressions d’une course aux armements dans l’IA. La date limite approche.

 

Article mis à jour le 27 février avec la position de refus d’Anthropic

The post IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non appeared first on Silicon.fr.

❌