Vue normale

IA militaire : le Pentagone lance un ultimatum à Anthropic

26 février 2026 à 17:08

La bataille sans précédent qui se joue en ce moment entre le Pentagone et Anthropic prend une nouvelle tournure. Selon des informations exclusives d’Axios, le département de la Défense a contacté ce mercredi deux géants de l’industrie de défense – Boeing et Lockheed Martin – pour évaluer leur dépendance au modèle d’IA Claude. Une première étape vers une éventuelle désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».

Cette sanction, habituellement réservée aux entreprises issues de pays adversaires, comme le chinois Huawei, n’a jamais été appliquée à une firme technologique américaine de premier plan. L’appliquer à Anthropic constituerait un précédent historique.

Claude au cœur des systèmes classifiés

L’enjeu est considérable. Claude est aujourd’hui le seul modèle d’IA opérant dans les systèmes classifiés de l’armée américaine. Selon Axios, il aurait été mobilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, via le partenariat d’Anthropic avec Palantir, et pourrait à terme être engagé dans d’éventuelles opérations militaires en Iran.

Si le Pentagone salue les performances de Claude, il est en revanche « furieux » qu’Anthropic refuse de lever ses garde-fous pour autoriser une utilisation aux fins de « toutes missions légales ». La startup tient notamment à bloquer le recours à son IA pour la surveillance de masse des citoyens américains ou pour le développement d’armements autonomes, c’est-à-dire capables de tirer sans intervention humaine.

Un ultimatum fixé au 27 février

La tension a culminé le 24 février lors d’une réunion particulièrement tendue. Le secrétaire à la Défense Pete Hegseth aurait fixé un ultimatum au PDG d’Anthropic, Dario Amodei : se plier aux exigences du Pentagone d’ici le 27 février. Faute de quoi, l’administration aurait recours soit au Defense Production Act, une loi permettant de contraindre des entreprises privées à servir les intérêts nationaux, soit à la désignation de « risque pour la chaîne d’approvisionnement ».

« Ce sera une vraie galère à démêler, et nous allons faire en sorte qu’ils paient le prix de nous avoir forcé la main », a déclaré à Axios un haut responsable de la Défense, évoquant cette possible désignation.

Du côté d’Anthropic, on préfère minimiser les tensions. Un porte-parole a décrit la réunion comme « une continuation de conversations de bonne foi sur notre politique d’utilisation, afin de garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement dans le cadre de ce que nos modèles peuvent faire de manière fiable et responsable ». Aucun commentaire n’a été formulé sur la possible désignation de risque.

La concurrence s’engouffre dans la brèche

Pendant ce temps, les concurrents se positionnent. xAI, la société d’IA d’Elon Musk, vient de signer un accord pour intégrer les systèmes classifiés de l’armée, sous la clause d’« usage légal complet » qu’Anthropic a précisément refusée. Google et OpenAI, dont les modèles sont déjà présents dans les systèmes non classifiés, seraient en négociations pour franchir le même pas. Selon une source citée par Axios, le Gemini de Google représente déjà « une solide alternative » à Claude dans plusieurs cas d’usage militaires.

Une désignation de risque serait un coup sévère pour Anthropic si elle conduisait les entreprises partenaires de l’État à retirer Claude de leurs infrastructures. Mais la scale-up pourrait aussi y trouver un bénéfice inattendu : être perçue, aux yeux de ses clients et de ses talents, comme l’entreprise qui a tenu bon face aux pressions d’une course aux armements dans l’IA. La date limite approche.

The post IA militaire : le Pentagone lance un ultimatum à Anthropic appeared first on Silicon.fr.

Accenture et Mistral AI s’allient autour d’une IA générative «souveraine »

26 février 2026 à 15:55

Accenture et Mistral AI annoncent une collaboration stratégique sur plusieurs années, visant à accompagner les organisations en Europe et à l’international dans le déploiement d’IA avancée à grande échelle. Les deux entreprises co‑développeront des solutions « enterprise‑grade » destinées à répondre à des cas d’usage concrets dans différents secteurs, avec la promesse de résultats mesurables.

Le dispositif s’appuie sur la combinaison des modèles de Mistral AI et des capacités d’Accenture en architecture, gouvernance et passage à l’échelle des systèmes d’IA dans des environnements complexes. L’objectif affiché est de permettre aux entreprises de capter rapidement de la valeur, dans un cadre sécurisé et conforme aux exigences réglementaires propres à chaque région.

L’« autonomie stratégique », axe clé du discours

Le partenariat est explicitement présenté comme un levier d’« autonomie stratégique » pour les clients, en s’appuyant sur des modèles dits « souverains » développés par Mistral AI. Pour Accenture, cela permet de proposer des solutions combinant performance de pointe et maîtrise complète des données et des modèles par ses clients.

Ce positionnement répond aux attentes d’entreprises européènnes soucieuses de limiter leur dépendance aux grands fournisseurs extra‑européens de modèles d’IA, tout en respectant des cadres réglementaires comme l’AI Act. L’association entre un intégrateur mondial et un champion européen de l’IA open‑weight s’inscrit dans la stratégie plus large de Mistral AI de multiplier des alliances structurantes avec des grands comptes et plateformes.

Accenture, intégrateur et client de Mistral AI

Dans le cadre de l’accord, Accenture devient également client de Mistral AI et prévoit d’équiper ses équipes des modèles et produits de la start‑up, notamment Mistral AI Studio. Les technologies de Mistral seront intégrées dans les propres opérations d’Accenture, afin d’alimenter les solutions délivrées aux clients et d’industrialiser les usages internes de l’IA.

Cette double casquette, intégrateur et utilisateur,  a vocation à accélérer l’acculturation des équipes d’Accenture aux outils de Mistral AI et à enrichir le retour d’expérience sur les déploiements à grande échelle.

L’accord ne se limite pas au volet technologique et inclut la création de programmes dédiés de formation et de certification à destination des clients. Ces parcours doivent fournir les compétences nécessaires pour déployer, affiner et opérer des solutions alimentées par Mistral AI à grande échelle, tout en adressant les enjeux de gouvernance.

The post Accenture et Mistral AI s’allient autour d’une IA générative «souveraine » appeared first on Silicon.fr.

IaaS, inférence, bureautique… Microsoft rend son cloud un peu plus « local »

26 février 2026 à 12:40

Pas de VM à lancement fiable, de GPU sur AKS, d’actions de remédiation avec le moteur de politiques… En mode déconnecté, Azure Local a des limites fonctionnelles.

Pour autant, ce mode vient de passer en disponibilité générale. Il complète celui dit à « connectivité limitée », qui n’impose pas l’hébergement du plan de contrôle en local et qui envoie certaines données vers le cloud, à commencer par les logs.

En mode déconnecté, Azure Local permet pour le moment de créer des VM Windows (10 Enterprise ; Server 2022/2025) et Linux (Ubuntu 22.04/24.04 LTS). La gestion des clusters Kubernetes vanilla et AKS est en preview. Comme les VM à lancement fiable (secure boot, vTPM et attestation).

Le cluster de management doit comprendre au moins 3 nœuds physiques. Chacun avec 96 Go de RAM, 24 cœurs physiques et 2 To NVMe. Certaines opérations ne peuvent être effectuées sur le portail Azure, comme la création d’interfaces réseau et de clés SSH (pour AKS). On ne peut pas forcer la synchronisation des identités, réalisée toutes les 15 minutes.

Microsoft 365 adapté à Azure Local

Autre offre qui passe en disponibilité générale : Microsoft 365 Local. Elle permet de déployer Exchange Server, SharePoint Server et Skype for Business Server (Subscription Edition) sur des architectures de référence Azure Local. Impératif : utiliser du matériel certifié Premier (une vingtaine de configurations disponibles : du Dell AX et APEX, du Lenovo ThinkAgile et du HPE ProLiant).

Microsoft s’est engagé à supporter les trois produits au moins jusqu’à fin 2035.

Catalogue enrichi pour Foundry Local

Foundry Local reste en preview, mais accueille de plus gros modèles à son catalogue.

Cette version locale de Microsoft Foundry (ex-Azure AI Foundry) est installable sur Windows 10 (x64), Windows 11 (x64/Arm), Windows Server 2025 et macOS (Apple Silicon). Elle donne accès à une API et un serveur REST, un SDK (C#, Python, JavaScript) et un runtime ONNX. L’inférence est locale, mais le réseau peut être utilisé pour télécharger modèles et composants, et éventuellement partager des logs.

Pour le moment, l’API ne fonctionne qu’en mode chat/completions – le SDK permettant d’exploiter les modèles de reconnaissance vocale Whisper. Pensé pour un fonctionnement mononœud, Foundry Local ne gère ni l’autoscaling, ni la concurrence (le parallélisme est à contrôler au niveau applicatif), ni le batching continu. Quant à catalogue, avec 25 modèles, on est encore loin des plus de 8000 proposés sur la version cloud de Foundry.

Les 25 modèles disponibles

Modèle Taille Licence Variantes
Phi-3-mini-4k-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN, Vitis)
Phi-3-mini-128k-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN, Vitis)
Phi-3.5-mini-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN)
Phi-4-mini-instruct 3,6 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO)
NPU (OpenVINO, Vitis)
Phi-4-mini-reasoning 3,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO)
NPU (OpenVINO, Vitis)
Phi-4 8,4 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Phi-4-reasoning 8,4 Go MIT CPU
GPU (CUDA, WebGPU)
DeepSeek-R1-Distill-Qwen-1.5B 1,4 Go MIT GPU (TensorRT)
DeepSeek-R1-Distill-Qwen-7B 5,3 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
DeepSeek-R1-Distill-Qwen-14B 9,8 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN)
Qwen2.5-0.5B-Instruct 0,5 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-Coder-0.5B-Instruct 0,5 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-1.5B-Instruct 1,3 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, QNN)
Qwen2.5-Coder-1.5B-Instruct 1,3 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-7B-Instruct 4,7 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (Vitis)
Qwen2.5-Coder-7B-Instruct 4,7 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-14B-Instruct 8,8 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Qwen2.5-Coder-14B-Instruct 8,8 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Mistral-7B-Instruct-v0.2 4,3 Go Apache 2.0 GPU (OpenVINO)
NPU (OpenVINO, Vitis)
gpt-oss-20b 9,7 Go Apache 2.0 CPU
GPU (CUDA)

Illustration © Greentech – Adobe Stock

The post IaaS, inférence, bureautique… Microsoft rend son cloud un peu plus « local » appeared first on Silicon.fr.

❌