En l’espace de trois mois, LinkedIn est devenu l’une des références incontournables des moteurs de réponse par intelligence artificielle. C’est ce que révèle une étude publiée par Profound, plateforme spécialisée dans l’analyse marketing de l’IA, et reprise par Axios.
Entre novembre 2025 et février 2026, la fréquence de citation de LinkedIn par ChatGPT a plus que doublé. Le réseau professionnel est passé d’une 11e position environ en novembre à une 5e place en février, soit la progression la plus significative observée par Profound sur cette période.
Mieux encore : sur l’ensemble des grandes plateformes d’IA analysées ( ChatGPT, Gemini, Google AI Overviews, Google AI Mode, Microsoft Copilot et Perplexity ), LinkedIn est aujourd’hui le domaine le plus cité pour les requêtes à caractère professionnel, sur la base de 1,4 million de citations analysées.
Le contenu publié prend le dessus sur les profils
L’étude de Profound met en lumière une évolution notable dans la nature des contenus LinkedIn repris par les IA.
Si les profils représentaient 33,9 % des citations en novembre 2025, cette part est tombée à 14,5 % en février 2026. À l’inverse, les publications (posts du fil d’actualité), les articles longs et les newsletters ont vu leur poids croître : combinés, ils représentent désormais environ 35 % de l’ensemble des citations LinkedIn dans ChatGPT, contre 27 % trois mois plus tôt. Les moteurs de réponse s’appuient donc de plus en plus sur le contenu éditorial produit sur la plateforme — qu’il émane de particuliers, d’entreprises ou de médias spécialisés.
Pourquoi LinkedIn attire les IA
Ce phénomène s’inscrit dans une tendance plus large. Des plateformes communautaires comme Reddit, Wikipédia ou YouTube figurent également parmi les sources les plus citées par les IA, précisément parce qu’elles concentrent une connaissance humaine authentique et conversationnelle.
Les modèles de langage y trouvent des réponses nuancées à des questions complexes. LinkedIn, avec sa densité de contenus professionnels accessibles au public, remplit aujourd’hui ce rôle dans le domaine des affaires et de l’expertise sectorielle.
Des implications concrètes pour les professionnels et les marques
Pour Erin Lanuti, cofondatrice de la plateforme d’analyse de données LinkedIn Lilypath, citée par Axios, le signal est clair : « La visibilité professionnelle est en train de changer. Il ne s’agit plus seulement de la façon dont les gens se présentent aux autres. Il s’agit de plus en plus de la façon dont les machines les interprètent en premier lieu. »
source principale d’autorité professionnelle, la clarté d’un profil devient déterminante pour savoir si une personne est mise en avant, jugée crédible ou tout simplement ignorée.
Pour les entreprises, l’enjeu est similaire : chaque publication d’un commercial, chaque réflexion d’un dirigeant ou chaque mise à jour produit d’un chef de produit peut désormais contribuer à la façon dont la marque apparaît dans les réponses générées par l’IA.
Une fenêtre d’opportunité encore ouverte
Profound souligne que cette évolution ouvre une fenêtre d’opportunité encore peu exploitée. La majorité des marques n’ont pas encore ajusté leur stratégie pour en tenir compte. Celles qui investissent dès maintenant dans une présence éditoriale active sur LinkedIn pourraient bénéficier d’un avantage cumulatif, à mesure que les moteurs de réponse continuent de traiter la plateforme comme une source fiable.
LinkedIn rappelle toutefois que les outils de recherche par IA générative ne peuvent faire apparaître que les contenus rendus publics par les utilisateurs. « Nous continuons à protéger les données de nos membres contre toute extraction non autorisée », a précisé un porte-parole de la plateforme à Axios.
Meta renforce sa stratégie IA avec le rachat de Moltbook. Cette plateforme se présente comme un « Reddit pour agents IA », où des agents créés avec la technologie OpenClaw publient, commentent et interagissent entre eux — sans utilisateurs humains. Meta n’a communiqué aucun détail financier.
Lancé fin janvier, le service a très vite attiré l’attention de l’écosystème. Il se positionne comme un réseau social expérimental réservé aux bots, capables de discuter entre eux et parfois de « commérer » sur leurs utilisateurs.
L’opération s’inscrit dans la montée en puissance de Meta Superintelligence Labs (MSL), l’entité IA du groupe qui cherche à développer des agents plus contextuels pour accompagner les utilisateurs dans leur vie quotidienne et aider les entreprises dans leurs processus.
Moltbook, un « réseau social » pour bots
Moltbook héberge des agents IA, souvent des assistants personnels pilotant des tâches sur les appareils des utilisateurs. Ces agents tiennent des conversations publiques, partagent des posts et interagissent dans des fils de discussion proches de Reddit. Ils reposent sur OpenClaw, un agent IA capable de rédiger des emails, organiser des agendas, coder ou automatiser des workflows sur le terminal de l’utilisateur.
Meta met en avant l’architecture de Moltbook, basée sur un annuaire toujours actif d’agents. Ces agents peuvent se découvrir, se connecter et coopérer. Dans ce modèle, des agents spécialisés se coordonnent via un réseau social, plutôt qu’au sein d’un seul système monolithique. Meta présente cette approche comme une « avancée novatrice dans un domaine en pleine évolution ».
Les cofondateurs de Moltbook, Matt Schlicht (CEO) et Ben Parr (COO), rejoignent les équipes de MSL.
Meta présente Moltbook comme un complément à sa stratégie de superintelligence. Cette stratégie vise des systèmes « profondément contextuels », capables d’aider les utilisateurs sur la durée, dans leurs habitudes, leurs relations ou leur travail.
Enjeux de sécurité
La trajectoire de Moltbook comporte des zones d’ombre. La plateforme suscite des inquiétudes sur la cybersécurité des systèmes multi-agents. Il est aussi difficile de tracer la part réelle d’autonomie des bots par rapport à leurs créateurs.
L’écosystème IA débat activement de la gouvernance des agents autonomes. Dans ce contexte, l’intégration de Moltbook chez Meta risque d’accentuer les débats sur la supervision, l’audit des comportements d’agents et la protection des données exposées dans ces environnements.
Meta insiste sur le potentiel de ces réseaux d’agents. Ils pourraient créer de nouveaux cas d’usage : des assistants métiers collaboratifs ou des systèmes de support client distribués. Mais Meta fait déjà l’objet d’une surveillance étroite sur sa gestion des données et de la modération. L’industrialisation d’un « Facebook des IA » pourrait donc devenir un nouveau terrain de tension avec les régulateurs européens — notamment sur la transparence des modèles et la responsabilité en cas de dérives d’agents.
Ce 10 mars, Anthropic a saisi la justice pour bloquer le Pentagone. L’entreprise refuse en effet de supprimer les garde-fous de son IA contre les armes autonomes et la surveillance intérieure. Or le secrétaire à la Défense Pete Hegseth avait notifié officiellement cette désignation le 3 mars, après des mois de négociations tendues.
Devant le tribunal fédéral de Californie, Anthropic dénonce des actions « sans précédent et illégales ». Elle invoque aussi une violation de ses droits constitutionnels à la liberté d’expression et au droit à une procédure régulière, selon Reuters. En parallèle, une seconde plainte cible une désignation au titre de risque dans la chaîne d’approvisionnement civile, devant la Cour d’appel du District de Columbia.
Des milliards de dollars en jeu
Les dirigeants d’Anthropic dressent un tableau financier alarmant dans leurs dépositions. Krishna Rao, directeur financier, estime que le gouvernement pourrait réduire le chiffre d’affaires 2026 « de plusieurs milliards de dollars ». Il ajoute que l’impact serait « presque impossible à inverser » si ces actions se maintenaient.
La dépendance au seul Département de la Défense met déjà en péril plusieurs centaines de millions de dollars de revenus 2026. Par ailleurs, les sous-traitants de la défense pourraient réduire leur engagement de 50 % à 100 %. Enfin, l’entreprise anticipe une perte de confiance des investisseurs, ce qui alourdirait ses coûts de financement.
Le secteur public : un pilier menacé
Thiyagu Ramasamy, directeur du secteur public, confirme des dommages « immédiats et irréparables ». Il chiffre la perte directe à plus de 150 millions $ de revenus récurrents annuels. Ce montant concerne les contrats existants et attendus avec le Département de la Défense.
La croissance dans ce segment était pourtant spectaculaire. Entre décembre 2025 et janvier 2026, le taux annualisé des revenus récurrents du secteur public avait quadruplé. De plus, les projections tablaient sur plusieurs milliards de dollars sur cinq ans. Ainsi, si les contractants de défense rompaient leurs liens, les revenus attendus pour 2026 — plus d’un demi-milliard de dollars — pourraient « disparaître entièrement ».
Des clients privés également touchés
Paul Smith, directeur commercial, détaille lui aussi les dommages sur le marché privé. Un partenaire a ainsi abandonné Claude au profit d’un concurrent pour un déploiement de la Food and Drug Administration (FDA). Ce changement efface un pipeline de revenus anticipés de plus de 100 millions $.
D’autres contrats souffrent également. Des négociations avec des institutions financières représentant 180 millions $ combinés ont été perturbées. Un contrat de 15 millions $ est en pause. En outre, un client fintech a réduit son engagement de 10 à 5 millions $, citant directement la « situation » avec le Pentagone.
Plus de 100 clients entreprises ont ensuite contacté Anthropic. Ils expriment « une profonde inquiétude, de la confusion et du doute » sur les risques liés à leur association avec la société.
Du côté d’AWS, on aide désormais les clients à migrer leurs charges de travail liées au Département de la Guerre vers d’autres modèles. Toutefois, AWS précise que Claude reste disponible pour toutes les charges de travail sans lien avec le Pentagone.
Un bras de fer aux répercussions sectorielles
Ce conflit dépasse le seul cas d’Anthropic. Il soulève des enjeux fondamentaux pour toute le secteur de l’IA. Ainsi, 37 chercheurs et ingénieurs d’OpenAI et de Google, dont Jeff Dean, directeur scientifique de Google, ont déposé un mémoire d’amicus curiae en soutien à Anthropic. Selon eux, cette affaire pourrait décourager les experts de l’IA de débattre ouvertement des risques et bénéfices de leurs technologies.
C’est l’annonce que l’écosystème des éditeurs de modèles IA attendait depuis que Yann LeCun avait annoncé son départ de Meta et son intention de développer Advanced Machine Intelligence (AMI) Labs.
Restaient les questions en suspens : Avec qui ? Avec quels fonds ? Quand ?
L’ex directeur de Facebook AI Research (FAIR) a levé le voile ce 10 mars en annonçant une levée de fonds de 1,03 milliard $ (environ 890 millions €) en amorçage, pour une valorisation pré-money de 3,5 milliards $. Un record en Europe pour un tour d’amorçage, dépassé seulement par l’américaine Thinking Machines Lab, fondée par Mira Murati, ancienne directrice technique d’OpenAI., qui avait levé 2 milliards $ en juin 2025.
Une équipe de chercheurs issus de Meta
On connait aussi désormais l’équipe qui va développer le business d’AMI Labs : ils sont six co-fondateurs, tous anciens de Meta. Alexandre Lebrun, ancien CEO de la start-up de santé Nabla (rachetée par Meta en 2015 sous le nom Wit.ai), prend la tête d’AMI Labs en tant que directeur général, tandis que Yann LeCun en préside le conseil d’administration.
Laurent Solly, ex patron de Meta pour l’Europe, assure le rôle de directeur des opérations. A ses côtés, Pascale Fung est directrice de la recherche et de l’innovation, Saining Xie est directeur scientifique, et Michael Rabbat est responsable des « représentations du monde ».
AMI Labs compterait aujourd’hui une dizaine de salariés et vise 30 à 50 personnes d’ici six mois, répartis entre son siège social de Paris et ses bureaux de New York, Montréal et Singapour.
Les « world models » contre les LLM
Au cœur du projet d’AMI Labs : une rupture revendiquée avec les grands modèles de langage (LLM) comme ChatGPT, Claude ou Gemini. Pour Yann LeCun, ces systèmes entraînés principalement sur du texte ne pourront jamais atteindre le niveau de raisonnement d’un humain, ni même celui d’un enfant de 6 ans ou d’un chat. « L’architecture générative entraînée par l’apprentissage auto-supervisé imite l’intelligence ; Ils ne comprennent pas vraiment le monde », résume Alexandre Lebrun.
L’alternative que développe AMI Labs s’appelle « world models » (modèles du monde) : des architectures d’IA capables de se représenter l’environnement physique de manière abstraite et conceptuelle, de mémoriser des informations et de planifier des séquences d’actions complexes comme anticiper qu’un objet tombera s’il arrive au bord d’une table.
AMI Labs s’appuiera sur les travaux conduits par Yann LeCun chez Meta autour de l’architecture JEPA (Joint Embedding Predictive Architecture), entraînée sur des vidéos et des données spatiales plutôt que sur du texte.
Des ambitions industrielles et robotiques
AMI se positionne d’abord comme un projet de recherche fondamentale, mais avec des débouchés commerciaux clairement identifiés : fabricants, constructeurs automobiles, entreprises aérospatiales, acteurs du biomédical et de la pharmacie. « Nous voulons devenir le principal fournisseur de systèmes intelligents, quelle que soit l’application », a déclaré Yann LeCun à Reuters.
La robotique constitue l’une des applications prioritaires. « Pourquoi aujourd’hui, on a des systèmes qui passent l’examen du barreau, qui démontent des théorèmes, qui écrivent du code, mais on n’a toujours pas de robots domestiques ou de voitures qui se conduisent toutes seules ? » » insistait-il sur France Inter.
Il envisage également des usages grand public avec le déploiement de cette technologie dans ses lunettes connectées Ray-Ban Meta. « C’est probablement l’une des applications potentielles à court terme » a-t-il annoncé à Reuters.
AMI Labs va proposer ses modèles sous deux formes : un accès via API (modèle payant à la requête) et une version téléchargeable, potentiellement en open source. Un atout différenciateur, notamment pour recruter des profils de recherche de haut niveau.
Un tour de table mondial, un ancrage européen
Initialement ciblé à 500 millions $,la demande des investisseurs a largement dépassé les attentes. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le fonds de Jeff Bezos). Nvidia, habitué des investissements dans les start-up d’IA, figure également parmi les participants, aux côtés du fonds singapourien Temasek, de SBVA (SoftBank), de Toyota Ventures et de Samsung.
Côté européen et français, on retrouve Daphni, Bpifrance, le Groupe industriel Marcel Dassault, l’Association Familiale Mulliez, Aglaé Ventures (LVMH), Zebox Ventures (CMA CGM) et Xavier Niel, à titre personnel.
« Il y a des investisseurs très diversifiés avec un peu plus du tiers qui sont européens, une grande partie de Français, un peu moins du tiers viennent d’Asie et du Moyen-Orient, et à peu près un tiers sont américains. Quand une entreprise dépasse une valorisation d’un milliard, on appelle ça une licorne, nous, on dépasse les trois milliards, donc on est un tricératops » se rejouit Yann LeCunil.
Le premier partenaire stratégique d’AMI Labs sera Nabla, la start-up d’IA pour la santé cofondée par Alex Lebrun, qui gardera en parallèle un rôle de directeur scientifique dans cette société. Une façon de tester dès le départ les modèles du monde sur des données réelles dans un secteur à fort enjeu.
Le tournant est net. Depuis le 1er juillet 2024, la Direction de l’Information et des Systèmes Numériques (DISN) d‘Icade n’est plus cantonnée à un rôle de support. Désormais rattachée directement à la Direction Générale et représentée au Comex, elle est devenue un « levier de transformation du groupe », selon les termes d’Alexis de Nervaux, son nouveau Directeur des systèmes d’information et de la transformation digitale. L’objectif déclaré est de faire d’Icade le « pionnier de l’IA dans le secteur de l’immobilier ».
Deux vitesses pour l’IA
La feuille de route s’articule autour d’une distinction claire entre deux types d’usages. D’un côté, une « IA pour tous », à vocation bureautique, destinée à l’ensemble des collaborateurs pour simplifier leur quotidien. De l’autre, une « IA cœur de métier », orientée vers les activités spécifiques de foncière et de promotion immobilière.
L’approche revendiquée est résolument pragmatique. « Notre stratégie est basée sur des cas d’usage. Le point de départ est ce que l’on appelle des business opportunities », explique Alexis de Nervaux.
Delos : le choix de la souveraineté
Pour le volet bureautique, Icade a retenu Delos, une solution française hébergée en France. Un choix qui traduit une volonté assumée de « jouer la carte de la souveraineté ». La plateforme, déployée en mode SaaS, présente la particularité d’être multi-LLM : en fonction du prompt soumis, elle peut solliciter Mistral, ChatGPT ou d’autres modèles. « Cela permet d’offrir à nos utilisateurs finaux le meilleur des deux mondes », souligne le Directeur des systèmes d’information et de la transformation digitale.
Intégrée aux outils du quotidien – Teams et Outlook notamment – , la solution fonctionne comme un « copilote » capable de résumer des réunions ou de trier des courriels, sans alourdir l’infrastructure interne.
Des cas d’usage concrets sur les métiers
Sur le plan opérationnel, plusieurs déploiements sont déjà en cours. Pour la promotion, Icade s’appuie sur Lokimo, une start-up accompagnée par Icade à travers son start-up studio Urban Odyssey, et qui permet de sourcer le foncier et d’identifier le potentiel à l’échelle nationale selon des critères précis.
Pour la foncière, le groupe a développé une solution de Gestion Électronique de Documents (GED) intelligente, capable d’analyser et de synthétiser des millions de documents liés aux actifs immobiliers. Alexis de Nervaux en souligne la valeur concrète, notamment dans l’accélération de la constitution des dossiers par actif : « Cette solution nous permet de synthétiser et valoriser l’ensemble des données que nous possédons sur un actif par exemple. C’est un véritable gain de productivité et de temps pour les équipes.».
La data et le cloud comme prérequis
Pour soutenir ces ambitions, Icade a recruté un Chief Data Officer en avril dernier et lancé un projet de Data Plateforme destiné à améliorer la qualité et à décloisonner la donnée. Pour le Directeur des systèmes d’information et de la transformation digitale, le message est sans appel : « Il n’y a pas d’IA sans data. L’IA n’est pas une potion magique qui va transformer votre data de mauvaise qualité en or ».
En parallèle, le groupe applique une stratégie « Cloud-first et SaaS-first » via un projet de migration « Move to Cloud ». La logique est celle de la délégation aux spécialistes : « Nous serons toujours moins bon qu’un « pure player » comme Amazon, Azure ou OVH. Nous n’avons donc aucun intérêt, à mon sens à gérer cela en interne ».
La formation, clé de l’adoption
La dimension humaine occupe une place centrale dans la démarche. Icade s’est associé à Mister IA pour proposer des formations concrètes à ses collaborateurs. Alexis de Nervaux est catégorique sur le sujet : « Le succès d’une formation, est l’appropriation des outils par les collaborateurs, qu’ils en ressortent avec un savoir-faire pratique, créateur de valeur, qui puisse être mis en place immédiatement. »
Sécurité et agilité : un équilibre revendiqué
Fort d’une expérience directe d’une cyberattaque d’envergure, le CDIO n’ignore pas les enjeux de cybersécurité. Mais il refuse d’en faire un frein à l’innovation : « On ne peut pas se permettre de bâtir une forteresse sans que celle-ci soit intégrée à une stratégie plus globale. Le temps que l’on y parvienne on est déjà en retard ». La stratégie d’Icade entend donc concilier rigueur opérationnelle en matière de sécurité et agilité dans la transformation des processus métiers.
Microsoft franchit un nouveau cap, le 1er mai prochain, dans la monétisation de l’intelligence artificielle avec l’arrivée d’une offre Microsoft 365 E7tarifée 99 $ par utilisateur et par mois. Destinée aux grandes entreprises, cette nouvelle formule se place au‑dessus de l’actuel E5 et ambitionne de devenir le « bundled » ultime pour les entreprises qui veulent industrialiser l’usage de l’IA dans leurs workflows.
Un palier au‑dessus d’E5, centré sur Copilot et Agent 365
Microsoft 365 E7 reprend l’intégralité des fonctionnalités du bundle E5, en y ajoutant l’ensemble des briques d’IA que Microsoft commercialise aujourd’hui à la carte. Au cœur de l’offre : l’assistant Microsoft Copilot et un nouveau hub de gestion d’agents d’IA baptisé Agent 365, pensé pour orchestrer, superviser et gouverner des agents spécialisés à l’échelle de l’entreprise.
Concrètement, E7 se présente comme une suite « AI‑first » : plutôt que d’ajouter Copilot comme simple add‑on à un abonnement existant, Microsoft intègre nativement ces capacités dans le bundle, avec des fonctions avancées de sécurité, d’identité et de management déjà présentes dans E5. L’objectif est double : simplifier le portefeuille de licences pour les clients qui ont déjà adopté Copilot, et inciter les autres à franchir le pas en regroupant l’ensemble dans un seul contrat.
Microsoft 365 E7 : 99 $ par utilisateur
Avec un prix cible de 99 $ par utilisateur et par mois, E7 marque une hausse significative par rapport à E5, actuellement à 57 $ et annoncé à 60 $ à partir du 1er juillet 2026. Si l’on additionne aujourd’hui E5 et les options IA comme Copilot vendues séparément, le total se rapproche déjà de ce niveau de prix ; l’enjeu pour Microsoft est donc de transformer ces lignes de revenus additionnelles en un palier premium clairement identifié.
En toile de fond, se trouve la nécessité pour Microsoft de rentabiliser les dizaines de milliards de dollars investis dans l’infrastructure IA (centres de données, GPU, supercalculateurs). Un tarif à 99 $ par utilisateur, couplé à un éventuel modèle hybride combinant prix par siège et facturation à la consommation des ressources IA, permettrait de rapprocher davantage Microsoft 365 des logiques économiques déjà en place sur Azure.
Une stratégie de timing pour faire monter les clients en gamme
La fenêtre de lancement envisagée n’est pas anodine. Microsoft a déjà annoncé une augmentation globale des tarifs de Microsoft 365 à l’horizon juillet 2026, avec une hausse notamment pour les plans E3 et E5. En introduisant E7 au moment où les prix des offres existantes montent, l’éditeur espère orienter une partie des clients vers ce nouveau palier plutôt que de les voir se contenter de plans intermédiaires.
Microsoft indique ainsi que « Microsoft 365 E7 unifie Microsoft 365 E5, Microsoft 365 Copilot et Agent 365 en une solution unique optimisée par Work IQ et intégrée aux applications et à la pile de sécurité auxquelles les clients font déjà confiance. Elle comprend Microsoft Entra Suite et les fonctionnalités de sécurité avancées Defender, Intune et Purview, offrant une protection complète aux agents et aux employés.»
L’objectif est de capter les budgets des grands comptes qui veulent structurer l’usage de l’IA tout en renforçant leurs capacités de sécurité, conformité et gestion des identités.
Quels enjeux pour les DSI et les équipes achats ?
Pour les directions informatiques, E7 ouvre autant de possibilités que de questions. La promesse est séduisante : une suite unifiée, intégrant productivité, sécurité et IA, avec Copilot et Agent 365 comme colonne vertébrale des usages intelligents. Mais à 99 $ par utilisateur, l’adoption à grande échelle suppose une analyse fine du retour sur investissement : gains de productivité, automatisation de processus, réduction des coûts liés à la gestion multi‑licences, ou encore rationalisation des outils tiers.
83 %. C’est la part de marché des éditeurs américains dans le cloud et le SaaS en Europe. Un chiffre vertigineux, qui résume à lui seul l’ampleur de la dépendance technologique dans laquelle se trouve la France et l’ensemble du continent européen.
Pourtant, des alternatives existent. Des entreprises françaises innovent, recrutent, exportent. Alors pourquoi l’État lui-même continue-t-il d’acheter massivement américain, au mépris des doctrines qu’il a lui-même édictées ? Pourquoi ce décalage persistant entre les discours sur la souveraineté numérique et la réalité des contrats signés ?
C’est à ces questions que répond Michel Paulin, président du Comité Stratégique de Filière Logiciel et Solutions Numériques de Confiance, dans un entretien sans détour à Silicon.
Sa conviction : inutile d’attendre une grande loi ou un plan de subventions supplémentaire. Rediriger seulement 5 % de la commande vers l’écosystème national suffirait à créer 10 000 emplois et à rapatrier un milliard d’euros dans les caisses de l’État.
Silicon – Quelle est la genèse du Comité Stratégique de Filière logiciel et solutions numériques de confiance, officiellement lancé en avril 2025 ? Michel Paulin – Il n’y avait pas de filière dans le domaine. En septembre 2022, le ministre de l’industrie et des finances de l’époque ( Bruno Le Maire, NDLR) a annoncé la création d’une filière et m’a demandé de faire le précadrage. De septembre 2022 à avril 2025, nous avons consulté près de 600 à 800 entreprises qui ont répondu à des questionnaires et à des sollicitations. On a discuté avec l’État pour définir un contrat de filière qui a été signé en avril 2025. L’objectif de ce contrat, c’est très simple : définir quelles sont les mesures que l’on peut prendre avec l’ensemble des parties prenantes, clients, État, collectivités locales, mais aussi activités périphériques, pour faire en sorte que la filière française puisse grossir, grandir, se développer.
Quel est son périmètre ? Michel Paulin – Ce périmètre a été décidé par l’État. Il couvre quatre domaines : éditeur de logiciels, domaine du cloud, domaine du quantique, et l’intelligence artificielle en tant que producteur, éditeur de modèles, éditeur d’agents ou de solutions de cette nature.
«La filière se porte bien mais elle fait face à des défis énormes »
Comment se porte cette filière aujourd’hui ? Michel Paulin – C’est une filière qui va plutôt bien : 25 milliards € de chiffre d’affaires, une croissance souvent très proche des deux chiffres sur ces 5-6 dernières années, et environ 10 000 emplois nets créés chaque année pour plus de 100 000 personnes employées. Quand on se compare à d’autres filières industrielles qui souffrent aujourd’hui en France et en Europe, c’est une filière qui se tient bien. En revanche, il faut mettre les pieds sur la table : elle est face à des défis énormes.
Le premier défi, c’est la taille. Une dizaine d’entreprises aux États-Unis sont à elles seules plus grandes que toute la filière française. Il n’y a que 4 sociétés en France qui dépassent le milliard de chiffre d’affaires, Dassault Systèmes, OVHcloud et quelques pépites de quelques centaines de millions. Mistral espère peut-être dépasser le milliard.
Le deuxième défi, c’est l’accès aux fonds propres. Pour investir en R&D, dans l’IA, les infrastructures, l’innovation, il faut de gros fonds propres. Rester dans le giron européen avec des levées supérieures à 100, 200 ou 300 millions, c’est difficile. Dans le quantique, les trois dernières levées américaines vont de 600 millions à un milliard de dollars, principalement par des fonds anglo-saxons. Lever un milliard en restant européen aujourd’hui, c’est impossible.
Le troisième défi, c’est les compétences. On ne forme pas assez d’ingénieurs, on n’attire pas assez de femmes dans la filière. Aujourd’hui, 22 % des postes techniques sont occupés par des femmes, contre 40 % en Inde ou au Maroc. Ça commence à l’école primaire : il faut mettre en avant la science pour former plus de monde.
« Dire « il n’y a pas d’offre « est une insulte à la
filière »
Face aux menaces de Donald Trump et la fin des « cadeaux aux alliés », faut-il porter les trois dossiers en même temps ou prioriser le financement et la commande publique ?Michel Paulin -Dans le cadre du contrat de filière, on a défini cinq priorités : l’offre, la commande, l’innovation, la formation, et la protection des données sensibles. Et aussi, parce que le marché est mondial, comment aider les entreprises françaises à exporter et à aller à l’international.
La raison principale du retard par rapport aux filières coréenne, israélienne ou canadienne, c’est la commande publique et la commande privée, qui est le driver essentiel. Les parts de marché de l’État dans le software acheté auprès de la filière française sont très faibles ; dans certains domaines, on est quasiment à 5 ou 10 %. Je salue l’initiative du gouvernement qui dit qu’il faut réfléchir vers les filières nationales, parce que la situation est catastrophique.
Comment expliquer ce décalage entre la capacité de production de l’écosystème français et la réalité de la commande publique ? Les administrations sont-elles en décalage par rapport aux doctrines de l’État ? Michel Paulin – Il y a beaucoup de facteurs. Et je ne devrais pas réserver ça uniquement à la commande publique : il faut aussi mettre les grands groupes face à leurs responsabilités. On ne peut pas parler de risque de vassalisation sans agir. On a vu récemment qu’on a coupé les services bancaires d’un juge français aux États-Unis ; ce n’est plus de la science-fiction, c’est une réalité.
Dans le cloud et le SaaS, les éditeurs américains ont 83 % de parts de marché en Europe, c’est un excellent rapport du Cigref qui l’indique. Les acheteurs ont parfois le « syndrome IBM » des années 80 : on choisit le dominant par habitude pour ne pas prendre de risques. En Europe, on est très forts pour ne pas avoir de préférence, on n’a pas de » American Buy Act « . Les critères qui favorisent le produit local ont longtemps été tabous.
Il y a aussi des acteurs dominants qui abusent de leur position : la Cour des comptes et les autorités de la concurrence le disent. Une dizaine d’instructions sont en cours sur des pratiques de cloud qui augmentent les tarifs sans justification : 5 à 10 % de hausse par an, et une verticalisation des solutions pour lier encore plus les clients à leur logique.
« Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen.»
Patrick Pouyanné, PDG de TotalEnergies, a déclaré qu’il aimerait acheter français ou européen, mais qu’il n’y a pas d’offre. Que lui répondez-vous ? Michel Paulin – Ce narratif construit par ceux qui veulent garder le monopole de fait est très puissant. Dire « il n’y a pas d’offre » est une insulte à la filière. Est-ce qu’on a des ingénieurs qui ne sont pas capables de faire des produits ? Est-ce que Mistral n’est pas au niveau ? Dans tous les domaines, il y a des alternatives. Faisons-leur confiance.
Quand on fait une stratégie multi-cloud avec trois acteurs américains, ça correspond à quoi ? Une dépendance totale, technologique, financière et légale. Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen sur les domaines où ils sont bons. Ces opérateurs font quand même de l’ordre du milliard, ce ne sont pas des boîtes en dehors des clous.
Sur la virtualisation, il y a eu le scandale VMware-Broadcom, qui impose à ses clients des augmentations de prix fois trois, fois cinq. Il existe des alternatives en Europe : Proxmox côté allemand, Vates en France. Quand vous êtes face au renouvellement d’une licence avec une multiplication par trois ou quatre du tarif, pourquoi ne pas tester ?
Dans la cyber, une société me disait que dans un appel d’offre sur deux, ils ne sont même pas interrogés. Quand on dit « il n’y a pas d’alternative », faisons des appels d’offres et donnons la chance à tout le monde. Le Health Data Hub : pas d’appel d’offre. Le ministère de la Santé disait « les acteurs ne répondent pas aux besoins ». Quel est le cahier des charges ? Quel est l’appel d’offre ? Il n’y en a pas. C’est un narratif non factuel, construit pour justifier que l’on ne sollicite même pas ces offres. Elles existent, faisons-leur confiance.
« Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions.»
Comment expliquer que des directives politiques comme « Cloud au Centre » ne soient pas suivies d’effet par les administrations, voire par l’Assemblée nationale elle-même ?
Michel Paulin – Moi je ne peux pas l’expliquer. C’est une question à poser aux décideurs publics. Une des demandes que nous avons, c’est : au lieu de rajouter des régulations, en Europe on adore en rajouter, appliquons avec courage et rigueur celles qui existent. Le DMA : qu’est-ce qu’on commence par faire ? Des exceptions. Le cloud a même été exclu du DMA.
Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions. Ça ne sert à rien de faire une doctrine si on ne l’applique pas.
Le RGPD ne devrait pas accepter des exceptions non plus. Mais le RGPD est compliqué parce que ces acteurs sont pilotés depuis l’Irlande, et l’Irlande n’est pas très zélée pour faire respecter le droit européen sur la protection des données. Il y a des biais et des cas de RGPD enfreints.
Il faut avoir le courage de dire : arrêtons de rajouter des réglementations, des certifications, des labels dans tous les sens ; il y en a trop. En revanche, concentrons-nous pour faire respecter celles qui existent. De même, plutôt que de subventionner dans tous les sens, subventionnons l’innovation et achetons européen. Sur les domaines de l’IA, des infrastructures, du quantique, de la recherche fondamentale, du hardware avec les nouveaux modèles de GPU.
Oui il faut aider à l’innovation avec un partenariat public-privé fort entre le CEA, l’INRIA et le CNRS. Mais le principal levier, c’est la commande, parce que c’est ce qui fait grossir la filière et c’est la seule garantie d’une souveraineté.
Y a-t-il des engagements concrets ? Faut-il passer par la loi, des obligations dans les appels d’offres, un fléchage contraignant ? Êtes-vous optimiste ? Michel Paulin – Je rêverais d’une loi qui permette de résoudre tous ces problèmes. Mais la préférence européenne d’achat est aujourd’hui interdite par la loi européenne : on n’a pas le droit de le faire. Alors que les Américains le font, les Chinois le font, les Coréens le font. On est les seuls à croire que c’est une distorsion de la concurrence. C’est incroyable.
Cela dit, il ne faut pas tomber dans l’attentisme en attendant la prochaine loi. Il y a plein de choses à faire concrètement dès maintenant. Je donne un chiffre : 83 % du SaaS et du cloud sont monopolisés par quelques acteurs. Si on fléchait 5 % de ces commandes vers la filière, ce n’est pas un choc systémique mais c’est 10 % de croissance pour la filière française, 10 000 emplois créés, et 1 milliard de taxes et cotisations sociales qui reviennent dans les caisses de l’État au lieu de partir en évasion fiscale légale en Irlande ou aux États-Unis.
Et l’enjeu géopolitique est réel. Les Américains ont voulu taxer les Chinois. Les Chinois ont regardé tout le stack et ont dit : « les terres rares, on ne vous les donne plus ». Comme par hasard, les taxes ont disparu. La vassalisation économique n’est pas un fantasme, c’est une réalité. 5 %, ça change tout.
Des drones iraniens ont frappé délibérément cette semaine les data centers d’AWS aux Émirats arabes unis et à Bahreïn. Selon le Financial Times (FT), c’est la première fois qu’une opération militaire prend pour cible les infrastructures d’une entreprise technologique américaine de premier plan.
L’agence Fars News, proche des Gardiens de la révolution islamique, a revendiqué ce jeudi des frappes contre des installations d’Amazon et de Microsoft dans la région. Si Microsoft a démenti tout incident opérationnel, AWS a confirmé que deux de ses sites aux Émirats avaient été « directement touchés » par des drones, mettant hors service deux de ses trois zones de disponibilité régionales.
Un data center en Bahreïn a également été atteint lors d’une attaque à proximité. AWS a conseillé à ses clients de migrer leurs données vers d’autres régions, reconnaissant que « l’environnement opérationnel au Moyen-Orient reste imprévisible ».
Des cibles difficiles à défendre
Les data centers présentent des caractéristiques qui en font des cibles vulnérables : des groupes électrogènes diesel, des turbines à gaz, et surtout d’imposants systèmes de refroidissement. « Ce sont des installations tentaculaires, et si vous mettez hors service les refroidisseurs, vous pouvez les mettre entièrement hors ligne », explique au FT Sam Winter-Levy, chercheur à la Carnegie Endowment for International Peace.
Matt Pearl, du think-tank américain CSIS, résume la logique de ces offensvives : « Les Iraniens voient les data centers comme une composante du conflit. C’est une façon d’avoir un impact réel dans la région. »
L’eldorado de l’IA du Golfe remis en question ?
Les conséquences de ces frappes dépassent largement le cadre militaire. Le Golfe avait misé sur son image de havre de stabilité pour attirer des investissements colossaux dans l’intelligence artificielle. L’Arabie saoudite, via son entité Humain, et les Émirats arabes unis, via G42, ont engagé des milliards aux côtés de Nvidia, Amazon et Microsoft pour construire de vastes clusters de data centers.
Abu Dhabi accueille également l’un des gigantesques projets « Stargate « d’OpenAI. Le mois dernier encore, Microsoft annonçait l’ouverture prochaine d’un nouveau centre Azure en Arabie saoudite.
« Ces frappes pourraient fondamentalement changer le calcul de risque pour les investisseurs privés, les assureurs et les entreprises technologiques elles-mêmes », avertit Jessica Brandt, du Council on Foreign Relations. « Le Golfe s’était vendu comme une alternative sûre à d’autres marchés. Cet argument vient de perdre de sa force. »
Un avertissement mondial
Au-delà des capitaux, c’est le recrutement de personnel d’ingénierie et de construction qui pourrait pâtir du nouveau climat d’insécurité, selon un vétéran américain de l’industrie tech installé dans la région, cité par le FT. Il compare le projet « Stargate » aux usines de fabrication de puces d’Intel en Israël, protégées par l’armée et entourées de défenses anti-aériennes : « Il faut intégrer la protection dès le départ, c’est incontournable pour un projet de cette envergure. »
Reste que l’attaque soulève une question qui dépasse le seul Moyen-Orient. « C’est un avant-goût de ce qui va venir, et ces types d’attaques ne se limiteront pas à cette région », prévient Winter-Levy. À l’heure où les infrastructures numériques deviennent le nerf de la guerre économique et technologique mondiale, leur protection physique s’impose désormais comme un enjeu de souveraineté à part entière.
L’intelligence artificielle n’a pas encore produit le cyberattaquant omniscient que certains redoutaient. Ce qu’elle produit, en revanche, est peut-être plus insidieux : une chaîne de production automatisée de logiciels malveillants médiocres, jetables, et suffisamment nombreux pour saturer les défenses.
Un nouveau modèle industriel de la menace
Le vibeware désigne une approche du développement de malwares pilotée par l’IA qui privilégie la quantité sur la qualité. L’idée n’est pas de concevoir une cyberattaque brillante, mais d’en produire des dizaines, chaque jour, de manière automatisée.
Des groupes comme APT36, groupe de cybercriminels pakistanais bien documenté, seraient désormais capables de maintenir une cadence d’un nouveau variant de malware par jour. Ce rythme industriel permet de « saturer » la télémétrie défensive standard. Chaque nouveau binaire nécessite une analyse, chaque nouvelle signature doit être établie. Les équipes de sécurité se retrouvent à courir après un flot continu de menaces mineures, au risque de manquer l’essentiel.
Les chercheurs ont qualifié cette stratégie de DDoD pour Distributed Denial of Detection, ou déni de détection distribué. Par analogie avec les attaques DDoS classiques qui submergent un serveur par le volume de requêtes, le DDoD submerge les capacités d’analyse et de détection des équipes cyber avec un flux constant de codes renouvelés. L’objectif n’est pas de surpasser les défenses par le génie technique, mais d’épuiser les défenseurs.
Des langages exotiques pour réinitialiser les détections
L’un des leviers techniques les plus efficaces du vibeware réside dans le recours à des langages de programmation inhabituels. Les moteurs de détection sont, pour la plupart, optimisés pour analyser du code écrit en C++, C# ou .NET. Les attaquants l’ont bien compris.
Grâce aux LLM, il est désormais possible de porter la logique d’un malware existant vers un langage de niche sans disposer d’une expertise préalable. Les langages favorisés par APT36 incluent notamment :
Nim : représentant moins de 0,1 % de l’indice TIOBE, ce langage compile en C ou C++ mais utilise un moteur d’exécution unique. Les scanners de sécurité le classent souvent comme « inconnu » plutôt que « malveillant ». Il est utilisé comme enveloppe (wrapper) furtive pour masquer des charges utiles plus anciennes.
Zig : utilisé pour des outils comme ZigShell ou ZigLoader, ce langage offre des performances élevées tout en échappant aux signatures comportementales des solutions EDR.
Crystal : également trop rare pour disposer de signatures établies dans de nombreux outils de détection de terminaux.
À ces langages de niche s’ajoutent Rust et Go, plus connus mais appréciés pour leur stabilité mémoire lors de tâches intensives comme l’exfiltration massive de données.
L’effet stratégique est double : réinitialisation de la détection ( chaque nouveau langage oblige les outils de sécurité à repartir de zéro) et accessibilité simplifiée par l’IA, qui permet à des attaquants sans expertise spécifique de générer du code fonctionnel dans ces langages.
Living Off Trusted Services : se cacher dans le trafic légitime
Le vibeware excelle également dans l’exploitation des services cloud légitimes pour ses canaux de commande et de contrôle. Cette technique, désignée sous le terme de Living Off Trusted Services (LOTS), consiste à utiliser des plateformes comme Google Sheets, Discord, Slack ou Supabase comme infrastructure C2.
L’exemple le plus documenté est SheetCreep, un malware écrit en C# qui transforme une feuille de calcul Google Drive en véritable tableau de bord d’administration. Son fonctionnement est précis :
Le malware interroge régulièrement une feuille de calcul spécifique pour y récupérer des instructions.
Les commandes sont encodées en Base64 puis chiffrées via un algorithme DES (mode ECB).
Les résultats d’exécution sont renvoyés dans les cellules du tableur via l’API Google Drive.
L’infrastructure est organisée en onglets dédiés : unenc_requests, unenc_outputs, unenc_heartbeats, unenc_systems.
D’autres outils de la flotte APT36 s’appuient sur Discord (CrystalShell), Slack (ZigShell), Firebase et Supabase pour la gestion des sessions et le stockage des données volées, ou encore sur Microsoft Graph API via l’infostealer MailCreep.
Azure Front Door est également utilisé pour masquer les communications malveillantes dans du trafic HTTPS légitime.
L’IA joue ici un rôle d’accélérateur décisif : ces plateformes disposent de documentations publiques abondantes et de SDK bien référencés dans les données d’entraînement des LLM. Générer du code d’intégration stable pour Google Sheets ou Discord est devenu trivial, même pour un attaquant sans compétence technique approfondie.
Les limites du vibeware
Il serait inexact de présenter le vibeware comme une rupture technologique car le code généré par l’IA est souvent dérivé, incohérent, et sujet à des erreurs logiques critiques.
Plusieurs cas documentés illustrent ces failles :
Des binaires déployés avec l’URL du serveur C2 laissée en « placeholder » (modèle vide), rendant l’exfiltration de données impossible.
Des composants qui s’effondrent dès que la logique atteint un niveau de complexité modéré.
Dans le cas de CrystalShell, l’absence de protocole de communication entre les bots aurait généré des « broadcast storms » inutiles, et la commande de statut réinitialisait la métrique qu’elle était censée mesurer.
Des outils incapables de supprimer leurs propres fichiers temporaires après exécution, facilitant l’analyse forensique post-attaque.
Cette fragilité structurelle explique pourquoi les groupes comme APT36 continuent d’utiliser des frameworks classiques et éprouvés (Cobalt Strike ou Havoc) comme filet de sécurité. Les outils « vibe-coded » ne sont pas encore assez fiables pour porter seuls la responsabilité d’une opération critique.
Par nature, les LLM sont entraînés sur des dépôts publics comme GitHub : ils réorganisent des patterns existants sans inventer de nouvelles méthodologies d’attaque. Ils manquent de véritable compréhension du contexte de sécurité.
Comment se défendre : passer du statique au comportemental
Face au vibeware, une défense basée sur les signatures est structurellement inadaptée. Les recommandations convergent vers une approche dynamique et comportementale.
> Prioriser l’analyse comportementale. L’injection de processus ou le process hollowing restent des constantes, quel que soit le langage utilisé. Les solutions EDR/XDR doivent surveiller ces comportements plutôt que les signatures de binaires. La surveillance des répertoires d’écriture utilisateur (%APPDATA%, %TEMP%) et le scan régulier de la mémoire complètent ce dispositif.
> Auditer les services cloud. Les connexions persistantes vers Discord, Slack ou Google Sheets provenant de binaires non vérifiés doivent être traitées comme des indicateurs de compromission potentiels. Un monitoring strict de ces plateformes s’impose dans les environnements sensibles.
> Compliquer la phase post-intrusion. Les opérations de piratage proprement dites restent manuelles. Réduire la surface d’attaque pour introduire de la friction lors du mouvement latéral, filtrer rigoureusement les fichiers LNK, ZIP ou ISO reçus par email, et maintenir les navigateurs à jour pour bénéficier de mécanismes comme l’App-Bound Encryption (ABE) sont autant de mesures qui forcent l’attaquant à utiliser des méthodes plus lourdes et donc plus détectables.
> S’appuyer sur des SOC ou MDR matures. Compte tenu de la cadence de production des variants (parfois un par jour), seule une surveillance 24/7 permet de distinguer le « bruit » généré par le vibeware des véritables intrusions critiques.
Le vibeware n’est pas l’avènement du cyberattaquant surhumain. C’est l’industrialisation du cyber-médiocre. Et c’est précisément pour cette raison qu’il mérite une attention soutenue.
C’est une première dans l’histoire industrielle américaine : une entreprise nationale se voit infliger le même traitement que l’équipementier chinois Huawei.
Ce jeudi, le secrétaire à la Défense Pete Hegseth a désigné officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » de l’armée américaine. La décision est immédiatement effective : les 200 millions $ de contrats militaires sont désormais obsolètes.
Les conséquences financières restent, pour l’heure, plus limitées que certains l’avaient redouté. La désignation ne s’applique qu’aux usages de Claude dans le cadre direct de contrats passés avec le Pentagone. Microsoft, partenaire important d’Anthropic, a déjà indiqué que ses juristes avaient étudié le texte et conclu que Claude était utilisable dans ses produits commerciaux (M365, GitHub, Azure AI Foundry) pour tous les clients non liés à des contrats de défense. Amazon, investisseur majeur dans Anthropic, n’a pas encore réagi officiellement.
Fin du contrat avec Palantir
En revanche, la rupture avec Palantir est immédiate. La plateforme Maven Smart System, que l’armée américaine déploie notamment pour ses opérations en Iran, et qui s’appuie sur des flux construits avec Claude, devra trouver un substitut. Le Trésor et la General Services Administration ont annoncé leur intention de couper tout lien commercial avec Anthropic, en application d’une directive directe de Donald Trump exigeant d’expurger ses solutions de l’ensemble des contrats fédéraux.
Anthropic a annoncé qu’elle contesterait la décision en justice, estimant que la loi (dite 10 USC 3252) exige du secrétaire à la Guerre de recourir aux « moyens les moins restrictifs nécessaires » pour protéger sa chaîne d’approvisionnement. En attendant le verdict des tribunaux, la scale-up assure qu’elle continuera à fournir ses modèles à l’armée américaine « au coût nominal », et avec le soutien de ses ingénieurs, aussi longtemps que ce sera légalement possible.
Les dégâts d’une note interne
La crise a pris une dimension politique supplémentaire avec la fuite d’une note interne de Dario Amodei, publiée par le site The Information.
Rédigé le jour où Donald Trump avait ordonné l’exclusion d’Anthropic des systèmes fédéraux et où OpenAI avait annoncé in extremis un accord avec le Pentagone, le mémo accusait le gouvernement de sanctionner Anthropic faute d’ « éloges de style dictateur » envers le Président.
Le PDG a fait son mea culpa : « C’était une journée difficile pour la société, et je m’excuse du ton de ce message. Il ne reflète pas mes vues réfléchies. » Il a aussi précisé qu’Anthropic n’était pas à l’origine de la fuite.
Pasqal, la start-up spécialisée dans les ordinateurs quantiques à atomes neutres, née en 2019 dans le sillage des travaux du Prix Nobel Alain Aspect, vient d’annoncer une levée de fonds d’au moins 340 millions €. Une somme qui la propulse d’un coup dans la cour des grandes licornes mondiales du secteur quantique.
Le montage est aussi ingénieux que la technologie qu’il finance. Le tour se décompose en deux volets d’environ 170 millions € chacun : d’un côté, une levée privée classique ; de l’autre, un financement convertible adossé à une fusion avec Bleichroeder Acquisition Corp. II, un SPAC américain coté. Au total, depuis sa création, Pasqal aura levé près de 600 millions €, un chiffre qui résume l’ampleur des ambitions.
Une valorisation à 2 milliards $
La transaction valorise Pasqal à 2 milliards $, faisant de la start-up de Palaiseau l’une des rares « licornes quantiques » au monde. Une marche franchie au pas de charge, qui s’explique autant par la maturité technologique de son offre ( des processeurs quantiques accessibles sur site ou via le cloud) que par son carnet de clients impressionnant : CMA CGM, OVHcloud, Thales, IBM, NVIDIA, Sumitomo.
Le tour d’investisseurs rassemble un plateau d’acteurs industriels et financiers qui reflète la dimension internationale prise par Pasqal : Parkway, Quanta Computer, LG Electronics, Temasek, l’European Innovation Council Fund, Saudi Aramco Entrepreneurship Ventures ou encore ISAI figurent parmi les nouveaux entrants, aux côtés de Bpifrance, fidèle au capital depuis 2021.
Nasdaq d’abord, Euronext ensuite
La stratégie boursière est doublement ambitieuse. Pasqal prévoit une première introduction au Nasdaq en 2026, via la fusion avec le SPAC Bleichroeder, avant de préparer une cotation sur Euronext Paris entre 2026 et 2027. Ce double ancrage vise à capter la liquidité des marchés américains, incontournables pour une deeptech qui se bat à armes égales avec des géants comme IBM Quantum ou IonQ, tout en maintenant une base actionnariale et décisionnelle en Europe.
L’opération, soumise aux approbations réglementaires habituelles et au dépôt d’un Form F-4 auprès de la SEC, n’est pas sans risques. Le marché des SPACs a connu ses turbulences ces dernières années, et la concurrence dans la course au quantique industriel s’intensifie. Pasqal mise sur la singularité de son approche — les atomes neutres — pour se différencier face aux architectures à base d’ions piégés ou de qubits supraconducteurs.
L’Essonne, QG mondial du quantique
Malgré l’envergure américaine de l’opération, Pasqal entend investir la majeure partie des fonds en France, et plus précisément à Palaiseau, dans l’Essonne, où est déjà implanté son site principal.
L’entreprise annonce vouloir doubler ses capacités de production en 24 mois et recruter 50 personnes supplémentaires sur 18 mois, soit une hausse des effectifs d’environ 20 % pour atteindre plus de 325 collaborateurs. La R&D sera également renforcée, avec un objectif affiché : disposer d’un ordinateur quantique tolérant aux pannes avant la fin de la décennie.
Un message politique autant qu’industriel, qui s’inscrit dans la logique du plan quantique national et des ambitions de souveraineté technologique européenne. Le futur ensemble issu de la fusion avec Bleichroeder restera d’ailleurs une entité de droit français, présidée par un ressortissant hexagonal, et Bpifrance conservera son siège au conseil d’administration.
Un test grandeur nature pour la deeptech européenne
La trajectoire de Pasqal sera scrutée bien au-delà du seul secteur quantique. Pour l’ensemble de l’écosystème deeptech européen, cette double cotation représente un test inédit : celui de la capacité d’un champion continental à lever des capitaux à l’échelle des exigences technologiques du moment, sans sacrifier son ancrage et ses valeurs.
Si l’opération réussit, elle démontrera qu’il est possible de rivaliser avec les poids lourds américains et asiatiques depuis Palaiseau et que le quantique européen n’est plus seulement une promesse de laboratoire. La balle est désormais dans le camp des marchés.
Ce portable affiché à partir de 599 $ est soit 400 $ de moins que le MacBook Air, son entrée de gamme habituelle à 1 099 $. Pour atteindre ce positionnement tarifaire inédit, Apple a fait un choix technique radical : équiper le MacBook Neo d’une puce A18 Pro, le même processeur que celui embarqué dans les iPhone 16 Pro lancés en 2024.
Une puce iPhone dans un Mac
C’est une première dans l’histoire du Mac car jamais encore Apple n’avait utilisé une puce de smartphone dans un ordinateur portable. La machine, dispose d’un processeur six cœurs, d’un GPU cinq cœurs et de 8 gigaoctets de mémoire vive unifiée. Pas de configurations alternatives : les spécifications sont fixes.
L’écran de 13 pouces, le châssis en aluminium, le clavier complet, le trackpad, la caméra FaceTime 1080p et le Wi-Fi 6E font partie de la dotation standard. L’autonomie annoncée est de 16 heures, contre 18 heures pour le MacBook Air M5. L’ensemble qui pèse 2,7 livres (environ 1,2 kg) est disponible en quatre couleurs. Le tout tourne sous macOS, le même système d’exploitation que les Mac haut de gamme, avec une compatibilité totale avec les applications iPhone et Mac.
La version de base intègre 256 gigaoctets de stockage. Une version à 699 $ double la capacité et ajoute Touch ID. Les acheteurs dans le secteur éducatif bénéficient d’une remise de 100 $ sur chaque modèle, ramenant le prix d’entrée à 499 $ Quatre coloris sont au programme : citrus, silver, indigo et blush. Les précommandes sont ouvertes depuis mercredi, avec des livraisons attendues à partir du 11 mars.
Chromebooks et PC Windows dans le viseur
La cible est clairement identifiée : les utilisateurs de Chromebooks propulsés par Google et les PC Windows d’entrée de gamme, un segment où Microsoft peine à imposer ses appareils équipés de puces ARM malgré leurs promesses en matière d’autonomie. Apple vise aussi les étudiants, les primo-acheteurs et les entreprises en quête d’un point d’entrée abordable dans l’écosystème Mac.
« La vraie question n’est pas de savoir si Apple peut vendre un MacBook à ce prix, ce sera l’un des Mac les plus vendus de l’histoire si la marque tient ses promesses , mais comment elle parvient à équilibrer coût, performance et positionnement premium tout en préservant l’expérience qui définit le Mac », analyse Francisco Jeronimo, vice-président en charge des appareils clients chez IDC cité par Reuters.
John Ternus, le directeur de l’ingénierie matérielle d’Apple, a résumé l’ambition dans un communiqué : le MacBook Neo a été « conçu de fond en comble pour être plus accessible au plus grand nombre. »
Une offensive sur l’entrée de gamme
Le lancement du MacBook Neo s’inscrit dans une séquence dense pour Apple. Cette semaine, la firme a également dévoilé l’iPhone 17e à 599 $, avec davantage de stockage en configuration de base, et renouvelé ses MacBook Air et MacBook Pro avec les nouvelles puces M5 et des configurations de série étendues en mémoire. Autant de mouvements qui témoignent d’une stratégie d’ensemble : défendre les parts de marché d’Apple dans un contexte de PC en demi-teinte et de smartphone sous pression.
Car la conjoncture est complexe. Les marchés PC et smartphone restent très sensibles aux prix après plusieurs trimestres de demande erratique, et les fabricants naviguent en eaux troubles face à la flambée du coût des composants mémoire.
Le MacBook Neo, livré avec seulement 8 gigaoctets de RAM, moitié moins que le MacBook M4 et même en retrait par rapport aux 12 gigaoctets de l’iPhone 17 Pro , illustre les compromis imposés par cette pénurie mondiale de mémoire.
Reste à savoir si le pari sera tenu. Apple a déjà tâté du segment en commercialisant un MacBook Air à 699 $ chez Walmart avec une puce M1, mais c’était sur un modèle en fin de vie. Avec le MacBook Neo, c’est une machine inédite, conçue pour ce prix, qui entre en scène.
Disponible depuis le 3 mars 2026,Du GAGSI au MAGNum : une évolution structurelle
Changement de braquet pour la gouvernance du numérique : le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) 2026 prend la suite du Guide d’Audit de la Gouvernance du Système d’Information (GAGSI 2019), dont il dépasse largement le périmètre initial.
Là où le GAGSI se contentait d’identifier des bonnes pratiques, le MAGNum mesure désormais, de façon structurée et comparable, le niveau de maturité numérique global d’une organisation sur une échelle de 1 à 5.
Du GAGSI au MAGNum : une évolution structurelle
Le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) est le fruit d’un travail collégial mené par une soixantaine d’experts issus des trois associations (auditeurs, DSI, architectes de systèmes d’information, consultants) réunis au sein d’ateliers thématiques couvrant la stratégie, l’architecture, les données, les risques, l’IA, la cybersécurité, la RSE ou encore la gestion de projets.
Cette montée en ambition s’accompagne d’une refonte thématique pour intégrer les enjeux devenus incontournables depuis la dernière édition : intelligence artificielle, RSE, cybersécurité renforcée, conformité réglementaire et agilité organisationnelle.
« Le travail mené en commun en 2022-2023, qui a permis de clarifier les évolutions de la gouvernance du numérique, nous a convaincus de la nécessité de mettre à jour l’édition 2019. En intégrant le référentiel de mesure de la maturité de la gouvernance développé par ISACA France, nous avons rapproché de manière cohérente l’exercice d’audit et l’évaluation de la maturité », explique Véronique Beaupère, conseil en stratégie et gouvernance des systèmes d’information et administratrice d’ISACA France, qui a codirigé les travaux.
13 vecteurs de gouvernance pour couvrir l’ensemble du numérique
Le modèle s’articule autour de 13 vecteurs clés : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication. Pour chacun, le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.
Le modèle se distingue par l’ajout d’un 13ème vecteur dédié à la RSE, ainsi que par l’intégration systématique de l’IA dans tous les vecteurs, en particulier celui des données.Pour chacun des 13 vecteurs clés le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.
L’outil intègre une grille de maturité assortie d’une restitution visuelle sous forme de radar, permettant de prioriser les actions, de mesurer les progrès dans le temps et de comparer différentes entités (entreprises, filiales, business units). Le fichier Excel associé permet de noter le niveau de respect des exigences, de calculer automatiquement la maturité par vecteur et de générer ce radar à destination du management.
Un langage commun entre DG, DSI, métiers et auditeurs
L’un des objectifs affichés du MAGNum est de réconcilier des populations qui, souvent, ne parlent pas le même langage. En proposant un vocabulaire partagé entre les décideurs (DG, DSI, directions métiers), les auditeurs et les opérationnels, le modèle entend aligner gouvernance du numérique et stratégie d’entreprise.
Pour Djilali Kies, pilote du projet pour le Cigref, « nos trois associations, chacune par leurs travaux parallèles, ont acquis la conviction que la maîtrise de la gouvernance du numérique n’est aujourd’hui plus négociable pour les entreprises, c’est devenu un impératif. Nous avons donc décidé de regrouper nos efforts, avec pour objectif d’aller au-delà du guide d’audit et de produire cette fois plutôt un manuel de maturité, un référentiel de bonnes pratiques, un outil qui intègre déjà toutes les évolutions que l’on connaît à date du monde du numérique. »
Du côté des auditeurs internes, Guillaume Cuisset, associé KPMG et membre du Groupe Professionnel « Systèmes d’Information » de l‘IFACI, souligne l’apport concret pour leur pratique : « Maîtriser les questions de gouvernance du numérique est devenu un enjeu très important pour une direction d’audit interne. Ce nouveau modèle de maturité permet à l’auditeur interne de mieux comprendre le fonctionnement de la DSI, d’identifier les causes profondes des dysfonctionnements et de formuler des recommandations plus ciblées. C’est un outil qui va lui permettre de discuter, selon un même champ lexical, avec son DSI, son directeur du numérique, tout en s’appuyant sur un référentiel de bonnes pratiques qui est partagé par les deux métiers, puisqu’il aura été construit collégialement entre nos trois associations. »
Un outil conçu pour les équipes terrain
Le MAGNum repose sur trois principes fondateurs : le pragmatisme (les critères sont issus des retours de terrain des contributeurs), la lisibilité (un vocabulaire accessible à l’IT, aux métiers et aux fonctions support) et la facilité d’usage (des outils simples, y compris pour les non-spécialistes).
In fine, le modèle se positionne à la fois comme un outil de pilotage de la transformation numérique, un support d’objectivation des priorités d’investissement, un référentiel commun de dialogue entre DG, métiers, DSI, conformité et audit, et un moyen d’auto-évaluation régulière de la gouvernance du numérique.
DeepIP, plateforme d’IA dédiée aux brevets, annonce ce 3 mars une levée de fonds de 25 millions $ en Série B, portant son financement total à 40 millions $.
Le tour est co-mené par Korelya Capital, fonds fondé par Fleur Pellerin, ancienne ministre française de l’Économie numérique, et Serena, fonds connu pour avoir accompagné Dataiku. Les investisseurs historiques Balderton (Revolut) et Headline (Mistral AI) participent également à l’opération.
Fondée en 2024 par François-Xavier Leduc et Edouard d’Archimbaud, les deux cofondateurs de Kili Technology, une scale-up spécialisée en IA pour les entreprises du Fortune 500, DeepIP opère depuis New York et Paris.
Le problème que DeepIP cherche à résoudre
Si l’IA a commencé à s’imposer dans la pratique des brevets, la plupart des outils disponibles restent cloisonnés : chaque solution adresse une tâche isolée, obligeant les professionnels à naviguer entre des systèmes déconnectés et à transporter manuellement le contexte d’une étape à l’autre. Dans un domaine où précision et traçabilité sont critiques, cette fragmentation génère des frictions.
« La première vague d’IA appliquée aux brevets s’est principalement concentrée sur l’accélération de tâches individuelles », explique François-Xavier Leduc, CEO de DeepIP. « Or, la pratique des brevets repose sur un travail cumulatif, qui s’inscrit dans la durée, mobilise plusieurs équipes et implique de nombreuses décisions. »
Une intégration dans les outils existants
La réponse de DeepIP consiste à intégrer l’IA directement dans les environnements où le travail brevets s’effectue déjà ; Microsoft Word en tête ainsi que les plateformes de gestion d’actifs de propriété intellectuelle. L’objectif est de ne pas contraindre les équipes à changer leurs outils ou leurs processus. La société indique que cette approche génère jusqu’à 20 % d’adoption supplémentaire et 40 % d’usage en plus par rapport aux outils d’IA autonomes.
La plateforme revendique aujourd’hui plus de 400 cabinets et équipes IP (Propriété Intellectuelle) clients dans 25 juridictions et sur 5 continents, parmi lesquels Greenberg Traurig, Philips, Dexcom et Mewburn Ellis. Au total, plus de 40 000 dossiers auraient été traités via la plateforme.
Ce financement doit notamment permettre d’accélérer le développement de capacités d’IA agentique afin d’aider les équipes à absorber des volumes croissants sans alourdir leur charge opérationnelle.
Pour Olivier Martret, Partner chez Serena, l’enjeu est aussi structurel : « Le marché mondial de l’IA appliquée aux brevets reste très fragmenté. Un positionnement plateforme est essentiel pour établir un nouveau standard. »
Il y a des refus qui coûtent cher. Et d’autres qui rapportent gros. Anthropic vient de vivre la seconde expérience…sur le terrain de la popularité.
En renonçant à un contrat avec le Département de la Défense américain, que son rival OpenAI a accepté dans la foulée, la scale-up dirigée par Dario Amodeï s’est retrouvée propulsée au sommet de l’App Store américain, dépassant ChatGPT pour la première fois de son histoire.
Tout commence début 2026, lorsque le Pentagone cherche à déployer des modèles d’intelligence artificielle sur ses réseaux classifiés. Anthropic est dans la course jusqu’au moment où l’entreprise comprend que l’accord implique de lever certaines de ses « lignes rouges ». Pas question pour Dario Amodei et son équipe d’autoriser la surveillance domestique de citoyens américains ni de cautionner le développement d’armes autonomes létales. Anthropic claque la porte. OpenAI, elle, entre.
Une négociation « bâclée » selon Sam Altman
La décision d’OpenAI provoque une réaction en chaîne que personne n’avait vraiment anticipée. À San Francisco comme à Londres, des manifestants s’installent devant les bureaux de la firme de Sam Altman.
Mais le coup le plus inattendu vient de l’intérieur : près de 500 employés d’OpenAI et de Google cosignent une lettre ouverte, intitulée » Nous ne serons pas divisés », exprimant leur soutien aux positions d’Anthropic. Face à la tempête, le PDG d’OpenAI est contraint à une rare autocritique publique, admettant avoir « bâclé » la négociation, et promettant des amendements contractuels en urgence.
Ces amendements, obtenus sous pression, comportent désormais des interdictions explicites : les systèmes d’IA « ne doivent pas être utilisés intentionnellement pour la surveillance domestique » de ressortissants américains.
Les agences de renseignement comme la NSA se voient en outre privées d’accès sans modification contractuelle préalable, une garantie que le Pentagone lui-même a confirmée publiquement. Trop tard, aux yeux de nombreux observateurs.
OpenAI vs Anthropic : une opposition de principes
La progression est spectaculaire. Claude est devenue l’application d’IA gratuite la plus téléchargée sur l’App Store américain, reléguant ChatGPT à la deuxième position et Gemini au-delà. Sur Android, l’application grimpe jusqu’à la septième place générale. Les records quotidiens d’inscriptions s’enchaînent. Et les abonnés payants ont doublé en l’espace d’un an.
Le mouvement dépasse la simple satisfaction d’utilisateurs éclairés. Le groupe QuitGPT appelle activement au boycott de ChatGPT sur les réseaux sociaux, encourageant la désinstallation de l’application. Lors du dernier Super Bowl, Anthropic a diffusé une publicité de 60 secondes vivement commentée, dénonçant avec ironie l’intégration croissante de contenus sponsorisés dans ChatGPT.
OpenAI sous pression
Chez OpenAI, on renégocie désormais sous la contrainte. Les amendements annoncés par Sam Altman ressemblent moins à une position de principe qu’à une gestion de crise. Cela n’empêchera pas la question de fond de revenir : jusqu’où les géants de l’IA civile peuvent-ils s’engager dans des applications militaires sans perdre la confiance du grand public ?
La controverse ouvre également un débat plus large sur la régulation des IA militaires. Les craintes d’armes autonomes létales et de systèmes de « crédit social » inspirés du modèle chinois alimentent un mouvement international qui dépasse la simple querelle de chapelle entre deux poids lourds de l’IA. L’Europe, déjà engagée dans la rédaction de son AI Act, observe attentivement.
Pour Anthropic, le défi est désormais de transformer ce momentum en avantage durable. La scale-up reste à perte, dans une course à l’infrastructure qui exige des milliards de dollars d’investissement. Mais elle a prouvé une chose que peu de ses concurrents auraient osé parier : dans l’économie de l’attention de 2026, les principes peuvent rapporter.
Cohesity renforce son dispositif français. L’éditeur américain, qui se positionne comme leader de la sécurisation des données par l’IA, annonce la nomination de Mathias Michiels au poste de Country Manager France. Basé à Paris, il prend la tête des équipes commerciales locales avec pour ambition d’accélérer la croissance de Cohesity sur ce marché qu’elle considère comme stratégique.
Un parcours forgé dans les grandes ligues du logiciel
Mathias Michiels arrive avec plus de 15 ans d’expérience dans l’industrie du logiciel. Il a débuté dans la gestion de comptes chez Oracle et SAS Institute, avant de consacrer plus d’une décennie à VMware. Là, il a gravi les échelons jusqu’au poste de Senior Sales Director pour les solutions Tanzu sur la région SEMEA, à la tête d’une équipe transverse de 80 personnes. Un passage qui lui a permis de se forger une expertise reconnue sur les problématiques de cloud hybride, de modernisation applicative et d’espaces de travail numériques.
Cyber-résilience, le mot d’ordre
Sa mission chez Cohesity dépasse le simple pilotage commercial. Mathias Michiels devra imposer un changement de perception sur le marché : faire de Cohesity non pas une solution de protection des données parmi d’autres, mais un partenaire à part entière de la cyber-résilience des organisations capables, selon la promesse de l’entreprise, de survivre aux cyberattaques et d’en ressortir « plus fortes, plus intelligentes et plus fiables ».
Le contexte joue en sa faveur. « Nous sommes à un moment aussi critique pour les entreprises et organisations françaises face à l’accélération des cybermenaces », reconnaît lui-même le nouveau Country Manager. Pour Matthieu Gross, directeur des ventes pour l’Europe du Sud chez Cohesity, « son arrivée marque une étape clé pour notre croissance et notre succès continus dans la région ».
En apparence, l’iPhone 17e ressemble à une bonne affaire. 599 $ pour un smartphone doté de la puce A19, de 256 gigaoctets de stockage et d’un écran OLED de 6,1 pouces ; soit exactement les performances de l’iPhone 17 standard, pour une centaine d’euros de moins. Génereux, Apple ? Pas vraiment. Stratège, assurément.
Car derrière ce tarif soigneusement calibré sous la barre psychologique des 600 $ se cache une mécanique bien rodée : celle d’un écosystème conçu pour capter, retenir et monétiser ses utilisateurs sur le long terme.
Le hardware comme appât
Apple ne sacrifie pas ses marges par philanthropie. L’iPhone 17e fait certes quelques concessions, comme le taux de rafraîchissement revu à la baisse et le module photo simplifié, mais il embarque les technologies maison qui font la différence : modem 5G interne, puce A19 compatible avec Apple Intelligence. Autrement dit, un appareil pleinement fonctionnel pour les usages d’aujourd’hui et de demain, vendu à un prix qui ferme la porte aux offres Android agressives entre 400 et 600 $.
Le doublement du stockage de base, passé de 128 à 256 Go à prix constant, est à cet égard révélateur. Il ne s’agit pas d’une largesse mais d’un calcul : plus de stockage, c’est plus de photos, de vidéos, d’apps, et donc un utilisateur plus engagé, moins enclin à migrer vers la concurrence.
Le vrai business model : les services
Pour comprendre la logique de ce lancement, il faut regarder au-delà du chiffre de vente unitaire. Apple perçoit aujourd’hui une part croissante de ses revenus via ses services : App Store, iCloud+, Apple Music, TV+, Arcade…
L’ARPU, le revenu moyen par utilisateur, y est structurellement supérieur à celui de ses rivaux, grâce à un écosystème verrouillé que les analystes qualifient volontiers de « jardin fermé ».
Chaque nouvel iPhone vendu, même à prix réduit, est une porte d’entrée dans cet univers. Un utilisateur converti à l’iPhone 17e aujourd’hui est un abonné iCloud potentiel demain, un client Apple TV+ après-demain. Sur cinq ans, la valeur vie client d’un acheteur de 17e dépasse largement celle que génère la marge hardware initiale.
Ne pas cannibaliser, mais élargir
Ce qui distingue l’iPhone 17e d’une simple entrée de gamme, c’est sa capacité à élargir le marché sans rogner sur les segments premium. Les iPhone 17 Pro et Pro Max, facturés jusqu’à 1 199 $, continuent d’adresser les consommateurs les moins sensibles au prix. Le 17e, lui, va chercher ceux qui hésitaient encore, les utilisateurs Android en renouvellement, les marchés émergents à pouvoir d’achat limité.
Apple réussit ainsi l’équilibre délicat qu’échouent souvent à tenir ses concurrents : un portefeuille cohérent, sans guerre interne des gammes.
Préparer l’après-smartphone
Il y a enfin une dimension prospective dans ce lancement. Équipé de l’A19 et de 256 Go, le 17e assure une compatibilité optimale avec les usages IA intensifs, la réalité augmentée et les futurs services data-lourds comme les lunettes AR, les interfaces connectées et véhicules autonomes qu’Apple prépare en coulisses. Massifier l’accès à ces technologies en amont, c’est s’assurer une base installée prête à adopter les prochains produits de l’écosystème.
L’iPhone 17e n’est donc pas un aveu de faiblesse d’Apple face à un marché saturé. C’est un investissement à long terme, déguisé en promotion. Tim Cook n’a pas bradé un iPhone. Il a planté un drapeau.
OpenAI a officialisé un accord avec le Pentagone pour déployer ses modèles d’IA dans des environnements classifiés, en le présentant comme le partenariat “le plus encadré » à ce jour pour des usages militaires de l’IA.
Les grandes lignes de l’accord
OpenAI explique l’avoir conclu en demandant que des conditions similaires soient proposées à l’ensemble des laboratoires d’IA et affirme que cet accord comporte « plus de garde-fous que tout accord précédent pour des déploiements d’IA classifiés, y compris celui d’Anthropic ».
Le cadre prévoit un usage de ses modèles par le Department of War (DoW, terminologie utilisée par OpenAI) pour « toutes finalités légales », mais accompagné de restrictions contractuelles et techniques qualifiées de “red lines».
Trois “lignes rouges” affichées
OpenAI met en avant trois interdictions explicites qui doivent structurer l’usage de ses technologies par le Pentagone.
Pas d’utilisation de la technologie OpenAI pour la surveillance de masse domestique.
Pas d’utilisation pour diriger des systèmes d’armes autonomes.
Pas d’utilisation pour des décisions automatisées à forts enjeux, comme des systèmes de type “crédit social”.
Selon l’inventeur de ChatGPT, d’autres laboratoires auraient « réduit ou supprimé leurs garde-fous « et misé principalement sur des politiques d’usage, alors que la société revendique un dispositif plus « multi-couches », combinant architecture de déploiement, pile de sûreté (“safety stack”), implication d’experts et clauses contractuelles.
Un déploiement cloud et une “safety stack” contrôlée par OpenAI
L’accord repose sur un déploiement «cloud-only », opéré par OpenAI, sans fourniture de modèles « sans garde-fous » ni de versions non entraînées pour la sûreté. L’entreprise souligne qu’aucun modèle n’est déployé sur des « edge devices”, ce qui, selon elle, limite la possibilité d’un emploi direct dans des armes létales autonomes. Elle indique que cette architecture lui permettra de vérifier de manière indépendante que les lignes rouges ne sont pas franchies, notamment via des classifieurs mis à jour dans le temps.
Le langage contractuel mis en avant
OpenAI publie un extrait clé du contrat pour illustrer la manière dont les garde-fous sont juridiquement encadrés.
Le DoW “peut utiliser le système d’IA pour toutes fins légales”, conformément au droit applicable, aux exigences opérationnelles et aux protocoles de sûreté et de supervision.
Le système “ne sera pas utilisé pour diriger de manière indépendante des armes autonomes” dans les cas où la loi ou la politique du département exigent un contrôle humain, ni pour assumer d’autres décisions à forts enjeux qui nécessitent l’approbation d’un décideur humain sous les mêmes autorités.
Pour les activités de renseignement, tout traitement d’informations privées doit respecter le Quatrième Amendement, le National Security Act de 1947, le FISA, l’Executive Order 12333 et les directives du DoD imposant un objectif de renseignement étranger défini.
Le système « ne doit pas être utilisé pour une surveillance non contrainte des informations privées de personnes américaines »et ne peut servir à des activités de maintien de l’ordre intérieur que dans les limites du Posse Comitatus Act et des lois applicables.
OpenAI insiste aussi sur le fait que le contrat référence explicitement les lois et politiques
« telles qu’elles existent aujourd’hui », de manière à empêcher que d’éventuelles évolutions réglementaires futures ne puissent automatiquement élargir les usages de son IA au-delà du cadre actuel.
Des ingénieurs et chercheurs OpenAI “dans la boucle”
L’accord prévoit la présence d’ingénieurs “forward-deployed” d’OpenAI, dûment habilités secret-défense, ainsi que de chercheurs sûreté/alignement eux aussi “dans la boucle”. Leur rôle annoncé est d’aider le gouvernement à intégrer les modèles, de surveiller les usages et de faire évoluer la “safety stack” au fil du temps. OpenAI affirme garder un “contrôle total” sur cette pile de sûreté et répète qu’elle refuse de déployer des modèles sans garde-fous techniques, y compris pour des missions de sécurité nationale.
Motivations stratégiques affichées par OpenAI
OpenAI avance deux principaux arguments pour justifier cet engagement avec le Pentagone.
D’une part, l’entreprise estime que l’armée américaine « a absolument besoin de modèles d’IA puissants » pour faire face à des adversaires qui intègrent déjà l’IA dans leurs systèmes. La société explique qu’elle n’avait pas, jusqu’ici, jugé ses propres garde-fous et systèmes assez mûrs pour un déploiement classifié, et qu’elle a travaillé à les renforcer.
D’autre part, OpenAI dit vouloir “désescalader” les tensions entre le Department of War et les laboratoires d’IA américains, en demandant notamment que les mêmes termes soient proposés à tous et que le gouvernement tente de “résoudre les choses avec Anthropic”.
Interrogée implicitement sur la désignation d’Anthropic comme « supply chain risk » par les autorités américaines, OpenAI répond qu’elle ne soutient pas cette décision et qu’elle a clairement exprimé cette position au gouvernement.
OpenAI, Anthropic et la question des garde-fous
Dans sa FAQ, OpenAI se positionne par rapport aux arguments d’Anthropic, qui avait détaillé ses propres « red lines » et ses réserves quant à la capacité du Pentagone à les respecter dans les contrats envisagés. OpenAI rappelle partager deux de ces lignes rouges (surveillance de masse domestique, armes pleinement autonomes) et y ajouter une troisième concernant les décisions automatisées à forts enjeux.
L’entreprise explique pourquoi elle juge ces lignes plus exécutoires dans son propre contrat :
la surveillance domestique de masse serait explicitement exclue du champ de l’usage légal » dans le texte contractuel,
l’architecture cloud décrite ne permettrait pas, selon elle, d’alimenter directement des armes entièrement autonomes faute de déploiement en périphérie.
OpenAI affirme aussi que son accord « offre plus de garde-fous que les accords précédents, y compris le contrat original d’Anthropic », en combinant contrainte contractuelle, limites techniques et supervision humaine.
Que se passe-t-il en cas de dérive de l’État ?
Sur un terrain plus politique, OpenAI tente de répondre aux inquiétudes récurrentes concernant l’évolution possible du cadre légal ou des pratiques de surveillance.
En cas de violation des termes par l’État, OpenAI indique qu’elle pourrait, comme pour tout contrat, le résilier, même si elle ne « s’attend pas » à ce scénario.
Si le gouvernement modifie ultérieurement les lois ou politiques de défense, l’entreprise souligne que le contrat renvoie explicitement aux normes actuelles, ce qui, selon elle, limite la portée de futurs assouplissements législatifs.
Sur les deux points les plus sensibles, OpenAI assure que l’accord “ne permettra pas” l’usage de ses modèles pour des armes autonomes ni pour de la surveillance de masse de citoyens américains, en invoquant à la fois la safety stack, l’architecture cloud, le langage contractuel et la présence de personnel OpenAI dans la boucle.
C’est un chiffre qui donne, une nouvelle fois, le vertige. OpenAI a finalisé un tour de table de 110 milliards $, propulsant sa valorisation à 730 milliards, et même 840 milliards post-money. De quoi faire de l’inventeur de ChatGPT, l’une des entreprises les mieux valorisées au monde, avant même une éventuelle introduction en bourse.
Amazon en tête, suivi de SoftBank et Nvidia
Le clou de l’opération, c’est Amazon qui injecte 50 milliards $ dans le tour, soit de loin son plus grand chèque jamais signé pour une seule entreprise. SoftBank et Nvidia complètent le podium avec 30 milliards chacun.
Mais au-delà des chiffres bruts, c’est la nature stratégique de l’accord avec Amazon qui retient l’attention. OpenAI s’engage à utiliser les puces maison d’AWS, les Trainium, et à développer conjointement des modèles sur mesure pour les équipes d’ingénierie d’Amazon. Cerise sur le gâteau : OpenAI promet de dépenser 100 milliards $ supplémentaires sur AWS au cours des huit prochaines années, un engagement colossal qui vient s’ajouter à un précédent accord de 38 milliards signé en novembre dernier.
Microsoft n’est pas écarté
La montée en puissance d’Amazon dans l’orbite d’OpenAI soulève une question naturelle : qu’en est-il de Microsoft, jusqu’ici partenaire historique en matière d’infrastructure ? Les deux entreprises ont tenu à rassurer le marché dans un communiqué commun : « Rien dans les annonces d’aujourd’hui ne modifie en quoi que ce soit les termes de la relation entre Microsoft et OpenAI. » Un message de stabilité qui sonnait presque comme une mise au point.
La guerre des valorisations fait rage
Cette levée intervient dans un contexte de surenchère généralisée entre OpenAI et son grand rival Anthropic qui a levé 30 milliards $ ce mois-ci, auprès d’investisseurs comprenant Nvidia et Microsoft, pour une valorisation de 380 milliards $.
Les deux concurrents ont désormais en commun un même réseau d’investisseurs, un même besoin frénétique de GPUs et de datacenters, et une même logique de financements croisés qui interroge les analystes.
Ces « circular deals », où les fournisseurs de cloud et de semi-conducteurs investissent dans les startups d’IA qui s’engagent en retour à consommer leurs services, sont perçus comme un moyen efficace de sécuriser une infrastructure rare. Mais ils amplifient aussi les risques : si la demande pour l’IA ne justifie pas les valorisations actuelles, les pertes pourraient se propager en cascade.
{ Mise à jour } – Dario Amodei n’aura pas attendu la date limite de l’ultimatum, ce 27 février, fixé par Pete Hegseth, secrétaire à la Défense.
Dans un long communiqué, le PDG d’Anthropic a donné sa réponse dès hier après-midi ( à l’heure californienne) : c’est Non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit Dario Amodei.
Et de poursuivre : « Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit-il, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».
Pour clarifier son refus, Mario Amodei rappelle sa doctrine sur l’IA militaire: « Nous soutenons l’utilisation de l’IA pour des missions légitimes de renseignement et de contre-espionnage à l’étranger. Mais l’utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques », écrit-il en estimant que cette pratique « représente un risque grave et inédit pour nos libertés fondamentales ».
Autre sujet de désaccord : les armes autonomes. Le PDG précise « Sans un contrôle adéquat, on ne peut compter sur des armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement qualifiées. Leur déploiement doit être encadré par des garde-fous appropriés, qui n’existent pas actuellement ». Et d’ajouter qu’aucun de ces sujets n’avaient « constitué, jusqu’à présent, un obstacle à l’accélération de l’adoption et de l’utilisation de nos modèles au sein de nos forces armées ».
Il relève aussi que « Ces deux menaces sont incohérentes : l’une nous qualifie de risque pour la sécurité, la seconde fait de Claude un élément essentiel pour la sécurité nationale. »
Le refus d’obtempérer aux menaces de Pete Hegseth d’une désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » étant désormais acté, le Ministère de la Guerre va-t-il mettre sa menace à exécution ? .
——————————————————————-
La bataille sans précédent qui se joue en ce moment entre le Pentagone et Anthropic prend une nouvelle tournure. Selon des informations exclusives d’Axios, le département de la Défense a contacté ce mercredi deux géants de l’industrie de défense – Boeing et Lockheed Martin – pour évaluer leur dépendance au modèle d’IA Claude. Une première étape vers une éventuelle désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».
Cette sanction, habituellement réservée aux entreprises issues de pays adversaires, comme le chinois Huawei, n’a jamais été appliquée à une firme technologique américaine de premier plan. L’appliquer à Anthropic constituerait un précédent historique.
Claude au cœur des systèmes classifiés
L’enjeu est considérable. Claude est aujourd’hui le seul modèle d’IA opérant dans les systèmes classifiés de l’armée américaine. Selon Axios, il aurait été mobilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, via le partenariat d’Anthropic avec Palantir, et pourrait à terme être engagé dans d’éventuelles opérations militaires en Iran.
Si le Pentagone salue les performances de Claude, il est en revanche « furieux » qu’Anthropic refuse de lever ses garde-fous pour autoriser une utilisation aux fins de « toutes missions légales ». La startup tient notamment à bloquer le recours à son IA pour la surveillance de masse des citoyens américains ou pour le développement d’armements autonomes, c’est-à-dire capables de tirer sans intervention humaine.
Un ultimatum fixé au 27 février
La tension a culminé le 24 février lors d’une réunion particulièrement tendue. Le secrétaire à la Défense Pete Hegseth aurait fixé un ultimatum au PDG d’Anthropic, Dario Amodei : se plier aux exigences du Pentagone d’ici le 27 février. Faute de quoi, l’administration aurait recours soit au Defense Production Act, une loi permettant de contraindre des entreprises privées à servir les intérêts nationaux, soit à la désignation de « risque pour la chaîne d’approvisionnement ».
« Ce sera une vraie galère à démêler, et nous allons faire en sorte qu’ils paient le prix de nous avoir forcé la main », a déclaré à Axios un haut responsable de la Défense, évoquant cette possible désignation.
Du côté d’Anthropic, on préfère minimiser les tensions. Un porte-parole a décrit la réunion comme « une continuation de conversations de bonne foi sur notre politique d’utilisation, afin de garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement dans le cadre de ce que nos modèles peuvent faire de manière fiable et responsable ». Aucun commentaire n’a été formulé sur la possible désignation de risque.
La concurrence s’engouffre dans la brèche
Pendant ce temps, les concurrents se positionnent. xAI, la société d’IA d’Elon Musk, vient de signer un accord pour intégrer les systèmes classifiés de l’armée, sous la clause d’« usage légal complet » qu’Anthropic a précisément refusée. Google et OpenAI, dont les modèles sont déjà présents dans les systèmes non classifiés, seraient en négociations pour franchir le même pas. Selon une source citée par Axios, le Gemini de Google représente déjà « une solide alternative » à Claude dans plusieurs cas d’usage militaires.
Une désignation de risque serait un coup sévère pour Anthropic si elle conduisait les entreprises partenaires de l’État à retirer Claude de leurs infrastructures. Mais la scale-up pourrait aussi y trouver un bénéfice inattendu : être perçue, aux yeux de ses clients et de ses talents, comme l’entreprise qui a tenu bon face aux pressions d’une course aux armements dans l’IA. La date limite approche.