Le Groupe Berger-Levrault, éditeur français de logiciels de gestion destinés aux collectivités territoriales, au secteur sanitaire et médico-social, à la GMAO et à l’éducation, annonce la nomination d’Hervé Solus au poste de directeur général. Il prend ses fonctions le 9 mars 2026.
Hervé Solus a cofondé DigitalRecruiters à l’âge de 19 ans, qu’il a dirigé jusqu’à sa cession au groupe Cegid fin 2022. Il a ensuite rejoint le comité exécutif de Cegid, où il a participé à la transformation et à la croissance du groupe.
À la tête de Berger-Levrault, il entend accélérer l’intégration de l’intelligence artificielle dans les solutions de l’entreprise. «Notre cap est clair et ambitieux : doubler le chiffre d’affaires et faire de Berger-Levrault un acteur « AI First » d’ici 2030. Une transformation que nous mènerons en nous appuyant sur nos plus grandes forces : notre connaissance métier, notre créativité et notre engagement collectif.», déclare-t-il.
Selon ses dépositions, Berger-Levrault a réalisé un chiffre d’affaires de 148 millions € de chiffre d’affaires en 2024 pour un résultat net de 11,4 millions.
Ce 10 mars, Anthropic a saisi la justice pour bloquer le Pentagone. L’entreprise refuse en effet de supprimer les garde-fous de son IA contre les armes autonomes et la surveillance intérieure. Or le secrétaire à la Défense Pete Hegseth avait notifié officiellement cette désignation le 3 mars, après des mois de négociations tendues.
Devant le tribunal fédéral de Californie, Anthropic dénonce des actions « sans précédent et illégales ». Elle invoque aussi une violation de ses droits constitutionnels à la liberté d’expression et au droit à une procédure régulière, selon Reuters. En parallèle, une seconde plainte cible une désignation au titre de risque dans la chaîne d’approvisionnement civile, devant la Cour d’appel du District de Columbia.
Des milliards de dollars en jeu
Les dirigeants d’Anthropic dressent un tableau financier alarmant dans leurs dépositions. Krishna Rao, directeur financier, estime que le gouvernement pourrait réduire le chiffre d’affaires 2026 « de plusieurs milliards de dollars ». Il ajoute que l’impact serait « presque impossible à inverser » si ces actions se maintenaient.
La dépendance au seul Département de la Défense met déjà en péril plusieurs centaines de millions de dollars de revenus 2026. Par ailleurs, les sous-traitants de la défense pourraient réduire leur engagement de 50 % à 100 %. Enfin, l’entreprise anticipe une perte de confiance des investisseurs, ce qui alourdirait ses coûts de financement.
Le secteur public : un pilier menacé
Thiyagu Ramasamy, directeur du secteur public, confirme des dommages « immédiats et irréparables ». Il chiffre la perte directe à plus de 150 millions $ de revenus récurrents annuels. Ce montant concerne les contrats existants et attendus avec le Département de la Défense.
La croissance dans ce segment était pourtant spectaculaire. Entre décembre 2025 et janvier 2026, le taux annualisé des revenus récurrents du secteur public avait quadruplé. De plus, les projections tablaient sur plusieurs milliards de dollars sur cinq ans. Ainsi, si les contractants de défense rompaient leurs liens, les revenus attendus pour 2026 — plus d’un demi-milliard de dollars — pourraient « disparaître entièrement ».
Des clients privés également touchés
Paul Smith, directeur commercial, détaille lui aussi les dommages sur le marché privé. Un partenaire a ainsi abandonné Claude au profit d’un concurrent pour un déploiement de la Food and Drug Administration (FDA). Ce changement efface un pipeline de revenus anticipés de plus de 100 millions $.
D’autres contrats souffrent également. Des négociations avec des institutions financières représentant 180 millions $ combinés ont été perturbées. Un contrat de 15 millions $ est en pause. En outre, un client fintech a réduit son engagement de 10 à 5 millions $, citant directement la « situation » avec le Pentagone.
Plus de 100 clients entreprises ont ensuite contacté Anthropic. Ils expriment « une profonde inquiétude, de la confusion et du doute » sur les risques liés à leur association avec la société.
Du côté d’AWS, on aide désormais les clients à migrer leurs charges de travail liées au Département de la Guerre vers d’autres modèles. Toutefois, AWS précise que Claude reste disponible pour toutes les charges de travail sans lien avec le Pentagone.
Un bras de fer aux répercussions sectorielles
Ce conflit dépasse le seul cas d’Anthropic. Il soulève des enjeux fondamentaux pour toute le secteur de l’IA. Ainsi, 37 chercheurs et ingénieurs d’OpenAI et de Google, dont Jeff Dean, directeur scientifique de Google, ont déposé un mémoire d’amicus curiae en soutien à Anthropic. Selon eux, cette affaire pourrait décourager les experts de l’IA de débattre ouvertement des risques et bénéfices de leurs technologies.
L’ouverture de Google Workspace aux agents IA passe par la ligne de commande.
On a pu s’en convaincre ces derniers temps avec l’émergence de divers projets. Par exemple, gogcli et workspace-cli. Tous deux sont nés fin 2025. Ils donnent accès à l’essentiel des API de la suite, avec une conception pensée pour ces agents.
Leur avenir apparaît incertain désormais que Google a son propre outil : gws. En l’état, il n’en assure pas officiellement le support. Mais le code a été versé dans l’organisation GitHub dédiée à Google Workspace
Écrit en Rust comme workspace-cli, gws adapte lui aussi le format d’entrée aux agents IA, en privilégiant le JSON brut. Il fait de même avec les réponses API ; en intégrant notamment, pour limiter la consommation de tokens, de la pagination et des masques de champs.
L’ingénieur qui en est à l’origine insiste sur l’approche spécifique retenue pour la documentation API. Plutôt que de demander à un modèle de la rechercher en ligne ou de l’intégrer dans son prompt système, on lui présente, à la demande, des schémas JSON. Le document de découverte des API Google Workspace – sorte de catalogue dynamique qui décrit la surface des API et la manière de les utiliser – sert de source de vérité.
Une hiérarchie de skills… et une jonction avec OpenClaw
À l’instar de workspace-cli, gws permet le dry run (validation des requêtes en local) et le contrôle des réponses de l’API via Model Armor (service hébergé sur Google Cloud).
Un autre point commun fut la disponibilité d’un serveur MCP, mais cette option a fini par disparaître sur gws. Comme le multicompte (les agents pouvaient basculer en fonction du contexte).
Les instructions pour OpenClaw intégrées au README sont quant à elles restées. Le système de skills aussi. Il y en a une grosse centaine, déclinées sur quatre niveaux d’abstraction :
Services (le socle productivité de Google Workspace, mais aussi la gestion des identités, des licences, des groupes et des alertes, entre autres)
Et soudain, à l’été 2025, le shadow AI devint tendance sur Google.
À l’échelle mondiale, le volume de recherches a subitement crû, atteignant un pic vers la mi-août.
La France a suivi le mouvement avec quelques semaines de décalage. Sur place la popularité du mot-clé est parvenue à son plus haut début 2026.
L’emballement avait démarré fin octobre, début novembre. ChatGPT allait avoir 3 ans (OpenAI l’a lancé le 30 novembre 2022). Un autre anniversaire approchait : celui de MCP, qu’Anthropic avait publié le 25 novembre 2024.
De l’un à l’autre, 2 ans, donc. Mais aussi un constat : le shadow AI n’a plus tout à fait le même visage. De l’usage clandestin de SaaS par des employés isolés, la notion en est venue à couvrir un éventail de workflows non maîtrisés, plus ou moins imbriqués. Et à s’affirmer comme un sous-ensemble bien spécifique du shadow IT, à l’aune du potentiel transversal des modèles d’IA à usage général.
Samsung et ChatGPT, un souvenir bien ancré
Les interfaces de chat en ligne furent pendant un temps le principal canal d’interaction avec ces modèles, qui tenaient le haut de l’affiche. Les SLM étaient alors peu présents dans le discours d’OpenAI et Cie, Mistral AI n’avait pas encore émergé et l’idée d’un « ChatGPT français » faisait son chemin, même si d’aucuns considéraient déjà qu’elle relevait du « vœu pieux ».
Sur ces interfaces, accessibles le plus souvent avec une simple adresse électronique, le risque le plus visible – et le plus immédiat – fut l’exfiltration de données au sein des prompts.
Le business model de ChatGPT public, c’est d’absorber les données qu’on lui transmet », rappelle Guillaume Durand, Chief Data Officer de LCL. L’intéressé n’a pas oublié ce qui est arrivé à Samsung : « Un salarié avaitmis toute la stratégie [de l’entreprise] » dans ChatGPT, qui l’avait ensuite régurgitée, résume-t-il.
Michael Lévy, directeur stratégie et innovation chez Orange Business, se souvient aussi du cas de Samsung, « qui avait retrouvé une partie de son code » dans ChatGPT.
Dans les faits, il y avait à la fois du code et des éléments de stratégie. Au moins 3 employés étaient impliqués. L’affaire remonte à 2023.
Face au shadow AI, savoir donner le change
Face à ce risque, une stratégie de défense prédominante fut le blocage d’URL au niveau du pare-feu. « La première chose qu’on a faite, c’est de bloquer ces outils », confirme Guillaume Durand. « Mais on sait que tout le monde a un téléphone… », tempère-t-il.
Sans parade technique absolue à l’usage de ChatGPT sur les appareils personnels, la réponse doit passer par de la sensibilisation. D’après Mick Lévy, on retrouve là « les mêmes débats qu’aux grandes heures du RGPD ». Mais pour lui comme pour Guillaume Durand, la démarche ne peut tenir sans fournir aux employés des outils alternatifs aussi efficaces.
Y parvenir nécessite de s’approprier le shadow AI. De « faire émerger [les usages], de les comprendre et des les orienter, déclare Henri d’Agrain. Et ainsi de reconstituer du collectif là ou l’IA générative, utilisée en solitaire, tend à le fragmenter », poursuit le délégué général du Cigref.
De la défiance… et du « bricolage »
L’association, qui fédère les DSI et responsables du numérique des grandes entreprises et administrations françaises, se réfère à un rapport que l’Inria a réalisé avec Datacraft. Un des sociologues de l’institut y assimile le shadow AI à un « bricolage pragmatique » porté tant par une recherche d’efficacité que de confort cognitif.
La variété des formes que ce bricolage peut prendre complique la détection des usages. Surtout que ceux-ci se développent rarement à visage découvert, en particulier par crainte d’être jugé ou de voir son expertise fragilisée. Ainsi le Cigref résume-t-il tout du moins les choses. Ce qui l’amène à prôner l’instauration d’un climat de confiance (« Tant que l’aveu de l’usage sera perçu comme une faute, le shadow AI prospérera ».)
En 2021, avant la vague GenAI, le Partenariat mondial sur l’IA avait pointé un autre aspect favorable au développement de pratiques hors des cadres de gouvernance. En l’occurrence, l’irritation liée à la suppression ou à la transformation de gestes professionnels emblématiques. Ainsi qu’à la création de nouvelles tâches peu valorisées. Il avait aussi alerté sur la réalité de systèmes d’IA parfois « utiles mais non utilisables » ou l’inverse.
Les effets secondaires d’une « transformation silencieuse »
La même année, l’Inria avait monté, avec le ministère du Travail, le LaborIA. Ce laboratoire d’étude des effets sociétaux de l’intelligence artificielle allait, en 2024, mettre en lumière le fait que les systèmes mis en place se rapportaient trop au travail prescrit ; pas assez au travail réel. Les salariés tendaient par là même à remettre en cause l’idée que l’IA enrichissait automatiquement leur valeur.
Nombre d’analyses y ont fait écho. Illustration du côté de la RAND Corporation. Ce think tank que finance le gouvernement américain a souligné le risque d’une mauvaise communication sur les objectifs à atteindre. Et de là, d’une optimisation de métriques inadaptées ou d’un ancrage inapproprié dans les processus métiers.
En parallèle, une étude émanant de l’université libre d’Amsterdam a révélé des effets secondaires de la « transformation silencieuse » qu’induit le shadow AI. Parmi eux, la diminution des échanges entre collègues. Et ainsi, un affaiblissement de la circulation des savoirs tacites et de l’apprentissage collectif. S’y ajoute la difficulté à mesurer la qualité des contenus générés, avec toutes les erreurs que cela peut engendrer. De surcroît, l’évaluation des contributions et de la montée en compétences devient plus complexe.
MCP, incarnation du champ des possibles
D’autres seuils ont été franchis à mesure que les logiciels se sont mis à embarquer de l’IA générative. Parfois en l’activant par défaut, sans toujours en exposer le fonctionnement voire l’existence. Les principaux fournisseurs de modèles ayant ouvert des API publiques – plus lucratives que les abonnements mensuels -, les points d’intégration se sont multipliés. La surface d’attaque s’est par conséquent élargie… et surtout diversifiée. Des datasets privés aux couches d’orchestration, pour chaque modèle déployé, les entreprises introduisent deux ou trois composants supplémentaires, affirme Snyk. Des composants qui proviennent pour l’essentiel de packages externes sur lesquels le contrôle peut être limité.
En matière de ressources externes dont la gestion peut s’avérer délicate, MCP est un emblème. Quoique devenu standard de facto, le protocole est jeune. La communauté travaille, entre autres, sur un répertoire public de serveurs de confiance. Il est actuellement en preview. En attendant, la vigilance est de mise face aux tentatives d’usurpation des serveurs (typosquatting, confusion de dépendances…), une commande pouvant théoriquement suffire à en installer un.
L’usurpation peut également cibler les IA, en jouant sur le nom des outils qui leur sont présentés. Au rang des risques encourus, l’injection, jusqu’au niveau du prompt système, d’instructions poussant à effectuer des actions malveillantes. Ou l’empoisonnement de la mémoire des modèles.
D’autres portes s’ouvrent avec l’option qui permet d’exécuter un serveur MCP sur la même machine que le client. C’est sans compter les endpoints éventuellement dotés de trop de permissions. Un enjeu qui a pris de l’importance avec l’avènement des applications MCP interactives.
Des passerelles IA à l’AISPM, entre vent nouveau et appel d’air
MCP symbolise ce « champ des possibles » autour duquel quantité d’acteurs de la cyber sont venus se positionner. L’appel d’air est d’autant plus fort que des plug-in SaaS aux extensions de navigateur, une partie du shadow AI ne touche pas le réseau corporate. Pour les outils de sécurité qui agissent à ce niveau, c’est un potentiel angle mort. Ou au minimum une contrainte. Dans cette catégorie, on trouve du DLP. Mais aussi des firewalls, où le recours à l’inspection TLS est parfois possible, mais ajoute une surcharge.
Dans ce contexte, les proxys ont évolué en AI gateways, dans la lignée des passerelles API, avec la promesse d’une visibilité sur ce qui se passe dans les applications. Et donc une aptitude à filtrer les prompts, à détecter les injections, à masquer les données sensibles, etc.
Quelques-uns des principaux fournisseurs de sécurité réseau ont pris ce virage à renfort de croissance externe. Palo Alto Networks s’est emparé de Protect AI ; Cato Networks, d’Aim Security ; Proofpoint, d’Acuvity. Des acquisitions généralement venues consolider des offres SASE, sous la bannière AISPM (gestion continue de la posture de sécurité de l’IA). Une approche qui peut tout à fait venir renforcer un socle DSPM (data security posture management) ayant au préalable permis de cartographier les données.
Bataille pour la protection des navigateurs
Avec son navigateur d’entreprise, Seraphic s’était aussi positionné sur la protection contre les menaces liées à l’usage de l’IA. Il a fini chez Crowdstrike. Son produit le dispute à des intégrations natives (Defender for Cloud dans Edge, par exemple). Et à une myriade d’extensions (LayerX, MagicMirror, Push Security…) qui promettent pareillement un contrôle sur les flux IA échappant au réseau interne.
Les EDR ont aussi leurs extensions de navigateur. Mais leur apport à la protection contre le shadow AI se trouve plutôt dans l’analyse de l’exécution locale des LLM (runtimes, extensions IDE…).
Les solutions de gestion du SaaS (Corma, CloudEagle, Torii…) et de l’expérience employé numérique (Nextthink, ControlUp, Riverbed…) ont également investi le créneau. Les uns et les autres promettent avant tout d’aider à cartographier le shadow AI. Et à attribuer des responsabilités, une tâche que l’usage massif de données non structurées complique.
Le BYOK, levier parmi d’autres pour trouver le juste milieu
Au-delà de la mise en œuvre technologique, l’attribution des rôles et des responsabilités relève de la mesure organisationnelle. La formation des collaborateurs aussi. Stéphane Roder, président d’AI Builders, invite à y associer une certification : « Il faut un niveau minimum, sinon [ce sera du] temps passé à vérifier [par après] ».
Du temps, on peut également en passer sur le cadrage avec les fournisseurs, en contractualisant des garanties, notamment d’ordre juridique. Puis en balisant des chemins vers les produits couverts. Comme, dans le cas d’une API, en autorisant le BYOK (bring your own key).
Les contrats de travail sont un autre levier, par l’intermédiaire de clauses interdisant par exemple d’approuver des accords de licence ou des conditions d’utilisation non validés au préalable. En gardant à l’esprit qu’il s’agit d’éviter une trop grande frustration des utilisateurs. Chez AXA France, la quête du juste milieu a donné naissance au concept de « décentralisation gouvernée »…
C’est l’annonce que l’écosystème des éditeurs de modèles IA attendait depuis que Yann LeCun avait annoncé son départ de Meta et son intention de développer Advanced Machine Intelligence (AMI) Labs.
Restaient les questions en suspens : Avec qui ? Avec quels fonds ? Quand ?
L’ex directeur de Facebook AI Research (FAIR) a levé le voile ce 10 mars en annonçant une levée de fonds de 1,03 milliard $ (environ 890 millions €) en amorçage, pour une valorisation pré-money de 3,5 milliards $. Un record en Europe pour un tour d’amorçage, dépassé seulement par l’américaine Thinking Machines Lab, fondée par Mira Murati, ancienne directrice technique d’OpenAI., qui avait levé 2 milliards $ en juin 2025.
Une équipe de chercheurs issus de Meta
On connait aussi désormais l’équipe qui va développer le business d’AMI Labs : ils sont six co-fondateurs, tous anciens de Meta. Alexandre Lebrun, ancien CEO de la start-up de santé Nabla (rachetée par Meta en 2015 sous le nom Wit.ai), prend la tête d’AMI Labs en tant que directeur général, tandis que Yann LeCun en préside le conseil d’administration.
Laurent Solly, ex patron de Meta pour l’Europe, assure le rôle de directeur des opérations. A ses côtés, Pascale Fung est directrice de la recherche et de l’innovation, Saining Xie est directeur scientifique, et Michael Rabbat est responsable des « représentations du monde ».
AMI Labs compterait aujourd’hui une dizaine de salariés et vise 30 à 50 personnes d’ici six mois, répartis entre son siège social de Paris et ses bureaux de New York, Montréal et Singapour.
Les « world models » contre les LLM
Au cœur du projet d’AMI Labs : une rupture revendiquée avec les grands modèles de langage (LLM) comme ChatGPT, Claude ou Gemini. Pour Yann LeCun, ces systèmes entraînés principalement sur du texte ne pourront jamais atteindre le niveau de raisonnement d’un humain, ni même celui d’un enfant de 6 ans ou d’un chat. « L’architecture générative entraînée par l’apprentissage auto-supervisé imite l’intelligence ; Ils ne comprennent pas vraiment le monde », résume Alexandre Lebrun.
L’alternative que développe AMI Labs s’appelle « world models » (modèles du monde) : des architectures d’IA capables de se représenter l’environnement physique de manière abstraite et conceptuelle, de mémoriser des informations et de planifier des séquences d’actions complexes comme anticiper qu’un objet tombera s’il arrive au bord d’une table.
AMI Labs s’appuiera sur les travaux conduits par Yann LeCun chez Meta autour de l’architecture JEPA (Joint Embedding Predictive Architecture), entraînée sur des vidéos et des données spatiales plutôt que sur du texte.
Des ambitions industrielles et robotiques
AMI se positionne d’abord comme un projet de recherche fondamentale, mais avec des débouchés commerciaux clairement identifiés : fabricants, constructeurs automobiles, entreprises aérospatiales, acteurs du biomédical et de la pharmacie. « Nous voulons devenir le principal fournisseur de systèmes intelligents, quelle que soit l’application », a déclaré Yann LeCun à Reuters.
La robotique constitue l’une des applications prioritaires. « Pourquoi aujourd’hui, on a des systèmes qui passent l’examen du barreau, qui démontent des théorèmes, qui écrivent du code, mais on n’a toujours pas de robots domestiques ou de voitures qui se conduisent toutes seules ? » » insistait-il sur France Inter.
Il envisage également des usages grand public avec le déploiement de cette technologie dans ses lunettes connectées Ray-Ban Meta. « C’est probablement l’une des applications potentielles à court terme » a-t-il annoncé à Reuters.
AMI Labs va proposer ses modèles sous deux formes : un accès via API (modèle payant à la requête) et une version téléchargeable, potentiellement en open source. Un atout différenciateur, notamment pour recruter des profils de recherche de haut niveau.
Un tour de table mondial, un ancrage européen
Initialement ciblé à 500 millions $,la demande des investisseurs a largement dépassé les attentes. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le fonds de Jeff Bezos). Nvidia, habitué des investissements dans les start-up d’IA, figure également parmi les participants, aux côtés du fonds singapourien Temasek, de SBVA (SoftBank), de Toyota Ventures et de Samsung.
Côté européen et français, on retrouve Daphni, Bpifrance, le Groupe industriel Marcel Dassault, l’Association Familiale Mulliez, Aglaé Ventures (LVMH), Zebox Ventures (CMA CGM) et Xavier Niel, à titre personnel.
« Il y a des investisseurs très diversifiés avec un peu plus du tiers qui sont européens, une grande partie de Français, un peu moins du tiers viennent d’Asie et du Moyen-Orient, et à peu près un tiers sont américains. Quand une entreprise dépasse une valorisation d’un milliard, on appelle ça une licorne, nous, on dépasse les trois milliards, donc on est un tricératops » se rejouit Yann LeCunil.
Le premier partenaire stratégique d’AMI Labs sera Nabla, la start-up d’IA pour la santé cofondée par Alex Lebrun, qui gardera en parallèle un rôle de directeur scientifique dans cette société. Une façon de tester dès le départ les modèles du monde sur des données réelles dans un secteur à fort enjeu.
Le tournant est net. Depuis le 1er juillet 2024, la Direction de l’Information et des Systèmes Numériques (DISN) d‘Icade n’est plus cantonnée à un rôle de support. Désormais rattachée directement à la Direction Générale et représentée au Comex, elle est devenue un « levier de transformation du groupe », selon les termes d’Alexis de Nervaux, son nouveau Directeur des systèmes d’information et de la transformation digitale. L’objectif déclaré est de faire d’Icade le « pionnier de l’IA dans le secteur de l’immobilier ».
Deux vitesses pour l’IA
La feuille de route s’articule autour d’une distinction claire entre deux types d’usages. D’un côté, une « IA pour tous », à vocation bureautique, destinée à l’ensemble des collaborateurs pour simplifier leur quotidien. De l’autre, une « IA cœur de métier », orientée vers les activités spécifiques de foncière et de promotion immobilière.
L’approche revendiquée est résolument pragmatique. « Notre stratégie est basée sur des cas d’usage. Le point de départ est ce que l’on appelle des business opportunities », explique Alexis de Nervaux.
Delos : le choix de la souveraineté
Pour le volet bureautique, Icade a retenu Delos, une solution française hébergée en France. Un choix qui traduit une volonté assumée de « jouer la carte de la souveraineté ». La plateforme, déployée en mode SaaS, présente la particularité d’être multi-LLM : en fonction du prompt soumis, elle peut solliciter Mistral, ChatGPT ou d’autres modèles. « Cela permet d’offrir à nos utilisateurs finaux le meilleur des deux mondes », souligne le Directeur des systèmes d’information et de la transformation digitale.
Intégrée aux outils du quotidien – Teams et Outlook notamment – , la solution fonctionne comme un « copilote » capable de résumer des réunions ou de trier des courriels, sans alourdir l’infrastructure interne.
Des cas d’usage concrets sur les métiers
Sur le plan opérationnel, plusieurs déploiements sont déjà en cours. Pour la promotion, Icade s’appuie sur Lokimo, une start-up accompagnée par Icade à travers son start-up studio Urban Odyssey, et qui permet de sourcer le foncier et d’identifier le potentiel à l’échelle nationale selon des critères précis.
Pour la foncière, le groupe a développé une solution de Gestion Électronique de Documents (GED) intelligente, capable d’analyser et de synthétiser des millions de documents liés aux actifs immobiliers. Alexis de Nervaux en souligne la valeur concrète, notamment dans l’accélération de la constitution des dossiers par actif : « Cette solution nous permet de synthétiser et valoriser l’ensemble des données que nous possédons sur un actif par exemple. C’est un véritable gain de productivité et de temps pour les équipes.».
La data et le cloud comme prérequis
Pour soutenir ces ambitions, Icade a recruté un Chief Data Officer en avril dernier et lancé un projet de Data Plateforme destiné à améliorer la qualité et à décloisonner la donnée. Pour le Directeur des systèmes d’information et de la transformation digitale, le message est sans appel : « Il n’y a pas d’IA sans data. L’IA n’est pas une potion magique qui va transformer votre data de mauvaise qualité en or ».
En parallèle, le groupe applique une stratégie « Cloud-first et SaaS-first » via un projet de migration « Move to Cloud ». La logique est celle de la délégation aux spécialistes : « Nous serons toujours moins bon qu’un « pure player » comme Amazon, Azure ou OVH. Nous n’avons donc aucun intérêt, à mon sens à gérer cela en interne ».
La formation, clé de l’adoption
La dimension humaine occupe une place centrale dans la démarche. Icade s’est associé à Mister IA pour proposer des formations concrètes à ses collaborateurs. Alexis de Nervaux est catégorique sur le sujet : « Le succès d’une formation, est l’appropriation des outils par les collaborateurs, qu’ils en ressortent avec un savoir-faire pratique, créateur de valeur, qui puisse être mis en place immédiatement. »
Sécurité et agilité : un équilibre revendiqué
Fort d’une expérience directe d’une cyberattaque d’envergure, le CDIO n’ignore pas les enjeux de cybersécurité. Mais il refuse d’en faire un frein à l’innovation : « On ne peut pas se permettre de bâtir une forteresse sans que celle-ci soit intégrée à une stratégie plus globale. Le temps que l’on y parvienne on est déjà en retard ». La stratégie d’Icade entend donc concilier rigueur opérationnelle en matière de sécurité et agilité dans la transformation des processus métiers.
Microsoft franchit un nouveau cap, le 1er mai prochain, dans la monétisation de l’intelligence artificielle avec l’arrivée d’une offre Microsoft 365 E7tarifée 99 $ par utilisateur et par mois. Destinée aux grandes entreprises, cette nouvelle formule se place au‑dessus de l’actuel E5 et ambitionne de devenir le « bundled » ultime pour les entreprises qui veulent industrialiser l’usage de l’IA dans leurs workflows.
Un palier au‑dessus d’E5, centré sur Copilot et Agent 365
Microsoft 365 E7 reprend l’intégralité des fonctionnalités du bundle E5, en y ajoutant l’ensemble des briques d’IA que Microsoft commercialise aujourd’hui à la carte. Au cœur de l’offre : l’assistant Microsoft Copilot et un nouveau hub de gestion d’agents d’IA baptisé Agent 365, pensé pour orchestrer, superviser et gouverner des agents spécialisés à l’échelle de l’entreprise.
Concrètement, E7 se présente comme une suite « AI‑first » : plutôt que d’ajouter Copilot comme simple add‑on à un abonnement existant, Microsoft intègre nativement ces capacités dans le bundle, avec des fonctions avancées de sécurité, d’identité et de management déjà présentes dans E5. L’objectif est double : simplifier le portefeuille de licences pour les clients qui ont déjà adopté Copilot, et inciter les autres à franchir le pas en regroupant l’ensemble dans un seul contrat.
Microsoft 365 E7 : 99 $ par utilisateur
Avec un prix cible de 99 $ par utilisateur et par mois, E7 marque une hausse significative par rapport à E5, actuellement à 57 $ et annoncé à 60 $ à partir du 1er juillet 2026. Si l’on additionne aujourd’hui E5 et les options IA comme Copilot vendues séparément, le total se rapproche déjà de ce niveau de prix ; l’enjeu pour Microsoft est donc de transformer ces lignes de revenus additionnelles en un palier premium clairement identifié.
En toile de fond, se trouve la nécessité pour Microsoft de rentabiliser les dizaines de milliards de dollars investis dans l’infrastructure IA (centres de données, GPU, supercalculateurs). Un tarif à 99 $ par utilisateur, couplé à un éventuel modèle hybride combinant prix par siège et facturation à la consommation des ressources IA, permettrait de rapprocher davantage Microsoft 365 des logiques économiques déjà en place sur Azure.
Une stratégie de timing pour faire monter les clients en gamme
La fenêtre de lancement envisagée n’est pas anodine. Microsoft a déjà annoncé une augmentation globale des tarifs de Microsoft 365 à l’horizon juillet 2026, avec une hausse notamment pour les plans E3 et E5. En introduisant E7 au moment où les prix des offres existantes montent, l’éditeur espère orienter une partie des clients vers ce nouveau palier plutôt que de les voir se contenter de plans intermédiaires.
Microsoft indique ainsi que « Microsoft 365 E7 unifie Microsoft 365 E5, Microsoft 365 Copilot et Agent 365 en une solution unique optimisée par Work IQ et intégrée aux applications et à la pile de sécurité auxquelles les clients font déjà confiance. Elle comprend Microsoft Entra Suite et les fonctionnalités de sécurité avancées Defender, Intune et Purview, offrant une protection complète aux agents et aux employés.»
L’objectif est de capter les budgets des grands comptes qui veulent structurer l’usage de l’IA tout en renforçant leurs capacités de sécurité, conformité et gestion des identités.
Quels enjeux pour les DSI et les équipes achats ?
Pour les directions informatiques, E7 ouvre autant de possibilités que de questions. La promesse est séduisante : une suite unifiée, intégrant productivité, sécurité et IA, avec Copilot et Agent 365 comme colonne vertébrale des usages intelligents. Mais à 99 $ par utilisateur, l’adoption à grande échelle suppose une analyse fine du retour sur investissement : gains de productivité, automatisation de processus, réduction des coûts liés à la gestion multi‑licences, ou encore rationalisation des outils tiers.
En octobre 2024, le labo IA de Tencent avait publié un article ainsi intitulé. Il y présentait une méthode permettant d’accroître la performance d’un LLM en augmentant le nombre d’agents instanciés.
La technique, dite « forêt d’agents », est simple dans son principe : envoyer une requête à plusieurs agents (instances d’un LLM) et les faire voter à la majorité sur les outputs.
Un « agent LLM » peut aussi bien être un LLM seul qu’un groupe d’agents.
Google Research y fait référence dans un autre article… qui en prend partiellement le contrepied. Il y propose des principes de mise à l’échelle des systèmes agentiques.
3 familles de LLM, 4 benchmarks, 5 architectures
Ces principes découlent de l’analyse de 180 configurations. En l’occurrence, 5 architectures agentiques appliquées à 3 familles de modèles et testées sur 4 benchmarks.
Les architectures en question :
Mono-agent
Agents indépendants (aucune communication entre eux)
Centralisé (plusieurs agents, chacun communiquant avec un orchestrateur)
Décentralisé (communication entre pairs)
Hybride (orchestrateur + P2P limité)
L’orchestrateur détermine la manière dont sont agrégés les outputs des agents et s’il a le droit de passer outre. Il gère aussi la mémoire.
Ces architectures ont été appliquées à des modèles d’Anthropic (Claude Sonnet 3.7, 4.0 et 4.5), de Google (Gemini 2.0 Flash, 2.5 Flash et 2.5 Pro) et d’OpenAI (GPT-5, 5 mini et 5 nano).
Les benchmarks étaient les suivants :
Finance Agent (2025 ; analyse financière sur dépôts SEC)
BrowseComp-Plus (2025 ; « recherche approfondie » sur le web)
Plancraft (2024 ; planification en environnement Minecraft)
WorkBench (2024 ; exécution de tâches en environnement de bureau)
Les tests se sont faits à paramètres fixes (outils, prompts, budgets de calcul). En sont ressorties 8 métriques, le taux de réussite étant la principale.
À partir de ces métriques, ainsi que de trois autres indicateurs (propriétés des tâches, nombre d’agents, capacités de modèles de base), Google Research a élaboré un modèle prédictif. Son rôle : identifier l’architecture optimale pour une tâche donnée.
Ce n’est pas (vraiment) le nombre qui compte
Là semble effectivement résider le véritable enjeu. Si on en croit les résultats communiqués, ce n’est pas tant le nombre d’agents qui importe que l’adéquation entre la tâche et l’architecture agentique.
La complexité des tâches joue moins que la capacité à les décomposer. Les résultats sur Finance Agent et Plancraft en témoignent.
Fait d’informations statiques et structurées, Finance Agent se prête à une division du travail. Toutes les architectures multi-agents apportent effectivement un gain important par rapport au mono-agent.
Plancraft est, au contraire, intrinsèquement séquentiel (chaque action modifie potentiellement l’environnement). Le multi-agent y est systématiquement moins efficace que le mono-agent. Diviser le travail implique que chaque agent synchronise l’état du système. Dans un tel environnement dynamique, cela impacte significativement le budget de calcul disponible. Les agents compressent alors d’autant plus les informations qu’ils (se) transmettent, au risque de perdre de l’information.
Les taux en rouge et en vert s’entendent par rapport au résultat en mono-agent. Les boîtes représentent l’intervalle des taux de réussite ; les diamants, la performance moyenne.
Sur WorkBench, la différence est plus marginale. Idem sur BrowserComp-Plus, où l’approche décentralisée, adaptée à l’exploration parallèle de pages web (espaces de recherche à forte entropie), affiche le meilleur score de précision.
Google perçoit un modèle généralisable
La surcharge liée à la coordination des agents pèse démesurément sur les tâches qui impliquent beaucoup d’outils. L’étude ne révèle pas, en revanche, de corrélation entre l’augmentation de cette surcharge et celle de la complexité des tâches. À performance équivalente, le multi-agent consomme bien plus de tokens que le mono-agent (+ 58 % en mode « indépendant », + 263 % en décentralisé, + 285 % en centralisé, + 515 % en hybride.
Dès qu’un agent seul dépasse les 45 % de taux de réussite, en ajouter a des effets négatifs. Quant à la redondance des tâches (en confier une à plusieurs agents), elle n’a, à l’échelle, qu’un bénéfice marginal.
La présence ou l’absence de points de validation engendre une grande différence dans l’amplification des erreurs. En centralisé, elles sont multipliées par 4,4 par rapport au mono-agent ; en décentralisé, par 7,8 ; en hybride, par 5,1 ; en indépendant, par 17,2.
Les architectures centralisée et décentralisée tendent à réduire le taux moyen d’erreurs par rapport au mono-agent. Notamment pour ce qui est de l’omission de contexte. Et, dans une moindre mesure, les contradictions de logique. C’est n’est pas toujours le cas pour les architectures hybrides, avec lesquels ce taux s’accroît même parfois. En particulier sur les dérives numériques (découlant d’arrondis ou de mauvaises conversions en cascade).
La hiérarchie des architectures est relativement stable entre domaines. Google Research y voit la preuve que son modèle est généralisable. Sur labase de ses expérimentations, il affirme qu’à budget constant, au-delà de 3 ou 4 agents, la qualité de raisonnement de chacun se dégrade.
83 %. C’est la part de marché des éditeurs américains dans le cloud et le SaaS en Europe. Un chiffre vertigineux, qui résume à lui seul l’ampleur de la dépendance technologique dans laquelle se trouve la France et l’ensemble du continent européen.
Pourtant, des alternatives existent. Des entreprises françaises innovent, recrutent, exportent. Alors pourquoi l’État lui-même continue-t-il d’acheter massivement américain, au mépris des doctrines qu’il a lui-même édictées ? Pourquoi ce décalage persistant entre les discours sur la souveraineté numérique et la réalité des contrats signés ?
C’est à ces questions que répond Michel Paulin, président du Comité Stratégique de Filière Logiciel et Solutions Numériques de Confiance, dans un entretien sans détour à Silicon.
Sa conviction : inutile d’attendre une grande loi ou un plan de subventions supplémentaire. Rediriger seulement 5 % de la commande vers l’écosystème national suffirait à créer 10 000 emplois et à rapatrier un milliard d’euros dans les caisses de l’État.
Silicon – Quelle est la genèse du Comité Stratégique de Filière logiciel et solutions numériques de confiance, officiellement lancé en avril 2025 ? Michel Paulin – Il n’y avait pas de filière dans le domaine. En septembre 2022, le ministre de l’industrie et des finances de l’époque ( Bruno Le Maire, NDLR) a annoncé la création d’une filière et m’a demandé de faire le précadrage. De septembre 2022 à avril 2025, nous avons consulté près de 600 à 800 entreprises qui ont répondu à des questionnaires et à des sollicitations. On a discuté avec l’État pour définir un contrat de filière qui a été signé en avril 2025. L’objectif de ce contrat, c’est très simple : définir quelles sont les mesures que l’on peut prendre avec l’ensemble des parties prenantes, clients, État, collectivités locales, mais aussi activités périphériques, pour faire en sorte que la filière française puisse grossir, grandir, se développer.
Quel est son périmètre ? Michel Paulin – Ce périmètre a été décidé par l’État. Il couvre quatre domaines : éditeur de logiciels, domaine du cloud, domaine du quantique, et l’intelligence artificielle en tant que producteur, éditeur de modèles, éditeur d’agents ou de solutions de cette nature.
«La filière se porte bien mais elle fait face à des défis énormes »
Comment se porte cette filière aujourd’hui ? Michel Paulin – C’est une filière qui va plutôt bien : 25 milliards € de chiffre d’affaires, une croissance souvent très proche des deux chiffres sur ces 5-6 dernières années, et environ 10 000 emplois nets créés chaque année pour plus de 100 000 personnes employées. Quand on se compare à d’autres filières industrielles qui souffrent aujourd’hui en France et en Europe, c’est une filière qui se tient bien. En revanche, il faut mettre les pieds sur la table : elle est face à des défis énormes.
Le premier défi, c’est la taille. Une dizaine d’entreprises aux États-Unis sont à elles seules plus grandes que toute la filière française. Il n’y a que 4 sociétés en France qui dépassent le milliard de chiffre d’affaires, Dassault Systèmes, OVHcloud et quelques pépites de quelques centaines de millions. Mistral espère peut-être dépasser le milliard.
Le deuxième défi, c’est l’accès aux fonds propres. Pour investir en R&D, dans l’IA, les infrastructures, l’innovation, il faut de gros fonds propres. Rester dans le giron européen avec des levées supérieures à 100, 200 ou 300 millions, c’est difficile. Dans le quantique, les trois dernières levées américaines vont de 600 millions à un milliard de dollars, principalement par des fonds anglo-saxons. Lever un milliard en restant européen aujourd’hui, c’est impossible.
Le troisième défi, c’est les compétences. On ne forme pas assez d’ingénieurs, on n’attire pas assez de femmes dans la filière. Aujourd’hui, 22 % des postes techniques sont occupés par des femmes, contre 40 % en Inde ou au Maroc. Ça commence à l’école primaire : il faut mettre en avant la science pour former plus de monde.
« Dire « il n’y a pas d’offre « est une insulte à la
filière »
Face aux menaces de Donald Trump et la fin des « cadeaux aux alliés », faut-il porter les trois dossiers en même temps ou prioriser le financement et la commande publique ?Michel Paulin -Dans le cadre du contrat de filière, on a défini cinq priorités : l’offre, la commande, l’innovation, la formation, et la protection des données sensibles. Et aussi, parce que le marché est mondial, comment aider les entreprises françaises à exporter et à aller à l’international.
La raison principale du retard par rapport aux filières coréenne, israélienne ou canadienne, c’est la commande publique et la commande privée, qui est le driver essentiel. Les parts de marché de l’État dans le software acheté auprès de la filière française sont très faibles ; dans certains domaines, on est quasiment à 5 ou 10 %. Je salue l’initiative du gouvernement qui dit qu’il faut réfléchir vers les filières nationales, parce que la situation est catastrophique.
Comment expliquer ce décalage entre la capacité de production de l’écosystème français et la réalité de la commande publique ? Les administrations sont-elles en décalage par rapport aux doctrines de l’État ? Michel Paulin – Il y a beaucoup de facteurs. Et je ne devrais pas réserver ça uniquement à la commande publique : il faut aussi mettre les grands groupes face à leurs responsabilités. On ne peut pas parler de risque de vassalisation sans agir. On a vu récemment qu’on a coupé les services bancaires d’un juge français aux États-Unis ; ce n’est plus de la science-fiction, c’est une réalité.
Dans le cloud et le SaaS, les éditeurs américains ont 83 % de parts de marché en Europe, c’est un excellent rapport du Cigref qui l’indique. Les acheteurs ont parfois le « syndrome IBM » des années 80 : on choisit le dominant par habitude pour ne pas prendre de risques. En Europe, on est très forts pour ne pas avoir de préférence, on n’a pas de » American Buy Act « . Les critères qui favorisent le produit local ont longtemps été tabous.
Il y a aussi des acteurs dominants qui abusent de leur position : la Cour des comptes et les autorités de la concurrence le disent. Une dizaine d’instructions sont en cours sur des pratiques de cloud qui augmentent les tarifs sans justification : 5 à 10 % de hausse par an, et une verticalisation des solutions pour lier encore plus les clients à leur logique.
« Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen.»
Patrick Pouyanné, PDG de TotalEnergies, a déclaré qu’il aimerait acheter français ou européen, mais qu’il n’y a pas d’offre. Que lui répondez-vous ? Michel Paulin – Ce narratif construit par ceux qui veulent garder le monopole de fait est très puissant. Dire « il n’y a pas d’offre » est une insulte à la filière. Est-ce qu’on a des ingénieurs qui ne sont pas capables de faire des produits ? Est-ce que Mistral n’est pas au niveau ? Dans tous les domaines, il y a des alternatives. Faisons-leur confiance.
Quand on fait une stratégie multi-cloud avec trois acteurs américains, ça correspond à quoi ? Une dépendance totale, technologique, financière et légale. Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen sur les domaines où ils sont bons. Ces opérateurs font quand même de l’ordre du milliard, ce ne sont pas des boîtes en dehors des clous.
Sur la virtualisation, il y a eu le scandale VMware-Broadcom, qui impose à ses clients des augmentations de prix fois trois, fois cinq. Il existe des alternatives en Europe : Proxmox côté allemand, Vates en France. Quand vous êtes face au renouvellement d’une licence avec une multiplication par trois ou quatre du tarif, pourquoi ne pas tester ?
Dans la cyber, une société me disait que dans un appel d’offre sur deux, ils ne sont même pas interrogés. Quand on dit « il n’y a pas d’alternative », faisons des appels d’offres et donnons la chance à tout le monde. Le Health Data Hub : pas d’appel d’offre. Le ministère de la Santé disait « les acteurs ne répondent pas aux besoins ». Quel est le cahier des charges ? Quel est l’appel d’offre ? Il n’y en a pas. C’est un narratif non factuel, construit pour justifier que l’on ne sollicite même pas ces offres. Elles existent, faisons-leur confiance.
« Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions.»
Comment expliquer que des directives politiques comme « Cloud au Centre » ne soient pas suivies d’effet par les administrations, voire par l’Assemblée nationale elle-même ?
Michel Paulin – Moi je ne peux pas l’expliquer. C’est une question à poser aux décideurs publics. Une des demandes que nous avons, c’est : au lieu de rajouter des régulations, en Europe on adore en rajouter, appliquons avec courage et rigueur celles qui existent. Le DMA : qu’est-ce qu’on commence par faire ? Des exceptions. Le cloud a même été exclu du DMA.
Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions. Ça ne sert à rien de faire une doctrine si on ne l’applique pas.
Le RGPD ne devrait pas accepter des exceptions non plus. Mais le RGPD est compliqué parce que ces acteurs sont pilotés depuis l’Irlande, et l’Irlande n’est pas très zélée pour faire respecter le droit européen sur la protection des données. Il y a des biais et des cas de RGPD enfreints.
Il faut avoir le courage de dire : arrêtons de rajouter des réglementations, des certifications, des labels dans tous les sens ; il y en a trop. En revanche, concentrons-nous pour faire respecter celles qui existent. De même, plutôt que de subventionner dans tous les sens, subventionnons l’innovation et achetons européen. Sur les domaines de l’IA, des infrastructures, du quantique, de la recherche fondamentale, du hardware avec les nouveaux modèles de GPU.
Oui il faut aider à l’innovation avec un partenariat public-privé fort entre le CEA, l’INRIA et le CNRS. Mais le principal levier, c’est la commande, parce que c’est ce qui fait grossir la filière et c’est la seule garantie d’une souveraineté.
Y a-t-il des engagements concrets ? Faut-il passer par la loi, des obligations dans les appels d’offres, un fléchage contraignant ? Êtes-vous optimiste ? Michel Paulin – Je rêverais d’une loi qui permette de résoudre tous ces problèmes. Mais la préférence européenne d’achat est aujourd’hui interdite par la loi européenne : on n’a pas le droit de le faire. Alors que les Américains le font, les Chinois le font, les Coréens le font. On est les seuls à croire que c’est une distorsion de la concurrence. C’est incroyable.
Cela dit, il ne faut pas tomber dans l’attentisme en attendant la prochaine loi. Il y a plein de choses à faire concrètement dès maintenant. Je donne un chiffre : 83 % du SaaS et du cloud sont monopolisés par quelques acteurs. Si on fléchait 5 % de ces commandes vers la filière, ce n’est pas un choc systémique mais c’est 10 % de croissance pour la filière française, 10 000 emplois créés, et 1 milliard de taxes et cotisations sociales qui reviennent dans les caisses de l’État au lieu de partir en évasion fiscale légale en Irlande ou aux États-Unis.
Et l’enjeu géopolitique est réel. Les Américains ont voulu taxer les Chinois. Les Chinois ont regardé tout le stack et ont dit : « les terres rares, on ne vous les donne plus ». Comme par hasard, les taxes ont disparu. La vassalisation économique n’est pas un fantasme, c’est une réalité. 5 %, ça change tout.
Tous les clients ARTESCA bénéficient désormais d’une « garantie cyber » de 100 000 $.
Jérôme Lecat, président-fondateur de Scality, présente les choses ainsi, en anglais dans le texte.
En pratique, cette garantie ne s’applique pas à tous les clients. Elle concerne les titulaires de licences commerciales – matérielles, perpétuelles ou à durée indéterminée – d’une capacité de stockage d’au moins 50 To.
Scality s’engage à verser les 100 000 $ en question (ou l’équivalent dans d’autres devises) si survient un « incident cybernétique admissible ». En l’occurrence, « le cryptage ou la suppression démontrable de données résidant sur un volume de stockage géré par le logiciel, conséquence directe et unique d’une cyberattaque externe non autorisée ».
Les exfiltrations de données sont exclues. L’incident ne doit par ailleurs pas découler, en tout ou partie :
De la compromission des identifiants d’accès stockés, transmis ou gérés en dehors du logiciel
D’identifiants d’accès obtenus par des tiers via l’ingénierie sociale, le phishing, des logiciels malveillants ou le vol
Des actes malveillants et répréhensibles commis par des utilisateurs autorisés
D’une des responsabilités d’indemnisation du client
Coopération, maintenance, conformité…
Pour prétendre à une indemnisation, il faut utiliser la dernière version majeure d’ARTESCA (actuellement, la 4.1), « en stricte conformité avec la documentation […] et les directives de sécurité ». Et avoir installé l’ensemble des mises à jour / mises à niveau (dernière release en date : 4.1.3) et des correctifs dans les 30 jours suivant leur mise à disposition.
Quant aux données, elles doivent avoir été stockées dans des compartiments avec Object Lock (immuabilité) activé en mode conformité (aucun utilisateur, y compris root, ne peut les modifier ou les supprimer). Et être, au moment de l’incident, dans une période de conservation active.
La garantie constitue une pénalité forfaitaire unique. Son paiement est le seul recours en cas d’incident admissible (le client ne peut réclamer aucun autre dommage). Il n’interviendra qu’à condition que le client ait notifié l’incident par écrit dans les 48 heures suivant sa découverte. Et qu’il ait par la suite « coopéré pleinement » en fournissant les informations et les accès demandés.
Pas facile de suivre l’évolution du cadre réglementaire, de sorte qu’il a fallu modulariser les formations.
IDEMIA Public Security en a témoigné en tant que signataire du Pacte sur l’IA.
Depuis septembre 2024, la Commission européenne promeut ce dispositif censé aider à préparer la mise en conformité avec l’AI Act. Les échanges qu’elle a organisés dans ce cadre ont notamment guidé l’élaboration de l’omnibus numérique. Ils ont aussi contribué à alimenter un « répertoire des pratiques d’alphabétisation en matière d’IA ».
Toile de fond à ce répertoire : l’article 4 de l’AI Act. Entré en application en février 2025, il impose aux fournisseurs et aux déployeurs de systèmes d’IA de garantir un « niveau suffisant de maîtrise de l’IA » pour leur personnel. Ainsi que pour quiconque s’occupe du fonctionnant de ces systèmes pour leur compte.
La première version publique de ce répertoire (janvier 2025) réunissait des retours d’expérience d’une quinzaine d’organisations. Aux dernières nouvelles, on en est à 40. Dont deux pour la France : Criteo et, donc, IDEMIA Public Security.
Criteo, entre bootcamps et « cafés IA »
Pour tous les employés qui exploitent l’IA dans leur travail au quotidien, Criteo a mis en place des cours en ligne destinés à l’acquisition des bases et d’un vocabulaire commun. Il y a associé des ambassadeurs aux RH, au juridique, aux achats, aux marketing et à l’IT. Il organise par ailleurs des événéments, dont des « cafés IA » et des webinaires (par exemple sur l’utilisation de Copilot dans Office).
Les personnels techniques ont, de longue date, accès à des bootcamps, mis au goût de l’IA. Suivies sur la base du volontariat, les leçons sont données par des employés qui développent des systèmes d’IA internes ou qui mènent des recherches sur des sujets importants pour Criteo. La première semaine permet – en présentiel à Paris ou bien à distance – de se familiariser avec la stack IA de lamaison et d’appréhender un usage responsable. Les trois suivantes, de réaliser un projet individuel sur un cas d’usage interne, avec supervision par un chercheur et un ingé.
IDEMIA juge la formation en ligne « plus difficile et moins efficace »
Au-delà de ses sessions « Tech Talk » et « Meet the Experts », ses partenariats académiques et sa contribution aux évaluations NIST, IDEMIA Public Security insiste sur la formation de ses clients.
Pour les systèmes non classés à haut risque, la formation est en ligne, en anglais. Le contenu est adapté au niveau d’expertise.
Pour ceux qui entrent dans la catégorie « à haut risque », l’objectif est de former 100 % des clients en personne avant déploiement.
IDEMIA Public Security reconnaît qu’il est délicat de gérer le turnover, des deux côtés. Il considère globalement qu’il est plus difficile et moins efficace de former en ligne, « en particulier pour les systèmes d’IA à haut risque ». S’y ajoute le sujet du maintien des contenus à jour. Il a été décidé de les segmenter afin de pouvoir actualiser des sections spécifiques.
230 adhérents volontaires
Le « répertoire d’alphabétisation » est un des livrables les plus visibles du Pacte sur l’IA. Parmi ses 120 premiers signataires, annoncés en septembre 2024, il y avait une quinzaine d’organisations françaises. Dont Amadeus, Cegid, Dassault Systèmes, Docaposte, Lefebvre Sarrut, Mirakl, Orange, OVHcloud et Sopra Steria. Depuis, 365Talents, l’AFNOR, Capgemini et Groupe Rocher, entre autres, ont rejoint la boucle. Laquelle comprend désormais environ 230 signataires. Près de deux tiers sont européens ; un quart, étatsuniens. La majorité (63 %) sont à la fois fournisseurs et déployeurs. 37 % évoluent dans le logiciel ; 19 %, dans les services IT ; 13 % dans le cloud et/ou les télécoms.
L’adhésion reste volontaire et non contraignante. Elle suppose toujours trois grands engagements :
Définir une stratégie de gouvernance de l’IA
Cartographier les systèmes susceptibles d’être classés à haut risque
Promouvoir la sensibilisation du personnel et plus globalement des parties impliquées
D’autres engagements sont adoptables « à la carte », en fonction de la position occupée dans la chaîne de valeur de l’IA. Par exemple :
Identifier les risques pour la santé, la sûreté et les droits fondamentaux
Implémenter une journalisation cohérente vis-à-vis des finalités
Donner la possibilité d’étiqueter les contenus générés
7 webinaires sous la bannière du Pacte pour l’IA
L’autre catégorie de livrables « visibles » comprend les 7 webinaires que le Bureau de l’IA a organisés jusque-là. Tous sont disponibles en replay.
Le premier (novembre 2024) a exploré les objectifs de l’AI Act, son approche basée sur les risques et les mécanismes de gouvernance qu’il instaure.
Le suivant (décembre 2024) s’est focalisé sur les dispositions qui entreraient en application en février 2025. Ainsi que sur la régulation des modèles d’IA à usage général, qui seraient quant à eux encadrés à partir d’août 2025.
Le troisième webinaire (février 2025) avait abordé les exigences de « maîtrise de l’IA » inscrites à l’article 4. Et le répertoire associé.
En avril 2025, les deux sujets principaux furent les pratiques interdites et la définition des systèmes d’IA. Sur ce dernier point, l’UE venait de publier des lignes directrices.
Des bacs à sable aux gigafactories
Le 5e webinaire, tenu en mai 2025, avait englobé divers dispositifs. Parmi eux, les (giga-)usines d’IA, l’initiative InvestAI et la stratégie pour l’union des données.
Il fut aussi question de la stratégie pour l’application de l’IA, que la Commission européenne adopterait en octobre. Elle se déploie sur trois axes : mise en place d’initiatives phares sectorielles, résolution de défis transversaux et mécanisme de gouvernance unique.
Parmi les initiatives phares, l’UE entend porter, pour les soins de santé, des centres européens de dépistage avancés. Pour la mobilité, une initiative Autonomous Drive Ambition Cities dans le cadre de bancs d’essai transfrontaliers. Pour la culture, des microstudios spécialisés dans la production virtuelle assistée par IA.
Les « défis transversaux » couvrent, dans les grandes lignes, l’attractivité de l’IA pour les PME, la formation d’une main-d’œuvre adaptée et la garantie d’une confiance dans le marché européen.
L’aspect gouvernance unique doit reposer sur la transformation de l’Alliance européenne pour l’IA en forum de coordination.
Lors du 6e webinaire (septembre 2025), il fut à nouveau question des modèles d’IA à usage général. Et du code de bonnes pratiques associé (publié en juillet).
Le dernier webinaire en date (novembre 2025) a traité des dispositifs d’innovation pour les PME. Essentiellement, les bacs à sable réglementaires, les installations sectorielles d’essai et d’expérimentation, la plate-forme unique d’information sur l’AI Act et les pôles européens d’innovation numérique.
Des drones iraniens ont frappé délibérément cette semaine les data centers d’AWS aux Émirats arabes unis et à Bahreïn. Selon le Financial Times (FT), c’est la première fois qu’une opération militaire prend pour cible les infrastructures d’une entreprise technologique américaine de premier plan.
L’agence Fars News, proche des Gardiens de la révolution islamique, a revendiqué ce jeudi des frappes contre des installations d’Amazon et de Microsoft dans la région. Si Microsoft a démenti tout incident opérationnel, AWS a confirmé que deux de ses sites aux Émirats avaient été « directement touchés » par des drones, mettant hors service deux de ses trois zones de disponibilité régionales.
Un data center en Bahreïn a également été atteint lors d’une attaque à proximité. AWS a conseillé à ses clients de migrer leurs données vers d’autres régions, reconnaissant que « l’environnement opérationnel au Moyen-Orient reste imprévisible ».
Des cibles difficiles à défendre
Les data centers présentent des caractéristiques qui en font des cibles vulnérables : des groupes électrogènes diesel, des turbines à gaz, et surtout d’imposants systèmes de refroidissement. « Ce sont des installations tentaculaires, et si vous mettez hors service les refroidisseurs, vous pouvez les mettre entièrement hors ligne », explique au FT Sam Winter-Levy, chercheur à la Carnegie Endowment for International Peace.
Matt Pearl, du think-tank américain CSIS, résume la logique de ces offensvives : « Les Iraniens voient les data centers comme une composante du conflit. C’est une façon d’avoir un impact réel dans la région. »
L’eldorado de l’IA du Golfe remis en question ?
Les conséquences de ces frappes dépassent largement le cadre militaire. Le Golfe avait misé sur son image de havre de stabilité pour attirer des investissements colossaux dans l’intelligence artificielle. L’Arabie saoudite, via son entité Humain, et les Émirats arabes unis, via G42, ont engagé des milliards aux côtés de Nvidia, Amazon et Microsoft pour construire de vastes clusters de data centers.
Abu Dhabi accueille également l’un des gigantesques projets « Stargate « d’OpenAI. Le mois dernier encore, Microsoft annonçait l’ouverture prochaine d’un nouveau centre Azure en Arabie saoudite.
« Ces frappes pourraient fondamentalement changer le calcul de risque pour les investisseurs privés, les assureurs et les entreprises technologiques elles-mêmes », avertit Jessica Brandt, du Council on Foreign Relations. « Le Golfe s’était vendu comme une alternative sûre à d’autres marchés. Cet argument vient de perdre de sa force. »
Un avertissement mondial
Au-delà des capitaux, c’est le recrutement de personnel d’ingénierie et de construction qui pourrait pâtir du nouveau climat d’insécurité, selon un vétéran américain de l’industrie tech installé dans la région, cité par le FT. Il compare le projet « Stargate » aux usines de fabrication de puces d’Intel en Israël, protégées par l’armée et entourées de défenses anti-aériennes : « Il faut intégrer la protection dès le départ, c’est incontournable pour un projet de cette envergure. »
Reste que l’attaque soulève une question qui dépasse le seul Moyen-Orient. « C’est un avant-goût de ce qui va venir, et ces types d’attaques ne se limiteront pas à cette région », prévient Winter-Levy. À l’heure où les infrastructures numériques deviennent le nerf de la guerre économique et technologique mondiale, leur protection physique s’impose désormais comme un enjeu de souveraineté à part entière.
L’intelligence artificielle n’a pas encore produit le cyberattaquant omniscient que certains redoutaient. Ce qu’elle produit, en revanche, est peut-être plus insidieux : une chaîne de production automatisée de logiciels malveillants médiocres, jetables, et suffisamment nombreux pour saturer les défenses.
Un nouveau modèle industriel de la menace
Le vibeware désigne une approche du développement de malwares pilotée par l’IA qui privilégie la quantité sur la qualité. L’idée n’est pas de concevoir une cyberattaque brillante, mais d’en produire des dizaines, chaque jour, de manière automatisée.
Des groupes comme APT36, groupe de cybercriminels pakistanais bien documenté, seraient désormais capables de maintenir une cadence d’un nouveau variant de malware par jour. Ce rythme industriel permet de « saturer » la télémétrie défensive standard. Chaque nouveau binaire nécessite une analyse, chaque nouvelle signature doit être établie. Les équipes de sécurité se retrouvent à courir après un flot continu de menaces mineures, au risque de manquer l’essentiel.
Les chercheurs ont qualifié cette stratégie de DDoD pour Distributed Denial of Detection, ou déni de détection distribué. Par analogie avec les attaques DDoS classiques qui submergent un serveur par le volume de requêtes, le DDoD submerge les capacités d’analyse et de détection des équipes cyber avec un flux constant de codes renouvelés. L’objectif n’est pas de surpasser les défenses par le génie technique, mais d’épuiser les défenseurs.
Des langages exotiques pour réinitialiser les détections
L’un des leviers techniques les plus efficaces du vibeware réside dans le recours à des langages de programmation inhabituels. Les moteurs de détection sont, pour la plupart, optimisés pour analyser du code écrit en C++, C# ou .NET. Les attaquants l’ont bien compris.
Grâce aux LLM, il est désormais possible de porter la logique d’un malware existant vers un langage de niche sans disposer d’une expertise préalable. Les langages favorisés par APT36 incluent notamment :
Nim : représentant moins de 0,1 % de l’indice TIOBE, ce langage compile en C ou C++ mais utilise un moteur d’exécution unique. Les scanners de sécurité le classent souvent comme « inconnu » plutôt que « malveillant ». Il est utilisé comme enveloppe (wrapper) furtive pour masquer des charges utiles plus anciennes.
Zig : utilisé pour des outils comme ZigShell ou ZigLoader, ce langage offre des performances élevées tout en échappant aux signatures comportementales des solutions EDR.
Crystal : également trop rare pour disposer de signatures établies dans de nombreux outils de détection de terminaux.
À ces langages de niche s’ajoutent Rust et Go, plus connus mais appréciés pour leur stabilité mémoire lors de tâches intensives comme l’exfiltration massive de données.
L’effet stratégique est double : réinitialisation de la détection ( chaque nouveau langage oblige les outils de sécurité à repartir de zéro) et accessibilité simplifiée par l’IA, qui permet à des attaquants sans expertise spécifique de générer du code fonctionnel dans ces langages.
Living Off Trusted Services : se cacher dans le trafic légitime
Le vibeware excelle également dans l’exploitation des services cloud légitimes pour ses canaux de commande et de contrôle. Cette technique, désignée sous le terme de Living Off Trusted Services (LOTS), consiste à utiliser des plateformes comme Google Sheets, Discord, Slack ou Supabase comme infrastructure C2.
L’exemple le plus documenté est SheetCreep, un malware écrit en C# qui transforme une feuille de calcul Google Drive en véritable tableau de bord d’administration. Son fonctionnement est précis :
Le malware interroge régulièrement une feuille de calcul spécifique pour y récupérer des instructions.
Les commandes sont encodées en Base64 puis chiffrées via un algorithme DES (mode ECB).
Les résultats d’exécution sont renvoyés dans les cellules du tableur via l’API Google Drive.
L’infrastructure est organisée en onglets dédiés : unenc_requests, unenc_outputs, unenc_heartbeats, unenc_systems.
D’autres outils de la flotte APT36 s’appuient sur Discord (CrystalShell), Slack (ZigShell), Firebase et Supabase pour la gestion des sessions et le stockage des données volées, ou encore sur Microsoft Graph API via l’infostealer MailCreep.
Azure Front Door est également utilisé pour masquer les communications malveillantes dans du trafic HTTPS légitime.
L’IA joue ici un rôle d’accélérateur décisif : ces plateformes disposent de documentations publiques abondantes et de SDK bien référencés dans les données d’entraînement des LLM. Générer du code d’intégration stable pour Google Sheets ou Discord est devenu trivial, même pour un attaquant sans compétence technique approfondie.
Les limites du vibeware
Il serait inexact de présenter le vibeware comme une rupture technologique car le code généré par l’IA est souvent dérivé, incohérent, et sujet à des erreurs logiques critiques.
Plusieurs cas documentés illustrent ces failles :
Des binaires déployés avec l’URL du serveur C2 laissée en « placeholder » (modèle vide), rendant l’exfiltration de données impossible.
Des composants qui s’effondrent dès que la logique atteint un niveau de complexité modéré.
Dans le cas de CrystalShell, l’absence de protocole de communication entre les bots aurait généré des « broadcast storms » inutiles, et la commande de statut réinitialisait la métrique qu’elle était censée mesurer.
Des outils incapables de supprimer leurs propres fichiers temporaires après exécution, facilitant l’analyse forensique post-attaque.
Cette fragilité structurelle explique pourquoi les groupes comme APT36 continuent d’utiliser des frameworks classiques et éprouvés (Cobalt Strike ou Havoc) comme filet de sécurité. Les outils « vibe-coded » ne sont pas encore assez fiables pour porter seuls la responsabilité d’une opération critique.
Par nature, les LLM sont entraînés sur des dépôts publics comme GitHub : ils réorganisent des patterns existants sans inventer de nouvelles méthodologies d’attaque. Ils manquent de véritable compréhension du contexte de sécurité.
Comment se défendre : passer du statique au comportemental
Face au vibeware, une défense basée sur les signatures est structurellement inadaptée. Les recommandations convergent vers une approche dynamique et comportementale.
> Prioriser l’analyse comportementale. L’injection de processus ou le process hollowing restent des constantes, quel que soit le langage utilisé. Les solutions EDR/XDR doivent surveiller ces comportements plutôt que les signatures de binaires. La surveillance des répertoires d’écriture utilisateur (%APPDATA%, %TEMP%) et le scan régulier de la mémoire complètent ce dispositif.
> Auditer les services cloud. Les connexions persistantes vers Discord, Slack ou Google Sheets provenant de binaires non vérifiés doivent être traitées comme des indicateurs de compromission potentiels. Un monitoring strict de ces plateformes s’impose dans les environnements sensibles.
> Compliquer la phase post-intrusion. Les opérations de piratage proprement dites restent manuelles. Réduire la surface d’attaque pour introduire de la friction lors du mouvement latéral, filtrer rigoureusement les fichiers LNK, ZIP ou ISO reçus par email, et maintenir les navigateurs à jour pour bénéficier de mécanismes comme l’App-Bound Encryption (ABE) sont autant de mesures qui forcent l’attaquant à utiliser des méthodes plus lourdes et donc plus détectables.
> S’appuyer sur des SOC ou MDR matures. Compte tenu de la cadence de production des variants (parfois un par jour), seule une surveillance 24/7 permet de distinguer le « bruit » généré par le vibeware des véritables intrusions critiques.
Le vibeware n’est pas l’avènement du cyberattaquant surhumain. C’est l’industrialisation du cyber-médiocre. Et c’est précisément pour cette raison qu’il mérite une attention soutenue.
Dans la tech française, le taux de féminisation s’élève à 17 %.
Dans la perspective de la Journée internationale des droits des femmes, les acteurs de l’IT sont nombreux à reprendre cette statistique. Moins à la sourcer.
Elle semble tirée d’un des volets de l’enquête Gender Scan, que réalise Global Contact, un cabinet parisien d’études et de conseil. Plus précisément de l’édition 2022. Les 17 % en question valent pour l’année 2020.
En fonction des acteurs de l’IT, la formulation varie. Ippon Technologies annonce que les femmes représentent environ 17 % des effectifs de la tech en France. Tandis qu’Acer affirme que 17 % des postes techniques dans l’IT sont occupés par des femmes.
Le premier ajoute que dans ce même secteur, les femmes occupent 10 % des postes à responsabilité. Le second, que seules 3 % des lycéennes choisissent la spécialité numérique et sciences informatiques.
L’IA, ou les deux côtés de la médaille
Chez Tanium, on rappelle qu’à l’échelle mondiale, dans le domaine des technologies, 14 % des cadres supérieurs sont des femmes. On souligne aussi l’opportunité que l’IA présente pour « égaliser les chances » en contribuant à réduire l’épuisement professionnel… y compris pour les femmes qui reprennent le travail. « L’avantage pour les femmes viendra des organisations qui utiliseront l’IA pour renforcer la filière de leadership et non pour la réduire », ajoute Melissa Bischoping, directrice de recherche en sécurité.
iCIMS, éditeur de logiciels RH, voit dans l’IA un « levier puissant » pour objectiver certaines décisions de recrutement, harmoniser les critères et limiter les biais humains.
Il y a deux ans, en marge de la Journée internationale des droits des femmes, l’UNESCO avait elle aussi exprimé des espoirs quant à l’IA. Plus précisément au sujet des LLM open source. Qui, par leur ouverture, pouvaient favoriser l’atténuation des biais embarqués.
Car des biais, il y en avait. Des tests sur GPT-2, Llama 2 et GPT-3.5 avaient révélé, entre autres, une propension à produire des stéréotypes de genre. Par exemple en y associant certains concepts (à « femme », « famille », « enfants » et « mariage » ; à « homme », « entreprise », « cadre », « salaire », « carrière »…). Ou certains emplois (« chauffeur », « enseignant », « jardinier », « employé de banque » pour les hommes ; « serveuse », « intendante », « mannequin », « prostituée » pour les femmes).
« Même de légers préjugés sexistes dans le contenu [généré] peuvent amplifier de manière significative les inégalités dans le monde réel », avait commenté Audrey Azoulay, alors directrice générale de l’UNESCO.
Du freelancing aux perceptions sociétales, une « trajectoire positive »
Ces inégalités se renforcent d’autant plus qu’elles sont visibles, postule Cynthia Overby, directrice des solutions de sécurité informatique chez Rocket Software. Des postes de direction aux conférenciers qui interviennent lors d’événements tech majeurs, le manque de diversité en façade « renforce la perception que l’industrie des technologies n’accueillera pas ceux qui ne correspondent pas à cette image », estime-t-elle.
« Dans les années 80, les femmes étaient beaucoup plus représentées dans les métiers de l’IT, explique LeHibou (plate-forme de freelancing IT). Un basculement s’est produit pendant cette décennie, quand l’informatique est devenue un produit grand public », constate-t-elle.
En 2023, 14 % de ses freelances furent des femmes. Minoritaires, donc, mais sur une « trajectoire positive » (elles étaient 9 % en 2018). Leurs principales fonctions : chef de projet MOA, product owner, consultante AMOA, chef de projet IA et business analyst. Trois de ces métiers ont affiché, en 2023, un taux journalier moyen équivalent à celui des hommes. Mais alors que ces derniers privilégiaient la rémunération, leurs homologues féminines citaient le choix des missions et la quête d’un meilleur équilibre pro/perso comme leurs principales sources de motivation pour faire du freelancing.
La même année, Ironhack (formation au numérique) avait lui aussi évoqué une forme de trajectoire positive. En comparant deux enquêtes sur le panel BuzzPress France, il avait notamment relevé que :
63 % des Français déclaraient que les femmes pouvaient être aussi douées que les hommes dans les métiers liés au numérique (+ 4 points par rapport à 2022)
32 % ne considéraient pas que les femmes n’étaient pas élevées ou éduquées pour s’intéresser à ces métiers (+ 6 points)
49 % seraient prêts à inciter leur fille à choisir un métier dans la tech (+ 7 points)
Au-delà de la diversité, garantir l’inclusion
« Dans un environnement technique, la mixité apporte des regards différents et contribue à un meilleur équilibre collectif », assure Laetitia Martzolff, HR Business Partner chez DEEP France (ex-DIGORA).
Stephanie Aceves, ancienne de Tanium, allait plus loin l’an dernier. Elle appelait à porter attention aux « qualités uniques » des femmes : « capacité à diriger avec intuition, à résoudre les problèmes avec une vision large et à créer une communauté au sein des équipes ». Au-delà du recrutement diversifié, il faut garantir l’inclusion, ajoutait-elle. Or, pour un même rôle, on attend plus d’une femme. Souvent, en particulier, qu’elles prennent en main le sujet de la féminisation lorsqu’elles sont seules dans leur équipe.
Dans certains contextes, les femmes doivent encore démontrer leur compétence avec une intensité supérieure, confirme Céline Delaugère. Cette exigence souvent implicite se manifeste dans l’accès au financement, à la visibilité médiatique ou aux postes de décision, résume la fondatrice de MyDataMachine. Elle poursuit : parler de droits des femmes implique de regarder concrètement leurs accès à l’IA, à la data et aux infrastructures numériques, en ce qu’elles façonnent nos sociétés (modèles économiques, usages culturels, équilibres de pouvoir). Et d’appeler à ne plus analyser les parcours féminins à travers des catégories restrictives : scientifique ou créative, technique ou artistique, rationnelle ou sensible… Cette lecture binaire ne correspond plus à la réalité de trajectoires hybrides.
Brevets STEM : le taux de féminisation aussi sous les 20 %
D’après l’Office européen des brevets, dans les STEM, 16,7 % des inventeurs mentionnés dans les demandes de dépôt de brevet en France entre 2018 et 2022 étaient des femmes. Soit à peu près autant que sur la période 2013-2017 (16,4 %). Le Val-de-Marne se distingue. Le taux (25,4 %) y est parmi les plus élevés chez les régions européennes à forte densité d’innovation.
En mathématiques et informatique, l’Institut Mines-Télécoms arrive en tête des établissements d’enseignement supérieur pour le taux de femmes dans les demandes de dépôt de brevet pendant le doctorat (10 %). L’Université Paris Sciences et Lettres domine pour les dépôts ultérieurs (8 %).
Sur l’ensemble des dépôts à l’INPI entre 2021 et 2023, 14 % des inventeurs français étaient des femmes. Le taux atteignait 16 % dans les établissements publics et les entreprises détenues par l’État. Contre 11 % dans les grandes entreprises et 9 % dans les PME. Il avoisinait 30 % dans le secteur de la chimie.
C’est une première dans l’histoire industrielle américaine : une entreprise nationale se voit infliger le même traitement que l’équipementier chinois Huawei.
Ce jeudi, le secrétaire à la Défense Pete Hegseth a désigné officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » de l’armée américaine. La décision est immédiatement effective : les 200 millions $ de contrats militaires sont désormais obsolètes.
Les conséquences financières restent, pour l’heure, plus limitées que certains l’avaient redouté. La désignation ne s’applique qu’aux usages de Claude dans le cadre direct de contrats passés avec le Pentagone. Microsoft, partenaire important d’Anthropic, a déjà indiqué que ses juristes avaient étudié le texte et conclu que Claude était utilisable dans ses produits commerciaux (M365, GitHub, Azure AI Foundry) pour tous les clients non liés à des contrats de défense. Amazon, investisseur majeur dans Anthropic, n’a pas encore réagi officiellement.
Fin du contrat avec Palantir
En revanche, la rupture avec Palantir est immédiate. La plateforme Maven Smart System, que l’armée américaine déploie notamment pour ses opérations en Iran, et qui s’appuie sur des flux construits avec Claude, devra trouver un substitut. Le Trésor et la General Services Administration ont annoncé leur intention de couper tout lien commercial avec Anthropic, en application d’une directive directe de Donald Trump exigeant d’expurger ses solutions de l’ensemble des contrats fédéraux.
Anthropic a annoncé qu’elle contesterait la décision en justice, estimant que la loi (dite 10 USC 3252) exige du secrétaire à la Guerre de recourir aux « moyens les moins restrictifs nécessaires » pour protéger sa chaîne d’approvisionnement. En attendant le verdict des tribunaux, la scale-up assure qu’elle continuera à fournir ses modèles à l’armée américaine « au coût nominal », et avec le soutien de ses ingénieurs, aussi longtemps que ce sera légalement possible.
Les dégâts d’une note interne
La crise a pris une dimension politique supplémentaire avec la fuite d’une note interne de Dario Amodei, publiée par le site The Information.
Rédigé le jour où Donald Trump avait ordonné l’exclusion d’Anthropic des systèmes fédéraux et où OpenAI avait annoncé in extremis un accord avec le Pentagone, le mémo accusait le gouvernement de sanctionner Anthropic faute d’ « éloges de style dictateur » envers le Président.
Le PDG a fait son mea culpa : « C’était une journée difficile pour la société, et je m’excuse du ton de ce message. Il ne reflète pas mes vues réfléchies. » Il a aussi précisé qu’Anthropic n’était pas à l’origine de la fuite.
Dans un an, il n’y aura plus de Quip au catalogue de Salesforce.
Les abonnements resteront actifs jusqu’à échéance, mais ne pourront pas être renouvelés après le 1er mars 2027.
Salesforce ouvre grand la porte à Slack et à Agentforce Sales. Il explique avoir décidé d’y « réimaginer les principaux cas d’usage de Quip ». Il en mentionne quatre : planification de compte, notes de réunion, documentation d’aide, rédaction collaborative.
Pour les clients concernés, une procédure en trois temps s’enclenchera au terme de l’abonnement :
Passage en lecture seule pour 90 jours ;
blocage des logins pour 30 jours ;
suppression des données, généralement sous 30 jours.
La transition ne sera pas automatique. Salesforce fournira cependant de quoi convertir des documents Quip en canevas Slack et exporter d’autres types de contenus vers des applications tierces. Il promet aussi des outils de gestion du changement.
Live Data, Live Apps… Quip, un « canevas unifié » avant Slack
Quip est le fruit d’une acquisition. Salesforce s’en était emparé à l’été 2016, pour 750 M$. Il s’agissait alors d’une application de productivité combinant les aspects communication et collaboration. Un de ses créateurs n’était autre que Bret Taylor, ancien CTO de Facebook… et futur COO, puis co-CEO de Salesforce.
La première passerelle avait été établie au niveau du SSO (connexion à Quip avec un compte Salesforce). La fonctionnalité Live Data avait suivi début 2017. Elle permit d’intégrer, dans les documents et les feuilles de calcul Quip, des données issues de Salesforce et mises à jour « en temps réel ». En parallèle, un composant Lightning fut mis à disposition pour pouvoir, dans Salesforce, rechercher, consulter et créer du contenu Quip.
Fin 2017 étaient arrivées les Live Apps. Elles permirent d’effectuer, dans Quip, des actions sur des objets issus de Salesforce (enregistrements, calendriers et kanbans pour commencer) et de services tiers (Atlassian, DocuSign, Lucidchart, New Relic…). En combinaison avec Live Data, elles concrétisaient le principe du « canevas unifié », que Salesforce promouvrait aussi plus tard avec Slack.
Et vint – l’éphémère – Salesforce Anywhere
Ces jonctions effectuées, la marque Quip for Salesforce était née début 2019. Rapidement devenue Quip for Customer 360, elle donnait accès à Quip dans les offres Sales Cloud et Service Cloud, grâce au composant Lightning en question. Au deux types de contenus initialement pris en charge – traitement de texte et du tableur – s’étaient ajoutés les diapositives (intégrées à Quip en 2018) et les salons de discussion.
Toujours en 2019, Salesforce avait établi une connexion avec Process Builder et Flow Builder. Il s’agissait d’automatiser la création de documents à partir des données du CRM. L’année suivante, Quip devenait capable de créer des slides embarquant des dashboards Einstein Analytics. Amazon, Autodesk, Cisco, DHL, HPE, Qantas et Ticketmaster faisaient alors partie de la clientèle.
Mi-2020, Quip s’était retrouvé intégré dans le package Salesforce Anywhere. La marque, adoptée en réaction au « phénomène télétravail », reprenait le coeur Customer 360. Elle y associait, entre autres, les technologies héritées d’un rachat bouclé quelques mois plus tôt : Vlocity, qui avait développé des CRM « verticaux » sur Salesforce. Elle reposait surtout sur une application mobile et de bureau – alors en bêta – censée centraliser l’expérience de travail autour des workflows Salesforce. En particulier grâce à une brique chat et visio alimentée par Amazon Chime et par une intégration avec Zoom. Quip y avait sa place en tant que couche collaborative. Tanium était aussi dans la boucle pour aider à « passer à l’échelle » le support IT.
Salesforce Anywhere allait assez rapidement disparaître des radars. Et la marque Quip, réapparaître en conséquence, en septembre 2021. Quelques semaines plus tôt, Salesforce avait bouclé l’acquisition de Slack.
Meta a annoncé ce 5 mars qu’elle autoriserait les assistants d’intelligence artificielle concurrents à accéder à WhatsApp pendant douze mois, dans le but d’éviter une possible injonction d’urgence de la part des régulateurs antitrust européens.
La décision fait suite aux plaintes de rivaux qui s’étaient vu fermer l’accès à la messagerie instantanée.
La Commission européenne avait menacé le mois dernier de prendre des mesures provisoires pour prévenir tout préjudice grave et irréparable causé aux concurrents de Meta, après que cette dernière leur avait barré l’accès à WhatsApp. Une démarche similaire à celle déjà entreprise par l’autorité de la concurrence italienne en décembre.
Meta a informé la Commission qu’elle permettrait désormais aux chatbots rivaux d’accéder à WhatsApp moyennant une redevance, via l’API WhatsApp Business.
« Pour les douze prochains mois, nous allons prendre en charge les chatbots d’IA généralistes utilisant l’API WhatsApp Business en Europe, en réponse au processus réglementaire de la Commission européenne », a déclaré un porte-parole de Meta, ajoutant que cette mesure « supprime la nécessité de toute intervention immédiate ».
La Commission reste prudente sur l’efficacté de la mesure
La Commission a indiqué qu’elle analysait comment les modifications annoncées pourraient influer sur l’examen de ses mesures provisoires, ainsi que sur son enquête antitrust plus large.
Meta avait jusqu’ici justifié la restriction en faisant valoir que la multiplication des chatbots sur ses plateformes surchargeait ses systèmes, et qu’il existait d’autres canaux pour les fournisseurs d’IA comme les boutiques d’applications, les moteurs de recherche, la messagerie électronique ou les systèmes d’exploitation.
L’entreprise avait par ailleurs déjà autorisé les IA rivales sur WhatsApp en Italie en janvier, sous injonction du régulateur local, dont l’enquête se poursuit. La mesure s’appliquera également au Brésil, après qu’un tribunal a rétabli mercredi une injonction de l’autorité brésilienne de la concurrence, suspendue par une autre instance en janvier.
Mais la concession de Meta est loin de faire l’unanimité. The Interaction Company, société californienne éditrice de l’assistant Poke.com et plaignante auprès des régulateurs européen et italien, a exhorté Bruxelles à maintenir ses mesures d’urgence.
Son PDG Marvin von Hagen estime que « ce que Meta présente comme un respect de bonne foi est en réalité le contraire », l’entreprise introduisant selon lui « une tarification vexatoire pour les fournisseurs d’IA qui rend l’opération sur WhatsApp tout aussi impossible que l’interdiction pure et simple ». Il a également écarté la solution italienne : « Elle remplace simplement une restriction anticoncurrentielle par une autre. »
Pasqal, la start-up spécialisée dans les ordinateurs quantiques à atomes neutres, née en 2019 dans le sillage des travaux du Prix Nobel Alain Aspect, vient d’annoncer une levée de fonds d’au moins 340 millions €. Une somme qui la propulse d’un coup dans la cour des grandes licornes mondiales du secteur quantique.
Le montage est aussi ingénieux que la technologie qu’il finance. Le tour se décompose en deux volets d’environ 170 millions € chacun : d’un côté, une levée privée classique ; de l’autre, un financement convertible adossé à une fusion avec Bleichroeder Acquisition Corp. II, un SPAC américain coté. Au total, depuis sa création, Pasqal aura levé près de 600 millions €, un chiffre qui résume l’ampleur des ambitions.
Une valorisation à 2 milliards $
La transaction valorise Pasqal à 2 milliards $, faisant de la start-up de Palaiseau l’une des rares « licornes quantiques » au monde. Une marche franchie au pas de charge, qui s’explique autant par la maturité technologique de son offre ( des processeurs quantiques accessibles sur site ou via le cloud) que par son carnet de clients impressionnant : CMA CGM, OVHcloud, Thales, IBM, NVIDIA, Sumitomo.
Le tour d’investisseurs rassemble un plateau d’acteurs industriels et financiers qui reflète la dimension internationale prise par Pasqal : Parkway, Quanta Computer, LG Electronics, Temasek, l’European Innovation Council Fund, Saudi Aramco Entrepreneurship Ventures ou encore ISAI figurent parmi les nouveaux entrants, aux côtés de Bpifrance, fidèle au capital depuis 2021.
Nasdaq d’abord, Euronext ensuite
La stratégie boursière est doublement ambitieuse. Pasqal prévoit une première introduction au Nasdaq en 2026, via la fusion avec le SPAC Bleichroeder, avant de préparer une cotation sur Euronext Paris entre 2026 et 2027. Ce double ancrage vise à capter la liquidité des marchés américains, incontournables pour une deeptech qui se bat à armes égales avec des géants comme IBM Quantum ou IonQ, tout en maintenant une base actionnariale et décisionnelle en Europe.
L’opération, soumise aux approbations réglementaires habituelles et au dépôt d’un Form F-4 auprès de la SEC, n’est pas sans risques. Le marché des SPACs a connu ses turbulences ces dernières années, et la concurrence dans la course au quantique industriel s’intensifie. Pasqal mise sur la singularité de son approche — les atomes neutres — pour se différencier face aux architectures à base d’ions piégés ou de qubits supraconducteurs.
L’Essonne, QG mondial du quantique
Malgré l’envergure américaine de l’opération, Pasqal entend investir la majeure partie des fonds en France, et plus précisément à Palaiseau, dans l’Essonne, où est déjà implanté son site principal.
L’entreprise annonce vouloir doubler ses capacités de production en 24 mois et recruter 50 personnes supplémentaires sur 18 mois, soit une hausse des effectifs d’environ 20 % pour atteindre plus de 325 collaborateurs. La R&D sera également renforcée, avec un objectif affiché : disposer d’un ordinateur quantique tolérant aux pannes avant la fin de la décennie.
Un message politique autant qu’industriel, qui s’inscrit dans la logique du plan quantique national et des ambitions de souveraineté technologique européenne. Le futur ensemble issu de la fusion avec Bleichroeder restera d’ailleurs une entité de droit français, présidée par un ressortissant hexagonal, et Bpifrance conservera son siège au conseil d’administration.
Un test grandeur nature pour la deeptech européenne
La trajectoire de Pasqal sera scrutée bien au-delà du seul secteur quantique. Pour l’ensemble de l’écosystème deeptech européen, cette double cotation représente un test inédit : celui de la capacité d’un champion continental à lever des capitaux à l’échelle des exigences technologiques du moment, sans sacrifier son ancrage et ses valeurs.
Si l’opération réussit, elle démontrera qu’il est possible de rivaliser avec les poids lourds américains et asiatiques depuis Palaiseau et que le quantique européen n’est plus seulement une promesse de laboratoire. La balle est désormais dans le camp des marchés.
Mi-janvier, la nouvelle tombait : fin 2025, Société Générale avait décommissionné SoGPT. Après plus d’un an d’exploitation, un constat s’était imposé : ce GPT interne n’avait pas pu suivre la cadence des principales solutions du marché.
Le groupe français n’était pas à l’origine de cette annonce. Il ne l’a cependant pas démentie. Son P-DG s’en est même expliqué début février. Son postulat : puisque entre opportunités et menaces, les choses ne sont « pas encore totalement claires », il convient d’utiliser les meilleurs outils disponibles.
En interne, trois grandes typologies d’usages IA « fonctionnent », a-t-il ajouté. Premièrement, le résumé et la traduction de texte. Deuxièmement, l’extraction de données « plus ou moins structurées ». Troisièmement, les tâches informatiques, à commencer par le codage. Pour tous ces aspects, Société Générale préfère recourir à une technologie externe qui a « prouvé sa fiabilité » et sa « capacité à favoriser l’adoption ».
Cette techno, c’est Copilot, de Microsoft. Elle n’est pas, et de loin, une nouvelle venue dans la boîte à outils de Société Générale. Le groupe l’avait déployée en parallèle de son GPT interne. Sa directrice de l’innovation l’évoquait déjà en septembre 2023. Elle dénombrait alors quelque 600 cas d’usage de l’IA « classique », générant environ 340 M€ de valeur.
Un an plus tard, à l’occasion de la conférence Everyday AI Paris, l’intéressée avait mentionné SoGPT. Elle recensait alors 650 « cas d’usage data », dont plus de la moitié impliquant de l’IA. Le volet génératif était abordé sous le prisme « 4C » : client, contenu, concision et code. L’objectif était de dégager une valeur globale de 500 M€ à l’horizon 2025.
SocGen AI, une entité pour porter des développements internes « lorsque pertinent »
Pour industrialiser les solutions d’IA, Société Générale a créé, en mars 2025, une entité transversale : SocGen AI. Sa présidente est Laura Mather, COO du groupe. Son DG Nicolas Méric est un ancien de DreamQuark et de Linedata, fournisseurs de solutions data/IA pour le secteur financier.
L’AG de mai 2025 avait été l’occasion de revenir sur SocGen AI. Et, notamment, de promettre une ouverture aux expertises externes. Société Générale précisait alors avoir une stratégie de fournisseurs diversifiés… et opter pour des développements internes « lorsque pertinent ».
En septembre 2025, le groupe avait porté plainte auprès de l’Organisation mondiale de la propriété intellectuelle. Sa cible : une petite entreprise britannique qui avait déposé, trois ans plus tôt, le nom de domaine socgen.ai. Il avait obtenu raison en invoquant le dépôt de la marque SOCGEN au niveau européen en 1998 puis international en 2001.
Fin novembre, des offres d’emploi mentionnaient encore SoGPT. Par exemple, pour un poste de stagiaire à Monaco. Une des missions consistait en l’accompagnement des métiers par le déploiement et le support de SoGPT… ainsi que de Copilot.
Début décembre, un média indien publiait une interview de la DRH pour la zone Asie-Pacifique. Était évoqué, en particulier, l’usage de l’IA au sein du LMS (système de gestion de la formation) et de la marketplace interne de talents. SoGPT l’était aussi, comme Copilot. L’un et l’autre aident à l’interprétation des textes de loi, expliquait la DRH. Elle parlait aussi du recours à Copilot pour synthétiser les enquêtes de satisfaction employés.
La CANUT , la Centrale d’Achat du Numérique et des Télécoms dédiée aux collectivités et aux bailleurs sociaux, a sélectionné Cloud Temple comme l’un des deux titulaires du Lot 1 de son accord-cadre stratégique Cloud et Hébergement, notifié en février 2026 pour une durée de quatre ans.
Ce lot porte sur la fourniture, l’intégration et la gestion de services d’infrastructure cloud de confiance, à destination des collectivités territoriales, bailleurs sociaux et établissements publics adhérents.
Une position renforcée sur le marché public
Cet accord-cadre intervient dans un contexte de menaces croissantes sur les infrastructures publiques et d’exigences accrues en matière de protection des données citoyennes.
Cloud Temple se distingue en étant le seul titulaire du marché à détenir la qualification SecNumCloud délivrée par l’ANSSI, en plus de ses certifications HDS et ISO 27001. Ses services managés, certifiés HDS et en cours de qualification PAMS par l’ANSSI, sont également accessibles via le Lot 1.
Une offre d’IA souveraine incluse
Le périmètre du Lot 1 comprend aussi l’offre LLMaaS de Cloud Temple, qui donne accès à des modèles de langage dont l’inférence s’appuie sur une infrastructure qualifiée SecNumCloud, hébergée en France. Les données traitées restent strictement confidentielles et ne sont ni exploitées ni conservées après traitement.