Le Groupe Berger-Levrault, éditeur français de logiciels de gestion destinés aux collectivités territoriales, au secteur sanitaire et médico-social, à la GMAO et à l’éducation, annonce la nomination d’Hervé Solus au poste de directeur général. Il prend ses fonctions le 9 mars 2026.
Hervé Solus a cofondé DigitalRecruiters à l’âge de 19 ans, qu’il a dirigé jusqu’à sa cession au groupe Cegid fin 2022. Il a ensuite rejoint le comité exécutif de Cegid, où il a participé à la transformation et à la croissance du groupe.
À la tête de Berger-Levrault, il entend accélérer l’intégration de l’intelligence artificielle dans les solutions de l’entreprise. «Notre cap est clair et ambitieux : doubler le chiffre d’affaires et faire de Berger-Levrault un acteur « AI First » d’ici 2030. Une transformation que nous mènerons en nous appuyant sur nos plus grandes forces : notre connaissance métier, notre créativité et notre engagement collectif.», déclare-t-il.
Selon ses dépositions, Berger-Levrault a réalisé un chiffre d’affaires de 148 millions € de chiffre d’affaires en 2024 pour un résultat net de 11,4 millions.
Ce 10 mars, Anthropic a saisi la justice pour bloquer le Pentagone. L’entreprise refuse en effet de supprimer les garde-fous de son IA contre les armes autonomes et la surveillance intérieure. Or le secrétaire à la Défense Pete Hegseth avait notifié officiellement cette désignation le 3 mars, après des mois de négociations tendues.
Devant le tribunal fédéral de Californie, Anthropic dénonce des actions « sans précédent et illégales ». Elle invoque aussi une violation de ses droits constitutionnels à la liberté d’expression et au droit à une procédure régulière, selon Reuters. En parallèle, une seconde plainte cible une désignation au titre de risque dans la chaîne d’approvisionnement civile, devant la Cour d’appel du District de Columbia.
Des milliards de dollars en jeu
Les dirigeants d’Anthropic dressent un tableau financier alarmant dans leurs dépositions. Krishna Rao, directeur financier, estime que le gouvernement pourrait réduire le chiffre d’affaires 2026 « de plusieurs milliards de dollars ». Il ajoute que l’impact serait « presque impossible à inverser » si ces actions se maintenaient.
La dépendance au seul Département de la Défense met déjà en péril plusieurs centaines de millions de dollars de revenus 2026. Par ailleurs, les sous-traitants de la défense pourraient réduire leur engagement de 50 % à 100 %. Enfin, l’entreprise anticipe une perte de confiance des investisseurs, ce qui alourdirait ses coûts de financement.
Le secteur public : un pilier menacé
Thiyagu Ramasamy, directeur du secteur public, confirme des dommages « immédiats et irréparables ». Il chiffre la perte directe à plus de 150 millions $ de revenus récurrents annuels. Ce montant concerne les contrats existants et attendus avec le Département de la Défense.
La croissance dans ce segment était pourtant spectaculaire. Entre décembre 2025 et janvier 2026, le taux annualisé des revenus récurrents du secteur public avait quadruplé. De plus, les projections tablaient sur plusieurs milliards de dollars sur cinq ans. Ainsi, si les contractants de défense rompaient leurs liens, les revenus attendus pour 2026 — plus d’un demi-milliard de dollars — pourraient « disparaître entièrement ».
Des clients privés également touchés
Paul Smith, directeur commercial, détaille lui aussi les dommages sur le marché privé. Un partenaire a ainsi abandonné Claude au profit d’un concurrent pour un déploiement de la Food and Drug Administration (FDA). Ce changement efface un pipeline de revenus anticipés de plus de 100 millions $.
D’autres contrats souffrent également. Des négociations avec des institutions financières représentant 180 millions $ combinés ont été perturbées. Un contrat de 15 millions $ est en pause. En outre, un client fintech a réduit son engagement de 10 à 5 millions $, citant directement la « situation » avec le Pentagone.
Plus de 100 clients entreprises ont ensuite contacté Anthropic. Ils expriment « une profonde inquiétude, de la confusion et du doute » sur les risques liés à leur association avec la société.
Du côté d’AWS, on aide désormais les clients à migrer leurs charges de travail liées au Département de la Guerre vers d’autres modèles. Toutefois, AWS précise que Claude reste disponible pour toutes les charges de travail sans lien avec le Pentagone.
Un bras de fer aux répercussions sectorielles
Ce conflit dépasse le seul cas d’Anthropic. Il soulève des enjeux fondamentaux pour toute le secteur de l’IA. Ainsi, 37 chercheurs et ingénieurs d’OpenAI et de Google, dont Jeff Dean, directeur scientifique de Google, ont déposé un mémoire d’amicus curiae en soutien à Anthropic. Selon eux, cette affaire pourrait décourager les experts de l’IA de débattre ouvertement des risques et bénéfices de leurs technologies.
L’ouverture de Google Workspace aux agents IA passe par la ligne de commande.
On a pu s’en convaincre ces derniers temps avec l’émergence de divers projets. Par exemple, gogcli et workspace-cli. Tous deux sont nés fin 2025. Ils donnent accès à l’essentiel des API de la suite, avec une conception pensée pour ces agents.
Leur avenir apparaît incertain désormais que Google a son propre outil : gws. En l’état, il n’en assure pas officiellement le support. Mais le code a été versé dans l’organisation GitHub dédiée à Google Workspace
Écrit en Rust comme workspace-cli, gws adapte lui aussi le format d’entrée aux agents IA, en privilégiant le JSON brut. Il fait de même avec les réponses API ; en intégrant notamment, pour limiter la consommation de tokens, de la pagination et des masques de champs.
L’ingénieur qui en est à l’origine insiste sur l’approche spécifique retenue pour la documentation API. Plutôt que de demander à un modèle de la rechercher en ligne ou de l’intégrer dans son prompt système, on lui présente, à la demande, des schémas JSON. Le document de découverte des API Google Workspace – sorte de catalogue dynamique qui décrit la surface des API et la manière de les utiliser – sert de source de vérité.
Une hiérarchie de skills… et une jonction avec OpenClaw
À l’instar de workspace-cli, gws permet le dry run (validation des requêtes en local) et le contrôle des réponses de l’API via Model Armor (service hébergé sur Google Cloud).
Un autre point commun fut la disponibilité d’un serveur MCP, mais cette option a fini par disparaître sur gws. Comme le multicompte (les agents pouvaient basculer en fonction du contexte).
Les instructions pour OpenClaw intégrées au README sont quant à elles restées. Le système de skills aussi. Il y en a une grosse centaine, déclinées sur quatre niveaux d’abstraction :
Services (le socle productivité de Google Workspace, mais aussi la gestion des identités, des licences, des groupes et des alertes, entre autres)
Et soudain, à l’été 2025, le shadow AI devint tendance sur Google.
À l’échelle mondiale, le volume de recherches a subitement crû, atteignant un pic vers la mi-août.
La France a suivi le mouvement avec quelques semaines de décalage. Sur place la popularité du mot-clé est parvenue à son plus haut début 2026.
L’emballement avait démarré fin octobre, début novembre. ChatGPT allait avoir 3 ans (OpenAI l’a lancé le 30 novembre 2022). Un autre anniversaire approchait : celui de MCP, qu’Anthropic avait publié le 25 novembre 2024.
De l’un à l’autre, 2 ans, donc. Mais aussi un constat : le shadow AI n’a plus tout à fait le même visage. De l’usage clandestin de SaaS par des employés isolés, la notion en est venue à couvrir un éventail de workflows non maîtrisés, plus ou moins imbriqués. Et à s’affirmer comme un sous-ensemble bien spécifique du shadow IT, à l’aune du potentiel transversal des modèles d’IA à usage général.
Samsung et ChatGPT, un souvenir bien ancré
Les interfaces de chat en ligne furent pendant un temps le principal canal d’interaction avec ces modèles, qui tenaient le haut de l’affiche. Les SLM étaient alors peu présents dans le discours d’OpenAI et Cie, Mistral AI n’avait pas encore émergé et l’idée d’un « ChatGPT français » faisait son chemin, même si d’aucuns considéraient déjà qu’elle relevait du « vœu pieux ».
Sur ces interfaces, accessibles le plus souvent avec une simple adresse électronique, le risque le plus visible – et le plus immédiat – fut l’exfiltration de données au sein des prompts.
Le business model de ChatGPT public, c’est d’absorber les données qu’on lui transmet », rappelle Guillaume Durand, Chief Data Officer de LCL. L’intéressé n’a pas oublié ce qui est arrivé à Samsung : « Un salarié avaitmis toute la stratégie [de l’entreprise] » dans ChatGPT, qui l’avait ensuite régurgitée, résume-t-il.
Michael Lévy, directeur stratégie et innovation chez Orange Business, se souvient aussi du cas de Samsung, « qui avait retrouvé une partie de son code » dans ChatGPT.
Dans les faits, il y avait à la fois du code et des éléments de stratégie. Au moins 3 employés étaient impliqués. L’affaire remonte à 2023.
Face au shadow AI, savoir donner le change
Face à ce risque, une stratégie de défense prédominante fut le blocage d’URL au niveau du pare-feu. « La première chose qu’on a faite, c’est de bloquer ces outils », confirme Guillaume Durand. « Mais on sait que tout le monde a un téléphone… », tempère-t-il.
Sans parade technique absolue à l’usage de ChatGPT sur les appareils personnels, la réponse doit passer par de la sensibilisation. D’après Mick Lévy, on retrouve là « les mêmes débats qu’aux grandes heures du RGPD ». Mais pour lui comme pour Guillaume Durand, la démarche ne peut tenir sans fournir aux employés des outils alternatifs aussi efficaces.
Y parvenir nécessite de s’approprier le shadow AI. De « faire émerger [les usages], de les comprendre et des les orienter, déclare Henri d’Agrain. Et ainsi de reconstituer du collectif là ou l’IA générative, utilisée en solitaire, tend à le fragmenter », poursuit le délégué général du Cigref.
De la défiance… et du « bricolage »
L’association, qui fédère les DSI et responsables du numérique des grandes entreprises et administrations françaises, se réfère à un rapport que l’Inria a réalisé avec Datacraft. Un des sociologues de l’institut y assimile le shadow AI à un « bricolage pragmatique » porté tant par une recherche d’efficacité que de confort cognitif.
La variété des formes que ce bricolage peut prendre complique la détection des usages. Surtout que ceux-ci se développent rarement à visage découvert, en particulier par crainte d’être jugé ou de voir son expertise fragilisée. Ainsi le Cigref résume-t-il tout du moins les choses. Ce qui l’amène à prôner l’instauration d’un climat de confiance (« Tant que l’aveu de l’usage sera perçu comme une faute, le shadow AI prospérera ».)
En 2021, avant la vague GenAI, le Partenariat mondial sur l’IA avait pointé un autre aspect favorable au développement de pratiques hors des cadres de gouvernance. En l’occurrence, l’irritation liée à la suppression ou à la transformation de gestes professionnels emblématiques. Ainsi qu’à la création de nouvelles tâches peu valorisées. Il avait aussi alerté sur la réalité de systèmes d’IA parfois « utiles mais non utilisables » ou l’inverse.
Les effets secondaires d’une « transformation silencieuse »
La même année, l’Inria avait monté, avec le ministère du Travail, le LaborIA. Ce laboratoire d’étude des effets sociétaux de l’intelligence artificielle allait, en 2024, mettre en lumière le fait que les systèmes mis en place se rapportaient trop au travail prescrit ; pas assez au travail réel. Les salariés tendaient par là même à remettre en cause l’idée que l’IA enrichissait automatiquement leur valeur.
Nombre d’analyses y ont fait écho. Illustration du côté de la RAND Corporation. Ce think tank que finance le gouvernement américain a souligné le risque d’une mauvaise communication sur les objectifs à atteindre. Et de là, d’une optimisation de métriques inadaptées ou d’un ancrage inapproprié dans les processus métiers.
En parallèle, une étude émanant de l’université libre d’Amsterdam a révélé des effets secondaires de la « transformation silencieuse » qu’induit le shadow AI. Parmi eux, la diminution des échanges entre collègues. Et ainsi, un affaiblissement de la circulation des savoirs tacites et de l’apprentissage collectif. S’y ajoute la difficulté à mesurer la qualité des contenus générés, avec toutes les erreurs que cela peut engendrer. De surcroît, l’évaluation des contributions et de la montée en compétences devient plus complexe.
MCP, incarnation du champ des possibles
D’autres seuils ont été franchis à mesure que les logiciels se sont mis à embarquer de l’IA générative. Parfois en l’activant par défaut, sans toujours en exposer le fonctionnement voire l’existence. Les principaux fournisseurs de modèles ayant ouvert des API publiques – plus lucratives que les abonnements mensuels -, les points d’intégration se sont multipliés. La surface d’attaque s’est par conséquent élargie… et surtout diversifiée. Des datasets privés aux couches d’orchestration, pour chaque modèle déployé, les entreprises introduisent deux ou trois composants supplémentaires, affirme Snyk. Des composants qui proviennent pour l’essentiel de packages externes sur lesquels le contrôle peut être limité.
En matière de ressources externes dont la gestion peut s’avérer délicate, MCP est un emblème. Quoique devenu standard de facto, le protocole est jeune. La communauté travaille, entre autres, sur un répertoire public de serveurs de confiance. Il est actuellement en preview. En attendant, la vigilance est de mise face aux tentatives d’usurpation des serveurs (typosquatting, confusion de dépendances…), une commande pouvant théoriquement suffire à en installer un.
L’usurpation peut également cibler les IA, en jouant sur le nom des outils qui leur sont présentés. Au rang des risques encourus, l’injection, jusqu’au niveau du prompt système, d’instructions poussant à effectuer des actions malveillantes. Ou l’empoisonnement de la mémoire des modèles.
D’autres portes s’ouvrent avec l’option qui permet d’exécuter un serveur MCP sur la même machine que le client. C’est sans compter les endpoints éventuellement dotés de trop de permissions. Un enjeu qui a pris de l’importance avec l’avènement des applications MCP interactives.
Des passerelles IA à l’AISPM, entre vent nouveau et appel d’air
MCP symbolise ce « champ des possibles » autour duquel quantité d’acteurs de la cyber sont venus se positionner. L’appel d’air est d’autant plus fort que des plug-in SaaS aux extensions de navigateur, une partie du shadow AI ne touche pas le réseau corporate. Pour les outils de sécurité qui agissent à ce niveau, c’est un potentiel angle mort. Ou au minimum une contrainte. Dans cette catégorie, on trouve du DLP. Mais aussi des firewalls, où le recours à l’inspection TLS est parfois possible, mais ajoute une surcharge.
Dans ce contexte, les proxys ont évolué en AI gateways, dans la lignée des passerelles API, avec la promesse d’une visibilité sur ce qui se passe dans les applications. Et donc une aptitude à filtrer les prompts, à détecter les injections, à masquer les données sensibles, etc.
Quelques-uns des principaux fournisseurs de sécurité réseau ont pris ce virage à renfort de croissance externe. Palo Alto Networks s’est emparé de Protect AI ; Cato Networks, d’Aim Security ; Proofpoint, d’Acuvity. Des acquisitions généralement venues consolider des offres SASE, sous la bannière AISPM (gestion continue de la posture de sécurité de l’IA). Une approche qui peut tout à fait venir renforcer un socle DSPM (data security posture management) ayant au préalable permis de cartographier les données.
Bataille pour la protection des navigateurs
Avec son navigateur d’entreprise, Seraphic s’était aussi positionné sur la protection contre les menaces liées à l’usage de l’IA. Il a fini chez Crowdstrike. Son produit le dispute à des intégrations natives (Defender for Cloud dans Edge, par exemple). Et à une myriade d’extensions (LayerX, MagicMirror, Push Security…) qui promettent pareillement un contrôle sur les flux IA échappant au réseau interne.
Les EDR ont aussi leurs extensions de navigateur. Mais leur apport à la protection contre le shadow AI se trouve plutôt dans l’analyse de l’exécution locale des LLM (runtimes, extensions IDE…).
Les solutions de gestion du SaaS (Corma, CloudEagle, Torii…) et de l’expérience employé numérique (Nextthink, ControlUp, Riverbed…) ont également investi le créneau. Les uns et les autres promettent avant tout d’aider à cartographier le shadow AI. Et à attribuer des responsabilités, une tâche que l’usage massif de données non structurées complique.
Le BYOK, levier parmi d’autres pour trouver le juste milieu
Au-delà de la mise en œuvre technologique, l’attribution des rôles et des responsabilités relève de la mesure organisationnelle. La formation des collaborateurs aussi. Stéphane Roder, président d’AI Builders, invite à y associer une certification : « Il faut un niveau minimum, sinon [ce sera du] temps passé à vérifier [par après] ».
Du temps, on peut également en passer sur le cadrage avec les fournisseurs, en contractualisant des garanties, notamment d’ordre juridique. Puis en balisant des chemins vers les produits couverts. Comme, dans le cas d’une API, en autorisant le BYOK (bring your own key).
Les contrats de travail sont un autre levier, par l’intermédiaire de clauses interdisant par exemple d’approuver des accords de licence ou des conditions d’utilisation non validés au préalable. En gardant à l’esprit qu’il s’agit d’éviter une trop grande frustration des utilisateurs. Chez AXA France, la quête du juste milieu a donné naissance au concept de « décentralisation gouvernée »…
C’est l’annonce que l’écosystème des éditeurs de modèles IA attendait depuis que Yann LeCun avait annoncé son départ de Meta et son intention de développer Advanced Machine Intelligence (AMI) Labs.
Restaient les questions en suspens : Avec qui ? Avec quels fonds ? Quand ?
L’ex directeur de Facebook AI Research (FAIR) a levé le voile ce 10 mars en annonçant une levée de fonds de 1,03 milliard $ (environ 890 millions €) en amorçage, pour une valorisation pré-money de 3,5 milliards $. Un record en Europe pour un tour d’amorçage, dépassé seulement par l’américaine Thinking Machines Lab, fondée par Mira Murati, ancienne directrice technique d’OpenAI., qui avait levé 2 milliards $ en juin 2025.
Une équipe de chercheurs issus de Meta
On connait aussi désormais l’équipe qui va développer le business d’AMI Labs : ils sont six co-fondateurs, tous anciens de Meta. Alexandre Lebrun, ancien CEO de la start-up de santé Nabla (rachetée par Meta en 2015 sous le nom Wit.ai), prend la tête d’AMI Labs en tant que directeur général, tandis que Yann LeCun en préside le conseil d’administration.
Laurent Solly, ex patron de Meta pour l’Europe, assure le rôle de directeur des opérations. A ses côtés, Pascale Fung est directrice de la recherche et de l’innovation, Saining Xie est directeur scientifique, et Michael Rabbat est responsable des « représentations du monde ».
AMI Labs compterait aujourd’hui une dizaine de salariés et vise 30 à 50 personnes d’ici six mois, répartis entre son siège social de Paris et ses bureaux de New York, Montréal et Singapour.
Les « world models » contre les LLM
Au cœur du projet d’AMI Labs : une rupture revendiquée avec les grands modèles de langage (LLM) comme ChatGPT, Claude ou Gemini. Pour Yann LeCun, ces systèmes entraînés principalement sur du texte ne pourront jamais atteindre le niveau de raisonnement d’un humain, ni même celui d’un enfant de 6 ans ou d’un chat. « L’architecture générative entraînée par l’apprentissage auto-supervisé imite l’intelligence ; Ils ne comprennent pas vraiment le monde », résume Alexandre Lebrun.
L’alternative que développe AMI Labs s’appelle « world models » (modèles du monde) : des architectures d’IA capables de se représenter l’environnement physique de manière abstraite et conceptuelle, de mémoriser des informations et de planifier des séquences d’actions complexes comme anticiper qu’un objet tombera s’il arrive au bord d’une table.
AMI Labs s’appuiera sur les travaux conduits par Yann LeCun chez Meta autour de l’architecture JEPA (Joint Embedding Predictive Architecture), entraînée sur des vidéos et des données spatiales plutôt que sur du texte.
Des ambitions industrielles et robotiques
AMI se positionne d’abord comme un projet de recherche fondamentale, mais avec des débouchés commerciaux clairement identifiés : fabricants, constructeurs automobiles, entreprises aérospatiales, acteurs du biomédical et de la pharmacie. « Nous voulons devenir le principal fournisseur de systèmes intelligents, quelle que soit l’application », a déclaré Yann LeCun à Reuters.
La robotique constitue l’une des applications prioritaires. « Pourquoi aujourd’hui, on a des systèmes qui passent l’examen du barreau, qui démontent des théorèmes, qui écrivent du code, mais on n’a toujours pas de robots domestiques ou de voitures qui se conduisent toutes seules ? » » insistait-il sur France Inter.
Il envisage également des usages grand public avec le déploiement de cette technologie dans ses lunettes connectées Ray-Ban Meta. « C’est probablement l’une des applications potentielles à court terme » a-t-il annoncé à Reuters.
AMI Labs va proposer ses modèles sous deux formes : un accès via API (modèle payant à la requête) et une version téléchargeable, potentiellement en open source. Un atout différenciateur, notamment pour recruter des profils de recherche de haut niveau.
Un tour de table mondial, un ancrage européen
Initialement ciblé à 500 millions $,la demande des investisseurs a largement dépassé les attentes. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le fonds de Jeff Bezos). Nvidia, habitué des investissements dans les start-up d’IA, figure également parmi les participants, aux côtés du fonds singapourien Temasek, de SBVA (SoftBank), de Toyota Ventures et de Samsung.
Côté européen et français, on retrouve Daphni, Bpifrance, le Groupe industriel Marcel Dassault, l’Association Familiale Mulliez, Aglaé Ventures (LVMH), Zebox Ventures (CMA CGM) et Xavier Niel, à titre personnel.
« Il y a des investisseurs très diversifiés avec un peu plus du tiers qui sont européens, une grande partie de Français, un peu moins du tiers viennent d’Asie et du Moyen-Orient, et à peu près un tiers sont américains. Quand une entreprise dépasse une valorisation d’un milliard, on appelle ça une licorne, nous, on dépasse les trois milliards, donc on est un tricératops » se rejouit Yann LeCunil.
Le premier partenaire stratégique d’AMI Labs sera Nabla, la start-up d’IA pour la santé cofondée par Alex Lebrun, qui gardera en parallèle un rôle de directeur scientifique dans cette société. Une façon de tester dès le départ les modèles du monde sur des données réelles dans un secteur à fort enjeu.