Une société ne peut faire valoir une atteinte à la vie privée de ses salariés pour contester une saisie effectuée par l’Autorité de la concurrence.
La chambre criminelle de la Cour de cassation l’énonce dans un arrêt du 13 janvier 2026, réitérant une décision de 2024.
Le requérant avait fait l’objet d’une visite et saisie en novembre 2022, comme d’autres entreprises. Il s’agissait de rechercher des preuves de pratiques anticoncurrentielles dans le secteur de l’approvisionnement laitier.
Le pourvoi en appel avait été infructueux. La Cour avait exclu toute application du RGPD à la saisie de données personnelles dans le cadre de telles opérations. Plus précisément, dès lors que le juge des libertés et de la détention a donné son aval à la démarche, qu’il en contrôle la réalisation et qu’elle est susceptible d’un recours en cassation. Ces conclusions se fondaient cependant sur une jurisprudence de 2011, ce qui ouvrait une brèche potentielle.
L’argument a en tout cas été invoqué en cassation : cette jurisprudence ne pouvait être appliquée au RGPD, puisqu’elle concernait la loi telle qu’elle était avant la transposition du règlement (intervenue en 2018).
En se référant à son arrêt de 2024, la Cour de cassation a de fait rejeté l’argument. Et elle a donc ajouté que seul le salarié peut contester une saisie portant atteint à la vie privée ou aux données personnelles. Il est effectivement le seul titulaire des droits que le RGPD garantit en la matière.
Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.
Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.
L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.
De quoi parle-t-on exactement ?
Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.
Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.
Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.
> Google et le Project Suncatcher
Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.
> L’Initiative européenne ASCEND
En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.
Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.
> Starcloud et Nvidia : objectif « hypercluster »
Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.
Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.
L’Alliance nippo-américaine contre la Chine
Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.
La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.
Les défis technologiques et architecturaux
La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.
> Lancement et assemblage
Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.
> Gestion thermique complexe
Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.
> Fiabilité matérielle extrême
Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.
> Connectivité Haute Performance
Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.
Les défis économiques et temporels
Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :
Les débris spatiaux représentent une menace constante pour tout équipement orbital
Les coûts de lancement demeurent substantiels malgré les progrès récents
La maintenance est extrêmement limitée une fois les satellites en orbite
Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible
Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.
Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.
Enjeux énergétiques et environnementaux : un bilan contrasté
Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.
Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.
Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :
La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
La congestion croissante des orbites basses, source de risques de collision
L’impact cumulatif de milliers de lancements sur l’atmosphère
Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?
L’ambition de Musk et de Bezos
Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.
Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »
SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.
De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.
L’année 2025 a marqué un tournant décisif dans l’adoption de l’intelligence artificielle en entreprise. Selon » l’étude annuelle de la transformation des organisations » du cabinet Lecko, nous assistons au passage de l’expérimentation à l’intégration structurelle de l’IA dans le flux de travail quotidien. Mais cette transformation s’accompagne de défis majeurs et de paradoxes qui obligent les organisations à repenser profondément leurs modes de fonctionnement.
De l’outil isolé à l’architecture IA cohérente
Les organisations ne peuvent plus se contenter de « choisir une IA ». Elles doivent désormais concevoir une architecture IA cohérente, capable d’articuler des modèles spécialisés comme Claude, GPT ou Mistral, des couches d’orchestration et des connecteurs de données basés sur le RAG (Retrieval Augmented Generation) pour garantir la fiabilité des réponses.
Cette évolution traduit une maturité nouvelle : l’IA ne se déploie plus au coup par coup, mais s’inscrit dans une stratégie d’ensemble.
L’avènement de l’IA agentique
Lecko e met en lumière le passage de l’IA générative simple à l’IA agentique, une évolution majeure qui transforme radicalement les processus métiers. Contrairement aux outils d’assistance classiques, un agent IA est capable d’exécuter des tâches de manière autonome, comme planifier une réunion ou traiter un processus RH, en interagissant directement avec l’environnement de travail.
Cette autonomie repose sur trois caractéristiques essentielles : la capacité d’analyse de situations complexes, l’élaboration de stratégies et l’interaction directe avec les outils existants comme les CRM, ERP ou agendas. L’IA agentique vise la substitution complète de tâches, et non plus seulement leur amélioration ou leur facilitation.
Une spécialisation par métiers
L’IA s’intègre désormais au cœur des processus spécifiques de chaque département.
Dans les ressources humaines, des solutions comme Workday Illuminate déploient des agents spécialisés pour automatiser le recrutement ou rédiger des contrats. ServiceNow Now Assist automatise le résumé d’incidents et la génération de workflows pour les équipes IT. Les équipes commerciales bénéficient d’agents capables de qualifier des leads ou de préparer des devis de manière autonome.
En 2026, la valeur se déplace vers des plateformes agentiques capables d’orchestrer plusieurs agents simultanément. Les éditeurs comme Jalios, Jamespot, LumApps ou Microsoft proposent des studios « low-code » permettant aux métiers de fabriquer leurs propres agents sur mesure. Des « méta-agents » ou concierges IA dirigent les requêtes vers l’agent le plus pertinent, interrogeant simultanément différentes bases de données.
Selon Gartner, en 2028, 15 % des décisions professionnelles quotidiennes seront prises de manière autonome par des agents IA. Cette perspective souligne l’ampleur de la transformation en cours.
Le paradoxe de la productivité
L’un des enseignements les plus importants de l’étude concerne ce que Lecko appelle le « paradoxe de la productivité ». Contrairement aux attentes, l’IA n’améliore pas automatiquement les rythmes de travail. Pour obtenir un gain réel, il faut viser les tâches de substitution, où l’IA remplace effectivement une action humaine, plutôt que les tâches de confort ou de renfort.
Si les gains de temps promis par l’IA ne sont pas utilisés pour substituer des tâches récurrentes, ils restent invisibles au niveau de l’organisation et peuvent même entretenir l’hyperconnexion. L’IA agit ainsi comme un révélateur : elle ne peut transformer les processus que si le patrimoine documentaire est sain et bien structuré. Elle devient inefficace si les règles métiers sont floues ou les données mal organisées.
Lutter contre le bruit organisationnel
Le bruit organisationnel, défini comme le surplus de sollicitations numériques non filtrées et non priorisées qui fragmentent l’attention, est l’un des fléaux de l’environnement de travail moderne. L’IA agentique offre plusieurs leviers pour le combattre.
Des systèmes comme l’Assistant Teamwork de Jamespot proposent des résumés intelligents de notifications et une priorisation des messages. Des outils comme Staffbase ou Sociabble utilisent l’IA pour segmenter les audiences et personnaliser les flux, évitant de diffuser des informations non pertinentes aux collaborateurs terrain.
L’émergence de méta-agents orchestrateurs permet de router les requêtes vers le bon agent spécialisé, évitant les allers-retours inutiles dans le système d’information. Des plateformes comme LumApps avec son Agent Hub ou Elium centralisent les connaissances pour répondre en langage naturel, réduisant le bruit lié aux recherches infructueuses.
L’écosystème agentique gagne également en attractivité en proposant des innovations comme le « zéro fichier » ou la structuration des connaissances, ce qui réduit structurellement la place centrale de l’email, premier vecteur de pollution informationnelle en entreprise.
L’optimisation des réunions : promesses et limites
L’IA peut contribuer à limiter l’inefficacité des réunions, mais avec des nuances importantes. Les outils actuels comme Copilot, Leexi ou Fireflies excellent dans la transcription, la génération de comptes-rendus et l’extraction de plans d’actions. En fournissant des synthèses préalables, l’IA permet de raccourcir les réunions et de limiter le nombre de participants nécessaires.
Cependant, l’étude souligne une limite technique majeure : la réunion hybride est particulièrement difficile à traiter pour l’IA, qui peine à identifier correctement les personnes présentes physiquement par rapport à celles en ligne.
De plus, l’IA agit comme un miroir de l’efficacité organisationnelle. Une réunion mal structurée ou sans animateur produira une synthèse médiocre. Le déploiement de l’outil seul ne suffit pas à améliorer les rythmes de travail ; il doit s’accompagner d’un questionnement sur la nécessité même de la réunion.
Les risques et limites de l’IA générative
L’étude alerte sur plusieurs risques significatifs.
Paradoxalement, l’IA peut aggraver la pollution informationnelle si elle n’est pas accompagnée d’une transformation des pratiques. La facilité de production peut saturer davantage l’environnement numérique, créant un effet « tapis roulant » où une part croissante des contenus est générée automatiquement sans forcément apporter de valeur ajoutée.
Le phénomène du « Shadow AI » est également préoccupant : environ 49 % des utilisateurs en entreprise ont recours à l’IA sans en informer leur hiérarchie, ce qui contribue à fragmenter la Digital Workplace et complique la maîtrise des flux d’informations.
Des études alertent également sur une baisse des capacités cognitives et mémorielles des utilisateurs. La présence d’une IA peut encourager les participants à être moins attentifs, comptant sur le résumé automatique pour rattraper ce qu’ils ont manqué, un effet qualifié « d’endormissement au volant ».
Enfin, l’impact environnemental est colossal : la consommation d’électricité des data centers pourrait doubler d’ici 2026, soulevant des questions urgentes sur la soutenabilité de cette révolution technologique.
Perplexity s’offre les services du cloud Azure de Microsoft pour déployer des modèles d’IA via le service Foundry, incluant notamment ceux développés par OpenAI, Anthropic et xAI, selon des sources citées par Bloomberg.
Son montant : 750 millions $ sur trois ans.
« Nous sommes ravis de nous associer à Microsoft pour accéder aux modèles de pointe de X, OpenAI et Anthropic », a déclaré Perplexity en précisant que ce nouveau contrat ne s’accompagne d’aucun transfert de dépenses depuis Amazon Web Services, son principal fournisseur cloud historique.
« AWS reste le fournisseur d’infrastructure cloud privilégié de Perplexity, et nous sommes impatients d’annoncer des extensions de ce partenariat dans les semaines à venir », a ajouté le porte-parole.
Cette diversification illustre une tendance forte de l’approche « multicloud » qui s’est accélérée avec l’avènement de l’IA.
Des relations complexes avec Amazon
Perplexity avait jusqu’ici construit l’essentiel de son activité sur AWS, utilisant le service Bedrock pour accéder aux modèles Anthropic qui alimentent son moteur de recherche.
Aravind Srinivas, le directeur général de Perplexity, est un habitué des conférences AWS qui présentait volontiers Perplexity comme l’un de ses clients IA de référence.
Les relations se sont toutefois tendues ces derniers mois. En novembre, Amazon a poursuivi Perplexity en justice pour tenter d’empêcher la start-up de permettre aux consommateurs d’utiliser ses outils d’IA pour faire leurs achats sur la marketplace du géant du commerce en ligne. Perplexity a riposté en qualifiant Amazon d’intimidateur, dénonçant des actions constituant « une menace pour le choix des utilisateurs ». Srinivas avait alors révélé avoir pris des « centaines de millions » d’engagements auprès d’AWS.
Microsoft muscle son offre IA
Pour Microsoft, cet accord renforce sa stratégie visant à positionner Azure comme la plateforme de référence pour développer des applications d’IA et déployer des modèles de multiples fournisseurs. Le groupe propose depuis longtemps les modèles de son partenaire OpenAI et a conclu un accord similaire avec Anthropic en novembre.
« Nos clients s’attendent à utiliser plusieurs modèles dans le cadre de n’importe quelle charge de travail », a déclaré le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats cette semaine. « Et nous offrons la plus large sélection de modèles de tous les hyperscalers. »
Plus de 1 500 clients Microsoft Foundry ont déjà utilisé à la fois les modèles OpenAI et Anthropic, a précisé le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats financcette semaine indiquant que le nombre de clients dépensant plus d’un million de dollars par trimestre sur Foundry a progressé de près de 80% au cours du trimestre clos en décembre.
Perplexity compte parmi les start-ups d’IA les mieux valorisées, mais fait face à une rude concurrence de Google et OpenAI dans son ambition de révolutionner la recherche d’informations en ligne. Contrairement à OpenAI et Anthropic, qui ont récemment multiplié les accords d’infrastructure, elle n’a pas levé autant de capitaux que ses concurrents.
Avec seulement 3 magistrats traitant les dossiers de cybercriminalité, la France accuse une véritable carence sur le volet judiciaire.
La CSNP (Commission supérieure du numérique et des postes) avait fait ce diagnostic au printemps 2021. Il était inscrit dans une série de recommandations sur la sécurité numérique. En toile de fond, la stratégie nationale pour la cybersécurité, annoncée quelques semaines plus tôt.
La CSNP notait que cette stratégie n’abordait pas le volet du traitement policier et judiciaire de la cybercriminalité. Elle encourageait les pouvoirs publics à étudier la création d’un parquet national cyber et à porter la même approche au niveau européen. Autres recommandations : consolider le dispositif des référents cybercriminalité auprès de chaque cour d’appel et dispenser aux magistrats des formations spécifiques.
La nouvelle stratégie nationale pour la cybersécurité, présentée le 29 janvier 2026, n’entre pas dans ce niveau de détail, mais l’État y promet un « renforcement de la réponse judiciaire ». Il s’engage, en parallèle, à mieux mobiliser d’autres leviers pour « décourager les agressions cyber » : sanctions, capacités cyber offensives et capacités de recueil de renseignement.
Où l’on parle désormais de féminisation du numérique
Un autre aspect non évoqué dans la stratégie précédente est la féminisation des métiers du numérique. Désormais, on nous promet un programme de mentorat spécifique pour les jeunes filles, capitalisant sur le retour d’expérience des initiatives existantes. En complément, il est question d’intégrer de la cybersécurité dans les dispositifs d’engagement civique à destination de la jeunesse.
Le sujet de la féminisation figurait dans les observations de la CSNP. La commission avait notamment appelé les pouvoirs publics à renforcer leurs soutiens à la fondation Femmes@Numérique… alors présidée par l’une de ses membres*.
Parmi ses recommandations figurait aussi l’accélération de la mise en œuvre des ambitions de l’Appel de Paris. À travers lui, la France avait, en 2018, impulsé un ensemble de principes et de valeurs communes pour un cyberespace « libre, sûr et ouvert ». La CNSP espérait que leur traduction en mesures opératoires soit portée auprès de l’UE dans le cadre de la présidence française en 2022.
La nouvelle stratégie nationale de cybersécurité (2026-2030) mentionne l’Appel de Paris. L’État affirme vouloir poursuivre l’animation de la communauté qui en est née. Et le soutien des initiatives internationales connexes visant à mettre en œuvre les principes. À ce titre, la France poursuivra son implication dans le processus de Pall Mall, destiné à contrer l’utilisation abusive des capacités d’intrusion cyber disponibles sur le marché.
Le Campus Cyber, aux abonnés absents
La stratégie de 2021 accordait une grande place au Campus Cyber, alors en phase de préfiguration. Une enveloppe de 148 M€ – dont la moitié en fonds publics – devait y être dédiée. L’État se projetait également sur les déclinaisons régionales de ce « lieu totem », en phase avec la mise en place des CSIRT territoriaux.
Pas de référence au Campus Cyber dans la nouvelle stratégie, quand bien même sont évoqués de nombreux enjeux que son action est censée couvrir.
A contrario, des organismes non cités dans l’ancienne stratégie le sont cette fois-ci. Parmi eux, l’InterCERT, pour le renforcement du partage d’informations techniques sur les menaces entre services de l’État et acteurs privés. Il y a aussi ceux qui n’existaient pas encore, comme l’INESIA et le 17Cyber. Le premier doit accompagner les initiatives d’investissement dans la recherche sur les risques et opportunités de l’IA. Le second fera l’objet d’une intégration dans un « portail national de la cybersécurité du quotidien ».
Des critères cyber dans les dispositifs d’aides d’État
Pour le grand public, on nous parle aussi d’un « filtre de cybersécurité […] visant à prévenir l’accès aux sites web malveillants ». Et d’une « marque nationale de prévention du risque numérique ». Elle portera des campagnes de sensibilisation sur le modèle de celles de la prévention routière.
Pour les entreprises, la feuille de route comprend un label de confiance destiné à valoriser les efforts de sécurisation. L’État envisage par ailleurs d’intégrer des critères de cybersécurité dans ses dispositifs d’aides, « à l’instar de France 2030 ».
Concernant les fournisseurs de produits et services de cybersécurité, la France affirme sa volonté de rechercher des synergies entre domaines civil et militaire. Entre autres ambitions figurent le soutien à la filière d’évaluation de sécurité et la maîtrise des technologies critiques dans le domaine de la cryptographie. L’accompagnement à la mise en œuvre du CRA (Cyber Resilience Act) est un autre objectif. Cela passera par un renforcement de la politique nationale de gestion coordonnée des vulnérabilités. Et par un soutien à la recherche sur la sécurité des produits open source.
* Christine Hennion, députée des Hauts-de-Seine sous le premier mandat d’Emmanuel Macron. Aujourd’hui conseillère municipale de Courbevoie.
Si la souveraineté numérique mobilise les décideurs politiques, l’enjeu n’est pas aussi partagé par les agents publics.
Selon une enquête Ipsos réalisée pour le cabinet Lecko, seuls 12% des agents publics interrogés attendent explicitement que leur administration privilégie la souveraineté dans l’évolution de leurs outils numériques de travail.
Pour l’écrasante majorité d’entre eux (88%), d’autres critères priment largement sur les considérations de souveraineté. Leur priorité numéro : l’efficacité des outils au quotidien. Qu’ils soient français, européens ou américains, les agents attendent des solutions qui fonctionnent, répondent à leurs besoins réels et leur permettent d’ accomplir leurs missions dans de bonnes conditions.
Cette position pragmatique se manifeste d’ailleurs par un phénomène révélateur : 60% des répondants reconnaissent avoir recours au « Shadow IT », c’est-à-dire à l’utilisation d’applications non validées par leur direction informatique. Une forme de vote avec les pieds qui prouve que les solutions officielles – qu’elles soient souveraines ou non – ne répondent pas toujours aux attentes du terrain.
L’efficacité avant la géopolitique
Ce faible niveau d’attente vis-à-vis de la souveraineté interroge à plusieurs niveaux. D’abord sur la maturité du sujet côté utilisateurs : le concept de souveraineté numérique, bien que globalement compris, ne résonne pas comme une urgence dans le quotidien professionnel. Les menaces juridiques liées à l’extra-territorialité des lois américaines, les risques pesant sur la confidentialité des données ou les enjeux d’indépendance technologique restent perçus comme des préoccupations lointaines, déconnectées des réalités opérationnelles.
Mais ce désintérêt questionne aussi la capacité des organisations publiques à porter une vision alternative crédible. Comment convaincre les agents d’adhérer à un projet de souveraineté si les solutions proposées n’offrent pas une expérience utilisateur équivalente ou supérieure à celle des géants américains ? Quelques pionniers dans le désert
Malgré ce contexte peu favorable, quelques collectivités tentent l’aventure. La Région Occitanie, la Ville de Marseille, Chamonix, Grenoble ou Lyon abandonnent progressivement les suites logicielles américaines au profit de solutions libres et open source. Ces initiatives restent toutefois marginales dans un paysage largement dominé par Microsoft, qui équipe 75% des organisations de plus de 250 collaborateurs.
Ces expériences pionnières, pour louables qu’elles soient, buttent sur les mêmes obstacles : la résistance au changement, les questions de compatibilité, et surtout le décalage entre l’ambition politique affichée et l’adhésion réelle des utilisateurs finaux.
Un triple défi à relever
Pour que la souveraineté numérique devienne une réalité dans les administrations françaises, trois défis majeurs doivent être relevés. D’abord, réconcilier les ambitions stratégiques des décideurs avec les attentes pragmatiques des agents. Ensuite, proposer des solutions souveraines qui ne soient pas perçues comme un sacrifice en termes d’efficacité ou d’ergonomie. Enfin, investir massivement dans la formation et l’accompagnement au changement pour faire comprendre les enjeux de long terme.
Sans adhésion du terrain, les projets de souveraineté risquent de rester au stade de l’intention politique, incapables de se traduire en transformation concrète des pratiques.
Attention, Wiz pourrait servir de cheval de Troie à Google.
La Commission européenne est d’autant plus alertée à ce sujet depuis qu’elle a commencé à examiner le projet d’acquisition. C’était début janvier. Au plus tard le 10 février, on saura si elle donne son feu vert ou si elle ouvre une enquête approfondie.
L’argument du « cheval de Troie » se résume ainsi : les solutions de Wiz donneraient à Google une visibilité sur l’usage des clouds concurrents. Et donc des informations potentiellement précieuses pour adapter son offre. Une situation similaire à celle d’Amazon vis-à-vis des vendeurs tiers sur sa marketplace.
À cet argument, le CISPE (Cloud Infrastructure Service Providers in Europe) en ajoute un autre : le risque de remise en cause de la neutralité de Wiz. Certes, Google a promis de la maintenir. Mais, à en croire le lobby des CSP européens, il aura la capacité – et l’intérêt – d’instaurer des conditions de licence plus favorables sur son propre cloud.
Le CISPE dit s’inquiéter d’autant plus que les services cloud n’entrent pour le moment pas dans le champ du DMA. Il invite Bruxelles à ne pas « répéter les erreurs commises » dans le dossier Broadcom-VMware.
Les États-Unis ont déjà validé
À 32 Md$, cette acquisition serait la plus chère que Google ait jamais réalisée, devant celles de Motorola Mobility (12,5 Md$ en 2012) et de Mandiant (5,4 Md$ en 2022). Elle suscite aussi des craintes de vente liée. Et plus globalement d’autopréférence : Wiz pourrait ne plus développer de solutions allant contre les intérêts commerciaux de Google.
Les autorités américaines ont déjà donné leur blanc-seing, en octobre 2025. Les conditions étaient semble-t-il plus favorables que l’année précédente, où Wiz avait d’ailleurs refusé une première offre de Google à 23 Md$. L’obstacle antitrust aurait joué, a fortiori à l’heure où Google était encore sous la menace d’un démantèlement.
Parmi les derniers grands projets M&A tech que l’UE n’a pas validés, il y a le rapprochement entre Adobe et Figma. Annoncé à 20 Md$, il fut abandonné fin 2023. Quelques semaines plus tard, Amazon avait renoncé à s’emparer d’iRobot, pour des raisons similaires.
ARC chez Bain, RegExplorer chez Deloitte, Topaz chez Infosys… Autant d’emblèmes de la codification des services de conseil en des plates-formes alimentées par IA.
Cette tendance, Gartner la souligne dans le premier Magic Quadrant qu’il dédie à ce marché, abordé sous l’angle de la transformation technologique.
L’IA concourt à une autre évolution : elle favorise les modèles commerciaux axés sur les résultats. Elle aligne en quelque sorte le conseil en technologies sur le conseil en stratégie d’affaires, où la séparation entre engagements et résultats est traditionnellement moins marquée.
Dans la pratique, cependant, T&M et prix fixe dominent encore largement. Chez les fournisseurs classés dans ce Magic Quadrant, seulement 10 % des deals se structurent en partage de valeur. L’option est, il est vrai, sélective, dépendant notamment de la maturité du client, de la qualité de son patrimoine data et de la clarté des processus de gouvernance.
17 fournisseurs, 4 « leaders »
L’axe « exécution » du Magic Quadrant reflète la capacité des fournisseurs à répondre effectivement à la demande (qualité des produits/services, tarification, expérience client…).Gartner les positionne ainsi :
Rang
Fournisseur
1
Accenture
2
Deloitte
3
McKinsey & Company
4
BCG
5
IBM
6
Infosys
7
Bain & Company
8
EY
9
PwC
10
Capgemini
11
TCS
12
Publicis Sapient
13
Wipro
14
HCLTech
15
NTT DATA
16
DXC Technology
17
VML
Sur l’axe « vision », qui couvre les stratégies (commerciale, marketing, sectorielle, géographique…) :
Rang
Fournisseur
1
Deloitte
2
BCG
3
Accenture
4
Bain & Company
5
McKinsey & Company
6
PwC
7
EY
8
IBM
9
HCLTech
10
Capgemini
11
Infosys
12
VML
13
NTT DATA
14
Wipro
15
Publicis Sapient
16
DXC Technology
17
TCS
L’IA comble des manques… plus ou moins partiellement
Quatre fournisseurs se trouvent dans le carré des « leaders » : Accenture, BCG, Deloitte et McKinsey & Company. Côté français, Capgemini et Publicis Sapient sont dans celui des « acteurs de niche ». Alten a quant à lui droit à une « mention honorable ».
Gartner évoque l’IA dans une de ses remarques à propos d’Accenture. Celle-ci est négative : à mesure que le portefeuille de propriété intellectuelle et d’outils d’IA intégré aux services de conseil prend du volume, il devient difficile d’en tirer pleinement la valeur.
Concernant BCG, l’IA est au contraire évoquée dans un point positif : elle est au cœur d’un écosystème intégré pour la planification de scénarios et l’anticipation du changement.
Chez Deloitte, il y a à la fois du positif et du négatif teintés d’IA.
Gartner apprécie qu’elle soit mobilisée pour enrichir la propriété intellectuelle sectorielle. Le cabinet américain salue aussi la stratégie agile d’acquisitions que Deloitte déploie pour récupérer des capacités ciblées dans ce domaine. Il appelle néanmoins à la vigilance sur l’exploitation de l’IA pour le delivery : on s’assurera d’un usage responsable.
Entre autres remarques positives impliquant l’IA :
L’investissement significatif d’EY pour la mise à l’échelle et le développement de workflows
La philosophie « AI-first » d’Infosys, illustrée avec la plate-forme Topaz
La codification de l’expertise sectorielle chez McKinsey (et l’anticipation tendances sectorielles et risques géopolitiques)
L’accélération du delivery chez Publicis Sapiens
Côté négatif :
Le manque d’outils IA chez HCLTech pour le suivi du marché sur l’aspect product engineering
La couverture métier encore restreinte chez VML (marketing et commerce, essentiellement), même si l’IA ouvre des portes
Un suivi de marché encore nettement fondé sur le feedback client et sur des outils traditionnels chez Wipro, en dépit d’améliorations à base d’IA
De quoi des paramètres relèvent-ils juridiquement parlant ? À l’instar des poids, ils ne sont en tout cas ni des logiciels, ni du code source, ni des données.
L’OSI (Open Source Initiative) a étudié cet aspect dans le cadre de ses travaux sur l’intelligence artificielle. Elle avait amorcé un grand tour d’horizon du sujet à l’été 2022. Avec une question centrale : qu’est-ce que l’IA open source ? Ou, sous un autre angle : dans quelle mesure la définition de l’open source (OSD, Open Source Definition) peut-elle s’appliquer à l’IA, tant cette dernière estompe la frontière entre code et données ?
Avec la perspective du règlement européen sur l’intelligence artificielle, la réflexion s’était accélérée. Jusqu’à la publication, le 28 octobre 2024, d’une définition de l’IA open source.
La qualification juridique des paramètres n’y est pas abordée. L’OSI précise toutefois, en annexe, qu’ils peuvent être libres par nature, ou rendus libres par le biais d’une licence ou d’un autre instrument légal.
Trop d’incertitude juridique pour demander d’ouvrir toutes les données
Entre autres débats, il y eut celui sur les données d’entraînement : lesquelles faut-il mettre à disposition pour entrer dans les clous de l’IA open source ?
Certains promeuvent un accès sans contraintes au nom de la reproductibilité, de la transparence et de la sécurité.
L’OSI n’en a pas décidé ainsi. Son argument : une telle approche ferait de l’IA open source une niche, vu l’éventail de cas où le partage de tout le dataset est illégal ou techniquement impossible.
En la matière, l’un des obstacles s’appelle le copyright… dont l’OSI s’est d’ailleurs fixé l’objectif de limiter l’extension. Elle estime qu’il est en tout cas nécessaire de le mettre en balance avec les besoins de la société. Dans cette optique, elle s’est prononcée en faveur, sinon de l’ouverture des données, au moins de la notion d’usage raisonnable. Son président exécutif est allé jusqu’à suggérer de faire sans la notion de copyright pour ce qui est des modèles d’IA. Son postulat : entre vie privée, protection des consommateurs et respect des droits humains, la protection des jeux de données est déjà bien encadrée.
Beaucoup de savoirs autochtones sont protégés par des mécanismes non compatibles avec des cadres ultérieurs régissant l’exclusivité et le partage de droits, ajoute l’OSI. Il existe de surcroît des cas où les conditions d’utilisation de données publiques peuvent apporter à une entité A l’assurance de les exploiter librement, sans pour autant lui permettre de procurer les mêmes garanties à une entité B. Les notions de fair use et de domaine public en sont des illustrations, tant leurs définitions diffèrent entre les pays.
Les éléments à fournir pour être dans les clous de l’IA open source
Dans ce contexte, l’OSI a choisi d’exiger la fourniture d’« informations sur les données ». Impérativement suffisantes pour qu’une personne compétente puisse recréer un système « substantiellement équivalent ».
Les infos en question doivent couvrir :
Le périmètre et les caractéristiques des données d’entraînement
Leur origine (y compris les processus d’obtention et de sélection)
Les procédures d’annotation, de traitement et de filtrage
Des éléments supplémentaires peuvent être exigés en fonction du dataset. En l’occurrence, la liste des données publiques exploitées et/ou de celles obtenues auprès de tierces parties. Avec, dans l’un et l’autre cas, des informations sur la provenance et les conditions d’accès.
Côté code, il faut procurer celui utilisé pour le prétraitement des données, l’entraînement/validation/test et l’inférence. Ainsi que les outils et bibliothèques sous-jacents. On y ajoutera les poids du modèle et autres paramètres de configuration (par exemple, des checkpoints-clés et l’état final de l’optimiseur ; métadonnées de modèle et échantillons de sorties sont facultatifs).
Obligatoire
Facultatif
Données
Informations sur les données
Article de recherche
Rapport technique Data card
Évaluation (+ résultats)
Code
Prétraitement
Entraînement
Validation
Test
Bibliothèques / outils
Inférence lors des benchmarks
Évaluation
Modèle
Architecture
Paramètres
Carte
Outputs
Métadonnées
Le code, plus important que les données ?
D’après l’OSI, cette approche conserve celle de l’OSD. Laquelle n’impose pas une reproductibilité et une transparence totales, mais les permet (builds reproductibles). De plus, on peut toujours formuler davantage d’exigences, comme le Digital Public Goods Standards et les Recommandations GNU pour les distributions systèmes libres le font vis-à-vis de l’OSD.
Au final, l’utilisateur aurait les mêmes possibilités qu’avec des licences permissives. Tout du moins au sens où il pourrait conserver les insights obtenus à partir du code et de la description des données d’entraînement non partageables, puis construire sur cette base en y associant ses propres données non partageables et en rendant disponibles les insights obtenus en continuant l’entraînement.
Plus globalement, nous assure-t-on, le code d’entraînement et de traitement des données apparaît plus important que le dataset dans l’optique d’une modification libre.
En miroir à l’OSD, un système d’IA open source doit garantir quatre libertés :
Utilisation à toutes fins sans avoir à demander d’autorisation
Étude de son fonctionnement et inspection de ses composantes
Modification à toutes fins, y compris des sorties
Redistribution sans restriction d’utilisation
L’OSI recense pour le moment 5 modèles conformes : Amber et CrystalCoder (LLM360), OLMo (AI2), Pythia (EleutherAI) et T5 (Google). D’autres le seraient probablement s’ils modifiaient leurs conditions de licence, ajoute-t-elle. Parmi eux, BLOOM (BigScience), Falcom (TII) et Starcoder2 (BigCode).
Une centaine d’organisations ont adhéré à la définition de l’IA open source. Côté français, il y a l’APELL, le CNLL, Linagora, Probabl.AI, Sopra Steria et code.gouv.fr.
Le 3 février 2026, le Palais des Congrès de Paris accueillera la deuxième édition de Cyber-IA Expo. Organisé par Beyond Event, Les Assises de la cybersécurité et les RIAMS, cet événement réunit les décideurs confrontés aux transformations induites par l’intelligence artificielle dans le domaine de la cybersécurité.
Silicon vous offre un accès gratuit à l’évènement en utilisant le code YSL26 surCyber-IA expo dans la case coupon avant de commencer l’inscription.
Une double dynamique : menace et opportunité
L’intelligence artificielle redéfinit le paysage de la cybersécurité. Elle accélère la sophistication des attaques tout en devenant un outil de défense. Cette dualité impose aux organisations européennes de repenser leurs architectures, leur gouvernance et leur conformité réglementaire, dans un contexte marqué par des exigences élevées de confiance et de conformité.
L’événement s’articule autour de keynotes, 14 conférences thématiques, 81 exposants et 65 ateliers pratiques.
Les intervenants annoncés
Plusieurs personnalités interviendront lors de cette journée :
Clara Chappaz, Ambassadrice pour le numérique et l’intelligence artificielle
Guillaume Poupard, co-président du Conseil national de l’IA et du numérique
Cédric O, co-fondateur et CEO de The Marshmallow Project
Christophe Blassiau, SVP & Group CISO de Schneider Electric
Philippe Rambach, Chief AI Officer de Schneider Electric
Jean-Dominique Nollet, Group CISO de TotalEnergies
Achille Lerpinière, directeur des systèmes d’information de la Région Île-de-France
Vincent Strubel, Directeur général de l’ANSSI
Guillaume Grallet, rédacteur en chef du service Sciences & Tech au magazine Le Point
La keynote de clôture sera assurée par Édouard Geffray, ministre de l’Éducation nationale, qui abordera la question de la formation et des compétences face aux usages de l’IA.
Des thématiques concrètes
Les conférences aborderont plusieurs sujets : IA et démocratie, IA générative et opérations critiques, sécurité des données et enjeux du cloud pour les collectivités, ou encore les responsabilités des responsables cyber à l’ère de l’IA.
Une table ronde sera notamment consacrée au dispositif de mutualisation de la gestion des risques cyber pour les collectivités et leurs fournisseurs en Île-de-France, illustrant la mise en œuvre de la directive NIS 2.
Innovation et financement
Plus de 15 startups présenteront leurs solutions. L’événement accueillera également le Scale-Ups Investment Day, organisé avec Ryder & Davis, qui mettra en relation des entrepreneurs avec une centaine de fonds d’investissements et d’industriels.
Une extension allemande de l’événement est prévue à Munich le 24 juin 2026.
C’est un coup dur pour France Travail. Le 22 janvier 2026, la Commission nationale de l’informatique et des libertés (CNIL) a infligé une amende de 5 millions € à l’établissement public. La sanction fait suite à une cyberattaque survenue au premier trimestre 2024, qui a compromis les données personnelles de l’ensemble des personnes inscrites sur la plateforme au cours des 20 dernières années.
Une attaque par ingénierie sociale
Les pirates ont utilisé des techniques « d’ingénierie sociale » pour usurper des comptes de conseillers de Cap Emploi, les structures dédiées à l’accompagnement des personnes en situation de handicap. Une fois infiltrés dans le système d’information, les attaquants ont pu accéder à une masse considérable de données sensibles : numéros de sécurité sociale, adresses mail et postales, numéros de téléphone de tous les inscrits et candidats sur francetravail.fr.
Si les dossiers complets des demandeurs d’emploi, incluant notamment des données de santé, n’ont pas été compromis, l’ampleur de la fuite reste considérable.
Des failles de sécurité identifiées… mais pas corrigées
Le contrôle mené par la CNIL a mis en lumière de graves insuffisances dans les mesures de sécurité. Premier point noir : les modalités d’authentification des conseillers Cap Emploi n’étaient pas suffisamment robustes. Deuxième défaillance : l’absence de dispositifs de journalisation efficaces pour détecter les comportements anormaux sur le système.
Mais le plus accablant réside ailleurs. Les habilitations d’accès des conseillers Cap Emploi avaient été définies de manière trop large, leur permettant d’accéder aux données de personnes qu’ils n’accompagnaient pas directement. Cette configuration a démultiplié le volume de données accessibles aux attaquants.
La formation restreinte de la CNIL, chargée de prononcer les sanctions, a souligné un élément aggravant : France Travail avait identifié la plupart de ces mesures de sécurité dans ses analyses d’impact, en amont du traitement des données. Elles n’avaient simplement jamais été mises en œuvre.
Une sanction assortie de mesures correctives
Outre l’amende de 5 millions €, la CNIL a enjoint France Travail de justifier des mesures correctives apportées, selon un calendrier précis. À défaut, l’organisme devra s’acquitter d’une astreinte de 5 000 € par jour de retard.
Pour un établissement public dont le budget repose essentiellement sur les cotisations sociales, la sanction n’est pas anodine. Le montant de l’amende, qui ne peut dépasser 10 millions € pour un manquement à la sécurité des données selon l’article 32 du RGPD, sera reversé au budget de l’État via le Trésor public.
France Travail regrette « la sévérité » de la sanction
Dans un communiqué, France Travail a pris acte de la décision sans la contester devant le Conseil d’État. L’établissement reconnaît « la gravité des faits survenus » et sa « responsabilité en matière de protection des données », tout en regrettant « la sévérité » de la sanction « au regard de notre très fort engagement en matière de cybersécurité ».
France Travail affirme avoir anticipé la décision du régulateur en mettant en place « d’ores et déjà les mesures correctives demandées ». L’établissement indique notamment avoir déployé la double authentification depuis près de deux ans et engagé les développements nécessaires pour répondre à l’ensemble des injonctions de la CNIL.
L’organisme met en avant ses efforts en matière de cybersécurité, affirmant déjouer « près de 10.000 actes de malveillance cyber » chaque année. Il souligne également avoir renforcé sa politique de sensibilisation : les collaborateurs et ceux des partenaires doivent désormais suivre des formations obligatoires renouvelées tous les six mois, conditionnant l’accès au système d’information.
« Dans un contexte où les menaces cyber ne cessent d’augmenter, nous restons plus que jamais mobilisés pour renforcer nos systèmes de protection », conclut France Travail, rappelant que 90 % des incidents cyber proviennent d’erreurs humaines.
Le marché des semi-conducteurs traverse une nouvelle zone de turbulences. Samsung Electronics et SK Hynix, qui se partagent les deux tiers du marché mondial des puces DRAM, ont lancé un avertissement sans précédent : les fabricants d’ordinateurs et de smartphones vont manquer de composants essentiels. En cause, la priorité donnée aux puces destinées aux serveurs d’IA, bien plus rémunératrices.
« Les clients des secteurs PC et mobile rencontrent des difficultés pour s’approvisionner en mémoire », a reconnu Park Joon Deok, responsable du marketing DRAM chez SK Hynix, lors d’un échange avec un analyste.
La course effrénée à l’infrastructure d’intelligence artificielle oblige les fabricants à réorienter leurs capacités de production vers la mémoire à large bande passante (HBM), réduisant mécaniquement l’offre de puces DRAM classiques.
Cette tension s’explique également par la prudence des industriels. Échaudés par une expansion trop agressive après le supercycle de 2017, ils rechignent aujourd’hui à investir dans de nouvelles lignes de production. Samsung a d’ailleurs confirmé que cette expansion resterait limitée en 2026 et 2027.
La face cachée du boom de l’IA
Les conséquences se font déjà sentir. Face à l’envolée des prix, certains fabricants ajustent leurs volumes d’achat ou reconsidèrent les spécifications techniques de leurs produits d’entrée de gamme.
Les prévisions de marché s’assombrissent : IDC et Counterpoint anticipent désormais une contraction d’au moins 2% des ventes mondiales de smartphones en 2026, là où ils prévoyaient auparavant une croissance. Côté PC, le repli pourrait atteindre 4,9% cette année, après une progression de 8,1% en 2025.
Samsung, numéro deux mondial des smartphones, n’est pas épargné. Son bénéfice dans la division mobile a chuté de 10% au quatrième trimestre.
La bataille du HBM fait rage
En coulisse, une guerre commerciale féroce oppose les deux géants coréens sur le segment stratégique des puces HBM, essentielles à la construction des processeurs d’IA. SK Hynix, fournisseur privilégié de Nvidia, domine largement avec 61% de parts de marché, contre seulement 19% pour Samsung et 20% pour l’américain Micron.
Samsung entend bien combler son retard et promet de poursuivre la montée en puissance de sa production dédiée à l’IA. De son côté, SK Hynix s’engage à maintenir sa position « écrasante » sur les puces HBM4 de nouvelle génération. Une bataille qui risque d’aggraver encore la pénurie touchant les produits grand public.
Apple a indiqué que la hausse des prix des puces mémoire commence à peser sur sa rentabilité ce trimestre. « Nous constatons une hausse significative continue des prix de la mémoire sur le marché », a souligné Tim Cook, son PDG , ce jeudi lors d’une conférence téléphonique, interrogé sur l’impact de cette pénurie sur ses plans de production annuels.
Satya Nadella, le CEO de Microsoft, a révélé pour la première fois que M365 Copilot compte 15 millions d’utilisateurs annuels. Ce volume exclut les fonctions de chat Copilot plus limitées, accessibles sans licence complète. La base d’utilisateurs exposée à l’IA Microsoft est donc plus large.
Adoption en entreprise : profondeur vs couverture
Le service coûte 30 $ par mois et par utilisateur (28 € en France pour l’offre « Grande entreprise »). Ce tarif s’ajoute aux licences Microsoft 365 existantes. Si le taux d’activation reste élevé sur l’année, Microsoft peut générer plusieurs milliards de dollars de revenus récurrents. L’éditeur présente Copilot comme une brique stratégique pour rentabiliser ses investissements massifs dans l’IA. Ces dépenses d’infrastructure visent à soutenir ses propres produits sur le long terme.
Microsoft souligne une forte pénétration de Copilot dans les grandes entreprises. Près de 70% des sociétés du Fortune 500 l’utilisent déjà ou ont lancé des déploiements. Cependant, plusieurs analyses nuancent ce constat. L’usage effectif reste souvent concentré sur des groupes pilotes. Les fonctionnalités IA demeurent parfois sous-exploitées par rapport au parc de licences acheté.
Microsoft généralise Copilot dans GitHub, Power Platform, Azure OpenAI et LinkedIn. L’éditeur crée ainsi un continuum d’assistants IA, du développeur au décideur métier.
Autre chiffre communiqué. la croissannce de GitHub Copilot auprès des développeurs. Les abonnements Copilot Pro+ pour développeurs individuels ont bondi de 77 % en un trimestre. La plateforme comptabilise désormais plus de 4,7 millions d’abonnés payants à Copilot, soit une croissance de 75 % sur un an.
Android et ChromeOS fusionnés, qu’est-ce que ça peut donner ?
Sous le nom de code Aluminium, Google a entrepris la démarche, avec les Chromebooks en première ligne. Pour le moment, il n’en a pas fourni d’aperçu… sinon dans un rapport de bug qui fut brièvement accessible au public. Assez pour qu’on en extraie deux captures d’écran vidéo. Elles laissent entrevoir une UI proche de ce qu’est actuellement Chrome OS. Avec toutefois quelques différences :
Date et heure situées en haut à gauche (et non pas en bas à droite)
Barre d’état localisée en haut à droite (et non pas, là aussi, en bas à droite)
Icônes centrées sur la barre des tâches (comportement par défaut sur le mode bureau d’Android 16, vs alignement à gauche sur ChromeOS)
Icônes Wi-Fi et batterie d’Android 16
Apparence du pointeur de souris légèrement modifiée
Autre particularité : la mise à jour de Chrome se fait depuis l’application Play Store, sans fermeture du navigateur.
Le numéro de build inclut l’identifiant ALOS, probablement pour « Aluminium OS ». Une référence à Android 16 apparaît sur la page de version de Chrome.
Sans Chromebook Plus, point de salut ?
L’appareil est un Chromebook de 2022, qu’on ne trouve plus à la vente neuf : le HP Elite Dragonfly 13.5. Ce convertible tactile fut livré avec une sélection de processeurs Intel Core de 12e génération et au minimum 8 Go de RAM. Soit exactement le palier de specs pour bénéficier du sceau Chromebook Plus.
De là à supposer qu’Aluminium soit réservé aux Chromebook Plus, il n’y a qu’un pas… que la rumeur a déjà franchi.
Pour ce qui est du hardware à venir, on a vu émerger, dans les dépôts Chromium, les références Sapphire et Ruby.
Sapphire pourrait être une tablette haut de gamme en MediaTek Kompanio Ultra, avec barre LED, stylet et capteur d’empreintes. Ruby, un laptop lui aussi haut de gamme, en Panther Lake (plate-forme des Core Ultra série 3).
Pour l’un et l’autre, il existe des commits signés d’adresses en @lcfc, attribuables à du personnel d’une filiale de Lenovo fabricante d’ordinateurs portables. Surtout, le logo de l’entreprise chinoise a été ajouté dans la configuration de leurs écrans de démarrage respectifs (ici pour Sapphire, là pour Ruby).
L’IA « au cœur du système » : Disco, un avant-goût potentiel
L’offre d’emploi qui avait permis de découvrir le nom de code Aluminium en novembre dernier ne fermait pas la porte à des appareils en entrée et milieu de gamme. Ni à des PC de bureau, en plus des clamshells, des détachables et des tablettes. On y apprenait par ailleurs que l’IA serait au cœur du système. L’expérimentation Disco, ouverte aux utilisateurs de 18 ans et plus aux États-Unis, pourrait en être une avant-première. Il s’agit d’un navigateur où Gemini crée des applications « GenTabs » ancrées sur le contenu des onglets ouverts.
Google a assuré qu’il n’abandonnerait en tout cas pas ChromeOS. Les fenêtres de support des appareils existants resteront en tout cas valables. Pour autant, on ne nous détaille pas quel sera le niveau de ce support.
Le rapprochement de ChromeOS et d’Android avait démarré par l’unification des piles Bluetooth en 2024. L’intégration du mode desktop sous sa forme actuelle s’est faite en parallèle. Fin 2024, le fenêtrage du bureau était arrivé sur les tablettes. Avec Android 16, Google a poussé des fonctionnalités de gestion des écrans externes.
Dans le même esprit de convergence, des travaux sont en cours sur une version de Chrome pour Android gérant les extensions.
Une dizaine d’applications connectées à Claude sont désormais « interactives ».
En toile de fond, la stabilisation de la spécification MCP Apps. Elle avait pris forme il y a quelques semaines, à la croisée du projet MCP-UI et de l’Apps SDK d’OpenAI, avec Anthropic dans la boucle. La promesse : standardiser la déclaration de ressources UI par les serveurs MCP.
La spec initiale se concentre sur le contenu text/html. Elle sépare les données des templates pour permettre aux applications hôtes de contrôler ces derniers avant exécution. Le rendu passe par un iframe. Les communications se font sur JSON-RPC et sont donc auditables.
Lors de la connexion à un serveur MCP, l’hôte signale s’il gère ou non ces composants UI. Dans la négative, les outils associés ne délivrent que du texte. Il communique aussi diverses préférences : locale et timezone, thème (clair ou sombre), mode d’affichage (inline, plein écran ou incrustation), plate-forme (mobile, web ou desktop)…
9 applications interactives pour commencer
Microsoft a intégré MCP Apps dans Visual Studio Code pour les bêtatesteurs. L’agent de codage Goose a aussi franchi le pas. Comme OpenAI, censé officialiser dans la semaine ses premières « applications interactives » fondées sur cette spécification.
En attendant, on peut en expérimenter une dizaine sur les versions payantes de Claude (Pro, Max, Team, Enterprise).
Amplitude
Mis à jour avec le support de MCP Apps, le connecteur pour Amplitude permet de créer des graphes et de les explorer (modification du format, affichage d’informations au survol, lien pour les ouvrir dans le navigateur).
Asana
Avec MCP Apps, le connecteur Asana peut créer des projets à partir de prompts et/ou de documents. Pour chaque tâche, les assignations et les dates d’échéance sont modifiables sur l’interface, où on peut aussi afficher une vue calendrier.
Box
MCP Apps permet au connecteur Box d’avoir un aperçu d’un fichiers et de poser des questions à son sujet. L’IA de Box peut prendre le relais de Claude pour résumer des documents et en extraire des actions ou des données structurées.
Canva
MCP Apps pour le connecteur Canva donne la possibilité de créer divers types de contenus (diagrammes, présentations, templates…), de les éditer, d’y faire des recherches et des les redimensionner/exporter.
Clay
En plus des visualisations interactives, MCP Apps apporte, entre autres possibilités, la génération et l’édition de texte, ainsi que la consultation de cartes de profils avec possibilité d’envoyer un message.
Figma
La création de diagrammes – y compris à partir de documents – arrive aussi dans l’application Figma. L’interface permet également d’implémenter un design en HTML/CSS et d’implémenter des composants en s’appuyant sur les standards d’une codebase.
Hex
MCP apporte diverses visualisations interactives (diagrammes, tables, étapes de raisonnement). Les réponses héritent du contexte et des contrôles d’accès de l’espace de travail Hex, nous précise-t-on.
Monday.com
Les visualisations apportées par MCP Apps permettent de créer des tableaux (boards), de mettre à jour le statut de certains éléments et d’obtenir des suggestions pour l’attribution de tâches.
Slack
Telle que présentée, l’intégration Claude-Slack à la mode MCP Apps permet de composer/éditer des messages et de les envoyer dans des canaux ou à des membres d’équipe.
Toutes ces fonctionnalités sont accessibles sur le web et la version de bureau. Pas sur l’app mobile Claude. Anthropic affirme qu’il les étendra « bientôt » à son produit Cowork.
Capgemini est dans la tourmente après la révélation d’un contrat sensible signé par sa filiale américaine avec l’agence fédérale de l’immigration ICE.
Le 18 décembre 2025, Capgemini Government Solutions (CGS), sa filiale américaine, s’est vu attribuer par l’Immigration and Customs Enforcement (ICE) un contrat de 4,8 millions $.
L’objet du contrat, clairement indiqué dans les documents officiels publiés par l’agence fédérale américaine des achats, consiste à fournir des « services de recherche de personnes (skip tracing) pour les opérations d’exécution et d’expulsion ».
Selon les informations du média américain The Intercept publiées en décembre 2025 sur ce type de contrat, celui-ci prévoit des « primes financières ou des ajustements tarifaires fondés sur le taux de réussite du fournisseur dans la vérification des adresses des étrangers ».
Au total, treize entreprises ont signé ce contrat avec l’ICE mais, sur la base des contrats publiés, CGS serait l’entreprise qui pourrait tirer le plus profit du programme, avec une somme maximale évoquée de l’ordre de 365 millions $.
Une « relation étroite » avec ICE
Ce n’est pas le premier contrat que Capgemini Government Solutions remporte avec le département de la sécurité intérieure américain. Les premiers accords remontent à plus de quinze ans. L’entreprise s’occupait déjà de la « planification des détentions » et des lits des centres de rétention.
Sur son site web, CGS se vantait même dans la rubrique « histoires de clients » de « travailler étroitement pour aider [l’ICE] à minimiser le temps requis et le coût de l’expulsion de tous les étrangers illégaux expulsables hors des Etats-Unis ». Cette page a depuis été supprimée mais L’Observatoire des multinationales a conservé une capture d’écran.
Une filiale sous statut spécial
Créée en 2002 à McLean en Virginie, CGS opère dans le cadre d’un Special Security Agreement qui lui permet de travailler sur des missions classifiées pour le gouvernement américain. Ce statut impose une séparation stricte de ses opérations par rapport au groupe Capgemini.
Face à la polémique, Aiman Ezzat, directeur général de Capgemini, a réagi le 25 janvier sur LinkedIn. Il rappelle que CGS « est une société atténuée FOCI qui opère sous un accord de sécurité spécial », avec « un conseil d’administration contrôlé par des administrateurs indépendants américains habilités » et une prise de décision séparée. Le groupe Capgemini « ne peut accéder à aucune information classifiée, contrat classifié ou quoi que ce soit lié aux opérations techniques de CGS, comme l’exige la réglementation américaine » précise-t-il.
Le dirigeant affirme avoir été « récemment informé, par des sources publiques, de la nature d’un contrat attribué à CGS par l’ICE du département de la sécurité intérieure en décembre 2025». Il reconnaît que « la nature et la portée de ce travail ont soulevé des questions par rapport à ce que nous faisons habituellement en tant qu’entreprise de services et de technologie».
Aiman Ezzat indique que « dans le plein respect de la gouvernance séparée et des restrictions de CGS », il a été informé que « le conseil d’administration indépendant a déjà commencé le processus d’examen du contenu et de la portée de ce contrat et des procédures de contractualisation de CGS ».
Une levée de boucliers en interne et en externe
Ces révélations ont provoqué de vives réactions chez les représentants du personnel de Capgemini. La CFTC « condamne fermement et demande l’arrêt immédiat du contrat signé avec l’ICE », estimant que « aucun impératif commercial ne peut justifier moralement un tel contrat ». La CGT exprime également sa condamnation et rappelle qu’elle s’inquiétait déjà depuis plusieurs mois du rapprochement entre Capgemini et Palantir, éditeur américain de logiciels d’analyse de données fondé notamment par Peter Thiel, partisan de Donald Trump.
Le contexte est particulièrement sensible : l’ICE est vivement mise en cause pour ses méthodes après la mort de deux citoyens américains lors d’opérations menées ces dernières semaines dans le Minnesota.
Côté politique français, le ministre de l’économie Roland Lescure a demandé à l’entreprise de « faire la lumière de manière extrêmement transparente » sur ses activités. La ministre des armées Catherine Vautrin a appelé à examiner précisément le contenu de ces contrats, rappelant que « le respect des droits de l’homme est un sujet ».
Cette crise survient quelques jours seulement après l’annonce par Capgemini d’un plan de réorganisation pouvant conduire à la suppression de 2.400 postes en France, ajoutant une pression supplémentaire sur le groupe français.
Après Facebook et Instagram, voilà WhatsApp soumis au DSA.
Meta a 4 mois pour mettre le service en conformité. Pas dans son ensemble, néanmoins : uniquement sur les chaînes (la messagerie n’entre pas dans le champ du règlement).
Ces dernières ont dépassé le seuil des 45 millions d’utilisateurs uniques par mois. En conséquence de quoi WhatsApp a été désigné comme « très grande plate-forme en ligne » (VLOP, Very Large Online Platform). Il en rejoint 24 autres. Nous les listons ci-dessous, avec une synthèse des enquêtes éventuellement ouvertes contre elles.
AliExpress
Au dernier pointage, la plate-forme compte 104,3 millions d’utilisateurs uniques par mois dans l’UE. Elle a fait partie des 17 premières VLOP désignées. C’était en avril 2023, quelques jours avant l’entrée en application du DSA.
En mars 2024, la Commission européenne avait ouvert une enquête. Elle s’intéressait notamment aux systèmes de lutte contre la mise en vente de produits illégaux, généralement contrefaits. Le système de gestion des réclamations était aussi dans son collimateur, comme la transparence des systèmes de publicité et de recommandation. La procédure englobait également la mise à disposition de données publiques pour la recherche.
Alibaba a fini par prendre des engagements, que Bruxelles a acceptés en juin 2025. Le groupe chinois a promis, entre autres, de renforcer le processus de vérification des vendeurs et des membres de son programme d’affiliation. Il s’est aussi engagé à permettre aux utilisateurs – y compris ceux non connectés – de faire appel de décisions de modération de contenu par l’intermédiaire d’un lien intégré dans lesdites décisions. Et à signaler clairement toutes les publicités, y compris là aussi pour les utilisateurs non connectés. Tout en proposant une API dédiée à l’accès aux données publiques, assortie de la fourniture de jeux de données personnalisés sur demande.
Amazon
Sa marketplace fait partie des VLOP désignées en avril 2023.
Elle compte 181,3 millions d’utilisateurs uniques par mois dans l’UE.
App Store
Le magasin d’applications d’Apple est aussi VLOP depuis avril 2023.
Il réunit 123 millions d’utilisateurs uniques par mois dans l’UE.
Bing
Le moteur de recherche de Microsoft est VLOP depuis avril 2023. Il réunit 119 millions d’utilisateurs uniques par mois dans l’UE.
Booking.com
La Commission européenne ne fournit pas de chiffres précis sur la fréquentation du site de réservation touristique, VLOP depuis avril 2023.
Facebook et Instagram
Pour l’un et l’autre, désignés en avril 2023, on nous annonce 259 millions d’utilisateurs uniques par mois dans l’UE.
La Commission européenne a ouvert deux enquêtes coup sur coup, en avril et mai 2024. La première englobe la gestion des publicités trompeuses et de la désinformation. Elle touche aussi au mécanisme de signalement des contenus, jugé insuffisamment intuitif. Ainsi qu’aux obligations de transparence concernant les contenus à caractère politique. Sur ce point, Bruxelles s’est indigné de l’abandon, par Meta, de l’outil CrowdTangle, qui favorisait la en veille période électorale.
L’enquête lancée en mai 2024 porte sur la protection des mineurs. La Commission européenne a des inquiétudes sur la vérification d’âge et sur les risques de comportements d’addiction.
Google Maps, Play, Search et Shopping
Toutes ces plates-formes sont des VLOP depuis avril 2023.
Maps : 275,6 millions d’utilisateurs uniques par mois dans l’UE.
Play : 284,6 millions.
Search : 364 millions.
Shopping : 70,8 millions.
LinkedIn
Désigné VLOP en avril 2023, le réseau social fédère 45,2 millions d’utilisateurs actifs connectés par mois dans l’UE. S’y ajoutent 132,5 millions de visites par mois en mode déconnecté.
Pinterest
Le réseau social fait partie des VLOP depuis avril 2023. Il annonce 124 millions d’utilisateurs uniques par mois dans l’UE.
Pornhub, XNXX et XVideos
Pas de chiffres de fréquentation précis pour Pornhub, VLOP depuis décembre 2023. Ni pour XNXX, qui l’est depuis juillet 2024. XVideos, désigné en décembre 2023, en est à 160 millions d’utilisateurs uniques par mois dans l’UE.
En mai 2025, la Commission européenne a ouvert une procédure ciblant également Stripchat (qui n’est plus VLOP aujourd’hui), XNXX et XVideos. Elle s’inquiète notamment de l’absence de dispositifs efficaces de vérification d’âge. Et, plus globalement, de mesures appropriées pour garantir la sûreté, la sécurité et la vie privée des mineurs.
Shein
La plate-forme e-commerce est VLOP depuis avril 2024. Elle fédère 108 millions d’utilisateurs uniques par mois dans l’UE.
Snapchat
Snapchat est de la première vague des VLOP, désignées en avril 2023. Son compteur en est à 102 millions d’utilisateurs uniques par mois dans l’UE.
Temu
La plate-forme e-commerce est VLOP depuis mai 2024. Elle compte 75 millions d’utilisateurs uniques par mois dans l’UE.
En octobre 2024, la Commission européenne a ouvert une enquête. Elle s’intéresse aux mesures prises contre la vente de produits non conformes dans l’UE et aux risques de comportements addictifs que présentent les programmes de récompenses. La procédure touche aussi aux systèmes de recommandation (entre autres, la nécessité de donner au moins une option non fondée sur le profilage) et à la fourniture de données en accès public pour la recherche.
TikTok
Désigné VLOP en avril 2023, TikTok compte 135,9 millions d’utilisateurs actifs par mois dans l’UE.
Plusieurs enquêtes ont été menées à son encontre. La première, ouverte en février 2024, a examiné les risques de comportements d’addiction (et avec eux, les dispositifs de vérificaton d’âge), les paramètres de vie privée par défaut pour les mineurs, la transparence publicitaire et l’open data.
Une autre enquête est en cours depuis décembre 2024. Le sujet : l’intégrité de la plate-forme en périodes électorales. En toile de fond, les présidentielles roumaines… et la forte suspicion d’interférences étrangères. Bruxelles se focalise notamment, dans ce cadre, sur les risques de manipulation des systèmes de recommandation.
Les deux parties sont parvenues, en décembre 2025, à une conciliation partielle sur la transparence publicitaire. TikTok a accepté de publier, dans un répertoire spécifique et sous 24 heures maximum, les annonces telles qu’elles apparaissent dans les flux, tout en précisant les critères de ciblage sélectionnés par les annonceurs et en fournissant divers filtres de recherche.
Sur la partie open data, qui intéresse aussi la Commission européenne, on en reste aux conclusions préliminaires de cette dernière. Elle estime que les procédures de demande d’accès sont lourdes. Et qu’elles résultent souvent en l’obtention de données partielles ou non fiables.
Entre les deux enquêtes, une autre procédure fut lancée en avril 2024. Le contexte : l’arrivée de TikTok Lite en France et en Espagne. Au nom du risque d’addiction, Bruxelles avait demandé le retrait du programme « Task and Reward » récompensant les utilisateurs pour effectuer certaines tâches. TikTok avait quasi immédiatement accepté de le suspendre. D’abord pour 60 jours. Un engagement devenu permanent au mois d’août.
WhatsApp
Petit nouveau sur la liste des VLOP (désigné le 26 janvier 2026). Ses chaînes comptent 51,7 millions d’utilisateurs uniques par mois dans l’UE.
Wikipédia
L’encyclopédie est VLOP depuis avril 2023. Elle réunit 151,1 millions d’utilisateurs actifs par mois dans l’UE.
X
Le réseau social et VLOP depuis avril 2023. Il en est à 115,1 millions d’utilisateurs uniques par mois dans l’UE.
La Commission européenne avait ouvert une enquête en décembre 2023. La lutte contre la dissémination de contenu illégal était dans son viseur, ainsi que le mécanisme de signalement associé. Le système de modération Community Notes l’était aussi. Comme la « coche bleue », jugée trompeuse : tout le monde pouvant l’obtenir en prenant un forfait payant, elle compromettrait la capacité à distinguer l’authenticité des comptes.
Bruxelles considérait aussi que X n’était pas dans les clous en matière de transparence publicitaire. Ni d’open data (interdiction des accès indépendants dans les conditions d’utilisation, tarification onéreuse de l’API).
La sanction est finalement tombée en décembre 2025 : 120 M€, pour des manquements sur ces différents aspects. Une enquête vient par d’ailleurs d’être ouverte sur l’IA Grok et sur les systèmes de recommandation.
YouTube
La plate-forme est VLOP depuis avril 2023. Elle compte 416,6 millions d’utilisateurs mensuels actifs dans l’UE.
Zalando
La plate-forme e-commerce est VLOP depuis avril 2023. Elle compte 74,5 millions d’utilisateurs uniques actifs par mois sur la partie retail (26,8 millions sur les contenus tiers).
Ces services font chacun intervenir un algorithme qui analyse les recrutements passés pour prédire ceux à venir. Ils ont fait partie des premiers cas d’usage de l’IA au sein de l’établissement public.
Depuis, deux programmes se sont organisés. D’abord, « Intelligence emploi », mis en œuvre en 2019 et 2022. Il a permis la constitution d’une plate-forme technologique sur base open source et d’une équipe au sein de la DSI. Ensuite, « Data IA », engagé depuis 2024. Il est motivé par l’IA générative, le renforcement du pilotage de la donnée et l’élargissement des missions de France Travail avec la loi plein emploi.
La Cour des comptes s’est intéressée au déploiement de l’IA par l’agence d’emploi publique sur la période 2017-2025. Voici quelques éléments tirés de son rapport.
87 cas d’usage
La Cour des comptes a relevé 87 cas d’usage déployés ou testés sur la période en question.
Parmi eux, 27 sont utilisés à grande échelle. 16 sont en test. 25 sont en cours de conception. 17 ont été abandonnés au stade du test ou après déploiement. Plusieurs sont les variantes d’un même outil. Notamment de ChatFT (chatbot généraliste).
L’essentiel de ces 87 cas d’usage – 61, dont 26 déployés – ont pour seuls bénéficiaires directs les agents de France Travail. L’illustration, selon la Cour des comptes, d’une volonté de développer d’abord une culture de l’IA en interne.
Les principaux cas d’usage dont les demandeurs d’emploi sont bénéficiaires directs visent à :
Faciliter le remplissage du profil dans l’espace personnel
Suggérer des métiers en fonction des compétences
Lire automatiquement les documents téléchargés et extraire des informations
Ces cas d’usage présentent des résultats plutôt positifs. Parmi eux, l’analyse automatique des CV, qu’utilisent 75 % des demandeurs d’emploi.
Des 6 cas d’usage bénéficiant directement aux entreprises, 3 ont été abandonnés en 2017. L’un touchait à l’analyse prédictive de l’attractivité des offres d’emploi.
Les deux seuls actuellement déployés consistent à :
Prévoir le délai de pourvoi d’une offre à 30 jours (peu utilisé)
Présenter, sur un site public, des données générales sur l’emploi à l’échelon territorial (peu de valeur ajoutée dans les projets de recrutement)
9 % d’utilisateurs quotidiens de l’IA
L’effectif de France Travail avoisine 54 000 agents.
Sur 34 945 ayant répondu à une enquête interne menée en mars 2025, 9 % ont déclaré utiliser chaque jour l’IA mise à leur disposition. 18 % ont affirmé s’en servir plusieurs fois par semaine. 39 % ont dit ne pas y recourir.
ChatFT est accessible à tout le personnel depuis novembre 2024. À fin juin 2025, 37 600 agents l’avaient utilisé au moins une fois. Ce mois-là, 17 400 s’en étaient servis au moins trois journées distinctes.
Sur la fin de la phase de test, une étude interne sur environ 700 conversations avait révélé que l’usage principal consistait à formuler des réponses à des e-mails (51 % des conversations), loin devant la recherche d’informations générales (10 %).
108 millions d’euros de coûts
En retenant une estimation basse des coûts de développement, France Travail a mobilisé 93 M€ pour l’IA entre 2017 et 2024.
Période
Montant des dépenses
Avant 2018
3 M€
Intelligence emploi 2018-2022
64 M€
Data IA 2019-2022
9 M€
Data IA 2023-2024
16 M€
Autres dépenses non rattachées
1 M€
Les « autres dépenses non rattachées » correspondent aux budgets pour une application « Reconnaissance des émotions ».
On en arrive aux 93 M€ sus évoqués. En y ajoutant le budget prévisionnel de 15 M€ pour 2025, le coût total du développement de l’IA sur la période considérée s’élève à 108 M€. La Cour des comptes compare ce montant aux 66 M€ que le ministère de l’Économie et des Finances a engagés sur 2015-2023 et explique la différence par un plus grand nombre de relations directes avec les usagers.
120 M€ de gains d’efficience
On atteint ce montant en retenant une estimation haute des gains réalisés depuis 2017. Cela inclut trois gains directs attendus :
Cas d’usage du programme « Intelligence emploi » : 205 ETP par an à partir de 2023
Service « Upload simplifié » (reconnaissance de documents) : 350 ETP/an à partir de 2024
Service MatchFT (préqualification de profils par échange de SMS avec une IA) : 100 ETP en 2025
Soit, sur l’ensemble de la période étudiée, un total de 1415 ETP, que la Cour des comptes estime valorisables à 85 M€.
Les gains « indirects » liés à une charge de travail évitée par les conseillers seraient de 375 ETP. D’un côté, pour l’analyse automatique de CV, 27 ETP e 2023 et 48 par an à partir de 2024. De l’autre, 84 ETP par an à partir de 2023 pour le service « Lego », qui identifie les offres d’emploi illégales et empêche leur diffusion. L’ensemble serait valorisable à 23 M€.
Il faut y ajouter les coûts évités du fait du remplacement de logiciels par certains cas d’usage. En première ligne, la reconnaissance automatique de documents avec « Upload simplifié ».
14,4 M€ de dépassement pour « Intelligence emploi »
Le budget prévu pour ce programme était de 49,5 M€.
Le budget exécuté s’est élevé à 63,9 M€ (29 M€ de masse salariale, 33,9 M€ de dépenses de fonctionnement et 1 M€ de dépenses d’investissement).
France Travail justifie ce dépassement par l’allongement de 10 mois de la durée du projet, essentiellement en raison :
De la crise Covid
Du développement de cas d’usage initialement non prévus (Lego, analyse des CV, aide à la recherche d’info sur les sites de Pôle emploi…)
De la comptabilisation de dépenses liées aux capacités techniques communes à d’autres développements de solutions d’IA non intégrées au programme
Dès janvier 2020, donc avant l’épisode Covid, la Dinum avait alerté quant au montant de dépenses de prestations intellectuelles envisagé (22,7 M€). Elle l’avait jugé « surdimensionné pour une démarche exploratoire dont le retour sur investissement n’est pas garanti ».
Les prestations extérieurs ont, en définitive, coûté 33,9 M€.
La Dinum avait aussi anticipé, à raison, le potentiel incertain d’appropriation, par les conseillers, du cas d’usage « Gestion automatisée des mails et assistant virtuel ». Pôle emploi avait refusé d’y mettre un terme, au motif que des gains d’efficience et de satisfaction pourraient être constatés à court terme.
205 ETP gagnés avec « Intelligence emploi »
En 2018, Pôle emploi prévoyait un gain annuel de 164 ETP à l’horizon 2022 (87 grâce à « Contact via mail » et 77 par l’utilisation d’un chatbot).
Le gain a finalement atteint 205 ETP (107 grâce à « Contact via mail », le reste via Lego). Objectif dépassé, donc ; mais qui, a posteriori, apparaît peu ambitieux. La Cour des comptes en veut pour preuve le ROI significativement plus faible que pour une sélection de projets IA du ministère de l’Économie et des Finances.
Ces gains ne se sont pas traduits par une réduction nette des effectifs, mais par des « redéploiements intra-postes ».
De 18 à 4 mois pour déployer un cas d’usage
Avant le premier programme, il fallait 18 mois pour déployer un cas d’usage. Il en faut maintenant 4. En parallèle, le recours à des intervenants extérieurs est passé de 60 % des prestations globales sur 2019-2020 à 40 % sur 2021-2022.
Des six cas d’usage principaux réalisés sur la durée du programme « Intelligence emploi », trois étaient consacrés essentiellement à faciliter le travail des conseillers. Un déséquilibre entre les publics ciblés qui allait s’accentuer avec le programme « Data IA ».
Avant le lancement du programme « Intelligence emploi », France Travail avait détecté plus de 80 cas d’usage potentiels. 90 % se sont révélés inadéquats. Essentiellement du fait de difficultés au niveau de la data ou de l’intégration au SI, ou à cause d’une surestimation de la valeur.
30 minutes de moins pour remplir un profil
Les cas d’usage mis en place lors du premier programme ont entraîné des gains d’efficience assez limités. Quelques minutes par jour pour la gestion des e-mails, par exemple.
La valeur ajoutée réside surtout dans le service rendu. L’analyse automatique du CV réduit ainsi de 45 à 15 minutes le temps nécessaire au demandeur d’emploi pour remplir son profil de compétences.
779 ETP à libérer sur 2025-2027
Le travail de transformation engagé pour répondre à l’élargissement des missions de France Travail est formalisé dans un programme, prolongé dans un plan d’efficience sur 3 ans (2025-2027).
Aux dernières nouvelles, ce plan vise à dégager un gain équivalant au minimum à 3192 ETP. L’IA doit y concourir à hauteur de 779 ETP.
En avril 2025, il était question de 822, dont 78 % provenant de trois cas d’usage :
Aide rédactionnelle via ChatFT (226 ETP)
Préparation d’entretiens via Néo, moteur de recherche d’infos dans les dossiers des demandeurs d’emploi (241 ETP)
Alimentation plus facile de la GED via Panoptes (157 ETP), dont « Upload simplifié » est la déclinaison sur le site Internet de France Travail (en agence, cela s’appelle « Scanner », la version proposée aux services de l’État se nommant « Scanlab »)
Une analyse éthique pour 18 cas d’usage
Le respect des engagements pris dans la charte éthique publiée en avril 2022 n’est pas garanti, note la Cour des comptes. Seuls 18 cas d’usage ont fait l’objet d’un début d’analyse éthique formalisé.
Le recours à l’IA s’inscrit dans un contexte de numérisation de la relation avec France Travail. Entre 2017 et 2024, le nombre de visites annuelles en agence a chuté de 42 %. Tandis que le volume d’e-mails a augmenté de 72 %.
Nouveau coup de semonce pour Google. Ce mardi, la Commission européenne a ouvert deux procédures de spécification dans le cadre du Digital Markets Act (DMA). Cette législation phare de l’UE vise à réguler les géants du numérique.
L’objectif ? Contraindre Alphabet, sa maison mère, à préciser ses intentions. Google doit expliquer comment il permettra aux développeurs d’IA et aux moteurs de recherche concurrents d’accéder à ses services. Cela concerne Android et les données de Google Search. L’accès doit se faire dans des conditions équitables.
« Avec ces procédures, nous voulons aider Google », déclare Teresa Ribera, commissaire européenne à la concurrence. « Nous expliquons plus en détail comment il doit se conformer à ses obligations d’interopérabilité et de partage de données de recherche en ligne. » Une formulation diplomatique qui masque mal la pression sur le groupe californien.
Android dans le viseur
La première procédure concerne une obligation précise pour Google. Le géant doit offrir aux développeurs tiers une interopérabilité « gratuite et effective ». Cela vise les fonctionnalités matérielles et logicielles d’Android.
Bruxelles va spécifier les modalités d’accès pour les fournisseurs de services d’IA tiers. Google doit leur accorder un accès « aussi efficace » que celui de ses propres services, comme Gemini. L’objectif est clair : empêcher Google de favoriser ses propres outils d’IA. Le groupe ne doit pas privilégier ses solutions au détriment de la concurrence sur mobile.
Les données de recherche convoitées
La seconde procédure vise le partage des données de Google Search. La Commission exige un accès équitable pour les moteurs concurrents. Google doit leur fournir des données anonymisées : classement, requêtes, clics et vues. Les conditions doivent être « équitables, raisonnables et non discriminatoires ».
Les discussions porteront sur plusieurs points. Quelle sera l’étendue des données concernées ? Quelle méthode d’anonymisation Google utilisera-t-il ? Quelles seront les conditions d’accès ? Les fournisseurs de chatbots IA seront-ils éligibles ?
Un accès effectif à ces données changerait la donne. Les alternatives à Google pourraient optimiser leurs services. Les utilisateurs bénéficieraient de véritables choix.
« Nous voulons maximiser le potentiel de ce profond changement technologique », justifie Teresa Ribera. « Nous nous assurons que le terrain de jeu reste ouvert et équitable. Il ne doit pas pencher en faveur des plus grands acteurs. »
Google conteste
Sans surprise, Google exprime ses réticences. « Android est ouvert par conception », a répliqué Clare Kelly, conseillère principale à la concurrence chez Google. « Nous accordons déjà des licences sur les données de recherche à nos concurrents dans le cadre du DMA. »
Elle se dit préoccupée par les conséquences. « Des règles supplémentaires compromettront la confidentialité des utilisateurs », affirme-t-elle. Selon Google, ces règles menacent aussi la sécurité et l’innovation. Le groupe estime que les concurrents motivent ces règles par leurs griefs. L’intérêt des consommateurs ne serait pas la priorité.
Six mois pour se conformer
La Commission dispose de six mois pour conclure ces procédures. Dans les trois prochains mois, elle communiquera ses conclusions préliminaires à Google. Elle détaillera les mesures qu’elle envisage d’imposer. La Commission publiera des résumés non confidentiels. Les tiers pourront formuler des commentaires.
Ces procédures ne constituent pas encore une enquête formelle. Mais elles font clairement monter la pression. Si Google ne se conforme pas, des sanctions tomberont. Les amendes pourraient atteindre 10% du chiffre d’affaires mondial annuel du groupe. Un précédent existe : Apple a reçu des directives similaires il y a deux ans. L’objectif était d’ouvrir son écosystème fermé.
Un arsenal déjà impressionnant
Cette nouvelle offensive s’ajoute à un arsenal existant. Google fait face à des sanctions imminentes dans le cadre du DMA. Le groupe aurait favorisé ses propres services dans son empire de recherche. Il aurait également empêché les développeurs d’applications d’agir librement. Ces derniers ne pouvaient pas orienter les consommateurs vers des offres en dehors du Play Store.
Une autre enquête vise Google. Elle concerne le déclassement présumé de certains résultats d’actualités. Au total, l’UE a déjà infligé 9,5 milliards € d’amendes à Google.
Un nouveau pari pour la Dinum. Plus d’un an après avoir été étrillé par un rapport de la Cour des comptes, le bras armé de l’Etat pour la stratégie numérique a annoncé la généralisation de
» Visio », un outil de visioconférence développé par ses soins, à l’ensemble des services de l’État d’ici 2027.
Lancé par Le ministre délégué chargé de la Fonction publique et de la Réforme de l’État, David Amiel, l’opération » Visio » est présenté comme faisant partie de » La Suite « , cet outil estampillé français et développé par les ingénieurs de la Dinum vise à remplacer la multitude de solutions actuellement adoptées par les différents appareils d’État : Teams, Zoom, GoTo Meeting ou encore Webex, dans un objectif de souveraineté numérique et de sécurité des données publiques.
Une expérimentation sur 40 000 utilisateurs
Lancé sous forme expérimentale il y a un an, » Visio » compterait déjà 40 000 utilisateurs réguliers parmi les agents publics. Parmi les premières administrations à expérimenter la solution figurent le CNRS, l’Assurance Maladie, la Direction Générale des Finances publiques (DGFIP) et le ministère des Armées.
Le CNRS prévoit notamment de remplacer d’ici fin mars ses licences Zoom par Visio pour ses 34 000 agents et les 120 000 chercheurs associés à ses unités de recherche.
L’arrêt des licences logicielles payantes devrait générer une économie d’1 million € par tranche de 100 000 utilisateurs supplémentaires, selon les chiffres annoncés par le gouvernement.
Sécurité et souveraineté technologique
Selon la Dinum, » Visio » est déployé avec l’appui de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et offre des garanties de confidentialité adaptées aux besoins des agents publics, avec un hébergement (SecNumCloud) chez Outscale, filiale de Dassault Systèmes.. C’est la moindre des choses, serait-on tenté de dire.
Sur le plan technique, l’outil intègre des innovations françaises. La transcription des réunions par intelligence artificielle utilise les technologies de séparation des locuteurs développées par la startup française Pyannote. D’ici l’été 2026, un sous-titrage en temps réel sera proposé grâce aux technologies développées par le laboratoire de recherche en IA français Kyutai.
Les critiques de l’écosystème tech français
Cette annonce a suscité des réactions vives au sein de l’industrie française du numérique représentée au sein du Comité Stratégique de Filière Logiciels et Solutions Numériques de Confiance.
Selon les Echos, son président, Michel Paulin, a vivement réagi lors « des rencontres de la souveraineté numérique » un évènement organisé ce Lundi à Bercy. « Croire qu’une solution développée par trois développeurs en CDD dans le secteur public peut aller concurrencer Microsoft est une hérésie », a tancé Michel Paulin
Une intervention saluée par les applaudissements nourris d’un parterre de décideurs présents.
Autres réactions recueillies par le quotidien économique, celle de Renaud Ghia, président de Tixeo, éditeur français d’outils de visioconférence : « Si l’accès au secteur public est fermé par une solution développée et opérée par l’administration, les éditeurs français perdent leur premier levier de croissance. En lui refusant l’accès à son propre marché domestique, l’Etat français handicape ses champions à l’international. »
La mission et les réalisations de la Dinum sont depuis longtemps l’objet des critiques de la filière, souvent sur le ton de la concurrence déloyale…Rebondissant sur les conclusions de la Cour des comptes à propos de La Suite Numérique, le Conseil national du logiciel libre accusait l’an dernier la DINUM de concurrencer le secteur privé… dont les acteurs du logiciel libre.