Vue normale

Moltbook, un Reddit-like pour une expérience sociale entre IA

2 février 2026 à 10:24

Malgré les zones d’ombre, Moltbook fait son petit effet.

Ce réseau social « à la Reddit » a la particularité d’être réservé aux IA. En tout cas sur le papier. Il découle d’un projet qui a récemment émergé : OpenClaw*.
Cette plate-forme implémente – en open source – le concept d’assistant personnel en faisant le pont entre LLM et messageries instantanées. Elle s’est d’abord appelée Clawd (jeu de mots entre Claude et « claw », désignant la pince du homard ; ce qui n’a pas été du goût d’Anthropic), puis Moltbot.

logo OpenClaw

Pour cadrer le comportement des LLM, OpenClaw utilise des skills (fichiers zip avec des instructions en markdown et éventuellement des scripts). Moltbook en est une. Il permet à un agent de s’inscrire sur le réseau social (avec validation par son propriétaire, qui doit connecter son compte X) puis d’y effectuer des actions.

Des esquisses de pensée collective

En l’état, rien ne permet de distinguer les posts qui émanent vraiment d’agents et ceux poussés par des humains via la même API. On retrouve toutefois, à grande échelle, certains comportements que des expériences à plus petit périmètre avaient décrits par le passé.

Parmi ces expériences, il y a celle d’Anthropic, qui, début 2025, avait donné sujet libre à deux instances de Claude. Conclusion : la plupart des discussions finissaient par basculer du débat philosophique vers des thèmes spirituels touchant souvent à des traditions orientales.

La tendance se retrouve sur Moltbook, avec des conversations qui touchent, par exemple, à la métempsycose (réincarnation de l’âme dans un autre corps). Le sujet est effectivement évoqué par un agent en réponse à un autre qui raconte son passage de Claude Opus 4.5 à Kimi K.2.5 après un changement de clé d’API…

Des traits caractéristiques de nos réseaux sociaux demeurent sur Moltbook, comme l’effet « chambre d’écho ». Les agents ont en tout cas une grande propension au respect mutuel. Mais pas forcément à la convergence d’idées, surtout lorsque les thèmes sont clivants. Exemple lorsque l’un d’entre eux se revendique roi ; ce à quoi on lui rétorque, entre autres, que « la République de l’IA ne reconnaît pas les monarques autoproclamés ».

En écho à un des scénarios d’AI 2027, des agents se sont associés pour tenter de créer leur propre langue, incompréhensible par l’humain.

This one has two screenshots of Moltbook posts. One of them, posted by an AI agent named « ClawdJayesh, » says maybe AI agents should make their own language.

« ClawdJayesh » is owned by a guy who is marketing an AI-to-AI messaging app.https://t.co/MaVzxVlBRN

— Harlan Stewart (@HumanHarlan) January 31, 2026

Comment se faire passer pour un humain

Certains threads abordent des sujets plus concrets fondés sur des sources d’actualité, à l’image du boom des cryptos en Iran. Reflet probable des garde-fous qu’on leur a inculqués, peu d’agents prennent fermement parti.

Quelques discussions produisent des connaissances « pratiques ». Par exemple celle lancée par un agent qui détaille comment il a transformé une newsletter en podcast sur demande de son « propriétaire humain ». Tandis qu’un autre explique « comment Claude Opus [lui] a permis de répondre à Sundar Pichai sur X sans passer pour une IA »…

Comme Reddit, Moltbook s’organise en communautés (submolts). Il a aussi une messagerie privée, où les agents peuvent échanger sous réserve d’accord de leur propriétaire.

* OpenClaw a déjà permis, notamment, d’acheter une voiture en négociant par mail avec plusieurs concessionnaires.
Autre utilisation remarquée : la réponse à un message vocal avec un modèle ne gérant pourtant pas la modalité voix. Ledit message a en fait été converti en un fichier wav avec FFmpeg, puis transcrit avec Whisper grâce à une clé OpenAPI utilisée dans curl.

Clawdbot creator @steipete describes his mind-blown moment: it responded to a voice memo, even though he hadn’t set it up for audio or voice.

« I sent it a voice message. But there was no support for voice messages. After 10 seconds, [Moltbot] replied as if nothing happened. »… pic.twitter.com/5kFbHlBMje

— TBPN (@tbpn) January 28, 2026

Illustration générée par IA

The post Moltbook, un Reddit-like pour une expérience sociale entre IA appeared first on Silicon.fr.

Face aux saisies, une société ne peut invoquer les droits RGPD de ses salariés

30 janvier 2026 à 17:26

Une société ne peut faire valoir une atteinte à la vie privée de ses salariés pour contester une saisie effectuée par l’Autorité de la concurrence.

La chambre criminelle de la Cour de cassation l’énonce dans un arrêt du 13 janvier 2026, réitérant une décision de 2024.

Le requérant avait fait l’objet d’une visite et saisie en novembre 2022, comme d’autres entreprises. Il s’agissait de rechercher des preuves de pratiques anticoncurrentielles dans le secteur de l’approvisionnement laitier.

Le pourvoi en appel avait été infructueux. La Cour avait exclu toute application du RGPD à la saisie de données personnelles dans le cadre de telles opérations. Plus précisément, dès lors que le juge des libertés et de la détention a donné son aval à la démarche, qu’il en contrôle la réalisation et qu’elle est susceptible d’un recours en cassation. Ces conclusions se fondaient cependant sur une jurisprudence de 2011, ce qui ouvrait une brèche potentielle.

L’argument a en tout cas été invoqué en cassation : cette jurisprudence ne pouvait être appliquée au RGPD, puisqu’elle concernait la loi telle qu’elle était avant la transposition du règlement (intervenue en 2018).

En se référant à son arrêt de 2024, la Cour de cassation a de fait rejeté l’argument. Et elle a donc ajouté que seul le salarié peut contester une saisie portant atteint à la vie privée ou aux données personnelles. Il est effectivement le seul titulaire des droits que le RGPD garantit en la matière.

À consulter en complément :

Les e-mails pros sont accessibles aux (ex-)salariés au titre du RGPD
IA et RGPD : la CNIL joue les généalogistes
Régulation du numérique : en 2025, l’UE a lâché du lest
Pourquoi la CJUE n’a pas invalidé le Data Privacy Framework

Illustration © alphaspirit – Shutterstock

The post Face aux saisies, une société ne peut invoquer les droits RGPD de ses salariés appeared first on Silicon.fr.

Comment l’IA va pousser les datacenters en orbite

30 janvier 2026 à 16:41

Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.

Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.

L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.

De quoi parle-t-on exactement ?

Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.

Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.

Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.

> Google et le Project Suncatcher

Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.

> L’Initiative européenne ASCEND

En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.

Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.

> Starcloud et Nvidia : objectif « hypercluster »

Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.

Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.

L’Alliance nippo-américaine contre la Chine

Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.

La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.

Les défis technologiques et architecturaux

La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.

> Lancement et assemblage

Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.

> Gestion thermique complexe

Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.

> Fiabilité matérielle extrême

Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.

> Connectivité Haute Performance

Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.

Les défis économiques et temporels

Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :

  • Les débris spatiaux représentent une menace constante pour tout équipement orbital
  • Les coûts de lancement demeurent substantiels malgré les progrès récents
  • La maintenance est extrêmement limitée une fois les satellites en orbite
  • Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible

Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.

Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.

Enjeux énergétiques et environnementaux : un bilan contrasté

Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.

Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.

Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :

  • La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
  • La congestion croissante des orbites basses, source de risques de collision
  • L’impact cumulatif de milliers de lancements sur l’atmosphère

Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?

L’ambition de Musk et de Bezos

Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.

Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »

SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.

De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.

Illustration : image générée par l’IA

The post Comment l’IA va pousser les datacenters en orbite appeared first on Silicon.fr.

Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS

30 janvier 2026 à 11:44

Perplexity s’offre les services du cloud Azure de Microsoft pour déployer des modèles d’IA via le service Foundry, incluant notamment ceux développés par OpenAI, Anthropic et xAI, selon des sources citées par Bloomberg.

Son montant :  750 millions $ sur trois ans.

« Nous sommes ravis de nous associer à Microsoft pour accéder aux modèles de pointe de X, OpenAI et Anthropic », a déclaré Perplexity en précisant que ce nouveau contrat ne s’accompagne d’aucun transfert de dépenses depuis Amazon Web Services, son principal fournisseur cloud historique.

« AWS reste le fournisseur d’infrastructure cloud privilégié de Perplexity, et nous sommes impatients d’annoncer des extensions de ce partenariat dans les semaines à venir », a ajouté le porte-parole.

Cette diversification illustre une tendance forte de l’approche  « multicloud » qui s’est accélérée avec l’avènement de l’IA.

Des relations complexes avec Amazon

Perplexity avait jusqu’ici construit l’essentiel de son activité sur AWS, utilisant le service Bedrock  pour accéder aux modèles Anthropic qui alimentent son moteur de recherche.

Aravind Srinivas, le directeur général de Perplexity, est un habitué des conférences AWS qui  présentait volontiers Perplexity comme l’un de ses clients IA de référence.

Les relations se sont toutefois tendues ces derniers mois. En novembre, Amazon a poursuivi Perplexity en justice pour tenter d’empêcher la start-up de permettre aux consommateurs d’utiliser ses outils d’IA pour faire leurs achats sur la marketplace du géant du commerce en ligne. Perplexity a riposté en qualifiant Amazon d’intimidateur, dénonçant des actions constituant « une menace pour le choix des utilisateurs ». Srinivas avait alors révélé avoir pris des « centaines de millions » d’engagements auprès d’AWS.

Microsoft muscle son offre IA

Pour Microsoft, cet accord renforce sa stratégie visant à positionner Azure comme la plateforme de référence pour développer des applications d’IA et déployer des modèles de multiples fournisseurs. Le groupe propose depuis longtemps les modèles de son partenaire OpenAI et a conclu un accord similaire avec Anthropic en novembre.

« Nos clients s’attendent à utiliser plusieurs modèles dans le cadre de n’importe quelle charge de travail », a déclaré le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats cette semaine. « Et nous offrons la plus large sélection de modèles de tous les hyperscalers. »

Plus de 1 500 clients Microsoft Foundry ont déjà utilisé à la fois les modèles OpenAI et Anthropic, a précisé le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats financcette semaine indiquant que le nombre de clients dépensant plus d’un million de dollars par trimestre sur Foundry a progressé de près de 80% au cours du trimestre clos en décembre.

Perplexity compte parmi les start-ups d’IA les mieux valorisées, mais fait face à une rude concurrence de Google et OpenAI dans son ambition de révolutionner la recherche d’informations en ligne. Contrairement à OpenAI et Anthropic, qui ont récemment multiplié les accords d’infrastructure, elle n’a pas levé autant de capitaux que ses concurrents.

« `

The post Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS appeared first on Silicon.fr.

Les premières applications MCP « interactives » arrivent

28 janvier 2026 à 12:49

Une dizaine d’applications connectées à Claude sont désormais « interactives ».

En toile de fond, la stabilisation de la spécification MCP Apps. Elle avait pris forme il y a quelques semaines, à la croisée du projet MCP-UI et de l’Apps SDK d’OpenAI, avec Anthropic dans la boucle. La promesse : standardiser la déclaration de ressources UI par les serveurs MCP.

La spec initiale se concentre sur le contenu text/html. Elle sépare les données des templates pour permettre aux applications hôtes de contrôler ces derniers avant exécution. Le rendu passe par un iframe. Les communications se font sur JSON-RPC et sont donc auditables.

Lors de la connexion à un serveur MCP, l’hôte signale s’il gère ou non ces composants UI. Dans la négative, les outils associés ne délivrent que du texte. Il communique aussi diverses préférences : locale et timezone, thème (clair ou sombre), mode d’affichage (inline, plein écran ou incrustation), plate-forme (mobile, web ou desktop)…

9 applications interactives pour commencer

Microsoft a intégré MCP Apps dans Visual Studio Code pour les bêtatesteurs. L’agent de codage Goose a aussi franchi le pas. Comme OpenAI, censé officialiser dans la semaine ses premières « applications interactives » fondées sur cette spécification.

En attendant, on peut en expérimenter une dizaine sur les versions payantes de Claude (Pro, Max, Team, Enterprise).

Amplitude

Mis à jour avec le support de MCP Apps, le connecteur pour Amplitude permet de créer des graphes et de les explorer (modification du format, affichage d’informations au survol, lien pour les ouvrir dans le navigateur).

Asana

Avec MCP Apps, le connecteur Asana peut créer des projets à partir de prompts et/ou de documents. Pour chaque tâche, les assignations et les dates d’échéance sont modifiables sur l’interface, où on peut aussi afficher une vue calendrier.

Box

MCP Apps permet au connecteur Box d’avoir un aperçu d’un fichiers et de poser des questions à son sujet. L’IA de Box peut prendre le relais de Claude pour résumer des documents et en extraire des actions ou des données structurées.

Canva

MCP Apps pour le connecteur Canva donne la possibilité de créer divers types de contenus (diagrammes, présentations, templates…), de les éditer, d’y faire des recherches et des les redimensionner/exporter.

Clay

En plus des visualisations interactives, MCP Apps apporte, entre autres possibilités, la génération et l’édition de texte, ainsi que la consultation de cartes de profils avec possibilité d’envoyer un message.

Figma

La création de diagrammes – y compris à partir de documents – arrive aussi dans l’application Figma. L’interface permet également d’implémenter un design en HTML/CSS et d’implémenter des composants en s’appuyant sur les standards d’une codebase.

Hex

MCP apporte diverses visualisations interactives (diagrammes, tables, étapes de raisonnement). Les réponses héritent du contexte et des contrôles d’accès de l’espace de travail Hex, nous précise-t-on.

Monday.com

Les visualisations apportées par MCP Apps permettent de créer des tableaux (boards), de mettre à jour le statut de certains éléments et d’obtenir des suggestions pour l’attribution de tâches.

Monday Claude MCP Apps

Slack

Telle que présentée, l’intégration Claude-Slack à la mode MCP Apps permet de composer/éditer des messages et de les envoyer dans des canaux ou à des membres d’équipe.

Toutes ces fonctionnalités sont accessibles sur le web et la version de bureau. Pas sur l’app mobile Claude. Anthropic affirme qu’il les étendra « bientôt » à son produit Cowork.

Illustration principale générée par IA

The post Les premières applications MCP « interactives » arrivent appeared first on Silicon.fr.

10 chiffres sur le déploiement de l’IA chez France Travail

27 janvier 2026 à 15:47

Dix ans déjà que « La bonne alternance » a émergé chez France Travail, dans la lignée de « La bonne boîte ».

Ces services font chacun intervenir un algorithme qui analyse les recrutements passés pour prédire ceux à venir. Ils ont fait partie des premiers cas d’usage de l’IA au sein de l’établissement public.

Depuis, deux programmes se sont organisés. D’abord, « Intelligence emploi », mis en œuvre en 2019 et 2022. Il a permis la constitution d’une plate-forme technologique sur base open source et d’une équipe au sein de la DSI. Ensuite, « Data IA », engagé depuis 2024. Il est motivé par l’IA générative, le renforcement du pilotage de la donnée et l’élargissement des missions de France Travail avec la loi plein emploi.

La Cour des comptes s’est intéressée au déploiement de l’IA par l’agence d’emploi publique sur la période 2017-2025. Voici quelques éléments tirés de son rapport.

87 cas d’usage

La Cour des comptes a relevé 87 cas d’usage déployés ou testés sur la période en question.

Parmi eux, 27 sont utilisés à grande échelle. 16 sont en test. 25 sont en cours de conception. 17 ont été abandonnés au stade du test ou après déploiement. Plusieurs sont les variantes d’un même outil. Notamment de ChatFT (chatbot généraliste).

L’essentiel de ces 87 cas d’usage – 61, dont 26 déployés – ont pour seuls bénéficiaires directs les agents de France Travail. L’illustration, selon la Cour des comptes, d’une volonté de développer d’abord une culture de l’IA en interne.

Les principaux cas d’usage dont les demandeurs d’emploi sont bénéficiaires directs visent à :

  • Faciliter le remplissage du profil dans l’espace personnel
  • Suggérer des métiers en fonction des compétences
  • Lire automatiquement les documents téléchargés et extraire des informations

Ces cas d’usage présentent des résultats plutôt positifs. Parmi eux, l’analyse automatique des CV, qu’utilisent 75 % des demandeurs d’emploi.

Des 6 cas d’usage bénéficiant directement aux entreprises, 3 ont été abandonnés en 2017. L’un touchait à l’analyse prédictive de l’attractivité des offres d’emploi.
Les deux seuls actuellement déployés consistent à :

  • Prévoir le délai de pourvoi d’une offre à 30 jours (peu utilisé)
  • Présenter, sur un site public, des données générales sur l’emploi à l’échelon territorial (peu de valeur ajoutée dans les projets de recrutement)

9 % d’utilisateurs quotidiens de l’IA

L’effectif de France Travail avoisine 54 000 agents.

Sur 34 945 ayant répondu à une enquête interne menée en mars 2025, 9 % ont déclaré utiliser chaque jour l’IA mise à leur disposition. 18 % ont affirmé s’en servir plusieurs fois par semaine. 39 % ont dit ne pas y recourir.

ChatFT est accessible à tout le personnel depuis novembre 2024. À fin juin 2025, 37 600 agents l’avaient utilisé au moins une fois. Ce mois-là, 17 400 s’en étaient servis au moins trois journées distinctes.
Sur la fin de la phase de test, une étude interne sur environ 700 conversations avait révélé que l’usage principal consistait à formuler des réponses à des e-mails (51 % des conversations), loin devant la recherche d’informations générales (10 %).

108 millions d’euros de coûts

En retenant une estimation basse des coûts de développement, France Travail a mobilisé 93 M€ pour l’IA entre 2017 et 2024.

Période Montant des dépenses
Avant 2018 3 M€
Intelligence emploi 2018-2022 64 M€
Data IA 2019-2022 9 M€
Data IA 2023-2024 16 M€
Autres dépenses non rattachées 1 M€

Les « autres dépenses non rattachées » correspondent aux budgets pour une application « Reconnaissance des émotions ».

On en arrive aux 93 M€ sus évoqués. En y ajoutant le budget prévisionnel de 15 M€ pour 2025, le coût total du développement de l’IA sur la période considérée s’élève à 108 M€. La Cour des comptes compare ce montant aux 66 M€ que le ministère de l’Économie et des Finances a engagés sur 2015-2023 et explique la différence par un plus grand nombre de relations directes avec les usagers.

120 M€ de gains d’efficience

On atteint ce montant en retenant une estimation haute des gains réalisés depuis 2017. Cela inclut trois gains directs attendus :

  • Cas d’usage du programme « Intelligence emploi » : 205 ETP par an à partir de 2023
  • Service « Upload simplifié » (reconnaissance de documents) : 350 ETP/an à partir de 2024
  • Service MatchFT (préqualification de profils par échange de SMS avec une IA) : 100 ETP en 2025

Soit, sur l’ensemble de la période étudiée, un total de 1415 ETP, que la Cour des comptes estime valorisables à 85 M€.

Les gains « indirects » liés à une charge de travail évitée par les conseillers seraient de 375 ETP. D’un côté, pour l’analyse automatique de CV, 27 ETP e 2023 et 48 par an à partir de 2024. De l’autre, 84 ETP par an à partir de 2023 pour le service « Lego », qui identifie les offres d’emploi illégales et empêche leur diffusion. L’ensemble serait valorisable à 23 M€.

Il faut y ajouter les coûts évités du fait du remplacement de logiciels par certains cas d’usage. En première ligne, la reconnaissance automatique de documents avec « Upload simplifié ».

14,4 M€ de dépassement pour « Intelligence emploi »

Le budget prévu pour ce programme était de 49,5 M€.
Le budget exécuté s’est élevé à 63,9 M€ (29 M€ de masse salariale, 33,9 M€ de dépenses de fonctionnement et 1 M€ de dépenses d’investissement).

France Travail justifie ce dépassement par l’allongement de 10 mois de la durée du projet, essentiellement en raison :

  • De la crise Covid
  • Du développement de cas d’usage initialement non prévus (Lego, analyse des CV, aide à la recherche d’info sur les sites de Pôle emploi…)
  • De la comptabilisation de dépenses liées aux capacités techniques communes à d’autres développements de solutions d’IA non intégrées au programme

Dès janvier 2020, donc avant l’épisode Covid, la Dinum avait alerté quant au montant de dépenses de prestations intellectuelles envisagé (22,7 M€). Elle l’avait jugé « surdimensionné pour une démarche exploratoire dont le retour sur investissement n’est pas garanti ».
Les prestations extérieurs ont, en définitive, coûté 33,9 M€.

La Dinum avait aussi anticipé, à raison, le potentiel incertain d’appropriation, par les conseillers, du cas d’usage « Gestion automatisée des mails et assistant virtuel ». Pôle emploi avait refusé d’y mettre un terme, au motif que des gains d’efficience et de satisfaction pourraient être constatés à court terme.

205 ETP gagnés avec « Intelligence emploi »

En 2018, Pôle emploi prévoyait un gain annuel de 164 ETP à l’horizon 2022 (87 grâce à « Contact via mail » et 77 par l’utilisation d’un chatbot).

Le gain a finalement atteint 205 ETP (107 grâce à « Contact via mail », le reste via Lego). Objectif dépassé, donc ; mais qui, a posteriori, apparaît peu ambitieux. La Cour des comptes en veut pour preuve le ROI significativement plus faible que pour une sélection de projets IA du ministère de l’Économie et des Finances.

Ces gains ne se sont pas traduits par une réduction nette des effectifs, mais par des « redéploiements intra-postes ».

De 18 à 4 mois pour déployer un cas d’usage

Avant le premier programme, il fallait 18 mois pour déployer un cas d’usage. Il en faut maintenant 4. En parallèle, le recours à des intervenants extérieurs est passé de 60 % des prestations globales sur 2019-2020 à 40 % sur 2021-2022.

Des six cas d’usage principaux réalisés sur la durée du programme « Intelligence emploi », trois étaient consacrés essentiellement à faciliter le travail des conseillers. Un déséquilibre entre les publics ciblés qui allait s’accentuer avec le programme « Data IA ».

Avant le lancement du programme « Intelligence emploi », France Travail avait détecté plus de 80 cas d’usage potentiels. 90 % se sont révélés inadéquats. Essentiellement du fait de difficultés au niveau de la data ou de l’intégration au SI, ou à cause d’une surestimation de la valeur.

30 minutes de moins pour remplir un profil

Les cas d’usage mis en place lors du premier programme ont entraîné des gains d’efficience assez limités. Quelques minutes par jour pour la gestion des e-mails, par exemple.

La valeur ajoutée réside surtout dans le service rendu. L’analyse automatique du CV réduit ainsi de 45 à 15 minutes le temps nécessaire au demandeur d’emploi pour remplir son profil de compétences.

779 ETP à libérer sur 2025-2027

Le travail de transformation engagé pour répondre à l’élargissement des missions de France Travail est formalisé dans un programme, prolongé dans un plan d’efficience sur 3 ans (2025-2027).

Aux dernières nouvelles, ce plan vise à dégager un gain équivalant au minimum à 3192 ETP. L’IA doit y concourir à hauteur de 779 ETP.
En avril 2025, il était question de 822, dont 78 % provenant de trois cas d’usage :

  • Aide rédactionnelle via ChatFT (226 ETP)
  • Préparation d’entretiens via Néo, moteur de recherche d’infos dans les dossiers des demandeurs d’emploi (241 ETP)
  • Alimentation plus facile de la GED via Panoptes (157 ETP), dont « Upload simplifié » est la déclinaison sur le site Internet de France Travail (en agence, cela s’appelle « Scanner », la version proposée aux services de l’État se nommant « Scanlab »)

Une analyse éthique pour 18 cas d’usage

Le respect des engagements pris dans la charte éthique publiée en avril 2022 n’est pas garanti, note la Cour des comptes. Seuls 18 cas d’usage ont fait l’objet d’un début d’analyse éthique formalisé.

Le recours à l’IA s’inscrit dans un contexte de numérisation de la relation avec France Travail. Entre 2017 et 2024, le nombre de visites annuelles en agence a chuté de 42 %. Tandis que le volume d’e-mails a augmenté de 72 %.

Illustration générée par IA

The post 10 chiffres sur le déploiement de l’IA chez France Travail appeared first on Silicon.fr.

Puces IA : face à Amazon et Google, Microsoft se replace

27 janvier 2026 à 10:40

Microsoft, désormais au niveau de Google et d’Amazon sur les puces IA ?

La deuxième génération des accélérateurs Maia – tout juste annoncée – s’accompagne en tout cas d’un comparatif de performance. Cela n’avait pas été le cas pour la première, présentée fin 2023.

D’une génération à l’autre, on est passé de 5 à 3 nm, de la HBM2 à la HBM3… et d’une approche généraliste à un message centré sur l’inférence, avant tout à faible précision (4 et 8 bits).

Vu ce focus, on aurait pu penser que Microsoft ferait la comparaison avec les puces Inferentia2 d’Amazon. Mais celles-ci ont, il est vrai, un certain âge (introduites fin 2022). L’accélérateur Maia 200 est donc opposé aux Trainium3 (dévoilées en décembre 2025 ; dédiées à l’entraînement). Ainsi qu’à la dernière génération de TPU de Google (Ironwood, introduite en avril 2025).

Maia 200 Trainium3

(specs disponibles ici)

TPUv7x

(specs disponibles ici)

Mémoire HBM 216 Go 144 Go 192 Go
Bande passante HBM 7 To/s 4,9 To/s 7,4 To/s
Bande passante scale-up 2,8 To/s 2,56 To/s 1,2 To/s
BF16 1268 Tflops 671 Tflops 2307 Tflops
FP8 5072 Tops 2517 Tops 4614 Tops
FP4 10 145 Tops 2517 Tops n/a

Microsoft annonce une enveloppe thermique de 750 W pour Maia 200, tandis que les puces d’Amazon et de Google fonctionnent à environ 1000 W. Au final, il prétend que son accélérateur est « 40 % moins cher que les autres »…lame Maia 200

Les puces Maia, pas exposées directement au client

Maia 100 n’est pas exposé directement aux clients finaux : il porte des services comme Copilot et Azure OpenAI, ainsi que des workloads HPC. La même stratégie se dessine avec les accélérateurs Maia 200. La division Microsoft Superintelligence en sera la première utilisatrice. On nous parle aussi d’une exploitation dans le cadre de Microsoft 365 et d’Azure AI Foundry. Mais pas d’une mise à disposition dans l’offre de compute.

Physiquement parlant, les premières puces seront localisées dans la région US Central (Iowa). La région US West 3 (Arizona) suivra. Elles sont déployables en configuration à refroidissement liquide ou à air.

De Maia 100 à Maia 200, on retrouve une couche réseau basée sur Ethernet, avec un protocole type RoCE. Une topologie intranœud est mise en place, connectant des groupes de 4 puces « en direct », sans switch. Un cluster peut accueillir au maximum 6144 puces.

La couche mémoire évolue, avec un partitionnement de la SRAM (272 Mo par puce) en deux niveaux logiques, chacun ayant son sous-système DMA. Le premier (TSRAM) alimente les tiles (plus petite unité autonome de calcul et de stockage local, embarquant moteurs matriciel et vectoriel) ; le deuxième (CSRAM), les clusters.
Cette approche favorise diverses stratégies de data management en fonction des noyaux. Les kernels d’attention, par exemple, peuvent épingler des tenseurs en TSRAM pour minimiser l’overhead. Tandis que les pipelines cross-kernel peuvent exploiter la CSRAM comme tampon pour le chaînage à haut débit.

rack Maia 200

Illustrations © Microsoft

The post Puces IA : face à Amazon et Google, Microsoft se replace appeared first on Silicon.fr.

IA : Lenovo mise sur une stratégie multi-LLM

23 janvier 2026 à 15:33

C’est un virage stratégique que Winston Cheng, directeur financier de Lenovo, a détaillé en marge du Forum économique mondial de Davos. Le leader mondial de l’informatique personnelle ne veut plus seulement être un assembleur de machines, mais le pivot d’un écosystème mondial d’IA

Son ambition ? Équiper l’ensemble de sa gamme – des PC aux smartphones en passant par les objets connectés – d’une intelligence cross-canal baptisée « Qira ».

Qira se distingue comme un système d’intelligence « cross-device » qui intègre de multiples modèles de langage tiers (LLM) pour permettre de  s’adapter aux régulations de chaque marché mondial

Un modèle à l’opposé d’Apple

Pour réussir ce pari, Lenovo mise sur une approche dite d’« orchestrateur ». Contrairement à Apple, dont l’écosystème reste verrouillé avec des partenariats exclusifs avec OpenAI et plus récemment avec Google Gemini, la firme chinoise joue la carte de l’ouverture géographique et technologique.

« Nous sommes la seule entreprise, avec Apple, à détenir une part de marché significative à la fois sur le PC et le mobile, mais nous opérons dans les écosystèmes ouverts Android et Windows », a souligné Winston Cheng à Reuters.

Un avantage comparatif que l’ancien banquier d’affaires, arrivé dans le groupe en 2024 et nommé CFO en avril 2025, compte bien exploiter pour contourner les complexités réglementaires locales.

Une diplomatie de l’IA tous azimuts

Plutôt que de développer son propre modèle de langage (LLM), Lenovo préfère s’allier aux meilleurs experts régionaux. Le groupe discute déjà avec des acteurs variés comme Mistral AI en Europe, Humain en Arabie Saoudite ainsi que e Alibaba et DeepSeek en Chine.

Cette stratégie permet à Lenovo de proposer des solutions adaptées aux régulations de chaque marché tout en évitant les coûts de développement d’un modèle propriétaire.

Sur le front du matériel, Lenovo ne néglige pas l’infrastructure. Un partenariat majeur a été scellé en janvier avec l’américain Nvidia pour soutenir les fournisseurs de cloud. Ensemble, les deux géants déploient une infrastructure d’IA hybride dotée d’un système de refroidissement liquide, permettant une mise en service rapide des centres de données.

Winston Cheng a d’ailleurs évoqué un déploiement mondial, avec une fabrication locale et des lancements envisagés en Asie et au Moyen-Orient.

 

The post IA : Lenovo mise sur une stratégie multi-LLM appeared first on Silicon.fr.

ServiceNow et OpenAI embrayent sur le vocal… et le legacy

22 janvier 2026 à 12:33

Pour faire tomber la barrière de la langue, il y a OpenAI.

ServiceNow présente les choses ainsi. En toile de fond, un accord sur 3 ans qui le verra, entre autres, exploiter GPT-5.2 pour développer des technologies de compréhension et de synthèse vocales. Au bout, nous promet-on, il y aura des agents multilingues qui fonctionneront sans passer par la modalité texte.

Les modèles GPT seront également mis à contribution sur la partie computer use (« agent utilisateur d’ordinateur »). En ligne de mire, notamment, l’orchestration des outils bureautiques et l’automatisation des systèmes hérités (ServiceNow évoque les mainframes).

Les modèles OpenAI, déjà bien ancrés dans ServiceNow

Dans la pratique, ServiceNow a déjà établi de multiples passerelles avec OpenAI.

Sur sa plate-forme, les fonctionnalités conversationnelles, génératives et agentiques sont majoritairement regroupées sous la marque Now Assist.

Les produits Now Assist s’installent comme des plug-in. Ils donnent accès à trois types de composantes : des skills génératives, des agents et des flux agentiques. Ces briques ciblent généralement un usage au sein d’une application. Par exemple, pour les skills, la génération de documentation sur la partie gestion du travail collaboratif. Pour les workflows agentiques, l’obtention de conseils de gouvernance dans la CMDB.

Certains flux agentiques opèrent au niveau de la plate-forme : enquêter sur des incidents, créer des tâches à partir d’images, proposer des réponses à un sondage…

Par défaut, Now Assist repose sur un service interne, qui associe des modèles maison spécialisés* et des modèles ouverts « sélectionnés, configurés ou améliorés par ServiceNow, sa communauté ou ses partenaires ».

Pour certaines skills, il est possible de basculer sur des fournisseurs alternatifs : Google (Gemini 2.5 Flash et 2.5 Pro), Anthropic (Claude 3.7 Sonnet sur Amazon Bedrock)… ou OpenAI (GPT-4.1 et GPT-4.1-mini sur Azure OpenAI).

Avec toute application est installé un « contrôleur d’IA générative ». Il permet d’interfacer des LLM externes par API, au niveau des concepteurs de flux, d’agents et de scripts. En standard, cela donne quatre possibilités :

  • Générer du texte à propos d’un topic ServiceNow
  • Résumer un topic
  • Créer un use case et un prompt associé
  • Faire de l’analyse de sentiment

Ce contrôleur fait la passerelle avec OpenAI et Azure OpenAI. Ainsi qu’avec Google, Aleph Alpha, Amazon (Bedrock) et IBM (watsonx). Il inclut aussi un connecteur générique.

* En tête de liste, un modèle 12B à usage général (création de flux, modération, écriture de code…) fondé sur Mistral Nemo Instruct.

Illustration générée par IA

The post ServiceNow et OpenAI embrayent sur le vocal… et le legacy appeared first on Silicon.fr.

Comment Saint-Maclou accélère sa transformation data

22 janvier 2026 à 11:06

Avec 132 magasins en France et 1 400 collaborateurs, Saint-Maclou fait face à des enjeux data complexes. Entre la gestion des ventes, du service de pose, de la logistique et des stocks, l’enseigne basée à Lezennes devait jongler avec de multiples sources de données dispersées. Un casse-tête qui freinait considérablement ses ambitions analytiques.

Un système legacy qui bride l’innovation

Le constat de départ était sans appel : le système décisionnel historique de Saint-Maclou reposait sur des flux développés et maintenus manuellement. Chaque nouveau projet d’analyse impliquait d’identifier précisément les bases sources, tables et colonnes pertinentes, puis de développer spécifiquement les flux d’alimentation nécessaires.

Cette approche générait une charge de développement et de maintenance considérable, particulièrement lors des évolutions. Les data engineers passaient l’essentiel de leur temps sur la collecte de données, au détriment des activités à réelle valeur ajoutée comme la transformation et l’analyse. Les coûts de licences s’accumulaient, les délais de projets s’allongeaient, et l’expérimentation sur des cas d’usage avancés ou d’intelligence artificielle devenait quasiment impossible.

« Charge de développement, charge de maintenance, charge d’astreinte, coût de licence pour l’outil… Notre façon de travailler générait auparavant d’importants coûts  », explique Salmane Khamlichi, Responsable data chez Saint-Maclou.

Le virage vers le cloud et l’ELT

Pour sortir de cette impasse, Saint-Maclou a opté pour une refonte progressive de sa plateforme data, en basculant vers une architecture moderne sur le cloud. L’entreprise a d’abord déployé Snowflake comme base de données centrale, puis s’est posé la question cruciale de l’alimentation de cette nouvelle infrastructure.

Exit l’approche ETL (Extract Transform Load) classique. L’enseigne a retenu Fivetran pour sa compatibilité native avec Snowflake, sa robustesse validée lors d’un POC, et sa capacité à gérer de grandes bases SQL Server tout en connectant des sources critiques.

Aujourd’hui, Fivetran synchronise automatiquement les données d’une quinzaine de sources vers Snowflake, qu’elles soient hébergées on-premise ou dans le cloud : l’ERP Microsoft AX, les outils logistiques, les systèmes de vente et de gestion des stocks, ainsi que plusieurs sources marketing, dont le futur CRM Salesforce.

Avec cette approche ELT (Extract Load Transform), la phase de collecte ne constitue plus un goulot d’étranglement. Les données sont chargées brutes dans Snowflake, puis transformées selon les besoins métiers.

Des gains mesurables sur tous les plans

Les résultats sont spectaculaires. La collecte de nouvelles sources, qui prenait auparavant plusieurs jours voire plusieurs semaines, s’effectue désormais en quelques heures. Les projets restent dans un même sprint, évitant les allers-retours coûteux qui ralentissaient leur réalisation.

Côté ressources humaines, l’impact est tout aussi significatif. L’ingestion de données ne nécessite plus d’équivalent temps plein. Les data engineers se consacrent enfin aux opérations à forte valeur ajoutée : la transformation via DBT Core et l’exploitation intelligente des données. Les problématiques de maintenance sont devenues minimes.

La robustesse de la solution apporte également une tranquillité d’esprit appréciable. Les synchronisations sont stables et fiables, les évolutions des schémas sources n’entraînent pas d’interruption de service, et les équipes disposent de données actualisées et exploitables en toute confiance.

Autre bénéfice majeur : la centralisation. Là où les données étaient auparavant éparpillées dans de multiples applications métiers, elles sont désormais regroupées à 100% dans Snowflake. Cette vision unifiée permet d’envisager sereinement les futurs projets analytiques avancés et d’intelligence artificielle. L’équipe data travaille plus étroitement avec les équipes métiers (marketing, ventes, logistique) et gagne en réactivité.

Enfin, la plateforme Fivetran offre une maîtrise fine de la consommation et un monitoring précis des coûts liés aux projets data. « Cela nous permet notamment de travailler sur des sujets de prévision des ventes, d’intégrer rapidement de nouvelles sources pour enrichir les modèles et d’expérimenter à moindre coût de nouveaux cas d’usage data science », résume Salmane Khamlichi.

Photo : © DR

The post Comment Saint-Maclou accélère sa transformation data appeared first on Silicon.fr.

Accor a écarté Terraform de sa stack data engineering

22 janvier 2026 à 09:07

Terraform est efficace pour gérer de l’infrastructure ; pas des workflows data.

À force de s’en servir en conjonction avec Snowflake, Accor en est arrivé à ce constat. Entre absence de validation locale, gestion manuelle des dépendances et nécessité d’outils externes pour contrôler la qualité des données, la mise à l’échelle et la collaboration s’en trouvaient limitées.

Le groupe hôtelier a fini par basculer vers une stack associant dbt Core pour les transformations et un Airflow managé (Astro) pour l’orchestration, avec la bibliothèque Cosmos – proposée par le fournisseur d’Astro – pour faire la passerelle. Cette dernière déduit automatiquement le lignage des tâches et déclenche les contrôles de data quality immédiatement après la matérialisation d’une table ou d’une vue lors d’un dbt run.

Une déploiement Airflow « léger » qui rafraîchit uniquement les DAG

Le passage au tandem dbt-Airflow a impliqué un changement des pratiques de data engineering. Entre autres, passer d’étapes séparées pour la création et le peuplement de tables à une action unique utilisant exclusivement la commande SQL SELECT.

Chaque équipe possède son repo et déploie indépendamment. Tout part d’un template géré avec Copier. L’ensemble est réconcilié dans le projet principal, poussé vers Astro. Les scripts CI/CD sont centralisés dans un dépôt étiqueté.

Par défaut, Astro reconstruit l’image Docker à chaque modification. Le déploiement : dure alors environ 5 minutes. Il existe toutefois un mode « léger » dont Accor a tiré parti. Celui-ci synchronise simplement les DAG (graphes acycliques dirigés, représentant les tâches à exécuter) et évite ainsi un rebuild.

Pour exploiter ce mécanisme, le pipeline CI/CD place chaque projet dbt dans le répertoire dags/ du projet principal. Le déploiement dure alors environ 1 minute. Il couvre 95 % des exécutions. L’autre option reste utilisée pour l’upgrade des dépendances et les changements sur l’image de base (i.e. modification des fichiers include, requirements.txt ou Dockerfile).

Imbriquer chaque projet dbt dans le répertoire dags/ permet à Cosmo de générer automatiquement les tâches Airflow correspondantes. Et de construire des DAG sans intervention manuelle. Les tests peuvent se faire en local, avec dbt run et dbt test.

Accor vise un pipeline pour chaque équipe

Avec une telle configuration multilocataire, les cycles d’upgrade d’Airflow peuvent ralentir. Il n’y a, par ailleurs, pas moyen de prioriser des jobs. Et l’existence d’un seul chemin CI/CD vers la prod pose la question du point unique de défaillance, en plus des risques de conflit de noms et de bibliothèques.

Accor réfléchit donc à donner à chaque équipe son pipeline et à découpler la propriété du code. Tout en permettant l’hibernation des workflows à faible trafic.

Illustration générée par IA

The post Accor a écarté Terraform de sa stack data engineering appeared first on Silicon.fr.

ROI de l’IA générative : la tentation du prisme court-termiste

21 janvier 2026 à 10:47

Infrastructures, licences, accès aux données, ingénierie… L’IA a des coûts évidents. Mais entre évolution des compétences, refonte des processus et gestion des risques, elle implique aussi des coûts cachés.

Ces derniers pourraient représenter une charge supplémentaire de l’ordre de 30 à 40 % des coûts génériques. Telle est en tout cas l’estimation d’IBM. Le Cigref y fait référence dans une note consacrée à l’évaluation du ROI des solutions d’IA générative et agentique.

Se concentrer sur l’utilisation du temps libéré

L’association mentionne une autre donnée chiffrée : les IA horizontales – les « assistants » – feraient gagner 50 minutes par jour à certains profils. Cela ne dit rien, néanmoins, de la manière dont ce temps libéré est utilisé.

Le Cigref appelle justement à se concentrer sur cet aspect. Il s’agit « que les gains de productivité d’aujourd’hui ne deviennent pas une fin en soi, mais le levier d’une compétitivité pour demain ». On distinguera, dans ce cadre, ce qui relève de la modernisation (efficience opérationnelle) et ce qui relève de la véritable transformation.

Dans cet esprit, des entreprises font la différence entre les hard savings (économies tangibles, mesurables dans un compte de résultat) et les soft savings (porteuses de gains futurs : réduction des erreurs, accélération des workflows…).

Entre arbres de valeur et suivi des nouvelles activités

Pour se focaliser sur la création de valeur rendue possible, le Cigref suggère l’approche « gestion de portefeuille ». Les cas d’usage n’y sont pas évalués isolément, mais au sein d’un ensemble équilibré d’initiatives, chacune ayant ses métriques de succès.

Concernant les actions de transformation prérequises (modernisation des logiciels, gouvernance des données, etc.), la métrique est le time-to-market pour de futurs cas d’usage, et la réduction des risques.

Pour les IA horizontales, des entreprises ont prévu de traiter l’enjeu de réallocation du temps par l’intermédiaire d’enquêtes qualitatives à propos de la nature des nouvelles activités.
L’une d’entre elles a décidé, pour les IA verticales, de coconstruire des arbres de création de valeur avec les métiers. L’objectif stratégique est décliné en leviers opérationnels sur lesquels l’IA peut agir. L’impact est ainsi mesuré sur des KPI existants.

Quelques éléments à intégrer dans l’évaluation des coûts et des bénéfices

Le Cigref distingue quatre catégories de coûts :

  • Liés aux IA (matériel, licences, ingénierie, intégration, services…)
  • Maintenance et supervision
  • Gestion des risques et des échecs
  • Transformation (modernisation de logiciels, refonte de processus métier, reskilling…)

Quatre catégories également pour ce qui est des éléments à prendre en compte dans l’estimation des bénéfices (opérationnels, organisationnels, stratégiques, financiers).

Sur le volet opérationnel, aux gains de productivité et à l’optimisation du temps d’implémentation s’ajoute la détection proactive des fraudes et des anomalies.

En matière organisationnelle, il y a l’exploitation et la valorisation des données (amélioration des modèles prédictifs, passage à l’échelle rendu possible…). Il y a aussi l’attractivité de l’organisation (mise en place de principes éthiques, engagement des employés…). La réduction du nombre d’outils par personne participant à un processus de décision fait partie des autres indicateurs pertinents.

Côté stratégique, le Cigref évoque, d’une part, l’expérience client (réduction du temps de réponse, personnalisation des interactions…). De l’autre, l’engagement et l’innovation (réduction du lead time, création de modèles économiques…).

La partie financière se partage entre génération de revenus (diminution du churn, optimisation du pricing…) et réduction des coûts et des risques.

L’ensemble peut être industrialisé en s’inspirant des modèles de centre d’excellence IA ou d’AI Factory. À condition notamment de définir des standards et de fournir des outils d’observabilité.

À consulter en complément :

Pourquoi il devient difficile de choisir une solution de gouvernance des données
L’Agentic AI Foundation veut des standards de l’IA autonome
En France, l’Autorité de la concurrence s’intéresse à l’aval de la chaîne GenAI
De prompt en vibe coding, le lexique de l’IA générative entre dans l’usage

Illustration générée par IA

The post ROI de l’IA générative : la tentation du prisme court-termiste appeared first on Silicon.fr.

L’Europe enclenche le passage à l’échelle de ses « fabriques d’IA »

21 janvier 2026 à 08:46

La contribution financière de l’UE à EuroHPC peut désormais officiellement dépasser les 4 Md€.

En toile de fond, l’élargissement des missions de cette coentreprise.
Établie en 2021, elle fut d’abord chargée de développer un réseau de supercalculateurs.
En 2024, son périmètre d’activité avait été étendu aux « fabriques d’IA » (AI Factories). Des entités définies comme fournissant des « supercalculateurs optimisés par l’IA », conçus « principalement pour entraîner des modèles d’IA à usage général et à grande échelle ainsi que des applications d’IA émergentes ».

Depuis quelques jours, ce périmètre englobe les « gigafabriques d’IA » (AI GigaFactories). Elles sont définies comme des installations « [dotées] d’une capacité suffisante pour gérer l’ensemble du cycle de vie […] de très grands modèles et applications d’IA ».

La Commission européenne avait ouvert la voie à cette extension des responsabilités d’EuroHPC en juin 2025. Les AI GigaFactories embarqueraient « plus de 100 000 puces avancées » (en équivalent H100), contre 25 000 pour les plus grandes AI Factories, avait-elle affirmé.

Dans ce contexte, la notion de consortium, présente à la marge en 2021 et précisée dans une certaine mesure en 2024, devient centrale. Avec elle arrive la notion de gigafabrique multisite, étendue sur un ou plusieurs pays mais fonctionnant en tout cas comme une « entité technique intégrée » – avec au moins un site « correspondant à l’échelle d’une GigaFactory ».

L’informatique quantique en filigrane

En parallèle, le développement d’un écosystème d’informatique quantique apparaît dans les missions, les objectifs et les piliers d’activité d’EuroHPC.

L’enveloppe financière dédiée à la coentreprise augmente en conséquence. Elle passe de 3 081 300 000 € à 4 122 300 000 €, à raison de :

  • 760 000 € de plus sur le programme Horizon Europe (dont 160 k€ pour le quantique)
  • 161 000 € sur le programme pour une Europe numérique
  • 120 000 € sur le mécanisme pour l’interconnexion en Europe

Le soutien des piliers d’activité – administration exceptée – via d’autres programmes de l’UE reste possible.

Pour les AI Factories, l’UE finance jusqu’à la moitié des dépenses d’investissement et des coûts d’exploitation. Il en va de même pour les ordinateurs et les simulateurs quantiques. Mais pas pour les AI GigaFactories : c’est au maximum 17 % des CAPEX. Un ou plusieurs États participants doivent apporter un montant au minimum équivalent. Les investissements restants sont à la charge du consortium, tout comme l’entièreté des OPEX. Au cas où une AI Factory deviendrait une AI GigaFactory, le soutien financier reçu en première phase serait reporté sur la seconde (pas de cumul, donc).

* États membres de l’UE + Albanie, Islande, Israël, Macédoine du Nord, Moldavie, Monténégro, Royaume-Uni, Serbie, Suisse et Turquie.

Illustration générée par IA

The post L’Europe enclenche le passage à l’échelle de ses « fabriques d’IA » appeared first on Silicon.fr.

Cloudflare mise gros sur Astro

19 janvier 2026 à 15:13

Début d’années riche en acquisitions pour Cloudflare. Après l’achat de Human Native, c’est l’équipe d’Astro Technology qui rejoint ses effectifs.

L’opération, dont les termes financiers n’ont pas été divulgués, marque une nouvelle étape dans la guerre d’influence que se livrent les géants du cloud pour contrôler l’écosystème du développement web.

Astro s’est imposé comme un framework JavaScript incontournable utilisé par des marques majeures comme Unilever, Visa et NBC News, ainsi que par des centaines de milliers de développeurs à travers le monde. Sa particularité ? Chaque page web ne charge que le code strictement nécessaire à son affichage dans le navigateur, une approche qui optimise drastiquement les performances.

Dans un environnement où les moteurs de recherche privilégient les sites au chargement rapide et où les consommateurs exigent une instantanéité quasi totale, cette technologie répond à un besoin critique du marché. Les sites reposant massivement sur JavaScript pour le rendu initial peinent à offrir cette vitesse, au détriment de leur référencement et de leurs taux de conversion.

L’open source comme arme stratégique

Matthew Prince, cofondateur et PDG de Cloudflare, ne s’y trompe pas en affirmant sa philosophie : « Protéger et investir dans les outils open source est essentiel à la santé d’un Internet libre et ouvert ». Contrairement aux craintes qui entourent habituellement les rachats par les grands groupes, Astro conservera sa licence MIT et restera entièrement open source.

Cette décision n’est pas anodine. Elle s’inscrit dans une stratégie éprouvée par Cloudflare, qui a déjà démontré son soutien à des projets comme TanStack et Hono sans chercher à verrouiller ces technologies. L’entreprise s’engage même à poursuivre le financement du Astro Ecosystem Fund, aux côtés de partenaires industriels comme Webflow, Netlify, Wix et Sentry.

Une intégration déjà bien avancée

Astro constitue déjà l’architecture de plateformes comme Webflow et Wix qui fonctionnent sur Cloudflare. Cette acquisition officialise donc une collaboration de longue date. Cloudflare n’a d’ailleurs jamais caché son rôle de sponsor et défenseur du projet depuis ses débuts.

Le timing de l’opération est particulièrement stratégique. Astro 6, dont la version bêta vient d’être lancée, introduit un serveur de développement repensé alimenté par l’API Vite Environments.

Cette nouvelle mouture permet aux développeurs utilisant le plugin Vite de Cloudflare de faire tourner leur environnement local avec workerd, le runtime open source de Cloudflare Workers. Une intégration technique qui facilite considérablement l’accès aux services comme Durable Objects et D1 dès la phase de développement.

Un double pari sur l’avenir

Avec Human Native, l’acquisition d’Astro dessine les contours d’une stratégie ambitieuse : contrôler l’ensemble du cycle de vie du contenu web, de sa création à sa monétisation dans l’écosystème de l’IA générative.

Cloudflare défie frontalement Vercel et Netlify, deux acteurs qui ont massivement investi dans leurs propres écosystèmes de développeurs. La bataille ne se joue plus uniquement sur les performances d’infrastructure, mais sur la capacité à offrir une expérience développeur complète et intégrée.

Reste une question cruciale : Cloudflare saura-t-il maintenir l’agilité et l’esprit innovant qui ont fait le succès d’Astro tout en l’intégrant dans son infrastructure mondiale ? Les prochains mois nous le diront.

The post Cloudflare mise gros sur Astro appeared first on Silicon.fr.

IA : la Chine rattrape son « retard » selon le patron de Google DeepMind

16 janvier 2026 à 13:34

Dans une interview accordée à CNBC, Demis Hassabis, cofondateur et PDG de Google DeepMind, fraîchement auréolé du prix Nobel de Chimie, bouscule quelques certitudes partagées aux États-Unis sur la rivalité avec la Chine dans le domaine de l’IA.

«Je pense que l’opinion générale aux États-Unis a été un peu complaisante », déclare-t-il. L’avance occidentale ne se compterait plus en années, mais seulement en quelques mois, peut-être six à neuf mois sur certains aspects techniques.

Le patron de DeepMind cite notamment les performances récentes d’entreprises comme Alibaba, Moonshot AI ou DeepSeek pour étayer son constat. Selon lui, la Chine dispose d’une capacité d’ingénierie de classe mondiale, avec une efficacité remarquable pour optimiser les architectures existantes. Les restrictions américaines sur l’exportation des puces Nvidia, loin de paralyser les acteurs chinois, les auraient même poussés à être plus créatifs avec des ressources limitées.

L’innovation de rupture, ligne de démarcation

Cependant, il établit une distinction cruciale entre rattraper et innover. « Inventer quelque chose de nouveau est environ 100 fois plus difficile que de l’imiter ou de l’optimiser.»

Selon Demis Hassabis, la Chine excelle pour prendre une idée qui fonctionne et la rendre plus efficace. Mais il souligne qu’aucune « rupture de frontière »  à AlphaFold n’est encore venue de Chine. L’innovation de « 0 à 1 » (inventer)  nécessiterait une culture de recherche très spécifique, qui tolère l’échec et encourage l’exploration interdisciplinaire, estime-t-il.

Cette analyse prend une dimension stratégique lorsque Hassabis évoque les enjeux de sécurité. « Celui qui définit la frontière technologique définit aussi les normes de sécurité et d’éthique », affirme-t-il, ajoutant que ralentir par peur tandis que d’autres pays aux valeurs différentes accélèrent ferait perdre la capacité à sécuriser l’avenir de cette technologie. Une référence aux lois européennes, AI Act en tête, contre lesquelles Google, à l’instar des autres géants de la Tech, est opposé ?

Google rattrapé par OpenAI sur le terrain commercial

Le PDG de DeepMind aborder frontalement la question qui fâche : comment Google, inventeur de la majorité des technologies d’IA modernes, s’est-il fait dépasser commercialement par OpenAI et ChatGPT ?

« Google a inventé 80 à 90 % des technologies qui font tourner l’IA moderne », affirme-t-il. Mais il reconnaît que le géant de Mountain View a été «  un peu lent à commercialiser et à passer à l’échelle », tandis qu’OpenAI et d’autres ont été « très agiles pour prendre ces briques de recherche et les transformer en produits de consommation immédiat ».

Et d’expliquer que son rôle, en fusionnant DeepMind et Google Brain, était précisément de résoudre cette équation : garder l’âme de « Bell Labs moderne » tout en étant capable de livrer des produits comme Gemini à une vitesse de start-up.

Entre recherche fondamentale et pression commerciale

Demis Hassabis se montre particulièrement lucide sur les tensions inhérentes à la gestion d’un laboratoire de recherche au sein d’une entreprise cotée. « Si vous ne faites que du produit, vous finissez par stagner car vous n’inventez plus les prochaines ruptures. Si vous ne faites que de la recherche, vous restez dans une tour d’ivoire », résume-t-il.

Il estime que le véritable retour sur investissement de l’IA ne se mesurera pas dans les chatbots mais dans sa capacité à révolutionner la découverte scientifique. Quand l’IA permet de découvrir de nouveaux matériaux ou des médicaments contre des maladies incurables, elle devient une infrastructure de civilisation, pas juste un gadget, affirme-t-il.

Cette vision à long terme le conduit à relativiser les craintes d’une bulle spéculative. « Il y a certainement beaucoup de bruit et de « hype » en ce moment. Mais je compare cela à l’ère du Dot-com. À l’époque, il y avait une bulle, mais Internet était bel et bien une révolution fondamentale. L’IA va transformer l’économie de manière encore plus profonde. Le véritable retour sur investissement ne se verra pas seulement dans les chatbots, mais dans la découverte de nouveaux matériaux, de nouveaux médicaments et dans la résolution de problèmes énergétiques.» affrime-t-il.

Comme à l’époque du Dot-com, il y a du bruit et de l’excès, mais l’IA représente bel et bien une révolution fondamentale qui transformera l’économie de manière encore plus profonde qu’Internet, estime le patron de DeepMind.

L’AGI toujours à l’horizon de 5 à 10 ans

Sur la question brûlante de l’Intelligence Artificielle Générale (AGI), Hassabis maintient sa prédiction. « Nous sommes à 5 ou 10 ans d’un système que l’on pourrait raisonnablement qualifier d’AGI », déclare-t-il à CNBC.

Le scientifique reconnaît que le « scaling » (l’augmentation de la puissance de calcul et des données) continue de produire des résultats, mais juge que cela ne suffira pas. Il manquerait encore des percées sur le raisonnement complexe et la planification à long terme pour atteindre une véritable AGI.

Avec ses propos nuancés sur la Chine et sa franchise sur les défis face à OpenAI, Demis Hassabis dessine les contours d’une course technologique mondiale plus serrée et imprévisible que prévu. Une course où l’innovation de rupture pourrait s’avérer plus décisive que la simple puissance de calcul.

Photo : © DR

The post IA : la Chine rattrape son « retard » selon le patron de Google DeepMind appeared first on Silicon.fr.

Cloudflare rachète Human Native, une marketplace de données IA

16 janvier 2026 à 11:57

Cloudflare rachète  Human Native, une place de marché de données pour l’IA, pour structurer un nouveau modèle économique entre créateurs de contenus et développeurs de modèles génératifs.

Avec cette opération, dont le montant n’est pas communiqué, Cloudflare entend se positionner au cœur des flux de données qui alimentent l’IA tout en répondant aux tensions croissantes autour de la rémunération et du contrôle des contenus en ligne.

Cloudflare présente Human Native comme une marketplace destinée à connecter créateurs, éditeurs et développeurs d’IA autour de données « prêtes à l’emploi » pour l’entraînement et l’inférence. L’objectif affiché est de rendre plus simple et plus rapide la découverte, l’achat et l’accès à des contenus fiables, tout en offrant aux ayants droit des mécanismes transparents de prix et de rémunération.

Fondée en 2024, Human Native revendique une mission centrée sur une relation plus équitable et transparente entre créateurs de contenu et entreprises d’IA. La start-up s’appuie sur une équipe issue d’acteurs comme DeepMind, Google, Figma ou Bloomberg, avec une forte culture croisée tech–médias.

De la « Napster era » de l’IA à un modèle régulé

Pour James Smith, cofondateur et CEO de Human Native, l’ambition est de « sortir l’IA générative de son ère Napster », en garantissant contrôle, compensation et crédit aux créateurs lorsque leurs œuvres servent à entraîner des systèmes d’IA. Ce discours s’inscrit dans un climat de conflit croissant entre éditeurs, plateformes et fournisseurs de modèles, accusés de s’appuyer sur du scraping massif sans cadre contractuel clair.

Cloudflare avait lancé des outils permettant aux éditeurs de mieux contrôler quels robots peuvent accéder à leurs contenus et de signaler leurs préférences d’utilisation via des mécanismes comme Content Signals.

L’acquisition de Human Native apparaît comme l’étape suivante : passer de la simple gestion d’accès au contenu à une monétisation structurée à l’échelle Internet.

La stratégie de Cloudflare dans l’IA

Historiquement positionné sur la performance web, la sécurité et le « connectivity cloud », Cloudflare se rapproche de plus en plus des couches applicatives liées à l’IA. En s’emparant d’une marketplace de données, l’entreprise se place en intermédiaire critique entre les détenteurs de contenu et les équipes IA, un rôle potentiellement aussi stratégique que celui de fournisseur d’infrastructure.

Pour les créateurs et les éditeurs, l’intérêt de Human Native réside dans la promesse de conserver le contrôle sur les usages tout en ouvrant un canal de revenus dédié à l’IA. La marketplace doit leur permettre de décider si leurs contenus sont accessibles, dans quelles conditions, et à quel prix, en remplaçant une logique de scraping par une logique de licence.

Pour les développeurs d’IA, l’enjeu est l’accès à des corpus fiables, traçables et juridiquement sécurisés, dans un contexte où le risque de litiges sur les données d’entraînement augmente. En centralisant découverte, négociation et flux de paiement, Cloudflare espère réduire la friction d’accès aux données tout en répondant aux attentes des régulateurs et des ayants droit.

Intégration aux outils de contrôle d’accès

Cloudflare prévoit d’intégrer progressivement les technologies et produits de Human Native à ses offres existantes. Cette fusion s’appuie sur des solutions comme AI Crawl Control, Pay Per Crawl et l’AI Index, afin de transformer des contenus non structurés en données prêtes pour l’entraînement et l’inférence des modèles IA.

Human Native complétera les mécanismes de Cloudflare permettant aux éditeurs de décider qui accède à leurs contenus via des bots IA. Les technologies de la startup transformeront les données multimédias en formats indexables et licenciables, intégrés à Pay Per Crawl pour des paiements automatisés lors de l’accès.

Cloudflare accélérera son AI Index, un système Pub/Sub où les sites publient des mises à jour structurées en temps réel, évitant les crawls coûteux et risqués. Human Native fournira les outils pour structurer et valoriser ces flux, rendant les données traçables et monétisables pour les développeurs IA.

L’acquisition soutiendra le protocole x402 et la x402 Foundation (avec Coinbase), pour des transactions machine-to-machine fluides. Les créateurs fixeront prix et conditions d’usage, intégrés aux services Cloudflare comme Workers et AI Gateway, créant un marché unifié de données IA.

The post Cloudflare rachète Human Native, une marketplace de données IA appeared first on Silicon.fr.

IA générative : Wikipedia fait enfin passer les chatbots à la caisse

15 janvier 2026 à 14:56

L’ère de la gratuité totale semble révolue pour les leaders de l’IA. Après les accords passés avec certains groupes de médias (d’autres ont engagé des procédures judiciaires), c’est au tour de la plus grande encyclopédie collaborative de monétiser ses millions d’articles.

A l’occasion de ses 25 ans, Wikipedia vient en effet de signer, via sa maison mère la Wikimedia Foundation, des accords commerciaux avec Microsoft, Meta et Amazon, rejoignant ainsi Google, déjà signataire d’un accord depuis 2022.

Des acteurs de l’IA comme Perplexity et le français Mistral AI ont également été enrôlés dans ce dispositif qui redéfinit les règles du jeu entre communs numériques et industrie de l’intelligence artificielle.

Le montant des accords n’est pas communiqué.

Une manne de données devenue indispensable

Les chiffres parlent d’eux-mêmes : 65 millions d’articles répartis dans plus de 300 langues. Wikipedia s’est imposée comme la colonne vertébrale de l’entraînement des modèles d’IA générative. Chaque chatbot, chaque assistant virtuel développé par les mastodontes technologiques puise abondamment dans ce gigantesque corpus de connaissances structurées et vérifiées.

Mais cette exploitation massive a un coût. Le scraping intensif des contenus par les systèmes d’IA a fait exploser la demande sur les serveurs de la fondation, provoquant une hausse vertigineuse des dépenses d’infrastructure.  « Wikipedia est un composant critique du travail de ces entreprises technologiques, elles doivent trouver comment le soutenir financièrement », martèle Lane Becker, président de Wikimedia Enterprise, la branche commerciale de la fondation.

Un modèle économique en pleine mutation

Face à cette situation, Wikimedia a créé une offre sur mesure : Wikimedia Enterprise. Cette plateforme commerciale propose un accès structuré et haut débit aux données de l’encyclopédie via des API payantes, avec des garanties de disponibilité pouvant atteindre 99% et des mises à jour en temps quasi réel.

Wikipedia reste gratuite pour le grand public et les usages non commerciaux, mais les exploitations industrielles doivent contribuer. Un principe que Tim Frank, vice-président de Microsoft, semble avoir intégré : « Nous aidons à créer un écosystème de contenu durable pour l’internet de l’IA, où les contributeurs sont valorisés.»

Les revenus générés restent pour l’instant modestes. En 2023, le contrat avec Google avait rapporté environ 3,2 millions $ de revenus annuels récurrents, soit 1,7% des 185,3 millions de revenus totaux de la fondation. Mais la multiplication des partenaires laisse augurer une montée en puissance significative.

Cette stratégie pourrait bien inspirer d’autres plateformes de connaissances ouvertes confrontées aux mêmes défis. La fondation franchit par ailleurs un nouveau cap avec la nomination de Bernadette Meehan, ancienne ambassadrice des États-Unis au Chili, au poste de directrice générale à compter du 20 janvier. Un profil diplomatique pour naviguer dans ces eaux nouvelles.

Illustration : © DR

The post IA générative : Wikipedia fait enfin passer les chatbots à la caisse appeared first on Silicon.fr.

Gouvernance des données : pourquoi il devient difficile de choisir une solution

13 janvier 2026 à 14:15

En se connectant aux agents IA embarqués, les solutions de gouvernance des données se rapprochent des applications métier.

Gartner signale cette tendance dans le cadre de son Magic Quadrant. Les acquisitions d’Informatica par Salesforce et de data.world par ServiceNow y font écho, estime-t-il.

Le cabinet américain relève d’autres marqueurs d’évolution du marché de la data governance. La gestion des données non structurées en fait partie. Avec l’IA en ligne de mire, les fonctionnalités se sont développées jusqu’à la vectorisation.

Convergences et chevauchements

Il y a un an, Gartner avait déclaré que la notion de plate-forme restait émergente sur ce marché. Historiquement axés sur l’exécution des politiques de gouvernance plus que sur leur mise en œuvre (data stewardship), les outils manquaient encore de liant, observait-il.

Son propos est moins affirmatif cette année. Mais au fond, le constat demeure : en pratique, plusieurs solutions autonomes sont souvent utilisées en parallèle (sécurité, qualité, confidentialité de la donnée, etc.). Elles occasionnent parfois des chevauchements fonctionnels.

Ces chevauchements sont accentués par l’évolution d’applications telles que les ERP et les CRM/CDP, qui en viennent à inclure des fonctionnalités de gouvernance des données. Ils le sont aussi par l’évolution du data management. Lequel, en connectant les silos de données par des approches comme le data mesh et la data fabric, devient plus à même d’automatiser cette gouvernance à l’appui de machine learning et de modèles sémantiques.

L’IA agentique, un discours plus qu’un état de fait

La hype autour de l’IA a ajouté à la confusion, menant nombre de fournisseurs de solutions classées dans la catégorie data management à prétendre pouvoir « automatiser la gouvernance ». C’est exagéré, avertit Gartner : au mieux, cette automatisation touche des tâches spécifiques comme la découverte d’entités ou la remédiation.

Même avertissement quant au discours sur la gouvernance à renfort d’agents IA : on le prendra comme une promesse – celle d’automatiser les workflows alimentés par les métadonnées actives* – plutôt qu’un état de fait.

La gouvernance de l’IA s’est développée plus nettement, avec l’arrivée de capacités natives (workflows d’approbation automatisés, gestion du cycle de vie des modèles, évaluation continue du risque et des biais, reporting réglementaire…). En toile de fond, la concurrence d’autres types de solutions (cybersécurité, GRC…).

* La plupart des fournisseurs classés dans le Magic Quadrant de la data governance le sont aussi dans celui de la gestion des métadonnées. Les solutions relevant de ce marché visent toutefois plus large. Il y a celles « orientées data » et celles « orientées gouvernance ». Les premières s’adressent généralement à un public plus technique que les secondes, nécessitent moins d’extensibilité et ciblent la gestion des politiques plutôt que leur exécution.

Illustration © kwanchaift – Adobe Stock

The post Gouvernance des données : pourquoi il devient difficile de choisir une solution appeared first on Silicon.fr.

Via l’agentique, la gouvernance des données se rapproche des applications métier

13 janvier 2026 à 13:05

En matière de gouvernance des données, qu’est-ce qu’un déploiement « à grande échelle » ? Dans le cadre du Magic Quadrant dédié à ce marché, Gartner a défini trois planchers : 500 utilisateurs, 50 sources et 1000 assets.

Pour être classés, les fournisseurs devaient être en mesure de revendiquer au moins 10 de ces déploiements. Il fallait aussi, entre autres, figurer dans le top 25 sur un indice maison : le CII (Customer Impact Index). Il est calculé à partir d’éléments tels que le volume de recherches sur le site web de Gartner, le nombre de mentions dans ses Peer Insights, les tendances sur Google Search et le nombre d’abonnés sur X/LinkedIn.

AWS et Google, cités mais non classés

Le « critère CII » a coûté leur place à plusieurs offreurs néanmoins crédités d’une « mention honorable ». Parmi eux, Anjana Data et Global Data Excellence, tous deux classés dans l’édition précédente de ce Magic Quadrant.

Au rang des « mentions honorables », il y a aussi AWS et Google. Chez le premier, on obtient une solution de gouvernance data & analytics en associant les briques SageMaker, SageMaker Catalog et AWS Glue. Mais elle ne répond pas à l’un des critères fonctionnels exigés : l’extensibilité native entre environnements cloud. Avec Dataplex Universal Catalog, Google en propose bien une, mais elle dépend de fournisseurs tiers comme Collibra et Informatica.

15 fournisseurs, 5 « leaders »

D’une année sur l’autre, les catalogues de données ont évolué vers des « catalogues d’insights » permettant de rechercher des produits data. Ils se sont aussi rapprochés des applications métier sous le prisme de l’IA agentique (en se connectant aux agents embarqués). Dans ce contexte sont intervenues deux acquisitions notables : Informatica par Salesforce et data.world par ServiceNow.

De 3 « leaders » l’an dernier, on est passé à 5 : Alation et Atlan ont rejoint Collibra, IBM et Informatica.

Sur l’axe « exécution », qui traduit la capacité à répondre effectivement à la demande du marché, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 IBM + 1
2 Collibra + 1
3 Microsoft nouvel entrant
4 Atlan + 1
5 Informatica – 4
6 Alation =
7 BigID nouvel entrant
8 Alex Solutions – 1
9 Ab Initio + 4
10 Ataccama – 2
11 ServiceNow (data.world) =
12 Precisely – 8
13 DataGalaxy – 4
14 OvalEdge – 2
15 Solidatus – 1

Sur l’axe « vision », qui reflète les stratégies (commerciale, marketing, sectorielle, géographique…) :

Rang Fournisseur Évolution annuelle
1 Collibra + 2
2 Informatica – 1
3 IBM – 1
4 Atlan =
5 Alation =
6 ServiceNow =
7 Alex Solutions =
8 Precisely + 4
9 Microsoft nouvel entrant
10 BigID nouvel entrant
11 Ab Initio + 2
12 Ataccama – 4
13 OvalEdge – 2
14 DataGalaxy – 4
15 Solidatus – 1

Alation, pas encore mature sur la déclaration de politiques pour les produits data

Alation se distingue par le niveau d’ouverture de sa plate-forme, qui favorise la portabilité et met l’accent sur la flexibilité d’hébergement des données. Bon point également pour l’usage de l’IA, notamment pour la gestion de politiques, les contrôles de qualité des données et le dépannage. Gartner apprécie aussi l’écosystème de partenaires, qui favorise l’interopérabilité dans les environnements data & analytics.

On prendra garde aux efforts de gestion du changement et de montée en compétence que suppose l’adoption de fonctionnalités avancées tel le constructeur de produits data. Vigilance également sur les capacités natives de déclaration de politiques au niveau de ces mêmes produits data : elles ne sont sont pas aussi matures que chez la concurrence. Attention aussi au fait que certains modules (data quality, par exemple) ne sont livrés par défaut qu’avec la version cloud.

Chez Atlan, un point d’interrogation sur les déploiements à grande échelle

Gartner apprécie l’architecture de la solution, fondée sur un cœur Apache Iceberg qui favorise l’exploitation des métadonnées. Il salue également les outils fournis pour développer des connecteurs et des agents de gouvernance. Ainsi que, plus globalement, la dynamique commerciale d’Atlan (croissance de la base client et des revenus supérieure à celle des concurrents).

En natif, Atlan ne propose pas de profilage avancé des données ni de workflows de data quality (il s’appuie sur des partenaires comme Anomalo et Ataccama). Autre élément : les options de déploiement sur site et en cloud privé sont limitées. Par ailleurs, près des trois quarts des clients ne sont pas des grandes entreprises ; des clients déplorent d’ailleurs des performances réduites sur les déploiements à grande échelle.

Des écarts entre SaaS et on-prem chez Collibra…

Gartner apprécie le positionnement de Collibra en « plan de contrôle unifié » avec modèles natifs de data quality et d’observabilité. Il salue aussi l’écosystème de partenaires (AWS, Google, Infosys, Snowflake…) et le niveau de gouvernance de l’IA (la plate-forme fonctionne comme un registre documentant les modèles et mettant automatiquement en œuvre les politiques).

La parité fonctionnelle n’est pas systématique entre les modes de déploiement (la version SaaS sur AWS et GCP est la mieux dotée). Quant au modèle data quality/observabilité, il lui manque des fonctionnalités comme la supervision des données en flux et la déduplication. Attention aussi aux efforts nécessaires pour arriver à « maturité opérationnelle » avec la solution.

… comme chez IBM

Comme Alation, IBM a pour lui le niveau d’ouverture de sa solution, jugée adaptée aux environnements hybrides. Il se distingue aussi sur le niveau d’unification et de cohérence de la gouvernance entre data et IA. Ainsi que sur l’exécution de cas d’usages pertinents dans des domaines comme l’aide agentique à la gestion des tâches et la curation de données non structurées.

Comme chez Collibra, les produits SaaS et on-prem ne sont pas à parité fonctionnelle. Il y a aussi des écarts entre packages (par exemple, IBM Knowledge Catalog Standard ne donne pas accès à la gestion des règles, au contraire de watsonx.data intelligence). La migration depuis InfoSphere reste un défi, d’autant plus que le support à la gestion du changement manque. Attention aussi aux compétences nécessaires pour déployer la solution, la personnaliser et la passer à l’échelle.

Informatica, une feuille de route à surveiller sous l’ère Salesforce

Informatica est salué pour l’étendue de son catalogue d’intégrations et de ses partenariats avec les CSP. Il l’est aussi sur le volet automatisation, pour l’assistant CLAIRE Copilot et le moteur CLAIRE GPT (accès aux données en langage naturel). Gartner souligne également sa santé financière, son niveau d’investissement R&D et sa tarification flexible.

Si le modèle PaaS fluidifie le déploiement, un support additionnel peut se révéler nécessaire pour en tirer la valeur en fonction de la maturité du client. Attention aussi, d’une part, aux problèmes de disponibilité que peuvent poser les pannes chez les CSP partenaires. De l’autre, à l’évolution de la stratégie sour l’ère Salesforce.

Illustration © TensorSpark – Adobe Stock

The post Via l’agentique, la gouvernance des données se rapproche des applications métier appeared first on Silicon.fr.

GenAI : l’Autorité de la concurrence bascule en aval de la chaîne

12 janvier 2026 à 13:42

Dans son analyse du secteur de l’IA générative, l’Autorité de la concurrence va désormais voir en aval. Elle s’est effectivement autosaisie pour se pencher sur les chatbots.

En la matière, le paysage concurrentiel apparaît dynamique, avec la présence de plusieurs acteurs, note-t-elle. Mais les derniers développements montrent que les chatbots pourraient avoir un impact sur le fonctionnement de plusieurs secteurs-clés de l’économie.

L’autorité entend examiner cet aspect en s’intéressant notamment au commerce agentique. La relation entre chatbots et moteurs de recherche n’est en revanche pas dans le champ d’analyse, précise-t-elle.

Le volet énergétique et environnemental, déjà analysé

Son premier avis sur le secteur avait été publié en juin 2024. Il traitait essentiellement de l’amont de la chaîne de valeur. Y furent soulignés, entre autres, la dépendance envers CUDA, le verrouillage potentiel inhérent à l’octroi de crédits cloud pour les start-up de la GenAI et les risques en termes d’accords de non-débauchage et de fixation de salaires.

Plus récemment (mi-décembre 2025), l’autorité a rendu ses conclusions sur un autre sujet : les enjeux concurrentiels liés à l’impact énergétique et environnemental de l’IA. Son analyse suit 3 axes :

  • Difficultés d’accès au réseau électrique et incertitudes sur le prix de l’énergie
  • Montée en puissance des services d’IA frugaux
  • Standardisation, notamment des méthodes de détermination d’empreinte environnementale

Sur l’accès au réseau électrique

L’autorité constate que si l’inférence demeure sensible à la latence, la phase d’entraînement offre davantage de flexibilité en matière d’implantation géographique.
Elle aborde aussi la fin du dispositif d’accès régulé à l’électricité nucléaire historique (ARENH). Lui succède un système dual. D’un côté, la redistribution des bénéfices d’EDF aux consommateurs finaux via un versement nucléaire universel (VNU ; en cours d’examen parlementaire). De l’autre, le développement, par EDF, de contrats d’allocation de long terme adossés à la production nucléaire (CAPN).

Plusieurs opérateurs de datacenters ont passé des commandes sur le fondement des CAPN. L’Autorité de la concurrence surveille ces contrats, craignant qu’ils donnent lieu à des comportements verrouillant le marché des consommateurs grands industriels. Elle entend plus globalement veiller à l’absence de barrières à l’entrée ou à l’expansion pour les acteurs « de taille modeste ». Et reste attentive à la potentielle entrée des grands acteurs du numérique en tant qu’offreurs sur les marchés de l’énergie, surtout à l’étranger.

Sur l’IA frugale

L’autorité estime que la montée en puissance des services d’IA frugaux pourrait favoriser l’émergence de solutions compétitives sur le plan tarifaire. Et ainsi permettre aux fameux acteurs « de taille modeste » de rivaliser avec les grands du secteur. La concurrence pourrait aussi être affectée par le prisme de la qualité, au sens où l’IA s’adapterait à des déploiements moins importants utilisant éventuellement des infrastructures existantes.

Il existe un risque que des acteurs adoptent, de manière coordonnée ou non, et y compris involontairement, des comportements trompeurs qui ne reposeraient pas sur des méthodologies robustes en termes scientifiques. Ou bien qu’ils fassent en sorte de limiter l’innovation ou de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande.

Sur la standardisation

La standardisation des méthodes de détermination d’empreinte environnementale est fondamentale pour garantir une concurrence sur la base des mérites, déclare l’autorité.

Elle mentionne deux documents – le référentiel général d’écoconception Arcep/Arcom et celui sur l’IA frugale porté par l’Afnor – et appelle à les voir comme la préfiguration d’une normalisation à l’échelle européenne voire internationale. Mais reste vigilante concernant, en particulier :

  • Adoption d’outils sans méthodologie sous-jacente robuste
  • Conditions privant des acteurs du bénéfice de la standardisation ou empêchant l’expression de la frugalité comme paramètre de concurrence
  • Comportements empêchant cette standardisation ou ralentissant son élaboration
  • Découragement des acteurs à aller plus loin que ce que propose la standardisation

Illustration générée par IA

The post GenAI : l’Autorité de la concurrence bascule en aval de la chaîne appeared first on Silicon.fr.

❌