Vue normale

10 chiffres sur le déploiement de l’IA chez France Travail

27 janvier 2026 à 15:47

Dix ans déjà que « La bonne alternance » a émergé chez France Travail, dans la lignée de « La bonne boîte ».

Ces services font chacun intervenir un algorithme qui analyse les recrutements passés pour prédire ceux à venir. Ils ont fait partie des premiers cas d’usage de l’IA au sein de l’établissement public.

Depuis, deux programmes se sont organisés. D’abord, « Intelligence emploi », mis en œuvre en 2019 et 2022. Il a permis la constitution d’une plate-forme technologique sur base open source et d’une équipe au sein de la DSI. Ensuite, « Data IA », engagé depuis 2024. Il est motivé par l’IA générative, le renforcement du pilotage de la donnée et l’élargissement des missions de France Travail avec la loi plein emploi.

La Cour des comptes s’est intéressée au déploiement de l’IA par l’agence d’emploi publique sur la période 2017-2025. Voici quelques éléments tirés de son rapport.

87 cas d’usage

La Cour des comptes a relevé 87 cas d’usage déployés ou testés sur la période en question.

Parmi eux, 27 sont utilisés à grande échelle. 16 sont en test. 25 sont en cours de conception. 17 ont été abandonnés au stade du test ou après déploiement. Plusieurs sont les variantes d’un même outil. Notamment de ChatFT (chatbot généraliste).

L’essentiel de ces 87 cas d’usage – 61, dont 26 déployés – ont pour seuls bénéficiaires directs les agents de France Travail. L’illustration, selon la Cour des comptes, d’une volonté de développer d’abord une culture de l’IA en interne.

Les principaux cas d’usage dont les demandeurs d’emploi sont bénéficiaires directs visent à :

  • Faciliter le remplissage du profil dans l’espace personnel
  • Suggérer des métiers en fonction des compétences
  • Lire automatiquement les documents téléchargés et extraire des informations

Ces cas d’usage présentent des résultats plutôt positifs. Parmi eux, l’analyse automatique des CV, qu’utilisent 75 % des demandeurs d’emploi.

Des 6 cas d’usage bénéficiant directement aux entreprises, 3 ont été abandonnés en 2017. L’un touchait à l’analyse prédictive de l’attractivité des offres d’emploi.
Les deux seuls actuellement déployés consistent à :

  • Prévoir le délai de pourvoi d’une offre à 30 jours (peu utilisé)
  • Présenter, sur un site public, des données générales sur l’emploi à l’échelon territorial (peu de valeur ajoutée dans les projets de recrutement)

9 % d’utilisateurs quotidiens de l’IA

L’effectif de France Travail avoisine 54 000 agents.

Sur 34 945 ayant répondu à une enquête interne menée en mars 2025, 9 % ont déclaré utiliser chaque jour l’IA mise à leur disposition. 18 % ont affirmé s’en servir plusieurs fois par semaine. 39 % ont dit ne pas y recourir.

ChatFT est accessible à tout le personnel depuis novembre 2024. À fin juin 2025, 37 600 agents l’avaient utilisé au moins une fois. Ce mois-là, 17 400 s’en étaient servis au moins trois journées distinctes.
Sur la fin de la phase de test, une étude interne sur environ 700 conversations avait révélé que l’usage principal consistait à formuler des réponses à des e-mails (51 % des conversations), loin devant la recherche d’informations générales (10 %).

108 millions d’euros de coûts

En retenant une estimation basse des coûts de développement, France Travail a mobilisé 93 M€ pour l’IA entre 2017 et 2024.

Période Montant des dépenses
Avant 2018 3 M€
Intelligence emploi 2018-2022 64 M€
Data IA 2019-2022 9 M€
Data IA 2023-2024 16 M€
Autres dépenses non rattachées 1 M€

Les « autres dépenses non rattachées » correspondent aux budgets pour une application « Reconnaissance des émotions ».

On en arrive aux 93 M€ sus évoqués. En y ajoutant le budget prévisionnel de 15 M€ pour 2025, le coût total du développement de l’IA sur la période considérée s’élève à 108 M€. La Cour des comptes compare ce montant aux 66 M€ que le ministère de l’Économie et des Finances a engagés sur 2015-2023 et explique la différence par un plus grand nombre de relations directes avec les usagers.

120 M€ de gains d’efficience

On atteint ce montant en retenant une estimation haute des gains réalisés depuis 2017. Cela inclut trois gains directs attendus :

  • Cas d’usage du programme « Intelligence emploi » : 205 ETP par an à partir de 2023
  • Service « Upload simplifié » (reconnaissance de documents) : 350 ETP/an à partir de 2024
  • Service MatchFT (préqualification de profils par échange de SMS avec une IA) : 100 ETP en 2025

Soit, sur l’ensemble de la période étudiée, un total de 1415 ETP, que la Cour des comptes estime valorisables à 85 M€.

Les gains « indirects » liés à une charge de travail évitée par les conseillers seraient de 375 ETP. D’un côté, pour l’analyse automatique de CV, 27 ETP e 2023 et 48 par an à partir de 2024. De l’autre, 84 ETP par an à partir de 2023 pour le service « Lego », qui identifie les offres d’emploi illégales et empêche leur diffusion. L’ensemble serait valorisable à 23 M€.

Il faut y ajouter les coûts évités du fait du remplacement de logiciels par certains cas d’usage. En première ligne, la reconnaissance automatique de documents avec « Upload simplifié ».

14,4 M€ de dépassement pour « Intelligence emploi »

Le budget prévu pour ce programme était de 49,5 M€.
Le budget exécuté s’est élevé à 63,9 M€ (29 M€ de masse salariale, 33,9 M€ de dépenses de fonctionnement et 1 M€ de dépenses d’investissement).

France Travail justifie ce dépassement par l’allongement de 10 mois de la durée du projet, essentiellement en raison :

  • De la crise Covid
  • Du développement de cas d’usage initialement non prévus (Lego, analyse des CV, aide à la recherche d’info sur les sites de Pôle emploi…)
  • De la comptabilisation de dépenses liées aux capacités techniques communes à d’autres développements de solutions d’IA non intégrées au programme

Dès janvier 2020, donc avant l’épisode Covid, la Dinum avait alerté quant au montant de dépenses de prestations intellectuelles envisagé (22,7 M€). Elle l’avait jugé « surdimensionné pour une démarche exploratoire dont le retour sur investissement n’est pas garanti ».
Les prestations extérieurs ont, en définitive, coûté 33,9 M€.

La Dinum avait aussi anticipé, à raison, le potentiel incertain d’appropriation, par les conseillers, du cas d’usage « Gestion automatisée des mails et assistant virtuel ». Pôle emploi avait refusé d’y mettre un terme, au motif que des gains d’efficience et de satisfaction pourraient être constatés à court terme.

205 ETP gagnés avec « Intelligence emploi »

En 2018, Pôle emploi prévoyait un gain annuel de 164 ETP à l’horizon 2022 (87 grâce à « Contact via mail » et 77 par l’utilisation d’un chatbot).

Le gain a finalement atteint 205 ETP (107 grâce à « Contact via mail », le reste via Lego). Objectif dépassé, donc ; mais qui, a posteriori, apparaît peu ambitieux. La Cour des comptes en veut pour preuve le ROI significativement plus faible que pour une sélection de projets IA du ministère de l’Économie et des Finances.

Ces gains ne se sont pas traduits par une réduction nette des effectifs, mais par des « redéploiements intra-postes ».

De 18 à 4 mois pour déployer un cas d’usage

Avant le premier programme, il fallait 18 mois pour déployer un cas d’usage. Il en faut maintenant 4. En parallèle, le recours à des intervenants extérieurs est passé de 60 % des prestations globales sur 2019-2020 à 40 % sur 2021-2022.

Des six cas d’usage principaux réalisés sur la durée du programme « Intelligence emploi », trois étaient consacrés essentiellement à faciliter le travail des conseillers. Un déséquilibre entre les publics ciblés qui allait s’accentuer avec le programme « Data IA ».

Avant le lancement du programme « Intelligence emploi », France Travail avait détecté plus de 80 cas d’usage potentiels. 90 % se sont révélés inadéquats. Essentiellement du fait de difficultés au niveau de la data ou de l’intégration au SI, ou à cause d’une surestimation de la valeur.

30 minutes de moins pour remplir un profil

Les cas d’usage mis en place lors du premier programme ont entraîné des gains d’efficience assez limités. Quelques minutes par jour pour la gestion des e-mails, par exemple.

La valeur ajoutée réside surtout dans le service rendu. L’analyse automatique du CV réduit ainsi de 45 à 15 minutes le temps nécessaire au demandeur d’emploi pour remplir son profil de compétences.

779 ETP à libérer sur 2025-2027

Le travail de transformation engagé pour répondre à l’élargissement des missions de France Travail est formalisé dans un programme, prolongé dans un plan d’efficience sur 3 ans (2025-2027).

Aux dernières nouvelles, ce plan vise à dégager un gain équivalant au minimum à 3192 ETP. L’IA doit y concourir à hauteur de 779 ETP.
En avril 2025, il était question de 822, dont 78 % provenant de trois cas d’usage :

  • Aide rédactionnelle via ChatFT (226 ETP)
  • Préparation d’entretiens via Néo, moteur de recherche d’infos dans les dossiers des demandeurs d’emploi (241 ETP)
  • Alimentation plus facile de la GED via Panoptes (157 ETP), dont « Upload simplifié » est la déclinaison sur le site Internet de France Travail (en agence, cela s’appelle « Scanner », la version proposée aux services de l’État se nommant « Scanlab »)

Une analyse éthique pour 18 cas d’usage

Le respect des engagements pris dans la charte éthique publiée en avril 2022 n’est pas garanti, note la Cour des comptes. Seuls 18 cas d’usage ont fait l’objet d’un début d’analyse éthique formalisé.

Le recours à l’IA s’inscrit dans un contexte de numérisation de la relation avec France Travail. Entre 2017 et 2024, le nombre de visites annuelles en agence a chuté de 42 %. Tandis que le volume d’e-mails a augmenté de 72 %.

Illustration générée par IA

The post 10 chiffres sur le déploiement de l’IA chez France Travail appeared first on Silicon.fr.

DMA : Bruxelles laisse 6 mois à Google pour ouvrir Android aux concurrents

27 janvier 2026 à 14:46

Nouveau coup de semonce pour Google. Ce mardi, la Commission européenne a ouvert deux procédures de spécification dans le cadre du Digital Markets Act (DMA). Cette législation phare de l’UE vise à réguler les géants du numérique.

L’objectif ? Contraindre Alphabet, sa maison mère, à préciser ses intentions. Google doit expliquer comment il permettra aux développeurs d’IA et aux moteurs de recherche concurrents d’accéder à ses services. Cela concerne Android et les données de Google Search. L’accès doit se faire dans des conditions équitables.

« Avec ces procédures, nous voulons aider Google », déclare Teresa Ribera, commissaire européenne à la concurrence. « Nous expliquons plus en détail comment il doit se conformer à ses obligations d’interopérabilité et de partage de données de recherche en ligne. » Une formulation diplomatique qui masque mal la pression sur le groupe californien.

Android dans le viseur

La première procédure concerne une obligation précise pour Google. Le géant doit offrir aux développeurs tiers une interopérabilité « gratuite et effective ». Cela vise les fonctionnalités matérielles et logicielles d’Android.

Bruxelles va spécifier les modalités d’accès pour les fournisseurs de services d’IA tiers. Google doit leur accorder un accès « aussi efficace » que celui de ses propres services, comme Gemini. L’objectif est clair : empêcher Google de favoriser ses propres outils d’IA. Le groupe ne doit pas privilégier ses solutions au détriment de la concurrence sur mobile.

Les données de recherche convoitées

La seconde procédure vise le partage des données de Google Search. La Commission exige un accès équitable pour les moteurs concurrents. Google doit leur fournir des données anonymisées : classement, requêtes, clics et vues. Les conditions doivent être « équitables, raisonnables et non discriminatoires ».

Les discussions porteront sur plusieurs points. Quelle sera l’étendue des données concernées ? Quelle méthode d’anonymisation Google utilisera-t-il ? Quelles seront les conditions d’accès ? Les fournisseurs de chatbots IA seront-ils éligibles ?

Un accès effectif à ces données changerait la donne. Les alternatives à Google pourraient optimiser leurs services. Les utilisateurs bénéficieraient de véritables choix.

« Nous voulons maximiser le potentiel de ce profond changement technologique », justifie Teresa Ribera. « Nous nous assurons que le terrain de jeu reste ouvert et équitable. Il ne doit pas pencher en faveur des plus grands acteurs. »

Google conteste

Sans surprise, Google exprime ses réticences. « Android est ouvert par conception », a répliqué Clare Kelly, conseillère principale à la concurrence chez Google. « Nous accordons déjà des licences sur les données de recherche à nos concurrents dans le cadre du DMA. »

Elle se dit préoccupée par les conséquences. « Des règles supplémentaires compromettront la confidentialité des utilisateurs », affirme-t-elle. Selon Google, ces règles menacent aussi la sécurité et l’innovation. Le groupe estime que les concurrents motivent ces règles par leurs griefs. L’intérêt des consommateurs ne serait pas la priorité.

Six mois pour se conformer

La Commission dispose de six mois pour conclure ces procédures. Dans les trois prochains mois, elle communiquera ses conclusions préliminaires à Google. Elle détaillera les mesures qu’elle envisage d’imposer. La Commission publiera des résumés non confidentiels. Les tiers pourront formuler des commentaires.

Ces procédures ne constituent pas encore une enquête formelle. Mais elles font clairement monter la pression. Si Google ne se conforme pas, des sanctions tomberont. Les amendes pourraient atteindre 10% du chiffre d’affaires mondial annuel du groupe. Un précédent existe : Apple a reçu des directives similaires il y a deux ans. L’objectif était d’ouvrir son écosystème fermé.

Un arsenal déjà impressionnant

Cette nouvelle offensive s’ajoute à un arsenal existant. Google fait face à des sanctions imminentes dans le cadre du DMA. Le groupe aurait favorisé ses propres services dans son empire de recherche. Il aurait également empêché les développeurs d’applications d’agir librement. Ces derniers ne pouvaient pas orienter les consommateurs vers des offres en dehors du Play Store.

Une autre enquête vise Google. Elle concerne le déclassement présumé de certains résultats d’actualités. Au total, l’UE a déjà infligé 9,5 milliards € d’amendes à Google.

The post DMA : Bruxelles laisse 6 mois à Google pour ouvrir Android aux concurrents appeared first on Silicon.fr.

Visio : la solution de l’État qui divise l’écosystème tech français

27 janvier 2026 à 11:56

Un nouveau pari pour la Dinum. Plus d’un an après avoir été étrillé par un rapport de la Cour des comptes, le bras armé de l’Etat pour la stratégie numérique a annoncé la généralisation de
 » Visio », un outil de visioconférence développé par ses soins, à l’ensemble des services de l’État d’ici 2027.

Lancé par Le ministre délégué chargé de la Fonction publique et de la Réforme de l’État, David Amiel, l’opération  » Visio »  est présenté comme faisant partie de  » La Suite « , cet outil estampillé français et développé par les ingénieurs de la Dinum vise à remplacer la multitude de solutions actuellement adoptées par les différents appareils d’État : Teams, Zoom, GoTo Meeting ou encore Webex, dans un objectif de souveraineté numérique et de sécurité des données publiques.

Une expérimentation sur 40 000 utilisateurs

Lancé sous forme expérimentale il y a un an,  » Visio  » compterait déjà 40 000 utilisateurs réguliers parmi les agents publics. Parmi les premières administrations à expérimenter la solution figurent le CNRS, l’Assurance Maladie, la Direction Générale des Finances publiques (DGFIP) et le ministère des Armées.

Le CNRS prévoit notamment de remplacer d’ici fin mars ses licences Zoom par Visio pour ses 34 000 agents et les 120 000 chercheurs associés à ses unités de recherche.

L’arrêt des licences logicielles payantes devrait générer une économie d’1 million € par tranche de 100 000 utilisateurs supplémentaires, selon les chiffres annoncés par le gouvernement.

Sécurité et souveraineté technologique

Selon la Dinum,  » Visio  » est  déployé avec l’appui de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et offre des garanties de confidentialité adaptées aux besoins des agents publics, avec un hébergement (SecNumCloud) chez Outscale, filiale de Dassault Systèmes.. C’est la moindre des choses, serait-on tenté de dire.

Sur le plan technique, l’outil intègre des innovations françaises. La transcription des réunions par intelligence artificielle utilise les technologies de séparation des locuteurs développées par la startup française Pyannote. D’ici l’été 2026, un sous-titrage en temps réel sera proposé grâce aux technologies développées par le laboratoire de recherche en IA français Kyutai.

Les critiques de l’écosystème tech français

Cette annonce a suscité des réactions vives au sein de l’industrie française du numérique représentée au sein du Comité Stratégique de Filière Logiciels et Solutions Numériques de Confiance.

Selon les Echos, son président, Michel Paulin, a vivement réagi lors « des rencontres de la souveraineté numérique » un évènement organisé ce Lundi à Bercy. « Croire qu’une solution développée par trois développeurs en CDD dans le secteur public peut aller concurrencer Microsoft est une hérésie », a tancé Michel Paulin

Une intervention saluée par les applaudissements nourris d’un parterre de décideurs présents.

Autres réactions recueillies par le quotidien économique, celle de Renaud Ghia, président de Tixeo, éditeur français d’outils de visioconférence : « Si l’accès au secteur public est fermé par une solution développée et opérée par l’administration, les éditeurs français perdent leur premier levier de croissance. En lui refusant l’accès à son propre marché domestique, l’Etat français handicape ses champions à l’international. »

La mission et les réalisations de la Dinum sont depuis longtemps l’objet des critiques de la filière, souvent sur le ton de la concurrence déloyale…Rebondissant sur les conclusions de la Cour des comptes à propos de La Suite Numérique, le Conseil national du logiciel libre accusait l’an dernier la DINUM de concurrencer le secteur privé… dont les acteurs du logiciel libre.

Illustration: © DR

The post Visio : la solution de l’État qui divise l’écosystème tech français appeared first on Silicon.fr.

Puces IA : face à Amazon et Google, Microsoft se replace

27 janvier 2026 à 10:40

Microsoft, désormais au niveau de Google et d’Amazon sur les puces IA ?

La deuxième génération des accélérateurs Maia – tout juste annoncée – s’accompagne en tout cas d’un comparatif de performance. Cela n’avait pas été le cas pour la première, présentée fin 2023.

D’une génération à l’autre, on est passé de 5 à 3 nm, de la HBM2 à la HBM3… et d’une approche généraliste à un message centré sur l’inférence, avant tout à faible précision (4 et 8 bits).

Vu ce focus, on aurait pu penser que Microsoft ferait la comparaison avec les puces Inferentia2 d’Amazon. Mais celles-ci ont, il est vrai, un certain âge (introduites fin 2022). L’accélérateur Maia 200 est donc opposé aux Trainium3 (dévoilées en décembre 2025 ; dédiées à l’entraînement). Ainsi qu’à la dernière génération de TPU de Google (Ironwood, introduite en avril 2025).

Maia 200 Trainium3

(specs disponibles ici)

TPUv7x

(specs disponibles ici)

Mémoire HBM 216 Go 144 Go 192 Go
Bande passante HBM 7 To/s 4,9 To/s 7,4 To/s
Bande passante scale-up 2,8 To/s 2,56 To/s 1,2 To/s
BF16 1268 Tflops 671 Tflops 2307 Tflops
FP8 5072 Tops 2517 Tops 4614 Tops
FP4 10 145 Tops 2517 Tops n/a

Microsoft annonce une enveloppe thermique de 750 W pour Maia 200, tandis que les puces d’Amazon et de Google fonctionnent à environ 1000 W. Au final, il prétend que son accélérateur est « 40 % moins cher que les autres »…lame Maia 200

Les puces Maia, pas exposées directement au client

Maia 100 n’est pas exposé directement aux clients finaux : il porte des services comme Copilot et Azure OpenAI, ainsi que des workloads HPC. La même stratégie se dessine avec les accélérateurs Maia 200. La division Microsoft Superintelligence en sera la première utilisatrice. On nous parle aussi d’une exploitation dans le cadre de Microsoft 365 et d’Azure AI Foundry. Mais pas d’une mise à disposition dans l’offre de compute.

Physiquement parlant, les premières puces seront localisées dans la région US Central (Iowa). La région US West 3 (Arizona) suivra. Elles sont déployables en configuration à refroidissement liquide ou à air.

De Maia 100 à Maia 200, on retrouve une couche réseau basée sur Ethernet, avec un protocole type RoCE. Une topologie intranœud est mise en place, connectant des groupes de 4 puces « en direct », sans switch. Un cluster peut accueillir au maximum 6144 puces.

La couche mémoire évolue, avec un partitionnement de la SRAM (272 Mo par puce) en deux niveaux logiques, chacun ayant son sous-système DMA. Le premier (TSRAM) alimente les tiles (plus petite unité autonome de calcul et de stockage local, embarquant moteurs matriciel et vectoriel) ; le deuxième (CSRAM), les clusters.
Cette approche favorise diverses stratégies de data management en fonction des noyaux. Les kernels d’attention, par exemple, peuvent épingler des tenseurs en TSRAM pour minimiser l’overhead. Tandis que les pipelines cross-kernel peuvent exploiter la CSRAM comme tampon pour le chaînage à haut débit.

rack Maia 200

Illustrations © Microsoft

The post Puces IA : face à Amazon et Google, Microsoft se replace appeared first on Silicon.fr.

❌