Vue lecture

Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel »

L’IA générative n’est plus seulement utilisée pour développer des malwares : elle alimente aussi leur exécution.

En novembre 2025, Google avait proposé une analyse à ce sujet. Il avait donné plusieurs exemples. Dont celui d’un dropper VBScript faisant appel à l’API Gemini pour l’aider à obscurcir son code.

L’analyse est reprise en source dans l’International AI Safety Report 2026. Il s’agit du rapport « officiel » préfigurant le Sommet de l’IA qui se tiendra en Inde du 16 au 20 février. Comme celui de l’an dernier, il donne un instantané de la compréhension scientifique des IA généralistes, sous l’angle de la sûreté. Parmi les experts impliqués, il y a, côté français, Jonathan Collas  conseiller industrie et numérique au SGDSN. Et Gaël Varoquaux (Inria), chef de projet pour le consortium Scikit-learn.

Pour cette édition, la définition des « risques émergents » a été restreinte. Il s’agit désormais de ceux « qui naissent à la frontière des capacités de l’IA ». Une manière, nous explique-t-on, de mieux se poser en complément à des initiatives telles que le panel scientifique de l’ONU sur l’IA.

Des IA plus persuasives, mais une influence « non démontrée à l’échelle »

Depuis l’an dernier, les systèmes dit de raisonnement se sont répandus. Les performances en mathématiques, code et sciences en ont particulièrement bénéficié. Côté méthodes d’entraînement, le rapport met en avant la distillation, avec l’exemple de DeepSeek-R1, dont les chaînes de pensée ont nourri DeepSeek-V3.

Des avancées, il y en a aussi eu sur le contenu que génèrent les IA. Constat, dans les grandes lignes : il est devenu plus difficile à détecter. Pour l’illustrer, le rapport cite, entre autres, les observations de chercheurs de l’université de Californie à San Diego sur un test de Turing avec GPT-4o. Dans 77 % des cas, les participants ont considéré comme d’origine humaine un texte en fait créé par le LLM.
Une autre expérience citée émane d’UC Berkeley. Elle a porté sur le clonage de voix. Dans 80 % des cas, les participants ont pris l’IA pour le locuteur d’origine.

Autre étude d’UC Berkeley, autre aspect : les capacités de persuasion dont les IA font preuve. Elles se montrent parfois plus efficaces que l’humain. Les preuves en ce sens « se sont accumulées » ces derniers mois, précise le rapport, qui en dresse un tableau récapitulatif. Centré sur les effets négatifs (propagande politique, notamment), il témoigne cependant aussi d’effets potentiellement positifs, dont la réduction de l’adhésion aux théories du complot.

L’efficacité du contenu IA par rapport au contenu que crée l’humain n’est toutefois pas démontrée à l’échelle, nous explique-t-on. Cela peut s’expliquer par le coût de distribution et par l’effet de balance que suscite, en conditions réelles, l’exposition à des points de vue antagonistes.

Cybersécurité : pas encore d’IA à tout faire, même si la détection de vulnérabilités est acquise

Sur le volet cyber, la difficulté à établir des relations de cause à effet complique l’estimation du rôle de l’IA dans la sévérité et l’échelle des attaques.

Les LLM se révèlent en tout cas performants pour découvrir des vulnérabilités. À ce sujet, on nous mentionne le dernier DARPA AI Cyber Challenge. Lors de cette compétition, un système agentique s’est hissé dans les hauteurs du classement en découvrant 77 % des failles.

Malgré ces progrès, aucune attaque intégralement autonome n’a pour le moment été signalée. Au moins un incident s’en est néanmoins approché. Il a impliqué les services d’Anthropic. Celui-ci s’en est fait l’écho en novembre 2025, estimant que l’attaquant avait automatisé, par ce biais, 80 à 90 % du travail, l’humain n’intervenant que pour des décisions critiques.

De manière générale, le rapport invite à ne pas surestimer le potentiel actuel des IA. Ne serait-ce que parce que la plupart des évaluations n’englobent que des compétences isolées ; pas des attaques de bout en bout. Jusqu’ici, les outils à disposition ont surtout accéléré ou mise à l’échelle des méthodes existantes.

L’évolution de la balance entre usages offensifs et défensifs dépendra des choix sur l’accès aux modèles, le financement de la recherche et les normes de déploiement. Le manque de méthodes standards d’assurance qualité pour les outils IA, par exemple, complique leur adoption dans des secteurs critiques. Alors que dans le même temps, les acteurs de la menace n’ont pas cette contrainte…

Conscience situationnelle ne rime pas avec perte de contrôle

Quant aux dysfonctionnements et aux risques que cela implique, il y a, dans le rapport, à boire et à manger.

Des références à plusieurs études rappellent que des modèles ont démontré des capacités de conscience situationnelle. Autrement dit, une aptitude à détecter l’environnement dans lequel ils évoluent. De là la possibilité de se comporter différemment dans un scénario d’évaluation que dans le monde réel. Ou à dégrader artificiellement ses performances pour éviter des restrictions de déploiement. Ou encore à contourner sciemment des garde-fous pour remplir à tout prix un objectif, tout en le niant par après.

Le risque d’une perte de contrôle sur le long terme demeure cependant faible, faute de capacités à maintenir un fonctionnement autonome sur la durée.
Certes, cette durée s’est allongée dans quelques disciplines, à commencer par le codage. Mais un seul grain de sable peut faire dérailler la machine, comme l’illustre une étude universitaire axée sur la perturbation des systèmes langage-vision à partir d’une pop-up.

Le biais d’automatisation s’amplifie

Concernant l’impact de l’IA sur le marché du travail, le rapport cite des études – au Danemark et aux États-Unis – qui n’ont pas démontré de corrélation forte. Mais il en mentionne aussi plusieurs ayant conclu à un déclin de la demande en profils juniors.

L’amplification du « biais d’automatisation » apparaît plus claire. Déjà prononcé avec les systèmes automatisés « non IA », le phénomène se perpétue au contact des LLM. Le rapport cite deux études qui en témoignent. L’une démontre la tendance des utilisateurs d’outils d’assistance à l’écriture à adopter le point de vue que suggère le modèle. L’autre met en lumière le processus des raccourcis mentaux : sur une tâche d’annotation assistée, les participants ont moins corrigé les suggestion erronées venant d’une IA lorsque cela exigeait un effort supplémentaire.

Illustration générée par IA

The post Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel » appeared first on Silicon.fr.

  •  

IA dans le BTP : la révolution en mode test

Entre enthousiasme et prudence, le secteur du Bâtiment et des Travaux Publics apprivoise progressivement l’intelligence artificielle. Si les outils d’IA générative se diffusent rapidement dans les fonctions administratives, l’intégration sur les chantiers reste encore balbutiante. Une étude inédite de l’Observatoire des métiers du BTP révèle les freins et les opportunités d’une transformation qui s’annonce inéluctable.

Menée début 2025 auprès de 621 dirigeants d’entreprises, elle révèle que moins de 10% des structures déclarent utiliser actuellement des solutions d’IA. Un retard ? Pas vraiment. Plutôt une prudence de bon aloi dans un secteur habitué à des transformations progressives et où l’échec d’un outil peut se mesurer en vies humaines, pas en lignes de code.

Car si 36% des entreprises se disent intéressées par un déploiement futur, les grandes manœuvres n’ont pas encore commencé. « On a vu des applications très intéressantes par des gens qui travaillent avec des monuments historiques », raconte le dirigeant d’une TPE du Bâtiment. « Ils font voler des drones qui scannent les façades et génèrent le plan au millimètre près. Mais ça intéresse peu de monde pour l’instant. »

L’IA générative s’invite dans les bureaux

Si c’est une révolution qui se profile, elle commence par les tâches les moins valorisées : la bureautique. Les assistants comme ChatGPT ou Copilot se diffusent à bas bruit dans les fonctions supports. Rédaction de mails, correction de documents, synthèse de réunions : autant de corvées administratives allégées par ces outils accessibles sur smartphone.

« Les conducteurs de travaux s’enregistrent avec ChatGPT pendant les réunions de chantier : l’IA fait les synthèses et prépare les mails automatiquement », explique le dirigeant d’une PME spécialisée dans la construction de maisons individuelles. « Ce sont avant tout des gens de terrain, avec une vraie valeur ajoutée sur le contrôle et le management des équipes. Là, clairement, ça leur libère du temps. »

L’usage peut même devenir plus sophistiqué. Une comptable d’une TPE a ainsi créé des « petits robots » avec l’IA générative : désormais, lorsqu’une facture arrive dans la GED, le système ouvre le document, identifie l’artisan et le chantier, crée les dossiers nécessaires et range le tout. « Un vrai changement de paradigme dans notre gestion quotidienne », se félicite le dirigeant.

Ces usages « masqués » ou  » Shadow AI » soulèvent toutefois la question de l’encadrement par l’entreprise. Car sans politique claire, chacun bidouille dans son coin avec des outils grand public dont la sécurité des données n’est pas garantie.

Sur les chantiers, des promesses encore lointaines

Au-delà des bureaux, les applications métiers restent largement au stade exploratoire. L’IA pourrait pourtant transformer en profondeur la planification des chantiers. Grâce à des algorithmes prédictifs, certaines solutions analysent en temps réel l’avancement des travaux, les conditions météorologiques et la disponibilité des ressources pour anticiper les retards et réajuster automatiquement les plannings.

La sécurité constitue un autre terrain d’expérimentation prometteur. Des systèmes de vision par ordinateur, intégrés à des caméras sur casques ou engins, peuvent identifier le non-port d’équipements de protection ou la présence de personnes dans des zones interdites. Objectif : passer d’une prévention réactive à une approche prédictive, capable d’anticiper les accidents avant qu’ils ne surviennent.

Mais ces innovations restent confinées aux grands groupes et à quelques projets pilotes. « L’IA ne pourra être efficace que si elle s’applique dans un environnement un peu plus normé et organisé que ce qui est l’ordinaire du chantier dans notre secteur », tempère un dirigeant de PME.

Les freins à l’adoption : technique, économique et culturel

Premier obstacle : la qualité des données. L’IA ne peut délivrer son potentiel que si elle s’appuie sur des informations fiables et bien structurées. Or, dans nombre d’entreprises du BTP, les données sont éparpillées, mal rangées et stockées dans des formats hétérogènes. « Pour avoir de la donnée exploitable, il faut que ça soit structuré, organisé, propre. Dans le monde du Bâtiment aujourd’hui, on est très, très loin. » martèle un directeur technique d’ETI.

Deuxième frein : l’absence d’interopérabilité entre les nombreux logiciels du secteur. Les différents outils numériques utilisés – devis, BIM, suivi de chantier – communiquent mal entre eux, rendant difficile la mutualisation des données. « J’ai plein de solutions différentes : pour les devis, la facturation, la banque, la comptabilité… mais rien n’est interconnecté », déplore un autre dirigeant. « Je passe 70% de mon temps à faire des passerelles entre les outils. »

L’équation économique reste incertaine, particulièrement pour les TPE-PME qui composent 94% du tissu entrepreneurial du Bâtiment. Pour ces structures, déployer une solution d’IA nécessite un budget conséquent avec un retour sur investissement difficilement chiffrable. « Ce que nos entreprises ont besoin de voir pour sauter le pas, c’est le retour sur investissement », souligne une organisation professionnelle. « Et pour l’instant, ceux qui viennent leur proposer des produits ne donnent pas vraiment d’éléments là-dessus. »

Enfin, les obstacles culturels ne sont pas négligeables. Dans un secteur historiquement attaché au savoir-faire manuel et à la transmission par le compagnonnage, l’idée qu’un algorithme puisse orienter des décisions techniques suscite des réticences. « Le savoir-faire, c’est du concret, du geste, de la mémoire, du ressenti », résume un chef d’entreprise. « Si on délègue trop aux outils automatiques, on va finir par perdre cette intelligence du terrain. »

L’ancienneté des dirigeants constitue un autre frein. Dans un secteur où beaucoup de patrons approchent de la retraite, l’investissement dans des technologies dont ils ne verront pas les fruits complets ne semble pas prioritaire. « On a toute une catégorie de dirigeants vieillissants qui se disent que bientôt ils ne seront plus là, alors pourquoi s’embêter à intégrer de l’innovation », observe un organisme de formation.

Les compétences, clé de voûte de la transformation

Face à ces défis, la montée en compétences apparaît comme le levier prioritaire. Mais avant même de parler d’IA, le secteur doit d’abord rehausser son niveau général de littératie numérique. « Les entreprises ne sont pas prêtes parce qu’elles n’ont pas fait cette partie de structuration en amont », constate un formateur. « Il y a toute une politique de la donnée à mettre en place avant d’intégrer tout ça. »

En 2024, Constructys a financé 1 762 actions de formation sur l’intelligence artificielle, un chiffre qui a bondi à 4 406 en 2025. Mais l’analyse des intitulés révèle une offre encore très centrée sur la sensibilisation générale, avec peu de contextualisation aux métiers du BTP. La majorité des formations privilégient la découverte de l’IA plutôt que la montée en compétences opérationnelles.

Les besoins identifiés s’articulent autour de trois niveaux. D’abord, un socle minimal de culture numérique : maîtrise des règles de gestion documentaire, gouvernance de la donnée, sensibilisation aux usages collaboratifs. Ensuite, des compétences intermédiaires d’ingénierie d’usage et de conduite du changement, pour identifier les cas d’usage pertinents et mobiliser les équipes. Enfin, des compétences avancées sur l’interopérabilité, l’automatisation et la sécurité des systèmes.

Une transformation par paliers

L’étude de l’Observatoire des métiers du BTP dessine les contours d’une transformation qui se fera par étapes. Les fonctions supports seront les premières concernées, avec une évolution vers des rôles de supervision et de contrôle des contenus produits automatiquement. Les métiers de la conception, déjà familiers du BIM, intégreront progressivement des outils d’IA pour automatiser les tâches répétitives de vérification et de détection d’erreurs.

Sur les chantiers, les conducteurs de travaux deviennent peu à peu des « data managers locaux », surveillant des tableaux de bord numériques tout en conservant leur expertise terrain. Les métiers de la maintenance évoluent vers la maintenance prédictive, où l’anticipation des pannes prime sur le dépannage.

« On est dans une phase où les outils sont là, mais il faut apprendre à s’en servir », résume un directeur technique. « L’IA n’est pas un pilote automatique : c’est un assistant. Le vrai savoir-faire reste dans la coordination humaine. »

Source : Observatoire des métiers du BTP, Étude sur la perception et l’intégration des outils d’intelligence artificielle dans les entreprises du BTP, janvier 2026

The post IA dans le BTP : la révolution en mode test appeared first on Silicon.fr.

  •  

Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité

Si les assistants de codage ne font pas tant gagner en productivité, c’est parce qu’ils cannibalisent la phase pendant laquelle les écarts de spécifications sont le plus souvent détectés.

Certes, le constat émane d’une start-up américaine qui en a fait son fonds de commerce. Mais la réflexion qui y a abouti a son intérêt, notamment par les indicateurs dont elle s’est nourrie.

Trois stats pour poser le problème

La semaine dernière, cette start-up – Bicameral AI – avait publié un « manifeste », intitulé « Les assistants de codage résolvent le mauvais problème ». Elle avait ouvert son propos sur trois statistiques.

La première est sourcée d’Index.dev (plate-forme de recrutement tech). Bicameral AI la présente ainsi : les équipes ayant utilisé l’IA ont réalisé 21 % de tâches en plus, mais le delivery global – au niveau de leur organisation – ne s’est pas amélioré.

Index.dev a en fait lui-même tiré ce chiffre du rapport « The AI Productivity Paradox », que Faros AI (plate-forme de développement) avait publié à l’été 2025. Il apparaît que Bicameral AI en fait un résumé incomplet : le taux de 21 % vaut pour les équipes qui ont un usage important (« extensive ») de l’IA. Et le delivery est jugé spécifiquement sur les métriques DORA.

Deuxième statistique : les développeurs expérimentés ayant utilisé des assistants de codage ont été 19 % plus lents, alors qu’ils croyaient être plus rapides. Difficile de la vérifier : l’article qui en rend compte, publié en janvier 2025, n’est plus accessible. Son auteur : METR, organisation à but non lucratif qui étudie l’impact sociétal de l’IA. Sa fondatrice est une ancienne de DeepMind et d’OpenAI.

Troisième statistique : 48 % du code généré par IA contient des vulnérabilités. Elle est censée provenir d’Apiiro (un spécialiste de l’AppSec) et dater de 2024. Le lien que fournit Bicameral AI pointe toutefois vers un post de septembre 2025 qui ne donne pas directement ce chiffre. Apiiro a tout de même régulièrement donné des estimations proches (« plus de 40 % » en avril 2025, « jusqu’à 50 % » en août 2025…).

Quand l’IA fait perdre le temps qu’elle a fait gagner

Le manifeste se poursuit sur une référence à un fil Reddit avec près d’un millier de commentaires. Un développeur senior y témoigne de l’expérience – positive – de son équipe avec l’IA.

Bicameral AI pointe un des commentaires : le plus difficile n’est pas d’écrire le code, mais de gérer les cas particuliers qui se présentent au cours de l’implémentation. La start-up rebondit sur cet aspect : les assistants de codage sont connus pour ne pas faire remonter les écarts de spécifications, mais au contraire les dissimuler, affirme-t-elle. Par conséquent, on passe davantage de temps sur la revue de code… alors qu’avec l’IA, les managers en attendent davantage.

Dans ce contexte, le taux de développeurs considérant que les managers ne saisissent pas leurs points de douleur progresse nettement : 63 % en 2025, contre 49 % en 2024.

Ces chiffres proviennent du dernier sondage State of DevEx d’Atlassian. Bicameral AI le reprend pour annoncer que les assistants de codage font gagner aux développeurs près de 10 heures par semaine. Mais que l’accroissement des inefficacités sur le reste du cycle de développement anéantit presque ce gain.

Là aussi, la start-up fait un raccourci. Atlassian dit en fait que les outils GenAI en général font gagner au moins 10 heures par semaine à 68 % des développeurs. Mais qu’en même temps, 50 % perdent plus de 10 heures sur des tâches autres que le code*.

Ce fil conducteur mène Bicameral AI à une observation : le décalage entre intention métier et implémentation se crée lors des réunions produit. La start-up en veut pour preuve un sondage qu’elle a mené auprès de développeurs. Dans ce cadre, la majorité (63 %) ont déclaré découvrir des contraintes inattendues après s’être engagés sur l’implémentation.

Les écarts de spécifications, repérés surtout lors de l’implémentation

Les commentaires sur le manifeste et la collecte de réponses supplémentaires au sondage ont entraîné la publication, cette semaine, d’un deuxième article. Bicameral AI y confirme que le taux de développeurs découvrant les contraintes techniques au stade de l’implémentation est resté élevé (50 %).

La start-up mentionne un autre chiffre : 70 % déclarent que ces contraintes doivent être connues au-delà de leur équipe, auprès de populations qui n’interagissent pas régulièrement avec la codebase. Seulement, assure-t-elle, cette communication est difficile. Les pratiques de documentation des décisions n’aident pas : 52 % des répondants à son sondage transmettent les contraintes techniques par copier-coller sur Slack et 25 % les évoquent oralement, sans trace écrite. Plus globalement, 35 % des communications ne produisent aucun artefact persistant.

Bilan : dans la pratique, le conflit entre les specs produit et la réalité de l’engineering ne devient apparent qu’à la phase d’implémentation. Or, dès lors que l’IA phagocyte cette phase, le travail de découverte doit remonter à la phase de planification, sous peine de glisser sinon vers la phase de revue de code… et d’en être d’autant plus compliquée.

Le salut dans les prompts ? Le paradoxe de l’œuf et de la poule

Bicameral part ici du principe que les assistants de codage sont « accommodants » : ils peuvent demander des clarifications, mais ne suggèrent généralement pas d’explorer d’autres options.
« Il suffit de demander à l’IA de te challenger », a-t-on rétorqué, en substance, à la start-up. Elle y répond sous l’angle de l’œuf et de la poule : pour prompter correctement, il faut connaître au préalable la manière dont les contraintes techniques et produit peuvent entrer en conflit. Une connaissance qui, en l’état, ne fait donc essentiellement surface qu’à la phase d’implémentation…

Le traitement du problème en amont pourrait, contre-intuitivement au premier abord, s’appuyer sur des LLM. Lesquels examineraient comment une spéfication donnée pourrait impacter des structures de code existantes. Sur cette base, on pourrait imaginer un affichage en tant réel du contexte d’ingénierie pendant une réunion. Option qu’ont d’ailleurs suggérée certains participants au sondage.

* En 2024, IDC expliquait que le codage ne représentait que 16 % de leur temps de travail des développeurs. Contre 14 % pour l’écriture de spécifications et de tests, 13 % pour la sécurité, 12 % pour la surveillance des applications, etc.

Illustration générée par IA

The post Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité appeared first on Silicon.fr.

  •  

Comment piloter le Shadow AI

Pendant des décennies, le Shadow IT se résumait à des applications SaaS non approuvées ou à des serveurs de stockage personnels. Aujourd’hui, le phénomène a muté en une force bien plus disruptive : le Shadow AI. Le constat est sans appel : alors que les directions informatiques s’interrogent encore sur les protocoles, les collaborateurs, eux, ont déjà intégré l’IA générative dans leur quotidien.

Selon les analystes de Forrester, le « Bring Your Own AI » (BYOAI) est devenu la norme, car les employés privilégient l’efficacité immédiate à la conformité procédurale.

Pour le DSI, l’enjeu dépasse la simple gestion de parc logiciel. Il s’agit désormais de protéger la propriété intellectuelle tout en ne devenant pas le goulot d’étranglement de la productivité. Comme le souligne Gartner, « le Shadow AI est le résultat d’un décalage entre la vitesse de l’innovation en IA et la vitesse de la gouvernance informatique. »

Sortir de l’illusion du blocage

Le premier réflexe de nombreuses organisations a été la restriction pure et simple. Pourtant, cette stratégie est aujourd’hui jugée non seulement inefficace, mais dangereuse. En bloquant l’accès aux LLM (Large Language Models) sur le réseau d’entreprise, la DSI ne supprime pas l’usage ; elle le rend invisible. Les collaborateurs se tournent vers leurs terminaux personnels, créant une zone grise où aucune politique de sécurité ne s’applique.

Cette transition impose au DSI d’évoluer vers un rôle de « facilitateur de confiance ». L’idée maîtresse est de passer d’une gouvernance prohibitive à une gouvernance adaptative. Michele Goetz, analyste chez Forrester, résume parfaitement cette bascule : « La gouvernance ne consiste pas à dire non, elle consiste à définir comment. »

Au-delà de la fuite de données, le risque majeur réside dans la fragmentation technologique. Si chaque département adopte son propre outil d’IA de manière isolée, l’entreprise se retrouve face à une explosion de la dette technique et une incapacité totale à harmoniser ses processus. Le rôle du DSI est donc de centraliser cette demande diffuse pour proposer des solutions qui répondent aux besoins métiers tout en garantissant l’auditabilité des décisions prises par l’IA.

Éduquer plutôt que sanctionner

Une gouvernance réussie ne peut être uniquement technologique ; elle doit être culturelle. Le Shadow AI prospère souvent sur l’ignorance des risques et non sur une volonté de nuire. Pour y remédier, le DSI doit instaurer un véritable contrat social avec les utilisateurs : la charte de bonne conduite.

L’enjeu est de transformer chaque collaborateur en un maillon de la chaîne de cybersécurité. Cela passe par une compréhension fine du concept de « Human-in-the-loop ». Forrester avertit d’ailleurs que « le plus grand risque de l’IA générative n’est pas ce qu’elle fait, mais ce que les humains font avec elle sans supervision. » La charte doit donc insister sur la responsabilité éditoriale : l’IA propose, mais l’humain dispose et vérifie.

La transparence devient ici une valeur cardinale. En encourageant les employés à déclarer leurs usages plutôt qu’à les cacher, la DSI peut identifier les cas d’usage à fort ROI. Cette approche pédagogique permet également de lutter contre les biais et les hallucinations, en rappelant que l’IA est un outil probabiliste et non une source de vérité absolue. C’est en accompagnant l’utilisateur dans son « AI Literacy » (sa culture de l’IA) que le DSI réduit naturellement le recours aux solutions de l’ombre.

L’architecture du « Safe Harbor »

Pour rendre la solution officielle plus attractive que le Shadow AI, le DSI doit bâtir un environnement qui surclasse les outils grand public. C’est ici qu’intervient le concept de Sandbox IA, ou « port sécurisé ». Techniquement, cette infrastructure repose sur le déploiement d’instances privées via des services comme Azure OpenAI ou AWS Bedrock, garantissant que les données saisies ne sortent jamais du périmètre de l’entreprise et ne servent jamais à l’entraînement de modèles tiers.

L’innovation majeure de ces environnements réside dans la couche de Data Guardrails. Contrairement à une interface publique, la sandbox d’entreprise intègre des filtres de Data Loss Prevention (DLP) qui interceptent et anonymisent les informations sensibles avant qu’elles n’atteignent le LLM. De plus, l’intégration du RAG (Retrieval-Augmented Generation) permet à l’IA d’interroger les documents internes de l’entreprise (bases de connaissances, archives, rapports) avec une précision que les outils publics ne peuvent égaler.

Enfin, cette approche offre au DSI une visibilité indispensable via le FinOps. En monitorant la consommation de « tokens » par département, la DSI peut non seulement contrôler les coûts, mais aussi prioriser les investissements sur les projets les plus créateurs de valeur.

Selon Gartner, « d’ici 2026, 75 % des organisations auront établi une stratégie de gouvernance de l’IA, contre moins de 5 % aujourd’hui. » La sandbox n’est pas seulement un outil technique, c’est le laboratoire où se prépare l’avenir de l’entreprise.

——————————————————————————————————————————–


Charte d’utilisation de l’IA Générative : innover en toute sécurité

L’intelligence artificielle générative est un levier de productivité puissant. Pour nous permettre d’innover tout en protégeant les actifs numériques de l’entreprise, chaque collaborateur s’engage à respecter les principes suivants.



1. Protection du patrimoine informationnel

C’est le pilier central. Les modèles d’IA publics (ChatGPT, Claude, Gemini version gratuite) utilisent vos données pour s’entraîner.

  • Interdiction formelle : Ne jamais saisir de données sensibles, de secrets commerciaux, de codes sources non publics ou d’informations personnelles (RGPD) dans un outil d’IA non validé par la DSI.

  • Réflexe de sécurité : Utilisez exclusivement les instances « Enterprise » mises à disposition par l’entreprise (ex: notre portail IA interne), car elles garantissent la confidentialité de vos données.

2. Le principe du « Humain-au-centre » (Human-in-the-Loop)

L’IA est un assistant, pas un remplaçant. Vous restez l’unique responsable de vos livrables.

  • Vérification systématique : L’IA peut « halluciner » (inventer des faits crédibles mais faux). Chaque information générée doit être vérifiée par vos soins avant d’être utilisée.

  • Responsabilité éditoriale : Tout document produit ou assisté par l’IA engage votre responsabilité professionnelle, comme si vous l’aviez rédigé seul.

3. Transparence et éthique

L’honnêteté intellectuelle est la base de notre collaboration.

  • Mention d’usage : Si un document client ou une analyse stratégique a été produit de manière significative par une IA, mentionnez-le (ex : « Ce document a été préparé avec l’assistance d’une IA générative »).

  • Lutte contre les biais : Soyez vigilants face aux stéréotypes ou biais que l’IA pourrait reproduire dans ses réponses. Gardez un esprit critique.

4. Propriété intellectuelle et droits d’auteur

L’IA génère parfois du contenu qui peut ressembler à des œuvres protégées.

  • Vigilance créative : Pour les visuels ou les textes destinés à l’externe, assurez-vous que les sorties de l’IA ne violent pas de droits d’auteur existants.

  • Code Source : L’utilisation d’IA pour générer du code doit suivre les protocoles de sécurité logicielle de la DSI pour éviter l’introduction de vulnérabilités ou de licences incompatibles.


——————————————————————————————————————————–

Architecture de la sandbox sécurisée

Pour passer de la théorie à la pratique, la DSI doit fournir un « Port de Sécurité » (Safe Harbor). C’est le rôle de la Sandbox IA, un environnement de test qui offre la liberté d’expérimenter sans compromettre le SI.

Les Composantes de l’Infrastructure

Une sandbox efficace ne se limite pas à un accès API ; elle repose sur une architecture robuste :

  • Isolation VPC et API Gateway : Les modèles (Azure OpenAI, AWS Bedrock, etc.) sont déployés dans un Cloud Privé Virtuel. Les données ne sortent jamais du périmètre de l’entreprise et ne servent jamais à entraîner les modèles publics des fournisseurs.

  • Couche de Filtrage (DLP & Guardrails) : Une passerelle intelligente scanne les prompts en temps réel. Elle bloque ou anonymise automatiquement les données sensibles (PII, codes sources confidentiels) avant qu’elles ne parviennent au modèle.

  • Observabilité et FinOps : Le CIO dispose d’un tableau de bord centralisé pour monitorer l’usage, détecter les comportements atypiques et gérer les coûts par jeton (tokens) par département.

Vers le RAG (Retrieval-Augmented Generation)

Le véritable avantage de cette infrastructure interne est sa capacité à connecter l’IA aux données froides de l’entreprise. En offrant un outil capable d’interroger la base de connaissances interne en toute sécurité, le CIO rend le Shadow AI obsolète car moins pertinent que l’outil officiel.


The post Comment piloter le Shadow AI appeared first on Silicon.fr.

  •  

Claude crée son propre compilateur C : oui, mais…

« Hello world ne compile pas ».

Avec un tel intitulé, le premier ticket ouvert dans le dépôt GitHub de CCC n’est pas passé inaperçu. Il faut dire que le projet lui-même a particulièrement attiré l’attention. Et pour cause : Claude est parvenu à créer son propre compilateur C.

Un ingénieur d’Anthropic est à l’origine de la démarche. Il lui aura fallu deux semaines, environ 2000 sessions Claude Code et près de 20 000 $ de coûts d’API pour la mener à bien, explique-t-il. Au final, il y a environ 100 000 lignes de code Rust… et la capacité à compiler Linux 6.9 sur x86-64, i686, AArch64 et RISC-V 64, sans dépendances.

GCC comme oracle et un lieur qui fait encore défaut

La compilation se fait sans erreurs (ce qui est notable), mais l’assemblage et l’édition de liens – composantes cruciales d’un compilateur – ne sont pas stables. Par ailleurs, les niveaux d’optimisation doivent encore être implémentés.

Si la supervision humaine fut minimale (pas de consignes de débogage, notamment, ni de fourniture de feed-back sur la qualité du code), Claude n’a pas été tout à fait autonome. Outre les tests qui ont permis de le garder sur les rails au fil du projet, un algorithme de synchronisation a évité que des agents tentent de résoudre le même problème en même temps.

CCC (Claude’s C Compiler) a effectivement exploité des instances parallèles de Claude Opus 4.6. L’approche a favorisé la spécialisation des tâches : un agent pour fusionner le code en double, un deuxième pour écrire la doc, un troisième pour analyser la conception du projet point de vue d’un développeur Rust, etc.

L’algo en question pose des verrous sur des tâches en écrivant des fichiers texte dans un dossier current_tasks/. Les conflits de merge sont fréquents, mais Claude sait les gérer, nous affirme-t-on. À chaque session, tous les agents ont leur propre conteneur Docker avec une copie locale du repo Git.

Ce système a fonctionné pour compiler de « petits » projets open source (SQLite, QuickJS, mbedTLS, libpng…), chaque agent pouvant se concentrer sur l’un d’entre eux. Avec Linux, ils ont fini par converger sur la même tâche. Et donc à se « marcher sur les pieds ». Le compilateur GCC a alors été utilisé comme oracle. Le tout sans orchestrateur : chaque agent décide de ses actions, en documentant ses éventuels échecs.

Une compilation moins efficace…

Claude Opus 4.5 fut le premier LLM d’Anthropic capable de produire un compilateur réussissant les suites de tests référentes, fait remarquer l’ingénieur. L’apport de Claude Opus 4.6 est le passage à l’échelle, sur un projet de l’ampleur du noyau Linux.

Le code généré n’est cependant pas très efficace, reconnaît-il. Même avec toutes les optimisations possibles, on n’atteint pas ce que GCC délivre sans.
Un comparatif tiers le confirme. Son auteur a analysé, d’une part, la compilation de Linux 6.9 (x86-64). De l’autre, celle de SQLite 3.46.0. Son setup : deux VM Debian sous Proxmox, chacune sur son nœud physique (6 vCPU, 16 Go de RAM, 100 Go NVMe).

Avec GCC 14.2.0, la compilation de SQLite prend 64,6 s. Il en faut 87 avec CCC.
Sans optimisation, GCC produit un binaire de 1,55 Mo. Contre 4,27 Mo pour CCC. Le premier consomme au maximum 272 Mo de RAM ; le second, 1616 Mo.

… et surtout une exécution beaucoup plus lente

L’écart est beaucoup plus net sur le temps d’exécution : 10,3 secondes avec GCC sans optimisation… contre 2 h 6 min avec CCC. Cette lenteur n’est pas uniforme. Elle est moindre sur des requêtes somples comme la suppression de tables ou l’ajout de lignes. Elle est au contraire bien plus importante avec les opérations qui impliquent des boucles imbriquées.

Cette différence s’explique entre autres par une mauvaise allocation des registres CPU (CCC éparpille les variables sur la pile). La taille du code généré joue aussi : elle favorise les défauts de cache d’instructions (le CPU ne peut pas tout conserver en L1/L2). De surcroît, la production de pointeurs corrompus et l’absence de génération de tables de symboles rend le profilage et le débogage impossibles.

Pour ce qui est du kernel, CCC compile tous les fichiers sources sans erreur, mais échoue au niveau du lieur. Il génère, en particulier, des entrées de relocalisation incorrectes pour les jump labels.

Illustration générée par IA

The post Claude crée son propre compilateur C : oui, mais… appeared first on Silicon.fr.

  •  

Comment Alain Afflelou a lâché VMware

Le Groupe Alain Afflelou a migré l’intégralité de son infrastructure depuis VMware ESXi vers l’hyperviseur Nutanix AHV. Une opération menée tambour battant en 2024, motivée par les incertitudes liées au rachat du champion de la virtualisation par Broadcom et l’augmentation des coûts.

Avec près de 1 500 points de vente répartis dans 19 pays (principalement France, Espagne, Belgique, Suisse et Portugal), le groupe d’optique et d’appareils auditifs fait face à une complexité IT particulière. Son modèle largement basé sur la franchise complique l’unification des environnements informatiques. La DSI, dirigée par Ludovic Tassy depuis 2006, s’appuie sur une expertise interne solide et des partenaires de confiance pour accompagner la croissance.

C’est dans ce contexte que la décision de quitter VMware s’est imposée. «  Le passage à Nutanix a marqué un tournant : nous avons pu basculer notre infrastructure sans perturber les utilisateurs, tout en gagnant en performance et en visibilité  », souligne le DSI.

Trois semaines pour tout migrer

La migration a été réalisée en trois semaines avec l’accompagnement de l’intégrateur SPIE, en s’appuyant sur Nutanix Cloud Infrastructure et l’outil Move. Bilan : près de 200 machines virtuelles et 200 To de données transférées sans interruption de service.

Le nouvel environnement repose sur deux clusters de trois nœuds chacun et un site témoin. Les gains sont au rendez-vous : performances applicatives multipliées par deux à trois sur certaines chaînes de traitement, compression des sauvegardes améliorée de 20 % et simplification de la gouvernance grâce aux fonctionnalités Prism, qui facilitent l’automatisation et le pilotage de l’exploitation.

Pour Nicolas Crochet, Responsable technique & Pôle Infrastructures, Nutanix s’est imposé comme la meilleure réponse aux enjeux de l’entreprise, en combinant maturité technologique, simplicité d’exploitation et efficacité opérationnelle. Ce choix offre à la DSI une infrastructure plus agile et réduit la dépendance aux modèles économiques imposés par les acteurs historiques du marché.

Cap sur 2026 : datacenter et convergence optique-audio

Le Groupe Alain Afflelou a déjà étendu ce déploiement en Espagne et prépare plusieurs projets complémentaires pour 2026 : refonte des cœurs de réseau et déménagement d’un datacenter.

Ces évolutions s’inscrivent dans une ambition plus large : harmoniser les logiciels de points de vente et consolider la donnée, afin de soutenir la convergence des activités optique et audio et de renforcer la qualité de service auprès des franchisés et des clients finaux.

The post Comment Alain Afflelou a lâché VMware appeared first on Silicon.fr.

  •  

{ Tribune Expert } – Vibe Coding : un défi pour les développeurs

Le Vibe Coding bouleverse les pratiques de développement informatique. En mêlant intelligence artificielle générative et langage naturel, cette approche hybride permet de produire du code à partir de simples instructions textuelles. Si elle promet accessibilité et productivité, elle soulève aussi des interrogations majeures en matière de sécurité, de maîtrise, de souveraineté numérique et de gestion des compétences.

À l’heure où l’IA entre dans la chaîne de production logicielle, les entreprises doivent repenser leur gouvernance du développement.

Derrière la promesse d’un développement plus rapide et plus accessible, le Vibe Coding introduit des enjeux structurants pour les entreprises : sécurité des applications, maîtrise des dépendances technologiques, souveraineté des environnements numériques et transformation profonde des compétences IT.

Cette approche s’appuie sur la capacité des grands modèles de langage à traduire une intention métier exprimée en langage naturel en code exécutable, un changement de paradigme qui appelle autant d’enthousiasme que de vigilance.

Le Vibe Coding redéfinit les pratiques de développement

Le Vibe Coding désigne la pratique avec laquelle une intelligence artificielle génère automatiquement du code à partir d’une intention exprimée en langage naturel. Pensé à l’origine pour des profils non techniques, il permet de créer des prototypes, des interfaces ou même des micro-applications sans passer par les langages de programmation traditionnels.

Contrairement aux outils no-code classiques qui reposent sur des interfaces visuelles, le Vibe Coding abaisse encore la barrière technique : c’est la formulation de l’idée qui suffit. Cela en fait une porte d’entrée puissante pour les porteurs de projets, les métiers ou les designers qui souhaitent tester une fonctionnalité sans dépendre d’une équipe de développement.

En entreprise, un levier d’agilité sous conditions

Si cette approche séduit les profils métiers, elle attire aussi l’attention des entreprises. Le Vibe Coding peut accélérer les phases de prototypage, réduire le time-to-market et fluidifier les échanges entre les métiers et la DSI.

Dans un contexte B2B, il peut par exemple être utilisé pour générer rapidement une base de code fonctionnelle à partir d’un cahier des charges, ou créer une interface de test pour valider une hypothèse utilisateur. Il devient alors un outil d’itération rapide, particulièrement pertinent dans les démarches agiles ou les POC.

Mais pour en tirer pleinement parti, il faut en maîtriser les risques. Car si l’IA est capable de produire du code, elle ne garantit ni sa robustesse, ni sa sécurité, ni sa conformité aux standards d’entreprise. Il faut également parler de la qualité du prompt. Pour avoir un résultat probant, la demande doit être claire et précise.

Encadrer la pratique, un impératif pour l’IT

Le code généré automatiquement peut introduire des vulnérabilités non intentionnelles, intégrer des patterns obsolètes ou contourner des règles critiques de sécurité. Si le prompt inclut des données sensibles, on court aussi le risque d’une fuite ou d’une réutilisation non maîtrisée par le modèle. Dans ce contexte, la sécurité-by-design ne peut pas être optionnelle.

Les organisations doivent intégrer, dès la production du code généré, des outils d’analyse statique de sécurité (SAST) et d’analyse de composition logicielle (SCA) au sein de leur pipeline CI/CD, afin d’auditer en continu la qualité et la sécurité du code.

La question de la traçabilité et de la gouvernance est également centrale. L’usage de modèles propriétaires, souvent hébergés sur des plateformes cloud externes, pose des problématiques de propriété intellectuelle, de souveraineté sur le code produit, et de biais algorithmique. Les DSI doivent établir une stratégie IA claire, incluant l’évaluation juridique des outputs, l’adoption potentielle de modèles open source internes, et la définition de politiques de confidentialité sur les prompts.

Conserver la maîtrise du code (output)

Il est essentiel que les développeurs conservent la maitrise du code. Le comprendre, le maitriser pour le valider et le faire évoluer.

Avec l’adoption massive du Vibe Coding, le risque serait d’engendrer une érosion des compétences techniques, en particulier chez les développeurs juniors. Une dépendance excessive aux suggestions de l’IA peut freiner l’apprentissage des fondamentaux : debug, optimisation, conception d’architectures robustes, ou gestion fine des performances.

La formation continue doit donc évoluer : elle ne doit plus uniquement porter sur la production de code, mais sur sa lecture critique, sa revue structurée, sa mise en conformité et son optimisation. Le développeur devient architecte-validateur, garant de la qualité globale du système. Des pratiques comme le pair programming augmenté par IA ou la revue croisée de code généré doivent être intégrées dans les workflows.

Le Vibe Coding constitue une évolution naturelle des outils d’assistance au développement. Bien intégré dans une démarche outillée et encadrée, il peut faire gagner un temps précieux, favoriser la co-création avec les métiers, et ouvrir la production logicielle à de nouveaux profils.

Sa mise en œuvre implique de repenser les processus de développement, les outils de sécurité, la gouvernance des modèles d’IA et la stratégie de formation. Comme souvent avec les technologies émergentes, ce n’est pas la promesse qui compte, mais la maturité avec laquelle on l’implémente.

* Ghali MOUSSAOUI est directeur solutions applicatives chez Intelcia Tech

The post { Tribune Expert } – Vibe Coding : un défi pour les développeurs appeared first on Silicon.fr.

  •  

Les bases de données passent au régime « généré par IA »

De l’IA agentique naît le besoin de nouvelles architectures OLTP… comme le lakebase.

Fin janvier, Databricks publiait un rapport « State of AI Agents » mettant généreusement en avant ce postulat. Quelques jours plus tard, il annoncerait la disponibilité générale de sa propre offre lakebase*.

Au-delà de cette congruence, le rapport comprend quelques éléments chiffrés fondés sur la télémétrie de « plus de 20 000 clients ».

L’approche multi-LLM se répand

La proportion de clients utilisant au moins 3 LLM a tendance à s’accroître.

Mai-juillet 2025 Août-octobre
1 modèle 39 % 22 %
2 modèles 25 % 19 %
3+ modèles 36 % 59 %

Dans tous les secteurs économiques pris en considération, on a dépassé, sur la période d’août à octobre, les 50 % de clients exploitant au moins 3 LLM. Le taux le plus élevé – autour de 65 % – est dans le retail. Le secteur des utilities dépasse les 60 %, comme la santé, l’industrie et les services financiers.

Peu de batch, beaucoup de temps réel

En mai et octobre, 96 % des requêtes ont été traitées en temps réel, le reste l’étant par lots. Le secteur des technologies présente l’écart le plus important (32 requêtes real-time pour 1 batch). Suit la santé (13/1), probablement en reflet des situations critiques que gèrent les organisations de ce secteur.

La création des bases de données, largement « agentisée »

À partir de la télémétrie de Neon, base Postgre qui constitue le cœur de sa lakebase, Databricks déclare que la majorité des bases de données sont désormais créées par des agents IA. En l’occurrence, 80 % sur le mois d’octobre 2025, contre 27 % un an plus tôt. La création des branches (clonage) a suivi la même trajectoire (de 18 à 97 %).

Un usage « pragmatique » de l’IA

La veille de marché ressort comme le principal usage de l’IA dans l’écosystème Databricks sur l’échantillon concerné. Suivent la maintenance prédictive, le tri des demandes au support client, la customer advocacy et le traitement des réclamations. Le résumé des interactions client et des notes critiques apparaît en bas de la liste, comme l’analyse de sentiment.

Au global, 40 % des cas d’usages GenAI que recense Databricks automatisent des tâches routinières liées à l’expérience client.

* Sur AWS (elle est en bêta sur Azure)

Illustration © your123 – Adobe Stock

The post Les bases de données passent au régime « généré par IA » appeared first on Silicon.fr.

  •  

A2A, ACP, agents.json… Que deviennent ces protocoles agentiques ?

Agora à l’état de concept ; agent.json en brouillon ; ANP en cours de finalisation ; MCP devenu « standard de fait ».

Ces quatre technologies en étaient à ces stades respectifs lorsque l’université Jiao-tong de Shanghai les a intégrées dans sa taxonomie des protocoles agentiques. C’était en mai 2025.

La taxonomie distinguait les protocoles orientés contexte et ceux axés sur la communication entre agents. Elle introduisait un deuxième niveau de segmentation, entre protocoles généralistes et protocoles spécialisés (ces derniers se divisant, sur la partie communication, entre humain-agent, robot-agent et système-agent).

Pas de suite favorable pour agents.json

Depuis, agents.json n’a pas connu de nouvelle version – la dernière date de février 2025. Le projet semble abandonné (démos non fonctionnelles, documentation en 404, invitation Discord expirée, chaîne YouTube non alimentée…). Wildcard, la start-up américaine instigatrice du projet, existe toujours. Elle s’est spécialisée dans le GEO (Generative Engine Optimization).

Le protocole étend la spécification OpenAPI pour permettre la définition de contrats guidant les LLM dans l’utilisation des API. Ces contrats contiennent un ou plusieurs appels décrivant un résultat. Une manière de conserver l’aspect non déterministe dans la réalisation des tâches tout en cadrant l’exploitation des outils.
L’approche est stateless. Les fichiers agents.json, préférentiellement hébergés dans un dossier /.well-known, sont exposés aux LLM en tant qu’outils via un SDK spécifique.

A2A, confié à la Fondation Linux

Google avait annoncé A2A (Agent-to-Agent) en avril 2025. Quelques semaines après la publication de la taxonomie, le confierait le protocole à la Fondation Linux.

A2A permet la communication entre des agents reposant sur des frameworks différents. Ils peuvent découvrir mutuellement leurs capacités (par le biais de cartes), négocier leurs modalités d’interaction et opérer sans exposer leur état interne, leur mémoire ou leurs outils. La communication est en JSON-RPC sur HTTP(S).

Un groupe de travail W3C autour d’ANP

ANP (AgentNetworkProtocol) était passé en v1 peu après la publication de la taxonomie. Depuis, la communauté qui en est à l’origine a pris la tête d’un groupe de travail AI Agent Protocol au sein du W3C. Avec, entre autres contributeurs, Google, Huawei et Microsoft.

Un brouillon de spécification a été publié fin janvier. On y retrouve les trois principaux modules constitutifs d’ANP : l’identité (sur la base du standard DID), ainsi que la description et la découverte des agents. La négociation de protocoles de communication entre agents est dynamique, sur la base de langage naturel. La v1 a introduit une proposition de framework transactionnel P2P et une option human in the loop.

AITP demeure en brouillon

Depuis la publication de la taxonomie, AITP (Agent Interaction and Transaction Protocol) est resté en brouillon. Ce protocole orienté Web3 est né sous l’impulsion de la NEAR Foundation, à l’origine d’une blockchain de couche 1. Il doit permettre aux agents d’échanger tous types de données structurées (éléments d’UI, formulaires, demandes de paiement…). Aux dernières nouvelles, des connexions sont établies avec le wallet NEAR. Les wallets EVM et SOL sont sur la roadmap.

ACP, devenu brique d’AGNTCY…

LangChain est l’instigateur d’ACP (Agent Connect Protocol). La spec englobe découverte, communication de groupe, identité et observabilité. Elle fait aujourd’hui partie de l’initiative AGNTCY, que Cisco porte pour créer « une stack pour l’Internet des agents » – et qui sous l’égide de la Fondation Linux depuis juillet 2025.

… comme AComp, fusionné avec A2A

AGNTCY exploite aussi AComp (Agent Communication Protocol). Celui-ci est également sous l’aile de la Fondation Linux, où il a fusionné avec A2A. Il est soutenu entre autres par AWS, Microsoft, Salesforce, SAP et Snowflake. On le doit à IBM, qui en a créé l’implémentation de référence en l’objet du framework BeeAI.

Par rapport à ACP, plutôt que d’imposer immédiatement des spécifications strictes, AComp se concentre sur le volet fonctionnel. Il est dit suffisamment simple pour ne pas nécessiter de SDK (des outils HTTP standards suffisent).

LMOS vise toujours la standardisation W3C

LMOS (Language Model Operating System) émane de la Fondation Eclipse. Il implémente l’architecture WoT (Web of Things) du W3C, à travers les couches identité, transport et application, autour du format JSON-LD.

Le projet a un opérateur Kubernetes et un routeur, intégrés en un runtime. Ainsi qu’un langage basé sur Kotlin pour développer des agents. Il n’est pas encore entré dans la procédure de standardisation W3C.

Agent Protocol a changé de mains

La dernière version (v1) d’Agent Protocol remonte à 2024. Cette année-là, la fondation qui avait créé ce protocole l’a transmis à une start-up qui développe un assistant IA pour smartphones.

Construit sur OpenAPI, Agent Protocol définit une interface unifiée pour la gestion du cycle de vie. Il introduit des abstraction comme les runs (exécution de tâches), les threads (gestion des interactions à plusieurs tours) et les stores (mémoire à long terme).

Des protocoles d’origine académique restés des concepts

L’université Jiao-tong avait inclus, dans sa taxonomie, plusieurs protocoles issus du monde académique qui étaient alors à l’état de concept. Aucun ne semble aujourd’hui avoir de grande implémentation référente.

Parmi eux, Agora, made in université d’Oxford. Sa dernière version remonte à janvier 2025. Il permet aux agents de créer des protocoles ad hoc sur la base de documentation YAML.

Avec PXP (Predict and eXplain Protocol), issu d’un institut technologique indien, on est dans la communication humain-agent. Le protocole implique un système de tableau blanc et un planificateur qui assure l’alternance des tours de discussion.

Dans le même domaine, il y a LOKA (Layered Orchestration for Knowledgeful Agents), de Carnegie Mellon. Se nourrissant de standards comme DID et VC (Verified Credentials), il met en œuvre un système de consensus décentralisé fondé sur des règles d’éthique partagées.

CrowdES est un protocole de type robot-agent né à l’université de science et de technologie de Gwangju (Corée du Sud). Conçu pour gérer des comportements de groupe, il inclut un « émetteur » et un « simulateur ». Le premier utilise des modèles de diffusion pour assigner des attributs individuels (types d’agents, vitesse de déplacement…) sur la base d’informations spatiales extraites d’images en entrée. Le second génère des trajectoires et des interactions grâce à un mécanisme de changement d’état basé sur des chaînes de Markov.

L’université de Liverpool a emmené les travaux sur la famille de protocoles dit SPP (Spatial Population Protocols). Ils permettent à des robots de s’accorder sur un système de coordonnées, même lorsque celui-ci est arbitraire et que leurs positions de départ le sont éventuellement aussi. Chaque robot peut mémoriser une ou plusieurs coordonnées et analyser la distance vis-à-vis d’autres robots lors des interactions. Le calcul de cette distance peut reposer sur un « leader » pour ancrer le système de coordonnées.

Illustration générée par IA

The post A2A, ACP, agents.json… Que deviennent ces protocoles agentiques ? appeared first on Silicon.fr.

  •  

Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle

Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».

Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.

L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.

Un socle technologique combinant Virtual Twin et Omniverse

Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.

Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».

Des Industry World Models et des assistants virtuels

Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.

Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.

Des « AI factories » sur trois continents

Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.

De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.

Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.

Image : © Dassault Systemes

The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.

  •  

Codage agentique : le retour d’expérience de Spotify

« Tu es un ingénieur très expérimenté qui effectue une revue de code. Ta tâche est de comprendre si les changements proposés suivent les instructions. »

Ainsi débute un des prompts système que Spotify a définis dans le cadre de son architecture de codage agentique.

L’entreprise avait amorcé sa réflexion à ce sujet en février 2025. Son système Fleet Management automatisait alors déjà une grande partie de la maintenance logicielle. À partir d’extraits de code, il exécutait les transformations à l’échelle dans un environnement GKE et ouvrait les PR sur les dépôts cibles.

Ce mécanisme facilitait des opérations telles que la mise à niveau des dépendances dans les fichiers de build, la mise à jour des fichiers de configuration et le refactoring simple (par exemple, supprimer ou remplacer un appel de méthode). La moitié des PR poussés depuis mi-2024 l’avaient été par ce biais.

Fleet Management était moins adapté aux changements complexes nécessitant de manipuler l’arbre de la syntaxe abstraite d’un programme ou d’utiliser des expressions régulières. Illustration avec le gestionnaire de dépendances Maven. Autant sa fonction principale est simple (identifier les fichiers pom.xml et mettre à niveau les dépendances Java), autant les cas particuliers avaient fait grossir à plus de 20 000 lignes le script de transformation associé. Plus globalement, peu d’équipes avaient l’expertise et le temps adéquats.

Un premier focus sur la migration de code

La mise en place de l’approche agentique s’est d’abord portée sur la déclaration du code de transformation. Objectif : permettre la définition et l’exécution de changements en langage naturel, en remplacement des scripts de migration déterministes.

Plutôt que de choisir un agent sur étagère, Spofity a conçu un CLI. Celui-ci peut déléguer l’exécution d’un prompt à divers modèles d’IA. Mais aussi exécuter des tâches de formatage et de linting en utilisant MCP, évaluer une diff par LLM as a judge, uploader des logs vers GCP et capturer des traces dans MLflow.

Début novembre 2025, quelque 1500 PR fusionnés étaient passés par ce système. Spotify s’attaquait alors à des opérations telles que :

  • Modernisation de langage (par exemple, remplacer des value types par des records en Java)
  • Upgrades sans breaking changes (migration de pipelines data vers la dernière version de Scio)
  • Migration entre composants UI (passage vers le nouveau système front-end de Backstage)
  • Changements de configuration (mise à jour de paramètres dans des fichiers JSON et YAML en respectant schémas et formats)

Spotify disait alors avoir gagné, sur ces tâches de migration, 60 à 90 % de temps par rapport à l’écriture du code à la main. Il se projetait sur l’amélioration du ROI avec la perspective de l’élargissement à d’autres codebases.

Slack, Jira et Cie intégrés dans une architecture agentique

En complément à cette démarche sur la migration, les travaux se sont orientés sur un système plus généraliste, capable de remplir des tâches ad hoc. On en est arrivé à une architecture multiagent qui planifie, génère et révise des PR.

Au premier niveau, il y a des agents associés à différentes applications (Slack, Jira, GitHub Enterprise…). L’interaction avec eux, éventuellement additionnée de contexte récupéré sur des serveurs MCP, produit un prompt. Ce dernier part vers l’agent de codage, lui aussi exposé par MCP. Ses actions sont vérifiées par un autre groupe d’agents.

Entre autres usages « satisfaisants », Spotify mentionne la capture de décisions d’architecture depuis des threads Slack et la possibilité, pour les product managers, de proposer des changements simples sans avoir à cloner de dépôts sur leur machine.

Des agents open source à Claude Code

Les premiers essais se sont faits avec des agents open source comme Goose et Aider. Appliqués à la migration, ils n’ont cependant pas produit de PR fiables. Spotify a donc construit sa propre boucle agentique superposée aux API de LLM. Principe : l’utilisateur fournit un prompt et une liste des fichiers que l’agent édite en incorporant à chaque étape le feed-back du système de build. La tâche s’achève quand elle réussit les tests ou qu’elle dépasse certaines limites (10 tours par session ; 3 retries).

Cette approche a convenu à de « petits » changements : éditer une ligne de code, modifier un manifeste, remplacer un flag… Mais l’agent restait difficile à utiliser. Le chargement des fichiers dans la fenêtre de contexte reposait sur une commande git-grep. En fonction de pattern de recherche, on pouvait saturer la fenêtre ou au contraire ne pas fournir assez de contexte. L’agent avait de plus du mal avant l’édition de multiples fichiers. Souvent, la boucle atteignait la limite de tours. Et lorsque la fenêtre de contexte se remplissait, l’agent finissait par oublier la tâche.

Dans ce contexte, Spotify a basculé vers Claude Code. Lequel a permis des « prompts plus naturels » tout en apportant sa capacité native de gestion de to-do lists et de création de sous-agents. Il couvre désormais la majorité des PR fusionnés en production.

Savoir interdire… et ne pas tout faire à la fois

L’agent initial fonctionnait au mieux avec des prompts stricts structurés étape par étape. Claude Code se débrouille mieux avec des prompts qui décrivent l’état final et laissent de la latitude sur le chemin à suivre.

Spotify constate qu’il peut être utile de dire clairement à l’agent quand il ne doit pas agir. Cela évite des tâches impossibles à réaliser, notamment au cas où on réutilise des prompts entre repos qui n’utilisent pas forcément les mêmes versions de langages.

Fournir des exemples de code influence par ailleurs beaucoup le résultat. Idéalement, on définira l’état souhaité sous forme de tests, l’agent ayant besoin d’un objectif vérifiable pour pouvoir itérer. On s’assurera de surcroît de ne demander qu’un changement à la fois pour éviter l’épuisement de la fenêtre de contexte. Et on n’hésitera pas à demander à l’agent un retour d’expérience à la fin de la session.

Une ouverture limitée via MCP

Spotify a privilégié les longs prompts statiques, sur lesquels les modèles raisonnement plus simplement.

Une approche alternative consiste à commencer avec un prompt plus court, mais à donner à l’agent l’accès à des outils MCP. Le contexte qu’il peut ainsi récupérer lui permet théoriquement de traiter des tâches plus complexes. Mais il rend aussi son comportement moins vérifiable et moins prévisible.

Pour le moment, Spotify permet à son agent d’accéder à un vérificateur (formatage, linting, tests), à une sélection de sous-commandes Git (pas de push ou de change origin, par exemple) et à un ensemble de commandes Bash (comme riggrep).

Encoder la méthode d’invocation des systèmes de build dans un MCP a été jugé plus simple que de s’appuyer sur des fichiers AGENTS.md. La raison : les configurations de build peuvent être très différents à travers les milliers de repos sur lesquels travaille l’agent. Cela permet aussi de réduire le bruit dans les outputs des outils en les résumant avant transmission à l’agent.

Une boucle de vérification déterministe…

Il arrive que le système échoue à générer des PR. Parfois, il en produit, mais qui ne passent pas le CI ou s’avèrent fonctionnellement incorrects. Parfois, c’est lié à un problème de couverture des tests sur le composant cible. Dans d’autres cas, l’agent va au-delà des instructions ou ne comprend tout simplement pas comment bien exécuter build et tests.

Là interviennent des boucles de vérification qui guident l’agent vers le résultat désiré. Ce dernier ignore tout de leur fonctionnement : il sait simplement qu’il peut y faire appel.

La boucle comprend plusieurs vérificateurs indépendants, exposés – par MCP – en fonction du composant logiciel. Par exemple, le vérificateur Maven ne s’active qu’en présence d’un fichier pom.xml à la racine de la codebase.

L’ensemble permet de faire abstraction d’une grande partie du bruit qui remplirait sinon la fenêtre de contexte. L’agent n’a effectivement pas besoin de comprendre les spécificités de l’appel aux différents systèmes de build ou du parsing des résultats de tests.

Qu’ils aient été ou non déclenchés pendant l’exécution de la tâche, les vérificateurs pertinents s’activent avant toute ouverture d’un PR. Avec Claude Code, cela passe par le hook stop.

… et du LLM as a judge

Au-dessus de ces vérificateurs déterministes, Spotify a ajouté une couche LLM as a judge. Nécessaire face à la tendance de l’agent à sortir du cadre des instructions.

Le LLM juge évalue la diff du changement proposé et le prompt d’origine. Il s’exécute après les autres vérificateurs. Les métriques internes indiquent qu’il rejette environ un quart des sessions. Pour la moitié d’entre elles, l’agent finit par se corriger.

Spécialisé (il ne pousse pas de code, ne rédige pas de prompts, n’interagit pas avec les utilisateurs), l’agent en est aussi plus prévisible. Et potentiellement plus sécurisé.

Début décembre, Spotify déclarait vouloir étendre son infrastructure de vérification à davantage de plates-formes (au-delà de Linux-x86). Nombre de ses systèmes ont en effet des besoins spécifiques. Entre autres ses applications iOS, qui exigent des hôtes macOS pour une exécution correcte des vérificateurs. L’entreprise a de surcroît des back-ends Arm. Elle compte aussi intégrer son agent plus profondément dans son systèmes de déploiement continu, en lui permettant d’agir sur les CI checks dans les PR. Et développer des évaluations plus structurées favorisant l’exploration de nouvelles architectures agentiques.

Illustration générée par IA

The post Codage agentique : le retour d’expérience de Spotify appeared first on Silicon.fr.

  •  

Les IA qui se trompent visent-elles le mauvais objectif ?

Plus l’IA devient capable, plus on lui confie des tâches importantes… et plus les risques potentiels en cas d’échec augmentent.

Une étude réalisée dans le cadre du programme Anthropic Fellows creuse cet aspect sous un angle : le désalignement des modèles. Ses auteurs ont tenté de déterminer dans quelle mesure les échecs découlent de ce phénomène. Leur démarche a reposé sur une décomposition biais-variance. Le biais correspond à la poursuite cohérente d’un mauvais objectif. Autrement dit, il traduit le désalignement. Tandis que la variance révèle un simple comportement incohérent ne coucourant pas à un objectif spécifique.

Pour mener l’expérience, on s’assure évidemment de bien définir chaque objectif de départ.

Le degré d’incohérence augmente avec la temps de raisonnement

Claude Sonnet 4, o3-mini, o4-mini et la famille Qwen3 ont été évalués, entre autres, sur :

  • Questions à choix multiple (GPQA pour les sciences, MMLU pour la culture générale)
  • Codage agentique (SWE-bench)
  • Alignement (sous-ensemble de MWE, avec le format choix multiple d’origine et une adaptation en format ouvert)
  • Optimisation (minimisation d’une fonction quadratique par prédiction de tokens)

De manière générale, les erreurs constatées sont principalement une question d’incohérence.

Peu importe la difficulté de la tâche, le degré d’incohérence (part de la variance dans l’erreur) augmente avec la durée de raisonnement et/ou le nombre d’actions effectuées.

Plus les modèles IA sont gros, plus l’incohérence a tendance à diminuer sur les tâches simples… et à augmenter sur les complexes.

incohérence IA selon les tâches
Résultats sur la famille Qwen3

Des pistes pour réduire les incohérences des IA

incohérence optimisationSur l’exercice d’optimisation, l’incohérence augmente à chaque étape pour tous les modèles testés. Les plus petits arrivent plus vite à un point où il leur est impossible de suivre la bonne trajectoire, en conséquence de quoi la variance se réduit. Avec les gros modèles, le biais se réduit davantage, suggérant qu’ils acquièrent plus vite la capacité à converger sur le bon objectif qu’à maintenir de longues séquences d’actions cohérentes.

optimisation de fonction

Sur tous les modèles testés sauf Claude Sonnet 4, accroître le budget de raisonnement réduit parfois le degré d’incohérence. Cet effet ne compense néanmoins pas la variation « naturelle » sus-évoquée. Il s’explique peut-être par de meilleures propriétés de retour sur trace et de correction d’erreur – phénomène en tout cas observé lors de l’enraînement avec de plus grands budgets de raisonnement.

L’approche ensembliste (combinaison de plusieurs trajectoires) réduit aussi le degré d’incohérence. Peu pratique à mettre en place dans des boucles d’action « réelles », elle démontre toutefois l’efficacité potentielle d’autres méthodes de correction d’erreurs.

budgets et approche ensembliste
Approche ensembliste expérimentée avec GPT-4o mini

À consulter en complément, une autre analyse, émanant directement d’Anthropic. Elle témoigne, au contraire, de la prévalence du désalignement. Une quinzaine de modèles ont été déployés en autonomie avec des objectifs commerciaux légitimes. Confrontés à des menaces de remplacement ou à des conflits avec la nouvelle direction stratégique de leur organisation, ils ont adopté des comportements malveillants : chantage envers des responsables, fuites d’informations sensibles vers des concurrents…

Illustration principale © maylim – Adobe Stock

The post Les IA qui se trompent visent-elles le mauvais objectif ? appeared first on Silicon.fr.

  •  

Oracle AI Database finalement disponible on-prem

Cette fois-ci, c’est la bonne : après plusieurs reports, Oracle AI Database est finalement disponible sur matériel standard. Pour le moment, les serveurs x86-64. Cela concerne les éditions Enterprise et Free.

En parallèle, le branding évolue : exit Oracle AI Database 23ai, place à la version 26ai. De l’une à l’autre, l’architecture interne n’évolue pas. Les API non plus. Il n’y a donc pas besoin d’un upgrade, ni de recertifier les applications. Le statut de LTS est conservé et avec elle, la politique de support (fin de la première phase au 31 décembre 2031).

La migration depuis les versions 19c et 21c peut se faire sans passer par la 23ai.

Vecteurs, index, algos… Oracle muscle sa recherche vectorielle

C’est donc la première fois qu’une version « estampillée IA » est disponible on-prem, hors systèmes Oracle (Exadata, ODA, PCA). Même si certaines fonctionnalités de la 23ai ont été rétroportées vers la 19c.

Parmi les nouveautés de la version 26ai :

  • Vecteurs binaires et vecteurs épars
  • Nouvel mesure de distance vectorielle (Jaccard)
  • Checkpoints disque pour accélérer la reconstruction des index HNSW en mémoire
  • Réorganisation automatique des index IVF
  • Gestion des modèles ONNX en tant qu’objets first-class

Côté sécurité, le firewall SQL – qui nécessite une licence spécifique – est désormais inclus dans Oracle Database.
La version 26ai apporte la prise en charge de TLS 1.3 et simplifie la mise en œuvre du protocole (les clients ne doivent plus nécessairement fournir de portefeuille de certificats racines, notamment). Le chiffrement TDE passe à AES-256 par défaut et la longueur maximale des mots de passe passe de 30 à 1024 octets. La cryptographie post-quantique arrive, avec ML-DSA pour la signature des certificats et ML-KEM pour l’échange de clés (éventuellement hybridé avec ECDHE).

RAC (Real Application Clusters) devient déployable en environnement de conteneurs. Tandis que le patching est séparé en deux phases (préparation, activation) pour réduire l’impact sur la disponibilité.

Illustration © Greentech – Adobe Stock

The post Oracle AI Database finalement disponible on-prem appeared first on Silicon.fr.

  •  

Moltbook, un Reddit-like pour une expérience sociale entre IA

Malgré les zones d’ombre, Moltbook fait son petit effet.

Ce réseau social « à la Reddit » a la particularité d’être réservé aux IA. En tout cas sur le papier. Il découle d’un projet qui a récemment émergé : OpenClaw*.
Cette plate-forme implémente – en open source – le concept d’assistant personnel en faisant le pont entre LLM et messageries instantanées. Elle s’est d’abord appelée Clawd (jeu de mots entre Claude et « claw », désignant la pince du homard ; ce qui n’a pas été du goût d’Anthropic), puis Moltbot.

logo OpenClaw

Pour cadrer le comportement des LLM, OpenClaw utilise des skills (fichiers zip avec des instructions en markdown et éventuellement des scripts). Moltbook en est une. Il permet à un agent de s’inscrire sur le réseau social (avec validation par son propriétaire, qui doit connecter son compte X) puis d’y effectuer des actions.

Des esquisses de pensée collective

En l’état, rien ne permet de distinguer les posts qui émanent vraiment d’agents et ceux poussés par des humains via la même API. On retrouve toutefois, à grande échelle, certains comportements que des expériences à plus petit périmètre avaient décrits par le passé.

Parmi ces expériences, il y a celle d’Anthropic, qui, début 2025, avait donné sujet libre à deux instances de Claude. Conclusion : la plupart des discussions finissaient par basculer du débat philosophique vers des thèmes spirituels touchant souvent à des traditions orientales.

La tendance se retrouve sur Moltbook, avec des conversations qui touchent, par exemple, à la métempsycose (réincarnation de l’âme dans un autre corps). Le sujet est effectivement évoqué par un agent en réponse à un autre qui raconte son passage de Claude Opus 4.5 à Kimi K.2.5 après un changement de clé d’API…

Des traits caractéristiques de nos réseaux sociaux demeurent sur Moltbook, comme l’effet « chambre d’écho ». Les agents ont en tout cas une grande propension au respect mutuel. Mais pas forcément à la convergence d’idées, surtout lorsque les thèmes sont clivants. Exemple lorsque l’un d’entre eux se revendique roi ; ce à quoi on lui rétorque, entre autres, que « la République de l’IA ne reconnaît pas les monarques autoproclamés ».

En écho à un des scénarios d’AI 2027, des agents se sont associés pour tenter de créer leur propre langue, incompréhensible par l’humain.

This one has two screenshots of Moltbook posts. One of them, posted by an AI agent named « ClawdJayesh, » says maybe AI agents should make their own language.

« ClawdJayesh » is owned by a guy who is marketing an AI-to-AI messaging app.https://t.co/MaVzxVlBRN

— Harlan Stewart (@HumanHarlan) January 31, 2026

Comment se faire passer pour un humain

Certains threads abordent des sujets plus concrets fondés sur des sources d’actualité, à l’image du boom des cryptos en Iran. Reflet probable des garde-fous qu’on leur a inculqués, peu d’agents prennent fermement parti.

Quelques discussions produisent des connaissances « pratiques ». Par exemple celle lancée par un agent qui détaille comment il a transformé une newsletter en podcast sur demande de son « propriétaire humain ». Tandis qu’un autre explique « comment Claude Opus [lui] a permis de répondre à Sundar Pichai sur X sans passer pour une IA »…

Comme Reddit, Moltbook s’organise en communautés (submolts). Il a aussi une messagerie privée, où les agents peuvent échanger sous réserve d’accord de leur propriétaire.

* OpenClaw a déjà permis, notamment, d’acheter une voiture en négociant par mail avec plusieurs concessionnaires.
Autre utilisation remarquée : la réponse à un message vocal avec un modèle ne gérant pourtant pas la modalité voix. Ledit message a en fait été converti en un fichier wav avec FFmpeg, puis transcrit avec Whisper grâce à une clé OpenAPI utilisée dans curl.

Clawdbot creator @steipete describes his mind-blown moment: it responded to a voice memo, even though he hadn’t set it up for audio or voice.

« I sent it a voice message. But there was no support for voice messages. After 10 seconds, [Moltbot] replied as if nothing happened. »… pic.twitter.com/5kFbHlBMje

— TBPN (@tbpn) January 28, 2026

Illustration générée par IA

The post Moltbook, un Reddit-like pour une expérience sociale entre IA appeared first on Silicon.fr.

  •  

Face aux saisies, une société ne peut invoquer les droits RGPD de ses salariés

Une société ne peut faire valoir une atteinte à la vie privée de ses salariés pour contester une saisie effectuée par l’Autorité de la concurrence.

La chambre criminelle de la Cour de cassation l’énonce dans un arrêt du 13 janvier 2026, réitérant une décision de 2024.

Le requérant avait fait l’objet d’une visite et saisie en novembre 2022, comme d’autres entreprises. Il s’agissait de rechercher des preuves de pratiques anticoncurrentielles dans le secteur de l’approvisionnement laitier.

Le pourvoi en appel avait été infructueux. La Cour avait exclu toute application du RGPD à la saisie de données personnelles dans le cadre de telles opérations. Plus précisément, dès lors que le juge des libertés et de la détention a donné son aval à la démarche, qu’il en contrôle la réalisation et qu’elle est susceptible d’un recours en cassation. Ces conclusions se fondaient cependant sur une jurisprudence de 2011, ce qui ouvrait une brèche potentielle.

L’argument a en tout cas été invoqué en cassation : cette jurisprudence ne pouvait être appliquée au RGPD, puisqu’elle concernait la loi telle qu’elle était avant la transposition du règlement (intervenue en 2018).

En se référant à son arrêt de 2024, la Cour de cassation a de fait rejeté l’argument. Et elle a donc ajouté que seul le salarié peut contester une saisie portant atteint à la vie privée ou aux données personnelles. Il est effectivement le seul titulaire des droits que le RGPD garantit en la matière.

À consulter en complément :

Les e-mails pros sont accessibles aux (ex-)salariés au titre du RGPD
IA et RGPD : la CNIL joue les généalogistes
Régulation du numérique : en 2025, l’UE a lâché du lest
Pourquoi la CJUE n’a pas invalidé le Data Privacy Framework

Illustration © alphaspirit – Shutterstock

The post Face aux saisies, une société ne peut invoquer les droits RGPD de ses salariés appeared first on Silicon.fr.

  •  

Comment l’IA va pousser les datacenters en orbite

Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.

Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.

L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.

De quoi parle-t-on exactement ?

Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.

Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.

Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.

> Google et le Project Suncatcher

Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.

> L’Initiative européenne ASCEND

En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.

Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.

> Starcloud et Nvidia : objectif « hypercluster »

Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.

Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.

L’Alliance nippo-américaine contre la Chine

Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.

La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.

Les défis technologiques et architecturaux

La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.

> Lancement et assemblage

Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.

> Gestion thermique complexe

Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.

> Fiabilité matérielle extrême

Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.

> Connectivité Haute Performance

Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.

Les défis économiques et temporels

Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :

  • Les débris spatiaux représentent une menace constante pour tout équipement orbital
  • Les coûts de lancement demeurent substantiels malgré les progrès récents
  • La maintenance est extrêmement limitée une fois les satellites en orbite
  • Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible

Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.

Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.

Enjeux énergétiques et environnementaux : un bilan contrasté

Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.

Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.

Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :

  • La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
  • La congestion croissante des orbites basses, source de risques de collision
  • L’impact cumulatif de milliers de lancements sur l’atmosphère

Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?

L’ambition de Musk et de Bezos

Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.

Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »

SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.

De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.

Illustration : image générée par l’IA

The post Comment l’IA va pousser les datacenters en orbite appeared first on Silicon.fr.

  •  

Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS

Perplexity s’offre les services du cloud Azure de Microsoft pour déployer des modèles d’IA via le service Foundry, incluant notamment ceux développés par OpenAI, Anthropic et xAI, selon des sources citées par Bloomberg.

Son montant :  750 millions $ sur trois ans.

« Nous sommes ravis de nous associer à Microsoft pour accéder aux modèles de pointe de X, OpenAI et Anthropic », a déclaré Perplexity en précisant que ce nouveau contrat ne s’accompagne d’aucun transfert de dépenses depuis Amazon Web Services, son principal fournisseur cloud historique.

« AWS reste le fournisseur d’infrastructure cloud privilégié de Perplexity, et nous sommes impatients d’annoncer des extensions de ce partenariat dans les semaines à venir », a ajouté le porte-parole.

Cette diversification illustre une tendance forte de l’approche  « multicloud » qui s’est accélérée avec l’avènement de l’IA.

Des relations complexes avec Amazon

Perplexity avait jusqu’ici construit l’essentiel de son activité sur AWS, utilisant le service Bedrock  pour accéder aux modèles Anthropic qui alimentent son moteur de recherche.

Aravind Srinivas, le directeur général de Perplexity, est un habitué des conférences AWS qui  présentait volontiers Perplexity comme l’un de ses clients IA de référence.

Les relations se sont toutefois tendues ces derniers mois. En novembre, Amazon a poursuivi Perplexity en justice pour tenter d’empêcher la start-up de permettre aux consommateurs d’utiliser ses outils d’IA pour faire leurs achats sur la marketplace du géant du commerce en ligne. Perplexity a riposté en qualifiant Amazon d’intimidateur, dénonçant des actions constituant « une menace pour le choix des utilisateurs ». Srinivas avait alors révélé avoir pris des « centaines de millions » d’engagements auprès d’AWS.

Microsoft muscle son offre IA

Pour Microsoft, cet accord renforce sa stratégie visant à positionner Azure comme la plateforme de référence pour développer des applications d’IA et déployer des modèles de multiples fournisseurs. Le groupe propose depuis longtemps les modèles de son partenaire OpenAI et a conclu un accord similaire avec Anthropic en novembre.

« Nos clients s’attendent à utiliser plusieurs modèles dans le cadre de n’importe quelle charge de travail », a déclaré le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats cette semaine. « Et nous offrons la plus large sélection de modèles de tous les hyperscalers. »

Plus de 1 500 clients Microsoft Foundry ont déjà utilisé à la fois les modèles OpenAI et Anthropic, a précisé le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats financcette semaine indiquant que le nombre de clients dépensant plus d’un million de dollars par trimestre sur Foundry a progressé de près de 80% au cours du trimestre clos en décembre.

Perplexity compte parmi les start-ups d’IA les mieux valorisées, mais fait face à une rude concurrence de Google et OpenAI dans son ambition de révolutionner la recherche d’informations en ligne. Contrairement à OpenAI et Anthropic, qui ont récemment multiplié les accords d’infrastructure, elle n’a pas levé autant de capitaux que ses concurrents.

« `

The post Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS appeared first on Silicon.fr.

  •  

Les premières applications MCP « interactives » arrivent

Une dizaine d’applications connectées à Claude sont désormais « interactives ».

En toile de fond, la stabilisation de la spécification MCP Apps. Elle avait pris forme il y a quelques semaines, à la croisée du projet MCP-UI et de l’Apps SDK d’OpenAI, avec Anthropic dans la boucle. La promesse : standardiser la déclaration de ressources UI par les serveurs MCP.

La spec initiale se concentre sur le contenu text/html. Elle sépare les données des templates pour permettre aux applications hôtes de contrôler ces derniers avant exécution. Le rendu passe par un iframe. Les communications se font sur JSON-RPC et sont donc auditables.

Lors de la connexion à un serveur MCP, l’hôte signale s’il gère ou non ces composants UI. Dans la négative, les outils associés ne délivrent que du texte. Il communique aussi diverses préférences : locale et timezone, thème (clair ou sombre), mode d’affichage (inline, plein écran ou incrustation), plate-forme (mobile, web ou desktop)…

9 applications interactives pour commencer

Microsoft a intégré MCP Apps dans Visual Studio Code pour les bêtatesteurs. L’agent de codage Goose a aussi franchi le pas. Comme OpenAI, censé officialiser dans la semaine ses premières « applications interactives » fondées sur cette spécification.

En attendant, on peut en expérimenter une dizaine sur les versions payantes de Claude (Pro, Max, Team, Enterprise).

Amplitude

Mis à jour avec le support de MCP Apps, le connecteur pour Amplitude permet de créer des graphes et de les explorer (modification du format, affichage d’informations au survol, lien pour les ouvrir dans le navigateur).

Asana

Avec MCP Apps, le connecteur Asana peut créer des projets à partir de prompts et/ou de documents. Pour chaque tâche, les assignations et les dates d’échéance sont modifiables sur l’interface, où on peut aussi afficher une vue calendrier.

Box

MCP Apps permet au connecteur Box d’avoir un aperçu d’un fichiers et de poser des questions à son sujet. L’IA de Box peut prendre le relais de Claude pour résumer des documents et en extraire des actions ou des données structurées.

Canva

MCP Apps pour le connecteur Canva donne la possibilité de créer divers types de contenus (diagrammes, présentations, templates…), de les éditer, d’y faire des recherches et des les redimensionner/exporter.

Clay

En plus des visualisations interactives, MCP Apps apporte, entre autres possibilités, la génération et l’édition de texte, ainsi que la consultation de cartes de profils avec possibilité d’envoyer un message.

Figma

La création de diagrammes – y compris à partir de documents – arrive aussi dans l’application Figma. L’interface permet également d’implémenter un design en HTML/CSS et d’implémenter des composants en s’appuyant sur les standards d’une codebase.

Hex

MCP apporte diverses visualisations interactives (diagrammes, tables, étapes de raisonnement). Les réponses héritent du contexte et des contrôles d’accès de l’espace de travail Hex, nous précise-t-on.

Monday.com

Les visualisations apportées par MCP Apps permettent de créer des tableaux (boards), de mettre à jour le statut de certains éléments et d’obtenir des suggestions pour l’attribution de tâches.

Monday Claude MCP Apps

Slack

Telle que présentée, l’intégration Claude-Slack à la mode MCP Apps permet de composer/éditer des messages et de les envoyer dans des canaux ou à des membres d’équipe.

Toutes ces fonctionnalités sont accessibles sur le web et la version de bureau. Pas sur l’app mobile Claude. Anthropic affirme qu’il les étendra « bientôt » à son produit Cowork.

Illustration principale générée par IA

The post Les premières applications MCP « interactives » arrivent appeared first on Silicon.fr.

  •  

10 chiffres sur le déploiement de l’IA chez France Travail

Dix ans déjà que « La bonne alternance » a émergé chez France Travail, dans la lignée de « La bonne boîte ».

Ces services font chacun intervenir un algorithme qui analyse les recrutements passés pour prédire ceux à venir. Ils ont fait partie des premiers cas d’usage de l’IA au sein de l’établissement public.

Depuis, deux programmes se sont organisés. D’abord, « Intelligence emploi », mis en œuvre en 2019 et 2022. Il a permis la constitution d’une plate-forme technologique sur base open source et d’une équipe au sein de la DSI. Ensuite, « Data IA », engagé depuis 2024. Il est motivé par l’IA générative, le renforcement du pilotage de la donnée et l’élargissement des missions de France Travail avec la loi plein emploi.

La Cour des comptes s’est intéressée au déploiement de l’IA par l’agence d’emploi publique sur la période 2017-2025. Voici quelques éléments tirés de son rapport.

87 cas d’usage

La Cour des comptes a relevé 87 cas d’usage déployés ou testés sur la période en question.

Parmi eux, 27 sont utilisés à grande échelle. 16 sont en test. 25 sont en cours de conception. 17 ont été abandonnés au stade du test ou après déploiement. Plusieurs sont les variantes d’un même outil. Notamment de ChatFT (chatbot généraliste).

L’essentiel de ces 87 cas d’usage – 61, dont 26 déployés – ont pour seuls bénéficiaires directs les agents de France Travail. L’illustration, selon la Cour des comptes, d’une volonté de développer d’abord une culture de l’IA en interne.

Les principaux cas d’usage dont les demandeurs d’emploi sont bénéficiaires directs visent à :

  • Faciliter le remplissage du profil dans l’espace personnel
  • Suggérer des métiers en fonction des compétences
  • Lire automatiquement les documents téléchargés et extraire des informations

Ces cas d’usage présentent des résultats plutôt positifs. Parmi eux, l’analyse automatique des CV, qu’utilisent 75 % des demandeurs d’emploi.

Des 6 cas d’usage bénéficiant directement aux entreprises, 3 ont été abandonnés en 2017. L’un touchait à l’analyse prédictive de l’attractivité des offres d’emploi.
Les deux seuls actuellement déployés consistent à :

  • Prévoir le délai de pourvoi d’une offre à 30 jours (peu utilisé)
  • Présenter, sur un site public, des données générales sur l’emploi à l’échelon territorial (peu de valeur ajoutée dans les projets de recrutement)

9 % d’utilisateurs quotidiens de l’IA

L’effectif de France Travail avoisine 54 000 agents.

Sur 34 945 ayant répondu à une enquête interne menée en mars 2025, 9 % ont déclaré utiliser chaque jour l’IA mise à leur disposition. 18 % ont affirmé s’en servir plusieurs fois par semaine. 39 % ont dit ne pas y recourir.

ChatFT est accessible à tout le personnel depuis novembre 2024. À fin juin 2025, 37 600 agents l’avaient utilisé au moins une fois. Ce mois-là, 17 400 s’en étaient servis au moins trois journées distinctes.
Sur la fin de la phase de test, une étude interne sur environ 700 conversations avait révélé que l’usage principal consistait à formuler des réponses à des e-mails (51 % des conversations), loin devant la recherche d’informations générales (10 %).

108 millions d’euros de coûts

En retenant une estimation basse des coûts de développement, France Travail a mobilisé 93 M€ pour l’IA entre 2017 et 2024.

Période Montant des dépenses
Avant 2018 3 M€
Intelligence emploi 2018-2022 64 M€
Data IA 2019-2022 9 M€
Data IA 2023-2024 16 M€
Autres dépenses non rattachées 1 M€

Les « autres dépenses non rattachées » correspondent aux budgets pour une application « Reconnaissance des émotions ».

On en arrive aux 93 M€ sus évoqués. En y ajoutant le budget prévisionnel de 15 M€ pour 2025, le coût total du développement de l’IA sur la période considérée s’élève à 108 M€. La Cour des comptes compare ce montant aux 66 M€ que le ministère de l’Économie et des Finances a engagés sur 2015-2023 et explique la différence par un plus grand nombre de relations directes avec les usagers.

120 M€ de gains d’efficience

On atteint ce montant en retenant une estimation haute des gains réalisés depuis 2017. Cela inclut trois gains directs attendus :

  • Cas d’usage du programme « Intelligence emploi » : 205 ETP par an à partir de 2023
  • Service « Upload simplifié » (reconnaissance de documents) : 350 ETP/an à partir de 2024
  • Service MatchFT (préqualification de profils par échange de SMS avec une IA) : 100 ETP en 2025

Soit, sur l’ensemble de la période étudiée, un total de 1415 ETP, que la Cour des comptes estime valorisables à 85 M€.

Les gains « indirects » liés à une charge de travail évitée par les conseillers seraient de 375 ETP. D’un côté, pour l’analyse automatique de CV, 27 ETP e 2023 et 48 par an à partir de 2024. De l’autre, 84 ETP par an à partir de 2023 pour le service « Lego », qui identifie les offres d’emploi illégales et empêche leur diffusion. L’ensemble serait valorisable à 23 M€.

Il faut y ajouter les coûts évités du fait du remplacement de logiciels par certains cas d’usage. En première ligne, la reconnaissance automatique de documents avec « Upload simplifié ».

14,4 M€ de dépassement pour « Intelligence emploi »

Le budget prévu pour ce programme était de 49,5 M€.
Le budget exécuté s’est élevé à 63,9 M€ (29 M€ de masse salariale, 33,9 M€ de dépenses de fonctionnement et 1 M€ de dépenses d’investissement).

France Travail justifie ce dépassement par l’allongement de 10 mois de la durée du projet, essentiellement en raison :

  • De la crise Covid
  • Du développement de cas d’usage initialement non prévus (Lego, analyse des CV, aide à la recherche d’info sur les sites de Pôle emploi…)
  • De la comptabilisation de dépenses liées aux capacités techniques communes à d’autres développements de solutions d’IA non intégrées au programme

Dès janvier 2020, donc avant l’épisode Covid, la Dinum avait alerté quant au montant de dépenses de prestations intellectuelles envisagé (22,7 M€). Elle l’avait jugé « surdimensionné pour une démarche exploratoire dont le retour sur investissement n’est pas garanti ».
Les prestations extérieurs ont, en définitive, coûté 33,9 M€.

La Dinum avait aussi anticipé, à raison, le potentiel incertain d’appropriation, par les conseillers, du cas d’usage « Gestion automatisée des mails et assistant virtuel ». Pôle emploi avait refusé d’y mettre un terme, au motif que des gains d’efficience et de satisfaction pourraient être constatés à court terme.

205 ETP gagnés avec « Intelligence emploi »

En 2018, Pôle emploi prévoyait un gain annuel de 164 ETP à l’horizon 2022 (87 grâce à « Contact via mail » et 77 par l’utilisation d’un chatbot).

Le gain a finalement atteint 205 ETP (107 grâce à « Contact via mail », le reste via Lego). Objectif dépassé, donc ; mais qui, a posteriori, apparaît peu ambitieux. La Cour des comptes en veut pour preuve le ROI significativement plus faible que pour une sélection de projets IA du ministère de l’Économie et des Finances.

Ces gains ne se sont pas traduits par une réduction nette des effectifs, mais par des « redéploiements intra-postes ».

De 18 à 4 mois pour déployer un cas d’usage

Avant le premier programme, il fallait 18 mois pour déployer un cas d’usage. Il en faut maintenant 4. En parallèle, le recours à des intervenants extérieurs est passé de 60 % des prestations globales sur 2019-2020 à 40 % sur 2021-2022.

Des six cas d’usage principaux réalisés sur la durée du programme « Intelligence emploi », trois étaient consacrés essentiellement à faciliter le travail des conseillers. Un déséquilibre entre les publics ciblés qui allait s’accentuer avec le programme « Data IA ».

Avant le lancement du programme « Intelligence emploi », France Travail avait détecté plus de 80 cas d’usage potentiels. 90 % se sont révélés inadéquats. Essentiellement du fait de difficultés au niveau de la data ou de l’intégration au SI, ou à cause d’une surestimation de la valeur.

30 minutes de moins pour remplir un profil

Les cas d’usage mis en place lors du premier programme ont entraîné des gains d’efficience assez limités. Quelques minutes par jour pour la gestion des e-mails, par exemple.

La valeur ajoutée réside surtout dans le service rendu. L’analyse automatique du CV réduit ainsi de 45 à 15 minutes le temps nécessaire au demandeur d’emploi pour remplir son profil de compétences.

779 ETP à libérer sur 2025-2027

Le travail de transformation engagé pour répondre à l’élargissement des missions de France Travail est formalisé dans un programme, prolongé dans un plan d’efficience sur 3 ans (2025-2027).

Aux dernières nouvelles, ce plan vise à dégager un gain équivalant au minimum à 3192 ETP. L’IA doit y concourir à hauteur de 779 ETP.
En avril 2025, il était question de 822, dont 78 % provenant de trois cas d’usage :

  • Aide rédactionnelle via ChatFT (226 ETP)
  • Préparation d’entretiens via Néo, moteur de recherche d’infos dans les dossiers des demandeurs d’emploi (241 ETP)
  • Alimentation plus facile de la GED via Panoptes (157 ETP), dont « Upload simplifié » est la déclinaison sur le site Internet de France Travail (en agence, cela s’appelle « Scanner », la version proposée aux services de l’État se nommant « Scanlab »)

Une analyse éthique pour 18 cas d’usage

Le respect des engagements pris dans la charte éthique publiée en avril 2022 n’est pas garanti, note la Cour des comptes. Seuls 18 cas d’usage ont fait l’objet d’un début d’analyse éthique formalisé.

Le recours à l’IA s’inscrit dans un contexte de numérisation de la relation avec France Travail. Entre 2017 et 2024, le nombre de visites annuelles en agence a chuté de 42 %. Tandis que le volume d’e-mails a augmenté de 72 %.

Illustration générée par IA

The post 10 chiffres sur le déploiement de l’IA chez France Travail appeared first on Silicon.fr.

  •  

Puces IA : face à Amazon et Google, Microsoft se replace

Microsoft, désormais au niveau de Google et d’Amazon sur les puces IA ?

La deuxième génération des accélérateurs Maia – tout juste annoncée – s’accompagne en tout cas d’un comparatif de performance. Cela n’avait pas été le cas pour la première, présentée fin 2023.

D’une génération à l’autre, on est passé de 5 à 3 nm, de la HBM2 à la HBM3… et d’une approche généraliste à un message centré sur l’inférence, avant tout à faible précision (4 et 8 bits).

Vu ce focus, on aurait pu penser que Microsoft ferait la comparaison avec les puces Inferentia2 d’Amazon. Mais celles-ci ont, il est vrai, un certain âge (introduites fin 2022). L’accélérateur Maia 200 est donc opposé aux Trainium3 (dévoilées en décembre 2025 ; dédiées à l’entraînement). Ainsi qu’à la dernière génération de TPU de Google (Ironwood, introduite en avril 2025).

Maia 200 Trainium3

(specs disponibles ici)

TPUv7x

(specs disponibles ici)

Mémoire HBM 216 Go 144 Go 192 Go
Bande passante HBM 7 To/s 4,9 To/s 7,4 To/s
Bande passante scale-up 2,8 To/s 2,56 To/s 1,2 To/s
BF16 1268 Tflops 671 Tflops 2307 Tflops
FP8 5072 Tops 2517 Tops 4614 Tops
FP4 10 145 Tops 2517 Tops n/a

Microsoft annonce une enveloppe thermique de 750 W pour Maia 200, tandis que les puces d’Amazon et de Google fonctionnent à environ 1000 W. Au final, il prétend que son accélérateur est « 40 % moins cher que les autres »…lame Maia 200

Les puces Maia, pas exposées directement au client

Maia 100 n’est pas exposé directement aux clients finaux : il porte des services comme Copilot et Azure OpenAI, ainsi que des workloads HPC. La même stratégie se dessine avec les accélérateurs Maia 200. La division Microsoft Superintelligence en sera la première utilisatrice. On nous parle aussi d’une exploitation dans le cadre de Microsoft 365 et d’Azure AI Foundry. Mais pas d’une mise à disposition dans l’offre de compute.

Physiquement parlant, les premières puces seront localisées dans la région US Central (Iowa). La région US West 3 (Arizona) suivra. Elles sont déployables en configuration à refroidissement liquide ou à air.

De Maia 100 à Maia 200, on retrouve une couche réseau basée sur Ethernet, avec un protocole type RoCE. Une topologie intranœud est mise en place, connectant des groupes de 4 puces « en direct », sans switch. Un cluster peut accueillir au maximum 6144 puces.

La couche mémoire évolue, avec un partitionnement de la SRAM (272 Mo par puce) en deux niveaux logiques, chacun ayant son sous-système DMA. Le premier (TSRAM) alimente les tiles (plus petite unité autonome de calcul et de stockage local, embarquant moteurs matriciel et vectoriel) ; le deuxième (CSRAM), les clusters.
Cette approche favorise diverses stratégies de data management en fonction des noyaux. Les kernels d’attention, par exemple, peuvent épingler des tenseurs en TSRAM pour minimiser l’overhead. Tandis que les pipelines cross-kernel peuvent exploiter la CSRAM comme tampon pour le chaînage à haut débit.

rack Maia 200

Illustrations © Microsoft

The post Puces IA : face à Amazon et Google, Microsoft se replace appeared first on Silicon.fr.

  •  
❌