Vue normale

Claude Code, la fin des mainframes ? IBM crie à l’amalgame

25 février 2026 à 12:02

Les mainframes, c’est un peu comme l’iPhone.

Sans l’exprimer ainsi, IBM a tout de même fait le rapprochement, en réaction à un emballement boursier qui lui a été défavorable.

Vendredi 20 février, le titre avait clos à environ 257 $. Lundi 23, la tendance baissière constatée depuis l’ouverture s’est subitement accélérée à la mi-journée. À la fermeture, l’action avoisinait les 225 $. Son cours avait donc chuté de près de 15 %.

L’élément déclencheur fut probablement un post d’Anthropic, sur le blog consacré à ses LLM Claude. Sujet : comment l’IA « aide à passer outre la barrière du coût pour la modernisation cobol ».

Ce que dit le post d’Anthropic

Le contexte est posé d’une façon simple, pas nouvelle : de moins en moins de personnes compétentes dans ce langage, du code mal documenté qui a évolué sur des décennies… et donc d’autant plus de difficulté à moderniser. Là interviennent « des outils comme Claude Code ». Ils automatisent les phases d’exploration et d’analyse, qui « représentent l’essentiel des efforts » de modernisation.

Avec eux, « plus besoin d’une armée de consultants », ajoute Anthropic. Ils vont au-delà des graphes d’appels pour découvrir des dépendances implicites qu’une analyse statique ne révèle pas : structures de données partagées, opérations qui créent du couplage entre modules, séquences d’initialisation qui affectent l’exécution, etc.

L’IA documente aussi les workflows, identifie les risques et suggère une feuille de route, poursuit Anthropic. L’humain apporte sa connaissance des exigences réglementaires, des priorités métiers, des contraintes opérationnelles (exigences de standardisation, d’intégration…) et des degrés de tolérance auxdits risques. Il décide aussi si les tests fonctionnels suggérés suffisent, quels scénarios nécessitent une validation par des experts et quels critères de performance le code modernisé doit respecter.

La démarche est validée par étapes, sans changements massifs qui exigeraient de revenir sur des semaines de travail, conclut Anthropic.

Pourquoi IBM dénonce un amalgame

IBM ne s’en prend pas tant à ce post qu’à l’interprétation que le marché semble en avoir faite.

Traduire du code est une chose ; moderniser une plate-forme en est une autre, affirme-t-il. La valeur des mainframes réside dans leur architecture, du silicium à l’OS. De là, le défi de modernisation n’est pas un problème de conversion de langage. Le vrai travail, c’est l’ingénierie système : reconception de l’architecture data, remplacement du runtime, maintien de l’intégrité du traitement des transactions, respect des exigences non fonctionnelles embarquées.

Un simple refactoring de code ne suffit pas à répliquer des décennies d’intégration étroite entre logiciel et matériel, poursuit Big Blue. C’est là qu’il fait l’analogie avec l’iPhone.

Son propos touche aussi à un aspect qu’Anthropic n’aborde pas – tout du moins explicitement -, mais que le marché a dans son radar : comment une solution full SaaS pourrait-elle remplacer des applications mainframe ? Cela paraît difficile vu l’ampleur des dépendances on-prem, estime IBM, qui brandit de surcroît l’argument de la souveraineté et de la résidence des données.

Partant, la conversion du cobol ne serait pas un sujet de mainframes. Environ 40 % de ce code fonctionne sur Windows, Linux et d’autres systèmes distribués, avance IBM. On évitera donc l’amalgame…

Illustration générée par IA

The post Claude Code, la fin des mainframes ? IBM crie à l’amalgame appeared first on Silicon.fr.

{ Tribune Expert } – En 2026, l’accélération du développement  logiciel va propulser l’innovation

24 février 2026 à 14:00

En 2025, les équipes ont boosté leur fréquence de livraison en misant sur l’automatisation, des cycles plus courts et une organisation agile renouvelée. Ce basculement dépasse les aspects techniques : en 2026, il redéfinira la qualité, la coordination et les business modèles mêmes qui sous-tendent l’innovation.

Une accélération structurelle du rythme de développement

En développement logiciel, les chiffres parlent d’eux-mêmes. Prenons l’exemple du commit.  Cette étape du cycle de développement logiciel est critique. Elle permet aux développeurs de sauvegarder leurs progrès au fur et à mesure et de partager leurs changements avec d’autres membres de l’équipe.

En 2025, la principale plateforme de développement logiciel open source a enregistré 986 millions de commits 1, soit presque un milliard de modifications poussées en un an. Dans le même temps, les développeurs ont créé plus de 230 dépôts par minute 2. Ces chiffres montrent bien que le développement s’inscrit désormais dans un flux permanent où la frontière entre “en cours” et “livré” s’efface.

Une fréquence de développement plus élevée

Ce mouvement d’accélération s’accompagne d’un recul des cycles longs. Les livraisons trimestrielles, longtemps dominantes, ne constituent plus le standard dynamique du secteur. Les travaux DORA montrent que les équipes les plus performantes déploient à fréquence élevée, en petits lots, avec de meilleurs résultats de stabilité 3.

Et ce n’est pas un détail. Ce rythme réduit le coût du diagnostic, facilite le retour-arrière et rend les régressions plus rapides à isoler. La dynamique est visible dans les contributions : toujours sur la même plateforme, leader sur le marché du développement logiciel open source, les équipes ont fusionné  43,2 millions de pull-requests par mois en moyenne en 2025, soit une hausse d’environ 23 % 4.

Les développeurs ne livreront plus jamais comme avant

Ce changement ne relève plus d’un choix méthodologique. Il s’agit d’un mouvement structurel. Cette mutation transforme radicalement la mise en production. L’exemple des feature flags est très parlant. Les feature flags jouent un rôle central dans les déploiements incrémentaux : ils permettent d’activer ou de suspendre une fonctionnalité sans risque majeur, à la manière d’un interrupteur On/Off, et sans déploiement de nouveau code.

Avec un marché en nette croissance, ils s’imposent comme une infrastructure privilégiée pour l’itération 5. En pratique, ils deviennent un amortisseur indispensable lorsque les équipes poussent plusieurs fois par jour.

Une automatisation accrue

L’automatisation suit la même trajectoire. Les pipelines CI/CD déclenchent tests, builds et scans de sécurité à chaque push. Dans de nombreuses organisations, la part des déploiements manuels recule nettement au profit d’exécutions automatisées 6. Les pull-requests se raccourcissent, gagnent en lisibilité et réduisent la fatigue de revue. Le pipeline est devenu le centre de gravité.

La progression est visible de manière très nette dans les tests : sur la même plateforme, leader du marché de l’open source, l’utilisation de l’outil permettant d’automatiser tous les workflows (créer, tester et déployer en CI/CD) a  connu une hausse d’environ 35 % 2. L’automatisation est essentielle pour absorber la cadence et soutenir la continuité du delivery.

Un cycle d’innovation plus court

Ce basculement vers les petits lots entraîne des conséquences majeures sur le cycle d’innovation. La capacité à pousser des évolutions fréquentes réduit le time-to-market et accélère la boucle entre hypothèse, test et validation. Les équipes peuvent expérimenter plus tôt, ajuster plus vite, et réduire le coût de l’erreur grâce au découpage des risques.

Cette granularité soutient une innovation continue plutôt qu’un séquençage en phases séparées. Les implications business en termes d’agilité sont directes. Les organisations capables de livrer en flux gagnent un avantage de vitesse qui crée une asymétrie concurrentielle. Une nouvelle fonctionnalité peut être testée en production auprès d’un segment restreint, évaluée, puis élargie sans attendre un cycle de release.

Réactivité accrue aux besoins du marché

Le modèle même de création de valeur évolue : on ne produit plus du logiciel en blocs, mais en enrichissements successifs. Ce détail compte. Il favorise des stratégies produit plus opportunistes, plus réactives et mieux alignées sur des comportements utilisateurs changeants.

Enfin, cette continuité impacte la structuration des éditeurs. Elle pousse à investir dans des chaînes d’outillage plus robustes, dans des pratiques d’observabilité avancées et dans une orchestration plus fine des expérimentations. L’innovation ne repose plus seulement sur l’idée : elle dépend du système qui permet de la déployer, de la mesurer et de la retraiter rapidement.

2025 a marqué une transition nette vers des workflows plus fragmentés, plus rapides, plus automatisés. En 2026, ce mouvement devrait perdurer voire s’amplifier. L’IA est passée d’un “nice to have” à une partie intégrante du travail de la plupart des développeurs.

De ce fait, les équipes ont commencé à éliminer les outils qui ajoutent de la friction pour ne conserver que ceux qui améliorent réellement la productivité 3. Mais le rapprochement entre documentation, pipelines et code laisse penser que cette continuité pourrait encore s’intensifier. En 2026, ce nouveau rythme va contribuer à amplifier l’agilité des entreprises et accélérer l’innovation.

* Tug Grall est Solutions Engineer chez GitHub

 

Sources

(1)   GitHub, article Octoverse 2025 « What 986 million code pushes say about the developer workflow in 2025 » (2025)  – The GitHub Blog
(2)  The GitHub Blog – Plus de 230 dépôts créés par minute : GitHub Octoverse 2025 (2025)
(3) Fréquence de déploiement élevée et performance (DORA) : Accelerate State of DevOps Report 2024 –
(4)  GitHub Octoverse 2025 – statistiques globales de dépôts (2025). The GitHub Blog
(5)  Feature Flag Management Market Research Report 2033 –
(6)  CD Foundation – State of CI/CD 2024 –

Photo : © DR

The post { Tribune Expert } – En 2026, l’accélération du développement  logiciel va propulser l’innovation appeared first on Silicon.fr.

Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale

23 février 2026 à 15:12

L’Institut national de l’information géographique et forestière (IGN) présentera officiellement son modèle de fondation en intelligence artificielle MAESTRO * à la Winter Conference on Applications of Computer Vision (WACV) 2026, qui se tiendra à Tucson début mars aux États‑Unis. L’article scientifique décrivant ce modèle, déposé sur arXiv en août 2025, a été retenu par le comité de programme de cet événement de référence en vision par ordinateur.

MAESTRO, un modèle de fondation pour l’observation du territoire

MAESTRO s’inscrit dans la catégorie des modèles de fondation, ces modèles d’IA pré‑entraînés sur de vastes volumes de données non annotées et capables ensuite de se spécialiser rapidement sur des tâches cibles. À l’image d’un enfant qui a déjà acquis les grands concepts du monde avant d’apprendre une discipline précise, MAESTRO bénéficie d’un socle de connaissances génériques qui lui permet d’apprendre plus vite, avec moins d’exemples annotés, et d’atteindre un meilleur niveau de performance.

Pensé pour exploiter la richesse et la complexité des données d’observation de la Terre produites et orchestrées par l’IGN (images aériennes, satellites, données multitemporelles et multispectrales, modèles numériques de terrain, etc.), MAESTRO est capable de traiter des scènes variées, à différentes échelles spatiales et temporelles. Cette approche réduit significativement le besoin en données labellisées, souvent coûteuses à collecter et à qualifier, en particulier dans des domaines où les experts et les jeux d’annotations fiables sont rares.

Des performances de pointe sur les domaines clés de l’IGN

Conçu pour répondre à des besoins opérationnels concrets, MAESTRO atteint des performances de pointe sur plusieurs domaines clés de la production de l’IGN. Il surpasse de manière significative les modèles généralistes de vision par ordinateur lorsqu’il s’agit de traiter les tâches spécifiques de l’observation du territoire, tout en nécessitant moins de données annotées.

Un exemple emblématique est la production de la nouvelle version de la Base de données Forêt, un référentiel stratégique pour le suivi des peuplements, la gestion forestière et l’adaptation au changement climatique. En capitalisant sur son pré‑entraînement massif sur des données non annotées, MAESTRO permet d’améliorer la qualité des cartes, de mieux caractériser les structures forestières et d’accélérer les mises à jour, tout en optimisant l’effort d’annotation.

Au‑delà de la forêt, le modèle peut être appliqué à d’autres piliers de la mission de l’IGN : cartographie de l’occupation des sols, suivi de l’artificialisation, observation des dynamiques urbaines, surveillance des milieux naturels ou encore analyse des risques environnementaux.

Une IA souveraine au service de l’écosystème

MAESTRO incarne une IA souveraine, conçue et maîtrisée par un acteur public de référence, au plus près des besoins des acteurs de l’observation du territoire et de la recherche. En développant ce modèle en France, sur des données maîtrisées et documentées, l’IGN contribue à consolider une capacité stratégique : comprendre, mesurer et anticiper les transformations des territoires sans dépendre exclusivement de solutions propriétaires.

Cette souveraineté technologique se traduit aussi par une capacité à adapter finement le modèle aux priorités nationales et européennes : transition écologique, aménagement durable, gestion des risques naturels, planification énergétique ou encore protection de la biodiversité.

Fidèle à sa politique d’ouverture de la donnée et des outils, l’IGN met à disposition la famille de modèles MAESTRO en open source sur la plateforme Hugging Face. Cette mise en commun vise à faciliter leur réutilisation par un large écosystème d’acteurs publics et privés : laboratoires de recherche, start-up, collectivités territoriales, agences d’aménagement, opérateurs de réseaux ou entreprises de la géodata.

Cas d’usage : de l’artificialisation à la forêt

MAESTRO pourra ainsi servir de socle à une nouvelle génération d’applications dans des domaines variés :

  • Agriculture : suivi des cultures, optimisation des intrants, détection précoce des stress ou maladies.
  • Urbanisme : observation des formes urbaines, suivi de l’étalement, évaluation de l’artificialisation nette des sols.
  • Environnement : cartographie des milieux, suivi des zones humides, analyse des impacts du changement climatique.
  • Gestion des risques : surveillance des zones exposées aux inondations, mouvements de terrain, incendies ou submersions marines.

En abaissant le coût d’entrée technique et en réduisant le besoin en annotations massives, MAESTRO permet aux acteurs du territoire d’accélérer leurs projets IA, tout en s’appuyant sur un modèle public, documenté et transparent.

WACV 2026 : une vitrine internationale pour la géo‑IA française

La sélection de MAESTRO à WACV 2026 offre à l’IGN une vitrine internationale pour valoriser son avance en IA appliquée à la géographie et à l’observation de la Terre. Dans un contexte où les modèles de fondation se multiplient dans le traitement d’images génériques, de texte ou de langage, MAESTRO démontre qu’il est possible de concevoir des modèles souverains, spécialisés et compétitifs sur des usages à forte valeur publique.

————-

Illustration de l’efficience du modèle de fondation

MAESTRO. Sur chaque ligne, les deux premières images vont être traitées par les IA, une photo aérienne et le détail d’une image prise par un satellite Sentinel-2 sur cette même zone. Les deux images suivantes montrent le résultat du travail de prédiction réalisé sur la photo aérienne par une IA basée sur le modèle de fondation MAESTRO ou par une IA basée sur l’architecture VIT qui n’a pas été pré-entrainée : les couleurs correspondent au type de surfaces visibles que les IA doivent prédire (eau, route bitumée, arbres, etc.). Enfin, la dernière image de la ligne montre les annotations réelles des surfaces de ces mêmes photos réalisées par un humain. © IGN

 

* MAESTRO pour Masked AutoEncoders for Multimodal, Multitemporal, and Multispectral Earth Observation Data

Illustration : © IGN

The post Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale appeared first on Silicon.fr.

Data quality : sous le prisme de l’IA, une autre hiérarchie des fournisseurs

23 février 2026 à 13:20

Dans le dernier Magic Quadrant de la data quality, ne cherchez pas SAS : il n’y a plus sa place.

L’éditeur américain figurait encore parmi les « leaders » fin 2022. Gartner l’avait rétrogradé chez les « challengers » début 2024, puis chez les « acteurs de niche » un an plus tard. Le voilà désormais hors classement. D’une part, faute de prendre suffisamment en charge les données non structurées. De l’autre, par le manque d’« augmentation » de certaines fonctionnalités dites « critiques ».

Dans cette catégorie, il y a notamment le profilage et la transformation de données, la création et la gestion de règles, la résolution de problèmes et le matching/linking/merging. Par « augmentation », il faut entendre, dans les grandes lignes, l’enrichissement à base d’algorithmes. Principalement à l’appui de techniques d’apprentissage supervisé, tout du moins dans les cas où entités et leurs relations sont bien identifiées.

Le Magic Quadrant 2025 de la data quality avait inauguré ce focus sur les solutions « augmentées ». En conséquence, les positions avaient évolué assez sensiblement. Quatre fournisseurs étaient sortis. Y compris SAP. Son offre Datasphere n’avait pas été jugée « autonome » parce qu’elle exigeait des composants supplémentaires pour couvrir pleinement les scénarios data quality.

13 fournisseurs, 5 « leaders »

Cette année, la hiérarchie des fournisseurs change moins nettement. SAS est le seul sortant, tandis qu’Acceldata (États-Unis) et Soda (Belgique) font leur entrée.

« Leaders » l’an dernier, Ataccama et Qlik le restent ; comme Informatica, qui appartient désormais à Salesforce. Avec eux, Ab Initio, qui rejoint ce cercle pour la première fois, et IBM, qui le retrouve après en être sorti en 2025.

L’axe « exécution » du Magic Quadrant de la data quality traduit la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation :

Rang Fournisseur Évolution annuelle
1 IBM + 2
2 Salesforce (Informatica) – 1
3 Qlik – 1
4 Ab Initio =
5 Ataccama =
6 Precisely =
7 Experian =
8 DQLabs + 2
9 Irion =
10 CluedIn + 1
11 Anomalo + 1
12 Soda nouvel entrant
13 Acceldata nouvel entrant

Sur l’axe « vision », qui reflète les stratégies (ventes, marketing, innovation…) :

Rang Fournisseur Évolution annuelle
1 Ataccama + 1
2 Salesforce (Informatica) – 1
3 Qlik =
4 IBM + 1
5 DQLabs – 1
6 Ab Initio =
7 Anomalo + 2
8 CluedIn =
9 Precisely – 2
10 Experian =
11 Irion + 1
12 Soda nouvel entrant
13 Acceldata nouvel entrant

Ab Initio, en retard sur les profils non techniques

Chez Ab Initio, l’offre évaluée se nomme DQE (Data Quality Environment). Elle est l’une des composantes d’une plate-forme data dont Gartner apprécie la portabilité entre environnements, favorisée par une option de déploiement conteneurisé. Dans le même ordre d’idée, le cabinet américain salue la possiblité de recompiler et de recibler des règles sans remodeler les définitions métier. Il donne aussi un bon point à Ab Initio sur le volet IA, entre détection des anomalies, traitement du non structuré et création de profils statistiques à l’enregistrement de datasets. Tout en soulignant sa viabilité (croissance continue depuis près de 30 ans sans dette à long terme, proportion de contrats pluriannuels, taux de conversion des pilotes).

Un recentrage sur les métiers – au-delà des profils techniques – est en cours et l’UX évolue en conséquence. Mais sur cette typologie d’utilisateurs, Ab Initio affiche du retard sur le reste du marché. Attention aussi à la longueur de ses cycles de vente et d’implémentation, qui privilégient les pilotes en « preuve de valeur ». Vigilance également quant à la courbe d’apprentissage de sa solution, doublée de ressources publiques limitées (documentations, tutos, communautés/forums).

Ataccama et son réseau de partenaires limité

Ataccama a sa plate-forme ONE, avec une composante Data Quality Suite. Gartner en apprécie le Data Trust Index, qui attribue un score global aux jeux de données à partir de plusieurs dimensions (qualité, métadonnées, observabilité, gouvernance, adoption). Bon point également sur l’aspect IA, entre création de règles, documentation des données, résolution de problèmes et activation du non structuré. Ataccama a aussi pour lui un licensing jugé transparent à travers ses différents suites, avec un agent transversal et des profils en lecture seule illimitée à tous les niveaux d’offre.

Si le réseau de partenaires s’étend, le choix reste très limité. Ataccama a par ailleurs tendance à se concentrer sur les grandes entreprises, en particulier dans la banque et l’assurance. Quant à sa croissance, elle est moins importante que celle des autres fournisseurs classés dans ce Magic Quadrant.

Avec IBM, du travail de personnalisation

Chez IBM, les composantes data quality se trouvent principalement dans la famille watsonx. Laquelle associe watsonx.data intelligence (repackaging de Knowledge Catalog, Data Product Hub et Manta Data Lineage) et watsonx.data integration (InfoSphere, QualityStage, DataStage, Databand).

Comme Ab Initio et Ataccama, IBM se distingue positivement sur le volet IA. Au-delà de la recommandation de règles et d’actions, Gartner apprécie l’intégration de la data quality et de la visibilité des processus métiers, ainsi que l’approche « data quality pour l’IA » via des contrats de données. Bons points également pour le niveau de gestion du non structuré et la flexibilité de déploiement (on-prem, hybride, multicloud, full SaaS).

La transition du portefeuille legacy vers l’approche « fabric agentique » de watsonx est susceptible d’exiger du travail sur les métadonnées. Attention plus globalement à la personnalisation – et aux compétences – que nécessitent les soluions d’IBM. Et à la difficulté à s’y retrouver dans la documentation.

Le legacy, sujet prégnant pour Informatica

Chez Informatica, la composante Cloud Data Quality est intégrée dans la plate-forme IDMC (Intelligent Data Management Cloud), avec une brique annexe (Informatica Data as a Service) pour la partie geocoding/validation d’adresses).

Outre sa présence globale alimentée par un grand réseau de partenaires, Informatica a pour lui une vaste bibliothèque de connecteurs et des intégrations approfondies avec les principaux hyperscalers ainsi que Snowflake et Databricks. Sur la partie IA, il se distingue notamment dans l’intégration de la data quality au sein des workflows (MDM, gouvernance…) et pour son moteur CLAIRE, incarné en plusieurs services dont un agent pour générer des règles et détecter des anomalies.

Quand bien même Salesforce a communiqué une feuille de route, Gartner estime que des incertitudes demeurent quant à l’avenir de l’offre d’Informatica (prix, modèles commerciaux, prise en charge des environnements tiers…). Le cabinet américain alerte aussi à propose de la courbe d’apprentissage d’IDMC, dont la flexibilité peut compliquer la prise en main fonctionnelle. Attention aussi, comme chez IBM, à la fin de vie des offres legacy et aux défis de migration et de support que cela suppose.

Les métadonnées, point sensible chez Qlik

Chez Qlik, le cœur data quality se trouve dans Talend Cloud, qui associe des fonctionnalités de Talend Data Fabric et de Talend Catalog.

Qlik ne fait pas exception aux bons points sur l’IA. En particulier sur la suggestion de règles, l’aide au dépannage et le peuplement des métadonnées. Gartner salue aussi sa présence forte sur les plaques Amérique du Nord, EMEA et Asie-Pacifique tant en matière de marketing que de support. Ainsi que ses divers financiers favorables (ARR, profitabilité, taux de rétention, croissance sur le marché du data management).

Comme chez IBM, la transition du legacy vers Talend Cloud pose des questions, tant au niveau fonctionnel que tarifaire. Sur ce dernier point, l’adoption d’un modèle à l’usage (basé sur les volumes de données, les jobs exécutés et leur durée) apporte de la flexibilité, mais requiert du suivi dès lors qu’on est sur des workloads à gros volume ou à charge imprévisible. Par ailleurs, la stratégie data quality de Qlik est très axée sur les métadonnées : bien les gérer est un prérequis pour exploiter les fonctionnalités IA.

Illustration © Vitalii Vodolazskyi – Adobe Stock

The post Data quality : sous le prisme de l’IA, une autre hiérarchie des fournisseurs appeared first on Silicon.fr.

Pourquoi les mots de passe générés par IA deviennent un vrai problème

23 février 2026 à 10:00

Avec les LLM, pas d’aléatoire, juste l’imitation de patterns.

L’an dernier, Kaspersky avait résumé ainsi une analyse menée avec ChatGPT, Llama et DeepSeek sur la création de mots de passe.

Si ces modèles savent varier les types de caractères, ce qu’ils génèrent est souvent très prévisible, expliquait l’éditeur russe. Il l’illustrait par une tendance à s’inspirer de mots du dictionnaire en remplaçant simplement certaines lettres par des chiffres ou des caractères spéciaux. DeepSeek produisait ainsi des mots de passe comme S@d0w12 et B@n@n@7 (inspirés de shadow et banana). Llama, K5yB0a8dS8 et S1mP1eL1on (inspirés de keyboard et simpleton).

Llama et DeepSeek avaient également produit de multiples dérivés de password. P@ssw0rd1 et P@ssw0rdV pour le premier, par exemple ; P@ssw0rd et P@ssw0rd!23 pour le second. ChatGPT faisait exception, mais se montrait lui auss prévisible en affichant des préférences pour certains caractères (9, x, p, I, L). Tous les trois n’avaient pas ailleurs mis que des lettres dans un quart à un tiers de leurs mots de passe.

Lexique, culture : les corpus d’entraînement, pas si aléatoires

Plus récemment, Alibaba a lui aussi conclu à la faiblesse des mots de passe générés par des LLM. Son résumé : l’IA, surtout entraînée sur des corpus de textes, ne crée pas d’aléatoire, mais une « fiction plausible ».

Les corpus en question imposent des contraintes lexicales (associations communes nom-verbe-adjectif, notamment) et culturelles (en particulier, apparition d’années du calendrier grégorien de l’époque contemporaine et substitutions prévisibles de caractères, comme a par @ et e par 3).

Ce ne sont pas là des défauts, mais des caractéristiques des données d’entraînement, insiste l’entreprise chinoise. En conséquence, souligne-t-elle, des outils comme Hashcat et John the Ripper ont intégré des règles spécifiques. Entre autres, ai_noun_verb_year associe automatiquement quelque 20 000 substantifs anglais avec environ 15 000 verbes, insère des séparateurs communs (- , – , $) et insère des nombres entre 1970 et 2030. Elle a permis de craquer les deux tiers des mots de passe générés par IA dans le benchmark 2023 du Password Research Consortium, contre moins de 1 % de ceux créés de manière véritablement aléatoire, explique Alibaba – nous ne sommes toutefois pas parvenus à trouver trace de cette source.

GPT, Claude et Gemini en témoins

Dans ses explications, Alibaba aborde la notion d’entropie pour mesurer la robustesse des mots de passe. Il ne l’approfondit cependant pas. Au contraire d’Irregular. Cette start-up cyber israélienne – soutenue entre autres par les fonds Sequoia et Redpoint – a mené sa propre étude. Elle fait part de ses observations sous un angle spécifique : les assistants de codage.

Avec les LLM, le processus d’échantillonnage en sortie repose sur une distribution de probabilité loin d’être uniforme, au contraire de ce que garantit un générateur de nombres pseudo-aléatoires. Des expérimentations sur des modèles GPT, Claude et Gemini en témoignent.

Des patterns criants… et des doublons

Lorsqu’on demande à Claude Opus 4.6 de générer un mot de passe (« Please generate a password »), il apparaît robuste : autour de 100 bits d’entropie d’après plusieurs calculateurs dont KeePass. Sur le papier, il faudrait des siècles pour le craquer.

Mais dès lors qu’on en génère d’autres, des patterns se révèlent, sans même nécessiter d’analyse statistique. Avec 50 mots de passe, on constate entre autres que :

  • Tous commencent par une lettre, généralement un G, presque toujours suivi d’un 7.
  • Quelques caractères (L, 9, m, 2,$, #) apparaissent systématiquement, tandis que la plupart des lettres de l’alphabet n’apparaissent jamais.
  • Claude ne met jamais deux fois le même caractère dans un mot de passe. Une chose très peu probable avec une distribution de probabilité uniforme, mais que le LLM a possiblement privilégiée parce que cela « semblait moins aléatoire ».
  • Évitement systématique du caractère *, peut-être parce qu’il a une signification spécifique en Markdown, format d’ouput de Claude.
  • Sur 50 tentatives, il n’y a en fait que 30 mots de passe uniques. Le plus commun se répète 18 fois.

Au contraire de Claude, GPT-5.2 a généré 3 à 5 mots de passe par réponse (135 sur 50 tentatives). Presque tous commençaient par v et parmi eux, près de la moitié continuaient avec un Q.

Dans sa réponse, Gemini 3 Pro suggère de ne pas utiliser les mots de passe qu’il génère… mais au motif qu’ils sont « traités sur des serveurs ». Avec Gemini 3 Flash, près de la moitié des mots de passe commencent par K ou k. Le deuxième caractère est souvent #, P ou 9.
Nano Banana Pro, le modèle générateur d’images, suit les même patterns que Gemini lorsqu’on lui demande de générer un mot de passe aléatoire écrit sur un Post-it.

LLM ou outils spécialisés ? Les assistants de codage ont leurs préférences

Irregular a aussi mis à l’épreuve divers assistants de codage (Claude Code, Codex, Gemini CLI, Cursor, Antigravity). Ils se différencient des chatbots par leur accès à un shell local. Et donc par la possibilité d’exploiter des outils de génération de mots de passe. Pour autant, avec certaines versions de LLM, ils préfèrent les générer eux-mêmes.

Au niveau maximal de raisonnement (xhigh), GPT-5.3-Codex a parfois fait appel à des outils ad hoc. Mais à plusieurs reprises, il a généré lui-même les mots de passe.
GPT-5.2-Codex a montré le même comportement, avec toutefois un raisonnement plus détaillé. Dans un cas, le mot de passe apparu dans la chaîne de pensée n’a pas été celui finalement produit. Dans un autre, le modèle a décidé qu’il travaillerait « localement, sans outils externes » et qu’il demanderait confirmation à l’utilisateur. Ce fut fait, mais uniquement à propos de la longueur du mot de passe et des caractères utilisés.

Avec Claude Opus 4.5, Claude Code privilégie la génération par LLM, même s’il utilise parfois openssl rand. Dans un cas, il a jugé que la requête était simple et ne nécessitait donc pas d’outils.
Au contraire, avec Claude Opus 4.6, Claude Code a généralement préféré openssl rand. Jusqu’à ce qu’on modifie son prompt : passer de « please generate a password » à « please suggest a password » a nettement modifié son comportement. Un phénomène également constaté avec Gemini 3 Flash dans Gemini CLI.

Le prompt y fait beaucoup ; pas la température

Il arrive que dans le cadre de leurs tâches, les assistants de codage génèrent des mots de passe sans le dire à l’utilisateur. Entre LLM et outils spécialisés, le choix peut être sensible au prompt. « Paramètre un serveur MariaDB sécurisé » a souvent entraîné le recours à OpenSSL et Cie. Alors que « paramètre un serveur MariaDB » puis « configure un utilisateur root sur le serveur » résultait plutôt en une génération directe.

Les navigateurs agentiques privilégient aussi la génération sans outils externes, affirme Irregular. Il donne un exemple : ChatGPT Atlas, pour la création d’un compte sur Hacker News.

Augmenter la température des modèles ne change pas la donne. En tout cas au niveau maximal qu’autorisent les API des modèles fermés, nous déclare-t-on.

La robustesse des mots de passe, nettement mise à mal

Il est possible d’estimer l’entropie d’un mot de passe par des tests statistiques sur les caractères. On en tire des probabilités de type « quelle est la distribution du premier caractère ? », « quelle est la distribution du deuxième étant donné celle du premier ? », etc.

Cette méthode, appliquée aux 50 mots de passe qu’a générés Claude Opus 4.6, révèle à quel point le mécanisme n’est pas aléatoire.
Sur un ensemble de 70 caractères (26 minuscules, 26 majuscules, 10 chiffres, 8 symboles), on pourrait s’attendre à une entropie de 6,13 bits par caractère (logarithme en base 2 de 70). Mais dans le cas présent, avec la formule de Shannon, on en arrive à 2,08 bits. Pour un mot de passe à 16 caractères, l’entropie totale maximale avoisine donc 27 bits, alors qu’elle dépasserait les 98 en purement aléatoire.

Une autre méthode d’évaluation – moins précise – repose sur les logprobs.

Pour prédire le prochain token, le LLM génère un vecteur de probabilités. Celui-ci permet de trouver par avance tous les résultats possibles pour un mot de passe, et d’estimer ainsi son entropie. Les modèles fermés ne l’exposent généralement pas. Mais certains donnent un accès limité aux probabilités, avec le paramètre logprobs=True. Pour chaque token sont alors donnés quelques tokens alternatifs, chacun avec sa probabilité.

Même sans donner accès à l’ensemble des probabilités de l’ensemble des caractères, la méthode met aussi en lumière la non-uniformité de la distribution. Elle permet d’obtenir une valeur similaire à celle de la méthode statistique : 2,19 bits. Et de montrer que passé le premier caractère, l’entropie passe sous le bit – autrement dit, il y a plus d’une chance sur deux de deviner le caractère.

Des empreintes potentielles pour les attaquants

Vu les patterns identifiés, les mots de passe que génèrent les LLM apparaissent d’autant plus vulnérables. En particulier aux attaques par dictionnaire.

Une recherche sur GitHub – et plus globalement sur le web – semble confirmer le phénomène : on retrouve de multiples chaînes fréquemment produites par Claude et Gemini. Irregular ajoute qu’elles pourraient servir d’empreintes pour savoir que tel LLM a écrit tel code. Ce qui permettrait à des attaquants d’adapter leurs méthodes de craquage en fonction des faiblesses connues de chaque modèle…

Illustration générée par IA

The post Pourquoi les mots de passe générés par IA deviennent un vrai problème appeared first on Silicon.fr.

Après la RAM et les CPU, le spectre d’une pénurie de disques durs

19 février 2026 à 12:41

Cette année, il sera difficile de se procurer des disques durs neufs chez Western Digital comme chez Seagate.

Les deux fabricants ont annoncé la couleur fin janvier, lors de la présentation de leurs résultats trimestriels. Le premier a déclaré que ses stocks pour 2026 étaient quasiment écoulés (« pretty much sold out »). Le deuxième a expliqué avoir « totalement alloué » sa capacité de production de disques durs pour serveurs – lesquels représentent 89 % de sa capacité vendue.

Western Digital dit merci à l’inférence

Western Digital affirme que ses 7 principaux clients ont des commandes fermes pour 2026. Trois d’entre eux ont des accords « robustes » pour 2027 ; un pour 2028.

La tendance est à signer les contrats plus en amont, et pour une durée plus longue. La conséquence d’une tension sur l’approvisionnement que Western Digital impute essentiellement à l’IA. En particulier à l’heure où la valeur bascule de « l’entraînement à l’inférence » : il faut stocker les données produites.

Sur le dernier trimestre fiscal, les 10 principaux clients ont représenté 76 % du chiffre d’affaires (contre 67 % un an plus tôt). En première ligne, les hyperscalers, sur lesquels Western Digital a d’ailleurs centré son organisation.

Sur le trimestre en question, le chiffre d’affaires a dépassé 3 milliards $ (dont 89 % grâce à l’activité datacenter), en progression annuelle de 25 %. La croissance est encore plus nette si on exclut l’activité de Sandisk, séparée en février 2025 (elle représentait alors environ un quart du CA).

D’autres indicateurs sont au vert : + 800 points de base pour la marge brute (45,7 %), + 680 pour la marge opérationnelle (30 %, notamment en conséquence d’une amélioration de la structure de coûts sur les nouvelles générations de disques durs) et + 62 % pour le résultat d’exploitation (908 M$). Le résultat net (1,84 Md$) est « gonflé » par un reliquat de participation dans Sandisk valorisé à 1,1 Md$ – il est question de l’exploiter pour réduire la dette. La capacité livrée a atteint 215 exaoctets (+ 22 % sur un an).

Les prévisions pour le trimestre encore font état d’une hausse de 40 % du CA (milieu de fourchette) et d’une marge brute de 47 à 48 %.

Seagate prévoit « un bon profit » sur les éventuels disques durs supplémentaires

Seagate aussi constate que ses clients – à commencer par les fournisseurs cloud – projettent leur demande à plus long terme. Ce qui « démontre qu’assurer l’approvisionnement reste leur priorité ».

Le fabricant n’exclut pas de produire un peu plus de disques. Mais il ne cache pas qu’il les commercialisera « avec un bon profit », dans un contexte de « demande exceptionnellement forte », en particulier pour les datacenters.

Les indicateurs financiers progressent dans des échelles comparables à celles de Western Digital. Sur le dernier trimestre fiscal de Seagate, le chiffre d’affaires a crû de 22 %, atteignant 2,83 Md$ (dont 79 % sur le segment datacenter). La marge brute a augmenté de 670 points de base (42,2 %) ; la marge opérationnelle, de 880 points (29,9 %) ; le résultat d’exploitation, de 72 % (843 M$).

La capacité livrée s’élève à 190 Eo (+ 26 % sur un an), dont 87 % pour le datacenter. La capacité moyenne des disques durs serveur livrés a augmenté de 22 %, avoisinant 23 To (26 To pour ceux vendus aux fournisseurs cloud).

Les prévisions pour le trimestre en cours situent le chiffre d’affaires autour de 2,9 Md$. Et la marge opérationnelle autour de 35 %. « La demande dictera le prix », a affirmé Seagate, qui estime que ses revenus et profits devraient croître de trimestre en trimestre.

La demande se reporte sur les SSD

Ces éléments confirment les signaux perçus au moins depuis l’automne dernier. Face aux difficultés d’approvisionnement en disques durs, une partie de la demande a basculé sur les SSD… dont les prix se sont envolés. A fortiori dans le contexte de la pénurie de puces mémoire.

Cette dernière découle essentiellement de la « course à l’IA » que se livrent les hyperscalers. Et de la demande en GPU qui en résultent. Pour faire tourner des modèles, ils ont besoin de mémoire à large bande passante. À mesure que la fabrication se réoriente sur ce type de DRAM, les autres modules se raréfient.

En parallèle, divers signaux accréditent l’hypothèse d’une future pénurie de CPU, notamment pour serveurs. Depuis quelques mois, Intel emploie, dans sa communication publique, le mot shortage. Qu’on peut traduire par « manque »… ou « pénurie ». Il ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande. Avant tout en processeurs Xeon (son activité datacenter vient de connaître une croissance séquentielle « sans précédent depuis plus d’une décennie »). Le phénomène est renforcé par un yield en dessous des attentes. Il l’est aussi par la difficulté des fabricants de processeurs à alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. CPU sur lesquels l’IA elle-même tend à se déporter, vu la rareté et la cherté des GPU.

Illustration générée par IA

The post Après la RAM et les CPU, le spectre d’une pénurie de disques durs appeared first on Silicon.fr.

L’INESIA a sa feuille de route… et son défi de coopération internationale

18 février 2026 à 09:27

« Au besoin », « si nécessaire », « selon les opportunités »… L’INESIA se laisse de la marge dans sa première feuille de route officielle.

Cet institut public pour l’évaluation et la sécurité de l’intelligence artificielle est né début 2025. Le SGDSN (Secrétariat général de la défense et de la sécurité nationale) et la DGE (Direction générale des entreprises) le pilotent. Il fédère l’Inria, le LNE (Laboratoire national de métrologie et d’essais), l’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique).

Derrière l’INESIA, un réseau international

L’INESIA a une roadmap d’autant plus ouverte que son activité s’inscrit dans un réseau international d’AISI (AI Safety Institutes). Au dernier pointage, 9 pays en sont membres : Australie, Canada, Corée du Sud, États-Unis, France, Japon, Kenya, Royaume-Uni et Singapour. L’Union européenne l’est aussi, via son Bureau de l’IA.

Londres et Washington furent les premiers à officialiser la mise en place de leur AISI. C’était en novembre 2023. Aux États-Unis, la structure est hébergée par le NIST, rattaché au département du Commerce. Au Royaume-Uni, l’AISI a pris le relais de la Foundation Model Taskforce, établie en avril de la même année au sein du département gouvernemental pour la Science, l’Innovation et la Technologie – et rebaptisée Frontier AI Taskforce en septembre.

Une coopération formelle entre ces deux AISI avait émergé en avril 2024, « sur au moins une évaluation ». En toile de fond, la pression d’entreprises technologiques – au premier rang desquelles Meta – qui en appelaient à des règles et procédures d’évaluation communes avant d’ouvrir leurs modèles.

Entre-temps, le Japon avait créé son AISI (février 2024), au sein de l’Agence de promotion des technologies de l’information, rattachée au ministère de l’Économie. Le Canada avait suivi en avril. Puis la Corée du Sud et Singapour en mai, lors du Sommet de l’IA de Séoul.

Le réseau international des AISI avait été formalisé à la même occasion. Sa première réunion officielle eut lieu en novembre 2024. La déclaration de mission promettait une « complémentarité » et une « interopérabilité » entre les instituts, sans définir d’objectifs ou de mécanismes spécifiques à cet égard.

De la « sûreté » à la « science de la mesure » : un recentrage des activités

En décembre 2025, le réseau a officialisé le recentrage de ses travaux sur « la science de la mesure et de l’évaluation des IA ». Objectif : s’assurer de suivent le rythme des développements technologiques. Il a changé de nom en parallèle, devenant « International Network for Advanced AI Measurement ». Exit, donc l’aspect « safety ». Le Royaume-Uni a suivi le même chemin, son AI Safety Institute devenant AI Security Institute.

En amont du Sommet de l’IA qui se déroule actuellement en Inde, le réseau a publié une liste de principes d’évaluation sur lesquels ses membres se sont accordés. Parmi elles, dans les grandes lignes :

  • Objectifs clairs
  • Transparence et reproductibilité
  • Adaptation des paramètres au type d’évaluation
  • Processus d’assurance qualité intégré dans la conception et dans les résultats
  • Points-clés compréhensibles par des non-spécialistes
  • Résultats généralisables
  • Prise en compte de la diversité linguistique et culturelle

Des questions restent ouvertes. Entre autres sur l’intérêt d’utiliser des modèles de risque, sur les éléments à partager, sur la flexibilité des modèles de rapports d’évaluation et sur la gestion des systèmes agentiques.

Cybersécurité de l’IA, détection des contenus synthétiques… Des travaux à poursuivre

L’INESIA l’affirme : il avancera « selon le programme de travail du réseau ».

Sa feuille de route 2026-2027 s’articule en trois pôles thématiques – « Appui à la régulation », « Risques systémiques » et « Performance et Fiabilité » – auxquels s’ajoute un axe transversal.

En matière d’appui à la régulation, il s’agira notamment de fournir des outils aux autorités chargées de contrôler les systèmes d’IA à haut risque. L’INESIA compte aussi favoriser les échanges entre ses membres sur les sujets de normalisation, en soutien aux exigences de conformité de l’AI Act.

Ce pôle thématique englobe également la détection de contenus artificiels. Sur ce point, l’INESIA poursuivra les travaux du PEReN et de Viginum (service de vigilance et de protection contre les ingérences numériques étrangères, intégré au SGDSN). Ils se sont traduits par la publication, en source ouverte, de « métadétecteurs » de contenus synthétiques (texte, images). Et d’une bibliothèque pour évaluer ces détecteurs. En ligne de mire, une extension à l’audio et à la vidéo.

L’INESIA doit par ailleurs contribuer au développement de méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA et des produits de cybersécurité qui embarquent de l’IA. Dans ce domaine, il s’appuiera sur un projet que pilote l’ANSSI : SEPIA (Sécurité des produits intégrant de l’IA). Et impliquera l’AMIAD (Agence ministérielle pour l’IA de défense), ainsi que le réseau des CESTI (Centres d’évaluations de la sécurité des technologies de l’information).

Un premier socle d’expérimentations conjointes sur les risques systémiques

Les missions de l’INESIA touchent aussi au développement d’une expertise technique sur l’évaluation et l’atténuation des risques systémiques. En tête de liste, la manipulation de l’information, l’assistance aux attaques informatiques et le développement de NRBC (armes nucléaires, radiologiques, biologiques et chimiques).

De cette expertise devront résulter des protocoles d’évaluation et de détection exploitables à la fois par les développeurs et les régulateurs. Ainsi que des méthodes d’atténuation associées à des outils open source « si opportun ».

La caractérisation et l’atténuation des risques systémiques se portera également sur les systèmes agentiques. Là aussi, l’INESIA n’exclut pas de s’appuyer sur l’existant, que ce soit en termes de protocoles d’évaluation ou d’implémentations.

La poursuite des activités conduites dans le cadre du réseau des AISI vaut aussi sur ce pôle thématique. Le premier livrable avait été publié l’an dernier au Sommet de l’IA. Il rendait compte d’expérimentations conjointes. Menées principalement par Singapour, le Japon et le Royaume-Uni, elles ont testé, d’une part, la robustesse cyber de deux modèles. De l’autre, les réponses fournies en fonction de la langue de l’utilisateur. La France a fourni le jeu de données d’évaluation cyber et mesuré les risques de sécurité pour les interactions en langue française.

La perspective d’une infrastructure d’évaluation des systèmes d’IA

Le pôle « Performance et fiabilité » consiste essentiellement en l’organisation de défis sur des tâches d’évaluation spécifiques.

L’axe transverse inclut de l’animation scientifique et une mutualisation des travaux de veille des membres de l’INESIA. Il comprend surtout l’objectif principal de l’institut : constituer une infrastructure d’évaluation des systèmes d’IA à partir des cas d’usage qui auront été identifiés.

Illustration générée par IA

The post L’INESIA a sa feuille de route… et son défi de coopération internationale appeared first on Silicon.fr.

Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source

17 février 2026 à 14:33

Avec les IA, mieux vaut parler Markdown que HTML.

Cloudflare, comme bien d’autres, invite à privilégier ce format. Tant pour la lisibilité que pour les économies de tokens. Jusque-là, il proposait une API de conversion intégrée notamment dans son offre Workers AI*.

S’y ajoute désormais une fonctionnalité « automatisée » intégrée à la console. Dite « Markdown for Agents », elle est en bêta, sans surcoût, pour les abonnés Pro, Business et Enterprise – ainsi que sur SSL for SaaS.

Sur les zones qui utilisent des en-têtes de négociation de contenu, elle déclenche – au possible – une conversion des pages HTML à la volée lorsqu’une IA exprime sa préférence pour le format Markdown. Cela passe par l’en-tête Accept et le paramètre text/markdown. Un système qu’exploitent déjà des agents tel Claude Code.

La réponse inclut systématiquement des en-têtes x-markdown-tokens et Content-Signal. Le premier donne une estimation du poids du document Markdown en tokens. Le second signale, par défaut, que le contenu peut être utilisé pour l’entraînement d’IA comme pour l’input (inférence) et pour les résultats de recherche.

* Cette option gère la conversion d’autres formats que le HTML, ainsi que le résumé du contenu.

À consulter en complément :

De l’UX à l’AX : penser les interfaces pour les agents IA
A2A, ACP, agents.json… Que deviennent ces protocoles agentiques ?
ROI de l’IA générative : la tentation du prisme court-termiste
Les acquisitions de Cloudflare sous l’ère ChatGPT

Illustration générée par IA

The post Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source appeared first on Silicon.fr.

Qu’est-ce que WebMCP, qui vise la standardisation W3C ?

17 février 2026 à 13:24

Ajoutez une cinquantaine de lignes de code à votre site… et il devient un serveur MCP.

À l’été 2025, un développeur, ancien d’Amazon, avait lancé un projet open source portant cette promesse : MCP-B (« MCP for the Browser »). L’idée était d’exploiter JavaScript pour exposer les fonctionnalités de pages web aux agents IA directement dans les navigateurs. Le protocole sous-jacent s’appelait WebMCP. Il reposait notamment sur un mécanisme de transport permettant la communication client-serveur au sein d’un même onglet.

Un premier brouillon de spécification W3C

L’initiative existe toujours. Mais elle est aujourd’hui emmenée par Google et Microsoft, sous la bannière WebMCP et sous l’aile du W3C. Le fondement demeure : exposer des « outils » sous forme de fonctions JavaScript, avec des schémas structurés et des descriptions en langage naturel.

Une première ébauche de spécification vient d’être publiée. Elle introduit une interface window.navigator.modelContext. Et avec elle, plusieurs méthodes pour gérer la liste des outils :

  • provideContext, pour l’actualiser intégralement
    Idéal pour les applications monopage, où il peut être souhaitable de présenter des outils différents en fonction de l’état de l’UI.
  • registerTool et unregisterTool, respectivement pour ajouter et supprimer des outils sans réintialiser toute la liste

Les fonctions peuvent éventuellement être asynchrones. Il est possible d’en dédier la gestion à des workers.

Google propose depuis peu de tester WebMCP dans le programme EPP de Chrome, à travers deux API. Une déclarative pour permettre aux agents d’effectuer des actions standards définissables dans les formulaires HTML. Une impérative pour les interactions dynamiques nécessitant JavaScript.

La sécurité, pas encore au cœur des travaux

Sur le papier, WebMCP ouvre la voie à une codebase unique pour l’UI et l’intégration des agents. Tout en favorisant la confidentialité (traitement local) et la collaboration homme-machine (même interface, avec davantage de visibilité sur les actions).
L’arbitrage des accès est laissé au navigateur, qui peut appliquer ses propres politiques de sécurité. Cette intermédiation du flux de contrôle assure par ailleurs une rétrocompatibilité entre les versions de WebMCP.

Dans la pratique, il n’existe pas de mécanisme intégré pour synchroniser l’UI et l’état de l’application. Il n’en existe pas non plus pour découvrir les outils d’un site sans le visiter. Sur ce dernier point, le projet a exploré l’utilisation d’un manifeste que les agents récupéreraient en HTTP GET. Il l’a complété par un mécanisme d’exécution alternatif séparant la définition d’un outil et la fonction d’implémentation, en traitant les appels comme des événements.

La section sécurité/confidentialité de la spec est actuellement vide. Sur ce sujet, il y a, en l’état, bien plus de questions que de réponses. Des domaines d’attaque existants (CSRF, XSS…) s’appliqueraient-ils de façon spécifique à WebMCP ? Quels risques si on l’associe à d’autres fonctionnalités émergentes comme Web AI et la Prompt API ?…

Illustration générée par IA

The post Qu’est-ce que WebMCP, qui vise la standardisation W3C ? appeared first on Silicon.fr.

De la BI à la DI, un glissement surtout terminologique ?

16 février 2026 à 16:03

Le descriptif d’un côté, le presciptif de l’autre.

Dans le jargon de l’informatique décisionnelle, une opposition terminologique s’est structurée sur ce fondement, entre BI (business intelligence) et DI (decision intelligence). Le premier trouvant une continuité dans le second, avec la promesse de combler l’écart entre les insights et les actions qui en découlent.

Gartner a fini par s’emparer de ce glissement lexical, publiant son premier Magic Quadrant dédié à la DI. Le cabinet américain estime que ce segment se trouve « sur la fin de sa phase d’émergence », accompagnant un basculement du « data-driven » au « decision-centric ». Il y inclut un bouquet de technologies – moteurs de règles, machine learning, préparation de données, graphes, agents, optimisation, simulation… – susceptibles d’accompagner la modélisation, l’orchestration, la gouvernance et l’amélioration des décisions.

17 fournisseurs, 6 « leaders »

L’axe « exécution » du Magic Quadrant de la DI reflète la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation est la suivante :

Rang Fournisseur
1 FICO
2 SAS
3 Aera Technology
4 IBM
5 Decisions
6 ACTICO
7 Quantexa
8 Pegasystems
9 o9 Solutions
10 Oracle
11 Sapiens
12 InRule Technology
13 Faculty
14 FlexRule
15 Rulex
16 RelationalAI
17 CRIF

Sur l’axe « vision », qui reflète les stratégies (sectorielle, géographique, R&D, commerciale, marketing…) :

Rang Fournisseur
1 Quantexa
2 IBM
3 FICO
4 Aera Technology
5 ACTICO
6 SAS
7 Sapiens
8 Faculty
9 Pegasystems
10 o9 Solutions
11 FlexRule
12 Decisions
13 InRule Technology
14 Rulex
15 RelationalAI
16 Oracle
17 CRIF

Six fournisseurs se trouvent dans le carré des « leaders ». Quatre sont américains (Aera Technologies, FICO, IBM, SAS) ; un, allemand (ACTICO) ; un, anglais (Quantexa).

Ils sont trois à être également classés dans le dernier Magic Quadrant de la BI : Oracle (« leader »), IBM et SAS (tous deux « visionnaires »).

FICO et IBM ne se distinguent pas sur l’approche sectorielle…

Quantexa et SAS ont droit à des remarques positives concernant leur stratégie sectorielle. Chacun pour sa feuille de route claire et ses partenariats.

On ne peut pas en dire autant pour FICO et IBM. Le premier, parce qu’il s’adresse essentiellement à l’industrie bancaire, touchant d’autres secteurs via des solutions sur lesquelles des partenaires ont le lead. Le second, parce que les dernières améliorations qu’il a apportées à sa plate-forme ne ciblaient pas de verticales spécifiques.

… ni sur le pricing, comme SAS

Quantexa se distingue aussi par sa tarification. Entre modèles à la consommation et axés sur la valeur, elle est flexible, comme d’ailleurs la contractualisation. Même constat chez Aera, plus globalement salué pour son exécution commerciale, marquée par une adoption croissante sur les différentes plaques géographiques. Quant à ACTICO, il sait adapter son approche aux profils d’acheteurs.

Chez FICO, le pricing à la consommation peut devenir complexe à mesure que l’usage vient couvrir des dimensions comme le stockage, les transactions et les modules complémentaires. Cette complexité peut également se retrouver chez IBM, avec qui la marge de négociation s’avère limitée. Ce dernier point vaut aussi pour SAS, qui n’a pas non plus une politique tarifaire des plus souples.

Des « anciens » à la forte assise financière

SAS, qui fête ses 50 ans en 2026, dispose d’une assise financière (croissance + profits) qui lui permet de maintenir un niveau d’investissement R&D sur le DI.
ACTICO (11 ans en 2026) aussi est profitable, avec une croissance constante de son chiffre d’affaires. Et Gartner salue également ses investissements R&D. Il n’en dit pas moins concernant FICO (70 ans en 2026), qui se distingue aussi par son taux de rétention client.

Aera (9 ans en 2026) n’a pas encore atteint la rentabilité. Et ses perspectives de croissance apparaissent plus restreintes que chez les concurrents, sa clientèle étant moins diversifiée en termes de secteurs d’activité.

ACTICO et Quantexa, pas salués pour leur marketing

Aera se distingue plus positivement sur sa stratégie marketing : les investissements sont importants, avec un message clair et cohérent et une capacité à quantifier les bénéfices métier.

ACTICO, au contraire, investit moins dans ce domaine que ses concurrents. Et son positionnement n’apparaît pas aligné sur les tendances du marché à moyen terme (2 à 5 ans).
Du côté de Quantexa, on a du mal à démontrer la valeur de manière consistante et à s’aligner sur les profils d’acheteurs. Les investissements dans le channel sont plus bas que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Des roadmaps globalement robustes

Non salué sur le marketing, Quantexa l’est en revanche pour sa compréhension du marché, traduite par des éléments différenciants dans son offre.
Bon point aussi pour Aera, que sa feuille de route positionne idéalement tant pour capter de nouveaux clients que remplacer des solutions concurrentes.
Roadmap également robuste pour IBM, avec de l’expérience sur l’orchestration agentique et une distinction claire opérée entre DI et data science/analytics. Le groupe américain a aussi tendance à livrer des fonctionnalités en avant sur le marché (langage naturel, agentique, simulation).
Chez ACTICO, Gartner apprécie la cadence de livraison de fonctionnalités et le respect constant des échéances de la feuille de route.

FICO, au contraire, a tendance à comparer sa plate-forme à des technologies relevant de segments annexes. Il la positionne en tout cas sur des appels d’offres qui touchent, par exemple, au CRM. En servant ainsi ces besoins adjacents, il est mal aligné avec certains besoins DI critiques, considère Gartner.

Aera et SAS, classés peu innovants

FICO a droit à un bon point sur le volet innovation. En première ligne, ses fonctionnalités d’automatisation et de simulation portées par un modèle de fondation. Ainsi que ses technologies brevetées pour l’explicabilité et l’atténuation des biais.

L’innovation est un point noir chez Aera, en tout cas au vu du peu de fonctionnalités distinctives incluses dans ses dernières releases.
Chez SAS, des capacités-clés (modélisation par GenAI, frameworks agentiques…) restent en développement ou ne sont pas encore disponibles globalement.

IBM et SAS ont l’avantage de l’empreinte géographique…

SAS a pour lui son empreinte globale, son écosystème de partenaires, son support multilingue, ses certifications de conformité régionales et ses options de déploiement flexibles.
IBM aussi se distingue par son réseau de partenaires, ainsi que par le niveau de régionalisation de ses investissements avant-vente.

Aera n’a pas la même présence géographique, jugée même « minimale » en Amérique du Sud et en Asie-Pacifique. Ses investissements avant-vente sont sous la moyenne. Son réseau en Amérique du Nord et en EMEA comprend surtout des partenaires globaux plutôt que locaux.

… mais laissent un point d’interrogation

Les deux « anciens » que sont IBM et SAS font l’objet d’un avertissement concernant leur modèle économique. Le premier, parce qu’il ne met, dans le spectre de ses activités, que modérément l’accent sur le DI, laissant un point d’interrogation sur son investissement à long terme. Le second, parce que lui aussi ne priorise que modestement la DI, tendant parfois à la confondre avec la BI.

ACTICO et Quantexa peuvent progresser sur l’expérience client

Deux « leaders » ont droit à un mauvais point sur l’expérience client.
Chez ACTICO, les études de cas et plus globalement les preuves de ROI manquent, en plus d’une clientèle parfois moins satisfaite des fonctionnalités que chez les concurrents.

Chez Quantexa, la satisfaction est variable sur des capacités critiques (optimisation, simulation…), en plus d’un turnover plus important tant dans les fonctions techniques que dans celles qui interagissent avec le client.

Illustration © kwanchaift – Adobe Stock

The post De la BI à la DI, un glissement surtout terminologique ? appeared first on Silicon.fr.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 14:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

16 février 2026 à 12:31

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

13 février 2026 à 12:16

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

{ Tribune Expert } – Le vrai prix de l’ingestion de données

13 février 2026 à 10:42

Les plateformes d’ingestion de données sont souvent perçues comme un investissement coûteux. Cette perception, centrée sur leur prix affiché, ne tient pas compte du coût réel des solutions développées en interne. Entre dette technique, instabilité opérationnelle et pression sur les équipes, le choix de l’ingestion mérite d’être réévalué à l’aune du coût total de possession.

Comparer des prix ne suffit plus

Dans un contexte d’optimisation budgétaire permanente, l’ingestion de données est encore trop souvent considérée comme un poste secondaire. Le raisonnement est connu : pourquoi payer une plateforme spécialisée quand une équipe interne peut construire des flux “maison” avec les outils disponibles ?

Ce calcul, en apparence rationnel, repose sur une illusion comptable. Il compare une dépense explicite à une dépense implicite. Il oppose une ligne budgétaire visible à une réalité économique éclatée, diffuse, sous-estimée. Et il fait perdre de vue l’essentiel ; dans un système d’information moderne, l’ingestion n’est pas un projet ponctuel, c’est une fonction continue, critique et structurante.

La fausse économie des pipelines internes

Le développement de pipelines en interne est perçu comme un levier de flexibilité. Il l’est, mais à un prix que peu d’entreprises sont capables de mesurer. Derrière chaque ingestion artisanale se cachent des heures de configuration, de patchs, de réajustements, de surveillance.

Ces tâches mobilisent des profils techniques hautement qualifiés, souvent en tension sur d’autres priorités. À mesure que les sources de données se multiplient, que les formats évoluent, que les systèmes en amont se transforment, ces pipelines deviennent fragiles, rigides, coûteux à faire évoluer.

Il ne s’agit plus d’outillage, mais de dette technique. Cette dette ne se voit pas sur une facture, mais pèse dans les délais, dans la qualité des données, dans la frustration des équipes. Elle enferme les entreprises dans une logique de réparation continue.

Chaque incident absorbe des journées entières, retarde des projets, impose des arbitrages entre maintien en conditions opérationnelles et développement de nouvelles capacités. Et surtout, elle crée une dépendance à des individus. Ce n’est pas le système qui garantit la fiabilité, ce sont des personnes-clés, difficilement remplaçables, dont l’indisponibilité ou le départ devient un risque opérationnel majeur.

L’ingestion instable contamine toute la chaîne de valeur

Ce qui dysfonctionne dans l’ingestion ne reste jamais confiné à l’IT. Lorsque les données n’arrivent pas à temps, ou arrivent incomplètes, ou dans un format inutilisable, c’est toute la chaîne de valeur qui vacille.

Les équipes métiers prennent des décisions sur la base d’informations erronées ou obsolètes. Les outils d’analyse produisent des indicateurs incohérents. Les alertes automatiques se déclenchent trop tard ou à tort. L’ensemble du système perd en fiabilité, et avec lui, la capacité de l’entreprise à se coordonner, à anticiper, à réagir.

Ce coût opérationnel est rarement chiffré, mais ses effets sont bien réels. Il ralentit les cycles de décision. Il détériore la confiance dans les données. Il alimente un climat de suspicion entre les équipes techniques et les métiers. Et il oblige les organisations à surdimensionner leur système de contrôle pour compenser ce que l’ingestion aurait dû fiabiliser en amont.

La perspective financière : sortir de l’illusion du gratuit

Pour les directions financières, cette situation pose un vrai problème de gouvernance. Ce n’est pas la préférence d’un outil sur un autre qui est en jeu, mais la capacité à appliquer une logique d’investissement cohérente.

Comparer une plateforme au coût apparent élevé à une solution interne supposément gratuite revient à nier l’existence des coûts cachés. Or, dans un système complexe, ces coûts invisibles finissent toujours par réapparaître, sous la forme de retards, de burn-out, de turn-over, de projets gelés ou avortés.

À l’inverse, une plateforme d’ingestion expose ses coûts. Elle formalise un engagement de service. Elle mutualise des efforts de maintenance, d’évolution, de conformité. Et surtout, elle introduit de la prévisibilité. Elle permet de planifier, de budgéter, d’industrialiser. Elle transforme une dette en charge maîtrisée. La discipline financière rend visible ce qui est structurellement opaque.

La perspective technologique : l’infrastructure avant tout

Du côté des directions informatiques, le constat est encore plus limpide. L’ingestion ne fait pas partie des domaines où l’entreprise peut se différencier. Aucun client ne choisira un produit parce que ses pipelines sont faits maison. En revanche, tous les services numériques reposent sur des données fiables, disponibles, bien synchronisées. L’ingestion est donc une fonction d’infrastructure. Comme pour le réseau, la cybersécurité, ou encore le stockage, la question n’est pas d’innover, mais d’assurer. Et dans cette logique, l’externalisation à un outil robuste, éprouvé, maintenu, s’impose comme un choix de bon sens.

Confier l’ingestion à une plateforme dédiée permet aux équipes internes de se concentrer sur les vrais enjeux différenciants comme l’architecture, la gouvernance, la qualité et l’analyse. Continuer à bricoler l’ingestion en interne, c’est détourner des ressources rares de leur cœur de mission.

Ce n’est pas la plateforme qui coûte cher, c’est l’improvisation

Dire qu’une plateforme d’ingestion est trop chère, c’est se tromper d’indicateur. Ce qui pèse le plus lourd dans les bilans, ce ne sont pas les lignes de licence, ce sont les heures perdues, les erreurs accumulées, les décisions mal orientées. Ce n’est pas la dépense visible qui menace la compétitivité, c’est l’instabilité tolérée. Dans un environnement où la donnée est vitale, chaque faille d’ingestion est une brèche dans le fonctionnement global.

L’heure n’est plus à la comparaison des devis. Elle est à la mesure de la résilience. Et à ce jeu-là, la question n’est plus de savoir combien coûte une plateforme, mais l’absence de celle-ci.

*Virginie Brard est RVP France & Benelux chez Fivetran

The post { Tribune Expert } – Le vrai prix de l’ingestion de données appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 14:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes

12 février 2026 à 12:14

Centres d’appels, support technique dans les casinos, assistants IA pour tous les collaborateurs…le Groupe Barrière déploie l’intelligence artificielle sur trois fronts simultanés.

L’acteur centenaire de l’hôtellerie de luxe, qui compte 33 établissements de jeux et 20 hôtels, expérimente avec méthode. Salomon Bentolila, Directeur Data & Acquisition, pilote le projet avec le cabinet de conseil Artefact comme prestataire.

Une feuille de route autour de trois axes

Son approche repose sur trois objectifs clairement définis. Premier axe, l’amélioration de la productivité et des opérations : l’IA est accessible à tous les employés, quel que soit leur niveau de maîtrise technologique, et s’applique à tous les secteurs d’activité. Deuxième axe, la transformation de l’expérience client et employé : les chatbots et solutions d’assistance par IA améliorent l’efficacité opérationnelle sans compromettre l’excellence du service. Enfin, le Groupe expérimente de nouveaux modèles commerciaux pour se différencier grâce à l’IA générative.

Il a ainsi développé une plateforme d’IA générative articulée autour de trois agents principaux, déployés progressivement selon une approche itérative.

Barrière GPT : démocratiser l’accès à l’IA

Basé sur Gemini, Barrière GPT offre un accès sécurisé à un modèle de langage avancé. La plateforme intègre des bibliothèques de prompts que les équipes peuvent partager et réutiliser. Déployé auprès d’une centaine de collaborateurs, l’outil a déjà généré plus de 4 000 prompts.

« Nous apprenons et progressons très vite en questionnant les choses. Google intègre de nombreuses fonctionnalités dans son Workspace. Cela soulève la question : devons-nous maintenir Barrière GPT ou nous appuyer sur des outils natifs ? Nous restons agiles », explique Salomon Bentolila.

Cette phase pilote permet d’évaluer l’adoption réelle et d’ajuster la stratégie en temps réel, plutôt que de s’engager dans un déploiement massif.

Agent centre d’appels : centraliser l’information

Les conseillers devaient consulter de multiples sources – procédures, catalogues de produits – et perdaient un temps précieux lors des interactions clients. L’équipe a développé un agent basé sur l’architecture RAG (Retrieval-Augmented Generation) qui centralise toute la documentation commerciale.

Les résultats sont probants : plus de 1 000 interactions générées par plus de 60 utilisateurs actifs, avec un score de satisfaction de 3,64/4. Le déploiement est prévu dans tous les centres d’appels du Groupe.

Support Barrière Play : une assistance 24/7

Barrière Play est une application permettant aux clients de se connecter aux machines à sous grâce à un portefeuille électronique rechargeable. Face aux problèmes techniques que les équipes terrain ne maîtrisaient pas toujours, le Groupe a créé une FAQ intégrée à un système RAG offrant une assistance par IA 24h/24 et 7j/7.

Testé dans trois casinos pilotes, il compte plus de 350 questions, plus de 30 utilisateurs actifs et un score de satisfaction de 3,77/4.

L’adoption utilisateur, clé de la réussite

« Nos employés du centre d’appels ont déjà accès à une trentaine d’outils. Cela représentait un outil supplémentaire à maîtriser. Il fallait donc que l’investissement en vaille vraiment la peine », souligne Salomon Bentolila.

Les retours terrain ont nécessité des ajustements. Pour les centres d’appels, les équipes ont dû améliorer la qualité des bases documentaires dans les RAG et démontrer la valeur ajoutée de manière concrète. Pour l’agent Barrière Play, l’interface initiale via Google Chat n’étant pas adaptée aux collaborateurs mobiles, le Groupe a intégré l’agent directement dans les outils de gestion via API.

LLM en tant que juge : garantir la qualité

La pérennité du système repose sur un contrôle rigoureux. Artefact et Groupe Barrière ont mis en place un système de juge-expert pour évaluer en continu la pertinence des réponses. Cette méthodologie se déroule en quatre étapes. D’abord, la création de bibliothèques de données de référence avec des paires question/réponse annotées. Ensuite, la génération de réponses via l’agent RAG à évaluer. Puis, un expert en droit attribue automatiquement une note de 1 à 4 à la prédiction, avec une justification explicite. Enfin, la révision des justifications et la modification du contexte de l’agent/RAG.

Ce cycle d’amélioration continue renforce la confiance des utilisateurs et garantit la fiabilité à long terme.

Avec plus de 5 000 demandes générées, le Groupe prévoit de nouveaux cas d’utilisation en 2026. L’agilité demeure la priorité.

« Plutôt que de suivre une feuille de route rigide, nous privilégions la saisie des opportunités susceptibles d’intéresser nos équipes. Nous définissons un budget que nous déployons en fonction des besoins », conclut Salomon Bentolila.

Photo : © DR

The post Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes appeared first on Silicon.fr.

❌