Vue normale

Après la RAM et les CPU, le spectre d’une pénurie de disques durs

19 février 2026 à 12:41

Cette année, il sera difficile de se procurer des disques durs neufs chez Western Digital comme chez Seagate.

Les deux fabricants ont annoncé la couleur fin janvier, lors de la présentation de leurs résultats trimestriels. Le premier a déclaré que ses stocks pour 2026 étaient quasiment écoulés (« pretty much sold out »). Le deuxième a expliqué avoir « totalement alloué » sa capacité de production de disques durs pour serveurs – lesquels représentent 89 % de sa capacité vendue.

Western Digital dit merci à l’inférence

Western Digital affirme que ses 7 principaux clients ont des commandes fermes pour 2026. Trois d’entre eux ont des accords « robustes » pour 2027 ; un pour 2028.

La tendance est à signer les contrats plus en amont, et pour une durée plus longue. La conséquence d’une tension sur l’approvisionnement que Western Digital impute essentiellement à l’IA. En particulier à l’heure où la valeur bascule de « l’entraînement à l’inférence » : il faut stocker les données produites.

Sur le dernier trimestre fiscal, les 10 principaux clients ont représenté 76 % du chiffre d’affaires (contre 67 % un an plus tôt). En première ligne, les hyperscalers, sur lesquels Western Digital a d’ailleurs centré son organisation.

Sur le trimestre en question, le chiffre d’affaires a dépassé 3 milliards $ (dont 89 % grâce à l’activité datacenter), en progression annuelle de 25 %. La croissance est encore plus nette si on exclut l’activité de Sandisk, séparée en février 2025 (elle représentait alors environ un quart du CA).

D’autres indicateurs sont au vert : + 800 points de base pour la marge brute (45,7 %), + 680 pour la marge opérationnelle (30 %, notamment en conséquence d’une amélioration de la structure de coûts sur les nouvelles générations de disques durs) et + 62 % pour le résultat d’exploitation (908 M$). Le résultat net (1,84 Md$) est « gonflé » par un reliquat de participation dans Sandisk valorisé à 1,1 Md$ – il est question de l’exploiter pour réduire la dette. La capacité livrée a atteint 215 exaoctets (+ 22 % sur un an).

Les prévisions pour le trimestre encore font état d’une hausse de 40 % du CA (milieu de fourchette) et d’une marge brute de 47 à 48 %.

Seagate prévoit « un bon profit » sur les éventuels disques durs supplémentaires

Seagate aussi constate que ses clients – à commencer par les fournisseurs cloud – projettent leur demande à plus long terme. Ce qui « démontre qu’assurer l’approvisionnement reste leur priorité ».

Le fabricant n’exclut pas de produire un peu plus de disques. Mais il ne cache pas qu’il les commercialisera « avec un bon profit », dans un contexte de « demande exceptionnellement forte », en particulier pour les datacenters.

Les indicateurs financiers progressent dans des échelles comparables à celles de Western Digital. Sur le dernier trimestre fiscal de Seagate, le chiffre d’affaires a crû de 22 %, atteignant 2,83 Md$ (dont 79 % sur le segment datacenter). La marge brute a augmenté de 670 points de base (42,2 %) ; la marge opérationnelle, de 880 points (29,9 %) ; le résultat d’exploitation, de 72 % (843 M$).

La capacité livrée s’élève à 190 Eo (+ 26 % sur un an), dont 87 % pour le datacenter. La capacité moyenne des disques durs serveur livrés a augmenté de 22 %, avoisinant 23 To (26 To pour ceux vendus aux fournisseurs cloud).

Les prévisions pour le trimestre en cours situent le chiffre d’affaires autour de 2,9 Md$. Et la marge opérationnelle autour de 35 %. « La demande dictera le prix », a affirmé Seagate, qui estime que ses revenus et profits devraient croître de trimestre en trimestre.

La demande se reporte sur les SSD

Ces éléments confirment les signaux perçus au moins depuis l’automne dernier. Face aux difficultés d’approvisionnement en disques durs, une partie de la demande a basculé sur les SSD… dont les prix se sont envolés. A fortiori dans le contexte de la pénurie de puces mémoire.

Cette dernière découle essentiellement de la « course à l’IA » que se livrent les hyperscalers. Et de la demande en GPU qui en résultent. Pour faire tourner des modèles, ils ont besoin de mémoire à large bande passante. À mesure que la fabrication se réoriente sur ce type de DRAM, les autres modules se raréfient.

En parallèle, divers signaux accréditent l’hypothèse d’une future pénurie de CPU, notamment pour serveurs. Depuis quelques mois, Intel emploie, dans sa communication publique, le mot shortage. Qu’on peut traduire par « manque »… ou « pénurie ». Il ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande. Avant tout en processeurs Xeon (son activité datacenter vient de connaître une croissance séquentielle « sans précédent depuis plus d’une décennie »). Le phénomène est renforcé par un yield en dessous des attentes. Il l’est aussi par la difficulté des fabricants de processeurs à alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. CPU sur lesquels l’IA elle-même tend à se déporter, vu la rareté et la cherté des GPU.

Illustration générée par IA

The post Après la RAM et les CPU, le spectre d’une pénurie de disques durs appeared first on Silicon.fr.

L’INESIA a sa feuille de route… et son défi de coopération internationale

18 février 2026 à 09:27

« Au besoin », « si nécessaire », « selon les opportunités »… L’INESIA se laisse de la marge dans sa première feuille de route officielle.

Cet institut public pour l’évaluation et la sécurité de l’intelligence artificielle est né début 2025. Le SGDSN (Secrétariat général de la défense et de la sécurité nationale) et la DGE (Direction générale des entreprises) le pilotent. Il fédère l’Inria, le LNE (Laboratoire national de métrologie et d’essais), l’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique).

Derrière l’INESIA, un réseau international

L’INESIA a une roadmap d’autant plus ouverte que son activité s’inscrit dans un réseau international d’AISI (AI Safety Institutes). Au dernier pointage, 9 pays en sont membres : Australie, Canada, Corée du Sud, États-Unis, France, Japon, Kenya, Royaume-Uni et Singapour. L’Union européenne l’est aussi, via son Bureau de l’IA.

Londres et Washington furent les premiers à officialiser la mise en place de leur AISI. C’était en novembre 2023. Aux États-Unis, la structure est hébergée par le NIST, rattaché au département du Commerce. Au Royaume-Uni, l’AISI a pris le relais de la Foundation Model Taskforce, établie en avril de la même année au sein du département gouvernemental pour la Science, l’Innovation et la Technologie – et rebaptisée Frontier AI Taskforce en septembre.

Une coopération formelle entre ces deux AISI avait émergé en avril 2024, « sur au moins une évaluation ». En toile de fond, la pression d’entreprises technologiques – au premier rang desquelles Meta – qui en appelaient à des règles et procédures d’évaluation communes avant d’ouvrir leurs modèles.

Entre-temps, le Japon avait créé son AISI (février 2024), au sein de l’Agence de promotion des technologies de l’information, rattachée au ministère de l’Économie. Le Canada avait suivi en avril. Puis la Corée du Sud et Singapour en mai, lors du Sommet de l’IA de Séoul.

Le réseau international des AISI avait été formalisé à la même occasion. Sa première réunion officielle eut lieu en novembre 2024. La déclaration de mission promettait une « complémentarité » et une « interopérabilité » entre les instituts, sans définir d’objectifs ou de mécanismes spécifiques à cet égard.

De la « sûreté » à la « science de la mesure » : un recentrage des activités

En décembre 2025, le réseau a officialisé le recentrage de ses travaux sur « la science de la mesure et de l’évaluation des IA ». Objectif : s’assurer de suivent le rythme des développements technologiques. Il a changé de nom en parallèle, devenant « International Network for Advanced AI Measurement ». Exit, donc l’aspect « safety ». Le Royaume-Uni a suivi le même chemin, son AI Safety Institute devenant AI Security Institute.

En amont du Sommet de l’IA qui se déroule actuellement en Inde, le réseau a publié une liste de principes d’évaluation sur lesquels ses membres se sont accordés. Parmi elles, dans les grandes lignes :

  • Objectifs clairs
  • Transparence et reproductibilité
  • Adaptation des paramètres au type d’évaluation
  • Processus d’assurance qualité intégré dans la conception et dans les résultats
  • Points-clés compréhensibles par des non-spécialistes
  • Résultats généralisables
  • Prise en compte de la diversité linguistique et culturelle

Des questions restent ouvertes. Entre autres sur l’intérêt d’utiliser des modèles de risque, sur les éléments à partager, sur la flexibilité des modèles de rapports d’évaluation et sur la gestion des systèmes agentiques.

Cybersécurité de l’IA, détection des contenus synthétiques… Des travaux à poursuivre

L’INESIA l’affirme : il avancera « selon le programme de travail du réseau ».

Sa feuille de route 2026-2027 s’articule en trois pôles thématiques – « Appui à la régulation », « Risques systémiques » et « Performance et Fiabilité » – auxquels s’ajoute un axe transversal.

En matière d’appui à la régulation, il s’agira notamment de fournir des outils aux autorités chargées de contrôler les systèmes d’IA à haut risque. L’INESIA compte aussi favoriser les échanges entre ses membres sur les sujets de normalisation, en soutien aux exigences de conformité de l’AI Act.

Ce pôle thématique englobe également la détection de contenus artificiels. Sur ce point, l’INESIA poursuivra les travaux du PEReN et de Viginum (service de vigilance et de protection contre les ingérences numériques étrangères, intégré au SGDSN). Ils se sont traduits par la publication, en source ouverte, de « métadétecteurs » de contenus synthétiques (texte, images). Et d’une bibliothèque pour évaluer ces détecteurs. En ligne de mire, une extension à l’audio et à la vidéo.

L’INESIA doit par ailleurs contribuer au développement de méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA et des produits de cybersécurité qui embarquent de l’IA. Dans ce domaine, il s’appuiera sur un projet que pilote l’ANSSI : SEPIA (Sécurité des produits intégrant de l’IA). Et impliquera l’AMIAD (Agence ministérielle pour l’IA de défense), ainsi que le réseau des CESTI (Centres d’évaluations de la sécurité des technologies de l’information).

Un premier socle d’expérimentations conjointes sur les risques systémiques

Les missions de l’INESIA touchent aussi au développement d’une expertise technique sur l’évaluation et l’atténuation des risques systémiques. En tête de liste, la manipulation de l’information, l’assistance aux attaques informatiques et le développement de NRBC (armes nucléaires, radiologiques, biologiques et chimiques).

De cette expertise devront résulter des protocoles d’évaluation et de détection exploitables à la fois par les développeurs et les régulateurs. Ainsi que des méthodes d’atténuation associées à des outils open source « si opportun ».

La caractérisation et l’atténuation des risques systémiques se portera également sur les systèmes agentiques. Là aussi, l’INESIA n’exclut pas de s’appuyer sur l’existant, que ce soit en termes de protocoles d’évaluation ou d’implémentations.

La poursuite des activités conduites dans le cadre du réseau des AISI vaut aussi sur ce pôle thématique. Le premier livrable avait été publié l’an dernier au Sommet de l’IA. Il rendait compte d’expérimentations conjointes. Menées principalement par Singapour, le Japon et le Royaume-Uni, elles ont testé, d’une part, la robustesse cyber de deux modèles. De l’autre, les réponses fournies en fonction de la langue de l’utilisateur. La France a fourni le jeu de données d’évaluation cyber et mesuré les risques de sécurité pour les interactions en langue française.

La perspective d’une infrastructure d’évaluation des systèmes d’IA

Le pôle « Performance et fiabilité » consiste essentiellement en l’organisation de défis sur des tâches d’évaluation spécifiques.

L’axe transverse inclut de l’animation scientifique et une mutualisation des travaux de veille des membres de l’INESIA. Il comprend surtout l’objectif principal de l’institut : constituer une infrastructure d’évaluation des systèmes d’IA à partir des cas d’usage qui auront été identifiés.

Illustration générée par IA

The post L’INESIA a sa feuille de route… et son défi de coopération internationale appeared first on Silicon.fr.

Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source

17 février 2026 à 14:33

Avec les IA, mieux vaut parler Markdown que HTML.

Cloudflare, comme bien d’autres, invite à privilégier ce format. Tant pour la lisibilité que pour les économies de tokens. Jusque-là, il proposait une API de conversion intégrée notamment dans son offre Workers AI*.

S’y ajoute désormais une fonctionnalité « automatisée » intégrée à la console. Dite « Markdown for Agents », elle est en bêta, sans surcoût, pour les abonnés Pro, Business et Enterprise – ainsi que sur SSL for SaaS.

Sur les zones qui utilisent des en-têtes de négociation de contenu, elle déclenche – au possible – une conversion des pages HTML à la volée lorsqu’une IA exprime sa préférence pour le format Markdown. Cela passe par l’en-tête Accept et le paramètre text/markdown. Un système qu’exploitent déjà des agents tel Claude Code.

La réponse inclut systématiquement des en-têtes x-markdown-tokens et Content-Signal. Le premier donne une estimation du poids du document Markdown en tokens. Le second signale, par défaut, que le contenu peut être utilisé pour l’entraînement d’IA comme pour l’input (inférence) et pour les résultats de recherche.

* Cette option gère la conversion d’autres formats que le HTML, ainsi que le résumé du contenu.

À consulter en complément :

De l’UX à l’AX : penser les interfaces pour les agents IA
A2A, ACP, agents.json… Que deviennent ces protocoles agentiques ?
ROI de l’IA générative : la tentation du prisme court-termiste
Les acquisitions de Cloudflare sous l’ère ChatGPT

Illustration générée par IA

The post Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source appeared first on Silicon.fr.

Qu’est-ce que WebMCP, qui vise la standardisation W3C ?

17 février 2026 à 13:24

Ajoutez une cinquantaine de lignes de code à votre site… et il devient un serveur MCP.

À l’été 2025, un développeur, ancien d’Amazon, avait lancé un projet open source portant cette promesse : MCP-B (« MCP for the Browser »). L’idée était d’exploiter JavaScript pour exposer les fonctionnalités de pages web aux agents IA directement dans les navigateurs. Le protocole sous-jacent s’appelait WebMCP. Il reposait notamment sur un mécanisme de transport permettant la communication client-serveur au sein d’un même onglet.

Un premier brouillon de spécification W3C

L’initiative existe toujours. Mais elle est aujourd’hui emmenée par Google et Microsoft, sous la bannière WebMCP et sous l’aile du W3C. Le fondement demeure : exposer des « outils » sous forme de fonctions JavaScript, avec des schémas structurés et des descriptions en langage naturel.

Une première ébauche de spécification vient d’être publiée. Elle introduit une interface window.navigator.modelContext. Et avec elle, plusieurs méthodes pour gérer la liste des outils :

  • provideContext, pour l’actualiser intégralement
    Idéal pour les applications monopage, où il peut être souhaitable de présenter des outils différents en fonction de l’état de l’UI.
  • registerTool et unregisterTool, respectivement pour ajouter et supprimer des outils sans réintialiser toute la liste

Les fonctions peuvent éventuellement être asynchrones. Il est possible d’en dédier la gestion à des workers.

Google propose depuis peu de tester WebMCP dans le programme EPP de Chrome, à travers deux API. Une déclarative pour permettre aux agents d’effectuer des actions standards définissables dans les formulaires HTML. Une impérative pour les interactions dynamiques nécessitant JavaScript.

La sécurité, pas encore au cœur des travaux

Sur le papier, WebMCP ouvre la voie à une codebase unique pour l’UI et l’intégration des agents. Tout en favorisant la confidentialité (traitement local) et la collaboration homme-machine (même interface, avec davantage de visibilité sur les actions).
L’arbitrage des accès est laissé au navigateur, qui peut appliquer ses propres politiques de sécurité. Cette intermédiation du flux de contrôle assure par ailleurs une rétrocompatibilité entre les versions de WebMCP.

Dans la pratique, il n’existe pas de mécanisme intégré pour synchroniser l’UI et l’état de l’application. Il n’en existe pas non plus pour découvrir les outils d’un site sans le visiter. Sur ce dernier point, le projet a exploré l’utilisation d’un manifeste que les agents récupéreraient en HTTP GET. Il l’a complété par un mécanisme d’exécution alternatif séparant la définition d’un outil et la fonction d’implémentation, en traitant les appels comme des événements.

La section sécurité/confidentialité de la spec est actuellement vide. Sur ce sujet, il y a, en l’état, bien plus de questions que de réponses. Des domaines d’attaque existants (CSRF, XSS…) s’appliqueraient-ils de façon spécifique à WebMCP ? Quels risques si on l’associe à d’autres fonctionnalités émergentes comme Web AI et la Prompt API ?…

Illustration générée par IA

The post Qu’est-ce que WebMCP, qui vise la standardisation W3C ? appeared first on Silicon.fr.

De la BI à la DI, un glissement surtout terminologique ?

16 février 2026 à 16:03

Le descriptif d’un côté, le presciptif de l’autre.

Dans le jargon de l’informatique décisionnelle, une opposition terminologique s’est structurée sur ce fondement, entre BI (business intelligence) et DI (decision intelligence). Le premier trouvant une continuité dans le second, avec la promesse de combler l’écart entre les insights et les actions qui en découlent.

Gartner a fini par s’emparer de ce glissement lexical, publiant son premier Magic Quadrant dédié à la DI. Le cabinet américain estime que ce segment se trouve « sur la fin de sa phase d’émergence », accompagnant un basculement du « data-driven » au « decision-centric ». Il y inclut un bouquet de technologies – moteurs de règles, machine learning, préparation de données, graphes, agents, optimisation, simulation… – susceptibles d’accompagner la modélisation, l’orchestration, la gouvernance et l’amélioration des décisions.

17 fournisseurs, 6 « leaders »

L’axe « exécution » du Magic Quadrant de la DI reflète la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation est la suivante :

Rang Fournisseur
1 FICO
2 SAS
3 Aera Technology
4 IBM
5 Decisions
6 ACTICO
7 Quantexa
8 Pegasystems
9 o9 Solutions
10 Oracle
11 Sapiens
12 InRule Technology
13 Faculty
14 FlexRule
15 Rulex
16 RelationalAI
17 CRIF

Sur l’axe « vision », qui reflète les stratégies (sectorielle, géographique, R&D, commerciale, marketing…) :

Rang Fournisseur
1 Quantexa
2 IBM
3 FICO
4 Aera Technology
5 ACTICO
6 SAS
7 Sapiens
8 Faculty
9 Pegasystems
10 o9 Solutions
11 FlexRule
12 Decisions
13 InRule Technology
14 Rulex
15 RelationalAI
16 Oracle
17 CRIF

Six fournisseurs se trouvent dans le carré des « leaders ». Quatre sont américains (Aera Technologies, FICO, IBM, SAS) ; un, allemand (ACTICO) ; un, anglais (Quantexa).

Ils sont trois à être également classés dans le dernier Magic Quadrant de la BI : Oracle (« leader »), IBM et SAS (tous deux « visionnaires »).

FICO et IBM ne se distinguent pas sur l’approche sectorielle…

Quantexa et SAS ont droit à des remarques positives concernant leur stratégie sectorielle. Chacun pour sa feuille de route claire et ses partenariats.

On ne peut pas en dire autant pour FICO et IBM. Le premier, parce qu’il s’adresse essentiellement à l’industrie bancaire, touchant d’autres secteurs via des solutions sur lesquelles des partenaires ont le lead. Le second, parce que les dernières améliorations qu’il a apportées à sa plate-forme ne ciblaient pas de verticales spécifiques.

… ni sur le pricing, comme SAS

Quantexa se distingue aussi par sa tarification. Entre modèles à la consommation et axés sur la valeur, elle est flexible, comme d’ailleurs la contractualisation. Même constat chez Aera, plus globalement salué pour son exécution commerciale, marquée par une adoption croissante sur les différentes plaques géographiques. Quant à ACTICO, il sait adapter son approche aux profils d’acheteurs.

Chez FICO, le pricing à la consommation peut devenir complexe à mesure que l’usage vient couvrir des dimensions comme le stockage, les transactions et les modules complémentaires. Cette complexité peut également se retrouver chez IBM, avec qui la marge de négociation s’avère limitée. Ce dernier point vaut aussi pour SAS, qui n’a pas non plus une politique tarifaire des plus souples.

Des « anciens » à la forte assise financière

SAS, qui fête ses 50 ans en 2026, dispose d’une assise financière (croissance + profits) qui lui permet de maintenir un niveau d’investissement R&D sur le DI.
ACTICO (11 ans en 2026) aussi est profitable, avec une croissance constante de son chiffre d’affaires. Et Gartner salue également ses investissements R&D. Il n’en dit pas moins concernant FICO (70 ans en 2026), qui se distingue aussi par son taux de rétention client.

Aera (9 ans en 2026) n’a pas encore atteint la rentabilité. Et ses perspectives de croissance apparaissent plus restreintes que chez les concurrents, sa clientèle étant moins diversifiée en termes de secteurs d’activité.

ACTICO et Quantexa, pas salués pour leur marketing

Aera se distingue plus positivement sur sa stratégie marketing : les investissements sont importants, avec un message clair et cohérent et une capacité à quantifier les bénéfices métier.

ACTICO, au contraire, investit moins dans ce domaine que ses concurrents. Et son positionnement n’apparaît pas aligné sur les tendances du marché à moyen terme (2 à 5 ans).
Du côté de Quantexa, on a du mal à démontrer la valeur de manière consistante et à s’aligner sur les profils d’acheteurs. Les investissements dans le channel sont plus bas que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Des roadmaps globalement robustes

Non salué sur le marketing, Quantexa l’est en revanche pour sa compréhension du marché, traduite par des éléments différenciants dans son offre.
Bon point aussi pour Aera, que sa feuille de route positionne idéalement tant pour capter de nouveaux clients que remplacer des solutions concurrentes.
Roadmap également robuste pour IBM, avec de l’expérience sur l’orchestration agentique et une distinction claire opérée entre DI et data science/analytics. Le groupe américain a aussi tendance à livrer des fonctionnalités en avant sur le marché (langage naturel, agentique, simulation).
Chez ACTICO, Gartner apprécie la cadence de livraison de fonctionnalités et le respect constant des échéances de la feuille de route.

FICO, au contraire, a tendance à comparer sa plate-forme à des technologies relevant de segments annexes. Il la positionne en tout cas sur des appels d’offres qui touchent, par exemple, au CRM. En servant ainsi ces besoins adjacents, il est mal aligné avec certains besoins DI critiques, considère Gartner.

Aera et SAS, classés peu innovants

FICO a droit à un bon point sur le volet innovation. En première ligne, ses fonctionnalités d’automatisation et de simulation portées par un modèle de fondation. Ainsi que ses technologies brevetées pour l’explicabilité et l’atténuation des biais.

L’innovation est un point noir chez Aera, en tout cas au vu du peu de fonctionnalités distinctives incluses dans ses dernières releases.
Chez SAS, des capacités-clés (modélisation par GenAI, frameworks agentiques…) restent en développement ou ne sont pas encore disponibles globalement.

IBM et SAS ont l’avantage de l’empreinte géographique…

SAS a pour lui son empreinte globale, son écosystème de partenaires, son support multilingue, ses certifications de conformité régionales et ses options de déploiement flexibles.
IBM aussi se distingue par son réseau de partenaires, ainsi que par le niveau de régionalisation de ses investissements avant-vente.

Aera n’a pas la même présence géographique, jugée même « minimale » en Amérique du Sud et en Asie-Pacifique. Ses investissements avant-vente sont sous la moyenne. Son réseau en Amérique du Nord et en EMEA comprend surtout des partenaires globaux plutôt que locaux.

… mais laissent un point d’interrogation

Les deux « anciens » que sont IBM et SAS font l’objet d’un avertissement concernant leur modèle économique. Le premier, parce qu’il ne met, dans le spectre de ses activités, que modérément l’accent sur le DI, laissant un point d’interrogation sur son investissement à long terme. Le second, parce que lui aussi ne priorise que modestement la DI, tendant parfois à la confondre avec la BI.

ACTICO et Quantexa peuvent progresser sur l’expérience client

Deux « leaders » ont droit à un mauvais point sur l’expérience client.
Chez ACTICO, les études de cas et plus globalement les preuves de ROI manquent, en plus d’une clientèle parfois moins satisfaite des fonctionnalités que chez les concurrents.

Chez Quantexa, la satisfaction est variable sur des capacités critiques (optimisation, simulation…), en plus d’un turnover plus important tant dans les fonctions techniques que dans celles qui interagissent avec le client.

Illustration © kwanchaift – Adobe Stock

The post De la BI à la DI, un glissement surtout terminologique ? appeared first on Silicon.fr.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 14:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

16 février 2026 à 12:31

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

13 février 2026 à 12:16

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

{ Tribune Expert } – Le vrai prix de l’ingestion de données

13 février 2026 à 10:42

Les plateformes d’ingestion de données sont souvent perçues comme un investissement coûteux. Cette perception, centrée sur leur prix affiché, ne tient pas compte du coût réel des solutions développées en interne. Entre dette technique, instabilité opérationnelle et pression sur les équipes, le choix de l’ingestion mérite d’être réévalué à l’aune du coût total de possession.

Comparer des prix ne suffit plus

Dans un contexte d’optimisation budgétaire permanente, l’ingestion de données est encore trop souvent considérée comme un poste secondaire. Le raisonnement est connu : pourquoi payer une plateforme spécialisée quand une équipe interne peut construire des flux “maison” avec les outils disponibles ?

Ce calcul, en apparence rationnel, repose sur une illusion comptable. Il compare une dépense explicite à une dépense implicite. Il oppose une ligne budgétaire visible à une réalité économique éclatée, diffuse, sous-estimée. Et il fait perdre de vue l’essentiel ; dans un système d’information moderne, l’ingestion n’est pas un projet ponctuel, c’est une fonction continue, critique et structurante.

La fausse économie des pipelines internes

Le développement de pipelines en interne est perçu comme un levier de flexibilité. Il l’est, mais à un prix que peu d’entreprises sont capables de mesurer. Derrière chaque ingestion artisanale se cachent des heures de configuration, de patchs, de réajustements, de surveillance.

Ces tâches mobilisent des profils techniques hautement qualifiés, souvent en tension sur d’autres priorités. À mesure que les sources de données se multiplient, que les formats évoluent, que les systèmes en amont se transforment, ces pipelines deviennent fragiles, rigides, coûteux à faire évoluer.

Il ne s’agit plus d’outillage, mais de dette technique. Cette dette ne se voit pas sur une facture, mais pèse dans les délais, dans la qualité des données, dans la frustration des équipes. Elle enferme les entreprises dans une logique de réparation continue.

Chaque incident absorbe des journées entières, retarde des projets, impose des arbitrages entre maintien en conditions opérationnelles et développement de nouvelles capacités. Et surtout, elle crée une dépendance à des individus. Ce n’est pas le système qui garantit la fiabilité, ce sont des personnes-clés, difficilement remplaçables, dont l’indisponibilité ou le départ devient un risque opérationnel majeur.

L’ingestion instable contamine toute la chaîne de valeur

Ce qui dysfonctionne dans l’ingestion ne reste jamais confiné à l’IT. Lorsque les données n’arrivent pas à temps, ou arrivent incomplètes, ou dans un format inutilisable, c’est toute la chaîne de valeur qui vacille.

Les équipes métiers prennent des décisions sur la base d’informations erronées ou obsolètes. Les outils d’analyse produisent des indicateurs incohérents. Les alertes automatiques se déclenchent trop tard ou à tort. L’ensemble du système perd en fiabilité, et avec lui, la capacité de l’entreprise à se coordonner, à anticiper, à réagir.

Ce coût opérationnel est rarement chiffré, mais ses effets sont bien réels. Il ralentit les cycles de décision. Il détériore la confiance dans les données. Il alimente un climat de suspicion entre les équipes techniques et les métiers. Et il oblige les organisations à surdimensionner leur système de contrôle pour compenser ce que l’ingestion aurait dû fiabiliser en amont.

La perspective financière : sortir de l’illusion du gratuit

Pour les directions financières, cette situation pose un vrai problème de gouvernance. Ce n’est pas la préférence d’un outil sur un autre qui est en jeu, mais la capacité à appliquer une logique d’investissement cohérente.

Comparer une plateforme au coût apparent élevé à une solution interne supposément gratuite revient à nier l’existence des coûts cachés. Or, dans un système complexe, ces coûts invisibles finissent toujours par réapparaître, sous la forme de retards, de burn-out, de turn-over, de projets gelés ou avortés.

À l’inverse, une plateforme d’ingestion expose ses coûts. Elle formalise un engagement de service. Elle mutualise des efforts de maintenance, d’évolution, de conformité. Et surtout, elle introduit de la prévisibilité. Elle permet de planifier, de budgéter, d’industrialiser. Elle transforme une dette en charge maîtrisée. La discipline financière rend visible ce qui est structurellement opaque.

La perspective technologique : l’infrastructure avant tout

Du côté des directions informatiques, le constat est encore plus limpide. L’ingestion ne fait pas partie des domaines où l’entreprise peut se différencier. Aucun client ne choisira un produit parce que ses pipelines sont faits maison. En revanche, tous les services numériques reposent sur des données fiables, disponibles, bien synchronisées. L’ingestion est donc une fonction d’infrastructure. Comme pour le réseau, la cybersécurité, ou encore le stockage, la question n’est pas d’innover, mais d’assurer. Et dans cette logique, l’externalisation à un outil robuste, éprouvé, maintenu, s’impose comme un choix de bon sens.

Confier l’ingestion à une plateforme dédiée permet aux équipes internes de se concentrer sur les vrais enjeux différenciants comme l’architecture, la gouvernance, la qualité et l’analyse. Continuer à bricoler l’ingestion en interne, c’est détourner des ressources rares de leur cœur de mission.

Ce n’est pas la plateforme qui coûte cher, c’est l’improvisation

Dire qu’une plateforme d’ingestion est trop chère, c’est se tromper d’indicateur. Ce qui pèse le plus lourd dans les bilans, ce ne sont pas les lignes de licence, ce sont les heures perdues, les erreurs accumulées, les décisions mal orientées. Ce n’est pas la dépense visible qui menace la compétitivité, c’est l’instabilité tolérée. Dans un environnement où la donnée est vitale, chaque faille d’ingestion est une brèche dans le fonctionnement global.

L’heure n’est plus à la comparaison des devis. Elle est à la mesure de la résilience. Et à ce jeu-là, la question n’est plus de savoir combien coûte une plateforme, mais l’absence de celle-ci.

*Virginie Brard est RVP France & Benelux chez Fivetran

The post { Tribune Expert } – Le vrai prix de l’ingestion de données appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 14:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes

12 février 2026 à 12:14

Centres d’appels, support technique dans les casinos, assistants IA pour tous les collaborateurs…le Groupe Barrière déploie l’intelligence artificielle sur trois fronts simultanés.

L’acteur centenaire de l’hôtellerie de luxe, qui compte 33 établissements de jeux et 20 hôtels, expérimente avec méthode. Salomon Bentolila, Directeur Data & Acquisition, pilote le projet avec le cabinet de conseil Artefact comme prestataire.

Une feuille de route autour de trois axes

Son approche repose sur trois objectifs clairement définis. Premier axe, l’amélioration de la productivité et des opérations : l’IA est accessible à tous les employés, quel que soit leur niveau de maîtrise technologique, et s’applique à tous les secteurs d’activité. Deuxième axe, la transformation de l’expérience client et employé : les chatbots et solutions d’assistance par IA améliorent l’efficacité opérationnelle sans compromettre l’excellence du service. Enfin, le Groupe expérimente de nouveaux modèles commerciaux pour se différencier grâce à l’IA générative.

Il a ainsi développé une plateforme d’IA générative articulée autour de trois agents principaux, déployés progressivement selon une approche itérative.

Barrière GPT : démocratiser l’accès à l’IA

Basé sur Gemini, Barrière GPT offre un accès sécurisé à un modèle de langage avancé. La plateforme intègre des bibliothèques de prompts que les équipes peuvent partager et réutiliser. Déployé auprès d’une centaine de collaborateurs, l’outil a déjà généré plus de 4 000 prompts.

« Nous apprenons et progressons très vite en questionnant les choses. Google intègre de nombreuses fonctionnalités dans son Workspace. Cela soulève la question : devons-nous maintenir Barrière GPT ou nous appuyer sur des outils natifs ? Nous restons agiles », explique Salomon Bentolila.

Cette phase pilote permet d’évaluer l’adoption réelle et d’ajuster la stratégie en temps réel, plutôt que de s’engager dans un déploiement massif.

Agent centre d’appels : centraliser l’information

Les conseillers devaient consulter de multiples sources – procédures, catalogues de produits – et perdaient un temps précieux lors des interactions clients. L’équipe a développé un agent basé sur l’architecture RAG (Retrieval-Augmented Generation) qui centralise toute la documentation commerciale.

Les résultats sont probants : plus de 1 000 interactions générées par plus de 60 utilisateurs actifs, avec un score de satisfaction de 3,64/4. Le déploiement est prévu dans tous les centres d’appels du Groupe.

Support Barrière Play : une assistance 24/7

Barrière Play est une application permettant aux clients de se connecter aux machines à sous grâce à un portefeuille électronique rechargeable. Face aux problèmes techniques que les équipes terrain ne maîtrisaient pas toujours, le Groupe a créé une FAQ intégrée à un système RAG offrant une assistance par IA 24h/24 et 7j/7.

Testé dans trois casinos pilotes, il compte plus de 350 questions, plus de 30 utilisateurs actifs et un score de satisfaction de 3,77/4.

L’adoption utilisateur, clé de la réussite

« Nos employés du centre d’appels ont déjà accès à une trentaine d’outils. Cela représentait un outil supplémentaire à maîtriser. Il fallait donc que l’investissement en vaille vraiment la peine », souligne Salomon Bentolila.

Les retours terrain ont nécessité des ajustements. Pour les centres d’appels, les équipes ont dû améliorer la qualité des bases documentaires dans les RAG et démontrer la valeur ajoutée de manière concrète. Pour l’agent Barrière Play, l’interface initiale via Google Chat n’étant pas adaptée aux collaborateurs mobiles, le Groupe a intégré l’agent directement dans les outils de gestion via API.

LLM en tant que juge : garantir la qualité

La pérennité du système repose sur un contrôle rigoureux. Artefact et Groupe Barrière ont mis en place un système de juge-expert pour évaluer en continu la pertinence des réponses. Cette méthodologie se déroule en quatre étapes. D’abord, la création de bibliothèques de données de référence avec des paires question/réponse annotées. Ensuite, la génération de réponses via l’agent RAG à évaluer. Puis, un expert en droit attribue automatiquement une note de 1 à 4 à la prédiction, avec une justification explicite. Enfin, la révision des justifications et la modification du contexte de l’agent/RAG.

Ce cycle d’amélioration continue renforce la confiance des utilisateurs et garantit la fiabilité à long terme.

Avec plus de 5 000 demandes générées, le Groupe prévoit de nouveaux cas d’utilisation en 2026. L’agilité demeure la priorité.

« Plutôt que de suivre une feuille de route rigide, nous privilégions la saisie des opportunités susceptibles d’intéresser nos équipes. Nous définissons un budget que nous déployons en fonction des besoins », conclut Salomon Bentolila.

Photo : © DR

The post Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes appeared first on Silicon.fr.

L’infrastructure à l’ère de l’IA : les choix techniques qui engagent l’avenir

11 février 2026 à 10:23

L’adoption de l’IA en entreprise ne se limite plus à des expérimentations et des proof of concept. Pour l’industrialiser, il est désormais nécessaire de repenser en profondeur l’infrastructure IT, avec des choix structurants qui engagent l’organisation sur le long terme. C’est précisément l’objet de cette matinale organisée par Silicon.

La première table ronde attaque un sujet majeur : « Cloud, On-premise ou Hybride : Quel socle technique pour maîtriser les coûts et la puissance de calcul ? »

Face à l’explosion des besoins en puissance de calcul, les directions IT doivent arbitrer entre l’internalisation de GPU pour garder le contrôle, le recours au cloud pour sa flexibilité, ou une approche hybride. Jean-Jacques Mok, Cloud Program Manager chez MATMUT, et Grégoire Martinon, AI Research Director chez EMERTON, partageront leurs retours d’expérience sur ces décisions où se mêlent performance, souveraineté des données et maîtrise des coûts.

Sécurité et résilience, deux piliers non négociables

L’intelligence artificielle amplifie les risques autant qu’elle offre d’opportunités. La matinale Silicon accorde une place centrale aux enjeux de cybersécurité et de continuité d’activité, deux priorités absolues pour tout CISO.

La seconde table ronde abordera cet enjeu crucial : « De la conception à la production : sécuriser les pipelines et gouverner la donnée à l’ère des LLM ». Avec Chahir Al Echi, responsable du service Experts Cybersécurité à la Caisse des dépôts, et Franck Rouxel de la Fédération Française de Cybersécurité, les échanges porteront sur la gouvernance des données à l’ère des LLM, la protection des modèles, et l’industrialisation sécurisée de l’IA. Car déployer un modèle d’IA en production, c’est ouvrir de nouvelles surfaces d’attaque qu’il faut anticiper et protéger.

Un format pensé pour les décideurs IT

Le programme alterne intelligemment tables rondes thématiques et interventions de partenaires technologiques (Vertiv, Fivetran), permettant de croiser les perspectives stratégiques et les approches techniques.

Pour les CIO, cet événement permet de confronter leurs choix d’infrastructure aux retours d’expérience de pairs confrontés aux mêmes dilemmes : où placer le curseur entre performance et coûts ? Comment justifier des investissements massifs en GPU ?

Pour les CISO, c’est l’occasion de comprendre comment sécuriser des chaînes de traitement IA complexes, où les données sensibles circulent entre multiples environnements, et comment assurer la résilience face à des menaces de plus en plus sophistiquées.

Pour les CTO, les échanges éclaireront les arbitrages techniques entre différentes architectures, et les critères de choix pour bâtir un socle évolutif capable d’absorber la croissance exponentielle des usages IA.

La Matinale Silicon  vous propose deux heures pour prendre de la hauteur, confronter ses réflexions à celles d’autres décideurs, et repartir avec des clés concrètes pour l’action.

Rejoignez-nous le 19 février en vous inscrivant ici.

The post L’infrastructure à l’ère de l’IA : les choix techniques qui engagent l’avenir appeared first on Silicon.fr.

Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel »

10 février 2026 à 17:32

L’IA générative n’est plus seulement utilisée pour développer des malwares : elle alimente aussi leur exécution.

En novembre 2025, Google avait proposé une analyse à ce sujet. Il avait donné plusieurs exemples. Dont celui d’un dropper VBScript faisant appel à l’API Gemini pour l’aider à obscurcir son code.

L’analyse est reprise en source dans l’International AI Safety Report 2026. Il s’agit du rapport « officiel » préfigurant le Sommet de l’IA qui se tiendra en Inde du 16 au 20 février. Comme celui de l’an dernier, il donne un instantané de la compréhension scientifique des IA généralistes, sous l’angle de la sûreté. Parmi les experts impliqués, il y a, côté français, Jonathan Collas  conseiller industrie et numérique au SGDSN. Et Gaël Varoquaux (Inria), chef de projet pour le consortium Scikit-learn.

Pour cette édition, la définition des « risques émergents » a été restreinte. Il s’agit désormais de ceux « qui naissent à la frontière des capacités de l’IA ». Une manière, nous explique-t-on, de mieux se poser en complément à des initiatives telles que le panel scientifique de l’ONU sur l’IA.

Des IA plus persuasives, mais une influence « non démontrée à l’échelle »

Depuis l’an dernier, les systèmes dit de raisonnement se sont répandus. Les performances en mathématiques, code et sciences en ont particulièrement bénéficié. Côté méthodes d’entraînement, le rapport met en avant la distillation, avec l’exemple de DeepSeek-R1, dont les chaînes de pensée ont nourri DeepSeek-V3.

Des avancées, il y en a aussi eu sur le contenu que génèrent les IA. Constat, dans les grandes lignes : il est devenu plus difficile à détecter. Pour l’illustrer, le rapport cite, entre autres, les observations de chercheurs de l’université de Californie à San Diego sur un test de Turing avec GPT-4o. Dans 77 % des cas, les participants ont considéré comme d’origine humaine un texte en fait créé par le LLM.
Une autre expérience citée émane d’UC Berkeley. Elle a porté sur le clonage de voix. Dans 80 % des cas, les participants ont pris l’IA pour le locuteur d’origine.

Autre étude d’UC Berkeley, autre aspect : les capacités de persuasion dont les IA font preuve. Elles se montrent parfois plus efficaces que l’humain. Les preuves en ce sens « se sont accumulées » ces derniers mois, précise le rapport, qui en dresse un tableau récapitulatif. Centré sur les effets négatifs (propagande politique, notamment), il témoigne cependant aussi d’effets potentiellement positifs, dont la réduction de l’adhésion aux théories du complot.

L’efficacité du contenu IA par rapport au contenu que crée l’humain n’est toutefois pas démontrée à l’échelle, nous explique-t-on. Cela peut s’expliquer par le coût de distribution et par l’effet de balance que suscite, en conditions réelles, l’exposition à des points de vue antagonistes.

Cybersécurité : pas encore d’IA à tout faire, même si la détection de vulnérabilités est acquise

Sur le volet cyber, la difficulté à établir des relations de cause à effet complique l’estimation du rôle de l’IA dans la sévérité et l’échelle des attaques.

Les LLM se révèlent en tout cas performants pour découvrir des vulnérabilités. À ce sujet, on nous mentionne le dernier DARPA AI Cyber Challenge. Lors de cette compétition, un système agentique s’est hissé dans les hauteurs du classement en découvrant 77 % des failles.

Malgré ces progrès, aucune attaque intégralement autonome n’a pour le moment été signalée. Au moins un incident s’en est néanmoins approché. Il a impliqué les services d’Anthropic. Celui-ci s’en est fait l’écho en novembre 2025, estimant que l’attaquant avait automatisé, par ce biais, 80 à 90 % du travail, l’humain n’intervenant que pour des décisions critiques.

De manière générale, le rapport invite à ne pas surestimer le potentiel actuel des IA. Ne serait-ce que parce que la plupart des évaluations n’englobent que des compétences isolées ; pas des attaques de bout en bout. Jusqu’ici, les outils à disposition ont surtout accéléré ou mise à l’échelle des méthodes existantes.

L’évolution de la balance entre usages offensifs et défensifs dépendra des choix sur l’accès aux modèles, le financement de la recherche et les normes de déploiement. Le manque de méthodes standards d’assurance qualité pour les outils IA, par exemple, complique leur adoption dans des secteurs critiques. Alors que dans le même temps, les acteurs de la menace n’ont pas cette contrainte…

Conscience situationnelle ne rime pas avec perte de contrôle

Quant aux dysfonctionnements et aux risques que cela implique, il y a, dans le rapport, à boire et à manger.

Des références à plusieurs études rappellent que des modèles ont démontré des capacités de conscience situationnelle. Autrement dit, une aptitude à détecter l’environnement dans lequel ils évoluent. De là la possibilité de se comporter différemment dans un scénario d’évaluation que dans le monde réel. Ou à dégrader artificiellement ses performances pour éviter des restrictions de déploiement. Ou encore à contourner sciemment des garde-fous pour remplir à tout prix un objectif, tout en le niant par après.

Le risque d’une perte de contrôle sur le long terme demeure cependant faible, faute de capacités à maintenir un fonctionnement autonome sur la durée.
Certes, cette durée s’est allongée dans quelques disciplines, à commencer par le codage. Mais un seul grain de sable peut faire dérailler la machine, comme l’illustre une étude universitaire axée sur la perturbation des systèmes langage-vision à partir d’une pop-up.

Le biais d’automatisation s’amplifie

Concernant l’impact de l’IA sur le marché du travail, le rapport cite des études – au Danemark et aux États-Unis – qui n’ont pas démontré de corrélation forte. Mais il en mentionne aussi plusieurs ayant conclu à un déclin de la demande en profils juniors.

L’amplification du « biais d’automatisation » apparaît plus claire. Déjà prononcé avec les systèmes automatisés « non IA », le phénomène se perpétue au contact des LLM. Le rapport cite deux études qui en témoignent. L’une démontre la tendance des utilisateurs d’outils d’assistance à l’écriture à adopter le point de vue que suggère le modèle. L’autre met en lumière le processus des raccourcis mentaux : sur une tâche d’annotation assistée, les participants ont moins corrigé les suggestion erronées venant d’une IA lorsque cela exigeait un effort supplémentaire.

Illustration générée par IA

The post Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel » appeared first on Silicon.fr.

IA dans le BTP : la révolution en mode test

10 février 2026 à 15:36

Entre enthousiasme et prudence, le secteur du Bâtiment et des Travaux Publics apprivoise progressivement l’intelligence artificielle. Si les outils d’IA générative se diffusent rapidement dans les fonctions administratives, l’intégration sur les chantiers reste encore balbutiante. Une étude inédite de l’Observatoire des métiers du BTP révèle les freins et les opportunités d’une transformation qui s’annonce inéluctable.

Menée début 2025 auprès de 621 dirigeants d’entreprises, elle révèle que moins de 10% des structures déclarent utiliser actuellement des solutions d’IA. Un retard ? Pas vraiment. Plutôt une prudence de bon aloi dans un secteur habitué à des transformations progressives et où l’échec d’un outil peut se mesurer en vies humaines, pas en lignes de code.

Car si 36% des entreprises se disent intéressées par un déploiement futur, les grandes manœuvres n’ont pas encore commencé. « On a vu des applications très intéressantes par des gens qui travaillent avec des monuments historiques », raconte le dirigeant d’une TPE du Bâtiment. « Ils font voler des drones qui scannent les façades et génèrent le plan au millimètre près. Mais ça intéresse peu de monde pour l’instant. »

L’IA générative s’invite dans les bureaux

Si c’est une révolution qui se profile, elle commence par les tâches les moins valorisées : la bureautique. Les assistants comme ChatGPT ou Copilot se diffusent à bas bruit dans les fonctions supports. Rédaction de mails, correction de documents, synthèse de réunions : autant de corvées administratives allégées par ces outils accessibles sur smartphone.

« Les conducteurs de travaux s’enregistrent avec ChatGPT pendant les réunions de chantier : l’IA fait les synthèses et prépare les mails automatiquement », explique le dirigeant d’une PME spécialisée dans la construction de maisons individuelles. « Ce sont avant tout des gens de terrain, avec une vraie valeur ajoutée sur le contrôle et le management des équipes. Là, clairement, ça leur libère du temps. »

L’usage peut même devenir plus sophistiqué. Une comptable d’une TPE a ainsi créé des « petits robots » avec l’IA générative : désormais, lorsqu’une facture arrive dans la GED, le système ouvre le document, identifie l’artisan et le chantier, crée les dossiers nécessaires et range le tout. « Un vrai changement de paradigme dans notre gestion quotidienne », se félicite le dirigeant.

Ces usages « masqués » ou  » Shadow AI » soulèvent toutefois la question de l’encadrement par l’entreprise. Car sans politique claire, chacun bidouille dans son coin avec des outils grand public dont la sécurité des données n’est pas garantie.

Sur les chantiers, des promesses encore lointaines

Au-delà des bureaux, les applications métiers restent largement au stade exploratoire. L’IA pourrait pourtant transformer en profondeur la planification des chantiers. Grâce à des algorithmes prédictifs, certaines solutions analysent en temps réel l’avancement des travaux, les conditions météorologiques et la disponibilité des ressources pour anticiper les retards et réajuster automatiquement les plannings.

La sécurité constitue un autre terrain d’expérimentation prometteur. Des systèmes de vision par ordinateur, intégrés à des caméras sur casques ou engins, peuvent identifier le non-port d’équipements de protection ou la présence de personnes dans des zones interdites. Objectif : passer d’une prévention réactive à une approche prédictive, capable d’anticiper les accidents avant qu’ils ne surviennent.

Mais ces innovations restent confinées aux grands groupes et à quelques projets pilotes. « L’IA ne pourra être efficace que si elle s’applique dans un environnement un peu plus normé et organisé que ce qui est l’ordinaire du chantier dans notre secteur », tempère un dirigeant de PME.

Les freins à l’adoption : technique, économique et culturel

Premier obstacle : la qualité des données. L’IA ne peut délivrer son potentiel que si elle s’appuie sur des informations fiables et bien structurées. Or, dans nombre d’entreprises du BTP, les données sont éparpillées, mal rangées et stockées dans des formats hétérogènes. « Pour avoir de la donnée exploitable, il faut que ça soit structuré, organisé, propre. Dans le monde du Bâtiment aujourd’hui, on est très, très loin. » martèle un directeur technique d’ETI.

Deuxième frein : l’absence d’interopérabilité entre les nombreux logiciels du secteur. Les différents outils numériques utilisés – devis, BIM, suivi de chantier – communiquent mal entre eux, rendant difficile la mutualisation des données. « J’ai plein de solutions différentes : pour les devis, la facturation, la banque, la comptabilité… mais rien n’est interconnecté », déplore un autre dirigeant. « Je passe 70% de mon temps à faire des passerelles entre les outils. »

L’équation économique reste incertaine, particulièrement pour les TPE-PME qui composent 94% du tissu entrepreneurial du Bâtiment. Pour ces structures, déployer une solution d’IA nécessite un budget conséquent avec un retour sur investissement difficilement chiffrable. « Ce que nos entreprises ont besoin de voir pour sauter le pas, c’est le retour sur investissement », souligne une organisation professionnelle. « Et pour l’instant, ceux qui viennent leur proposer des produits ne donnent pas vraiment d’éléments là-dessus. »

Enfin, les obstacles culturels ne sont pas négligeables. Dans un secteur historiquement attaché au savoir-faire manuel et à la transmission par le compagnonnage, l’idée qu’un algorithme puisse orienter des décisions techniques suscite des réticences. « Le savoir-faire, c’est du concret, du geste, de la mémoire, du ressenti », résume un chef d’entreprise. « Si on délègue trop aux outils automatiques, on va finir par perdre cette intelligence du terrain. »

L’ancienneté des dirigeants constitue un autre frein. Dans un secteur où beaucoup de patrons approchent de la retraite, l’investissement dans des technologies dont ils ne verront pas les fruits complets ne semble pas prioritaire. « On a toute une catégorie de dirigeants vieillissants qui se disent que bientôt ils ne seront plus là, alors pourquoi s’embêter à intégrer de l’innovation », observe un organisme de formation.

Les compétences, clé de voûte de la transformation

Face à ces défis, la montée en compétences apparaît comme le levier prioritaire. Mais avant même de parler d’IA, le secteur doit d’abord rehausser son niveau général de littératie numérique. « Les entreprises ne sont pas prêtes parce qu’elles n’ont pas fait cette partie de structuration en amont », constate un formateur. « Il y a toute une politique de la donnée à mettre en place avant d’intégrer tout ça. »

En 2024, Constructys a financé 1 762 actions de formation sur l’intelligence artificielle, un chiffre qui a bondi à 4 406 en 2025. Mais l’analyse des intitulés révèle une offre encore très centrée sur la sensibilisation générale, avec peu de contextualisation aux métiers du BTP. La majorité des formations privilégient la découverte de l’IA plutôt que la montée en compétences opérationnelles.

Les besoins identifiés s’articulent autour de trois niveaux. D’abord, un socle minimal de culture numérique : maîtrise des règles de gestion documentaire, gouvernance de la donnée, sensibilisation aux usages collaboratifs. Ensuite, des compétences intermédiaires d’ingénierie d’usage et de conduite du changement, pour identifier les cas d’usage pertinents et mobiliser les équipes. Enfin, des compétences avancées sur l’interopérabilité, l’automatisation et la sécurité des systèmes.

Une transformation par paliers

L’étude de l’Observatoire des métiers du BTP dessine les contours d’une transformation qui se fera par étapes. Les fonctions supports seront les premières concernées, avec une évolution vers des rôles de supervision et de contrôle des contenus produits automatiquement. Les métiers de la conception, déjà familiers du BIM, intégreront progressivement des outils d’IA pour automatiser les tâches répétitives de vérification et de détection d’erreurs.

Sur les chantiers, les conducteurs de travaux deviennent peu à peu des « data managers locaux », surveillant des tableaux de bord numériques tout en conservant leur expertise terrain. Les métiers de la maintenance évoluent vers la maintenance prédictive, où l’anticipation des pannes prime sur le dépannage.

« On est dans une phase où les outils sont là, mais il faut apprendre à s’en servir », résume un directeur technique. « L’IA n’est pas un pilote automatique : c’est un assistant. Le vrai savoir-faire reste dans la coordination humaine. »

Source : Observatoire des métiers du BTP, Étude sur la perception et l’intégration des outils d’intelligence artificielle dans les entreprises du BTP, janvier 2026

The post IA dans le BTP : la révolution en mode test appeared first on Silicon.fr.

Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité

10 février 2026 à 12:50

Si les assistants de codage ne font pas tant gagner en productivité, c’est parce qu’ils cannibalisent la phase pendant laquelle les écarts de spécifications sont le plus souvent détectés.

Certes, le constat émane d’une start-up américaine qui en a fait son fonds de commerce. Mais la réflexion qui y a abouti a son intérêt, notamment par les indicateurs dont elle s’est nourrie.

Trois stats pour poser le problème

La semaine dernière, cette start-up – Bicameral AI – avait publié un « manifeste », intitulé « Les assistants de codage résolvent le mauvais problème ». Elle avait ouvert son propos sur trois statistiques.

La première est sourcée d’Index.dev (plate-forme de recrutement tech). Bicameral AI la présente ainsi : les équipes ayant utilisé l’IA ont réalisé 21 % de tâches en plus, mais le delivery global – au niveau de leur organisation – ne s’est pas amélioré.

Index.dev a en fait lui-même tiré ce chiffre du rapport « The AI Productivity Paradox », que Faros AI (plate-forme de développement) avait publié à l’été 2025. Il apparaît que Bicameral AI en fait un résumé incomplet : le taux de 21 % vaut pour les équipes qui ont un usage important (« extensive ») de l’IA. Et le delivery est jugé spécifiquement sur les métriques DORA.

Deuxième statistique : les développeurs expérimentés ayant utilisé des assistants de codage ont été 19 % plus lents, alors qu’ils croyaient être plus rapides. Difficile de la vérifier : l’article qui en rend compte, publié en janvier 2025, n’est plus accessible. Son auteur : METR, organisation à but non lucratif qui étudie l’impact sociétal de l’IA. Sa fondatrice est une ancienne de DeepMind et d’OpenAI.

Troisième statistique : 48 % du code généré par IA contient des vulnérabilités. Elle est censée provenir d’Apiiro (un spécialiste de l’AppSec) et dater de 2024. Le lien que fournit Bicameral AI pointe toutefois vers un post de septembre 2025 qui ne donne pas directement ce chiffre. Apiiro a tout de même régulièrement donné des estimations proches (« plus de 40 % » en avril 2025, « jusqu’à 50 % » en août 2025…).

Quand l’IA fait perdre le temps qu’elle a fait gagner

Le manifeste se poursuit sur une référence à un fil Reddit avec près d’un millier de commentaires. Un développeur senior y témoigne de l’expérience – positive – de son équipe avec l’IA.

Bicameral AI pointe un des commentaires : le plus difficile n’est pas d’écrire le code, mais de gérer les cas particuliers qui se présentent au cours de l’implémentation. La start-up rebondit sur cet aspect : les assistants de codage sont connus pour ne pas faire remonter les écarts de spécifications, mais au contraire les dissimuler, affirme-t-elle. Par conséquent, on passe davantage de temps sur la revue de code… alors qu’avec l’IA, les managers en attendent davantage.

Dans ce contexte, le taux de développeurs considérant que les managers ne saisissent pas leurs points de douleur progresse nettement : 63 % en 2025, contre 49 % en 2024.

Ces chiffres proviennent du dernier sondage State of DevEx d’Atlassian. Bicameral AI le reprend pour annoncer que les assistants de codage font gagner aux développeurs près de 10 heures par semaine. Mais que l’accroissement des inefficacités sur le reste du cycle de développement anéantit presque ce gain.

Là aussi, la start-up fait un raccourci. Atlassian dit en fait que les outils GenAI en général font gagner au moins 10 heures par semaine à 68 % des développeurs. Mais qu’en même temps, 50 % perdent plus de 10 heures sur des tâches autres que le code*.

Ce fil conducteur mène Bicameral AI à une observation : le décalage entre intention métier et implémentation se crée lors des réunions produit. La start-up en veut pour preuve un sondage qu’elle a mené auprès de développeurs. Dans ce cadre, la majorité (63 %) ont déclaré découvrir des contraintes inattendues après s’être engagés sur l’implémentation.

Les écarts de spécifications, repérés surtout lors de l’implémentation

Les commentaires sur le manifeste et la collecte de réponses supplémentaires au sondage ont entraîné la publication, cette semaine, d’un deuxième article. Bicameral AI y confirme que le taux de développeurs découvrant les contraintes techniques au stade de l’implémentation est resté élevé (50 %).

La start-up mentionne un autre chiffre : 70 % déclarent que ces contraintes doivent être connues au-delà de leur équipe, auprès de populations qui n’interagissent pas régulièrement avec la codebase. Seulement, assure-t-elle, cette communication est difficile. Les pratiques de documentation des décisions n’aident pas : 52 % des répondants à son sondage transmettent les contraintes techniques par copier-coller sur Slack et 25 % les évoquent oralement, sans trace écrite. Plus globalement, 35 % des communications ne produisent aucun artefact persistant.

Bilan : dans la pratique, le conflit entre les specs produit et la réalité de l’engineering ne devient apparent qu’à la phase d’implémentation. Or, dès lors que l’IA phagocyte cette phase, le travail de découverte doit remonter à la phase de planification, sous peine de glisser sinon vers la phase de revue de code… et d’en être d’autant plus compliquée.

Le salut dans les prompts ? Le paradoxe de l’œuf et de la poule

Bicameral part ici du principe que les assistants de codage sont « accommodants » : ils peuvent demander des clarifications, mais ne suggèrent généralement pas d’explorer d’autres options.
« Il suffit de demander à l’IA de te challenger », a-t-on rétorqué, en substance, à la start-up. Elle y répond sous l’angle de l’œuf et de la poule : pour prompter correctement, il faut connaître au préalable la manière dont les contraintes techniques et produit peuvent entrer en conflit. Une connaissance qui, en l’état, ne fait donc essentiellement surface qu’à la phase d’implémentation…

Le traitement du problème en amont pourrait, contre-intuitivement au premier abord, s’appuyer sur des LLM. Lesquels examineraient comment une spéfication donnée pourrait impacter des structures de code existantes. Sur cette base, on pourrait imaginer un affichage en tant réel du contexte d’ingénierie pendant une réunion. Option qu’ont d’ailleurs suggérée certains participants au sondage.

* En 2024, IDC expliquait que le codage ne représentait que 16 % de leur temps de travail des développeurs. Contre 14 % pour l’écriture de spécifications et de tests, 13 % pour la sécurité, 12 % pour la surveillance des applications, etc.

Illustration générée par IA

The post Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité appeared first on Silicon.fr.

Comment piloter le Shadow AI

9 février 2026 à 14:19

Pendant des décennies, le Shadow IT se résumait à des applications SaaS non approuvées ou à des serveurs de stockage personnels. Aujourd’hui, le phénomène a muté en une force bien plus disruptive : le Shadow AI. Le constat est sans appel : alors que les directions informatiques s’interrogent encore sur les protocoles, les collaborateurs, eux, ont déjà intégré l’IA générative dans leur quotidien.

Selon les analystes de Forrester, le « Bring Your Own AI » (BYOAI) est devenu la norme, car les employés privilégient l’efficacité immédiate à la conformité procédurale.

Pour le DSI, l’enjeu dépasse la simple gestion de parc logiciel. Il s’agit désormais de protéger la propriété intellectuelle tout en ne devenant pas le goulot d’étranglement de la productivité. Comme le souligne Gartner, « le Shadow AI est le résultat d’un décalage entre la vitesse de l’innovation en IA et la vitesse de la gouvernance informatique. »

Sortir de l’illusion du blocage

Le premier réflexe de nombreuses organisations a été la restriction pure et simple. Pourtant, cette stratégie est aujourd’hui jugée non seulement inefficace, mais dangereuse. En bloquant l’accès aux LLM (Large Language Models) sur le réseau d’entreprise, la DSI ne supprime pas l’usage ; elle le rend invisible. Les collaborateurs se tournent vers leurs terminaux personnels, créant une zone grise où aucune politique de sécurité ne s’applique.

Cette transition impose au DSI d’évoluer vers un rôle de « facilitateur de confiance ». L’idée maîtresse est de passer d’une gouvernance prohibitive à une gouvernance adaptative. Michele Goetz, analyste chez Forrester, résume parfaitement cette bascule : « La gouvernance ne consiste pas à dire non, elle consiste à définir comment. »

Au-delà de la fuite de données, le risque majeur réside dans la fragmentation technologique. Si chaque département adopte son propre outil d’IA de manière isolée, l’entreprise se retrouve face à une explosion de la dette technique et une incapacité totale à harmoniser ses processus. Le rôle du DSI est donc de centraliser cette demande diffuse pour proposer des solutions qui répondent aux besoins métiers tout en garantissant l’auditabilité des décisions prises par l’IA.

Éduquer plutôt que sanctionner

Une gouvernance réussie ne peut être uniquement technologique ; elle doit être culturelle. Le Shadow AI prospère souvent sur l’ignorance des risques et non sur une volonté de nuire. Pour y remédier, le DSI doit instaurer un véritable contrat social avec les utilisateurs : la charte de bonne conduite.

L’enjeu est de transformer chaque collaborateur en un maillon de la chaîne de cybersécurité. Cela passe par une compréhension fine du concept de « Human-in-the-loop ». Forrester avertit d’ailleurs que « le plus grand risque de l’IA générative n’est pas ce qu’elle fait, mais ce que les humains font avec elle sans supervision. » La charte doit donc insister sur la responsabilité éditoriale : l’IA propose, mais l’humain dispose et vérifie.

La transparence devient ici une valeur cardinale. En encourageant les employés à déclarer leurs usages plutôt qu’à les cacher, la DSI peut identifier les cas d’usage à fort ROI. Cette approche pédagogique permet également de lutter contre les biais et les hallucinations, en rappelant que l’IA est un outil probabiliste et non une source de vérité absolue. C’est en accompagnant l’utilisateur dans son « AI Literacy » (sa culture de l’IA) que le DSI réduit naturellement le recours aux solutions de l’ombre.

L’architecture du « Safe Harbor »

Pour rendre la solution officielle plus attractive que le Shadow AI, le DSI doit bâtir un environnement qui surclasse les outils grand public. C’est ici qu’intervient le concept de Sandbox IA, ou « port sécurisé ». Techniquement, cette infrastructure repose sur le déploiement d’instances privées via des services comme Azure OpenAI ou AWS Bedrock, garantissant que les données saisies ne sortent jamais du périmètre de l’entreprise et ne servent jamais à l’entraînement de modèles tiers.

L’innovation majeure de ces environnements réside dans la couche de Data Guardrails. Contrairement à une interface publique, la sandbox d’entreprise intègre des filtres de Data Loss Prevention (DLP) qui interceptent et anonymisent les informations sensibles avant qu’elles n’atteignent le LLM. De plus, l’intégration du RAG (Retrieval-Augmented Generation) permet à l’IA d’interroger les documents internes de l’entreprise (bases de connaissances, archives, rapports) avec une précision que les outils publics ne peuvent égaler.

Enfin, cette approche offre au DSI une visibilité indispensable via le FinOps. En monitorant la consommation de « tokens » par département, la DSI peut non seulement contrôler les coûts, mais aussi prioriser les investissements sur les projets les plus créateurs de valeur.

Selon Gartner, « d’ici 2026, 75 % des organisations auront établi une stratégie de gouvernance de l’IA, contre moins de 5 % aujourd’hui. » La sandbox n’est pas seulement un outil technique, c’est le laboratoire où se prépare l’avenir de l’entreprise.

——————————————————————————————————————————–


Charte d’utilisation de l’IA Générative : innover en toute sécurité

L’intelligence artificielle générative est un levier de productivité puissant. Pour nous permettre d’innover tout en protégeant les actifs numériques de l’entreprise, chaque collaborateur s’engage à respecter les principes suivants.



1. Protection du patrimoine informationnel

C’est le pilier central. Les modèles d’IA publics (ChatGPT, Claude, Gemini version gratuite) utilisent vos données pour s’entraîner.

  • Interdiction formelle : Ne jamais saisir de données sensibles, de secrets commerciaux, de codes sources non publics ou d’informations personnelles (RGPD) dans un outil d’IA non validé par la DSI.

  • Réflexe de sécurité : Utilisez exclusivement les instances « Enterprise » mises à disposition par l’entreprise (ex: notre portail IA interne), car elles garantissent la confidentialité de vos données.

2. Le principe du « Humain-au-centre » (Human-in-the-Loop)

L’IA est un assistant, pas un remplaçant. Vous restez l’unique responsable de vos livrables.

  • Vérification systématique : L’IA peut « halluciner » (inventer des faits crédibles mais faux). Chaque information générée doit être vérifiée par vos soins avant d’être utilisée.

  • Responsabilité éditoriale : Tout document produit ou assisté par l’IA engage votre responsabilité professionnelle, comme si vous l’aviez rédigé seul.

3. Transparence et éthique

L’honnêteté intellectuelle est la base de notre collaboration.

  • Mention d’usage : Si un document client ou une analyse stratégique a été produit de manière significative par une IA, mentionnez-le (ex : « Ce document a été préparé avec l’assistance d’une IA générative »).

  • Lutte contre les biais : Soyez vigilants face aux stéréotypes ou biais que l’IA pourrait reproduire dans ses réponses. Gardez un esprit critique.

4. Propriété intellectuelle et droits d’auteur

L’IA génère parfois du contenu qui peut ressembler à des œuvres protégées.

  • Vigilance créative : Pour les visuels ou les textes destinés à l’externe, assurez-vous que les sorties de l’IA ne violent pas de droits d’auteur existants.

  • Code Source : L’utilisation d’IA pour générer du code doit suivre les protocoles de sécurité logicielle de la DSI pour éviter l’introduction de vulnérabilités ou de licences incompatibles.


——————————————————————————————————————————–

Architecture de la sandbox sécurisée

Pour passer de la théorie à la pratique, la DSI doit fournir un « Port de Sécurité » (Safe Harbor). C’est le rôle de la Sandbox IA, un environnement de test qui offre la liberté d’expérimenter sans compromettre le SI.

Les Composantes de l’Infrastructure

Une sandbox efficace ne se limite pas à un accès API ; elle repose sur une architecture robuste :

  • Isolation VPC et API Gateway : Les modèles (Azure OpenAI, AWS Bedrock, etc.) sont déployés dans un Cloud Privé Virtuel. Les données ne sortent jamais du périmètre de l’entreprise et ne servent jamais à entraîner les modèles publics des fournisseurs.

  • Couche de Filtrage (DLP & Guardrails) : Une passerelle intelligente scanne les prompts en temps réel. Elle bloque ou anonymise automatiquement les données sensibles (PII, codes sources confidentiels) avant qu’elles ne parviennent au modèle.

  • Observabilité et FinOps : Le CIO dispose d’un tableau de bord centralisé pour monitorer l’usage, détecter les comportements atypiques et gérer les coûts par jeton (tokens) par département.

Vers le RAG (Retrieval-Augmented Generation)

Le véritable avantage de cette infrastructure interne est sa capacité à connecter l’IA aux données froides de l’entreprise. En offrant un outil capable d’interroger la base de connaissances interne en toute sécurité, le CIO rend le Shadow AI obsolète car moins pertinent que l’outil officiel.


The post Comment piloter le Shadow AI appeared first on Silicon.fr.

❌