Vue normale

Raspberry Pi rattrapé par la fièvre de l’IA

19 février 2026 à 14:49

Symbole de la débrouillardise numérique, longtemps cantonné aux bancs d’écoles et aux passionnés de bidouille informatique, Raspberry Pi vit aujourd’hui un destin boursier que peu auraient imaginé. Son titre a failli doubler entre le 16 et le 18 février, avant de retomber pour clôturer en baisse d à 4,10 livres, soit une valorisation d’un peu plus de 800 millions de livres.

L’étincelle porte un nom : OpenClaw, présenté comme le premier « agent IA personnel » capable de fonctionner localement sur un ordinateur, sans recourir au cloud. Son créateur, Peter Steinberger, vient d’être recruté par OpenAI le week-end dernier, ce qui a encore amplifié l’engouement autour du projet.

L’effet OpenClaw

Or Raspberry Pi offre une porte d’entrée à prix cassé vers cet outil. Là où un Mac Mini coûte au minimum 600 $ aux États-Unis, un Raspberry Pi s’acquiert pour une centaine de dollars. Damindu Jayaweera, analyste chez Peel Hunt, résume l’équation dans une note à ses clients : le dispositif permet une fonctionnalité « suffisamment bonne à un coût marginal quasi nul », avec l’avantage décisif  de « posséder la capacité de calcul plutôt que de la louer dans le cloud ».
Créé en 2012 par la fondation éponyme, le micro-ordinateur Raspberry Pi visait d’abord un objectif pédagogique : enseigner la programmation à bas coût. Proposé à moins de 50 €, il a conquis le monde de l’électronique embarquée, des makers et des chercheurs en robotique.
Mais avec l’explosion des projets d’intelligence artificielle générative, cet outil modeste est devenu une plateforme de prototypage bon marché, utilisée dans des milliers de projets mêlant vision par ordinateur, edge computing et automatisation locale.

La bourse de Londres s’est affolée

Lorsque Raspberry Pi Ltd a fait son entrée à la bourse de Londres en 2024, peu observateurs imaginaient qu’un simple fabricant de cartes Linux à faible consommation attirerait les foules. Pourtant, en quelques mois, le titre a gagné plus de 200 %, avant de connaître des phases de correction spectaculaires.

Sur les forums d’investisseurs, la marque est devenue un véritable « mème stock », comme GameStop ou AMC à l’époque de la pandémie. Les hashtags #PiAI et #TinyAI circulent sur X, Reddit et Discord, relayant des montages reliant Raspberry Pi à l’essor de l’IA embarquée. Les rumeurs vont bon train ; d’un partenariat hypothétique avec Nvidia à une intégration dans des systèmes robotiques « low cost ».

Cette frénésie illustre la façon dont la bulle IA engloutit tout l’écosystème technologique, jusqu’à ses acteurs les plus modestes. Les investisseurs cherchent fébrilement les « prochains Nvidia », quitte à surinterpréter le moindre lien avec l’intelligence artificielle.

Si la valorisation s’envole, le fabricant reste fidèle à sa philosophie d’origine : produire du matériel ouvert, abordable et responsable. Son PDG, Eben Upton, a récemment rappelé que « Raspberry Pi ne construira pas de GPU d’IA, mais continuera à rendre la technologie accessible à ceux qui innovent à petite échelle ».

The post Raspberry Pi rattrapé par la fièvre de l’IA appeared first on Silicon.fr.

Au Parlement européen, la DSI met l’IA en pause

19 février 2026 à 14:39

Finies les fonctionnalités IA, le temps qu’on comprenne mieux ce qu’elles font des données.

Les membres du Parlement européen ont récemment reçu un e-mail interne à ce sujet. D’après ce qui en est rapporté, la DSI a mis en œuvre un blocage partiel. Il cible des fonctionnalités embarquées sur des appareils mobiles – tablettes et téléphones – utilisés à titre professionnel. Sur la liste figurent au moins les assistants virtuels, l’aide à l’écriture et à la synthèse de texte, ainsi que le résumé de pages web.

La DSI veut mesurer l’ampleur des transferts de données

Le département informatique a jugé ne pas être en mesure de garantir la sécurité des données, sachant que certaines de ces fonctionnalités IA exploitent des services cloud. Il estime plus sage de les couper le temps de clarifier l’ampleur des transferts.

Les applications tierces ne semblent pas concernées. Comme d’ailleurs la messagerie électronique, le calendrier « et les autres outils du quotidien ».

Les destinataires de l’e-mail sont encouragés à appliquer des « précautions similaires » sur leurs appareils personnels. Surtout ceux qu’ils utilisent pour le travail. Parmi les consignes : rester vigilant quant aux applications IA tierces et éviter de donner trop de permissions d’accès aux données.

On se souviendra que début 2023, le Parlement européen avait interdit l’usage TikTok. La Commission européenne et le Conseil de l’Europe avaient fait de même quelques semaines avant.

À consulter en complément :

Souveraineté numérique : l’UE et ses dépendances stratégiques
La Commission européenne veut réduire sa dépendance à Microsoft
L’Europe enclenche le passage à l’échelle de ses « fabriques d’IA »
10 chiffres sur le déploiement de l’IA chez France Travail
Développement d’applications IA : une demande sectorielle pour l’heure insatisfaite

Illustration générée par IA

The post Au Parlement européen, la DSI met l’IA en pause appeared first on Silicon.fr.

Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ?

19 février 2026 à 13:43

C’est une déclaration qui va faire frémir les grands éditeurs du logiciel déjà éprouvés par le désamour des analystes financiers. Dans une interview accordée à CNBC, Arthur Mensch, PDG de Mistral AI, affirme que plus de 50 % des logiciels d’entreprise actuels seraient, à terme, remplaçables par des applications bâties sur l’IA générative.

Dans le viseur ? Les outils de productivité, de workflows et les CRM légers : autrement dit, le cœur de métier de Salesforce, Workday ou ServiceNow.

La promesse du « replatforming »

Pour l’expliquer, Arthur Mensch utilise le concept de « replatforming « , soit un basculement en profondeur des architectures IT d’entreprise, qui délaisseraient les abonnements SaaS standardisés au profit d’applications sur mesure, construites directement sur des API de modèles d’IA. L’argument commercial est séduisant avec la réduction des coûts de licences, une meilleure adéquation aux processus internes, des délais de développement compressés à quelques jours là où il fallait autrefois compter en mois.

Le mouvement a déjà ses précurseurs. Klarna, la fintech suédoise, a ainsi tourné le dos à certaines briques Salesforce et Workday pour construire son propre stack dopé à l’IA. Un cas d’école qu’Arthur Mensch cite volontiers pour illustrer la faisabilité concrète de ce grand saut technologique.

Tout ne sera pas emporté dans la vague

Le patron de Mistral prend soin de nuancer. L’infrastructure de données – stockage, sauvegarde, sécurité, data platforms – n’est pas menacée. Elle sortira même renforcée de la transition, car c’est elle qui alimente les modèles.

Bipul Sinha, PDG de Rubrik, partage ce diagnostic : le « front office logiciel » sera remodelé, quand le « back office data » se consolidera comme couche critique et incontournable.

Ce basculement suppose toutefois des prérequis sérieux : des données propres et unifiées, une infrastructure cloud moderne, et des équipes capables de gouverner ces nouveaux agents. On est bien loin du confort du SaaS clé en main.

Une opportunité taillée pour Mistral

Evidemment, la sortie du patron de Mistral AI sert son business modèle. Il revendique déjà plus d’une centaine de clients grands comptes en quête de modernisation. Sa plateforme – modèles ouverts et propriétaires, assistants personnalisés, recherche d’entreprise – se positionne précisément comme l’outillage de ce « replatforming « .

La prédiction reste néanmoins contestée. Les sceptiques pointent l’inertie considérable des systèmes d’information existants, les contraintes réglementaires, et les nombreuses désillusions de projets d’IA en production. Pour beaucoup d’observateurs, l’IA s’intégrera d’abord comme une couche d’augmentation au-dessus des outils existants, plutôt que comme un bulldozer.

Mais le message envoyé aux éditeurs traditionnels est sans ambiguïté : se transformer en plateformes d’IA, ou risquer de devenir eux-mêmes les logiciels à remplacer.

The post Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ? appeared first on Silicon.fr.

Après la RAM et les CPU, le spectre d’une pénurie de disques durs

19 février 2026 à 12:41

Cette année, il sera difficile de se procurer des disques durs neufs chez Western Digital comme chez Seagate.

Les deux fabricants ont annoncé la couleur fin janvier, lors de la présentation de leurs résultats trimestriels. Le premier a déclaré que ses stocks pour 2026 étaient quasiment écoulés (« pretty much sold out »). Le deuxième a expliqué avoir « totalement alloué » sa capacité de production de disques durs pour serveurs – lesquels représentent 89 % de sa capacité vendue.

Western Digital dit merci à l’inférence

Western Digital affirme que ses 7 principaux clients ont des commandes fermes pour 2026. Trois d’entre eux ont des accords « robustes » pour 2027 ; un pour 2028.

La tendance est à signer les contrats plus en amont, et pour une durée plus longue. La conséquence d’une tension sur l’approvisionnement que Western Digital impute essentiellement à l’IA. En particulier à l’heure où la valeur bascule de « l’entraînement à l’inférence » : il faut stocker les données produites.

Sur le dernier trimestre fiscal, les 10 principaux clients ont représenté 76 % du chiffre d’affaires (contre 67 % un an plus tôt). En première ligne, les hyperscalers, sur lesquels Western Digital a d’ailleurs centré son organisation.

Sur le trimestre en question, le chiffre d’affaires a dépassé 3 milliards $ (dont 89 % grâce à l’activité datacenter), en progression annuelle de 25 %. La croissance est encore plus nette si on exclut l’activité de Sandisk, séparée en février 2025 (elle représentait alors environ un quart du CA).

D’autres indicateurs sont au vert : + 800 points de base pour la marge brute (45,7 %), + 680 pour la marge opérationnelle (30 %, notamment en conséquence d’une amélioration de la structure de coûts sur les nouvelles générations de disques durs) et + 62 % pour le résultat d’exploitation (908 M$). Le résultat net (1,84 Md$) est « gonflé » par un reliquat de participation dans Sandisk valorisé à 1,1 Md$ – il est question de l’exploiter pour réduire la dette. La capacité livrée a atteint 215 exaoctets (+ 22 % sur un an).

Les prévisions pour le trimestre encore font état d’une hausse de 40 % du CA (milieu de fourchette) et d’une marge brute de 47 à 48 %.

Seagate prévoit « un bon profit » sur les éventuels disques durs supplémentaires

Seagate aussi constate que ses clients – à commencer par les fournisseurs cloud – projettent leur demande à plus long terme. Ce qui « démontre qu’assurer l’approvisionnement reste leur priorité ».

Le fabricant n’exclut pas de produire un peu plus de disques. Mais il ne cache pas qu’il les commercialisera « avec un bon profit », dans un contexte de « demande exceptionnellement forte », en particulier pour les datacenters.

Les indicateurs financiers progressent dans des échelles comparables à celles de Western Digital. Sur le dernier trimestre fiscal de Seagate, le chiffre d’affaires a crû de 22 %, atteignant 2,83 Md$ (dont 79 % sur le segment datacenter). La marge brute a augmenté de 670 points de base (42,2 %) ; la marge opérationnelle, de 880 points (29,9 %) ; le résultat d’exploitation, de 72 % (843 M$).

La capacité livrée s’élève à 190 Eo (+ 26 % sur un an), dont 87 % pour le datacenter. La capacité moyenne des disques durs serveur livrés a augmenté de 22 %, avoisinant 23 To (26 To pour ceux vendus aux fournisseurs cloud).

Les prévisions pour le trimestre en cours situent le chiffre d’affaires autour de 2,9 Md$. Et la marge opérationnelle autour de 35 %. « La demande dictera le prix », a affirmé Seagate, qui estime que ses revenus et profits devraient croître de trimestre en trimestre.

La demande se reporte sur les SSD

Ces éléments confirment les signaux perçus au moins depuis l’automne dernier. Face aux difficultés d’approvisionnement en disques durs, une partie de la demande a basculé sur les SSD… dont les prix se sont envolés. A fortiori dans le contexte de la pénurie de puces mémoire.

Cette dernière découle essentiellement de la « course à l’IA » que se livrent les hyperscalers. Et de la demande en GPU qui en résultent. Pour faire tourner des modèles, ils ont besoin de mémoire à large bande passante. À mesure que la fabrication se réoriente sur ce type de DRAM, les autres modules se raréfient.

En parallèle, divers signaux accréditent l’hypothèse d’une future pénurie de CPU, notamment pour serveurs. Depuis quelques mois, Intel emploi, dans sa communication publique, le mot shortage. Qu’on peut traduire par « manque »… ou « pénurie ». Il ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande. Avant tout en processeurs Xeon (son activité datacenter vient de connaître une croissance séquentielle « sans précédent depuis plus d’une décennie »). Le phénomène est renforcé par un yield en dessous des attentes. Il l’est aussi par la difficulté des fabricants de processeurs à alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. CPU sur lesquels l’IA elle-même tend à se déporter, vu la rareté et la cherté des GPU.

Illustration générée par IA

The post Après la RAM et les CPU, le spectre d’une pénurie de disques durs appeared first on Silicon.fr.

Cyberattaque à Bercy : 1,2 million de comptes bancaires ont filtré

18 février 2026 à 17:48

« L’administration fiscale ne vous demande jamais vos identifiants ou votre numéro de carte bancaire par message. »

Le ministère de l’Économie et des Finances le rappelle après des accès indésirables au fichier national des comptes bancaires (FICOBA).

Un acteur malveillant a usurpé les identifiants d’un fonctionnaire qui disposait d’accès dans le cadre de l’échange d’informations entre ministères. À partir de fin janvier 2026, il a pu consulter une partie du FICOBA. Lequel contient des données personnelles : coordonnées bancaires, identité du titulaire et, dans certains cas, numéro fiscal.

Bercy annonce 1,2 million de comptes concernés. Il promet d’informer individuellement leurs titulaires « dans les prochains jours ».

À consulter en complément :

France Travail écope de 5 M€ d’amende pour une faille cyber massive (janvier 2026)
Cyberattaque au ministère de l’Intérieur : des fichiers sensibles consultés (décembre 2025)
Comment une cyberattaque a paralysé 23 000 professionnels de santé (novembre 2025)
Contrôle fiscal : avec ses SI, l’État se complique la tâche
« Gérer mes biens immobiliers » : ce gros projet IT de Bercy qui a explosé son budget

Illustration générée par IA

The post Cyberattaque à Bercy : 1,2 million de comptes bancaires ont filtré appeared first on Silicon.fr.

Koyeb, un atout PaaS dans les mains de Mistral AI

18 février 2026 à 17:00

Une offre d’infrastructure pour l’IA, donnant accès à une stack privée avec une variété d’options de déploiement, du bare metal au PaaS managé. Telle était, dans les grandes lignes, la promesse de Mistral Compute à son lancement mi-2025.

Mistral AI a récemment annoncé un projet à 1,2 Md€ pour implanter, en Suède, un datacenter qui alimentera ce « cloud IA ». Il y ajoute une acquisition. La cible : Koyeb.

Cette entreprise française est née en 2019 à l’initiative de trois anciens de Scaleway*. Isai, Serena Capital et Kima Ventures, entre autres, y ont mis leurs billes. Elle présente aujourd’hui son offre comme une « plate-forme serverless pour les applications IA ». Techniquement, il s’agit d’un PaaS – d’ailleurs encore comparé à Render et à Heroku dans sa documentation.

Du H200 et du B200 depuis peu

À cette partie compute, Koyeb avait adjoint, en 2025, du PostgreSQL managé, en plus de faire la connexion avec diverses bases de données (dont MongoDB, investisseur et client). Il a surtout pris le virage de l’IA en multipliant les options GPU et autres puces accélératrices (les RTX Pro 6000, les H200 et les B200 sont arrivées début 2026). Tout en enrichissant son catalogue de composants déployables « en un clic » (n8n, Ollama, Open WebUI, Unsloth, Jupyter Notebook…) et en développant des intégrations avec les assistants de codage (serveur MCP, pack de skills).

Koyeb s’appuie sur quatre hébergeurs : Equinix, AWS, IBM Cloud et Scaleway. Son plan de contrôle se trouve en Belgique, sur GCP. L’offre se divise en quatre forfaits de base auxquels s’ajoute la consommation de ressources.

Avec le passage dans le giron de Mistral AI (16 employés seront du voyage), le forfait gratuit n’est plus proposé. La plate-forme reste commercialisée indépendamment, en attendant son intégration dans Mistral Compute.

When we first met the @MistralAI team and heard about their vision for Mistral Compute, we saw an incredible opportunity to accelerate the buildup of AI Infrastructure in Europe.

As part of Mistral AI, we’ll pursue our mission to make SOTA AI infrastructure accessible to all 🙌 pic.twitter.com/HeM7cJhzqB

— Yann Leger (@yann_eu) February 17, 2026

* Yann Léger, 35 ans, est président de Koyeb. La société a deux DG : Édouard Bonlieu (38 ans, directeur produit) et Bastien Chatelard (37 ans, directeur technique).

Illustration générée par IA

The post Koyeb, un atout PaaS dans les mains de Mistral AI appeared first on Silicon.fr.

Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer

18 février 2026 à 11:21

La souveraineté, c’est, entre autres, le « recours aux solutions fournies par des acteurs économiques français ou européens ».

La nouvelle circulaire sur les achats publics numériques établit ce lien, mais pas de manière si directe. D’une part, elle inclut la souveraineté parmi les critères structurants. De l’autre, elle présente la préférence française/européenne comme un des trois axes sur lesquels la souveraineté « s’appuie en particulier », au nom de la « maîtrise des technologies-clés ». Les deux autres axes étant l’immunité au droit européen à portée extraterritoriale et la capacité à substituer des composantes par des solutions alternative.

Une circulaire en attendant la révision du cadre européen

La souveraineté apparaît en deuxième position dans la circulaire – derrière la « performance métier » (réponse aux besoins) et devant la sécurité. Mais le texte n’institue ni hiérarchie, ni pondération entre critères. Il ne contient par ailleurs, toujours en matière de souveraineté, aucune obligation formelle, en dépit des axes mentionnés.

Parmi les éléments imposés sur les autres critères :

  • Prévoir des critères et clauses de sécurité à chaque fois que l’objet du marché le justifie et être vigilant quant à la pérennité du MCO et du MCS
  • Évaluer soigneusement le délai de disponibilité
  • Prendre en compte la réversibilité dans les contrats
  • Intégrer les capacités d’interopérabilité dans les facteurs de choix

Sur le volet adaptabilité/réversibilité, les achats d’outils fondés sur du code ouvert sont « encouragés » dans une optique de transparence de l’action publique. La circulaire recommande plus globalement de privilégier le recours à des produits open source « lorsque c’est pertinent ». Tant pour bénéficier des avancées communautaires que des possibilités accrues de détection et correction de failles de sécurité.

La doctrine de l’État doit encore s’aligner avec les textes européens en préparation sur la commande publique. Dont la révision – en cours – de la directive de 2014, qui vise elle aussi des objectifs d’autonomie stratégique.

Illustration générée par IA

The post Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer appeared first on Silicon.fr.

L’INESIA a sa feuille de route… et son défi de coopération internationale

18 février 2026 à 09:27

« Au besoin », « si nécessaire », « selon les opportunités »… L’INESIA se laisse de la marge dans sa première feuille de route officielle.

Cet institut public pour l’évaluation et la sécurité de l’intelligence artificielle est né début 2025. Le SGDSN (Secrétariat général de la défense et de la sécurité nationale) et la DGE (Direction générale des entreprises) le pilotent. Il fédère l’Inria, le LNE (Laboratoire national de métrologie et d’essais), l’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique).

Derrière l’INESIA, un réseau international

L’INESIA a une roadmap d’autant plus ouverte que son activité s’inscrit dans un réseau international d’AISI (AI Safety Institutes). Au dernier pointage, 9 pays en sont membres : Australie, Canada, Corée du Sud, États-Unis, France, Japon, Kenya, Royaume-Uni et Singapour. L’Union européenne l’est aussi, via son Bureau de l’IA.

Londres et Washington furent les premiers à officialiser la mise en place de leur AISI. C’était en novembre 2023. Aux États-Unis, la structure est hébergée par le NIST, rattaché au département du Commerce. Au Royaume-Uni, l’AISI a pris le relais de la Foundation Model Taskforce, établie en avril de la même année au sein du département gouvernemental pour la Science, l’Innovation et la Technologie – et rebaptisée Frontier AI Taskforce en septembre.

Une coopération formelle entre ces deux AISI avait émergé en avril 2024, « sur au moins une évaluation ». En toile de fond, la pression d’entreprises technologiques – au premier rang desquelles Meta – qui en appelaient à des règles et procédures d’évaluation communes avant d’ouvrir leurs modèles.

Entre-temps, le Japon avait créé son AISI (février 2024), au sein de l’Agence de promotion des technologies de l’information, rattachée au ministère de l’Économie. Le Canada avait suivi en avril. Puis la Corée du Sud et Singapour en mai, lors du Sommet de l’IA de Séoul.

Le réseau international des AISI avait été formalisé à la même occasion. Sa première réunion officielle eut lieu en novembre 2024. La déclaration de mission promettait une « complémentarité » et une « interopérabilité » entre les instituts, sans définir d’objectifs ou de mécanismes spécifiques à cet égard.

De la « sûreté » à la « science de la mesure » : un recentrage des activités

En décembre 2025, le réseau a officialisé le recentrage de ses travaux sur « la science de la mesure et de l’évaluation des IA ». Objectif : s’assurer de suivent le rythme des développements technologiques. Il a changé de nom en parallèle, devenant « International Network for Advanced AI Measurement ». Exit, donc l’aspect « safety ». Le Royaume-Uni a suivi le même chemin, son AI Safety Institute devenant AI Security Institute.

En amont du Sommet de l’IA qui se déroule actuellement en Inde, le réseau a publié une liste de principes d’évaluation sur lesquels ses membres se sont accordés. Parmi elles, dans les grandes lignes :

  • Objectifs clairs
  • Transparence et reproductibilité
  • Adaptation des paramètres au type d’évaluation
  • Processus d’assurance qualité intégré dans la conception et dans les résultats
  • Points-clés compréhensibles par des non-spécialistes
  • Résultats généralisables
  • Prise en compte de la diversité linguistique et culturelle

Des questions restent ouvertes. Entre autres sur l’intérêt d’utiliser des modèles de risque, sur les éléments à partager, sur la flexibilité des modèles de rapports d’évaluation et sur la gestion des systèmes agentiques.

Cybersécurité de l’IA, détection des contenus synthétiques… Des travaux à poursuivre

L’INESIA l’affirme : il avancera « selon le programme de travail du réseau ».

Sa feuille de route 2026-2027 s’articule en trois pôles thématiques – « Appui à la régulation », « Risques systémiques » et « Performance et Fiabilité » – auxquels s’ajoute un axe transversal.

En matière d’appui à la régulation, il s’agira notamment de fournir des outils aux autorités chargées de contrôler les systèmes d’IA à haut risque. L’INESIA compte aussi favoriser les échanges entre ses membres sur les sujets de normalisation, en soutien aux exigences de conformité de l’AI Act.

Ce pôle thématique englobe également la détection de contenus artificiels. Sur ce point, l’INESIA poursuivra les travaux du PEReN et de Viginum (service de vigilance et de protection contre les ingérences numériques étrangères, intégré au SGDSN). Ils se sont traduits par la publication, en source ouverte, de « métadétecteurs » de contenus synthétiques (texte, images). Et d’une bibliothèque pour évaluer ces détecteurs. En ligne de mire, une extension à l’audio et à la vidéo.

L’INESIA doit par ailleurs contribuer au développement de méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA et des produits de cybersécurité qui embarquent de l’IA. Dans ce domaine, il s’appuiera sur un projet que pilote l’ANSSI : SEPIA (Sécurité des produits intégrant de l’IA). Et impliquera l’AMIAD (Agence ministérielle pour l’IA de défense), ainsi que le réseau des CESTI (Centres d’évaluations de la sécurité des technologies de l’information).

Un premier socle d’expérimentations conjointes sur les risques systémiques

Les missions de l’INESIA touchent aussi au développement d’une expertise technique sur l’évaluation et l’atténuation des risques systémiques. En tête de liste, la manipulation de l’information, l’assistance aux attaques informatiques et le développement de NRBC (armes nucléaires, radiologiques, biologiques et chimiques).

De cette expertise devront résulter des protocoles d’évaluation et de détection exploitables à la fois par les développeurs et les régulateurs. Ainsi que des méthodes d’atténuation associées à des outils open source « si opportun ».

La caractérisation et l’atténuation des risques systémiques se portera également sur les systèmes agentiques. Là aussi, l’INESIA n’exclut pas de s’appuyer sur l’existant, que ce soit en termes de protocoles d’évaluation ou d’implémentations.

La poursuite des activités conduites dans le cadre du réseau des AISI vaut aussi sur ce pôle thématique. Le premier livrable avait été publié l’an dernier au Sommet de l’IA. Il rendait compte d’expérimentations conjointes. Menées principalement par Singapour, le Japon et le Royaume-Uni, elles ont testé, d’une part, la robustesse cyber de deux modèles. De l’autre, les réponses fournies en fonction de la langue de l’utilisateur. La France a fourni le jeu de données d’évaluation cyber et mesuré les risques de sécurité pour les interactions en langue française.

La perspective d’une infrastructure d’évaluation des systèmes d’IA

Le pôle « Performance et fiabilité » consiste essentiellement en l’organisation de défis sur des tâches d’évaluation spécifiques.

L’axe transverse inclut de l’animation scientifique et une mutualisation des travaux de veille des membres de l’INESIA. Il comprend surtout l’objectif principal de l’institut : constituer une infrastructure d’évaluation des systèmes d’IA à partir des cas d’usage qui auront été identifiés.

Illustration générée par IA

The post L’INESIA a sa feuille de route… et son défi de coopération internationale appeared first on Silicon.fr.

Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source

17 février 2026 à 14:33

Avec les IA, mieux vaut parler Markdown que HTML.

Cloudflare, comme bien d’autres, invite à privilégier ce format. Tant pour la lisibilité que pour les économies de tokens. Jusque-là, il proposait une API de conversion intégrée notamment dans son offre Workers AI*.

S’y ajoute désormais une fonctionnalité « automatisée » intégrée à la console. Dite « Markdown for Agents », elle est en bêta, sans surcoût, pour les abonnés Pro, Business et Enterprise – ainsi que sur SSL for SaaS.

Sur les zones qui utilisent des en-têtes de négociation de contenu, elle déclenche – au possible – une conversion des pages HTML à la volée lorsqu’une IA exprime sa préférence pour le format Markdown. Cela passe par l’en-tête Accept et le paramètre text/markdown. Un système qu’exploitent déjà des agents tel Claude Code.

La réponse inclut systématiquement des en-têtes x-markdown-tokens et Content-Signal. Le premier donne une estimation du poids du document Markdown en tokens. Le second signale, par défaut, que le contenu peut être utilisé pour l’entraînement d’IA comme pour l’input (inférence) et pour les résultats de recherche.

* Cette option gère la conversion d’autres formats que le HTML, ainsi que le résumé du contenu.

À consulter en complément :

De l’UX à l’AX : penser les interfaces pour les agents IA
A2A, ACP, agents.json… Que deviennent ces protocoles agentiques ?
ROI de l’IA générative : la tentation du prisme court-termiste
Les acquisitions de Cloudflare sous l’ère ChatGPT

Illustration générée par IA

The post Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source appeared first on Silicon.fr.

Qu’est-ce que WebMCP, qui vise la standardisation W3C ?

17 février 2026 à 13:24

Ajoutez une cinquantaine de lignes de code à votre site… et il devient un serveur MCP.

À l’été 2025, un développeur, ancien d’Amazon, avait lancé un projet open source portant cette promesse : MCP-B (« MCP for the Browser »). L’idée était d’exploiter JavaScript pour exposer les fonctionnalités de pages web aux agents IA directement dans les navigateurs. Le protocole sous-jacent s’appelait WebMCP. Il reposait notamment sur un mécanisme de transport permettant la communication client-serveur au sein d’un même onglet.

Un premier brouillon de spécification W3C

L’initiative existe toujours. Mais elle est aujourd’hui emmenée par Google et Microsoft, sous la bannière WebMCP et sous l’aile du W3C. Le fondement demeure : exposer des « outils » sous forme de fonctions JavaScript, avec des schémas structurés et des descriptions en langage naturel.

Une première ébauche de spécification vient d’être publiée. Elle introduit une interface window.navigator.modelContext. Et avec elle, plusieurs méthodes pour gérer la liste des outils :

  • provideContext, pour l’actualiser intégralement
    Idéal pour les applications monopage, où il peut être souhaitable de présenter des outils différents en fonction de l’état de l’UI.
  • registerTool et unregisterTool, respectivement pour ajouter et supprimer des outils sans réintialiser toute la liste

Les fonctions peuvent éventuellement être asynchrones. Il est possible d’en dédier la gestion à des workers.

Google propose depuis peu de tester WebMCP dans le programme EPP de Chrome, à travers deux API. Une déclarative pour permettre aux agents d’effectuer des actions standards définissables dans les formulaires HTML. Une impérative pour les interactions dynamiques nécessitant JavaScript.

La sécurité, pas encore au cœur des travaux

Sur le papier, WebMCP ouvre la voie à une codebase unique pour l’UI et l’intégration des agents. Tout en favorisant la confidentialité (traitement local) et la collaboration homme-machine (même interface, avec davantage de visibilité sur les actions).
L’arbitrage des accès est laissé au navigateur, qui peut appliquer ses propres politiques de sécurité. Cette intermédiation du flux de contrôle assure par ailleurs une rétrocompatibilité entre les versions de WebMCP.

Dans la pratique, il n’existe pas de mécanisme intégré pour synchroniser l’UI et l’état de l’application. Il n’en existe pas non plus pour découvrir les outils d’un site sans le visiter. Sur ce dernier point, le projet a exploré l’utilisation d’un manifeste que les agents récupéreraient en HTTP GET. Il l’a complété par un mécanisme d’exécution alternatif séparant la définition d’un outil et la fonction d’implémentation, en traitant les appels comme des événements.

La section sécurité/confidentialité de la spec est actuellement vide. Sur ce sujet, il y a, en l’état, bien plus de questions que de réponses. Des domaines d’attaque existants (CSRF, XSS…) s’appliqueraient-ils de façon spécifique à WebMCP ? Quels risques si on l’associe à d’autres fonctionnalités émergentes comme Web AI et la Prompt API ?…

Illustration générée par IA

The post Qu’est-ce que WebMCP, qui vise la standardisation W3C ? appeared first on Silicon.fr.

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

17 février 2026 à 12:10

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

{ Tribune Expert } – Souveraineté numérique : le virage open source que les entreprises ne peuvent plus ignorer

17 février 2026 à 11:43

La souveraineté numérique n’est plus seulement un objectif stratégique optionnel pour les entreprises européennes, mais une exigence de conformité. Les différents cadres réglementaires en vigueur (NIS2, DORA, Cyber Resiliency Act au niveau européen, SecNumCloud au niveau local…) incluent des exigences précises en matière de transparence, de traçabilité et de réversibilité des infrastructures numériques.

Pour les intégrer à leur stratégie et se mettre en conformité, l’open source apparaît comme l’une des approches technologiques les plus viables pour les entreprises, car elle adresse trois piliers fondamentaux de la souveraineté numérique : offrir des solutions pour s’aligner avec la conformité réglementaire, faciliter la résilience opérationnelle et favoriser l’indépendance technologique. Le choix de l’open source, en plus d’aider à protéger les entreprises des risques réglementaires actuels, constitue une solution d’avenir sur le long terme.

Conformité réglementaire et obligations légales

L’Union européenne impose désormais un cadre réglementaire qui structure les choix technologiques des entreprises : NIS2 a pour objectif de minimiser les risques pour les SI des organisations essentielles (états, fournisseurs d’énergie ou télécoms) et impose une gestion auditable de la sécurité ; DORA, sa déclinaison pour les institutions financières, met en avant la résilience tant technique que opérationnelle et impose à ce titre de diversifier les fournisseurs tout en démontrant la réversibilité des briques de son SI ; enfin, le Cyber Resiliency Act (CRA) exige une cartographie exhaustive des composants logiciels, incluant leur cycle de vie et la mise à disposition des correctifs de sécurité.

Suivant leur secteur ou leurs enjeux en termes de souveraineté, les organisations et les entreprises peuvent être tenues de permettre un basculement rapide vers un autre prestataire de services en cas d’incident – ce qui nécessite d’éviter toute concentration chez un même fournisseur – ou encore à privilégier la portabilité des données et des applications dans un souci de réversibilité.

L’open source aide à répondre à ces obligations, car le code source ouvert permet l’auditabilité par des tiers indépendants; les licences encadrant l’usage de l’open source permettent également de continuer à utiliser les technologies indépendamment de l’existence d’un contrat de support avec des éditeurs ; enfin, la nature même du logiciel open source et la mise à disposition d’outils spécifiques facilitent grandement l’inventaire et l’audit des composants logiciels fréquemment exigés dans le cadre des réglementations.

Résilience opérationnelle et indépendance technologique

Les entreprises considérées comme critiques – notamment le secteur bancaire dans le contexte de DORA – ont l’obligation d’intégrer la notion de risques liés aux fournisseurs, et donc à éviter de concentrer leurs actifs informatiques auprès d’un seul opérateur de cloud, afin d’éviter de subir une interruption de service sur leurs activités.

Les exigences peuvent parfois être plus fortes, notamment pour les secteurs sensibles et critiques comme la défense, où les contraintes de sécurité et de souveraineté peuvent imposer de pouvoir continuer à fonctionner en cas de coupure totale d’internet, ce qui signifie que les services habituellement fournis par un cloud hyperscaler doivent pouvoir être répliqués en interne (mode “air-gapped”).

Une exigence que l’open source permet d’appliquer, car il fonctionne indépendamment d’une connexion internet ou d’une relation contractuelle avec un fournisseur, peut être déployé sur des datacenters souverains opérés par des prestataires européens, et offre une disponibilité technologique même si le fournisseur cesse ses activités.

Transparence, traçabilité et auditabilité

Sur le plan technologique, la souveraineté repose sur trois piliers : la transparence, la traçabilité et la réversibilité. Si les solutions propriétaires ne donnent pas l’accès au code source, limitant ainsi l’audit aux seuls comportements observables, les fournisseurs tout comme les utilisateurs ont beaucoup plus de difficultés à détecter les vulnérabilités cachées ; une opacité qui n’est pas acceptable pour les entreprises considérées comme critiques.

De son côté, l’open source permet l’auditabilité : le code est consultable par des tiers indépendants, les modifications sont documentées et traçables, et les vulnérabilités découvertes peuvent être corrigées sans devoir attendre la réaction du fournisseur.

Grâce à l’open source, les entreprises dont l’activité commerciale est centrée sur le logiciel peuvent également générer de façon automatique une cartographie complète de leurs composants applicatifs, une responsabilité qui leur incombe vis à vis de leurs clients et leurs utilisateurs selon les exigences du Cyber Resiliency Act, et ainsi identifier systématiquement les vulnérabilités.

Face aux risques de sécurité, aux exigences réglementaires toujours plus précises et strictes, et à la menace d’amendes prononcées par les autorités pour sanctionner les cas de non-conformité, les entreprises ont encore trop souvent tendance à choisir des solutions propriétaires. Si l’approche open source représente un territoire inconnu, notamment pour les organisations qui ne l’ont pas encore déployée et qui manquent de maturité en la matière, elle offre une véritable flexibilité.

L’Union européenne soutient d’ailleurs activement cette voie par des initiatives (notamment l’European Open Digital Ecosystem Strategy). Dans ce contexte, investir dans le logiciel open source, en particulier pour les organisations critiques et d’importance stratégique, permet de faire face aux risques réglementaires actuels et de demain.

*David Szegedi est Chief Architect – Field CTO Organisation chez Red Hat

The post { Tribune Expert } – Souveraineté numérique : le virage open source que les entreprises ne peuvent plus ignorer appeared first on Silicon.fr.

AWS rejoint Azure et Google Cloud sur la virtualisation imbriquée

17 février 2026 à 09:30

EC2 gère désormais officiellement la virtualisation imbriquée.

L’option est activable dans toutes les régions commerciales AWS ; pour le moment sur trois familles d’instances en CPU Intel : les C8i, M8i et R8i. Elle donne le choix entre KVM et Hyper-V. Avec quelques limites, dont :

  • Pas d’hibernation des instances
  • Désactivation du mode VSM (Virtual Secure Mode) sur les instances Windows
  • Absence de gestion des instances Windows à plus de 192 CPU

La virtualisation imbriquée constitue une alternative économique au bare metal pour exécuter des micro-VM (par exemple avec la technologie Firecracker d’AWS, qui nécessite KVM). Ou des outils de développement et de test logiciel – WSL2, émulateurs, pipelines CI/CD manipulant des images de VM…

virtualisation imbriquée

La virtualisation imbriquée, apparue sur Azure et Google Cloud en 2017

Intégrée dans Windows Server 2022, la virtualisation imbriquée avait été lancée sur Azure dès 2017. Elle ne gère officiellement qu’Hyper-V, sur les processeurs Intel avec extensions VT-x ainsi que sur les EPYC et Ryzen d’AMD. Entre autres limites, elle ne gère pas la mémoire dynamique (obligation d’éteindre la VM hôte pour ajuster sa mémoire).

Google aussi avait commencé à intégrer la virtualisation imbriquée dans son cloud public en 2017, à base de KVM. Initialement, c’était pour les VM Linux reposant sur des CPU Intel de génération Haswell et ultérieures. Elle est maintenant généralisée, mais toujours pas gérée sur les processeurs AMD ou Arm – et pas utilisable avec les VM E2 et H4D, ainsi que celles à mémoire optimisée.

Google donne une estimation de la surcharge qu’implique la virtualisation imbriquée. Il annonce une baisse potentielle de performance d’au moins 10 % pour les workloads liés au CPU. Et éventuellement davantage pour ceux orientés I/O.
AWS a potentiellement attendu que le hardware permette de minimiser ces pertes… et de garantir un niveau de sécurité conforme à ses standards.

OCI gère aussi la virtualisation imbriquée, à base de KVM.

Illustration principale générée par IA

The post AWS rejoint Azure et Google Cloud sur la virtualisation imbriquée appeared first on Silicon.fr.

De la BI à la DI, un glissement surtout terminologique ?

16 février 2026 à 16:03

Le descriptif d’un côté, le presciptif de l’autre.

Dans le jargon de l’informatique décisionnelle, une opposition terminologique s’est structurée sur ce fondement, entre BI (business intelligence) et DI (decision intelligence). Le premier trouvant une continuité dans le second, avec la promesse de combler l’écart entre les insights et les actions qui en découlent.

Gartner a fini par s’emparer de ce glissement lexical, publiant son premier Magic Quadrant dédié à la DI. Le cabinet américain estime que ce segment se trouve « sur la fin de sa phase d’émergence », accompagnant un basculement du « data-driven » au « decision-centric ». Il y inclut un bouquet de technologies – moteurs de règles, machine learning, préparation de données, graphes, agents, optimisation, simulation… – susceptibles d’accompagner la modélisation, l’orchestration, la gouvernance et l’amélioration des décisions.

17 fournisseurs, 6 « leaders »

L’axe « exécution » du Magic Quadrant de la DI reflète la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation est la suivante :

Rang Fournisseur
1 FICO
2 SAS
3 Aera Technology
4 IBM
5 Decisions
6 ACTICO
7 Quantexa
8 Pegasystems
9 o9 Solutions
10 Oracle
11 Sapiens
12 InRule Technology
13 Faculty
14 FlexRule
15 Rulex
16 RelationalAI
17 CRIF

Sur l’axe « vision », qui reflète les stratégies (sectorielle, géographique, R&D, commerciale, marketing…) :

Rang Fournisseur
1 Quantexa
2 IBM
3 FICO
4 Aera Technology
5 ACTICO
6 SAS
7 Sapiens
8 Faculty
9 Pegasystems
10 o9 Solutions
11 FlexRule
12 Decisions
13 InRule Technology
14 Rulex
15 RelationalAI
16 Oracle
17 CRIF

Six fournisseurs se trouvent dans le carré des « leaders ». Quatre sont américains (Aera Technologies, FICO, IBM, SAS) ; un, allemand (ACTICO) ; un, anglais (Quantexa).

Ils sont trois à être également classés dans le dernier Magic Quadrant de la BI : Oracle (« leader »), IBM et SAS (tous deux « visionnaires »).

FICO et IBM ne se distinguent pas sur l’approche sectorielle…

Quantexa et SAS ont droit à des remarques positives concernant leur stratégie sectorielle. Chacun pour sa feuille de route claire et ses partenariats.

On ne peut pas en dire autant pour FICO et IBM. Le premier, parce qu’il s’adresse essentiellement à l’industrie bancaire, touchant d’autres secteurs via des solutions sur lesquelles des partenaires ont le lead. Le second, parce que les dernières améliorations qu’il a apportées à sa plate-forme ne ciblaient pas de verticales spécifiques.

… ni sur le pricing, comme SAS

Quantexa se distingue aussi par sa tarification. Entre modèles à la consommation et axés sur la valeur, elle est flexible, comme d’ailleurs la contractualisation. Même constat chez Aera, plus globalement salué pour son exécution commerciale, marquée par une adoption croissante sur les différentes plaques géographiques. Quant à ACTICO, il sait adapter son approche aux profils d’acheteurs.

Chez FICO, le pricing à la consommation peut devenir complexe à mesure que l’usage vient couvrir des dimensions comme le stockage, les transactions et les modules complémentaires. Cette complexité peut également se retrouver chez IBM, avec qui la marge de négociation s’avère limitée. Ce dernier point vaut aussi pour SAS, qui n’a pas non plus une politique tarifaire des plus souples.

Des « anciens » à la forte assise financière

SAS, qui fête ses 50 ans en 2026, dispose d’une assise financière (croissance + profits) qui lui permet de maintenir un niveau d’investissement R&D sur le DI.
ACTICO (11 ans en 2026) aussi est profitable, avec une croissance constante de son chiffre d’affaires. Et Gartner salue également ses investissements R&D. Il n’en dit pas moins concernant FICO (70 ans en 2026), qui se distingue aussi par son taux de rétention client.

Aera (9 ans en 2026) n’a pas encore atteint la rentabilité. Et ses perspectives de croissance apparaissent plus restreintes que chez les concurrents, sa clientèle étant moins diversifiée en termes de secteurs d’activité.

ACTICO et Quantexa, pas salués pour leur marketing

Aera se distingue plus positivement sur sa stratégie marketing : les investissements sont importants, avec un message clair et cohérent et une capacité à quantifier les bénéfices métier.

ACTICO, au contraire, investit moins dans ce domaine que ses concurrents. Et son positionnement n’apparaît pas aligné sur les tendances du marché à moyen terme (2 à 5 ans).
Du côté de Quantexa, on a du mal à démontrer la valeur de manière consistante et à s’aligner sur les profils d’acheteurs. Les investissements dans le channel sont plus bas que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Des roadmaps globalement robustes

Non salué sur le marketing, Quantexa l’est en revanche pour sa compréhension du marché, traduite par des éléments différenciants dans son offre.
Bon point aussi pour Aera, que sa feuille de route positionne idéalement tant pour capter de nouveaux clients que remplacer des solutions concurrentes.
Roadmap également robuste pour IBM, avec de l’expérience sur l’orchestration agentique et une distinction claire opérée entre DI et data science/analytics. Le groupe américain a aussi tendance à livrer des fonctionnalités en avant sur le marché (langage naturel, agentique, simulation).
Chez ACTICO, Gartner apprécie la cadence de livraison de fonctionnalités et le respect constant des échéances de la feuille de route.

FICO, au contraire, a tendance à comparer sa plate-forme à des technologies relevant de segments annexes. Il la positionne en tout cas sur des appels d’offres qui touchent, par exemple, au CRM. En servant ainsi ces besoins adjacents, il est mal aligné avec certains besoins DI critiques, considère Gartner.

Aera et SAS, classés peu innovants

FICO a droit à un bon point sur le volet innovation. En première ligne, ses fonctionnalités d’automatisation et de simulation portées par un modèle de fondation. Ainsi que ses technologies brevetées pour l’explicabilité et l’atténuation des biais.

L’innovation est un point noir chez Aera, en tout cas au vu du peu de fonctionnalités distinctives incluses dans ses dernières releases.
Chez SAS, des capacités-clés (modélisation par GenAI, frameworks agentiques…) restent en développement ou ne sont pas encore disponibles globalement.

IBM et SAS ont l’avantage de l’empreinte géographique…

SAS a pour lui son empreinte globale, son écosystème de partenaires, son support multilingue, ses certifications de conformité régionales et ses options de déploiement flexibles.
IBM aussi se distingue par son réseau de partenaires, ainsi que par le niveau de régionalisation de ses investissements avant-vente.

Aera n’a pas la même présence géographique, jugée même « minimale » en Amérique du Sud et en Asie-Pacifique. Ses investissements avant-vente sont sous la moyenne. Son réseau en Amérique du Nord et en EMEA comprend surtout des partenaires globaux plutôt que locaux.

… mais laissent un point d’interrogation

Les deux « anciens » que sont IBM et SAS font l’objet d’un avertissement concernant leur modèle économique. Le premier, parce qu’il ne met, dans le spectre de ses activités, que modérément l’accent sur le DI, laissant un point d’interrogation sur son investissement à long terme. Le second, parce que lui aussi ne priorise que modestement la DI, tendant parfois à la confondre avec la BI.

ACTICO et Quantexa peuvent progresser sur l’expérience client

Deux « leaders » ont droit à un mauvais point sur l’expérience client.
Chez ACTICO, les études de cas et plus globalement les preuves de ROI manquent, en plus d’une clientèle parfois moins satisfaite des fonctionnalités que chez les concurrents.

Chez Quantexa, la satisfaction est variable sur des capacités critiques (optimisation, simulation…), en plus d’un turnover plus important tant dans les fonctions techniques que dans celles qui interagissent avec le client.

Illustration © kwanchaift – Adobe Stock

The post De la BI à la DI, un glissement surtout terminologique ? appeared first on Silicon.fr.

{ Tribune Expert } – L’IA au travail : détecter les menaces, sécuriser les usages

16 février 2026 à 15:15

L’IA générative est désormais présente dans notre quotidien professionnel et personnel. Ces assistants répondent instantanément à nos questions, rédigent des textes, résument des documents, et font gagner un temps considérable. Mais ils sont aussi victimes “d’hallucinations” et peuvent présenter des failles de sécurité mettant à mal des informations confidentielles.

Comment profiter de ces outils tout en sécurisant leur usage ? Voici quelques risques et solutions possibles.

Les menaces cyber liées aux LLM

Prompt injection: manipulation des instructions pour contourner les règles et accéder à des informations sensibles. Un utilisateur malveillant peut formuler une question ou une instruction de manière à contourner les garde-fous intégrés au modèle et obtenir des informations confidentielles. Par exemple, un employé ou un tiers pourrait, par un enchaînement de phrases trompeuses, inciter l’assistant à divulguer des données internes sensibles ou des secrets commerciaux. Le plus souvent, cette manipulation ne nécessite pas d’accès direct aux systèmes critiques, rendant le risque particulièrement préoccupant.

Fuite de données: divulgation involontaire d’informations confidentielles ou stratégiques. Lorsqu’un assistant génère des réponses à partir de documents internes ou de bases de connaissances, il existe un risque que des informations confidentielles soient reformulées et partagées accidentellement avec des utilisateurs non autorisés. Cette vulnérabilité devient critique dans des secteurs régulés comme la finance, la santé ou la défense, où la moindre divulgation peut avoir des conséquences financières et légales lourdes.

Abus des API et systèmes connectés: détournement des capacités d’action du LLM sur des systèmes internes. Les assistants IA ne se contentent pas de répondre à des questions : ils peuvent interagir avec des systèmes via des API ou automatiser certaines tâches. Si ces accès ne sont pas correctement sécurisés, un acteur malveillant pourrait exploiter le modèle pour exécuter des actions non autorisées, comme modifier des configurations, supprimer des données ou déclencher des processus sensibles.

Hallucinations exploitables: diffusion de fausses informations pouvant induire en erreur les utilisateurs ou servir de vecteur de phishing. Les modèles de langage peuvent « halluciner », c’est-à-dire générer des informations fausses mais plausibles. Si celles-ci ne sont pas identifiées, elles peuvent induire en erreur les employés, fausser des décisions stratégiques ou servir de base à des attaques de phishing sophistiquées. Un e-mail généré automatiquement et contenant de fausses instructions financières pourrait convaincre un employé de transférer des fonds à un tiers frauduleux.

Empoisonnement des données: altération des modèles via des données malveillantes pour biaiser leurs réponses. En alimentant le modèle avec des informations malveillantes ou biaisées, un acteur externe peut altérer ses réponses et influencer ses comportements. À terme, cela peut conduire à une dégradation de la qualité des décisions, à des recommandations erronées ou à des vulnérabilités exploitées pour nuire à l’entreprise.

Comment sécuriser l’usage de l’IA générative

Isolation et contrôle des privilèges: restreindre strictement l’accès aux systèmes et données critiques. Les assistants IA doivent être isolés des systèmes sensibles et n’obtenir que les accès strictement nécessaires à leurs fonctions. Limiter leur portée réduit le risque d’abus et rend beaucoup plus difficile l’exploitation de failles pour accéder à des informations stratégiques.

Filtrage et validation des entrées et sorties: détecter et bloquer les instructions malveillantes et les réponses dangereuses. Pour prévenir les injections de prompt et les fuites accidentelles, il est essentiel de filtrer les requêtes adressées à l’IA et de vérifier la pertinence des réponses avant leur diffusion. Des mécanismes automatiques de contrôle et de validation, combinés à des règles métier, permettent de réduire les risques d’exécution d’instructions malveillantes.

Supervision humaine et garde-fous métier: validation des actions critiques et règles explicites sur l’usage autorisé. Une supervision humaine des actions critiques de l’IA et la définition de politiques d’usage explicites garantissent que l’IA reste un outil d’aide et non un acteur autonome pouvant générer des pertes ou des incidents. La combinaison de l’intelligence humaine et artificielle est un garde-fou essentiel.

Journalisation et monitoring: suivi des interactions pour identifier rapidement des usages anormaux ou des tentatives d’attaque. La traçabilité est cruciale. En enregistrant et en surveillant toutes les interactions avec l’IA, les entreprises détectent rapidement des comportements suspects, analysent des tentatives de fraude et réagissent avant que les incidents ne deviennent critiques. Le monitoring en temps réel permet également d’identifier des tendances d’usage qui pourraient indiquer des vulnérabilités.

Tests de sécurité dédiés: audits et simulations pour détecter les vulnérabilités avant qu’elles ne soient exploitées. Les simulations d’attaques et les évaluations de risques permettent d’identifier des failles avant que des acteurs malveillants ne les exploitent, garantissant que le déploiement de l’IA reste un levier de productivité plutôt qu’une source de pertes financières.

*Adrien Gendre est CPO chez Hornetsecurity

 

 

The post { Tribune Expert } – L’IA au travail : détecter les menaces, sécuriser les usages appeared first on Silicon.fr.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 14:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

16 février 2026 à 12:31

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

Comment ServiceNow se construit par croissance externe

16 février 2026 à 11:23

Les fonctionnalités d’Integration Hub et d’Automation Engine, la base de données maison RaptorDB, un catalogue de connecteurs enrichi grâce à l’acquisition de Raytion, une techno zero copy… Sur cette base, ServiceNow avait officiellement pris, à l’automne 2024, le virage data fabric.

Après s’être concentrée sur les aspects catalogue et gouvernance, l’entreprise américaine vise l’ajout d’une couche d’analytics. Elle recourt pour cela à de la croissance externe. Dans son viseur, l’éditeur néerlandais Pyramid Analytics, régulièrement classé ces dernières années dans le Magic Quadrant de la BI. Un accord d’acquisition a été signé.

Près de 3 Md$ pour Moveworks et 8 pour Armis

Une autre acquisition est en attente : celle d’Armis, officialisée en décembre 2025, pour un montant de 7,75 Md$ en numéraire. Il est question de la finaliser au deuxième semestre 2026.
Les capacités d’Armis en matière de gestion de la surface d’attaque IT/OT seront intégrées avec la CMDB de ServiceNow. Qui compte ainsi renforcer son segment d’activité « sécurité et risque », sur lequel la valeur moyenne des contrats a récemment passé le milliard de dollars.

Mi-décembre, ServiceNow avait bouclé une autre acquisition majeure : celle de Moveworks, annoncée 9 mois plus tôt. Montant : 2,85 Md$, en cash et en actions. Elle lui apporte une technologie de recherche d’entreprise… et un assistant IA voué à constituer un point d’entrée unique pour les utilisateurs de la plate-forme.

Cuein, Raytion et UltimateSuite, d’autres acquisitions « couleur IA »

En janvier 2025, ServiceNow avait annoncé une autre opération destinée à renforcer sa data fabric. Il a mis la main sur Cuein. Cette entreprise américaine née en 2021 s’était spécialisée dans l’analyse des données d’interactions client.

L’annonce de l’accord avec Raytion était tombée en juillet 2024. ServiceNow avait absorbé cette entreprise allemande née en 2001 pour ses technologies de recherche d’information, qu’il entendait intégrer à sa plate-forme, notamment dans le cadre de l’offre Now Assist.

En janvier 2024 était intervenue une autre manœuvre contribuant à la stratégie data/IA : l’acquisition d’UltimateSuite (République tchèque) et sa technologie de task mining.

Mission Secure et Veza, pour le volet sécurité

Plus récemment (décembre 2025), ServiceNow a mis la main sur Veza. Cette entreprise américaine née en 2020 donne dans la gouvernance des identités, à l’appui d’un graphe d’accès. ServiceNow s’en est emparé dans une perspective de gestion des agents IA, tout en promettant plus globalement d’ajouter du contexte dans ses solutions de sécurité (réponse aux incidents, gestion intégrée des risques).

Autre acquisition touchant à la sécurité : Mission Secure (novembre 2024). Cette entreprise américaine fondée en 2014 a développé une solution de cartographie des actifs OT.

La société israélienne Atrinet est quant à elle à l’origine de NetACE, solution de gestion du cycle de vie des réseaux télécoms. ServiceNow la lui a achetée en février 2024.

Quality 360, Intella, 4Industry… ServiceNow pêche dans le vivier des applications natives

Logik.ai est la dernière application métier dont ServiceNow a fait l’acquisition. C’était en avril 2025. Il s’agit d’un outil de gestion commerciale. Plus précisément un logiciel CPQ (Configure, Price, Quote ; configuration, tarification et édition de devis). On le doit à un entreprise américaine créée en 2017.

À l’occasion de cette annonce, ServiceNow avait rappelé que son activité « CRM & Industry Workflows » était la plus en croissance de son portefeuille. Il ne se présentait alors pas encore comme « la tour de contrôle IA pour réinventer l’entreprise » (c’est le cas désormais), mais comme « la plate-forme IA pour la transformation de l’entreprise ». C’était aussi le cas en février 2025, lorsqu’il avait acheté un logiciel à Advaia (ESN d’origine suédoise). En l’occurrrence, Quality 360, dédié au management de la qualité. Il a rejoint l’offre MCO (Manufacturing Commercial Operations).

Quality 360 était un logiciel bâti sur la plate-forme ServiceNow. Même chose pour Intella, solution de recrutement signée de l’ESN américaine Advance Solutions. Et pour 4Industry, solution de gestion de la production signée d’une entreprise néerlandaise. ServiceNow s’est emparé de la première en mai 2024. Il avait acquis la seconde en mars de la même année, parallèlement à Smart Daily Management, achetée à EY.

Dans cette catégorie « ServiceNow-native », on peut ajouter ToolBox OH&S. Cette solution de gestion des processus de santé et sécurité au travail émane d’Enable Professional Services, un spécialiste ServiceNow australien qui évolue dans le giron de Fujitsu.

La première acquisition annoncée sous l’ère ChatGPT avait porté sur G2K. C’était en juillet 2023. Cette entreprise allemande née en 2013 ciblait le retail avec une technologie d’activation des données en ligne et en magasin. ServiceNow comptait la décliner sur des segments comme les transports, la santé et le divertissement. Il se présentait alors non comme une « plate-forme IA », mais comme une « digital workflow company »…

Illustration © agsandrew – Shutterstock

The post Comment ServiceNow se construit par croissance externe appeared first on Silicon.fr.

Laurent Martini nommé directeur général EMEA d’Anaplan

16 février 2026 à 11:00

Laurent Martini apporte une expérience de plus de deux décennies dans le secteur du logiciel. Il aura pour mission d’accélérer la croissance du chiffre d’affaires et de renforcer la position d’Anaplan dans la région, où l’entreprise compte parmi ses clients L’Oréal, AB InBev, Bayer et JLR. Il reportera à Greg Randolph, président et Chief Revenue Officer, et rejoindra le comité exécutif d‘Anaplan.

Auparavant, Laurent Martini occupait le poste de vice-président des ventes EMEA chez Splunk, où il pilotait les équipes commerciales de la région avec une croissance annuelle de 20 %.
Avant cela, il a dirigé une phase d’hypercroissance chez Pure Storage en tant que directeur général France, faisant passer le chiffre d’affaires de 5 millions à 54 millions $ en quatre ans. Il a également occupé plusieurs postes de direction chez Symantec, dont celui de directeur général France, où il supervisait une activité de 100 millions $.

Accélérer la croissance

« Laurent est un dirigeant de premier plan, reconnu pour son expertise dans le développement d’éditeurs de logiciels à l’échelle mondiale et la construction d’équipes performantes, résolument orientées client », explique Greg Randolph. « Son parcours, marqué par une forte création de valeur et des partenariats go-to-market solides, constitue un atout majeur pour accélérer notre croissance dans la région. »

The post Laurent Martini nommé directeur général EMEA d’Anaplan appeared first on Silicon.fr.

❌