Vue lecture

Apple ouvre une nouvelle phase dans la fin de vie des Mac Intel

Attention, ce programme ne sera prochainement plus compatible avec votre ordinateur.

Sur les quelques modèles de Mac Intel qui la gèrent, la dernière version de macOS (26.4, actuellement en bêta) affiche de telles alertes au lancement des applications x86.

En toile de fond, la fin de vie de la couche d’émulation Rosetta 2. Comme annoncé à la dernière WWDC, macOS 27 – qu’Apple publiera possiblement en septembre 2026 – sera la dernière version à la prendre pleinement en charge.

Au-delà, n’en sera maintenu qu’un sous-ensemble, pour d’anciens jeux dépendant de bibliothèques spécifiques et pour des logiciels exécutant des binaires x86 dans des VM Linux.

Des centaines de programmes s’appuient encore sur Rosetta 2

Sur les 3729 applications que liste le site « Does it ARM? », environ la moitié ont une version native Apple Silicon. Parmi celles qui reposent encore sur Rosetta 2 (10 % des apps listées), il y quelques logiciels Adobe (After Effects, Animate, Bridge, Media Encoder), Android Studio, Audacity, AutoCAD, etc.

Parmi la centaine d’applications qui n’ont ni version native, ni compatibilité Rosetta 2 figurent essentiellement des émulateurs (BlueStacks, Genymotion, VMware Fusion, Virtualbox…) et des jeux (Crysis, GTA V, Valorant…).

Apple ne diffusera plus de nouvelles fonctionnalités pour les Mac Intel après 2026. Il fournira des correctifs de sécurité jusqu’en 2028 pour les modèles les plus récents (MacBook Pro 16 pouces 2019, Mac Pro 2019, MacBook Pro 13 pouces 2020, iMac 27 pouces 2020). Il aura commercialisé certains d’entre eux jusqu’en 2023.

La transition est (un peu) moins subite qu’elle ne le fut lors du précédent changement d’architecture (passage de PowerPC à Intel). Apple l’avait officialisée à la WWDC 2005. L’ensemble de la gamme avait basculé l’année suivante. Mac OS X Snow Leopard, publié en octobre 2007, fut le dernier à supporter PowerPC. Rosetta, première du nom, était restée fonctionnelle jusque sur Mac OS X Snow Leopard, lancé en août 2009. Avec la migration vers les puces Intel, les Mac étaient devenus incompatibles avec Mac OS Classic (Mac OS 9 et versions antérieures). Il était en revanche devenu possible d’utiliser Windows.

Illustration © Lester Balajadia – Shutterstock

The post Apple ouvre une nouvelle phase dans la fin de vie des Mac Intel appeared first on Silicon.fr.

  •  

Décennie numérique : l’UE appelée à réviser ses KPI

Tel que structuré, le Programme d’action pour la décennie numérique risque de favoriser les démarches en silos.

L’Association des villes et des municipalités finlandaises est de cet avis. Elle l’a exprimé en réponse à une consultation publique que la Commission européenne a récemment organisée. En ligne de mire, le réexamen dudit programme, à réaliser au plus tard le 30 juin 2026.

Une centaine de réponses ont été reçues. Nous en évoquons ici quelques-unes qui proposent d’ajouter, de supprimer ou de remodeler des objectifs et/ou les indicateurs associés, sur les quatre « points cardinaux » du programme. À savoir les infrastructures, les compétences, la numérisation des services publics et la transformation numérique des entreprises.

1 – Sur les infrastructures

Le gouvernement tchèque recommande que les indicateurs relatifs à la connectivité tiennent compte des réalités géographiques et économiques. L’École polytechnique de Milan en fait autant. Elle privilégie un indicateur de « reach universel » indépendant du mix technologique.

Ne pas zapper la connectivité indoor

Du côté de la Wi-Fi Alliance, on appelle à inclure une mesure des performances du Wi-Fi indoor. Même chose chez l’association professionnelle FTTH Council Europe, qui pousse aussi pour l’introduction d’indicateurs d’extinction des réseaux cuivre.

Penser à la résilience des réseaux…

Europacable (association des fabricants de fils et câbles européens) invite à inclure des indicateurs sur la résilience des réseaux : redondance, taux de pannes, délais de remise en service.

… et aux consommateurs

À l’instar du BEUC (Bureau européen des unions de consommateurs), ecta (association d’opérateurs télécoms « alternatifs ») souhaite voir apparaître des indicateurs concernant la variété des offres commerciales. Elle demande aussi de suivre le prix moyen des offres les plus populaires, année par année, en comparant avec les États-Unis, le Japon et la Corée.

Démontrer l’allégement du fardeau administratif

ecta promeut aussi des indicateurs spécifiques à la 5G autonome. Et d’autres reflétant l’allégement effectif du fardeau administratif : capacité à vendre des services numériques à travers l’UE, délai de mise en service des datacenters, des câbles sous-marins et des réseaux FTTH.

L’EWIA (association professionnelle de TowerCo) est dans le même esprit. Elle souhaite des indicateurs couvrant les procédures d’autorisation (durée entre demande et octroi) comme la disponibilité des terrains et bâtiments publics pour le déploiement d’infrastructures de communications électroniques. Pour ce qui est du CISPE (association de fournisseurs cloud), il suggère l’objectif de réduire de moitié entre 2020 et 2030 les délais d’autorisation pour les datacenters et les raccordements au réseau électrique.

Mieux mesurer les dépendances

L’Associazione Italiana Internet Provider (principale association italienne de FAI) axe sa contribution sur la souveraineté. Elle juge les objectifs actuels trop génériques pour refléter les dépendances à des clouds non européens. Il convient, estime-t-elle, d’évaluer la part de workloads traités par des acteurs européens et la proportion de datacenters que ces derniers contrôlent. Autre remarque : l’objectif de 10 000 nœuds edge « climatiquement neutres » ne correspond plus aux besoins du marché et des territoires, vu la consommation énergétique de l’IA et la concentration des capacités dans les mains de quelques fournisseurs.

Évaluer la « capacité IA » de l’Europe

Cisco aimerait que le Programme pour la décennie numérique permette de mesurer si l’Europe est capable de déployer des workloads IA à grande échelle. Pour cela, suggère-t-il, il faut des indicateurs reflétant par exemple la part des ressources de calcul optimisées.

2 – Sur les compétences

L’un des objectifs du Programme pour la décennie numérique est de développer des compétences numériques de base chez 80 % des 16-74 ans.

Suivre le taux d’insertion

L’AMETIC (association du secteur IT en Espagne) recommande de le conserver, parallèlement à l’objectif de former 20 millions de spécialistes TIC. Mais conseille d’y ajouter un prisme « qualité » (taux d’emploi à 6 et 12 mois après formation) et « équité » (taux de femmes et de plus de 45 ans).

Être plus explicite sur l’IA et la cyber

All Digital (réseau de centres de compétences numériques) appelle à une évaluation plus fine de ce « critère des 80 % », par tranches d’âge. Il invite également à intégrer plus explicitement les dimensions IA et cyber, ainsi que le bien-être numérique.

FTTH Council Europe exhorte quant à lui à porter l’objectif à 100 %. Motif : une question de cohérence avec l’ambition de numériser 100 % des services publics essentiels.

Mesurer la connaissance des stacks européennes

La Gesellschaft für Informatik (association allemande d’informaticiens) valide l’objectif de former 20 millions de professionnels. Elle aimerait toutefois qu’au moins 60 % de ces professionnels aient une expertise avancée sur des piles européennes ou open source. Et que le même taux d’entreprises développent des compétences internes en souveraineté numérique. Par exemple avec des postes de Chief Sovereignty Officer.

Assouplir la définition du « spécialiste des TIC »

La présidence du Conseil des ministres italien considère, en écho à l’École polytechnique de Milan, qu’il est nécessaire de collecter des données à fréquence annuelle, et non pas tous les deux ans. Il prône aussi une définition plus souple des « spécialistes des TIC », afin qu’elle n’exclue pas les professionnels « hybrides » ou en cours de spécialisation.

S’intéresser aux certifications sur l’open source

L’Institut économique polonais souhaiterait que soit calculée la proportion de ces spécialistes certifiés sur des systèmes open source. L’ISC2 (International Information System Security Certification Consortium), que soit introduit un objectif de 300 000 professionnels cyber supplémentaires formés d’ici à 2030.

Quand les formations accentuent les dépendances

L’European DIGITAL SME Alliance (communauté de PME du numérique) s’arrête sur les formations. Elle regrette que ces dernères se fassent surtout sur des plates-formes non européennes ; et qu’elles préparent à des technologies essentiellement non européennes.

3 – Sur la numérisation des services publics

L’European DIGITAL SME Alliance se prononce aussi sur la numérisation des services publics. Elle souhaite qu’à l’horizon 2030, 60 % de la valeur de la commande publique aille à des fournisseurs européens. La Gesellschaft für Informatik va plus loin, fixant l’objectif à 70 %. L’Associazione Italiana Internet Provider propose de viser des paliers : 20 % en 2028, 50 % en 2031, 100 % en 2035.

Penser accessibilité

La CERMI CV (association représentative de la société civile dans la Communauté valencienne, en Espagne) suggère de passer d’une logique de disponibilité des services publics à leur accessibilité. Elle souhaite que 100 % des services essentiels (« santé, justice, administration, éducation ») respectent la norme EN 301459 à l’horizon 2030.

L’École polytechnique de Milan souhaiterait des données plus granulaires sur la numérisation de la justice et de l’éducation. Elle recommande de passer d’une logique d’évaluation « client mystère » à une collecte de données administratives à grande échelle ou à des sondages utilisateurs.

Décliner les objectifs au niveau local…

La VNG (association de municipalités néerlandaises) aimerait que l’UE structure les objectifs du programme par niveaux d’administration. Les responsabilités pourraient alors être clarifiées et la contribution des autorités locales, favorisée.

… et la souveraineté aussi

L’Institut économique polonais milite pour une mesure de la souveraineté au niveau local, chaque année dans un secteur différent. Sur le volet santé, il invite à dépasser la notion de disponibilité des données pour évaluer le déploiement d’outils prédictifs, dans une perspective de médecine préventive.

4 – Sur la transformation numérique des entreprises

L’un des objectifs du Programme pour la décennie numérique est d’atteindre 75 % d’entreprises utilisant le cloud, l’IA ou le big data.

Donner une place au multicloud

L’Open Cloud Coalition le trouve imprécis. Elle considère notamment qu’il faudrait mesurer la capacité à faire du multicloud. Et par là même l’ampleur des verrouillages fournisseur.

Le CISPE aussi souhaite un indicateur plus précis : au moins 75 % des charges de travail dans le cloud par exemple. Et au moins 50 % sur des infrastructures et services souverains. Ainsi qu’au moins 90 % des PME utilisant des « services cloud de base » (e-mail, stockage, collaboration).

Suivre les licornes de la naissance à l’exit

Dans la lignée de sa proposition sur la part des fournisseurs européens dans la commande publique, La Gesellschaft für Informatik souhaiterait qu’au moins 60 % des usages cloud des entreprises se basent sur des plates-formes européennes ou open source. Elle suggère aussi de mesurer le taux de licornes nées sur des stacks européennes.

L’Institut économique polonais recommande pour sa part de s’intéresser au taux de start-up et de scale-up qui réalisent leur exit en Europe. Un indicateur qu’il juge plus pertinent que l’objectif visant à doubler le nombre de ces licornes pour démontrer la capacité à créer un environnement favorable à l’innovation.

Jauger la maturité cyber au déploiement d’architectures « modernes »

Les objectifs du programme ont été définis avant la vague GenAI, fait remarquer Crowdstrike. L’éditeur invite à les mettre à jour… pour consacrer la sécurité « augmentée par IA » comme un élément critique de l’écosystème numérique. Pour matérialiser l’objectif d’une maturité cyber de base dans les organisations publiques et privées, il conseille de mesurer l’adoption d’architectures « modernes » (zero trust, MDR…) et le déploiement des SOC transfrontaliers. Tout en intégrant des sous-objectifs : couverture EDR, déploiement de SIEM next-gen, renseignement continu sur les menaces dans les secteurs critiques, etc.

Illustration générée par IA

The post Décennie numérique : l’UE appelée à réviser ses KPI appeared first on Silicon.fr.

  •  

Après la RAM et les CPU, le spectre d’une pénurie de disques durs

Cette année, il sera difficile de se procurer des disques durs neufs chez Western Digital comme chez Seagate.

Les deux fabricants ont annoncé la couleur fin janvier, lors de la présentation de leurs résultats trimestriels. Le premier a déclaré que ses stocks pour 2026 étaient quasiment écoulés (« pretty much sold out »). Le deuxième a expliqué avoir « totalement alloué » sa capacité de production de disques durs pour serveurs – lesquels représentent 89 % de sa capacité vendue.

Western Digital dit merci à l’inférence

Western Digital affirme que ses 7 principaux clients ont des commandes fermes pour 2026. Trois d’entre eux ont des accords « robustes » pour 2027 ; un pour 2028.

La tendance est à signer les contrats plus en amont, et pour une durée plus longue. La conséquence d’une tension sur l’approvisionnement que Western Digital impute essentiellement à l’IA. En particulier à l’heure où la valeur bascule de « l’entraînement à l’inférence » : il faut stocker les données produites.

Sur le dernier trimestre fiscal, les 10 principaux clients ont représenté 76 % du chiffre d’affaires (contre 67 % un an plus tôt). En première ligne, les hyperscalers, sur lesquels Western Digital a d’ailleurs centré son organisation.

Sur le trimestre en question, le chiffre d’affaires a dépassé 3 milliards $ (dont 89 % grâce à l’activité datacenter), en progression annuelle de 25 %. La croissance est encore plus nette si on exclut l’activité de Sandisk, séparée en février 2025 (elle représentait alors environ un quart du CA).

D’autres indicateurs sont au vert : + 800 points de base pour la marge brute (45,7 %), + 680 pour la marge opérationnelle (30 %, notamment en conséquence d’une amélioration de la structure de coûts sur les nouvelles générations de disques durs) et + 62 % pour le résultat d’exploitation (908 M$). Le résultat net (1,84 Md$) est « gonflé » par un reliquat de participation dans Sandisk valorisé à 1,1 Md$ – il est question de l’exploiter pour réduire la dette. La capacité livrée a atteint 215 exaoctets (+ 22 % sur un an).

Les prévisions pour le trimestre encore font état d’une hausse de 40 % du CA (milieu de fourchette) et d’une marge brute de 47 à 48 %.

Seagate prévoit « un bon profit » sur les éventuels disques durs supplémentaires

Seagate aussi constate que ses clients – à commencer par les fournisseurs cloud – projettent leur demande à plus long terme. Ce qui « démontre qu’assurer l’approvisionnement reste leur priorité ».

Le fabricant n’exclut pas de produire un peu plus de disques. Mais il ne cache pas qu’il les commercialisera « avec un bon profit », dans un contexte de « demande exceptionnellement forte », en particulier pour les datacenters.

Les indicateurs financiers progressent dans des échelles comparables à celles de Western Digital. Sur le dernier trimestre fiscal de Seagate, le chiffre d’affaires a crû de 22 %, atteignant 2,83 Md$ (dont 79 % sur le segment datacenter). La marge brute a augmenté de 670 points de base (42,2 %) ; la marge opérationnelle, de 880 points (29,9 %) ; le résultat d’exploitation, de 72 % (843 M$).

La capacité livrée s’élève à 190 Eo (+ 26 % sur un an), dont 87 % pour le datacenter. La capacité moyenne des disques durs serveur livrés a augmenté de 22 %, avoisinant 23 To (26 To pour ceux vendus aux fournisseurs cloud).

Les prévisions pour le trimestre en cours situent le chiffre d’affaires autour de 2,9 Md$. Et la marge opérationnelle autour de 35 %. « La demande dictera le prix », a affirmé Seagate, qui estime que ses revenus et profits devraient croître de trimestre en trimestre.

La demande se reporte sur les SSD

Ces éléments confirment les signaux perçus au moins depuis l’automne dernier. Face aux difficultés d’approvisionnement en disques durs, une partie de la demande a basculé sur les SSD… dont les prix se sont envolés. A fortiori dans le contexte de la pénurie de puces mémoire.

Cette dernière découle essentiellement de la « course à l’IA » que se livrent les hyperscalers. Et de la demande en GPU qui en résultent. Pour faire tourner des modèles, ils ont besoin de mémoire à large bande passante. À mesure que la fabrication se réoriente sur ce type de DRAM, les autres modules se raréfient.

En parallèle, divers signaux accréditent l’hypothèse d’une future pénurie de CPU, notamment pour serveurs. Depuis quelques mois, Intel emploie, dans sa communication publique, le mot shortage. Qu’on peut traduire par « manque »… ou « pénurie ». Il ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande. Avant tout en processeurs Xeon (son activité datacenter vient de connaître une croissance séquentielle « sans précédent depuis plus d’une décennie »). Le phénomène est renforcé par un yield en dessous des attentes. Il l’est aussi par la difficulté des fabricants de processeurs à alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. CPU sur lesquels l’IA elle-même tend à se déporter, vu la rareté et la cherté des GPU.

Illustration générée par IA

The post Après la RAM et les CPU, le spectre d’une pénurie de disques durs appeared first on Silicon.fr.

  •  

Koyeb, un atout PaaS dans les mains de Mistral AI

Une offre d’infrastructure pour l’IA, donnant accès à une stack privée avec une variété d’options de déploiement, du bare metal au PaaS managé. Telle était, dans les grandes lignes, la promesse de Mistral Compute à son lancement mi-2025.

Mistral AI a récemment annoncé un projet à 1,2 Md€ pour implanter, en Suède, un datacenter qui alimentera ce « cloud IA ». Il y ajoute une acquisition. La cible : Koyeb.

Cette entreprise française est née en 2019 à l’initiative de trois anciens de Scaleway*. Isai, Serena Capital et Kima Ventures, entre autres, y ont mis leurs billes. Elle présente aujourd’hui son offre comme une « plate-forme serverless pour les applications IA ». Techniquement, il s’agit d’un PaaS – d’ailleurs encore comparé à Render et à Heroku dans sa documentation.

Du H200 et du B200 depuis peu

À cette partie compute, Koyeb avait adjoint, en 2025, du PostgreSQL managé, en plus de faire la connexion avec diverses bases de données (dont MongoDB, investisseur et client). Il a surtout pris le virage de l’IA en multipliant les options GPU et autres puces accélératrices (les RTX Pro 6000, les H200 et les B200 sont arrivées début 2026). Tout en enrichissant son catalogue de composants déployables « en un clic » (n8n, Ollama, Open WebUI, Unsloth, Jupyter Notebook…) et en développant des intégrations avec les assistants de codage (serveur MCP, pack de skills).

Koyeb s’appuie sur quatre hébergeurs : Equinix, AWS, IBM Cloud et Scaleway. Son plan de contrôle se trouve en Belgique, sur GCP. L’offre se divise en quatre forfaits de base auxquels s’ajoute la consommation de ressources.

Avec le passage dans le giron de Mistral AI (16 employés seront du voyage), le forfait gratuit n’est plus proposé. La plate-forme reste commercialisée indépendamment, en attendant son intégration dans Mistral Compute.

When we first met the @MistralAI team and heard about their vision for Mistral Compute, we saw an incredible opportunity to accelerate the buildup of AI Infrastructure in Europe.

As part of Mistral AI, we’ll pursue our mission to make SOTA AI infrastructure accessible to all 🙌 pic.twitter.com/HeM7cJhzqB

— Yann Leger (@yann_eu) February 17, 2026

* Yann Léger, 35 ans, est président de Koyeb. La société a deux DG : Édouard Bonlieu (38 ans, directeur produit) et Bastien Chatelard (37 ans, directeur technique).

Illustration générée par IA

The post Koyeb, un atout PaaS dans les mains de Mistral AI appeared first on Silicon.fr.

  •  

Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer

La souveraineté, c’est, entre autres, le « recours aux solutions fournies par des acteurs économiques français ou européens ».

La nouvelle circulaire sur les achats publics numériques établit ce lien, mais pas de manière si directe. D’une part, elle inclut la souveraineté parmi les critères structurants. De l’autre, elle présente la préférence française/européenne comme un des trois axes sur lesquels la souveraineté « s’appuie en particulier », au nom de la « maîtrise des technologies-clés ». Les deux autres axes étant l’immunité au droit européen à portée extraterritoriale et la capacité à substituer des composantes par des solutions alternative.

Une circulaire en attendant la révision du cadre européen

La souveraineté apparaît en deuxième position dans la circulaire – derrière la « performance métier » (réponse aux besoins) et devant la sécurité. Mais le texte n’institue ni hiérarchie, ni pondération entre critères. Il ne contient par ailleurs, toujours en matière de souveraineté, aucune obligation formelle, en dépit des axes mentionnés.

Parmi les éléments imposés sur les autres critères :

  • Prévoir des critères et clauses de sécurité à chaque fois que l’objet du marché le justifie et être vigilant quant à la pérennité du MCO et du MCS
  • Évaluer soigneusement le délai de disponibilité
  • Prendre en compte la réversibilité dans les contrats
  • Intégrer les capacités d’interopérabilité dans les facteurs de choix

Sur le volet adaptabilité/réversibilité, les achats d’outils fondés sur du code ouvert sont « encouragés » dans une optique de transparence de l’action publique. La circulaire recommande plus globalement de privilégier le recours à des produits open source « lorsque c’est pertinent ». Tant pour bénéficier des avancées communautaires que des possibilités accrues de détection et correction de failles de sécurité.

La doctrine de l’État doit encore s’aligner avec les textes européens en préparation sur la commande publique. Dont la révision – en cours – de la directive de 2014, qui vise elle aussi des objectifs d’autonomie stratégique.

Illustration générée par IA

The post Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer appeared first on Silicon.fr.

  •  

L’INESIA a sa feuille de route… et son défi de coopération internationale

« Au besoin », « si nécessaire », « selon les opportunités »… L’INESIA se laisse de la marge dans sa première feuille de route officielle.

Cet institut public pour l’évaluation et la sécurité de l’intelligence artificielle est né début 2025. Le SGDSN (Secrétariat général de la défense et de la sécurité nationale) et la DGE (Direction générale des entreprises) le pilotent. Il fédère l’Inria, le LNE (Laboratoire national de métrologie et d’essais), l’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique).

Derrière l’INESIA, un réseau international

L’INESIA a une roadmap d’autant plus ouverte que son activité s’inscrit dans un réseau international d’AISI (AI Safety Institutes). Au dernier pointage, 9 pays en sont membres : Australie, Canada, Corée du Sud, États-Unis, France, Japon, Kenya, Royaume-Uni et Singapour. L’Union européenne l’est aussi, via son Bureau de l’IA.

Londres et Washington furent les premiers à officialiser la mise en place de leur AISI. C’était en novembre 2023. Aux États-Unis, la structure est hébergée par le NIST, rattaché au département du Commerce. Au Royaume-Uni, l’AISI a pris le relais de la Foundation Model Taskforce, établie en avril de la même année au sein du département gouvernemental pour la Science, l’Innovation et la Technologie – et rebaptisée Frontier AI Taskforce en septembre.

Une coopération formelle entre ces deux AISI avait émergé en avril 2024, « sur au moins une évaluation ». En toile de fond, la pression d’entreprises technologiques – au premier rang desquelles Meta – qui en appelaient à des règles et procédures d’évaluation communes avant d’ouvrir leurs modèles.

Entre-temps, le Japon avait créé son AISI (février 2024), au sein de l’Agence de promotion des technologies de l’information, rattachée au ministère de l’Économie. Le Canada avait suivi en avril. Puis la Corée du Sud et Singapour en mai, lors du Sommet de l’IA de Séoul.

Le réseau international des AISI avait été formalisé à la même occasion. Sa première réunion officielle eut lieu en novembre 2024. La déclaration de mission promettait une « complémentarité » et une « interopérabilité » entre les instituts, sans définir d’objectifs ou de mécanismes spécifiques à cet égard.

De la « sûreté » à la « science de la mesure » : un recentrage des activités

En décembre 2025, le réseau a officialisé le recentrage de ses travaux sur « la science de la mesure et de l’évaluation des IA ». Objectif : s’assurer de suivent le rythme des développements technologiques. Il a changé de nom en parallèle, devenant « International Network for Advanced AI Measurement ». Exit, donc l’aspect « safety ». Le Royaume-Uni a suivi le même chemin, son AI Safety Institute devenant AI Security Institute.

En amont du Sommet de l’IA qui se déroule actuellement en Inde, le réseau a publié une liste de principes d’évaluation sur lesquels ses membres se sont accordés. Parmi elles, dans les grandes lignes :

  • Objectifs clairs
  • Transparence et reproductibilité
  • Adaptation des paramètres au type d’évaluation
  • Processus d’assurance qualité intégré dans la conception et dans les résultats
  • Points-clés compréhensibles par des non-spécialistes
  • Résultats généralisables
  • Prise en compte de la diversité linguistique et culturelle

Des questions restent ouvertes. Entre autres sur l’intérêt d’utiliser des modèles de risque, sur les éléments à partager, sur la flexibilité des modèles de rapports d’évaluation et sur la gestion des systèmes agentiques.

Cybersécurité de l’IA, détection des contenus synthétiques… Des travaux à poursuivre

L’INESIA l’affirme : il avancera « selon le programme de travail du réseau ».

Sa feuille de route 2026-2027 s’articule en trois pôles thématiques – « Appui à la régulation », « Risques systémiques » et « Performance et Fiabilité » – auxquels s’ajoute un axe transversal.

En matière d’appui à la régulation, il s’agira notamment de fournir des outils aux autorités chargées de contrôler les systèmes d’IA à haut risque. L’INESIA compte aussi favoriser les échanges entre ses membres sur les sujets de normalisation, en soutien aux exigences de conformité de l’AI Act.

Ce pôle thématique englobe également la détection de contenus artificiels. Sur ce point, l’INESIA poursuivra les travaux du PEReN et de Viginum (service de vigilance et de protection contre les ingérences numériques étrangères, intégré au SGDSN). Ils se sont traduits par la publication, en source ouverte, de « métadétecteurs » de contenus synthétiques (texte, images). Et d’une bibliothèque pour évaluer ces détecteurs. En ligne de mire, une extension à l’audio et à la vidéo.

L’INESIA doit par ailleurs contribuer au développement de méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA et des produits de cybersécurité qui embarquent de l’IA. Dans ce domaine, il s’appuiera sur un projet que pilote l’ANSSI : SEPIA (Sécurité des produits intégrant de l’IA). Et impliquera l’AMIAD (Agence ministérielle pour l’IA de défense), ainsi que le réseau des CESTI (Centres d’évaluations de la sécurité des technologies de l’information).

Un premier socle d’expérimentations conjointes sur les risques systémiques

Les missions de l’INESIA touchent aussi au développement d’une expertise technique sur l’évaluation et l’atténuation des risques systémiques. En tête de liste, la manipulation de l’information, l’assistance aux attaques informatiques et le développement de NRBC (armes nucléaires, radiologiques, biologiques et chimiques).

De cette expertise devront résulter des protocoles d’évaluation et de détection exploitables à la fois par les développeurs et les régulateurs. Ainsi que des méthodes d’atténuation associées à des outils open source « si opportun ».

La caractérisation et l’atténuation des risques systémiques se portera également sur les systèmes agentiques. Là aussi, l’INESIA n’exclut pas de s’appuyer sur l’existant, que ce soit en termes de protocoles d’évaluation ou d’implémentations.

La poursuite des activités conduites dans le cadre du réseau des AISI vaut aussi sur ce pôle thématique. Le premier livrable avait été publié l’an dernier au Sommet de l’IA. Il rendait compte d’expérimentations conjointes. Menées principalement par Singapour, le Japon et le Royaume-Uni, elles ont testé, d’une part, la robustesse cyber de deux modèles. De l’autre, les réponses fournies en fonction de la langue de l’utilisateur. La France a fourni le jeu de données d’évaluation cyber et mesuré les risques de sécurité pour les interactions en langue française.

La perspective d’une infrastructure d’évaluation des systèmes d’IA

Le pôle « Performance et fiabilité » consiste essentiellement en l’organisation de défis sur des tâches d’évaluation spécifiques.

L’axe transverse inclut de l’animation scientifique et une mutualisation des travaux de veille des membres de l’INESIA. Il comprend surtout l’objectif principal de l’institut : constituer une infrastructure d’évaluation des systèmes d’IA à partir des cas d’usage qui auront été identifiés.

Illustration générée par IA

The post L’INESIA a sa feuille de route… et son défi de coopération internationale appeared first on Silicon.fr.

  •  

Qu’est-ce que WebMCP, qui vise la standardisation W3C ?

Ajoutez une cinquantaine de lignes de code à votre site… et il devient un serveur MCP.

À l’été 2025, un développeur, ancien d’Amazon, avait lancé un projet open source portant cette promesse : MCP-B (« MCP for the Browser »). L’idée était d’exploiter JavaScript pour exposer les fonctionnalités de pages web aux agents IA directement dans les navigateurs. Le protocole sous-jacent s’appelait WebMCP. Il reposait notamment sur un mécanisme de transport permettant la communication client-serveur au sein d’un même onglet.

Un premier brouillon de spécification W3C

L’initiative existe toujours. Mais elle est aujourd’hui emmenée par Google et Microsoft, sous la bannière WebMCP et sous l’aile du W3C. Le fondement demeure : exposer des « outils » sous forme de fonctions JavaScript, avec des schémas structurés et des descriptions en langage naturel.

Une première ébauche de spécification vient d’être publiée. Elle introduit une interface window.navigator.modelContext. Et avec elle, plusieurs méthodes pour gérer la liste des outils :

  • provideContext, pour l’actualiser intégralement
    Idéal pour les applications monopage, où il peut être souhaitable de présenter des outils différents en fonction de l’état de l’UI.
  • registerTool et unregisterTool, respectivement pour ajouter et supprimer des outils sans réintialiser toute la liste

Les fonctions peuvent éventuellement être asynchrones. Il est possible d’en dédier la gestion à des workers.

Google propose depuis peu de tester WebMCP dans le programme EPP de Chrome, à travers deux API. Une déclarative pour permettre aux agents d’effectuer des actions standards définissables dans les formulaires HTML. Une impérative pour les interactions dynamiques nécessitant JavaScript.

La sécurité, pas encore au cœur des travaux

Sur le papier, WebMCP ouvre la voie à une codebase unique pour l’UI et l’intégration des agents. Tout en favorisant la confidentialité (traitement local) et la collaboration homme-machine (même interface, avec davantage de visibilité sur les actions).
L’arbitrage des accès est laissé au navigateur, qui peut appliquer ses propres politiques de sécurité. Cette intermédiation du flux de contrôle assure par ailleurs une rétrocompatibilité entre les versions de WebMCP.

Dans la pratique, il n’existe pas de mécanisme intégré pour synchroniser l’UI et l’état de l’application. Il n’en existe pas non plus pour découvrir les outils d’un site sans le visiter. Sur ce dernier point, le projet a exploré l’utilisation d’un manifeste que les agents récupéreraient en HTTP GET. Il l’a complété par un mécanisme d’exécution alternatif séparant la définition d’un outil et la fonction d’implémentation, en traitant les appels comme des événements.

La section sécurité/confidentialité de la spec est actuellement vide. Sur ce sujet, il y a, en l’état, bien plus de questions que de réponses. Des domaines d’attaque existants (CSRF, XSS…) s’appliqueraient-ils de façon spécifique à WebMCP ? Quels risques si on l’associe à d’autres fonctionnalités émergentes comme Web AI et la Prompt API ?…

Illustration générée par IA

The post Qu’est-ce que WebMCP, qui vise la standardisation W3C ? appeared first on Silicon.fr.

  •  

AWS rejoint Azure et Google Cloud sur la virtualisation imbriquée

EC2 gère désormais officiellement la virtualisation imbriquée.

L’option est activable dans toutes les régions commerciales AWS ; pour le moment sur trois familles d’instances en CPU Intel : les C8i, M8i et R8i. Elle donne le choix entre KVM et Hyper-V. Avec quelques limites, dont :

  • Pas d’hibernation des instances
  • Désactivation du mode VSM (Virtual Secure Mode) sur les instances Windows
  • Absence de gestion des instances Windows à plus de 192 CPU

La virtualisation imbriquée constitue une alternative économique au bare metal pour exécuter des micro-VM (par exemple avec la technologie Firecracker d’AWS, qui nécessite KVM). Ou des outils de développement et de test logiciel – WSL2, émulateurs, pipelines CI/CD manipulant des images de VM…

virtualisation imbriquée

La virtualisation imbriquée, apparue sur Azure et Google Cloud en 2017

Intégrée dans Windows Server 2022, la virtualisation imbriquée avait été lancée sur Azure dès 2017. Elle ne gère officiellement qu’Hyper-V, sur les processeurs Intel avec extensions VT-x ainsi que sur les EPYC et Ryzen d’AMD. Entre autres limites, elle ne gère pas la mémoire dynamique (obligation d’éteindre la VM hôte pour ajuster sa mémoire).

Google aussi avait commencé à intégrer la virtualisation imbriquée dans son cloud public en 2017, à base de KVM. Initialement, c’était pour les VM Linux reposant sur des CPU Intel de génération Haswell et ultérieures. Elle est maintenant généralisée, mais toujours pas gérée sur les processeurs AMD ou Arm – et pas utilisable avec les VM E2 et H4D, ainsi que celles à mémoire optimisée.

Google donne une estimation de la surcharge qu’implique la virtualisation imbriquée. Il annonce une baisse potentielle de performance d’au moins 10 % pour les workloads liés au CPU. Et éventuellement davantage pour ceux orientés I/O.
AWS a potentiellement attendu que le hardware permette de minimiser ces pertes… et de garantir un niveau de sécurité conforme à ses standards.

OCI gère aussi la virtualisation imbriquée, à base de KVM.

Illustration principale générée par IA

The post AWS rejoint Azure et Google Cloud sur la virtualisation imbriquée appeared first on Silicon.fr.

  •  

De la BI à la DI, un glissement surtout terminologique ?

Le descriptif d’un côté, le presciptif de l’autre.

Dans le jargon de l’informatique décisionnelle, une opposition terminologique s’est structurée sur ce fondement, entre BI (business intelligence) et DI (decision intelligence). Le premier trouvant une continuité dans le second, avec la promesse de combler l’écart entre les insights et les actions qui en découlent.

Gartner a fini par s’emparer de ce glissement lexical, publiant son premier Magic Quadrant dédié à la DI. Le cabinet américain estime que ce segment se trouve « sur la fin de sa phase d’émergence », accompagnant un basculement du « data-driven » au « decision-centric ». Il y inclut un bouquet de technologies – moteurs de règles, machine learning, préparation de données, graphes, agents, optimisation, simulation… – susceptibles d’accompagner la modélisation, l’orchestration, la gouvernance et l’amélioration des décisions.

17 fournisseurs, 6 « leaders »

L’axe « exécution » du Magic Quadrant de la DI reflète la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation est la suivante :

Rang Fournisseur
1 FICO
2 SAS
3 Aera Technology
4 IBM
5 Decisions
6 ACTICO
7 Quantexa
8 Pegasystems
9 o9 Solutions
10 Oracle
11 Sapiens
12 InRule Technology
13 Faculty
14 FlexRule
15 Rulex
16 RelationalAI
17 CRIF

Sur l’axe « vision », qui reflète les stratégies (sectorielle, géographique, R&D, commerciale, marketing…) :

Rang Fournisseur
1 Quantexa
2 IBM
3 FICO
4 Aera Technology
5 ACTICO
6 SAS
7 Sapiens
8 Faculty
9 Pegasystems
10 o9 Solutions
11 FlexRule
12 Decisions
13 InRule Technology
14 Rulex
15 RelationalAI
16 Oracle
17 CRIF

Six fournisseurs se trouvent dans le carré des « leaders ». Quatre sont américains (Aera Technologies, FICO, IBM, SAS) ; un, allemand (ACTICO) ; un, anglais (Quantexa).

Ils sont trois à être également classés dans le dernier Magic Quadrant de la BI : Oracle (« leader »), IBM et SAS (tous deux « visionnaires »).

FICO et IBM ne se distinguent pas sur l’approche sectorielle…

Quantexa et SAS ont droit à des remarques positives concernant leur stratégie sectorielle. Chacun pour sa feuille de route claire et ses partenariats.

On ne peut pas en dire autant pour FICO et IBM. Le premier, parce qu’il s’adresse essentiellement à l’industrie bancaire, touchant d’autres secteurs via des solutions sur lesquelles des partenaires ont le lead. Le second, parce que les dernières améliorations qu’il a apportées à sa plate-forme ne ciblaient pas de verticales spécifiques.

… ni sur le pricing, comme SAS

Quantexa se distingue aussi par sa tarification. Entre modèles à la consommation et axés sur la valeur, elle est flexible, comme d’ailleurs la contractualisation. Même constat chez Aera, plus globalement salué pour son exécution commerciale, marquée par une adoption croissante sur les différentes plaques géographiques. Quant à ACTICO, il sait adapter son approche aux profils d’acheteurs.

Chez FICO, le pricing à la consommation peut devenir complexe à mesure que l’usage vient couvrir des dimensions comme le stockage, les transactions et les modules complémentaires. Cette complexité peut également se retrouver chez IBM, avec qui la marge de négociation s’avère limitée. Ce dernier point vaut aussi pour SAS, qui n’a pas non plus une politique tarifaire des plus souples.

Des « anciens » à la forte assise financière

SAS, qui fête ses 50 ans en 2026, dispose d’une assise financière (croissance + profits) qui lui permet de maintenir un niveau d’investissement R&D sur le DI.
ACTICO (11 ans en 2026) aussi est profitable, avec une croissance constante de son chiffre d’affaires. Et Gartner salue également ses investissements R&D. Il n’en dit pas moins concernant FICO (70 ans en 2026), qui se distingue aussi par son taux de rétention client.

Aera (9 ans en 2026) n’a pas encore atteint la rentabilité. Et ses perspectives de croissance apparaissent plus restreintes que chez les concurrents, sa clientèle étant moins diversifiée en termes de secteurs d’activité.

ACTICO et Quantexa, pas salués pour leur marketing

Aera se distingue plus positivement sur sa stratégie marketing : les investissements sont importants, avec un message clair et cohérent et une capacité à quantifier les bénéfices métier.

ACTICO, au contraire, investit moins dans ce domaine que ses concurrents. Et son positionnement n’apparaît pas aligné sur les tendances du marché à moyen terme (2 à 5 ans).
Du côté de Quantexa, on a du mal à démontrer la valeur de manière consistante et à s’aligner sur les profils d’acheteurs. Les investissements dans le channel sont plus bas que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Des roadmaps globalement robustes

Non salué sur le marketing, Quantexa l’est en revanche pour sa compréhension du marché, traduite par des éléments différenciants dans son offre.
Bon point aussi pour Aera, que sa feuille de route positionne idéalement tant pour capter de nouveaux clients que remplacer des solutions concurrentes.
Roadmap également robuste pour IBM, avec de l’expérience sur l’orchestration agentique et une distinction claire opérée entre DI et data science/analytics. Le groupe américain a aussi tendance à livrer des fonctionnalités en avant sur le marché (langage naturel, agentique, simulation).
Chez ACTICO, Gartner apprécie la cadence de livraison de fonctionnalités et le respect constant des échéances de la feuille de route.

FICO, au contraire, a tendance à comparer sa plate-forme à des technologies relevant de segments annexes. Il la positionne en tout cas sur des appels d’offres qui touchent, par exemple, au CRM. En servant ainsi ces besoins adjacents, il est mal aligné avec certains besoins DI critiques, considère Gartner.

Aera et SAS, classés peu innovants

FICO a droit à un bon point sur le volet innovation. En première ligne, ses fonctionnalités d’automatisation et de simulation portées par un modèle de fondation. Ainsi que ses technologies brevetées pour l’explicabilité et l’atténuation des biais.

L’innovation est un point noir chez Aera, en tout cas au vu du peu de fonctionnalités distinctives incluses dans ses dernières releases.
Chez SAS, des capacités-clés (modélisation par GenAI, frameworks agentiques…) restent en développement ou ne sont pas encore disponibles globalement.

IBM et SAS ont l’avantage de l’empreinte géographique…

SAS a pour lui son empreinte globale, son écosystème de partenaires, son support multilingue, ses certifications de conformité régionales et ses options de déploiement flexibles.
IBM aussi se distingue par son réseau de partenaires, ainsi que par le niveau de régionalisation de ses investissements avant-vente.

Aera n’a pas la même présence géographique, jugée même « minimale » en Amérique du Sud et en Asie-Pacifique. Ses investissements avant-vente sont sous la moyenne. Son réseau en Amérique du Nord et en EMEA comprend surtout des partenaires globaux plutôt que locaux.

… mais laissent un point d’interrogation

Les deux « anciens » que sont IBM et SAS font l’objet d’un avertissement concernant leur modèle économique. Le premier, parce qu’il ne met, dans le spectre de ses activités, que modérément l’accent sur le DI, laissant un point d’interrogation sur son investissement à long terme. Le second, parce que lui aussi ne priorise que modestement la DI, tendant parfois à la confondre avec la BI.

ACTICO et Quantexa peuvent progresser sur l’expérience client

Deux « leaders » ont droit à un mauvais point sur l’expérience client.
Chez ACTICO, les études de cas et plus globalement les preuves de ROI manquent, en plus d’une clientèle parfois moins satisfaite des fonctionnalités que chez les concurrents.

Chez Quantexa, la satisfaction est variable sur des capacités critiques (optimisation, simulation…), en plus d’un turnover plus important tant dans les fonctions techniques que dans celles qui interagissent avec le client.

Illustration © kwanchaift – Adobe Stock

The post De la BI à la DI, un glissement surtout terminologique ? appeared first on Silicon.fr.

  •  

Comment ServiceNow se construit par croissance externe

Les fonctionnalités d’Integration Hub et d’Automation Engine, la base de données maison RaptorDB, un catalogue de connecteurs enrichi grâce à l’acquisition de Raytion, une techno zero copy… Sur cette base, ServiceNow avait officiellement pris, à l’automne 2024, le virage data fabric.

Après s’être concentrée sur les aspects catalogue et gouvernance, l’entreprise américaine vise l’ajout d’une couche d’analytics. Elle recourt pour cela à de la croissance externe. Dans son viseur, l’éditeur néerlandais Pyramid Analytics, régulièrement classé ces dernières années dans le Magic Quadrant de la BI. Un accord d’acquisition a été signé.

Près de 3 Md$ pour Moveworks et 8 pour Armis

Une autre acquisition est en attente : celle d’Armis, officialisée en décembre 2025, pour un montant de 7,75 Md$ en numéraire. Il est question de la finaliser au deuxième semestre 2026.
Les capacités d’Armis en matière de gestion de la surface d’attaque IT/OT seront intégrées avec la CMDB de ServiceNow. Qui compte ainsi renforcer son segment d’activité « sécurité et risque », sur lequel la valeur moyenne des contrats a récemment passé le milliard de dollars.

Mi-décembre, ServiceNow avait bouclé une autre acquisition majeure : celle de Moveworks, annoncée 9 mois plus tôt. Montant : 2,85 Md$, en cash et en actions. Elle lui apporte une technologie de recherche d’entreprise… et un assistant IA voué à constituer un point d’entrée unique pour les utilisateurs de la plate-forme.

Cuein, Raytion et UltimateSuite, d’autres acquisitions « couleur IA »

En janvier 2025, ServiceNow avait annoncé une autre opération destinée à renforcer sa data fabric. Il a mis la main sur Cuein. Cette entreprise américaine née en 2021 s’était spécialisée dans l’analyse des données d’interactions client.

L’annonce de l’accord avec Raytion était tombée en juillet 2024. ServiceNow avait absorbé cette entreprise allemande née en 2001 pour ses technologies de recherche d’information, qu’il entendait intégrer à sa plate-forme, notamment dans le cadre de l’offre Now Assist.

En janvier 2024 était intervenue une autre manœuvre contribuant à la stratégie data/IA : l’acquisition d’UltimateSuite (République tchèque) et sa technologie de task mining.

Mission Secure et Veza, pour le volet sécurité

Plus récemment (décembre 2025), ServiceNow a mis la main sur Veza. Cette entreprise américaine née en 2020 donne dans la gouvernance des identités, à l’appui d’un graphe d’accès. ServiceNow s’en est emparé dans une perspective de gestion des agents IA, tout en promettant plus globalement d’ajouter du contexte dans ses solutions de sécurité (réponse aux incidents, gestion intégrée des risques).

Autre acquisition touchant à la sécurité : Mission Secure (novembre 2024). Cette entreprise américaine fondée en 2014 a développé une solution de cartographie des actifs OT.

La société israélienne Atrinet est quant à elle à l’origine de NetACE, solution de gestion du cycle de vie des réseaux télécoms. ServiceNow la lui a achetée en février 2024.

Quality 360, Intella, 4Industry… ServiceNow pêche dans le vivier des applications natives

Logik.ai est la dernière application métier dont ServiceNow a fait l’acquisition. C’était en avril 2025. Il s’agit d’un outil de gestion commerciale. Plus précisément un logiciel CPQ (Configure, Price, Quote ; configuration, tarification et édition de devis). On le doit à un entreprise américaine créée en 2017.

À l’occasion de cette annonce, ServiceNow avait rappelé que son activité « CRM & Industry Workflows » était la plus en croissance de son portefeuille. Il ne se présentait alors pas encore comme « la tour de contrôle IA pour réinventer l’entreprise » (c’est le cas désormais), mais comme « la plate-forme IA pour la transformation de l’entreprise ». C’était aussi le cas en février 2025, lorsqu’il avait acheté un logiciel à Advaia (ESN d’origine suédoise). En l’occurrrence, Quality 360, dédié au management de la qualité. Il a rejoint l’offre MCO (Manufacturing Commercial Operations).

Quality 360 était un logiciel bâti sur la plate-forme ServiceNow. Même chose pour Intella, solution de recrutement signée de l’ESN américaine Advance Solutions. Et pour 4Industry, solution de gestion de la production signée d’une entreprise néerlandaise. ServiceNow s’est emparé de la première en mai 2024. Il avait acquis la seconde en mars de la même année, parallèlement à Smart Daily Management, achetée à EY.

Dans cette catégorie « ServiceNow-native », on peut ajouter ToolBox OH&S. Cette solution de gestion des processus de santé et sécurité au travail émane d’Enable Professional Services, un spécialiste ServiceNow australien qui évolue dans le giron de Fujitsu.

La première acquisition annoncée sous l’ère ChatGPT avait porté sur G2K. C’était en juillet 2023. Cette entreprise allemande née en 2013 ciblait le retail avec une technologie d’activation des données en ligne et en magasin. ServiceNow comptait la décliner sur des segments comme les transports, la santé et le divertissement. Il se présentait alors non comme une « plate-forme IA », mais comme une « digital workflow company »…

Illustration © agsandrew – Shutterstock

The post Comment ServiceNow se construit par croissance externe appeared first on Silicon.fr.

  •  

L’omnibus numérique fait tiquer les CNIL européennes

Au Parlement et au Conseil : prière de ne pas adopter telle quelle la proposition de règlement omnibus numérique.

Le CEPD (Comité européen de la protection des données) et l’EDPS* (Contrôleur européen de la protection des données) avertissent ainsi les colégislateurs de l’UE. Dans leur collimateur, un amendement au RGPD modifiant la définition des données personnelles.

À l’heure actuelle, est définie comme telle toute information se rapportant à une personne physique identifiée ou identifiable.

L’omnibus impose d’apprécier la notion du point de vue de chaque entité. Des informations n’auraient pas de caractère personnel pour qui ne peut pas identifier la personne concernée à l’aide de moyens raisonnables. De même, elles ne le deviendraient pas du point de vue de cette même entité simplement parce qu’un destinataire ultérieur aurait raisonnablement les moyens de réaliser cette identification.

Une modification guidée par un arrêt CJUE

D’après le CEPD et l’EDPB, cette modification vise à codifier essentiellement un arrêt CJUE de septembre 2025.

L’affaire impliquait le Conseil de résolution unique (CRU, autorité de résolution de l’Union bancaire européenne). Ce dernier avait, lors de la résolution de Banco Popular Español, collecté des données d’actionnaires et de créanciers. Il en avait envoyé une partie à Deloitte pour analyse, après les avoir pseudonymisées, mais sans informer de ce transfert les personnes concernées.

Saisi à ce sujet, le CEPD avait estimé que les données en question conservaient un caractère personnel. Et que Deloitte devait donc être mentionné comme destinataire.
Le Tribunal de l’UE avait jugé que non. Selon lui, la qualification devait s’apprécier du point de vue du cabinet, qui n’avait pas la possibilité de réidentifier.

Le CEPD avait formé pourvoi auprès de la CJUE… qui a en quelque sorte coupé la poire en deux. Elle a en l’occurrence considéré que les données avaient un caractère personnel pour le CRU (en tant que responsable initial), mais pas pour Deloitte (destinataire non réidentifiant).

Des lignes directrices plutôt qu’une définition ?

L’affaire a ses spécificités, et la Commission européenne semble en faire fi, clament aujourd’hui l’EDPB et le CEPD. Modifier la définition des données personnelles sur la base d’une codification de ce seul arrêt risque d’engendrer de l’incertitude juridique, poursuivent-ils. Incertitude que renforce, d’une part, la tournure « négative » selon laquelle des informations n’acquièrent pas de caractère personnel simplement par existence d’un potentiel destinataire réidentifiant. Et de l’autre, l’emploi du terme « entité », juridiquement non défini dans le contexte du RGPD.

En plus de « restreindre nettement » la notion de données personnelles, ce changement pourrait inciter les responsables de traitement à trouver des failles, ajoutent le CEPD et l’EDPB. Par exemple, externaliser « artificiellement » certaines activités pour les séparer des moyens de réidentification.

L’EDPB a mené une consultation publique en vue de mettre à jour ses lignes directrices sur la pseudonymisation. Les contributions, déclare-t-il, ont montré que l’arrêt CJUE soulève de nombreuses questions dès lors qu’on prend en considération le reste de la jurisprudence de la cour. Et d’affirmer que ces questions seront mieux traitées par ces lignes directrices que par une modification de la définition des données personnelles.

* L’EDPS veille au respect du RGPD par les institutions et organes de l’UE.

Illustration générée par IA

The post L’omnibus numérique fait tiquer les CNIL européennes appeared first on Silicon.fr.

  •  

OpenAI apprend à penser l’inférence sans NVIDIA

Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.

Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.

Cerebras WSE-3

Un complément basse latence à l’option GPU

Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.

Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.

OpenAI va généraliser WebSocket

Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.

Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.

On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.

À consulter en complément :

Comment OpenAI a diversifié ses fournisseurs
Microsoft veut voler de ses propres ailes dans l’IA
Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité
Claude crée son propre compilateur C : oui, mais…
Codage agentique : le retour d’expérience de Spotify

Illustration principale générée par IA

The post OpenAI apprend à penser l’inférence sans NVIDIA appeared first on Silicon.fr.

  •  

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

  •  

GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique

Les « identités non humaines » sont désormais bien ancrées dans la communication de GitGuardian.

L’annonce d’un nouveau tour de table en témoigne. L’entreprise française a levé 50 M$* qui lui serviront notamment à « répondre à la crise des identités non humaines ». Il s’agira aussi de combler le « vide sécuritaire » (security gap) des agents IA.

Le tour de table précédent (44 M$, série B) avait été officialisé fin 2021. GitGuardian ne parlait pas encore d’identités non humaines, d’autant qu’il n’avait pas de produit dédié.
Celui-ci serait lancé au printemps 2025. Il apporterait une gestion centralisée des secrets, complétant les offres axées sur leur détection (monitoring interne + surveillance de l’activité publique sur GitHub).

Au démarrage n’était que cette partie surveillance externe. La brique de monitoring interne avait été lancée en 2020, dans la foulée du tour de table de série A (12 M$). GitGuardian promettait alors de transformer ce socle en une « plate-forme exhaustive de sécurité du code ». L’année suivante, il remporterait le grand prix de la start-up au FIC.

Découvrir les secrets de l’IA agentique

La stratégie s’oriente donc désormais sur les systèmes d’IA… et sur la gouvernance des secrets qu’ils exploitent. En parallèle, pour la première fois dans le cadre d’une annonce de levée de fonds, GitGuardian évoque une extension de ses activités au Moyen-Orient, en Asie et en Amérique du Sud. Autre évolution : il ne met plus l’accent sur son public de développeurs individuels, mais de développeurs en entreprise (« plus de 115 000 »).

Sur le volet gestion des identités machine, GitGuardian a récemment fait la jonction avec AWS IAM et Entra ID. Anthropic et OpenAI ont rejoint son catalogue de connecteurs ; comme, dernièrement, Datadog, Snowflake, Okta et Slack, entre autres.

Du machine learning est venu enrichir la description des secrets découverts, le regroupement d’incidents et le scoring des risques. GitGuardian a aussi intégré une couche de langage naturel pour parcourir les journaux d’audit. Et un serveur MCP pour lire et analyser des incidents, automatiser leur résolution et générer des pots de miel.

* Tour de table emmené par le fonds américain Insight Partners. La société de gestion française Quadrille Capital a participé, aux côtés d’investisseurs existants (Balderton Capital, Bpifrance, Sapphire Ventures et le fonds allemand Fly Ventures).

Illustration générée par IA

The post GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique appeared first on Silicon.fr.

  •  

L’ANSSI affirme l’open source comme levier de sa politique industrielle

Sur le GitHub de l’ANSSI, les projets seront bientôt classés par « niveau d’ouverture ».

L’agence le signale désormais sur la page qui présente sa politique open source. Elle utilisera la classification qu’a élaborée la DINUM :

  • Contributif (contributions extérieures activement recherchées et traitées)
  • Ouvert (contributions extérieures traitées mais non activement recherchées)
  • Publié (contributions extérieures non traitées)

Autre nouveauté sur la page en question : l’évocation de l’open source en tant que levier d’action de la politique industrielle de l’ANSSI. Par ce lien « récent et en développement », l’agence cherche à favoriser la disponibilité de solutions cyber alignées sur les besoins.

Par rapport à l’ancienne version de la page, l’aspect « liste de projets » est moins marqué. L’ANSSI insiste davantage sur les licences, le transfert de projets et sur sa propre utilisation de solutions open source. Elle a ajouté des références à la communauté BlueHats ainsi qu’à celle des OSPO français.

Une partie des projets auparavant mentionnés se retrouvent sur la page d’accueil de l’organisation GitHub ANSSI-FR. Entre autres, DFIR ORC (outils de recherche de compromission), WooKey (micronoyau + environnement de dev pour le prototypage de solutions IoT) et CLIP OS (système d’exploitation Linux durci). Le premier est d’une envergure suffisante pour avoir sa propre orga GitHub. Les deux autres ont aussi la leur, mais parce qu’ils sont archivés.

Audit CSPN réussi pour Barbican, Suricata et KeePassXC

L’ANSSI évoque toujours son financement d’évaluations de sécurité, ad hoc ou sur les critères CSPN.

En 2018 avait démarré l’évaluation CSPN de Barbican (service de gestion de clés de la pile OpenStack), finalement certifié. La même année avait commencé celle de Suricata (détection et prévention d’intrusion), qui avait lui aussi réussi l’audit.

S2OPC (implémentation du protocole de communication OPC UA), nftables (sous-système Linux de filtrage de paquets) et KeePassXC (gestionnaire de mots de passe) ont également obtenu la CSPN.

Par deux fois, la version « originale » de KeePass (pour Windows) n’a pas réussi l’audit CSPN. Ça n’est pas non plus passé pour Keystone et Ansible (en 2018), strongSWAN (2019), Secretin, Belenios et Sudo (2021), ainsi que WireGuard (2023).

Les derniers audits ad hoc ont permis d’identifier 4 vulnérabilités dans CAS, 1 dans step-ca… et aucune dans HAProxy.

Illustration générée par IA

The post L’ANSSI affirme l’open source comme levier de sa politique industrielle appeared first on Silicon.fr.

  •  

Windows 11 26H1, cette épine dans le pied des admins

Microsoft vient-il de bouleverser le modèle mental et opérationnel auquel les admins de parcs Windows se sont habitués ?

Le groupe américain a eu droit à ce commentaire à propos de Windows 11 26H1.

Cette version, stable depuis le 10 février, est particulière à plusieurs titres. D’abord, elle ne cible pour le moment qu’une plate-forme : les Snapdragon X2 (les premiers PC qui en seront équipés sont attendus pour mars-avril). Ensuite, comme elle a son propre cœur Windows, elle aura aussi son propre chemin de mise à niveau – non défini pour l’heure. Autrement dit, elle ne pourra pas basculer vers le futur Windows 11 26H2.

Dans ce contexte, Windows 11 24H2 et 25H2 restent les versions recommandées pour les déploiements en entreprise, explique Microsoft. Il faut voir Windows 11 26H1 comme le moyen d’évaluer de nouvelles plates-formes… même si les Insiders ont pu l’expérimenter sur des appareils Arm existants comme Surface Laptop.

Windows 11 26H1, un simple glissement sémantique ?

À parité fonctionnelle avec Windows 11 25H2, Windows 11 26H1 suivra le même cycle de vie : 24 mois de support standard pour l’édition Pro, 36 mois pour l’édition Entreprise. En l’état, il ne gère pas le mécanisme des mises à jour correctives à chaud (hotpatch)*.

Pour les admins, c’est une nouvelle approche à assimiler, en tout cas sur le plan sémantique. À l’avenir, « mise à jour de fonctionnalités » pourrait ne plus rimer avec « deuxième semestre de l’année »… et donc avec « version H2 ». Ce qui pourrait avoir un impact en matière de planification et de gouvernance.

* Avec le hotpatch, les appareils reçoivent tous les trimestres une mise à jour cumulative de base qui nécessite un redémarrage. Mais les mois intercalaires, ils peuvent installer des correctifs de sécurité sans avoir à redémarrer.

Illustration générée par IA

The post Windows 11 26H1, cette épine dans le pied des admins appeared first on Silicon.fr.

  •  

Google-Wiz : l’UE valide en balayant les craintes

La Commission européenne n’ira pas plus loin dans l’examen du dossier Google-Wiz : elle a validé l’acquisition sans condition.

Bruxelles ne nie pas le risque de remise en cause de la neutralité de l’entreprise israélienne. Mais considère que les clients pourront, le cas échéant, accéder à des solutions alternatives « crédibles » de sécurité cloud.

Balayé également l’effet « cheval de Troie » qu’avait notamment dénoncé le CISPE. Certes, l’opération procurera à Google des données concernant les clouds concurrents. Mais elles ne sont « pas commercialement sensibles », en plus d’être généralement accessibles à d’autres fournisseurs de logiciels de sécurité.

Google franchit là un autre étape importante après le feu vert que les États-Unis lui ont donné en novembre 2025. Reste une enquête en Australie, avec une décision prévue d’ici au 23 février 2026.

« Rappelle-toi DoubleClick… »

Wiz était précieux par son indépendance, déplore un collectif d’organisations de la société civile basées en Allemagne (Rebalance Now), aux Pays-Bas (SOMO), au Royaume-Uni (Article 19, Balanced Economy Project) et aux États-Unis (Open Markets Institute).

La Commission européenne sait que le contrôle d’une couche stratégique peut être mis à profit pour consolider une position sur des marchés annexes, regrettent ces organisations. Partant, il ne fallait pas valider sur la base de parts de marché* et de considérations tarifaires, poursuivent-elles.

Il y a quelques semaines, dans la perspective de l’examen du projet d’acquisition, une des membres de Rebalance Now avait copublié un article intitulé « L’empire caché de Google ». Elle y postulait que Google s’était imposé comme une arme géopolitique pour les USA, par là même susceptibles de préférer en renforcer le pouvoir plutôt que de le contrôler.

L’article pointait les risques d’intégration verticale. Et établissait, à ce sujet, un parallèle avec l’acquisition de DoubleClick – que l’UE avait validée en 2008. Il insistait aussi sur l’ancrage profond de Google dans l’écosystème start-up/innovation (plus de 6000 sociétés acquises ou soutenues dans l’économie numérique et au-delà). Et sur sa croissance supérieure à celle d’Amazon et de Microsoft dans le cloud d’infrastructure.

Fin 2025, Wiz a atteint le milliard de dollars de revenu anuel récurrent. Google compte s’en emparer pour 32 milliards de dollars en cash. Jusqu’ici, la plus chère de ses acquisitions fut celle de Motorola Mobility (12,5 Md$ en 2012).

* Dans ce même esprit, la Commission européenne n’a pas inclus Google dans son enquête visant à déterminer s’il faut soumettre des plates-formes cloud au DMA.

Illustration générée par IA

The post Google-Wiz : l’UE valide en balayant les craintes appeared first on Silicon.fr.

  •  

Un an après, que devient l’initiative EU AI Champions ?

Ne cherchez plus Heineken ni Henkel : ils ne font plus partie des « supporters » d’EU AI Champions.

Cette initiative était née il y a tout juste un an, à l’occasion du Sommet pour l’action sur l’IA. Une soixantaine d’organisations – fournisseurs, utilisateurs et quelques associations représentatives – s’y étaient ralliées, sous la houlette du fonds de capital-risque General Catalyst. Sur le papier, l’objectif principal était simple : contribuer à accélérer le développement et l’adoption de l’intelligence artificielle en Europe. Entre renforcement de l’infrastructure de datacenters, développement des compétences et financement d’entreprises spécialisées, une vingtaine d’investisseurs s’étaient engagés à débloquer un total de 150 milliards d’euros sur 5 ans.

Une première discussion avec un groupe de P-DG et de responsables politiques eut lieu au lendemain du Sommet. EU AI Champions appelait alors, entre autres, à simplifier la réglementation, à commencer par l’AI Act. Sa mobilisation sur le sujet avait culminé au mois juillet, quelques semaines avant l’entrée en vigueur des dispositions du règlement concernant les modèles d’IA à usage général. Par une lettre ouverte, la majorité de ses membres avaient réclamé un moratoire de 2 ans sur l’application des principales obligations du texte. Parmi les signataires figuraient, côté français, Arthur Mensch (Mistral AI), Éléonore Crespo (Pigment), Patrick Pouyanné (TotalEnergies), Guillaume Faury (Airbus), Bernard Charlès (Dassault Systèmes), Alexandre Bompard (Carrefour) et Jean-Laurent Bonnafé (BNP Paribas).

L’UE n’est pas allée jusque-là, mais elle a lâché du lest avec son omnibus numérique.

Une com qui s’est recentrée sur les membres

La liste des « supporters » comprend aujourd’hui 114 logos, rattachés à une centaine d’organisations. Elle n’a globalement pas évolué depuis mars 2025. Heineken et Henkel étaient alors déjà sortis de la boucle.

EU AI Champions a fait de LinkedIn son principal canal de communication au public. Initialement, il y mit régulièrement en avant des organisations qui ne comptaient pas parmi ses membres (Bosch, Langfuse, PortiaAI…). C’est devenu plus rare.

Fin 2025, dans la lignée de ses appels à un allègement réglementaire, le collectif s’était fait l’écho de la position du gouvernement allemand sur l’omnibus numérique. Il s’en était réjoui, y voyant « la première réponse réglementaire sérieuse à ce que l’industrie européenne de l’IA signalait depuis des mois ». Il faut dire que Berlin préconisait notamment de reporter d’un an l’application des règles relatives aux systèmes d’IA « à haut risque ».

Une initiative européenne à dominante franco-allemande

Quoique à dimension européenne, EU AI Champions a des fondations largement franco-allemandes. Sur ses 114 logos, une trentaine sont rattachés à des organisations françaises et une quarantaine, à des organisations allemandes.

France Allemagne
Airbus Bilfinger (construction et services)
Airbus Defence and Space Black Forest Labs (labo d’IA à l’origine des modèles multimodaux FLUX)
Alan Cambrium (fabricant de produits chimiques)
Autone (optimisation des stocks) Covestro (fabricant de produits chimiques)
AXA DeepL
BNP Paribas Deutsche Bank
Carrefour Deutsche Telekom
CMA CGM Edgeless Systems (cybersécurité)
Contentsquare Flix (traveltech)
Dassault Systèmes Genesis Cloud (« néocloud »)
Dataiku German AI Association (fédération des entreprises allemandes de l’IA)
Doctolib GetYourGuide (réservation de voyages)
Dust (plate-forme IA axée production de contenu) Giesecke+Devrient (solutions de sécurité)
EDF Hapag-Lloyd (transport maritime en conteneurs)
Kering Helsing (technologies de défense)
L’Oréal Holtzbrinck (maison d’édition)
Lighton Hexagon (technologies de mesure)
Mirakl Infineon
Mistral AI K+S (entreprise minière)
Orange LangDock (plate-forme IA d’entreprise)
Owkin LOH Group (industrie manufacturière et services)
Pelico (plate-forme d’orchestration de la production) Lufthansa
Photoroom Merantix Capital
Pigment (plate-forme de planification) Mercedes-Benz
Publicis Groupe Northern Data Group (« néocloud »)
Renault Group Orbem (technologies d’IRM)
Sanofi Otto Group (vente à distance)
Shift (détection de fraude à l’assurance) Parloa (conception et déploiement d’IA)
TotalEnergies Personio (logiciels RH)
RobCo (robotique)
SAP
Schwarz (groupe de distribution)
Siemens
Siemens Energy
Skeleton (stockage de l’énergie)
SPREAD (IA industrielle)
Startup Verband (fédération des start-up allemandes)
Südzucker (groupe sucrier)
United Internet (services numériques)
ZF (équipementier automobile)

À ce contingent s’ajoutent deux entreprises dont les fondateurs sont français, mais qui ont leur siège aux États-Unis. Une du secteur aérospatial (Loft Orbital, qui a un pied à Toulouse). L’autre qui fournit des logiciels RH (Deel).

Un pot-pourri de projets annoncé à Berlin

Le dernier « temps fort » d’EU AI Champions s’est déroulé au Sommet sur la souveraineté numérique organisé à Berlin. C’était mi-novembre 2025. Ses membres y ont annoncé un pot-pourri de partenariats, d’accords commerciaux et d’engagements individuels, valorisés dans leur ensemble à 1 Md€.

Projets Grandes lignes des engagements
Allianz (Allemagne) x Parloa (Allemagne) Le premier va exploiter les technologies du second pour le service client.
Black Forest Labs (Allemagne) x Mercedes-Benz (Allemagne) Le groupe automobile va développer des outils IA sur la base des modèles FLUX de la start-up.
Charité Comprehensive Cancer Center (Allemagne) x Gustave Roussy (France) x Owkin (France) Ce projet associe les deux centres autour de la structuration de données biomédicales et d’un modèle de raisonnement pour la recherche biologique et le développement de médicaments.
Current AI x SPRIND Current AI est un partenariat global né au Sommet de l’IA, sous l’impulsion de DeepMind, de Salesforce, d’AI Collaborative (initiative d’Omidyar Group), du ministère français de l’Europe et des Affaires étrangères et de trois fondations (Ford, MacArthur, McGovern).
SPRIND est l’agence fédérale allemande pour l’innovation de rupture.
Les deux parties travailleront sur l’application de l’IA aux données de santé.
Deutsche Telekom (Allemagne) x PhysicsX (Angleterre) L’entreprise anglais va exploiter le cloud du groupe allemand pour déployer sa plate-forme d’ingénierie fondée sur de l’IA physique. Le partenariat court pour 3 ans.
Doctolib (France) Pas de partenariat, mais un engagement à investir dans le système de santé allemand.
ESTIA (European Sovereign Tech Industry Alliance) Naissance de cette alliance qui réunit A1, Airbus, Dassault Systèmes, Deutsche Telekom, Evroc, OpenNebula Systems, Orange, OVHcloud, Post Luxembourg, Schwarz Digits, Sopra Steria et TIM.
Helsing (Allemagne) x Mistral AI (France) Nouvelle phase de collaboration, axée sur la conception de modèles vision-langage pour la défense et la sécurité.
ICEYE (Finlande) Ce fabricant de micro-satellites a constitué un joint-venture avec le groupe allemand Rheinmetall (armement et équipement automobile).
Legora (Suède) Cette legaltech a annoncé vouloir doubler son effectif sur un an et établit des points de présence supplémentaires en Europe.
MBDA (France) x Rheinmetall (Allemagne) x SPREAD (Allemagne) SPREAD contribue au jumeau numérique de défense de Rheinmetall et à l’automatisation de la validation chez MBDA (aéronautique, spatial et armement).
Mercedes-Benz (Allemagne) Engagement à collaborer avec les start-up et les fournisseurs de modèles d’IA européens.
Multiverse (Angleterre) Cette edtech s’est engagé à ouvrir un bureau en Allemagne. Elle compte former, sur place, 100 000 personnes à l’IA en 5 ans.
Nextcloud (Allemagne) L’entreprise s’engage à investir « plus de 250 M€ » dans son programme Sovereignty 2030 pour « faire de l’IA ouverte souveraine une réalité en Europe ».
Otto Group (Allemagne) Engagement à investi 350 M€ sur 3 ans pour faire évoluer le e-commerce, notamment à renfort de GenAI.
SAP (Allemagne) x Mistral AI (France) Extension du partenariat à travers lequel SAP fournit les modèles Mistral via sa Business Technology Platform (voir notre article à ce sujet).
Siemens Engagement à développer un « écosystème européen de données industrielles » qui alimentera des modèles de fondation industriels.
SPRIND Lancement, en juin 2026, d’un défi « Next Frontier AI » doté de 125 M€. Objectif : faire émerger des labos européens exporant des « approches alternatives » de l’IA, en particulier la frugalité en données et en énergie.

À cette même occasion, EU AI Champions a déclaré que 20 Md€ avaient été engagés sur les 150 Md€ alloués.

Son document référent reste le rapport « Un agenda ambitieux pour l’IA européenne » que General Catalyst avait publié au Sommet de l’IA 2025

Illustration générée par IA

The post Un an après, que devient l’initiative EU AI Champions ? appeared first on Silicon.fr.

  •  

Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel »

L’IA générative n’est plus seulement utilisée pour développer des malwares : elle alimente aussi leur exécution.

En novembre 2025, Google avait proposé une analyse à ce sujet. Il avait donné plusieurs exemples. Dont celui d’un dropper VBScript faisant appel à l’API Gemini pour l’aider à obscurcir son code.

L’analyse est reprise en source dans l’International AI Safety Report 2026. Il s’agit du rapport « officiel » préfigurant le Sommet de l’IA qui se tiendra en Inde du 16 au 20 février. Comme celui de l’an dernier, il donne un instantané de la compréhension scientifique des IA généralistes, sous l’angle de la sûreté. Parmi les experts impliqués, il y a, côté français, Jonathan Collas  conseiller industrie et numérique au SGDSN. Et Gaël Varoquaux (Inria), chef de projet pour le consortium Scikit-learn.

Pour cette édition, la définition des « risques émergents » a été restreinte. Il s’agit désormais de ceux « qui naissent à la frontière des capacités de l’IA ». Une manière, nous explique-t-on, de mieux se poser en complément à des initiatives telles que le panel scientifique de l’ONU sur l’IA.

Des IA plus persuasives, mais une influence « non démontrée à l’échelle »

Depuis l’an dernier, les systèmes dit de raisonnement se sont répandus. Les performances en mathématiques, code et sciences en ont particulièrement bénéficié. Côté méthodes d’entraînement, le rapport met en avant la distillation, avec l’exemple de DeepSeek-R1, dont les chaînes de pensée ont nourri DeepSeek-V3.

Des avancées, il y en a aussi eu sur le contenu que génèrent les IA. Constat, dans les grandes lignes : il est devenu plus difficile à détecter. Pour l’illustrer, le rapport cite, entre autres, les observations de chercheurs de l’université de Californie à San Diego sur un test de Turing avec GPT-4o. Dans 77 % des cas, les participants ont considéré comme d’origine humaine un texte en fait créé par le LLM.
Une autre expérience citée émane d’UC Berkeley. Elle a porté sur le clonage de voix. Dans 80 % des cas, les participants ont pris l’IA pour le locuteur d’origine.

Autre étude d’UC Berkeley, autre aspect : les capacités de persuasion dont les IA font preuve. Elles se montrent parfois plus efficaces que l’humain. Les preuves en ce sens « se sont accumulées » ces derniers mois, précise le rapport, qui en dresse un tableau récapitulatif. Centré sur les effets négatifs (propagande politique, notamment), il témoigne cependant aussi d’effets potentiellement positifs, dont la réduction de l’adhésion aux théories du complot.

L’efficacité du contenu IA par rapport au contenu que crée l’humain n’est toutefois pas démontrée à l’échelle, nous explique-t-on. Cela peut s’expliquer par le coût de distribution et par l’effet de balance que suscite, en conditions réelles, l’exposition à des points de vue antagonistes.

Cybersécurité : pas encore d’IA à tout faire, même si la détection de vulnérabilités est acquise

Sur le volet cyber, la difficulté à établir des relations de cause à effet complique l’estimation du rôle de l’IA dans la sévérité et l’échelle des attaques.

Les LLM se révèlent en tout cas performants pour découvrir des vulnérabilités. À ce sujet, on nous mentionne le dernier DARPA AI Cyber Challenge. Lors de cette compétition, un système agentique s’est hissé dans les hauteurs du classement en découvrant 77 % des failles.

Malgré ces progrès, aucune attaque intégralement autonome n’a pour le moment été signalée. Au moins un incident s’en est néanmoins approché. Il a impliqué les services d’Anthropic. Celui-ci s’en est fait l’écho en novembre 2025, estimant que l’attaquant avait automatisé, par ce biais, 80 à 90 % du travail, l’humain n’intervenant que pour des décisions critiques.

De manière générale, le rapport invite à ne pas surestimer le potentiel actuel des IA. Ne serait-ce que parce que la plupart des évaluations n’englobent que des compétences isolées ; pas des attaques de bout en bout. Jusqu’ici, les outils à disposition ont surtout accéléré ou mise à l’échelle des méthodes existantes.

L’évolution de la balance entre usages offensifs et défensifs dépendra des choix sur l’accès aux modèles, le financement de la recherche et les normes de déploiement. Le manque de méthodes standards d’assurance qualité pour les outils IA, par exemple, complique leur adoption dans des secteurs critiques. Alors que dans le même temps, les acteurs de la menace n’ont pas cette contrainte…

Conscience situationnelle ne rime pas avec perte de contrôle

Quant aux dysfonctionnements et aux risques que cela implique, il y a, dans le rapport, à boire et à manger.

Des références à plusieurs études rappellent que des modèles ont démontré des capacités de conscience situationnelle. Autrement dit, une aptitude à détecter l’environnement dans lequel ils évoluent. De là la possibilité de se comporter différemment dans un scénario d’évaluation que dans le monde réel. Ou à dégrader artificiellement ses performances pour éviter des restrictions de déploiement. Ou encore à contourner sciemment des garde-fous pour remplir à tout prix un objectif, tout en le niant par après.

Le risque d’une perte de contrôle sur le long terme demeure cependant faible, faute de capacités à maintenir un fonctionnement autonome sur la durée.
Certes, cette durée s’est allongée dans quelques disciplines, à commencer par le codage. Mais un seul grain de sable peut faire dérailler la machine, comme l’illustre une étude universitaire axée sur la perturbation des systèmes langage-vision à partir d’une pop-up.

Le biais d’automatisation s’amplifie

Concernant l’impact de l’IA sur le marché du travail, le rapport cite des études – au Danemark et aux États-Unis – qui n’ont pas démontré de corrélation forte. Mais il en mentionne aussi plusieurs ayant conclu à un déclin de la demande en profils juniors.

L’amplification du « biais d’automatisation » apparaît plus claire. Déjà prononcé avec les systèmes automatisés « non IA », le phénomène se perpétue au contact des LLM. Le rapport cite deux études qui en témoignent. L’une démontre la tendance des utilisateurs d’outils d’assistance à l’écriture à adopter le point de vue que suggère le modèle. L’autre met en lumière le processus des raccourcis mentaux : sur une tâche d’annotation assistée, les participants ont moins corrigé les suggestion erronées venant d’une IA lorsque cela exigeait un effort supplémentaire.

Illustration générée par IA

The post Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel » appeared first on Silicon.fr.

  •  

Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité

Si les assistants de codage ne font pas tant gagner en productivité, c’est parce qu’ils cannibalisent la phase pendant laquelle les écarts de spécifications sont le plus souvent détectés.

Certes, le constat émane d’une start-up américaine qui en a fait son fonds de commerce. Mais la réflexion qui y a abouti a son intérêt, notamment par les indicateurs dont elle s’est nourrie.

Trois stats pour poser le problème

La semaine dernière, cette start-up – Bicameral AI – avait publié un « manifeste », intitulé « Les assistants de codage résolvent le mauvais problème ». Elle avait ouvert son propos sur trois statistiques.

La première est sourcée d’Index.dev (plate-forme de recrutement tech). Bicameral AI la présente ainsi : les équipes ayant utilisé l’IA ont réalisé 21 % de tâches en plus, mais le delivery global – au niveau de leur organisation – ne s’est pas amélioré.

Index.dev a en fait lui-même tiré ce chiffre du rapport « The AI Productivity Paradox », que Faros AI (plate-forme de développement) avait publié à l’été 2025. Il apparaît que Bicameral AI en fait un résumé incomplet : le taux de 21 % vaut pour les équipes qui ont un usage important (« extensive ») de l’IA. Et le delivery est jugé spécifiquement sur les métriques DORA.

Deuxième statistique : les développeurs expérimentés ayant utilisé des assistants de codage ont été 19 % plus lents, alors qu’ils croyaient être plus rapides. Difficile de la vérifier : l’article qui en rend compte, publié en janvier 2025, n’est plus accessible. Son auteur : METR, organisation à but non lucratif qui étudie l’impact sociétal de l’IA. Sa fondatrice est une ancienne de DeepMind et d’OpenAI.

Troisième statistique : 48 % du code généré par IA contient des vulnérabilités. Elle est censée provenir d’Apiiro (un spécialiste de l’AppSec) et dater de 2024. Le lien que fournit Bicameral AI pointe toutefois vers un post de septembre 2025 qui ne donne pas directement ce chiffre. Apiiro a tout de même régulièrement donné des estimations proches (« plus de 40 % » en avril 2025, « jusqu’à 50 % » en août 2025…).

Quand l’IA fait perdre le temps qu’elle a fait gagner

Le manifeste se poursuit sur une référence à un fil Reddit avec près d’un millier de commentaires. Un développeur senior y témoigne de l’expérience – positive – de son équipe avec l’IA.

Bicameral AI pointe un des commentaires : le plus difficile n’est pas d’écrire le code, mais de gérer les cas particuliers qui se présentent au cours de l’implémentation. La start-up rebondit sur cet aspect : les assistants de codage sont connus pour ne pas faire remonter les écarts de spécifications, mais au contraire les dissimuler, affirme-t-elle. Par conséquent, on passe davantage de temps sur la revue de code… alors qu’avec l’IA, les managers en attendent davantage.

Dans ce contexte, le taux de développeurs considérant que les managers ne saisissent pas leurs points de douleur progresse nettement : 63 % en 2025, contre 49 % en 2024.

Ces chiffres proviennent du dernier sondage State of DevEx d’Atlassian. Bicameral AI le reprend pour annoncer que les assistants de codage font gagner aux développeurs près de 10 heures par semaine. Mais que l’accroissement des inefficacités sur le reste du cycle de développement anéantit presque ce gain.

Là aussi, la start-up fait un raccourci. Atlassian dit en fait que les outils GenAI en général font gagner au moins 10 heures par semaine à 68 % des développeurs. Mais qu’en même temps, 50 % perdent plus de 10 heures sur des tâches autres que le code*.

Ce fil conducteur mène Bicameral AI à une observation : le décalage entre intention métier et implémentation se crée lors des réunions produit. La start-up en veut pour preuve un sondage qu’elle a mené auprès de développeurs. Dans ce cadre, la majorité (63 %) ont déclaré découvrir des contraintes inattendues après s’être engagés sur l’implémentation.

Les écarts de spécifications, repérés surtout lors de l’implémentation

Les commentaires sur le manifeste et la collecte de réponses supplémentaires au sondage ont entraîné la publication, cette semaine, d’un deuxième article. Bicameral AI y confirme que le taux de développeurs découvrant les contraintes techniques au stade de l’implémentation est resté élevé (50 %).

La start-up mentionne un autre chiffre : 70 % déclarent que ces contraintes doivent être connues au-delà de leur équipe, auprès de populations qui n’interagissent pas régulièrement avec la codebase. Seulement, assure-t-elle, cette communication est difficile. Les pratiques de documentation des décisions n’aident pas : 52 % des répondants à son sondage transmettent les contraintes techniques par copier-coller sur Slack et 25 % les évoquent oralement, sans trace écrite. Plus globalement, 35 % des communications ne produisent aucun artefact persistant.

Bilan : dans la pratique, le conflit entre les specs produit et la réalité de l’engineering ne devient apparent qu’à la phase d’implémentation. Or, dès lors que l’IA phagocyte cette phase, le travail de découverte doit remonter à la phase de planification, sous peine de glisser sinon vers la phase de revue de code… et d’en être d’autant plus compliquée.

Le salut dans les prompts ? Le paradoxe de l’œuf et de la poule

Bicameral part ici du principe que les assistants de codage sont « accommodants » : ils peuvent demander des clarifications, mais ne suggèrent généralement pas d’explorer d’autres options.
« Il suffit de demander à l’IA de te challenger », a-t-on rétorqué, en substance, à la start-up. Elle y répond sous l’angle de l’œuf et de la poule : pour prompter correctement, il faut connaître au préalable la manière dont les contraintes techniques et produit peuvent entrer en conflit. Une connaissance qui, en l’état, ne fait donc essentiellement surface qu’à la phase d’implémentation…

Le traitement du problème en amont pourrait, contre-intuitivement au premier abord, s’appuyer sur des LLM. Lesquels examineraient comment une spéfication donnée pourrait impacter des structures de code existantes. Sur cette base, on pourrait imaginer un affichage en tant réel du contexte d’ingénierie pendant une réunion. Option qu’ont d’ailleurs suggérée certains participants au sondage.

* En 2024, IDC expliquait que le codage ne représentait que 16 % de leur temps de travail des développeurs. Contre 14 % pour l’écriture de spécifications et de tests, 13 % pour la sécurité, 12 % pour la surveillance des applications, etc.

Illustration générée par IA

The post Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité appeared first on Silicon.fr.

  •  
❌