Vue normale

Reçu aujourd’hui — 15 janvier 2026

AWS lance son « cloud souverain européen » : les services disponibles

15 janvier 2026 à 14:38

En cas de litige, prière de vous adresser aux tribunaux de Munich.

AWS impose cette règle aux clients de son « cloud souverain européen ». Il faut dire que l’offre a son épicentre en Allemagne. L’entité qui la porte y est basée, comme l’infrastructure initiale.

Plus de deux ans après son annonce, la démarche se concrétise : le lancement commercial vient d’être acté.

AWS fait une promesse d’équivalence fonctionnelle avec le reste de son cloud. Il ne faut toutefois pas s’attendre à retrouver immédiatement les mêmes services. En voici quelques-uns effectivement disponibles. Avec, pour chacun, les principales fonctionnalités utilisables… et celles qui ne le sont pas encore.

Compute

Sur EC2, AWS a activé, entre autres, les hôtes dédiés, les réservations de capacité, les groupes de placement de clusters et de partitions, l’hibernation, les instances Spot et les Savings Plans, l’optimisation CPU, ainsi que l’importation/exportation de VM.
En revanche, pas de SEV-SNP, de Credential Guard, d’enclaves Nitro, de configuration de la bande passate des instances, de blocs de capacité ML et de mise à l’échelle prédictive. Sur EC2 Image Builder, la gestion de cycle de vie n’est pas activée, comme la détection de vulnérabilité et l’intégration CloudFormation.

Sur Lambda, on peut notamment utiliser l’invocation asynchrone, la console d’édition de code, les extensions et SnapStart. Les images de conteneurs sont supportées, comme les puces Graviton.
Il faudra en revanche attendre pour les fonctions Lambda durables.

Stockage

AWS Backup gère pour le moment Aurora, CloudFormation, DynamoDB, EBS, EC2, EFS, RDS, Redshift et S3.
Aurora DSQL est sur la feuille de route, comme DocumentDB, FSx pour Lustre/ONTAP/OpenZFS, Neptune, RDS multi-AZ, Redshift Serverless, Storage Gateway, VMware et Windows VSS.

Sur EBS (Elastic Block Storage), l’essentiel des fonctionnalités sont disponibles : chiffrement, clonage, gestion du cycle de vie des données, corbeille, snapshots, etc.

Sur EFS (Elastic File Storage), les politiques de cycle de vie sont activées, comme le pilote CSI, l’IPv6, le mode Max I/O et plusieurs classes de stockage (Archive, Standard, Standard Infrequent Access).
En revanche, pas de classes de stockage One Zone et One Zone Infrequent Access. Ni de réplication intercomptes ou d’intégrations avec ECS et Lambda.

Sur la partie FSx, la version Lustre n’a pas de chiffrement au repos, de support des EFA (Elastic Fabric Adapter), ni des classes de stockage HDD et SSD.
Pour les versions ONTAP et OpenZFS, pas d’intégration AD, de chiffrement au repos, d’IPv6, de WORM, de classe SSD et de certains déploiements (multi-AZ, scale-out, haute disponibilité en mono-AZ).

S3 version European Sovereign Cloud gère les écritures et les copies conditionnelles, les listes de contrôle d’accès, les opérations par lots, les politiques et clés de buckets, la réplication interrégions, le tiering intelligent, l’inventaire et le cycle de vie, le verrouillage et l’étiquetage d’objets, ainsi que Glacier et Storage Lens.
Il faudra attendre pour les tables et les vecteurs S3, les autorisations d’accès individuelles, les métadonnées, la fonction Select et la classe de stockage Express One Zone.

Réseau

Sur API Gateway, REST est activé. Pas encore HTTP, ni WebSockets.

Les fonctionnalités principales de Cloud Map sont disponibles, dont l’intercomptes, la gestion des endpoints dual-stack et les attributs de services. Même réflexion pour Direct Connect, qui ne gère toutefois pas encore PrivateLink, comme beaucoup d’autres services.

Avec Route 53 aussi, l’essentiel du socle est disponible, à l’exception des domaines et – pour le DNS public – la signature DNSSEC.
Sur les VPC, le blocage de l’accès public est activé, comme les journaux de flux, la gestion des adresses IP et la mise en miroir du trafic. La brique Route Server ne l’est pas, comme l’analyse de la connectivité et des accès réseau.

Bases de données

Aurora n’est pas encore disponible pour DSQL. Il l’est en revanche pour MySQL et PostgreSQL, y compris en version serverless. Les déploiements blue-green sont pris en charge, comme les proxys RDS et la connexion zero-ETL avec Redshift.

Les briques essentielles de DocumentDB sont disponibles. Pas de clusters globaux, cependant, ni de clusters élastiques.

Sur DynamoDB, on peut bénéficier du contrôle d’accès à base de rôles et d’attributs, des points de restauration, de l’importation/exportation S3, des index secondaires globaux ou locaux, des classes de stockage Standard et Standard Infrequent Access et du débit à la demande ou provisionné.
Le service de cache Accelerator n’est pas disponible.

ElastiCache est disponible en serverless, avec le support du JSON. Mais pour le moment sans tiering des données ni data store global.
Les principales fonctionnalités de Neptune sont accessibles, mais pas les instances serverless ni celles optimisées I/O.

Sur RDS pour MariaDB, MySQL, PostgreSQL et SQL Server, les déploiements blue-green sont pris en charge, ainsi que les lectures optimisées (sauf pour Postgre) et les proxys RDS. Les réplicas en lecture interrégions sont sur la roadmap, comme la connexion zero-ETL avec Redshift (mais pas pour MariaDB).

Analytics

Le « gros » d’Athena est disponible : console, contrôle d’accès granulaire, requêtes fédérées, réservation de capacité, etc. Même chose pour EMR, mais sans les versions EKS et serverless. Et pour Kinesis Data Strams (contrôle d’accès basé sur les attributs, accès intercomptes, quotas de service, connectivité et sécurité réseau).

Data Firehose accepte OpenSearch, Redshift, S3, Snowflake, Iceberg et HTTP en destination. Il gère l’IPv6, la transformation de données, l’ingestion PUT et le partitionnement dynamique.
L’intégration avec Secrets Manager n’est pas encore activée, ni Splunk comme destination.

Le Flink managé d’AWS est largement opérationnel, mais sans possibilité d’apporter ses propres clés. Sur le Kafka managé, c’est le serverless qui manque, ainsi que les briques Connect et Replicator.

Le cœur fonctionnel de Glue est disponible (console, connecteurs, jobs, sessions interactives).

Quantité de fonctionnalités d’OpenSearch Service sont disponibles : support du 3-AZ, détection d’anomalies, recherche asynchrone, recherche entre clusters, dictionnaires personnalisés, SAML, chiffrement au repos et en transit, supervision/alertes, compression HTTP, gestion de l’état des index, snapshots quotidiens, domaines VPC…
Il y a aussi des manques : serverless, alertes interclusters, recherche interrégions, réplication entre clusters, plug-in tiers, authentification Kibana avec Cognito, requêtage SQL, requêtes directe sur Security Lake, recherche par similarité cosinus…

Sur Redshift, l’optimisation automatique des tables et la gestion automatique des workloads sont activées. Idem pour les requêtes entre bases de données, les snapshots et les points de restauration, les procédures stockées et les fonctions définies par l’utilisateur.
Il faudra patienter pour la version serverless, l’édition et la fédération de requêtes, ainsi que l’intégration avec Bedrock.

IA/ML

Bedrock est signalé comme disponible. Mais beaucoup de composantes manquent à l’appel : agents, RAG, marketplace, évaluations, apprentissage par renforcement, gestion et optimisation des prompts…

SageMaker AI est disponible pour l’inférence et l’entraînement, avec SDK Python, JupyterLab, registre de modèles, pipelines, recherche et conteneurs deep learning.
Pas de personnalisation des modèles, ni de batching pour l’entraînement.

Conteneurs

ECR (Elastic Container Registry) est disponible avec chiffrement double couche, scan d’images, IPv6, réplication intercomptes et intégrations CloudTrail/CloudWatch.

ECS (Elastic Container Service) l’est avec gestion de Fargate et de l’attachement de tâches EBS. Pas de déploiements blue-green, en revanche, ni de découverte de services.

Les nœuds hybrides et les groupes de nœuds managés sont disponibles sur EKS (Elastic Kubernetes Service). Comme IPv6, OIDC et les add-on.
Fargate n’est pas encore pris en charge.

Sécurité, identité, conformité

L’essentiel des fonctionnalités de Cognito sont disponibles. Même chose pour GuardDuty, mais sans la console ni la connexion avec Detective et Security Hub.

Sur Certificate Manager, la supervision des certificats est disponible comme la validation DNS, l’émission et l’exportation de certificats publics, leur importation, le renouvellement managé et la création de certificats TLS privés via l’autorité de certification AWS.
La validation HTTP n’est pas disponible. Il en va de même pour la validation e-mail.

Avec Directory Service, la suprervision, l’administration et le partage d’annuaire sont activés. Même chose pour le MFA, les politiques de mots de passe, l’extension de schéma et les snapshots quotidiens.
La remontée des métriques de contrôleurs de domaine dans CloudWatch n’est pas disponible. Comme la gestion des utilisateurs et des groupes.

Sur la partie IAM, la composante STS (Security Token Service) est disponible. Comme la récupération de compte et la centralisation des accès root.
Les passkeys ne le sont pas encore. La fédération non plus. Idem pour la gestion de principaux et la simulation de politiques.

En version « cloud souverain européen », AWS KMS gère les magasins de clés externes, mais pas les magasins personnalisés.

Sur Secrets Manager, l’essentiel est activé : récupération par lots, rotation automatique, contrôle d’accès avec IAM, métriques CloudWatch, réplication interrégions, génération de mots de passe, étiquetage et chiffrement des secrets…
La sécurité post-quantique pour TLS fait exception. Il faudra aussi attendre pour pouvoir déployer Secrets Manager avec AppConfig.

Le WAF (v2) est bien disponible, mais il manque notamment la protection contre le DDoS, les bots et la fraude. Ainsi que les intégrations App Runner, AppSync et Amplify.

Gestion, gouvernance

Le service AWS Auto Scaling gère, entre autres cibles, les services ECS, les clusters EMR, les réplicas Aurora, les ressources personnalisées, les tables et les index secondaires globaux DynamoDB et les groupes de réplication ElastiCache (Redis OSS et Valkey).
Les clusters Neptune sont sur la feuille de route, comme les flottes AppStream et les tables Keyspaces pour Cassandra.

Le cœur fonctionnel de CloudFormation est disponible (hooks, générateur IaC, StackSets, quotas de service…), mais la synchro Git ne l’est pas.

Avec CloudTrail, on accède à l’historique d’événements, à la piste d’audit et au serveur MCP. Pas aux insights ni aux événements agrégés.

Sur CloudWatch, métriques, dashboard et alarmes sont activés, comme l’extension Lambda Insights. Pipeline, signaux d’applications et RUM ne le sont pas. Sur la partie logs, pas mal d’éléments manquent encore : observabilité de la GenAI, indexation de champs, enrichissement, intégration des tables S3, centralisation entre comptes et régions…

Illustration générée par IA

The post AWS lance son « cloud souverain européen » : les services disponibles appeared first on Silicon.fr.

IBM prépare une nouvelle nuance de « cloud souverain » sur base OpenShift

15 janvier 2026 à 08:37

RHEL, Ansible, OpenShift… En matière de cloud « souverain », l’offre de Red Hat est traditionnellement au cœur de la proposition de valeur d’IBM.

Elle pourrait l’être encore plus mi-2026. À cette échéance est prévu le lancement commercial d’une solution appelée IBM Sovereign Core.

La preview technique doit démarrer en février. Aucune feuille de route n’est publiée pour l’heure. IBM communique néanmoins un schéma donnant une idée de ce qui pourrait, à terme, composer l’offre.

IBM Sovereign Core

La solution fonctionnera en mode déconnecté (air-gapped), avec un plan de contrôle géré par le client ou par un partenaire local. Les premiers officiellement dans la boucle sont Cegeka (pour le Benelux) et Computacenter (pour l’Allemagne).

La télémétrie restera en local, comme l’authentification, l’autorisation et le chiffrement. Le centre de conformité sera livré avec des politiques alignées sur les cadre de souveraineté nationaux – tout en permettant de personnaliser les règles.

AWS et de SAP occupent aussi le terrain

Le discours d’IBM se porte nettement sur l’aspect « IA souveraine ».

SAP a choisi la même approche avec son offre EU AI Cloud, annoncée fin novembre 2025. Elle est à la croisée de la stratégie promue depuis quelques années sous la marque SAP Sovereign Cloud et des efforts du groupe allemand en matière d’intégration de modèles et de services IA. La « souveraineté » est promise à quatre niveaux :

  • Données (localisation)
  • Exploitation (opérations sensibles effectuées en local avec du personnel situé sur place ou dans un « pays de confiance »)
  • Technique (plans de contrôle locaux)
  • Juridique (entités locales ou établies dans des « pays de confiance »)

Pour le déploiement, quatre options, pas toutes disponibles en fonction des marchés : sur l’infra SAP, chez le client (en managé), chez des hyperscalers et chez Delos Cloud – filiale de SAP – pour le secteur public.

Dans la catégorie hyperscalers, il y aura notamment le « cloud souverain européen » d’AWS, qui vient d’en annoncer la disponibilité générale. L’épicentre se trouve en Allemagne. Des zones locales y seront connectées sur réseau privé. Les premières sont prévues en Belgique, aux Pays-Bas et au Portugal.

Illustration principale génrée par IA

The post IBM prépare une nouvelle nuance de « cloud souverain » sur base OpenShift appeared first on Silicon.fr.

VMware assigné en référé par la Cnam

15 janvier 2026 à 06:08

Face à VMware, la Cnam (Caisse nationale d’assurance maladie) a fini par saisir la justice.

Il y a quelques semaines, l’établissement public est allé en référé. Objectif : obtenir un délai pour convertir des jetons HPP (Hybrid Purchasing Program)* en licences perpétuelles.

Ces jetons avaient été acquis à l’été 2021, sur le fondement d’un accord-cadre conclu entre le GIP RESAH (Réseau des acheteurs hospitaliers) et Computacenter. Son objet : la fourniture de logiciels, dont ceux de VMware.

Le 22 avril 2024, Broadcom avait informé la Cnam que la conversion des jetons HPP ne serait plus possible après le 30 avril 2024.

Le 26 septembre 2025, la Cnam avait mis Computacenter et Broadcom en demeure de rétablir cette possibilité jusqu’au 20 décembre 2025. Elle avait essuyé un refus, au motif que le modèle de souscription alors en vigueur ne le permettait pas.

La Cnam a invoqué sa mission de service public

Le 2 décembre, la Cnam avait sollicité le juge des référés pour obtenir ce rétablissement, sous astreinte de 50 000 € par jour. Fondement invoqué : l’article L. 521-3 du Code de justice administrative. Lequel dit, en substance, que le juge des référés peut, en cas d’urgence, ordonner toute mesure utile, même en l’absence d’une décision administrative préalable.

D’après la Cnam, la condition d’urgence était remplie dès lors que :

  • ces jetons devaient être convertis avant le 20 décembre 2025 ;
  • à défaut, elle perdrait son droit contractuel à la conversion ;
  • l’acquisition de licences perpétuelles revêtait une importance particulière pour assurer sa mission de service public, l’ensemble de son SI reposant sur les technos Vmware.

La Cnam prétendait ne pas disposer des moyens suffisants pour contraindre Broadcom… et considérait par là même que la mesure demandée était utile.

Broadcom a fini par accéder à la demande. Et le 23 décembre, la Cnam s’est désistée de sa requête.

* Le programme HPP se destinait aux clients souhaitant migrer vers le cloud tout en conservant leur infrastructure privée. Il combinait l’EPP (Enterprise Purchasing Program) et le SPP (Subscription Program) en un modèle transactionnel. Chaque euro dépensé une partie 

Illustration générée par IA

The post VMware assigné en référé par la Cnam appeared first on Silicon.fr.

Reçu hier — 14 janvier 2026

Double acquisition pour CrowdStrike : le zero trust en filigrane

14 janvier 2026 à 10:33

Aussi longtemps qu’ils peuvent se déplacer latéralement dans votre environnement, les attaquants ne seront pas gênés par votre PAM. Quant aux cases de « conformité » cochées dans votre IGA, elles n’ont pas de poids si les décisions d’accès sont basées sur des informations obsolètes.

Ces éléments font partie du pitch de SGNL, qui vante, par leur intermédiaire, l’aspect « temps réel » de sa solution de gestion des accès.

Le positionnement cette entreprise américaine a séduit CrowdStrike, parti pour s’en emparer pour une somme qui dépasserait les 700 M$. Il entend combiner la technologie à sa plate-forme Falcon, qui verra ainsi ses capacités d’autorisation contextuelle étendues au-delà d’Active Directory.

Avec Seraphic Security, CrowdStrike met un pied dans les navigateurs

CrowdStrike vient d’annoncer un autre projet d’acquisition, estimé à environ 420 M$. La cible, basée en Israël, s’appelle Seraphic Security. Elle commercialise une technologie de protection des navigateurs – et des apps Electron – basée sur un agent qui vient se placer au-dessus du moteur JavaScript.

Ces derniers temps, Seraphic Security a insisté sur la protection qu’il dit apporter contre les menaces liées à l’usage d’IA (fuites de données, injections de prompts, violations de conformité…). Il joue plus globalement l’alternative à de nombreuses solutions : VDI, VPN, SWG (passerelles web sécurisées), RBI (isolation de navigateur à distance), etc. Tout en se positionnant comme un complément aux EDR, en apportant de la visibilité sur l’activité dans les navigateurs.

Seraphic Security s’est déjà intégré à quelques EDR, dont ceux de Microsoft … et de CrowdStrike. Les jonctions avec la plate-forme Falcon touchent aussi, entre autres, à la sandbox et au score d’évaluation zero trust.

2020-2025 : des acquisitions sous le signe du zero trust, puis de la sécurité du cloud

En 2025, CrowdStrike avait officialisé deux acquisitions.

L’une, estimée à 290 M$, a porté sur Onum, un spécialiste de la télémétrie. Son architecture in-memory sans état doit permettre de fiabiliser l’ingestion de données dans Falcon et permettre d’amorcer leur analyse en amont, au niveau des pipelines.

L’autre opération, estimée à 260 M$, a visé Pangea. Elle est censée étendre les capacités EDR de CrowdStrike à l’IA, sur l’ensemble de son cycle de vie.

Deux acquisitions avaient également été annoncées en 2024. Elles ont témoigné d’une volonté de renforcement sur la sécurité du cloud. D’un côté, Flow Security (200 M$ ; gestion de la posture de sécurité des données). De l’autre, Adaptive Shield (300 M$ ; gestion de la posture de sécurité du SaaS).

L’acquisition de Bionic, effectuée en 2023 pour un montant estimé à 350 M$, reflétait cette même volonté. Avec elle, CrowdStrike a élargi ses capacités AppSec et ouvert la voie à une composante CIEM, en apportant une visibilité sur l’exécution des applications sur les infras cloud.

En 2022, la gestion de la surface d’attaque externe fut étendue avec Reposify. En 2021, on avait parlé sécurité des données avec SecureCircle. CrowdStrike en avait présenté l’acquisition comme un levier d’extension de son approche zero trust. Il avait adopté un discours semblable en 2020 à l’heure de mettre la main sur Preempt Security (gestion des accès ; 96 M$). Entre-temps, il s’était offert Humio (400 M$) et sa technologie d’ingestion/analyse de logs.

Illustration principale © Adrian Gros – Shutterstock

The post Double acquisition pour CrowdStrike : le zero trust en filigrane appeared first on Silicon.fr.

Reçu — 13 janvier 2026

Gouvernance des données : pourquoi il devient difficile de choisir une solution

13 janvier 2026 à 14:15

En se connectant aux agents IA embarqués, les solutions de gouvernance des données se rapprochent des applications métier.

Gartner signale cette tendance dans le cadre de son Magic Quadrant. Les acquisitions d’Informatica par Salesforce et de data.world par ServiceNow y font écho, estime-t-il.

Le cabinet américain relève d’autres marqueurs d’évolution du marché de la data governance. La gestion des données non structurées en fait partie. Avec l’IA en ligne de mire, les fonctionnalités se sont développées jusqu’à la vectorisation.

Convergences et chevauchements

Il y a un an, Gartner avait déclaré que la notion de plate-forme restait émergente sur ce marché. Historiquement axés sur l’exécution des politiques de gouvernance plus que sur leur mise en œuvre (data stewardship), les outils manquaient encore de liant, observait-il.

Son propos est moins affirmatif cette année. Mais au fond, le constat demeure : en pratique, plusieurs solutions autonomes sont souvent utilisées en parallèle (sécurité, qualité, confidentialité de la donnée, etc.). Elles occasionnent parfois des chevauchements fonctionnels.

Ces chevauchements sont accentués par l’évolution d’applications telles que les ERP et les CRM/CDP, qui en viennent à inclure des fonctionnalités de gouvernance des données. Ils le sont aussi par l’évolution du data management. Lequel, en connectant les silos de données par des approches comme le data mesh et la data fabric, devient plus à même d’automatiser cette gouvernance à l’appui de machine learning et de modèles sémantiques.

L’IA agentique, un discours plus qu’un état de fait

La hype autour de l’IA a ajouté à la confusion, menant nombre de fournisseurs de solutions classées dans la catégorie data management à prétendre pouvoir « automatiser la gouvernance ». C’est exagéré, avertit Gartner : au mieux, cette automatisation touche des tâches spécifiques comme la découverte d’entités ou la remédiation.

Même avertissement quant au discours sur la gouvernance à renfort d’agents IA : on le prendra comme une promesse – celle d’automatiser les workflows alimentés par les métadonnées actives* – plutôt qu’un état de fait.

La gouvernance de l’IA s’est développée plus nettement, avec l’arrivée de capacités natives (workflows d’approbation automatisés, gestion du cycle de vie des modèles, évaluation continue du risque et des biais, reporting réglementaire…). En toile de fond, la concurrence d’autres types de solutions (cybersécurité, GRC…).

* La plupart des fournisseurs classés dans le Magic Quadrant de la data governance le sont aussi dans celui de la gestion des métadonnées. Les solutions relevant de ce marché visent toutefois plus large. Il y a celles « orientées data » et celles « orientées gouvernance ». Les premières s’adressent généralement à un public plus technique que les secondes, nécessitent moins d’extensibilité et ciblent la gestion des politiques plutôt que leur exécution.

Illustration © kwanchaift – Adobe Stock

The post Gouvernance des données : pourquoi il devient difficile de choisir une solution appeared first on Silicon.fr.

Via l’agentique, la gouvernance des données se rapproche des applications métier

13 janvier 2026 à 13:05

En matière de gouvernance des données, qu’est-ce qu’un déploiement « à grande échelle » ? Dans le cadre du Magic Quadrant dédié à ce marché, Gartner a défini trois planchers : 500 utilisateurs, 50 sources et 1000 assets.

Pour être classés, les fournisseurs devaient être en mesure de revendiquer au moins 10 de ces déploiements. Il fallait aussi, entre autres, figurer dans le top 25 sur un indice maison : le CII (Customer Impact Index). Il est calculé à partir d’éléments tels que le volume de recherches sur le site web de Gartner, le nombre de mentions dans ses Peer Insights, les tendances sur Google Search et le nombre d’abonnés sur X/LinkedIn.

AWS et Google, cités mais non classés

Le « critère CII » a coûté leur place à plusieurs offreurs néanmoins crédités d’une « mention honorable ». Parmi eux, Anjana Data et Global Data Excellence, tous deux classés dans l’édition précédente de ce Magic Quadrant.

Au rang des « mentions honorables », il y a aussi AWS et Google. Chez le premier, on obtient une solution de gouvernance data & analytics en associant les briques SageMaker, SageMaker Catalog et AWS Glue. Mais elle ne répond pas à l’un des critères fonctionnels exigés : l’extensibilité native entre environnements cloud. Avec Dataplex Universal Catalog, Google en propose bien une, mais elle dépend de fournisseurs tiers comme Collibra et Informatica.

15 fournisseurs, 5 « leaders »

D’une année sur l’autre, les catalogues de données ont évolué vers des « catalogues d’insights » permettant de rechercher des produits data. Ils se sont aussi rapprochés des applications métier sous le prisme de l’IA agentique (en se connectant aux agents embarqués). Dans ce contexte sont intervenues deux acquisitions notables : Informatica par Salesforce et data.world par ServiceNow.

De 3 « leaders » l’an dernier, on est passé à 5 : Alation et Atlan ont rejoint Collibra, IBM et Informatica.

Sur l’axe « exécution », qui traduit la capacité à répondre effectivement à la demande du marché, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 IBM + 1
2 Collibra + 1
3 Microsoft nouvel entrant
4 Atlan + 1
5 Informatica – 4
6 Alation =
7 BigID nouvel entrant
8 Alex Solutions – 1
9 Ab Initio + 4
10 Ataccama – 2
11 ServiceNow (data.world) =
12 Precisely – 8
13 DataGalaxy – 4
14 OvalEdge – 2
15 Solidatus – 1

Sur l’axe « vision », qui reflète les stratégies (commerciale, marketing, sectorielle, géographique…) :

Rang Fournisseur Évolution annuelle
1 Collibra + 2
2 Informatica – 1
3 IBM – 1
4 Atlan =
5 Alation =
6 ServiceNow =
7 Alex Solutions =
8 Precisely + 4
9 Microsoft nouvel entrant
10 BigID nouvel entrant
11 Ab Initio + 2
12 Ataccama – 4
13 OvalEdge – 2
14 DataGalaxy – 4
15 Solidatus – 1

Alation, pas encore mature sur la déclaration de politiques pour les produits data

Alation se distingue par le niveau d’ouverture de sa plate-forme, qui favorise la portabilité et met l’accent sur la flexibilité d’hébergement des données. Bon point également pour l’usage de l’IA, notamment pour la gestion de politiques, les contrôles de qualité des données et le dépannage. Gartner apprécie aussi l’écosystème de partenaires, qui favorise l’interopérabilité dans les environnements data & analytics.

On prendra garde aux efforts de gestion du changement et de montée en compétence que suppose l’adoption de fonctionnalités avancées tel le constructeur de produits data. Vigilance également sur les capacités natives de déclaration de politiques au niveau de ces mêmes produits data : elles ne sont sont pas aussi matures que chez la concurrence. Attention aussi au fait que certains modules (data quality, par exemple) ne sont livrés par défaut qu’avec la version cloud.

Chez Atlan, un point d’interrogation sur les déploiements à grande échelle

Gartner apprécie l’architecture de la solution, fondée sur un cœur Apache Iceberg qui favorise l’exploitation des métadonnées. Il salue également les outils fournis pour développer des connecteurs et des agents de gouvernance. Ainsi que, plus globalement, la dynamique commerciale d’Atlan (croissance de la base client et des revenus supérieure à celle des concurrents).

En natif, Atlan ne propose pas de profilage avancé des données ni de workflows de data quality (il s’appuie sur des partenaires comme Anomalo et Ataccama). Autre élément : les options de déploiement sur site et en cloud privé sont limitées. Par ailleurs, près des trois quarts des clients ne sont pas des grandes entreprises ; des clients déplorent d’ailleurs des performances réduites sur les déploiements à grande échelle.

Des écarts entre SaaS et on-prem chez Collibra…

Gartner apprécie le positionnement de Collibra en « plan de contrôle unifié » avec modèles natifs de data quality et d’observabilité. Il salue aussi l’écosystème de partenaires (AWS, Google, Infosys, Snowflake…) et le niveau de gouvernance de l’IA (la plate-forme fonctionne comme un registre documentant les modèles et mettant automatiquement en œuvre les politiques).

La parité fonctionnelle n’est pas systématique entre les modes de déploiement (la version SaaS sur AWS et GCP est la mieux dotée). Quant au modèle data quality/observabilité, il lui manque des fonctionnalités comme la supervision des données en flux et la déduplication. Attention aussi aux efforts nécessaires pour arriver à « maturité opérationnelle » avec la solution.

… comme chez IBM

Comme Alation, IBM a pour lui le niveau d’ouverture de sa solution, jugée adaptée aux environnements hybrides. Il se distingue aussi sur le niveau d’unification et de cohérence de la gouvernance entre data et IA. Ainsi que sur l’exécution de cas d’usages pertinents dans des domaines comme l’aide agentique à la gestion des tâches et la curation de données non structurées.

Comme chez Collibra, les produits SaaS et on-prem ne sont pas à parité fonctionnelle. Il y a aussi des écarts entre packages (par exemple, IBM Knowledge Catalog Standard ne donne pas accès à la gestion des règles, au contraire de watsonx.data intelligence). La migration depuis InfoSphere reste un défi, d’autant plus que le support à la gestion du changement manque. Attention aussi aux compétences nécessaires pour déployer la solution, la personnaliser et la passer à l’échelle.

Informatica, une feuille de route à surveiller sous l’ère Salesforce

Informatica est salué pour l’étendue de son catalogue d’intégrations et de ses partenariats avec les CSP. Il l’est aussi sur le volet automatisation, pour l’assistant CLAIRE Copilot et le moteur CLAIRE GPT (accès aux données en langage naturel). Gartner souligne également sa santé financière, son niveau d’investissement R&D et sa tarification flexible.

Si le modèle PaaS fluidifie le déploiement, un support additionnel peut se révéler nécessaire pour en tirer la valeur en fonction de la maturité du client. Attention aussi, d’une part, aux problèmes de disponibilité que peuvent poser les pannes chez les CSP partenaires. De l’autre, à l’évolution de la stratégie sour l’ère Salesforce.

Illustration © TensorSpark – Adobe Stock

The post Via l’agentique, la gouvernance des données se rapproche des applications métier appeared first on Silicon.fr.

Open source : la perspective d’une nouvelle stratégie européenne fait réagir

13 janvier 2026 à 10:32

Vu nos relations actuelles avec les États-Unis, il est peut-être temps d’amender, si ce n’est supprimer, l’article 6 de la directive copyright.

Cette suggestion revient régulièrement dans les réponses à un appel à témoignages lancé par la Commission européenne. L’initiative est censée préfigurer une nouvelle stratégie open source pour l’UE. Il est question de la publier parallèlement au CAIDA (Cloud and AI Development Act)*, pour lequel une consultation publique a déjà été organisée.

Face à la directive copyright, l’argument souverain

Bruxelles sollicite des informations concernant :

  • Les forces et faiblesses de ce secteur, notamment les barrières à l’adoption et aux contributions
  • Sa valeur ajoutée pour le public et le privé
  • Les mesures à prendre pour en soutenir le développement
  • Les domaines technologiques à prioriser
  • Le potentiel de gain en compétitivité et en cyberrésilience pour les secteurs économiques

L’appel à témoignages est ouvert jusqu’au 3 février 2026. En une semaine, il a réuni quelque 350 réponses – un volume notable en comparaison à d’autres consultations. Elles sont, donc, nombreuses à mentionner le fameux article 6 de la directive copyright (de 2001). Il a pour effet, entre autres, de criminaliser la rétroingénierie de certaines technologies.

S’en passer permettrait aux entreprises européennes de développer des outils simplifiant le basculement vers l’open source depuis des solutions propriétaires, note un des répondants. D’autres expliquent que cela permettrait de rendre des plates-formes conformes au DMA. Ou de réduire le risque géopolitique en pouvant reprendre la main sur une technologie à laquelle l’accès serait coupé.

Taxer l’usage de l’open source ?

Certains témoignages visent des technos spécifiques, invitant par exemple à soutenir le projet de BIOS ouvert coreboot ou à remplacer HDMI par DisplayPort sur les téléviseurs. D’autres se concentrent sur les mécanismes de financement. Ils vont jusqu’à proposer de taxer l’usage de l’open source par les grandes entreprises du numérique – mettant ces ressources sur le même plan que les infrastructures financées par l’argent public.

Autre recommandation : obliger les éditeurs à publier le code source de toute version de logiciel pour laquelle ils ne fournissent plus de support ; et, éventuellement, qu’ils n’en tirent plus de revenus.

Quant aux domaines à prioriser, certains conseillent les dépôts de code, puisque les projets open source en dépendent. D’autres incitent, pêle-même, à se focaliser sur les projets qui souhaitent passer des certifications de conformité ou à ceux qui se focalisent sur l’intégration de multiples composantes open source au sein de systèmes.

Du côté de la Commission européenne, on se félicite que certaines initiatives aient « porté leurs fruits ». Sont cités NGI (Next Generation Internet), GenAI4EU (pour faire émerger des pionniers de l’IA générative), le Chips Act (plus particulièrement, l’investissement sur RISC-V consenti dans ce cadre), le framework FIWARE (destiné au développement de plates-formes de gestion de données), et le programme Simpl (soutien de middlewares pour les data spaces). Bruxelles rappelle aussi la création du DC-EDIC (consortium pour les communs numériques).

* Cette proposition d’acte législatif – dont la nature n’est pas déterminée à date – porte principalement deux objectifs. D’une part, lever des barrières à l’accroissement de la capacité de calcul disponible dans l’UE. De l’autre, aider au développement d’une offre compétitive de services cloud.

Illustration générée par IA

The post Open source : la perspective d’une nouvelle stratégie européenne fait réagir appeared first on Silicon.fr.

Reçu — 12 janvier 2026

GenAI : l’Autorité de la concurrence bascule en aval de la chaîne

12 janvier 2026 à 13:42

Dans son analyse du secteur de l’IA générative, l’Autorité de la concurrence va désormais voir en aval. Elle s’est effectivement autosaisie pour se pencher sur les chatbots.

En la matière, le paysage concurrentiel apparaît dynamique, avec la présence de plusieurs acteurs, note-t-elle. Mais les derniers développements montrent que les chatbots pourraient avoir un impact sur le fonctionnement de plusieurs secteurs-clés de l’économie.

L’autorité entend examiner cet aspect en s’intéressant notamment au commerce agentique. La relation entre chatbots et moteurs de recherche n’est en revanche pas dans le champ d’analyse, précise-t-elle.

Le volet énergétique et environnemental, déjà analysé

Son premier avis sur le secteur avait été publié en juin 2024. Il traitait essentiellement de l’amont de la chaîne de valeur. Y furent soulignés, entre autres, la dépendance envers CUDA, le verrouillage potentiel inhérent à l’octroi de crédits cloud pour les start-up de la GenAI et les risques en termes d’accords de non-débauchage et de fixation de salaires.

Plus récemment (mi-décembre 2025), l’autorité a rendu ses conclusions sur un autre sujet : les enjeux concurrentiels liés à l’impact énergétique et environnemental de l’IA. Son analyse suit 3 axes :

  • Difficultés d’accès au réseau électrique et incertitudes sur le prix de l’énergie
  • Montée en puissance des services d’IA frugaux
  • Standardisation, notamment des méthodes de détermination d’empreinte environnementale

Sur l’accès au réseau électrique

L’autorité constate que si l’inférence demeure sensible à la latence, la phase d’entraînement offre davantage de flexibilité en matière d’implantation géographique.
Elle aborde aussi la fin du dispositif d’accès régulé à l’électricité nucléaire historique (ARENH). Lui succède un système dual. D’un côté, la redistribution des bénéfices d’EDF aux consommateurs finaux via un versement nucléaire universel (VNU ; en cours d’examen parlementaire). De l’autre, le développement, par EDF, de contrats d’allocation de long terme adossés à la production nucléaire (CAPN).

Plusieurs opérateurs de datacenters ont passé des commandes sur le fondement des CAPN. L’Autorité de la concurrence surveille ces contrats, craignant qu’ils donnent lieu à des comportements verrouillant le marché des consommateurs grands industriels. Elle entend plus globalement veiller à l’absence de barrières à l’entrée ou à l’expansion pour les acteurs « de taille modeste ». Et reste attentive à la potentielle entrée des grands acteurs du numérique en tant qu’offreurs sur les marchés de l’énergie, surtout à l’étranger.

Sur l’IA frugale

L’autorité estime que la montée en puissance des services d’IA frugaux pourrait favoriser l’émergence de solutions compétitives sur le plan tarifaire. Et ainsi permettre aux fameux acteurs « de taille modeste » de rivaliser avec les grands du secteur. La concurrence pourrait aussi être affectée par le prisme de la qualité, au sens où l’IA s’adapterait à des déploiements moins importants utilisant éventuellement des infrastructures existantes.

Il existe un risque que des acteurs adoptent, de manière coordonnée ou non, et y compris involontairement, des comportements trompeurs qui ne reposeraient pas sur des méthodologies robustes en termes scientifiques. Ou bien qu’ils fassent en sorte de limiter l’innovation ou de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande.

Sur la standardisation

La standardisation des méthodes de détermination d’empreinte environnementale est fondamentale pour garantir une concurrence sur la base des mérites, déclare l’autorité.

Elle mentionne deux documents – le référentiel général d’écoconception Arcep/Arcom et celui sur l’IA frugale porté par l’Afnor – et appelle à les voir comme la préfiguration d’une normalisation à l’échelle européenne voire internationale. Mais reste vigilante concernant, en particulier :

  • Adoption d’outils sans méthodologie sous-jacente robuste
  • Conditions privant des acteurs du bénéfice de la standardisation ou empêchant l’expression de la frugalité comme paramètre de concurrence
  • Comportements empêchant cette standardisation ou ralentissant son élaboration
  • Découragement des acteurs à aller plus loin que ce que propose la standardisation

Illustration générée par IA

The post GenAI : l’Autorité de la concurrence bascule en aval de la chaîne appeared first on Silicon.fr.

Gestion des terminaux : les solutions unifiées n’ont pas encore effacé les outils ad hoc

12 janvier 2026 à 09:40

Les solutions de gestion unifiée des terminaux (UEM, Unified Endpoint Management) n’ont pas encore totalement comblé l’écart fonctionnel avec les outils ad hoc.

Gartner le souligne dans le premier Magic Quadrant qu’il dédie à ce marché. Cet écart se manifeste tant en termes de fiabilité que de rapidité et de granularité, explique le cabinet américain. D’où une tendance encore fréquente, du côté des acheteurs, à combiner les outils.

De la marge de progression, il y en a aussi sur l’aspect gestion autonome (AEM, Autonomous Endpoint Management). Pour le moment axée sur l’automatisation du patching, elle devrait s’étendre notamment à la gestion des configurations et des stratégies « dans les prochaines années ».

18 fournisseurs, 8 « leaders »

Les principaux critères à respecter sur le plan fonctionnel pour pouvoir figurer dans ce Magic Quadrant étaient les suivants (évalués au 1er août 2025) :

  • Disponibilité d’une version SaaS
  • Gestion, avec ou sans agent, de Windows, macOS, iOS/iPadOS et Android
  • Support natif de l’enregistrement/provisionnement d’appareils, du déploiement d’applications, de la gestion des mises à jour et de la mise en œuvre de configurations/stratégies
  • Contrôle d’accès basé sur les rôles

Il n’était pas obligatoire de gérer Chrome OS, Linux et l’IoT. Ni de fournir des composantes MDM/MAM, DEX (gestion de l’expérience employé numérique) ou des intégrations ITSM/CMDB. La fourniture d’un app store d’entreprise n’était pas non plus impérative. Même chose pour l’automatisation du patching des apps tierces et la possibilité de personnaliser le reporting.

En complément aux critères fonctionnels, il fallait couvrir au moins 5 millions d’endpoints actifs, hors offres gratuites (périodes d’essai, freemium, etc.). Addigy, Applivery, Automox, Fleet, Hexnode, Iru, Matrix42 et Scalefusion n’atteignaient pas ce seuil. Gartner leur a cependant attribué une « mention honorable ».

Les 18 fournisseurs classés le sont sur deux axes. L’un, dit « exécution », reflète la capacité à répondre effectivement à la demande du marché (expérience client, qualité des produits/services…). L’autre est centré sur les stratégies (commerciale, marketing, sectorielle, géographique…).

La situation sur l’axe « exécution » :

Rang Fournisseur
1 Microsoft
2 Tanium
3 NinjaOne
4 HCLSoftware
5 Jamf
6 Omnissa
7 Adaptiva
8 ManageEngine
9 IBM
10 42Gears
11 Ivanti
12 Atera
13 N-able
14 Kaseya
15 Google
16 Absolute Security
17 Samsung Electronics
18 Raynet

Sur l’axe « vision » :

Rang Fournisseur
1 Tanium
2 Omnissa
3 Microsoft
4 Adaptiva
5 Ivanti
6 HCLSoftware
7 IBM
8 NinjaOne
9 Jamf
10 Atera
11 ManageEngine
12 42Gears
13 Absolute Security
14 N-able
15 Kaseya
16 Raynet
17 Samsung Electronics
18 Google

Adaptiva, connu surtout comme un complément aux solutions Microsoft

Avec son offre OneSite (licence par appareil), Adaptiva est salué sur le volet automatisation ; et plus globalement pour les capacités de gestion à grande échelle qu’il propose, entre livraison P2P et intégration avec les outils d’entreprise. L’exhaustivité de ses partenariats éditeurs (CrowdStrike, Microsoft, SentinelOne, Tenable…) lui vaut aussi un bon point. Comme sa roadmap, jugée bien alignée sur la demande.

Si le produit ne manque pas de notoriété en tant que « compagnon » pour les solutions Microsoft, on ne peut pas en dire autant de la version autonome. Attention aussi à l’absence de MDM pour Android et iOS, tandis que sur les plates-formes prises en charge, l’enregistrement d’appareils doit passer par un client local. Adaptiva est par ailleurs en transition vers un modèle essentiellement indirect, ce qui est susceptible de limiter sa croissance à court terme.

Le SaaS de HCLSoftware, pas au niveau de la version on-prem

HCLSoftware a intégré son offre BigFix Workspace+ (licence par utilisateur ou par appareil) à un grand nombre de solutions ITOps et de sécurité/gestion des identités (Azure, Qualys, Rapid7, ServiceNow, Tenable…). Gartner salue aussi son réseau de revendeurs et de MSP. Ainsi que sa santé financière (marges importantes, croissance continue sur plusieurs segments) qui contribue à réduire le risque pour le client final.

Le SaaS n’est pas à parité avec la version sur site : des fonctionnalités ou des modules disponibles sur l’un ne sont pas encore pleinement configurables sur l’autre. Sur l’aspect expérience client, l’UI et le paramétrage ne font pas l’unanimité. Attention aussi à d’éventuelles modifications du modèle de licence à l’heure où HCLSoftware bascule vers une approche « service as software ».

IBM, plus cher et moins « focus »

Dans l’offre MaaS360 (licence par utilisateur et par appareil), Gartner apprécie la diffusion de la GenAI et du machine learning, entre détection des menaces et recommandation de stratégies. Il note aussi la couverture mondiale des équipes d’IBM et la flexibilité des options de déploiement. Ainsi que les fonctionnalités – scoring de risque, conformité continue… – qui favorisent la gestion autonome.

Manquant de notoriété hors de la partie MDM, l’offre MaaS360 n’est pas le focus d’IBM. Ce dernier ne cible par ailleurs pas de profils d’utilisateurs (personas) et propose une tarification plus élevée que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Jamf, encore largement Apple-centric

L’outil Jamf (licence par appareil) est reconnu comme un gold standard pour la gestion des appareils Apple. Fonctionnellement parlant, il se distingue notamment sur la profondeur de prise en charge de macOS. Gartner salue aussi le « contenu engageant » constitué autour de cette offre et la diversité des canaux par lesquels il est livré.

Le focus historique sur l’écosystème Apple a nécessairement limité le potentiel de croissance, tout en engendrant une certaine dépendance. Jamf a fini par s’ouvrir à Android, mais la démarche est récente. Au dernier pointage, l’entreprise n’est pas rentable (en normes comptables GAAP).

Problèmes de fiabilité chez Microsoft

Intune est le choix par défaut de beaucoup de clients Microsoft. Sa notoriété est d’autant plus importante que l’éditeur produit quantité de contenus à son sujet et les diffuse efficacement. Autre avantage : un effectif qui permet une livraison différenciée entre secteurs économiques et régions géographiques, avec de la flexibilité sur la localisation des données et du support.

Comme IBM, Microsoft ne cible pas de personas, que ce soit par métier ou par géographie. Les clients signalent régulièrement des problèmes de latence sur le reporting, la synchronisation des stratégies et le déploiement d’applications. Attention aussi à la courbe d’apprentissage que suppose Intune et aux défis qui peuvent se poser lors du dépannage de la solution.

L’IA, peu diffusée chez NinjaOne

L’offre NinjaOne Endpoint Management (licence par appareil) a une tarification plus basse que la moyenne. Et les bundles s’avèrent bien adaptés aux besoins des grandes entreprises comme des MSP. Gartner salue aussi le niveau d’expérience client (customer success managers, ressources en self-service…) et le sentiment généralement positif quant à la facilité d’usage de la solution. Il rappelle aussi la croissance de l’effectif et de la base client de NinjaOne, qui a bouclé début 2025 un tour de table de 500 M$.

Le focus historique était sur les MSP et sur le mid-market. Des évolutions sont en cours (plate-forme, intégrations, channel) pour toucher les grandes entreprises. NinjaOne a également de la marge de progression pour ce qui est de la notoriété de sa solution. Même chose pour la diffusion de l’IA, dont l’usage est encore limité.

Omnissa manque de clients référents

L’offre Workspace ONE UEM (licence par appareil ou par utilisateur) est jugée mature. Gartner apprécie les possibilités d’automatisation qu’elle apporte sur les principaux OS. Il salue aussi la stratégie sectorielle élaborée à renfort d’intégrations ciblées. Autre point distinctif : Omnissa est le seul « leader » de la gestion des terminaux à occuper cette même position dans le Magic Quadrant du DEX. Une combinaison qu’il met d’ailleurs à profit.

Quoique modulaire, l’offre est plus chère que la moyenne. Et Omnissa est de ceux qui ne ciblent pas de profils d’utilisateurs. Son site web manque de logos référents et d’études de cas, ce qui est susceptible de compliquer l’évaluation de sa solution. On se rappellera aussi que l’activité a été perturbée avec le passage dans le giron de Broadcom (2023) puis la revente au fonds KKR (2024).

Pas de MDM natif chez Tanium

Avec Tanium Endpoint Management (licence par appareil), la gestion autonome est un point distinctif. Autant par le contenu que l’éditeur produit à ce sujet que par la réalité du produit. L’éditeur est plus globalement profitable, dispose des certifications adéquates et couvre les principales géographiques tout en fournissant de la flexibilité d’hébergement.

Récemment repackagée, l’offre a une tarification plus élevée que la moyenne. Elle n’inclut pas de MDM natif (intégration d’Intune). Sur macOS, elle n’utilise pas la méthodologie « moderne » d’Apple, ce qui peut limiter l’automatisation et l’élasticité.

Illustration générée par IA

The post Gestion des terminaux : les solutions unifiées n’ont pas encore effacé les outils ad hoc appeared first on Silicon.fr.

Reçu — 9 janvier 2026

Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie

9 janvier 2026 à 10:30

Lock-in, contrôle limité sur les mises à jour logicielles, exposition potentielle à la surveillance et aux réglementations étrangères… Finalement, le secteur européen de l’énergie est largement confronté aux mêmes risques que d’autres industries.

Ce constat ressort d’une étude réalisée à la demande de l’UE. Elle dresse un état des lieux de la dépendance à des solutions numériques étrangères. Une section est dédiée au secteur de l’énergie, avec un focus sur les solutions cyber qui y sont déployées. Comme au niveau global, les fournisseurs américains – et, dans une moindre mesure, israéliens – dominent.

Sécurité réseau

Firewalls : Check Point (Israël), Fortinet (USA), Palo Alto Networks (USA), Siemens (Allemagne), Stormshield (France).

IDS/IPS : Cisco (USA), Dragos (USA), Nozomi Networks (USA, mais en projet d’acquisition par l’entreprise japonaise Mitsubishi Electric), Siemens (Allemagne), Stormshield (France).

Segmentation : Schneider Electric (France), Siemens (Allemagne), TDi (USA), Waterfall Security (Israël).

Endpoints

CrowdStrike (USA), McAfee (USA), Microsoft (USA), SentinelOne (USA), Sophos (Royaume-Uni), Symantec (USA ; acquis en 2019 par Broadcom), Trellix (USA), Trend Micro (Japon).

IAM

Gestion des patchs : Ivanti (USA), ManageEngine (Inde), Microsoft (USA), SolarWinds (USA).

RBAC : IBM (USA), Micro Focus (Royaume-Uni, mais acquis en 2023 par l’entreprise canadienne OpenText), Okta (USA), SailPoint (USA), Savyint (USA).

MFA : Duo Security (USA, acquis par Cisco en 2018), Microsoft (USA), RSA (USA), Yubico (Suède).

PAM : BeyondTrust (USA), CyberArk (Israël ; acquis par Palo Alto Networks en 2025), One Identity (USA), Thycotic (USA ; fusionné en 2021 avec Centrify pour donner Delinea).

Supervision et réponse à incident

SIEM : ArcSight (USA, mais acquis par Micro Focus en 2023), IBM (USA), LogRhythm (USA, fusionné dans Exabeam en 2024), Splunk (USA, acquis par Cisco en 2024).

XDR/SOAR : Armis (USA ; en projet d’acquisition par ServiceNow), Claroty (USA), Dragos (USA), Nozomi Networks (USA).

Protection des données

Chiffrement : IBM (USA), Microsoft (USA), Symantec (USA), Thales (France).

Détection d’anomalies : Acronis (Suisse), Commvault (USA), Rubrik (USA), Veeam (Suisse).

Un secteur plus enclin à « accepter » un risque cyber

La domination américaine est plus nette sur la partie IT, même si des fournisseurs spécialisés sont parvenus à se positionner sur l’OT.

Quasi absente dans les solutions cyber, la Chine est en revanche très présente sur les équipements. Elle fournit par exemple approximativement 80 % des panneaux solaires de l’UE… et les vulnérabilités – voire backdoors – potentielles qui vont avec.

L’ENISA s’est dernièrement penchée sur le cas du secteur de l’énergie. Elle en a conclu à une résilience très inégale, par exemple entre l’électricité (relativement mature) et le gaz (en retard sur la préparation et la réponse, en particulier). Il faut dire que les professionnels du secteur s’affirment souvent prêts à accepter un risque cyber accru en contrepartie à davantage de possibilités d’innovation.

Illustration générée par IA

The post Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie appeared first on Silicon.fr.

Reçu — 8 janvier 2026

Dépendances numériques de l’UE : une matrice des risques

8 janvier 2026 à 16:22

2017 : Apple empêche la publication d’applications sur l’App Store en Iran. 2019 : GitHub bloque des utilisateurs en Syrie ; Adobe, au Venezuela. 2025 : Microsoft coupe la messagerie du procureur général de la Cour pénale internationale.

Toutes ces mesures ont fait suite à des sanctions dont avait décidé le gouvernement américain. Une étude récemment remise au Parlement européen* les mentionne, en illustration des risques inhérents aux dépendances à des technologies étrangères.

Les technologies chinoises en font aussi partie. Sont évoquées entre autres celles de Xiaomi, qui a capté 12 % du marché européen des smartphones en 2024. Ainsi que celles de Huawei et ZTE, dont les équipements télécoms ont couvert jusqu’à un quart des réseaux mobiles européens.

Une matrice du « risque de souveraineté » sur 9 dimensions

L’étude propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions.

Contrôle juridique

Le risque est jugé maximal (5/5) sur la dimension « pourcentage de logiciels critiques de sources non européennes », en ce qu’on dépasse les 80 %.

Il l’est aussi sur la concentration des dépendances au sein d’une seule juridiction étrangère (États-Unis).

Il est élevé (4/5) pour ce qui est de l’influence gouvernementale sur des fournisseurs-clés (des lois à portée extraterritoriale s’appliquent aux activités de ces fournisseurs dans l’UE).

Autonomie technique

Le risque est moyennement élevé (3/5) concernant la disponibilité de substituts européens (il en existe sur beaucoup des segments étudiés, mais leur adoption reste limitée).

Il l’est aussi sur la complexité technique du changement de fournisseur. Lequel « peut prendre 6 à 15 mois », nous annonce-t-on en citant trois sources : un cas de migration vers S/4HANA, la transition cloud de l’organisme chargé de la régulation des titres municipaux aux USA… et un guide AWS pour les grandes migrations.

Le risque est jugé plus élevé (4/5) pour ce qui est de l’accès au code source : les logiciels les plus utilisés sont propriétaires.

Indépendance stratégique

Le score de risque le moins élevé (2/5) concerne la disponibilité de capacités R&D dans l’UE – même si celles-ci sont « de plus en plus limitées », nous fait-on remarquer.

Pour ce qui est des compétences, on en est à 3/5 (la base est « considérable » mais s’amoindrit).

Même score pour le financement (difficultés notables pour obtenir des capitaux européens). Sur ce point, 28 % des fonds levés par les start-up européennes en 2024 provenaient des USA. Cette même année, les acquisitions par des entreprises américaines ont représenté près de la moitié de la valeur des M&A tech sur le continent.

Le risque économique, du micro au macro

À cette matrice du risque de souveraineté s’en ajoute une sur le risque économique. Là aussi avec trois axes (coûts directs, dépendance au marché et impact macroéconomique).

Coûts directs

Le risque est dit maximal (5/5) sur le coût des produits et services, en ce qu’une part considérable du PIB de l’UE y est consacrée (1,5 % rien que pour les dépenses des entreprises).

Il est moyennement élevé (3/5) concernant les hausses de prix. De l’ordre de 10 % par an, elles sont plus fortes que l’inflation, mais « acceptables pour les acheteurs ».

Pour le coût du changement de fournisseur, on en est à 4/5 : malgré les apports du Data Act, les démarches nécessitent des investissements « irraisonnables ».

Dépendance au marché

Le risque est maximal (5/5) si on le prend sous le prisme de la position de marché des fournisseurs non européens : des acteurs américains captent 70 à 100 % de la plupart des segments étudiés.

Le risque reste élevé (4/5) si on s’intéresse au pouvoir de négociation des entreprises européennes, limité tant par le manque de substituts que par le coût du changement de fournisseur.

Risque également élevé (4/5) pour la dépendance R&D à des fournisseurs étrangers : la plupart des innovations européennes viennent s’adosser à des plates-formes américaines.

Impact macroéconomique

Score maximum sur les trois éléments listés :

  • Compétitivité de l’UE (jugée « affaiblie en permanence »)
  • Effets sur l’emploi (les dépenses des entreprises européennes financent environ 2 millions d’emplois aux États-Unis)
  • Balance commerciale (le déficit dans le secteur numérique dépasse 100 Md€ et continue à croître)

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration générée par IA

The post Dépendances numériques de l’UE : une matrice des risques appeared first on Silicon.fr.

Les dépendances numériques de l’UE chiffrées, GenAI comprise

8 janvier 2026 à 12:05

Environ 83 % des dépenses des grandes entreprises européennes en services cloud et logiciels vont à des acteurs américains.

Une étude publiée en avril 2025 avait produit cette estimation. Commandée par le Cigref, elle quantifiait à un peu plus de 260 Md€ la valeur ainsi créée chaque année aux États-Unis – soit 1,5 % du PIB de l’UE et 1,5 fois son budget.

Cette dernière donnée est reprise dans une autre étude, parue en décembre*. Elle a été réalisée par un cabinet de recherche et de conseil lituanien, à la demande de la commission de l’industrie, de la recherche et de l’énergie du Parlement européen. Y sont cartographiées les dépendances numériques auxquelles l’Europe est sujette (avec un focus sur le logiciel et la cyber) et les risques économiques et géopolitiques qu’elles soulèvent. Nous en présentons ici quelques éléments chiffrés.

À 10 ans d’intervalle, les GAFAM ont maintenu voire renforcé leur position

L’étude compile des données de StatCounter pour rendre compte de l’évolution de la concurrence sur divers segments du marché entre 2015 et 2025.

OS de bureau : 90 % du marché pour Apple et Microsoft

Windows macOS Linux ChromeOS Autres/inconnus
2015 86,26 % 10,12 % 2,18 % 0,21 % 1,22 %
2025 (juillet) 73,45 % 16,34 % 3,82 % 1,57 % 4,82 %

En 10 ans, Windows a perdu environ 13 % de part de marché, tandis que macOS en a gagné 6 %. Leur part cumulée avoisine 90 %.

OS mobiles : 99,5 % du marché pour Apple et Google

Android iOS Windows Autres
2015 63,3 % 28,79 % 4,03 % 3,66 %
2025 (juillet) 65,3 % 34,21 % 0,01 % 0,48 %

La plus grande progression est pour iOS (+ 5,42 %).
L’usage des forks d’Android made in Europe est quasiment nul.

Moteurs de recherche : Google à 90 %

Google Bing Yandex Yahoo! Autres
2015 92,55 % 2,73 % 1,31 % 2,06 % 1,34 %
2025 (juillet) 89,9 % 4,13 % 3,32 % 1,05 % 1,6 %

Malgré les sanctions à répétition censées rééquilibrer la concurrence, Google capte encore 9 recherches sur 10. Le moteur allemand Ecosia a environ 0,3 % du marché ; Qwant, moins de 0,1 %.

Réseaux sociaux : Facebook reste au-dessus des 80 %

Facebook Instagram YouTube Twitter/X Pinterest Tumblr Reddit Autres
2015 84,82 % N/A N/A 5,79 % 3,18 % 2,87 % 1,53 % 1,81 %
2025 (juillet) 80,79 % 7,07 % 1,82 % 4,33 % 4,07 % N/A 0,93 % 0,99 %

Selon l’analyse que fait StatCounter, Facebook concentre encore plus de 80 % des pages vues.
L’usage des plates-formes décentralisées comme Mastodon et Diaspora reste « négligeable », pour reprendre les mots de l’étude.

Navigateurs : les GAFAM cumulent près de 90 % du marché

Chrome Safari Edge/IE Firefox Samsung Internet Opera Yandex Android Autres
2015 44,64 % 14,7 % 12,69 % 17,41 % N/A 2,93 % 0,36 % 5,22 % 2,06 %
2025 (juillet) 60,73 % 19,68 % 6,4 % 4,39 % 3,28 % 2,7 % 1,25 % 0,36 % 1,1 %

Chrome a gagné environ 16 % de part de marché, tandis que Firefox en a perdu 13 %.
Même en ajoutant Vivaldi, les navigateurs d’origine européenne ne captent pas plus de 3 % du marché.

Des dépendances fortes sur la chaîne de valeur de la GenAI

L’étude se réfère aussi à des productions du cabinet McKinsey. En particulier, une estimation de la part de marché de l’Europe sur chacun des 8 segments d’une chaîne de valeur GenAI « simplifiée ».

Segment Part de marché Trajectoire historique
Matières premières < 5 % Stable
Équipements de fabrication de semi-conducteurs > 15 % En hausse
Conception de semi-conducteurs < 5 % En baisse
Fabrication de semi-conducteurs < 5 % Stable
Infrastructure cloud et supercalculateurs < 5 % Stable
Modèles de fondation 5-15 % En hausse
Applications IA 5-15 % En hausse
Services de conception et déploiement de cas d’usage > 15 % En hausse

L’Europe fournit environ 5 % des matières premières stratégiques pour la fabrication de semi-conducteurs. Elle représente moins de 1 % de la capacité de production mondiale de semi-conducteurs à moins de 7 nm pour l’IA. Elle a en revanche, avec ASML, 80 à 90 % de part de marché sur la lithographie EUV.

En croisant parts de marché mondiales et indicateurs d’adoption régionale, l’étude tente de donner une photographe du marché européen de la GenAI. Les dépenses en la matière étant souvent comptées sur les budgets cloud, le résultat reflète davantage le business des plates-formes (Azure OpenAI, Bedrock/Sagemaker, Vertex AI…) que des outils destinés à l’utilisateur final.

parts de marché GenAI en Europe

SAP garde une nette longueur d’avance sur l’ERP…

Le marché de la GenAI est estimé à 3,1 Md$ en 2024. Celui de l’IA d’entreprise, à 4,8 Md$. SAP y occupe probablement une position plus favorable, vu le niveau d’adoption de son ERP.

Sur ce segment à 19 Md$ en 2023, l’éditeur allemand capte 55 % de la valeur. Oracle parvient toutefois à combler l’écart avec la transition cloud, tout en générant davantage de revenu par client. Les estimations sont moins certaines pour les plus petits fournisseurs, faute de communication financière.

parts de marché ERP Europe

… et de retard sur le CRM

Le marché du CRM est d’une valeur comparable (18 Md$ en 2024). SAP n’y a cependant pas le même poids.

parts de marché CRM Europe

Dans la bureautique et la collaboration (18 Md$ en 2025), Microsoft se taille la part du lion, sur la foi de données du cabinet Compass Lexecon pour 2023.

parts de marché collaboration bureautique

En élargissant à l’ensemble des logiciels d’entreprise (70 Md$ en 2025), SAP devance Oracle et Salesforce. L’UE a des leaders sur quelques niches. Notamment le PLM, avec Dassault Systèmes (17 % du marché, Siemens étant dans le top 3), lequel se distingue aussi sur la CAD.

parts de marché logiciels d'entreprise Europe

Le marché des services informatiques serait 4 à 5 fois plus grand que celui des logiciels d’entreprise (300-350 Md$ en 2023, hors services liés au cloud d’infrastructure).

parts de marché services conseil Europe

Le marché de la cybersécurité est estimé à 63 Md$ en 2025. Les produits (logiciel + matériel) en représentent 42 à 68 % ; le services, 32 à 58 %.
L’Europe est bien représentée sur les services, avec la France en première ligne (Atos, Capgemini, Orange Cyberdefense, Thales). Pas dans les solutions elles-mêmes, où Palo Alto Networks a tendance à monter en puissance, tandis que Check Point et Cisco bénéficient d’un ancrage historique fort.

Marchés publics : 12 % de la valeur pour les consortiums 100 % européens

Si on se focalise la commande publique au sein de l’UE, 88 % de la valeur totale des contrats IT va à des consortiums qui incluent au moins une entreprise non européenne.

Cette information résulte de l’analyse de 315 appels d’offres organisés entre 2020 et 2025.
Sur ce même échantillon, 18 % des marchés attribués ont eu au moins un lauréat américain ; 8 %, au moins un lauréat japonais. Accenture et Deloitte ont été les sociétés les plus fréquemment sélectionnées.

taux de sélection dans les appels d'offres

sociétés gagnantes des appels d'offres

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration principale © Molodec – Shutterstock.com

The post Les dépendances numériques de l’UE chiffrées, GenAI comprise appeared first on Silicon.fr.

Reçu — 7 janvier 2026

Course à l’IA : la bulle controversée, la pénurie avérée

7 janvier 2026 à 13:52

La croissance du parc mondial de datacenters hyperscale ne montre pas de signes de ralentissement. Les dépenses d’infrastructure associées, non plus.

Depuis deux ans, les pointages trimestriels de Synergy Research Group en ont témoigné quasi systématiquement. Le dernier en date n’y déroge pas.

Ruée sur les GPU… et sur la RAM

Le parc en question avoisine désormais les 1300 datacenters, pour une puissance informatique plus que quadruplée en 7 ans. Au T3 2025, les dépenses d’exploitation des hyperscalers – Synergy en recense une vingtaine, acteurs du IaaS, du PaaS, du SaaS, de la recherche, des réseaux sociaux, du e-commerce et du gaming – ont atteint 142 Md$. Elles étaient d’environ 80 Md$ un an plus tôt (et 50 Md$ au T3 2023).

capex capacité hyperscalers

Ces investissements vont pour l’essentiel dans les serveurs. La plupart d’entre eux (91 %) sont maintenant équipés d’accélérateurs. À commencer par des GPU… qui ont besoin d’autant plus de RAM qu’on y fait tourner des modèles d’IA.

La course engagée par les hyperscalers a contribué à engendrer une pénurie de mémoire. Et par là même une augmentation remarquable des prix. On en est par exemple arrivé, il y a quelques semaines, à ce qu’un kit de 64 Go de DDR5 coûte plus cher qu’une PlayStation.

Le phénomène est amplifié par une réorientation de la fabrication vers des types de mémoires adaptés aux accélérateurs IA. En tête de liste, la HBM (DRAM à large bande passante). Les modules mémoire génériques se raréfient d’autant plus.

Des conséquences en 2026 sur PC et smartphones

Il se dit que la situation pourrait persister au moins jusqu’en 2027. Elle a en tout cas commencé à se répercuter en bout de chaîne, sur le prix des équipements informatiques. Chez Dell, il semble falloir se préparer à des augmentations de 10 à 30 % dans les gammes de PC B2B. Chez ASUS, il est question de 15 à 20 % de hausse sur des notebooks. Les prévisions sont similaires chez Acer, qui songerait aussi à livrer des modèles avec moins de RAM… potentiellement à rebours de la promesse des « PC IA ».

On surveillera particulièrement les plus petits fournisseurs, qui ont globalement moins d’inventaire, de trésorerie et de marge de négociation. Même chose avec les smartphones. Sur ce segment, la mémoire peut traditionnellement représenter jusqu’à 20 % du coût de revient matériel. Il est probable que, si hausses de prix il y a, elle seront plus nettes sur l’entrée et le milieu de gamme, où les marges sont faibles. À l’autre bout du spectre, on pourrait voir les flagships plafonner à 12 Go de RAM en 2026.

IDC estime que cette année, le marché des smartphones pourrait se contracter d’environ 5 % en volume, tandis que le prix de vente moyen augmenterait de quelque 8 %. Ses prévisions sont comparables pour les PC, dont les fabricants ne se verront sans doute pas livrer toute la capacité de mémoire commandée (potentiellement, autour de 70 % pour les principaux OEM et de 40 % pour les plus petits). D’autant plus que les hyperscalers se battent, de plus en plus agressivement, pour les stocks restants. Une tendance accentuée par le marché chinois, où les USA ont finalement autorisé la vente des GPU H200. Sur place, plus de 2 millions d’unités auraient été commandées à NVIDIA, qui en aurait à peine la moitié en réserve. AMD est aussi concerné, dans une moindre mesure, avec ses accélérateurs Instinct. Alibaba, entre autres, lui en aurait acheté jusqu’à 50 000.

Les hyperscalers en éléments perturbateurs

En parallèle à leurs ventes sur le marché du datacenter, AMD et NVIDIA prépareraient tous deux des hausses de prix sur leurs cartes graphiques « grand public ». Ce mois-ci pour le premier ; en février pour le second. Avec la pénurie, la GDDR en est venue à constituer plus de 80 % de leur coût de revient.

AMD envisagerait par ailleurs de réintroduire des puces sur socket AM4 (potentiellement des CPU Ryzen 5000 et des APU Zen 3), ce qui éviterait d’avoir à racheter des cartes mères… et de la DDR5.

Du côté des fabricants de semi-conducteurs, on s’en tient dorénavant à des contrats au trimestre. Et on donne, comme sus-évoqué, la priorité à la mémoire HBM. Actuellement en mesure de produire 160 000 à 170 000 wafers par mois, Samsung Electronics prévoirait d’augmenter cette capacité de 50 %. Micron a quant à lui annoncé que son carnet de commandes HBM était rempli pour l’année 2026.

Dans ce contexte, le marché IT dans son ensemble a potentiellement connu, en 2025, une croissance sans égale depuis 30 ans. Tout du moins à en croire IDC, qui communiquait, début décembre, une estimation à + 14 % (4250 Md$), hors dépenses télécoms. En première ligne, les dépenses des fournisseurs de services d’infrastructure, pas majoritaires (environ 500 Md$), mais en nette croissance (+ 86 %, contre environ + 10 % pour les dépenses des entreprises).

IDC prévisions dépenses IT mondiales

IDC croissance des dépenses IT mondiales par client

Le capex d’Amazon, Google et Microsoft atteint celui des telcos

Si on s’en tient à ce qu’IDC qualifie d’infrastructures IA (dans les grandes lignes, tout ce qui porte des applications au minimum « augmentées » par de l’IA), les Ètats-Unis concentrent les trois quarts des dépenses, contre environ 5 % pour l’EMEA.
Sur place se trouve environ 55 % de la capacité hyperscale mondiale, selon Synergy Research Group. La Virginie en concentre à elle seule 14 %. Mais la demande croissante en énergie favorise les implantations dans des Ètats moins densément peuplés comme l’Oregon (22 habitants au km² ; actuellement 5 % de la capacité mondiale), l’Iowa (17 hab/km² ; 4 %) et le Nebraska (10 hab/km²). On ne peut pas en dire autant d’emplacements tels que Londres et Francfort. Ce dernier est d’ailleurs sorti du top 20 des hubs mondiaux, comme Amsterdam. Ne reste, côté européen, que Dublin, qui accueille environ 4 % de la capacité hyperscale.

capacité par région géographique

De cette capacité, le trio Amazon-Microsoft-Google détient une part (58 %) du même ordre que son poids sur le marché mondial du cloud d’infrastructure (63 %). Leur ratio capex est aujourd’hui au niveau de celui des telcos, approchant de 20 % du chiffre d’affaires – la majorité allant dans les datacenters.

Sur un marché du cloud d’infrastructure estimé à 107 Md$ au T3 2025, les néo-clouds (plates-formes spécialisées, le plus souvent sur les workloads IA à base de GPU) montent doucement en puissance. Ils ont passé les 5 Md$ de revenus trimestriels. Les principaux acteurs se nomment CoreWeave, Crusoe, Lambda, Nebius… et OpenAI (que Synergy inclut au titre de ses abonnements à ChatGPT).

En parallèle, les fusions-acquisitions(-investissements) « orienté(e)s datacenter » ont atteint en 2024 une valeur globale sans précédent : 73 Md$. Principal contributeur : l’acquisition d’AirTrunk, emmenée par le fonds Blackstone et bouclée en décembre pour 16 Md$. Suivent deux investissements dans Vantage Data Centers totalisant 9,2 Md$.

Illustration principale générée par IA

The post Course à l’IA : la bulle controversée, la pénurie avérée appeared first on Silicon.fr.

LinkedIn associe Kafka et gRPC pour la découverte de services

7 janvier 2026 à 07:39

Urgence pour le système de découverte de services : la capacité actuelle du plan de contrôle pourrait être épuisée à l’horizon 2025.

LinkedIn avait fait ce constat à l’été 2022. En conséquence, il avait lancé un chantier de modernisation.

Élasticité, compatibilité… Le plan de contrôle ZooKeeper arrivait à ses limites

Le plan de contrôle reposait alors sur ZooKeeper. Il avait une structure plate. Les applications serveur y enregistraient leurs points de terminaison en tant que nœuds éphémères, sous forme d’URI D2 (Dynamic Discovery). Les applications clientes lui adressaient des requêtes en lecture pour suivre les clusters qui les intéressaient.

Cette approche présentait des limites en termes d’élasticité. ZooKeeper étant un système à cohérence forte, toutes les lectures et les écritures, ainsi que les vérifications d’intégrité des nœuds, passaient par la même file d’attente. Les requêtes étaient donc susceptibles de s’accumuler jusqu’au moment où certaines ne pourraient plus être traitées. En parallèle, des sessions pourraient être fermées en cas de timeout sur la vérification d’intégrité. S’ensuivraient une perte de capacité côté serveur et, in fine, des indisponibilités d’applications.

Autre limite : les entités D2 étant liées à des schémas spécifiques à LinkedIn, elles étaient incompatibles avec des data planes modernes comme gRPC et Envoy. De plus, l’implémentation de la logique de lecture/écriture dans les conteneurs applicatifs était focalisée sur Java. Par ailleurs, l’absence d’une couche intermédiaire entre le registre de services et les instances applicatives empêchait de développer des techniques de gestion RPC centralisées, par exemple pour le load balancing.

Kafka côté serveur, gRPC côté client

Le nouveau plan de contrôle introduit des composantes Kafka et Observer.

Kafka réceptionne les requêtes en écriture des serveurs et les informations d’intégrité sous forme d’événements, appelés URI de découverte de services.

La brique Observer consomme ces URI et les conserve en mémoire. Les applications clientes s’y abonnent en ouvrant un flux gRPC. Elles envoient leurs requêtes via le protocole xDS.

Les configurations D2 restent stockées dans ZooKeeper. Elles sont converties en entités xDS par les propriétaires d’applications puis distribuées à l’« observateur » de la même manière que les URI.

Les readiness probes de Kubernetes en ligne de mire

Dans cette architecture, l’élasticité et la disponibilité ont la priorité sur la cohérence. L’observateur, écrit en Go avec une concurrence forte, peut gérer 40 000 flux clients et 10 000 mises à jour par seconde tout en consommant 11 000 événements Kafka par seconde, selon LinkedIn.

Pour gagner encore en élasticité, il serait possible, au-delà d’augmenter le nombre d’observateurs, d’en créer deux types. D’un côté, des instances consommant les événements Kafka. De l’autre, des instances répondant aux requêtes des clients.

Comme il utilise xDS, le plan de contrôle est compatible avec Envoy ; ce qui ouvre la porte à un support multilangage. Et avec l’introduction de cette couche intermédiaire, il devient possible d’intégrer des fonctionnalités autour des maillages de services. Voire d’exploiter les readiness probes de Kubernetes pour faire passer les serveurs en mode passif et ainsi fiabiliser le système.

La latence P50 amenée sous la seconde

Le déploiement a été compliqué par la variété des clients (dépendances, accès réseau, SSL…). Pour beaucoup, il était difficile de prévoir le niveau de compatibilité.

Il a de surcroît fallu mener le chantier parallèlement sur les lectures et sur les écritures. Dans les grandes lignes, sans les unes, la migration des autres était bloquée. L’infrastructure d’origine a donc été conservée, dans une approche dual mode, Kafka étant la source primaire et ZooKeeper le backup (utilisé en cas d’absence de données Kafka). Une tâche cron a permis de jauger le niveau de dépendance des applications à ZooKeeper et de prioriser les migrations en conséquence.

Pour les lectures, les principaux éléments évalués côté client furent le délai entre l’envoi d’une requête d’abonnement et la réception des données, les erreurs de résolution de ces requêtes, ainsi que la cohérence entre la data de ZooKeeper et celle de Kafka. Côté observateur, LinkedIn a examiné le type, le nombre et la capacité des connexions clients, le délai entre la réception des requêtes et l’envoi des données vers la file d’attente, ainsi que les taux d’utilisation de ressources.

Pour les écritures, ont principalement été mesurés :

  • Latence et pertes de connexion sur ZooKeeper et kafka
  • Score de similarité des URI entre ZooKeeper et Kafka
  • Délai de propagation du cache (temps entre réception des données et mise à jour du cache)

LinkedIn affirme que 50 % des clients obtiennent désormais les données en moins de 1 seconde et 99 % en moins de 5 secondes. Sur le plan de contrôle ZooKeeper, les latences P50 et P99 étaient respectivement à 10 et 30 secondes.

À consulter en complément, d’autres retex impliquant Kafka et/ou ZooKeeper :

Unification des déploiements de configuration chez Uber
Optimisation des coûts Kafka sur AWS chez Grab
Mise à l’échelle de Kafka chez PayPal
Passage à l’architecture cellulaire chez Slack

Illustration © Danloe – Adobe Stock

The post LinkedIn associe Kafka et gRPC pour la découverte de services appeared first on Silicon.fr.

Reçu — 6 janvier 2026

Comment ManoMano a modernisé son système d’envoi d’e-mails

6 janvier 2026 à 12:16

Plutôt que des tables imbriquées et du CSS inline, utilisons MJML*.

ManoMano a fait ce choix pour générer des e-mails responsive. Le contexte : un projet de modernisation du système assurant l’envoi de ces messages.

Auparavant, il y avait un monolithe en PHP. Désormais, il y a une plate-forme Node.js/Kotlin.

L’ancien service était basé sur des bibliothèques obsolètes, d’autant plus difficiles à mettre à jour que l’expertise PHP s’était progressivement perdue en interne. Il était par ailleurs étroitement lié à des services tels que RabbitMQ, donc impossible à maintenir de manière indépendante. Des années de correctifs avaient plus globalement alourdi la codebase, compliquant les changements et les rendant plus risqués. L’écriture des templates en Twig et en HTML brut posait de plus des problèmes de compatibilité en fonction des clients de messagerie.

Une approche configuration over code

Le service d’origine était déclenché par des appels API ou par des événements RabbitMQ. Avant d’envoyer un e-mail, il fallait l’enrichir en récupérant des éléments sur plusieurs services externes. Des dépendances qui tendaient à fragiliser l’ensemble.

Pour favoriser le décommisionnement, ManoMano a isolé cette logique en un composant email-merger. Ses requêtes sont centralisées sur la nouvelle plate-forme au côté des requêtes « modernes » – qui ne passent plus par le monolithe – par un service Kotlin (email-sender). Celui-ci suit une approche configuration over code : toute la configuration est gérée via le back-end central, sans avoir à écrire de code.

La passerelle réceptionnant les requêtes s’appuie sur PostgreSQL pour le stockage d’état et de configuration. Elle transmet les événements à un nœud de travail qui récupère un template et fait la liaison avec le service SMTP. Le bus de messagerie RabbitMQ a été remplacé par du Kafka, pour l’élasticité, la résilience et le retry intégré.

Une séparation plus claire des responsabilités

Le fournisseur de templates (email-templates) est écrit en Node.js. Il évite aux développeurs front-end d’avoir à évoluer dans un environnement PHP. La bibliothèque react-mjml leur permet de créer des templates comme ils créent des composants React.

Épargner aux développeurs React le travail en environnement PHP a déchargé l’équipe back-end de nombre de requêtes. Dans le même temps, la centralisation des templates assure une plus grande cohérence des e-mails. Et les responsabilités sont plus claires : le back n’est plus impliqué dans les changements visuels, le front ne l’est plus dans la logique de delivery.

Mi-novembre 2025, ManoMano avait migré environ 80 % de son trafic mail sur la nouvele plate-forme. Dont ses communications les plus critiques (confirmations de commandes, notifications d’envois, réinitialisations de mots de passe).

* Mailjet Markup Language, publié en source ouverte (licence MIT) en 2016 par Mailjet. Ce langage déclaratif est transpilé en HTML responsive.

Illustration générée par IA

The post Comment ManoMano a modernisé son système d’envoi d’e-mails appeared first on Silicon.fr.

Cloudflare engage un plan de résilience : les grands axes

6 janvier 2026 à 10:14

Le déploiement instantané, c’est pratique, mais rarement indispensable.

Cloudflare contextualise ainsi sa décision d’appliquer aux changements de configuration le même processus de contrôle que pour le code.

Lors de mises à jour logicielles, chaque version binaire a plusieurs étapes de validation à franchir. Toute équipe possédant un service doit définir un plan de déploiement, des indicateurs de réussite/échec et les actions à entreprendre en cas de problème. Un système automatisé exécute ce plan et déclenche si nécessaire une restauration, en alertant éventuellement l’équipe.

Ce mécanisme sera également appliqué aux changements de configuration d’ici à fin mars sur toute la prod, nous promet-on.

En toile de fond, les deux pannes importantes survenues le 18 novembre et le 5 décembre 2025. L’un et l’autre furent déclenchées par un changement de configuration (dans le classificateur de bots pour la première ; dans un outil de sécurité pour la seconde).

Isoler les défaillances

Cloudflare a un autre engagement d’ici à fin mars : réviser les contrats d’interface entre chaque produit et service critique, pour mieux anticiper et isoler les défaillances.

L’incident de novembre est un exemple en la matière. Deux interfaces-clés auraient pu être gérées différemment, estime Cloudflare. D’une part, celle qui lisait le fichier de configuration (il aurait dû exister un ensemble de valeur par défaut validées permettant au trafic de continuer à circuler). De l’autre, celle située entre le logiciel central et le module de gestion des bots (en cas de défaillance de ce dernier, le trafic n’aurait pas dû être bloqué par défaut).

Éliminer – ou contourner – les dépendances circulaires

Cloudflare entend aussi supprimer les dépendances circulaires, ou tout du moins permettre de les « contourner » rapidement en cas d’incident. Exemple : lors de l’incident de novembre, l’indisponibilité de Turnstile (alternative aux CAPTCHA) a empêché les clients d’accéder au tableau de bord à moins qu’ils eussent une session active ou un jeton d’API.

En parallèle, il est question de faire évoluer les procédures internes de type break glass (élévations temporaires de privilèges) pour avoir accès aux bons outils le plus rapidement possible.

Un « code orange » pour la deuxième fois

Pour mettre en place ce plan de résilience, Cloudflare a décrété un « code orange ». Cette procédure permet de réorienter la plupart des ressources techniques vers la résolution d’un incident. Elle a été mise en œuvre une fois par le passé. C’était fin 2023, après une panne de courant dans un des principaux datacenters de Cloudflare (PDX01, dans l’Oregon), hébergeant le plan de contrôle de nombreux services. Le déclencheur : des opérations de maintenance réalisées par l’exploitant du réseau électrique et qui avaient entraîné un défaut de terre dans l’installation.

Illustration générée par IA

The post Cloudflare engage un plan de résilience : les grands axes appeared first on Silicon.fr.

Reçu — 5 janvier 2026

IA et RGPD : la CNIL joue les généalogistes

5 janvier 2026 à 16:44

Disposer d’une « généalogie » des modèles d’IA ouverts favoriserait-il l’exercice des droits RGPD ?

La CNIL en fait le pari. Elle expérimente en tout cas un tel outil. Fondé sur les données de la plate-forme Hugging Face, il permet de visualiser l’ascendance et la descendance des modèles. En ligne de mire, les personnes concernées par la mémorisation de leurs informations personnelles… et par le risque de ruissellement de ces informations entre les modèles.

La base de données sous-jacente est en accès libre. Mise à jour quotidiennement, elle contient des éléments fournis la plupart du temps de manière déclarative par les entités qui publient les modèles – et les datasets. On en retrouve déjà le contenu à plusieurs niveaux de l’explorateur Hugging Face, dont des arborescences sur les pages des modèles.

arborescence Ministral 3 3B Instruct

Deux visualisations et un mode « expert »

Sur ce socle (plus exactement sur la base de données telle qu’elle était au 1er septembre 2025), la CNIL a structuré un graphe de connaissances. Elle y distingue cinq types d’entités : modèles, datasets, personnes, organisations et utilisateurs (qui sont soit une personne, soit une organisation).

L’outil n’affiche pas immédiatement le graphe. Il fournit d’abord quelques indicateurs à propos du modèle recherché (sa date de publication et la tâche qu’il remplit, ainsi que le nombre de téléchargements, de citations et de mentions « j’aime »), puis présente les parents et les enfants importants, en priorisant ceux qui ont le plus de citations, puis de téléchargements.

Perplexity AI R1

arbre généalogique Perplexity AI R1

Un mode « recherche experte » permet de filtrer le graphe (types de nœuds, types de relations) et de le télécharger.

mode expert

Hugging Face invité à permettre une meilleure identification des responsables de publication

On est censé pouvoir trouver un modèle en recherchant son nom ou l’identifiant de son repo. Dans la pratique, seule cette dernière option apparaît produire des résultats. La saisie semi-automatique accuse une certaine latence (plusieurs secondes) et des erreurs surviennent parfois.

erreur outil Cnil

La CNIL envisage une fonctionnalité d’envoi automatisé de requête à tous les modèles suspectés. L’analyse de leurs réponses permettrait théoriquement de déterminer lesquels régurgitent des données personnelles.
Un formulaire pourrait ensuite permettre de contacter les auteurs des modèles problématiques. Une évolution de la plate-forme Hugging Face pourrait toutefois être nécessaire pour une meilleure identification des responsables de publication, suggère la commission…

À consulter en complément :

L’IA générative peut-elle vraiment « désapprendre » ?
IA et RGPD : la CNIL boucle son corpus de fiches pratiques
De France Travail à la RATP, les leçons du « bac à sable » IA de la CNIL

Illustration générée par IA

The post IA et RGPD : la CNIL joue les généalogistes appeared first on Silicon.fr.

Contrôle fiscal : avec ses SI, l’État se complique la tâche

5 janvier 2026 à 13:53

« La politique de la DGFiP en matière de contrôle n’a jamais eu pour priorité de reposer sur la conciliation. »

Amélie de Montchalin, ministre de l’Action et des Comptes publics, a cru bon de le signaler en réponse aux observations de la Cour des comptes.

Cette dernière s’est intéressée à la lutte contre la fraude fiscale. Elle en dresse un bilan « mitigé […] après une décennie de transformations » : les sanctions ne sont ni plus fréquentes, ni plus sévères.

Le SI du contrôle fiscal, plombé par ses silos

Les sages de la rue Cambon réitèrent un constat formulé à plusieurs reprises ces dernières années : le SI du contrôle fiscal est conçu en silos, avec des applications spécialisées par impôt ou par tâche, anciennes, peu ergonomiques et dépourvues d’interopérabilité. Le manque d’interconnexion fait obstacle à l’exploitation des outils de data mining, effective depuis 2016.

Sur Iliad (application centrale des services chargés de la gestion fiscale), les données manquent de précision quant aux motifs ayant provoqué des contrôles. De plus, elles n’indiquent pas la part de ceux ayant débouché sur un dossier en règle, sur une erreur ou sur une fraude assortie d’une action de rectification.

Sur Alpage (pilotage et statistiques), les données sont saisies manuellement et a posteriori ; ce qui peut engendrer des erreurs ou des imprécisions. Par ailleurs, les « codes thésaurus » correspondant à des motifs de rectification sont absents dans 5 à 10 % des contrôles enregistrés, rendant moins fiable et plus fastidieuse la mesure de leur efficacité.

Pilat, un outil unifié… en projet depuis 2018

En 2018, la DGFiP avait lancé le projet Pilat, censé aboutir à un outil unifié de pilotage et d’analyse de la chaîne du contrôle fiscal. La mise en service était prévue pour 2022, mais l’initiative a pris du retard. En parallèle, son coût prévisionnel a plus que triplé entre 2017 et 2024 (de 36 à 123,5 M€).

En l’absence d’un tel outil, les priorités diffèrent d’une direction locale à une autre, note la Cour des comptes. Toutes ne recherchent pas forcément l’objectif répressif. Certaines n’exploitent pas la potentielle récidive d’un contribuable déjà sancitonné par une pénalité exclusive de bonne foi à hauteur de 40 % dans les 6 années qui précèdent.

Le data mining, beaucoup de contrôles, peu de recettes

En 2023, la DGFiP a réalisé ses premières études évaluant l’efficacité du data mining.

Le taux de pertinence des listes ainsi établies varie en fonction des impôts. Pour l’IR, par exemple, 65 % des dossiers signalés par l’algo ont fait l’objet d’un rehaussement effectif.
Le taux est particulièrement élevé pour les listes relatives au report erroné de réductions d’impôt dans le cadre du dispositif Pinel* (93 %) ou portant sur les réductions et crédits d’impôt (80 %). Il ne l’est pas autant pour, entre autres, les droits de mutation à titre gratuit, du fait d’une intégration peu aboutie des informations communiquées par les notaires.

L’objectif de réaliser 50 % des contrôles sur la base des listes issues du data mining a été atteint en 2022 s’agissant des professionnels. On en est à environ 40 % pour les particuliers. Pour autant, les dossiers ouverts en conséquence ont un poids réduit dans les recettes : 13,8 % des droits et pénalités mis en recouvrement en 2023, alors qu’ils ont représenté 44 % des contrôles cette année-là.

Plusieurs facteurs peuvent être avancés, reconnaît la Cour des comptes. En particulier, ne sont considérés comme issus du data mining que les dossiers non ouverts au préalable par un agent du fisc. Autre élément, qu’a d’ailleurs souligné Amélie de Montchalin : les contrôles concernés portent a priori sur des enjeux moins importants que les contrôles sur place (en moyenne, 3473 € mis en recouvrement, contre 16 676 €).

Il est, plus globalement, impossible de mesurer la contribution du data mining à l’évolution du rendement moyen par agent, vu les autres évolutions stratégiques intervenues sur la période étudiée (ciblage des contrôles, développement des échanges d’informations).

Les SI du ministère de la Justice compliquent le suivi de la répression pénale

Jusqu’en 2018, l’autorité judiciaire n’était saisie des affaires de fraude par le fisc qu’à la discrétion de ce dernier.

Une réforme a mis fin à ce principe dit « verrou de Bercy ». Notamment afin de prévenir le soupçon qu’une autorité politique intervienne pour empêcher la transmission de dossiers d’importance.

L’autorité judiciaire est désormais saisie chaque année d’environ 800 M€ d’impôts éludés, pour un montant moyen par dossier de l’ordre de 400 k€. Cependant, les SI centralisés du ministère de la Justice ne permettent pas de suivre le traitement pénal de ces dossiers en fonction des montants considérés. Ce qui limite nettement l’appréciation de la répression pénale.
Le montant du préjudice signalé n’est effectivement pas retracé dans ces SI. Si une information à un niveau agrégé existe, elle ne l’est qu’au sein de chaque parquet.

* Réduction d’impôt sur le revenu à l’occasion d’un investissement locatif sous réserve de s’engager à louer le logement nu en tant que résidence principale pour au moins 6 ans.

Illustration générée par IA

The post Contrôle fiscal : avec ses SI, l’État se complique la tâche appeared first on Silicon.fr.

Comment Michelin a modernisé la gestion de ses licences Microsoft

5 janvier 2026 à 10:18

Une licence vous manque… et aucune autre ne peut être assignée.

Michelin s’est trouvé dans cette situation avec les logiciels Microsoft. En toile de fond, la mise en place d’un nouveau processus d’attribution des licences, basé sur des groupes Active Directory.

À l’origine, un système d’attribution directe

Lorsque l’entreprise avait adopté Office 365 il y a une dizaine d’années, l’attribution était directe, via le centre d’administration ou via des scripts PowerShell. Elle reposait sur des bundles de licences correspondant à des profils de travailleurs.

Pour stocker ces profils, il fut décidé d’exploiter les attributs d’extension d’Active Directory – sinon utilisés notamment pour la synchronisation de boîtes Exchange locales. Ces attributs étaient synchronisés vers Azure Active Directory.
Le script principal, exécuté sur site de manière périodique, détectait les nouveaux utilisateurs, lisait les attributs associés et assignait les licences correspondantes.

Dans le cadre des recrutements, les attributs étaient définis par les systèmes RH, dans AD (initialement de façon indirecte, en passant par l’annuaire interne). Dans les autres cas (freelances, mobilité interne, comptes spécifiques…), ils l’étaient via un portail de provisionnement interne.

Ce système présentait des limites. Parmi elles, la complexification progressive du script principal (ajout/modification de profils, altération de la logique métier sous-jacente). Par ailleurs, ce dernier étant planifié et non orienté événements, il existait toujours un décalage vis-à-vis des outils amont, amplifié par l’intervalle de synchronisation de 30 minutes d’AAD Connect.

Cette approche n’empêchait plus globalement pas les admins d’attribuer n’importe quelle licence à un utilisateur, au-delà ce celles dont il était censé bénéficier.

L’approche basée sur les groupes, concrétisée en deux temps

Dans ce contexte, Michelin a entrepris de basculer vers une approche basée sur les groupes, à l’échelle de son locataire (aujourd’hui quelque 120 000 sièges). Il en faisait déjà usage pour quelques services comme Copilot.

L’idée initiale était de créer un groupe dynamique dans AAD pour chaque profil. Le groupe « Knowledge Worker », par exemple, serait défini par la formule (user.extensionAttribute13 – eq « Knowledge Worker »). Chaque groupe se verrait ensuite assigner les licences correspondant au profil. L’ensemble pourrait alors remplacer progressivement les licences assignées directement.

Quelques jours après la mise en production, il fut constaté que l’absence d’un type de licence suffisait à bloquer l’attribution des autres au sein d’un groupe. Un problème non identifié lors des tests… et non documenté, à la connaissance de Michelin.

L’approche « un groupe par profil » fut par conséquent abandonnée, au profit d’un système plus modulaire associant un groupe à chaque combinaison « profil(s) + type de licence ».
Chaque groupe comprend donc une licence et l’ensemble des profils censés en bénéficier. Par exemple, GP-AAD-USR-LICENSE-E1_SDFA, qui associe les profils « Standard » (SD) et « Functional Account » (FA) à la licence Office 365 E1.

Dix profils ont été définis :

Profils Licences
Production Machine Microsoft 365 F1
EMS E3
Defender for Endpoint P2
Production Worker Microsoft 365 F3
Defender for Endpoint P2
Light Knowledge Worker Office 365 E1
EMS E3
Defender for Endpoint P2
SharePoint Online Plan 2
Office 365 DLP
Windows 10/11 Enterprise E3
Audioconférence Teams
Standard Office 365 E1
Functional Account Office 365 E1
Knowledge Worker Microsoft 365 E3
Defender for Endpoint P2
Audioconférence Teams
E3 Subsidiary Office 365 E3
E1 Subsidiary Office 365 E1
VDI External Application EMS E3
Windows 10/11 Enterprise E3
VDI External Desktop EMS E3
Windows 10/11 Enterprise E3
Defender for Endpoint P2

L’ensemble est en production depuis quelques mois. Reste à traiter certains cas problématiques comme les comptes cloud-only.

Illustration générée par IA

The post Comment Michelin a modernisé la gestion de ses licences Microsoft appeared first on Silicon.fr.

Meta s’offre Manus : comment ce « ChatGPT asiatique » a évolué

2 janvier 2026 à 11:20

Butterfly Effect bat désormais pavillon américain.
La start-up vient en tout cas de se vendre à Meta ; possiblement pour plus de 2 Md$.

Fondée en 2022, elle avait d’abord développé un « assistant tout-en-un » permettant d’exploiter divers LLM à travers leurs API.
Le produit, nommé Monica AI, existe toujours. Mais il n’est plus la vitrine depuis le lancement de Manus. C’était début mars 2025, quelques semaines après l’électrochoc DeepSeek.

Une start-up chinoise devenue licorne singapourienne

Comme DeepSeek, Butterfly Effect est né en Chine. Il a cependant fini par en délocaliser son siège social, mi-2025. Le déclencheur : un tour de table de 75 M$ emmené par le fonds américain Benchmark… et l’enquête consécutivement conduite par le Trésor sous le régime des investissements à l’étranger.

De ce tour de table, Butterfly Effect était ressorti valorisé à environ 500 M$. L’entreprise est maintenant basée à Singapour. Elle continuera à opérer sur place jusqu’à nouvel ordre, nous affirme-t-on. Même si du point de vue organisationnel, le cœur de l’équipe sera intégré à Meta AI.

Le seuil des 100 M$ de revenu annuel récurrent avait officiellement été franchi mi-décembre. La société comptait alors une centaine d’employés, entre Singapour, Tokyo et San Francisco. Il était question d’ouvrir « bientôt » un bureau à Paris.

Du back-end à l’optimisation SEO, Manus en bâtisseur de sites web full-stack

Entre autres chiffres, Butterfly Effect annonce avoir créé, depuis le lancement de Manus, quelque 83 millions d’« ordinateurs virtuels ». L’entreprise se réfère là à sa technologie de navigateur cloud, intégrée dans l’interface de discussion. Elle y a récemment ajouté une extension (Chrome/Edge) qui permet à l’IA de travailler dans le navigateur local.

Autre brique ajoutée ces dernières semaines : un constructeur de sites web full stack – avec back-end, authentification, base de données, achat/connexion de noms de domaines, optimisation SEO (génération d’une version HTML statique spécifiquement pour les robots) et analytique. Elle fait partie des fonctionnalités réservées aux forfaits payants : Basic (20 $/mois), Plus (40 $/mois), Pro (200 $/mois), Team (à partir de 40 $/siège) et Enterprise.

Certifiée SOC 2 Type I et II, l’offre est pour le moment hébergée aux États-Unis (région AWS en Virginie). Elle met à contribution des modèles d’Anthropic, de Google, d’OpenAI. Elle dépend aussi de Cloudflare (réseau), de HCaptcha (sécurité), d’Intercom (support), de Revenue Cat (paiement), de Stripe (facturation) et de Twilio (notifications SMS).

Les jalons d’un écosystème… jusqu’en France

Outre ses partenariats académiques et son offre de crédits pour les start-up, Butterfly Effect a un programme d’ambassadeurs. Deux d’entre eux se trouvent en France : Niels Rolland (cofondateur et CEO de Paatch, communauté d’AI builders) en Pāvels Baskakovs (ancien de Deloitte et Chainalysis).

Depuis peu existe aussi la Manus Academy. Cette plate-forme de formation à l’usage de l’IA est actuellement en accès anticipé, en anglais, japonais et portugais. Elle s’inscrit dans le prolongement du Build Club, projet que Butterfly Effect porte aux côtés d’acteurs comme OpenAI, Crew AI, Leonardo AI, Groq, LangFlow et Vercel.

La « recherche étendue » est disponible depuis plus longtemps, mais son déploiement sur l’ensemble des forfaits payants n’est pas finalisé. Elle est l’une des marques de fabrique de Manus : plutôt que d’étendre la fenêtre de contexte, on instancie autant d’agents que nécessaire et on les exécute en parallèle.

Une multimodalité couleur Google

Arrivée en mai, la génération d’images repose aujourd’hui sur GPT Image 1 (OpenAI) et sur Nano Banana Pro (Google), au sein d’une espace de travail (« vue design ») qui y associe un agent de recherche et un éditeur interactif. Nano Banana Pro est aussi à la base du générateur de diapositives, réservé aux forfaits payants.

Manus sait générer des vidéos depuis juin, en particulier à l’appui du modèle Veo 3 de Google. En parallèle, il a été doté d’un système de planification de tâches. Et, par après, d’une organisation en projets.

Mi-novembre, Butterfly Effect avait promis que Manus serait disponible dans le cadre de l’offre Microsoft Agent 365.

Le mode chat est accessible à tous les utilisateurs. En mode agent, on ne peut utiliser, sur la version gratuite, que l’architecture dite Manus Lite.

Illustration générée par IA

The post Meta s’offre Manus : comment ce « ChatGPT asiatique » a évolué appeared first on Silicon.fr.

❌