Vue normale

Reçu aujourd’hui — 17 décembre 2025 Silicon

Cyberattaque au ministère de l’Intérieur : des fichiers sensibles consultés

17 décembre 2025 à 10:46

Le ministère de l’Intérieur a été victime d’une cyberattaque d’une ampleur inédite. Laurent Nuñez, ministre de l’Intérieur, a confirmé ce 17 décembre sur Franceinfo qu’il s’agit d’un acte très grave, qualifiant l’incident d’attaque massive ayant touché la Place Beauvau.

Une intrusion par les messageries

L’intrusion informatique s’est déroulée dans la nuit du jeudi 11 au vendredi 12 décembre.  Selon le ministre, une personne a pu récupérer un certain nombre de mots de passe de boîtes mails, permettant ainsi d’obtenir des codes d’accès à certains systèmes d’information du ministère. Les analyses montrent une intrusion sur des boîtes de messagerie professionnelle, contenant des éléments d’identification, dont la récupération a rendu possible l’accès à des applications métiers.

Le fichier de traitement d’antécédents judiciaires (TAJ) et le fichier des personnes recherchées (FPR) ont notamment été consultés. Le TAJ liste non seulement les condamnations des individus, mais agrège surtout l’ensemble des données issues des enquêtes de la police et de la gendarmerie, donnant accès aux coordonnées des victimes ou des témoins. Le FPR centralise quant à lui les signalements de fugitifs, les interdictions de territoire et les disparitions inquiétantes.

Quelques dizaines de fiches ont pu être extraites du système, selon les déclarations de Laurent Nuñez qui a réfuté qu’il y ait eu une extraction de millions de données, contrairement aux allégations circulant en ligne.

Une revendication sur BreachForums

Selon Le Figaro, un individu utilisant le pseudo de Indra a revendiqué l’attaque sur BreachForums, un forum anglophone réapparu à de multiples reprises après avoir été fermé plusieurs fois par les autorités.

Dans son message rapporté par Le Figaro, Indra prétend avoir accédé aux données de 16 444 373 individus en compromettant les fichiers de police français. Il évoque également avoir eu accès au système EASF MI, lié aux canaux de communication qu’utilisent les autorités internationales, et mentionne la DGFiP et la CNAV.

Les pirates donnent à la France une semaine pour les contacter afin de négocier, menaçant de faire fuiter progressivement les données. Mais pour l’heure, aucun échantillon des prétendues données piratées n’a été dévoilé, une pratique pourtant habituelle dans ce type de hacking.  Laurent Nuñez a assuré ne pas avoir reçu de demande de rançon.

Un lien avec les Shiny Hunters ?

Selon les informations rapportées par Le Figaro, Indra affirme que la cyberattaque aurait été menée en représailles de l’arrestation de la quasi-totalité des membres de Shiny Hunters. En juin 2025, ce groupe avait revendiqué avoir lancé l’assaut contre le groupe de luxe Kering, dérobant les données de quelques millions de clients.

L’identité de l’un de ses plus éminents membres avait fait la une des médias en France : celle du Français Sébastien Raoult, âgé d’une vingtaine d’années à peine, et condamné en janvier 2024 aux États-Unis à trois ans de prison ferme et à un remboursement de cinq millions $. Le jeune hacker avait été interpellé à Rabat, au Maroc, après une demande du FBI, puis rapatrié en France en décembre 2024. Il a été mis en examen par la justice française pour atteintes à un système de traitement automatisé de données dès son arrivée à l’aéroport de Roissy.

Des imprudences reconnues

Le ministre de l’Intérieur a reconnu des imprudences de la part de certains agents du ministère de l’intérieur. Ce piratage s’est fait en dépit de toutes les règles de prudence diffusées régulièrement. Il suffit de quelques individus qui ne respectent pas ces règles pour créer une brèche, a-t-il commenté.

Le ministère argue avoir déployé un plan d’actions immédiat et renforcé dès la détection de l’intrusion, en sécurisant les infrastructures, en généralisant l’authentification à double facteur et en révoquant les accès compromis.

Deux enquêtes, judiciaire et administrative, ont été ouvertes. L’enquête judiciaire, conduite sous la direction du parquet de Paris, a été confiée à l’Office anti-cybercriminalité (OFAC) de la direction nationale de la police judiciaire. La Commission nationale de l’informatique et des libertés (CNIL) a également été saisie.

The post Cyberattaque au ministère de l’Intérieur : des fichiers sensibles consultés appeared first on Silicon.fr.

Reçu hier — 16 décembre 2025 Silicon

Thibaud Binétruy, nouveau président d’InterCERT France

16 décembre 2025 à 16:59

InterCERT France, qui rassemble plus de 120 équipes de détection et réponse à incidents cyber sur le territoire national, a procédé au renouvellement de son Conseil d’administration. Les membres ont élu Thibaud Binétruy, responsable du CSIRT-Suez, à sa présidence.

Le bureau est complété par Anthony Charreau (CERT Crédit Mutuel Euro-Information) au poste de Vice-président et Julien Mongenet (Thales-CERT) comme Trésorier. Le Conseil compte également trois autres administrateurs : Valérie Couché (C2MI), Tristan Pinceaux (CERT ALMOND CWATCH) et Maxime Lambert (CERT-Formind).

Un parcours dans la cyberdéfense opérationnelle

Thibaud Binétruy apporte 17 ans d’expérience dans la cybersécurité, dont 11 années dédiées à la cyberdéfense opérationnelle. Après avoir débuté comme auditeur et pentester, il a rejoint le CERT Société Générale où il a découvert la communauté InterCERT. Il a ensuite évolué dans les secteurs de la défense et de l’aérospatiale chez Safran avant de prendre la direction du CSIRT du groupe Suez en 2022.

Cette transition intervient après le mandat de Frédéric Le Bastard (CERT La Poste), qui a accompagné la structuration de l’association depuis sa création en octobre 2021. Le Conseil d’administration lui a attribué le titre de membre Honoraire en reconnaissance de son action.

Face à l’évolution des menaces cyber, la nouvelle gouvernance entend renforcer la culture de prévention et intensifier les échanges de retours d’expérience entre les membres. L’association souhaite également mettre l’accent sur la santé mentale des professionnels de la cyber, confrontés à des situations de stress et de pression opérationnelle quotidiennes.

The post Thibaud Binétruy, nouveau président d’InterCERT France appeared first on Silicon.fr.

Databricks atteint une valorisation de 134 milliards $

16 décembre 2025 à 16:28

Qui a parlé d’une bulle spéculative sur l’IA ? Databricks annonce avoir levé plus de 4 milliards de $ lors d’un tour de financement de Série L, portant sa valorisation à 134 milliards $.
Le tour de financement a été mené par Insight Partners, Fidelity Management & Research Company et J.P. Morgan Asset Management.  La présence de gestionnaires d’actifs majeurs comme BlackRock et Blackstone témoigne d’un intérêt croissant des grandes institutions financières pour les investissements dans le secteur de l’intelligence artificielle.

Une partie des fonds sera utilisée pour permettre aux employés de procéder à des ventes secondaires d’actions. Ali Ghodsi a également indiqué au Wall Street Journal que l’entreprise prévoit de créer des milliers de nouveaux postes, notamment des chercheurs en IA, pour développer un laboratoire d’IA qui n’emploie actuellement qu’une centaine de personnes.

Une croissance soutenue

L’investissement soutiendra également de futures acquisitions dans le domaine de l’IA et l’approfondissement de la recherche.

Avec cette nouvelle levée de fonds, Databricks dépasse désormais largement la valorisation ( 75 milliards)  de son concurrent coté en bourse Snowflake.

Databricks, fondée en 2013 à San Francisco, affiche des résultats financiers impressionnants avec un chiffre d’affaires annualisé de 4,8 milliards $ au troisième trimestre, soit une progression de plus de 55% en un an. En septembre dernier, ce taux s’établissait à 4 milliards $.

L’entreprise compte ainsi plus de 700 clients, sur plus de 20 000, générant un revenu annuel supérieur à un million. Cette levée de fonds intervient quelques mois seulement après qu’elle ait levé 1 milliard de dollars pour une valorisation de 100 milliards $

Trois axes stratégiques pour les applications intelligentes

Le nouveau capital servira à accélérer le développement de trois offres stratégiques :

> Lakebase, présentée comme la première base de données Postgres sans serveur conçue spécifiquement pour l’ère de l’IA. Lancé il y a six mois, ce produit compte déjà des milliers de clients et enregistre une croissance de revenus deux fois plus rapide que le produit d’entreposage de données de Databricks.

> Databricks Apps, qui permet de créer et déployer des applications de données et d’IA avec rapidité et sécurité.

> Agent Bricks, qui aide les organisations à créer et mettre à l’échelle facilement des agents de haute qualité sur leurs données.

The post Databricks atteint une valorisation de 134 milliards $ appeared first on Silicon.fr.

Red Hat renforce la sécurité de son offre IA avec Chatterbox Labs

16 décembre 2025 à 15:53

Red Hat rachète Chatterbox Labs, un spécialiste des garde-fous de sécurité pour l’intelligence artificielle générative. Le montant de l’opération n’est pas communiqué.

Fondée en 2011 et basée à Londres avec un bureau à New York, Chatterbox Labs propose des capacités de test de sécurité automatisées et personnalisées, fournissant des métriques de risque quantitatives.

La technologie de Chatterbox Labs s’articule autour de trois piliers :

  • AIMI pour l’IA générative : des métriques de risque quantitatives indépendantes pour les grands modèles de langage
  • AIMI pour l’IA prédictive : validation de toute architecture IA sur des critères clés incluant robustesse, équité et explicabilité
  • Garde-fous : identification et correction des invites non sécurisées, toxiques ou biaisées avant la mise en production des modèles

Sécuriser l’IA agentique de nouvelle génération

L’approche est agnostique des modèles, permettant de valider données et modèles quelle que soit leur origine. Selon Steven Huels, vice-président de l’ingénierie IA et de la stratégie produit chez Red Hat, l’intégration de Chatterbox Labs permettra de fournir une plateforme open source complète où la sécurité est intégrée dès le départ.

Chatterbox Labs a mené des travaux sur la sécurité holistique des agents IA, incluant la surveillance des réponses des agents et la détection des déclencheurs d’action des serveurs MCP. Ces travaux s’alignent avec la feuille de route de Red Hat pour le support de Llama Stack et MCP.

Cette acquisition est la deuxième opération de Red Hat dans le domaine de l’IA en un an. En novembre 2024, l’éditeur avait racheté Neural Magic, spécialisé dans l’optimisation des modèles d’IA pour processeurs et GPU standards. Cette acquisition a été finalisée en janvier 2025.

The post Red Hat renforce la sécurité de son offre IA avec Chatterbox Labs appeared first on Silicon.fr.

Bases de données cloud : l’abondance de l’offre devient un défi

16 décembre 2025 à 15:17

Chez les principaux fournisseurs de bases de données cloud, il n’est plus si rare que des produits se chevauchent.

La synthèse du dernier Magic Quadrant dédié à ce marché en témoigne. La majorité des « leaders » (5 sur 9) ont droit à une remarque à ce sujet :

  • Alibaba Cloud
    Chevauchement entre AnalyticDB et Hologres (analytique) comme entre DMS et DataWorks (intégration de données).
  • AWS
    Grand choix de SGBD et d’options d’intégration… au prix de chevauchements et de conflits.
  • Google
    Plusieurs solutions pour Postgre (Cloud SQL, AlloyDB, Spanner) entre lesquelles il faut faire la balance.
  • IBM
    Chevauchements sur la partie entrepôt de données, entre les offres Db2 Warehouse, Neterra watsonx.data.
  • Microsoft
    Concurrence entre Azure Synapse, Microsoft Fabric et Azure Databricks.

Gérer les coûts reste un défi

Autre sujet largement partagé parmi les « leaders » : la gestion des coûts.

Elle est difficile chez AWS faute de tarification unifiée entre services.
Elle l’est aussi pour beaucoup de clients de Databricks, malgré des avancées sur l’outillage FinOps.
Chez Google, elle a tendance à se complexifier avec l’intégration de nouvelles fonctionnalités.
Concernant Oracle, la clientèle se plaint toujours des prix et de la difficulté de contractualisation, même si la tendance s’atténue avec le passage au cloud et son modèle de facturation à l’usage.
Concernant Snowflake, Gartner a un jugement plus spécifique : le côté « user-friendly » est susceptible de favoriser le développement d’un état d’esprit « black box », et par là même de limiter la capacité à optimiser les workloads.

Plusieurs de ces fournisseurs avaient déjà été épinglés à ce sujet il y a un an, dans l’édition précédente de ce Magic Quadrant.
Databricks, à cause de la difficulté à prédire les coûts avec le modèle fondé sur des unités de consommation.
Google, parce que le suivi des dépenses pouvait se révéler délicat, a fortiori lorsqu’on interfaçait aux bases de données des services fondés sur des unités de consommation.
Oracle, perçu, de par son historique, comme un fournisseur aux offres onéreuses.
Alibaba, chez qui la variété des modèles de pricing, combinée à une facturation découplée pour certaines ressources au nom de la flexibilité, pouvait s’avérer difficile à maîtriser.

20 fournisseurs, 9 « leaders »

D’une année à l’autre, les critères à respecter ont peu évolué. Il fallait toujours, entre autres, gérer au moins un cas d’usage parmi :

  • Transactionnel
  • Transactions « légères » (gros volumes à haute concurrence et basse latence)
  • Gestion d’état d’applications
  • Data warehouse
  • Lakehouse
  • Analyse d’événements

Une fois encore, Gartner n’a évalué que les offres managées, fournies en cloud public ou privé. Il n’a pas pris en compte les bases de données hébergées sur du IaaS.

Les 20 fournisseurs classés sont les mêmes que l’an dernier. Et les 9 « leaders » d’alors le sont restés. Dans l’ordre alphabétique : Alibaba Cloud, AWS, Databricks, Google, IBM, Microsoft, MongoDB, Oracle et Snowflake.

Sur l’axe « exécution », reflétant la capacité à répondre à la demande, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 AWS =
2 Google =
3 Microsoft + 1
4 Oracle – 1
5 Databricks =
6 Snowflake + 1
7 MongoDB – 1
8 IBM + 2
9 Alibaba Cloud – 1
10 InterSystems – 1
11 Huawei Cloud =
12 SAP =
13 Teradata =
14 Cloudera =
15 Couchbase + 3
16 SingleStore + 1
17 EDB + 3
18 Redis – 3
19 Neo4j – 3
20 Cockroach Labs – 1

Sur l’axe « vision », reflétant les stratégies :

Rang Fournisseur Évolution annuelle
1 Google =
2 Databricks + 3
3 Microsoft – 1
4 Oracle – 1
5 AWS – 1
6 Snowflake + 2
7 Alibaba Cloud + 3
8 IBM – 1
9 SAP – 3
10 Teradata – 1
11 MongoDB =
12 Cloudera =
13 InterSystems + 2
14 Neo4j =
15 Huawei Cloud + 1
16 EDB + 4
17 Couchbase =
18 SingleStore =
19 Redis – 6
20 Cockroach Labs – 1

Alibaba Cloud, distingué pour son approche « data + IA »…

Les principales offres d’Alibaba Cloud sur ce marché sont PolarDB et ApsaraDB (transactionnel), AnalyticDB et MaxCompute (analytique), Tair et Lindorm (clé-valeur).

L’a dernier, le groupe chinois avait été salué pour sa présence sectorielle importante et différenciée, le développement de son écosystème de partenaires et le poids de sa communauté open source.

Cette année, Gartner apprécie la tarification, jugée attractive. Ainsi que la fiabilité de l’architecture serverless. Désormais étendue à tous les SGBD, elle se distingue par son architecture découplant calcul, mémoire et stockage en environnement hybride. Bon point également pour l’approche « data + IA » qui permet de développer et de déployer des applications en n’utilisant que des technologies d’Alibaba Cloud.

… mais pas pour la configuration de PolarDB

L’an dernier, Gartner avait pointé, au-delà de la gestion des coûts, le risque géopolitique associé à Alibaba Cloud. Ainsi que la disponibilité encore limitée de ses servies hors de l’Asie (moins de régions et de zones de disponibilité que la concurrence).

Cette année encore, la faible présence hors Asie est signalée. Elle peut se traduire par un moins grand nombre d’intégrations d’outils tiers et de ressources en anglais (documentation, formation, support). Attention aussi à la configuration de PolarDB, jugée complexe par les nouveaux utilisateurs, notamment sur l’équilibre coût/performance et la gestion du stockage multicouche. Il faut y ajouter les chevauchements de produits sus-évoqués.

AWS a un catalogue d’une ampleur sans égale…

Aurora, Redshift, DynamoDB et SageMaker font partie des principaux produits d’AWS sur ce marché.

L’an dernier, Gartner avait salué la couverture fonctionnelle d’AWS et sa capacité à créer du liant entre ses solutions. Il avait aussi noté l’exhaustivité des partenariats et de la présence géographique.

Ce dernier point vaut toujours et s’assortit d’un bon historique de disponibilité de l’infrastructure ainsi que d’une approche « proactive » de dialogue avec le client pour l’optimisation des coûts. AWS a, plus globalement, un catalogue d’une ampleur sans égale sur ce marché, avec SageMaker comme point central de gouvernance data/IA.

… mais des dépendances pour l’orchestration hybride

L’intégration entre les services d’AWS peut être complexe, avait souligné Gartner l’an dernier. Le cabinet américain avait aussi constaté que la prise en charge des déploiements hybrides/multicloud était limitée malgré la disponibilité de connecteurs natifs et le support de moteurs comme Spark (les clients tendent à utiliser des orchestrateurs tiers, avait-il expliqué).

Ce dernier constat est toujours d’actualité : beaucoup de clients dépendent de solutions tierces pour l’orchestration hybride/multicloud. S’y ajoutent les deux éléments sus-évoqués : gestion des coûts difficile et chevauchements entre produits.

Databricks, rapide pour innover…

Outre Data Intelligence Platform (qui inclut Unity Catalog), Databricks propose du data warehouse avec Databricks SQL, du transactionnel avec Lakebase, ainsi que de l’intégration et de l’engineering avec Lakeflow.

L’an dernier, Gartner avait salué les investissements dans la GenAI (dont l’acquisition de MosaicML), traduits par le développement de ses propres LLM. Il avait aussi donne un bon point au catalogue Unity (qui venait d’être basculé en open source) et au format Delta Lake (concurrent d’Iceberg).

Cette année, Databricks est salué pour sa « vision lakehouse », bien qu’il ne soit plus seul sur ce marché. Il l’est aussi pour sa cadence d’innovation, entre la composante Agent Bricks (qui a reçu des fonctionnalités importantes presque tous les mois), l’acquisition de Tabular (qui a accompagné la prise en charge d’Iceberg sur tout le portefeuile) et l’introduction de capacités low code dans Lakeflow. Bon point également pour l’engagement sur des standards ouverts (Delta Lake, Iceberg, Spark, Postgre…) qui favorisent la portabilité.

… mais pas si simple à prendre en main

L’an dernier, Gartner avait pointé le manque d’intuitivité de l’UI, qui changeait fréquemment tout en manquant de documentation et de capacités low code. Il y avait ajouté l’aspect FinOps, sus-évoqué.

Cette année, le cabinet américain met un bémol à la logique d’ouverture : certains clients s’inquiètent d’un éventuel verrouillage au niveau de l’orchestration et de Delta Live Tables (devenu Lakeflow Spark Declarative Pipelines). Il souligne par ailleurs la tendance des clients à juger que l’usage de la solution exige un haut niveau de compétence technique. En parallèle, le sujet FinOps reste valable (voir ci-dessus).

Google, bien positionné sur l’IA…

Entre autres produits positionnés sur ce marché, Google a Spanner, BigQuery, AlloyDB, Cloud SQL, Firestore, Memorystore et Bigtable.

L’an dernier, Gartner avait salué les contributions open source (à PostgreSQL en particulier). Il avait fait de même pour les avancées dans la GenAI (intégration de Gemini + support transversal de la recherche vectorielle via LangChain) et pour la fondation data/IA unifiée avec Dataplex pour la gouvernance.

Cette fondation data/IA a à nouveau droit à un bon point ; dans les grandes lignes, pour les mêmes motifs. Gartner note plus globalement la capacité de l’offre SGBD de Google à couvrir les cas d’usage dans l’IA agentique. Et apprécie en particulier l’exhaustivité des modèles de données pris en charge par Spanner (relationnel, clé-valeur, graphe, vectoriel).

… mais moins sur le partage de données

Le réseau de partenaires doit encore se développer, avait estimé Gartner l’an dernier. Il avait aussi pointé l’aspect FinOps et souligné que Google proposait moins d’options que la concurrence pour l’intégration native d’applicaitons et le master data management.

Cette année, outre la gestion des coûts et les chevauchements sus-évoqués, un point de vigilance va à la marketplace de données et aux capacités de partage. Elle se révèlent moins avancées que chez certains concurrents, malgré des améliorations sur les clean rooms et l’interopérabilité entre clouds.

IBM étend sa présence multicloud…

Les principaux SGBD cloud d’IBM sont Db2 (transactionnel + analytique) et watsonx.data (lakehouse).

L’an dernier, Big Blue s’était distingué sur sa stratégie sectorielle (solutions spécifiques adaptées sur la gouvernance, la sécurité et la conformité). Ainsi que sur sa capacité à combiner les expertises en open source et en data management au service des déploiements hybrides. Son offre est bien adaptée aux applications critiques, avait ajouté Gartner.

Cette année encore, la stratégie sectorielle est saluée. L’extension de la présence cloud l’est aussi (mise à disposition de Db2 chez les hyperscalers et acquisition de DataStax, qui a une forte présence multicloud). Bon point également pour l’approche « bien définie » d’IBM concernant l’intégration des SGBD dans les frameworks de data management.

… mais a toujours du mal à faire passer son message

IBM a du mal à se différencier dans la communication, par ailleurs pas uniforme entre équipes commerciales, avait expliqué Gartner l’a dernier. Il avait aussi rappelé que le déploiement géographique de l’offre n’atteignait pas encore celui des autres hyperscalers.

Les difficultés de communication restent d’actualité, occasionnant un certain manque de notoriété sur le segment. En parallèle, IBM demeure perçu comme un vendeur « legacy », ce qui est susceptible de détourner certains acheteurs. Gartner y ajoute, comme sus-évoqué, les chevauchements entre certains produits.

Une offre exhaustive chez Microsoft…

Entre autres produits, Microsoft évolue sur ce marché avec Azure SQL Database, Azure Database pour PostgreSQL et MySQL, ainsi qu’Azure Cosmos DB.

L’an dernier, Gartner avait salué l’exhaustivité de l’offre et le niveau d’intégration avec les autres services Microsoft. Il avait aussi apprécié les possibilités d’usage de l’IA pour le data management. Et les avancées sur la gestion du multicloud, exemplifiées par l’interconnexion Azure-Oracle comme par les « raccourcis » dans OneLake pour les analyses fédérées.

Bon point cette année encore pour l’exhaustivité de l’offre, qui « gère presque tous les modèles de données et cas d’usage sectoriels ». L’engagement de Microsoft sur PostgreSQL est également salué. Comme les innovations sur la partie IA (embeddings in-database, indexation de vecteurs, jonctions entre Copilot et Fabric…).

… mais une offre Fabric qui manque encore de maturité

Le chevauchement de certaines offres avait déjà été signalé l’an dernier, en sus de craintes des clients sur la pérennité d’Azure Synapse Analytics et d’Azure Database face à Microsoft Fabric. Ce dernier manquait encore de maturité, avait expliqué Gartner : les capacités d’intégration, de gouvernance et de gestion des métadonnées étaient moins « robustes » que chez d’autres « leaders ». Le déploiement pouvait par ailleurs se révéler complexe, en particulier pour le DR, la sécurité et la gestion des coûts.

Outre le chevauchement de certains produits, Gartner pointe à nouveau le manque de maturité de Microsot Fabric. Les inquiétudes des clients touchent autant aux fonctions data warehouse que gouvernance, entre souveraineté, dimensionnement des ressources, prix, gestion des métadonnées et data quality. Attention aussi aux investissements consentis pour intégrer le transactionnel dans Fabric : sur le court terme, ils peuvent engendrer des enjeux de performance.

MongoDB demeure un standard pour le modèle document…

Outre son édition communautaire et son produit sur site (Enterprise Advanced), MongoDB propose son SGBD Atlas chez AWS, Google et Microsoft.

L’an dernier, Gartner avait salué une offre « bien considérée » pour ses capacités de traitement à haut volume, son élasticité et la flexibilité du schéma. Il avait aussi souligné la souplesse et la rapidité d’implémentation, contribuant à la popularité auprès des développeurs.

Ce dernier élément vaut toujours et engendre un vivier de compétences d’autant plus grand. S’y ajoute la richesse des options de déploiement, accentuée par un programme de partenariats jugé « robuste ». MongoDB est plus globalement parvenu à établir une forme de standard pour qui souhaite un modèle orienté document.

… mais manque d’un storytelling sur la convergence transactionnel-analytique

Si MongoDB associe transactionnel et analytique, son offre se limite à du non relationnel, avait signalé Gartner l’an dernier. La concurrence s’accentue de la part de fournisseurs de SGBD qui incluent l’approche document en plus d’autres modèles, avait-il souligné ; sans compter ceux qui proposent une compatibilité MongoDB.

Cette remaruqe sur la concurrence accrue reste valable. Le cabinet américain y ajoute la courbe d’apprentissage nécessaire pour prendre en main le modèle MongoDB. Et le manque d’un storytelling complet l’intégration du transactionnel et de l’analytique.

Oracle, salué pour sa richesse fonctionnelle…

Autonomous AI Lakehouse, Autonomous JSON Database et Exadata Database Service font partie des SGBD cloud au catalogue d’Oracle.

L’an dernier, Gartner avait salué l’exhaustivité de l’offre (fonctionnalités + support de modèles modèles de données et de l’architecture lakehouse). Ainsi que le niveau de gestion du multicloud (offres Database@ + interconnexion avec les principaux hyperscalers) et la capacité à diffuser rapidement des nouveautés (GenAI, low code, consensus RAFT).

Cette année encore, la richesse fonctionnelle est saluée (bases de données distribuées, recherche vectorielle, framework agentique…). La diversité des options de déploiement l’est aussi. Comme l’adéquation de l’offre d’oracle aux applications critiques.

… mais peu adopté pour les déploiements lakehouse

Oracl reste perçu comme onéreux et a du travail pour « cloudifier » sa base client, avait noté Gartner l’an dernier. Il avait aussi appelé les acheteurs à s’assurer de bien interpréter l’approche « une base de données pour tout » et ce qu’elle impliquait en matière de livraison de fonctionnalités.

Cette dernière remarque est reconduite : vigilance sur cette approche, qui s’oppose aux architecture combinant les SGBD et les systèmes de data management. La question du prix – sus-évoquée – reste sensible et les clients continuent à prioriser des produits concurrents pour les déploiements lakehouse.

Snowflake a amélioré sa couverture fonctionnelle…

L’an dernier, Snowflake s’était distingué par son UI adaptée à divers profils d’utilisateurs, sa prise en charge de multiples formats sur la couche de stockage et l’extension de l’architecture lakehouse avec Iceberg et Polaris.

Cette année encore, Gartner donne un bon à l’UI. Il relève aussi l’extension fonctionnelle de l’offre (data engineering avancé via Openflow, ML/IA avec Snowpark et Cortex AI, support de Postgre apporté par l’acquisition de Crunchy Data). Et l’amélioration de la scalabilité avec les entrepôts de génération 2 (meilleur rapport qualité-prix que la gen 1 pour les workloads complexes).

… mais reste focalisé sur le batch et l’analytique

L’an dernier, Gartner avait pointé une prise en charge limitée des scénarios hybrides. Il y avait ajouté la complexité dans le partage des données entre organisations utilisatrices de Snowflake et les défis d’usabilité que posait l’intégration avec le stockage sur site via les tables externes.

Ces deux derniers aspect demeurent. D’une part, la performance n’est pas la même avec les tables externes qu’avec le stockage natif ou les tables Iceberg. De l’autre, sur le partage, il est nécessaire de bien planifier des éléments tels que les permissions, le repartage et les restrictions régionales. Gartner y ajoute l’aspect FinOps (voir ci-dessus). Et le fait que l’architecture est focalisée sur le batch et l’analytique plutôt que sur le transactionnel ou le temps réel (même s’il existe les tables hybrides et une intégration avancée de PostgreSQL).

Illustration générée par IA

The post Bases de données cloud : l’abondance de l’offre devient un défi appeared first on Silicon.fr.

La chasse aux sorcières de Washington pour imposer sa doctrine IA

16 décembre 2025 à 10:10

Washington accentue la chasse aux textes de loi qui vont contre sa doctrine en matière d’intelligence artificielle.

Son « plan d’action IA » publié cet été avait ouvert la voie. Il prévoyait notamment que les agences du gouvernement fédéral ayant des programmes de financement de l’IA prennent en compte le « climat réglementaire » des États américains. Et qu’elles limitent ces financements dans le cas où un régime serait susceptible de compromettre leur efficacité.

La Maison Blanche promettait plus globalement de réviser ou d’abroger tout texte « entravant inutilement le déploiement de l’IA ». En première ligne étaient alors les ordonnances définitives, les décrets exécutoires et les injonctions de la FTC (Federal Trade Commission, qui fait appliquer le droit de la consommation).

Le mantra du « biais idéologique »

Le mode opératoire se précise à la faveur d’un ordre exécutif (équivalent d’un décret présidentiel) que Donald Trump a signé la semaine passée. Dans le viseur, en particulier, les lois qui « exigent d’intégrer des biais idéologiques dans les modèles ». Référence est faite à une « loi au Colorado ». Il s’agit probablement du SB24-205 (« Consumer Protections for Artificial Intelligence »), qui doit entrer en application le 1er février 2026. Le postulat : en interdisant la « discrimination algorithmique », le texte pourrait forcer les modèles à produire de faux résultats afin d’éviter un « traitement différencié » de minorités.

L’ordre exécutif cible aussi les lois qui ont une portée extraterritoriale. Et qui, par là même, compromettraient les échanges commerciaux entre États.

Une task force gouvernementale pour contester les textes présumés illégaux

Ce travail d’élagage doit contribuer à « entretenir et renforcer la domination mondiale des États-Unis dans l’IA à travers un cadre législatif national le moins pénible possible ».

Un groupe de travail sera chargé de contester (challenge) les lois en contradiction avec cet objectif. Le procureur général a 30 jours – à compter de la signature de l’ordre exécutif – pour l’établir.

Cette contestation pourra se faire, notamment, au motif d’inconstitutionnalité, de prévalence d’une loi fédérale… ou de « toute présomption d’illégalité de la part du procureur général ».

La perspective d’une coupure de financements fédéraux

Le secrétaire au Commerce a 90 jours pour identifier les lois jugées problématiques et qui devraient être signalées au groupe de travail. Il lui faudra lister au minimum celles qui « requièrent que les modèles IA altèrent leurs outputs véridiques (truthful) » ou qui sont susceptibles de contraindre les développeurs ou les déployeurs à divulguer des informations au mépris de la Constitution, à commencer par le premier amendement (liberté d’expression).

Dans le même délai, le secrétaire au Commerce devra émettre une notice relative aux financements dans le cadre du BEAD (Broadband Equity Access and Deployment, programme fédéral à 42,5 Md$). Les fonds non alloués aux objectifs principaux de déploiement d’infrastructure ne seraient pas accessibles aux États qui promulguent ou envisagent de promulguer des lois jugées problématiques.
En parallèle, départements exécutifs et agences sont invités à examiner leurs programmes de subventions pour déterminer s’ils peuvent les conditionner à l’absence de ces mêmes lois – ou à un engagement contraignant à ne pas les faire appliquer.

Face à l’altération des outputs, Washington avence… le droit de la consommation

La FCC (Federal Communications Commission) a quant à elle 90 jours pour lancer une procédure visant à déterminer s’il faut adopter une norme fédérale de divulgation d’informations relatives aux modèles d’IA. Elle prévaudrait sur les lois des États américains.

Dans le même délai, la FTC doit émettre une déclaration de principe sur l’application du droit à la consommation aux IA. Il lui faudra plus précisément expliquer les circonstances dans lesquelles les textes qui exigent d’altérer les outputs ne prévalent pas sur la loi fédérale interdisant les pratiques commerciales injustes ou trompeuses.

Au bout, il y aurait une recommandation de cadre législatif fédéral uniforme. Celui-ci prévaudrait sur les législations IA jugées problématiques. Mais pas, en revanche, sur celles qui touchent à la protection de l’enfance, aux infrastructures de calcul et de données ainsi qu’à la commande publique.

Illustration générée par IA

The post La chasse aux sorcières de Washington pour imposer sa doctrine IA appeared first on Silicon.fr.

Reçu — 15 décembre 2025 Silicon

IBM recentre Terraform sur le langage HCL

15 décembre 2025 à 17:14

Le couperet est tombé : IBM arrête le support du CDKTF (Cloud Development Kit pour Terraform).

Cette boîte à outils permet de générer des fichiers de configuration en utilisant des langages impératifs (TypeScript, Python, Java, C# et Go). Elle s’inspire de l’AWS Cloud Development Kit – et en réutilise des bibliothèques.

IBM estime que le projet n’a pas trouvé sa place. Il est vrai que la traction sur les canaux communautaires et au-delà est restée minimale.
Le CDKTF n’a en tout cas jamais été stabilisé. Jusqu’à la dernière version, sortie en juin 2025, les changements non rétrocompatibles sont demeurés monnaie courante.

Un tout autre contexte qu’OpenTofu

Dans ce contexte, IBM s’affirme d’autant plus ouvert à l’idée d’un fork (le code est sous licence MPL). Ce n’est effectivement pas la même histoire qu’avec OpenTofu. Ce projet concurrent de Terraform avait émergé à l’été 2023. HashiCorp, alors encore indépendant, venait de changer la lience de ses produits. Exit la MPL (Mozilla Public License), place à la BSL (Business Source License), qui a eu pour principal effet d’interdire d’« embarquer » ou d’« héberger » les éditions communautaires desdits produits dans le cadre de toute offre commerciale destinée à un usage en prod.

Lancé sous l’impulsion d’entreprises dont le modèle économique reposait au moins en partie sur Terraform, OpenTofu avait été stabilisé début 2024. Entre-temps, une autre initiative avait vu le jour : OpenBao, pensé comme un substitut à Vault, autre produit HashiCorp.

IBM est offciellement devenu propriétaire de HashiCorp en février 2025, quasiment un an après avoir annoncé son projet d’acquisition. En attendant un éventuel fork du CDKTF, il invite à utiliser la commande cdktf synth –hcl pour convertir les fichiers .tf en HCL (HashiCorp Configuration Language).

Illustration © zeeika – Adobe Stock

The post IBM recentre Terraform sur le langage HCL appeared first on Silicon.fr.

Top 25 des faiblesses logicielles : le casse-tête méthodologique de MITRE

15 décembre 2025 à 15:02

En fonction des autorités de numérotation CVE, les pratiques d’association de vulnérabilités à des faiblesses logicielles peuvent varier.

Le phénomène n’a en soi rien de nouveau. Cependant, avec l’augmentation du nombre d’autorités produisant de tels mappings, il a une influence de plus en plus importante sur des projets aval. Parmi eux, le Top 25 CWE de MITRE.

Dans l’édition 2025, fraîchement publiée, l’organisation américaine affirme à quel point il pourrait être « instructif » d’étudier les pratiques de ces autorités. D’autant plus au vu de ce qui a été constaté chez l’une des plus « prolifiques ». En l’occurrence, une tendance à associer des vulnérabilités (CVE) à la fois à des faiblesses logicielles (CWE) de bas niveau et de haut niveau, entraînant une surreprésentation de ces dernières. Par exemple, CWE-74 (neutralisation inadéquate d’éléments spéciaux dans une sortie utilisée par un composant aval), à la fois « parent » de CWE-89 (injection SQL), de CWE-79 (XSS), de CWE-78 (injection de commande système) et de CWE-94 (injection de code).

Première utilisation d’un LLM pour le Top 25 CWE

Pour cette édition, le dataset initial comprenait 39 080 CVE publiées entre le 1er juin 2024 et le 1er juin 2025.

MITRE a collecté des mappings réalisés par des autorités de numérotation ou ajoutés par la CISA après publication des CVE. Il a également tenu compte de mappings aval d’analystes de la NVD (National Vulnerability Database, rattachée au NIST).

Une analyse automatisée a permis d’identifier les mappings susceptibles d’être modifiés notamment parce que trop abstraits ou trop différents de mappings précédents contenant des mots-clés similaires.

Les mappings soumis à réévaluation concernaient 9468 CVE (24 % du total), publiées par 281 autorités.

Pour la première fois, MITRE a employé un LLM – ancré sur le corpus des CWE et entraîné sur des mappings – pour examiner ce sous-ensemble. Si ses suggestions n’ont pas toujours été suivies, il a « semblé déduire des associations potentielles que des analystes humains auraient probablement manquées faute de temps ou d’expertise ».

Sur ces 9468 CVE, 2459 ont effectivement fait l’objet d’un retour de la part des autorités de numérotation. Le reste a été soumis à une autre analyse. C’est là qu’a été découverte la pratique sus-évoquée.

Une normalisation qui rebat (un peu) les cartes

Quatre CWE auparavant jamais classées dans le Top 25 font leur entrée cette année. Elles sont repérables par la mention N/A dans le tableau ci-dessous. Il s’agit du dépassement de tampon « classique », du dépassement de pile, du dépassement de tas et du contrôle d’accès inadéquat.

Un changement dans la méthodologie y a contribué. Jusqu’alors, avant d’établir le classement (fondé sur la fréquence des CWE et sur la sévérité des CVE associées), les mappings étaient normalisés selon une nomenclature qu’utilise traditionnellement la NVD. Cette nomenclature se limite à 130 CWE. Les CVE qui ne peuvent pas être associées à une entrée sont, au possible, associées au plus proche parent (« ancêtre »). Sinon, on retire les mappings.

Pour la première fois, MITRE a utilisé les mappings tels quels, sans effectuer cette normalisation. Il en résulte, nous affirme-t-on, une image « plus fidèle ».

Ce choix a probablement aussi contribué à faire sortir plusieurs CWE du Top 25. On peut le penser, entre autres, pour CWE-269 (gestion inadéquate des privilèges), qui passe de la 15e à la 29e place. Sans normalisation, elle a 219 CVE associées. Avec, elle en aurait en 633. Il en est potentiellement allé de même pour CWE-400 (consommation de ressources non contrôlée ; passée de la 24e à la 32e place), CWE-798 (utilisation d’authentifiants codés en dur ; de 22e à 35e) et CWE-119 (restriction inadéquate d’opérations dans les limites d’un tampon mémoire ; de 20e à 39e).

Le top 25 des vulnérabilités logicielles en 2025

Rang Identifiant Nature Évolution 2024-2025
1 CWE-79 XSS (Cross-Site-Scripting ; neutralisation inadéquate d’entrée lors de la génération de page web) =
2 CWE-89 SQLi (Injection SQL ; neutralisation inadéquate d’éléments spéciaux utilisés dans une commande SQL) + 1
3 CWE-352 CSRF (Client-Side Request Forgery ; une web ne vérifie pas suffisamment si une requête a été intentionnellement fournie par son auteur) + 1
4 CWE-862 Autorisation manquante + 5
5 CWE-787 Écriture hors limites – 3
6 CWE-22 Traversée de répertoire (neutralisation inadéquate d’éléments spéciaux dans un chemin d’accès, menant vers un emplacement non autorisé) – 1
7 CWE-416 UAF (Use After Free ; réutilisation d’une zone mémoire après sa libération) + 1
8 CWE-125 Lecture hors limites – 2
9 CWE-78 Injection de commande système – 2
10 CWE-94 Injection de code + 1
11 CWE-120 Dépassement de tampon « classique » (copie d’un tampon d’entrée vers un tampon de sortie sans vérifier que la taille du premier ne dépasse pas celle du second) N/A
12 CWE-434 Téléversement non restreint de fichiers dangereux – 2
13 CWE-476 Déréférencement de pointeur NULL + 8
14 CWE-121 Dépassement de pile N/A
15 CWE-502 Désérialisation de données non fiables + 1
16 CWE-122 Dépassement de tas N/A
17 CWE-863 Autorisation incorrecte + 1
18 CWE-20 Validation inadéquate d’entrée – 6
19 CWE-284 Contrôle d’accès inadéquat N/A
20 CWE-200 Exposition de données sensibles à un acteur non autorisé – 3
21 CWE-306 Authentification manquante pour une fonction critique + 4
22 CWE-918 SSRF (Server-Side Request Forgery ; le serveur web ne vérifie pas suffisamment que la requête est envoyée à la destination attendue) – 3
23 CWE-77 Injection de commande – 10
24 CWE-639 Contournement d’autorisation via une clé contrôlée par l’utilisateur + 6
25 CWE-770 Allocation de ressources sans limites ou plafonnement + 1

L’an dernier, la méthodologie avait déjà évolué. Pour limiter les mappings abusifs, MITRE avait donné davantage de poids aux autorités de numérotation pour les réviser. Peu avaient toutefois répondu à la sollicitation, d’où une progression potentielle, voire une entrée, dans le Top 25, de CWE de haut niveau.

Illustration © Quardia Inc. – Adobe Stock

The post Top 25 des faiblesses logicielles : le casse-tête méthodologique de MITRE appeared first on Silicon.fr.

Intégration de données : les hyperscalers s’imposent en vase clos

15 décembre 2025 à 11:35

À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.

Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.

Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).

Sans Informatica, SAP n’est plus un « leader »

Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).

La situation sur l’axe « exécution » :

Rang Fournisseur Évolution annuelle
1 Microsoft + 1
2 Informatica – 1
3 AWS + 1
4 Oracle – 1
5 Google + 3
6 Denodo + 3
7 IBM =
8 Fivetran + 2
9 Ab Initio – 4
10 Qlik – 4
11 Matillion =
12 Confluent =
13 SAP =
14 SnapLogic + 1
15 Sage Software + 2
16 Workato nouvel entrant
17 CData Software + 1
18 K2view + 1
19 Boomi nouvel entrant
20 Precisely – 4

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Informatica =
2 IBM + 1
3 Oracle – 1
4 Microsoft =
5 Ab Initio =
6 SnapLogic + 1
7 Denodo + 2
8 AWS + 5
9 Qlik – 1
10 K2view + 2
11 Google =
12 Workato nouvel entrant
13 SAP – 3
14 Matillion + 1
15 Fivetran + 2
16 Safe Software =
17 CData Software + 2
18 Confluent – 4
19 Boomi nouvel entrant
20 Precisely =

9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.

Ab Initio salué sur l’automatisation et l’agentique…

Le produit pris en considération se nomme Ab Initio Data Platform.

L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.

Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).

… mais pas sur l’UI, ni la tarification

Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.

La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.

AWS a réduit l’écart avec la concurrence…

La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.

L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.

Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».

… mais reste centré sur son écosystème

L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).

De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.

Denodo se distingue toujours sur la virtualisation des données…

Le produit pris en considération est Denodo Platform.

L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.

Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).

… mais demeure peu utilisé pour certains types d’intégrations

Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.

La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.

Un Google largement distingué sur l’IA…

Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).

L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.

Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.

… mais lui aussi centré sur son écosystème

L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).

La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.

Données non structurées et déploiements hybrides, points forts d’IBM…

L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.

L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.

Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.

… au contraire de la tarification

À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.

Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.

Informatica, à nouveau salué pour la maturité de son offre…

L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).

L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).

Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.

… mais toujours plus sous pression

L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.

Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.

La vision data fabric fait encore mouche chez Microsoft…

Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.

L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.

Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.

… qui se centre lui aussi sur son écosystème

Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.

Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.

Oracle garde l’avantage GoldenGate…

Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.

L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.

Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.

… mais suscite de moins en moins d’intérêt

Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.

Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.

Plusieurs briques robustes chez Qlik…

Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.

L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.

Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.

… mais un ralentissement de la R&D depuis l’acquisition de Talend

L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.

Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.

Illustration © alphaspirit – Shutterstock

The post Intégration de données : les hyperscalers s’imposent en vase clos appeared first on Silicon.fr.

Reçu — 12 décembre 2025 Silicon

Disney investit 1 milliard $ dans OpenAI

12 décembre 2025 à 16:30

Est-ce un tournant majeur pour Hollywood ? Alors que beaucoup de professionnels du cinema américain se mobilisent depuis 2023 contre les effets dévastateurs de l’utilisation de l’IA sur leurs métiers, Walt Disney investit un milliard $ dans OpenAI, assorti d’un accord de licence lui permettant à l’inventeur de ChatGPT d’utiliser plus de 200 personnages iconiques de ses franchises Marvel, Pixar et Star Wars dans ses outils d’intelligence artificielle.

Un contrat de trois ans

Dans le cadre de ce contrat de trois ans, les utilisateurs de ChatGPT et de Sora, l’outil de génération vidéo, pourront créer des images et de courtes vidéos mettant en scène Mickey Mouse, Cendrillon, Simba ou encore Dark Vador.

L’accord, qui démarre en janvier 2026, prévoit l’exclusivité pour OpenAI durant la première année concernant l’utilisation des personnages Disney mais, comme le précise Bloomberg, ne pourra pas exploiter la propriété intellectuelle du groupe pour entraîner ses modèles. Il exclut toute utilisation de l’image ou de la voix des acteurs. Un utilisateur pourra ainsi générer une vidéo avec Woody de Toy Story, mais sans la voix de Tom Hanks.

Disney va utiliser les APIs

En échange de cette licence, Disney prendra une participation d’un milliard $ dans OpenAI, valorisée à 500 milliards $. Le groupe recevra également des bons de souscription lui permettant d’acquérir des parts supplémentaires à un prix symbolique durant la durée du contrat. Disney devient par ailleurs un client  d’OpenAI, utilisant ses API pour développer de nouveaux produits et expériences, notamment pour Disney+, et déploiera ChatGPT en interne pour ses employés.

Pour Bob Iger, le PDG de Disney, cette alliance marque une évolution stratégique face aux bouleversements technologiques. « Aucune génération humaine ne s’est jamais opposée au progrès technologique, et nous n’avons pas l’intention d’essayer », a-t-il déclaré sur CNBC.
Selon le FT, il s’agit du plus important accord conclu à ce jour entre une entreprise d’IA et un groupe médias qui ont dû composer avec l’expansion rapide d’OpenAI et ses implications pour leur propriété intellectuelle.

Tandis que le New York Times poursuit OpenAI en justice, d’autres éditeurs comme News Corp ont préféré négocier des accords de licence.

Disney lui-même a adopté une approche ferme sur la protection de ses droits. Selon  Bloomberg, le groupe a adressé mercredi soir une lettre de mise en demeure à Google, l’accusant de violer massivement ses droits d’auteur en utilisant ses contenus pour entraîner ses propres outils d’IA. Disney et Comcast ont également poursuivi Midjourney, une entreprise de génération d’images par IA, pour violation de droits d’auteur.

Des syndicats vigilants, des artistes inquiets

L’annonce a suscité des réactions contrastées dans le milieu créatif hollywoodien. La Writers Guild of America s’est montrée particulièrement critique, estimant dans une note à ses membres qu’OpenAI et d’autres entreprises d’IA ont « volé » d’importantes bibliothèques d’œuvres créées par ses membres. « L’accord de Disney avec OpenAI semble cautionner ce vol et céder la valeur de ce que nous créons à une entreprise tech qui a bâti son business sur notre dos  », dénonce le syndicat selon Bloomberg.

Le syndicat des acteurs SAG-AFTRA a adopté un ton plus mesuré, affirmant que Disney et OpenAI l’avaient contacté pour offrir des assurances sur l’utilisation éthique et responsable de la technologie.

The post Disney investit 1 milliard $ dans OpenAI appeared first on Silicon.fr.

Microsoft ouvre son bug bounty au code tiers

12 décembre 2025 à 15:46

Microsoft vise plus large avec son programme bug bounty.

Le voilà désormais susceptible d’indemniser la découverte de failles dans des dépendances. Il s’engage plus précisément à récompenser les signalements de vulnérabilités critiques qui touchent directement ses services en ligne indépendamment de la provenance du code concerné – si ce dernier n’est pas déjà couvert par un bug bounty.

Autre évolution : tous les services en ligne de Microsoft sont maintenant inclus par défaut, sans restriction de périmètre. Cela vaut aussi pour les nouveaux services, dès leur publication.

Ces règles s’appliquent depuis le 11 décembre 2025. Elles sont rétroactives sur 90 jours.

Les vulnérabilités Hyper-V, potentiellement les plus lucratives

Le programme de bug bounty englobait déjà les composants tiers (ouverts ou propriétaires), mais inclus dans les services Microsoft.

Aux dernières nouvelles, les récompenses peuvent monter jusqu’à 100 000 $ pour les vulnérabilités qui affectent des services d’identité (compte Microsoft, ADD et certaines implémentations d’OpenID). C’est 60 k$ pour Azure ; 30 k$ pour Copilot ; 20 k$ pour Azure DevOps, Dynamics 365/Power Platform et l’API Defender for Endpoint ; 19,5 k$ pour Microsoft 365 ; 15 k$ pour .NET Core/ASP.NET Core et pour certains dépôts open source de Microsoft.

Sur la partie endpoints et on-prem, on atteint 250 k$ pour Hyper-V ; 100 k$ sur Windows Insider Preview ; 30 k$ sur Edge ; 15 k$ sur Microsoft 365 Insider.

En 2023 comme en 2024, le montant total des récompensés distribuées a avoisiné 17 M$, répartis à chaque fois entre un peu moins de 350 chercheurs.

À consulter en complément :

Microsoft 365 : un vol de données assisté par Copilot
ToolShell, cette faille SharePoint qui s’est construite en plusieurs temps
Project Zero (Google) change sa politique de divulgation de vulnérabilités
Roni Carta (Lupin & Holmes) : « Avec la cybersécurité offensive, notre objectif est de lutter contre les failles de la supply chain logicielle »

Illustration générée par IA

The post Microsoft ouvre son bug bounty au code tiers appeared first on Silicon.fr.

{ Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage

12 décembre 2025 à 13:45

Il y a quelque temps, le dirigeant de l’une des plus grandes entreprises tech au monde expliquait dans un podcast que les organisations qui utilisent l’intelligence artificielle (IA) pour accroître leur productivité et stimuler l’économie seront les véritables gagnants de cette révolution.

Cette déclaration met en lumière les avancées concrètes observées avec l’IA générative, en particulier avec les petits modèles de langage (SLM) et les agents d’IA. Moins visibles que les grands modèles de langage (LLM) qui équipent sur les ordinateurs portables et les smartphones, les SLM offrent des avantages remarquables et des applications concrètes pour les équipes terrain, notamment dans des secteurs comme celui de la distribution.

Une sélection de SLM dédiés, intégrée à une suite d’agents d’IA, peut être optimisée de manière efficace pour l’automatisation intelligente de tâches spécifiques. Ces capacités d’IA permettent aux équipes terrain de capturer facilement le contexte de leurs workflows, puis de l’intégrer directement dans un terminal mobile doté d’agents d’IA afin d’améliorer la productivité, l’expérience client, et renforcer la visibilité des actifs.

Rendre l’IA réelle

Les SLM sont également idéaux pour des capacités d’IA embarquée (on-device AI). Ils apportent cette technologie directement sur des terminaux mobiles, transportables et autres terminaux aux ressources limitées, permettant ainsi des fonctionnalités telles que les assistants vocaux hors ligne et la traduction en temps réel.

Les agents d’IA basés sur des SLM permettent de mettre en œuvre des applications d’edge computing, en traitant les données au plus près de leur source, ce qui réduit la latence et la consommation de bande passante.

Cette technologie offre des avantages significatifs aux équipes terrain dans la distribution, les entrepôts et la logistique, en améliorant la prise de décision en temps réel et l’efficacité opérationnelle. Voici quelques exemples d’agents IA générés par des SLM :

1. Agent de connaissances : capable d’interagir en langage naturel avec les supports de formation et les procédures opérationnelles standards pour faciliter l’intégration des collaborateurs, et leur fournir l’information dont ils ont besoin dès qu’ils en ont besoin.

2. Agent de vente : aide à répondre aux questions des clients et collaborateurs, interroge en direct les stocks et les prix, et propose des recommandations de vente croisées ou additionnelles.

3. Agent de merchandising : combine reconnaissance d’image embarquée et vision par ordinateur pour automatiser l’analyse de l’état des rayons, identifier les ruptures, erreurs de placement, non-conformités planogramme ou erreurs de prix et de signalétique.

L’IA au bon moment, et sans cloud

Les SLM embarqués présentent des avantages particulièrement intéressants pour les équipes informatiques, innovation et techniques, notamment en matière de confidentialité :

● Confidentialité renforcée : les données de l’utilisateur ne quittent en effet jamais l’appareil, ce qui réduit le risque de violation de données et garantit un meilleur contrôle des informations personnelles.

● Faible latente : le traitement s’effectue localement, sans qu’il soit nécessaire d’interroger un serveur éloigné. Les réponses sont ainsi quasi instantanées, ce qui est essentiel pour les applications en temps réel, telles que les assistants vocaux ou la traduction.

● Réduction des coûts de bande passante et de cloud : comme les données ne sont plus systématiquement envoyées dans le cloud, le traitement local diminue l’usage des données mobiles et les dépenses liées au calcul des LLM dans le cloud.

● Fonctionnalités hors-ligne : lorsque les LLM sont intégrés aux appareils, l’IA peut continuer à fonctionner sans connexion Internet, ce qui est particulièrement utile dans les zones où la connectivité est limitée ou instable.

L’avenir est aux agents d’IA multimodaux

Le futur de l’IA est intrinsèquement multimodal. Les êtres humains n’expérimentent pas le monde uniquement par le texte ; ils utilisent tous leurs sens. L’IA doit faire de même en s’appuyant sur tous ces « sens » pour réellement comprendre et interagir efficacement avec le monde.

La bonne nouvelle, c’est que les SLM et les agents IA peuvent être multimodaux, comme dans l’exemple de l’agent merchandising évoqué précédemment. Pour exploiter pleinement leur potentiel, notamment lorsqu’ils sont déployés sur des appareils en périphérie, ils doivent justement être multimodaux, et ne pas se limiter au traitement et à la génération de texte. Deux approches principales permettent d’atteindre cet objectif :

● Les SLM multimodaux intégrés sont conçus pour traiter plusieurs modalités directement. Cette approche est la plus efficace, mais elle requiert un travail de conception et d’entraînement particulièrement méticuleux.

● Les systèmes multimodaux modulaires combinent un SLM avec des modèles spécialisés distincts (par exemple un modèle de reconnaissance d’images ou de transcription de la parole en texte). Le SLM joue alors le rôle de coordinateur en traitant le texte et en interagissant avec les autres modèles selon les besoins.

La tendance est aux SLM multimodaux plus intégrés, à mesure que la technologie évolue et que l’entraînement des modèles, même complexes, gagne en efficacité. Toutefois, une approche modulaire reste souvent plus simple et plus rentable à court terme.

L’avenir reposera probablement sur une combinaison des deux approches, en fonction des cas d’usage et des ressources disponibles. Les travaux de R&D actuels permettront de créer des SLM multimodaux intégrés et des agents IA plus efficaces et plus puissants, tout en développant des systèmes modulaires robustes, faciles à personnaliser et à déployer sur une large gamme d’appareils.

L’objectif est de permettre à des systèmes d’IA de comprendre le monde à travers plusieurs prismes, afin d’offrir des interactions plus naturelles, intuitives et efficaces avec les humains et leur environnement. L’IA qui améliore le travail au quotidien sera la véritable gagnante de demain.

*Andrea Mirabile est directeur global de la recherche en intelligence artificielle de Zebra Technologies

The post { Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage appeared first on Silicon.fr.

VMware exclut l’UE de la marche forcée vers VCF

12 décembre 2025 à 13:44

Chez VMware, fini le catalogue de prix unifié pour l’EMEA (Europe, Moyen-Orient, Afrique).

Il y a désormais deux catalogues. Respectivement pour l’Espace économique européen (UE + Islande, Liechtenstein et Norvège) et pour les autres pays de cette zone.

VVF et vSphere Enterprise+ maintenus dans l’UE, mais jusqu’à quand ?

La différence n’est pas des moindres : hors de l’EEE, les offres VVF (vSphere Foundation) et VSEP (vSphere Enterprise+) ne sont plus commercialisées.

Ne restent que VSS (vSphere Standard) et VCF (Cloud Foundation).
Le premier change de modèle : il devient un SKU sans durée déterminée, à 70 $/cœur/an – soit le tarif jusque-là appliqué pour un an d’engagement.
Le second voit son prix augmenter de 350 à 400 $/cœur/an.
En parallèle, le module complémentaire Private AI Foundation n’est plus disponible.

La nouvelle politique commerciale hors EEE impose par ailleurs le fameux minimum de 72 cœurs.
Ce minimum s’entend par ligne de commande – en d’autres termes, par édition de produit VMware. Broadcom l’appliquait déjà depuis avril… en dehors de l’EMEA. L’examen de son cas par la Commission européenne a probablement motivé cette exception et la décision de la faire perdurer dans l’EEE.

VCF comme offre unique : on y va tout droit

vSphere Enterprise+ avait disparu de la gamme VMware une première fois, quelques semaines après la fusion avec Broadcom. Il avait finalement été réintroduit en novembre 2024, sans vSAN (stockage) ni NSX (réseau).
Depuis, on l’a continûment dit en sursis. Comme vSphere Standard, qui n’est déjà plus vendu en APAC (Asie-Pacifique) depuis avril 2025 – et qui semble désormais ne plus l’être non plus en Amérique du Nord.

Ces offres sont d’autant plus sur la sellette qu’il n’est pas prévu qu’elles prennent en charge vSphere 9. Jusqu’à nouvel ordre, elles sont cantonnées au maximum à vSphere 8 (Update 3), dont le support général se termine en octobre 2027.

Les perspectives n’étaient pas beaucoup plus positives pour VVF. Surtout que VCF 9 a apporté plusieurs capacités favorisant les migrations depuis d’autres produits VMware, notamment pour l’importation NSX.

Illustration générée par IA

The post VMware exclut l’UE de la marche forcée vers VCF appeared first on Silicon.fr.

Fusion Broadcom-VMware : le CISPE muscle son recours en annulation

12 décembre 2025 à 09:09

La structure de financement de la fusion Broadcom-VMware et les engagements de croissance associés auraient-ils dû alerter la Commission européenne ?

C’est l’opinion du CISPE, qui vient d’en faire part publiquement. En toile de fond, un recours que le lobby des fournisseurs cloud européens a introduit cet été auprès du Tribunal de l’UE. Il entend, par ce biais, faire annuler la décision de juillet 2023 par laquelle Bruxelles a autorisé Broadcom à acquérir VMware.

À ces fins, trois moyens sont invoqués. Selon le premier, la Commission européenne a omis d’examiner le risque de création ou de renforcement d’une position dominante – ainsi que d’une réduction significative de concurrence – sur le marché des logiciels de virtualisation des serveurs. Alors même, prétend le CISPE, qu’elle avait les éléments pour. Notamment des « avertissements remarquablement clairs » de personnes interrogées dans le cadre de son enquête de marché.

Le deuxième moyen dénonce une autre omission : l’analyse des risques de ventes groupées des logiciels VMware et des produits (software/hardware) de Broadcom. Le CISPE l’admet : la Commission européenne a affirmé que ces offres n’étaient pas complémentaires et qu’elles n’avaient pas les mêmes acheteurs. Il considère toutefois qu’elle n’en a pas donné de preuve concrète, sinon un renvoi à l’étude de marché. Elle n’aurait, par ailleurs, pas expliqué en quoi l’opération se distinguerait des acquisitions de CA Technologies et de Symantec, « qui ont toutes deux entraîné des ventes groupées et d’autres effets anticoncurrentiels similaires ».

Le troisième moyen pointe une omission d’enquête de manière approfondie au sujet des éventuels effets négatifs sur l’innovation sur tous les marchés affectés par l’opération.

Dette et promesses de croissance, d’indéniables indicateurs ?

Pour financer l’acquisition, Broadcom a levé environ 28,4 Md$ de dette, en plus de reprendre celle de VMware (autour de 8 Md$). Cette situation a engendré une « forte motivation » à monétiser rapidement la base VMware installée, assure le CISPE.

Pour ce qui est des engagements de croissance, le lobby se réfère à la promesse de Hock Tan de faire passer l’EBITDA de VMware d’une fourchette de 4,7-5Md$ à 8,5 Md$ dans un horizon de 3 ans après la fusion. Sur un marché en progression de seulement 5 à 8 % par an, une telle ambition ne pouvait raisonnablement être atteinte sans la stratégie commerciale agressive qui s’est ensuivie, estime-t-il.

672 jours pour publier la décision

Parallèmement à ce recours, le CISPE a déposé plainte début décembre auprès du Médiateur européen. Motif : Bruxelles a pris beaucoup trop de temps pour publier le texte complet de sa décision (672 jours en l’occurrence), qui n’a été attaquable qu’à partir de ce moment-là.

La Commission européenne a justifié ce délai par le droit des parties concernées à exiger la confidentialité de données commerciales sensibles. Et par le temps ainsi nécessaire pour s’accorder sur une version « épurée » du texte de la décision. Le CISPE rétorque que Broadcom en a profité pour jouer la montre.

La Commission européenne s’est concentrée sur le cas Marvell

Broadcom et VMware avaient signé leur accord de fusion le 26 mai 2022. Le 15 novembre, ils en avaient formellement notifié la Commission européenne. Cette dernière avait ouvert une enquête approfondie le 20 décembre.

Son avis préliminaire d’avril 2023 avait tracé les grandes lignes : le coeur du dossier porterait sur les effets de conglomérat au niveau des marchés des contrôleurs hôtes de bus Fibre Channel et des adaptateurs de stockage.

Sur les contrôleurs FC, le seul concurrent était Marvell. Bruxelles craignait que Broadcom ait la capacité de l’exclure en dégradant l’interopérabilité de ses contrôleurs FC et des logiciels de virtualisation serveur de VMware. Mais que ce dernier n’en aurait pas forcément la motivation, vu le risque de voir sa réputation de neutralité affectée.

Concernant les adaptateurs de stockage, les fabricants de serveurs seraient capables d’absorber les effets d’une certification retardée, avait jugé la Commission européenne. Un tel scénario n’affecterait pas significativement la concurrence, avait-elle ajouté ; tout comme d’ailleurs une dégradation de l’interopérabilité, d’autant plus que Broadcom ne jouissait pas d’une position dominante.

L’enquête a également englobé le marché des NIC et l’éventualité d’une vente liée des solutions logicielles de Broadcom et de VMware. Conclusion sur le premier point : le nouvel ensemble n’aurait pas la motivation économique de pratiquer une stratégie d’exclusion. Sur le second, il n’en aurait pas la capacité, les acheteurs étant distincts comme d’ailleurs les cycles d’achat.

Les engagements qui ont fait mouche

Face aux craintes exprimées, Broadcom avait proposé des engagements pour 10 ans. Principalement :

  • Garantir à Marvell un accès à ses API, à son kit de développement de pilotes, à sa suite de certification et à du support technique, au même niveau que pour sa propre division FC
  • Lui donner une visibilité complète sur ses pilotes de contrôleurs FC et lui permettre de les réutiliser et de les modifier, y compris pour développer ses propres pilotes
  • Opérer une séparation organisationnelle entre l’équipe chargée des contrôleurs FC et celle assurant certification et support technique

Soumis à un test de marché, ces engagements avaient convaincu. Broadcom avait  néanmoins dû en affiner quelques aspects. Dont :

  • Clarification de définitions et/ou élargissement de leur périmètre
  • Garantie de frais modiques pour l’accès aux éléments susmentionnés
  • Promesse d’octroyer cet accès en temps opportun
  • Pas de traitement de faveur pour les produits Broadcom dans le guide de compatibilité VMware
  • Suppression d’une clause qui donnait au nouvel ensemble la possibilité de développer des API pour usage interne de dev/test

Illustration générée par IA

The post Fusion Broadcom-VMware : le CISPE muscle son recours en annulation appeared first on Silicon.fr.

Reçu — 11 décembre 2025 Silicon

Orange recrute Guillaume Poupard pour piloter sa stratégie de souveraineté numérique

11 décembre 2025 à 16:21

C’est l’info mercato de cette fin d’année dans le secteur cyber. Révélée hier par l’Informé, elle est confirmée ce jour par un communiqué de presse officiel : Orange a recruté Guillaume Poupard au poste nouvellement créé de Chief Trust Officer.

Rattaché directement à Christel Heydemann, sa directrice générale, il rejoindra l’opérateur le 1er février 2026.

Figure du monde de la cybersécurité française, Guillaume Poupard a dirigé l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) pendant huit ans, de 2014 à 2022, période durant laquelle il a travaillé au renforcement du dispositif français de cyberdéfense et plus généralement à sensibiliser sur les enjeux économiques liés aux risques cyber.

Accélérer sur la cybersécurité et le cloud de confiance

Depuis 2022, il occupait le poste de directeur général adjoint de Docaposte, la filiale numérique de La Poste, où il supervisait les actifs technologiques stratégiques : cybersécurité, intelligence artificielle et cloud.

Que va faire Guillaume Poupard au sein de l’opérateur ? Définir et incarner la stratégie d’Orange en matière de souveraineté et de confiance numérique. Concrètement, il devra accélérer le développement, en collaboration avec les entités Orange Business et Orange Cyberdéfense, d’offres innovantes dans trois domaines clés : la cybersécurité (grand public et entreprises), le cloud de confiance et l’intelligence artificielle souveraine.

Des secteurs en pleine croissance mais où la concurrence fait rage. Au classement Numeum 2024 des ESN, Orange Business occupe la cinquième place avec un chiffre d’affaires de 1,8 milliard € ( sur un total de 7,8 milliards) quand Orange Cyberdéfense a enregistré des revenus de 1,2 milliard sur cette période.

 

 

The post Orange recrute Guillaume Poupard pour piloter sa stratégie de souveraineté numérique appeared first on Silicon.fr.

Plate-forme Data : comment la Matmut a fait son entrée chez S3NS

11 décembre 2025 à 13:26

L’échéance approche : le 16 décembre 2025, la Matmut éteindra sa plate-forme data sur site.

Ce socle Spark-Hadoop avait été constitué en 2017, avec la stack open source Cloudera. Sur le papier, il est resté à son statut de PoC. Dans les faits, il est devenu de la prod.

En 2022, à l’arrivée d’un nouveau CDO, deux visions de modernisation se sont confrontées.
Le CTO prônait une plate-forme unifiée, avec un outil proche de ceux déjà en place. Une option qui assurerait un support éditeur large, mais induirait des efforts supplémentaires de développement pour les équipes data, de gestion pour les équipes de production, et de formation pour l’usage par toutes les entités.
Le CDO portait l’idée d’une plate-forme full open source – toujours on-prem – avec une multitude de fournisseurs. Il en découlerait le besoin d’assurer un support pour pléthore de services, en plus de l’aspect formation (sur des nouveaux outils : ML, orchestrateur…).

Chez S3NS, pas d’immunité au CLOUD Act… mais du chiffrement que la Matmut maîtrise

Dans ce contexte, la Matmut a étudié la possibilité d’aller chez un hyperscaler. Elle s’est tournée vers S3NS et son offre « Contrôles locaux » (récemment renommée CRYPT3NS).

Jean-Jacques MokCette offre utilise des HSM (modules de sécurité matériels) fournis et hébergés par Thales. Elle « n’empêchera pas une instance américaine de demander à Google de dumper les données », a reconnu Jean-Jacques Mok, directeur de programme cloud au sein de la Direction du numérique et de l’innovation de la Matmut, lors du salon DEVOPS REX. Ce dump n’est toutefois pas fait en live, tempère-t-il : les données sont récupérées à froid. « Et ça tombe bien : c’est ce qui est crypté par le boîtier HSM. »

« Globalement, Google aura répondu aux injonctions, poursuit l’intéressé. Charge [aux États-Unis] de s’amuser ensuite à décrypter les données, [sachant que] les clés ne sont pas hébergées chez Google. » C’est effectivement la Matmut qui en a la maîtrise. Jean-Jacques Mok en donne une illustration : lorsqu’un des deux boîtiers HSM de la Matmut est tombé en panne, il a dû se rendre chez S3NS, qui ne pouvait pas lui-même en initialiser un autre.

Un socle BigQuery-Dataflow-Cloud Composer

La plate-forme montée chez S3NS s’articule autour de BigQuery, avec Dataflow pour les trasnsformations et Cloud Composer – version packagée d’Airflow – pour l’orchestration. « On a un peu déshabillé la mariée , admet Jean-Jacques Mok. C’est tout l’intérêt d’un cloud provider : on est venu chercher uniquement les services dont on avait besoin. »

Pour structurer les données, la Matmut est restée sur du classique : l’architecture médaillon (bronze = données brutes ; argent = données nettoyées ; or = données spécialisées). Il y a ajouté une zone vermeille ; qui, par rapport à la zone argent, est agnostique de la source des données.
Une autre zone, dite zone relais, a été mise en place. Une exigence « portée par les execs ». S’y trouvent toutes les données maîtres à envoyer vers le cloud.

La fin promise du « pot à bonbons »…

Le projet a duré environ un an et demi. « On [n’était] pas sur du lift & shift, mais sur une transformation de l’organisation data », précise Pascal Deshayes, président de TerraOps, qui a accompagné le projet (l’ESN a son siège à Rouen, comme la Matmut). Ne serait-ce que de par la transition depuis un système intégralement sur site, avec, entre autres, un CI/CD « pas du tout automatisé ».

Il a fallu faire avec les limites de l’offre « Contrôles locaux », tant en termes de versions que de nombre de services managés utilisables. Un avantage, néanmoins : la facilité de prise en main par les consultants habitués à GCP.

« Maintenant qu’on a des utilisateurs et de la donnée, il faut qu’on soit capable de maîtriser cette consommation », explique Jean-Jacques Mok. Aujourd’hui, l’IT à la Matmut est encore un « pot à bonbons », concède-t-il : « Tout le monde pioche dedans jusqu’à ce qu’il n’y [ait plus de budget]. »

… et des accès en « open bar »

L’offre « Cloud de confiance » – celle pour laquelle S3NS postule à la qualification SecNumCloud – est en ouverture généralisée depuis quelques mois. La Matmut ne l’a pas encore adoptée. Elle y est toutefois appelée : c’est l’une des conditions qui ont permis d’aller vers ces services.

Avec RGPD, DORA et CSRD en toile de fond, la migration est aussi l’occasion de mieux encadrer le lignage des données et les accès. « Sur l’ancienne plate-forme, c’était complètement open bar, déclare Jean-Jacques Mok. Là, on revient à un cadre plus standard : tu n’accèdes qu’à la donnée [qui t’est autorisée] et surtout, tu vas demander [aux propriétaires] le droit de la consommer ».

La Matmut ne le cache pas : quitter un mode Spark-Hadoop pour un monde orienté services managés basés sur BigQuery implique de retravailler le plan de carrière de certaines personnes. « Il faut qu’ils comprennent que le modèle SAS ne va pas durer éternellement », glisse Jean-Jacques Mok…

Illustration principale © Stéphane Tatinclaux

The post Plate-forme Data : comment la Matmut a fait son entrée chez S3NS appeared first on Silicon.fr.

Avec SecNumCloud en perspective, Numspot voit au-delà d’OUTSCALE

11 décembre 2025 à 09:18

Langage commun, standardisation des processus, portabilité… Autant de notions dont Gaspard Plantrou, chef produit de Numspot, use pour vanter « l’indépendance numérique portée par Kubernetes ».

Cette grammaire se retrouve dans la dernière annonce de l’entreprise. Laquelle a décidé d’aller au-delà du socle OUTSCALE, en fournissant un plan de contrôle « à la Red Hat » unifiant la gestion des environnements d’infrastructure.

Kubernetes sera la base de cette plate-forme qui englobera des services managés et des fonctions data/IA (modèles, agents et RAG), avec une console et des API unifiées. Une marketplace de services préconfigurés y sera adossée. Numspot compte la déployer en Europe auprès de fournisseurs d’infrastructure, en s’alignant sur les référentiels nationaux équivalents à SecNumCloud. Une vente en marque blanche est envisagée. Des discussions sont en cours avec des sociétés en Allemagne, en Espagne et en Italie.

L’ensemble doit prendre forme au deuxième semestre 2026. Numspot promet une capacité d’adaptation « dynamique » du niveau de confiance. À commencer sur son infra chez OUTSCALE, composée d’une région eu-west « souveraine » et d’une région cloud-gov en cours de qualification SecNumCloud (J1 validé au printemps, audit J2 récemment finalisé).

Une dizaine de clients/projets référents

Pour le moment, 3 ans après sa création, Numspot a à son catalogue les services suivants :

  • Gestion : console et IaC
  • Calcul : VM et GPU NVIDIA
  • Réseau : VPC, IP publiques, VPN, DirectLink, load balancer
  • Stockage : bloc, objet, snapshots
  • Base de données : PostgreSQL
  • Conteneurs : Kubernetes et OpenShift
  • Sécurité/identité : IAM

Une brique d’observabilité (logging et métriques) est sur la roadmap. On y trouve aussi un registre de conteneurs, un catalogue d’images de VM, du BYOK, du MongoDB et du Redis-like, du KMS, un WAF et du CI/CD (GitLab).

Numspot liste 25 partenaires dont 10 éditeurs (ALLONIA, CEO-Vision, Cleyrop, CobolCloud, Denodo, Docaposte, Energisme, Red Hat, Veeam et VirtualBrowser). Il nomme une dizaine de clients/projets référents, dans la finance/assurance, la santé et le secteur public :

  • CISIRH (Centre interministériel de services informatiques relatifs aux ressources humaines)
  • CNP Assurances
  • Docaposte
  • Domelior (services de soins à domicile ; petite entreprise bretonne)
  • ERAFP (complémentaire de la fonction publique)
  • Maisons France services
  • M.I.A. Seconde (application d’adaptive learning pour les professeurs en seconde générale)
  • Pavillon de la Mutualité (groupe d’offre de soins mutualiste en Nouvelle-Aquitaine)
  • Perfecto Groupe (agence de com francilienne)
  • Service civique national
  • Union Retraite (GIP qui réunit les organismes de retraite obligatoire, de base et complémentaire)

The post Avec SecNumCloud en perspective, Numspot voit au-delà d’OUTSCALE appeared first on Silicon.fr.

Reçu — 10 décembre 2025 Silicon

C’est quoi RSL 1.0, le standard qui veut protéger les éditeurs face à l’IA ?

10 décembre 2025 à 16:57

Une coalition d’acteurs majeurs de l’internet vient d’officialiser Really Simple Licensing (RSL) 1.0, le premier standard de licence conçu pour protéger le contenu à l’ère de l’IA, offrant un langage universel pour définir comment les contenus peuvent être utilisés.

Développé par le comité technique RSL en collaboration avec les éditeurs de contenus tels que Yahoo, Ziff Davis et O’Reilly Media, RSL 1.0 s’appuie sur la simplicité du format RSS pour créer des conditions de licence lisibles par les machines. Le standard dépasse les simples règles binaires du fichier robots.txt en établissant un cadre économique adapté à l’internet soumis au développement de l’IA.

Le président du comité technique RSL, Eckart Walther, considère que cette publication représente un point d’inflexion pour l’internet ouvert, car elle instaure clarté et transparence dans les droits sur le contenu, tout en permettant à l’innovation de s’exercer.

Des fonctionnalités avancées

RSL 1.0 introduit plusieurs innovations majeures :

Contrôle granulaire des usages IA : Le standard définit de nouvelles catégories d’utilisation du contenu avec les balises « ai-all », « ai-input » et « ai-index ». Ces options permettent aux éditeurs d’autoriser les moteurs de recherche à indexer leur contenu tout en refusant son utilisation dans des applications de recherche IA.

Protection des communs numériques : En partenariat avec Creative Commons, RSL 1.0 intègre un système de licence basé sur les contributions. Cette approche vise à soutenir l’écosystème non commercial qui alimente des milliards de pages web, de dépôts de code et d’ensembles de données constituant le « commons numérique » – ce patrimoine partagé de connaissances librement accessibles sur internet.

Un soutien de l’industrie

L’initiative a suscité un soutien de la part de l’écosystème numérique. Des organisations d’infrastructure comme Cloudflare, Akamai et l’IAB Tech Lab ont annoncé leur adhésion au standard. Du côté des médias, Associated Press, Vox Media, USA Today, le Boston Globe Media, BuzzFeed, Stack Overflow et The Guardian font partie des nouveaux venus, rejoignant des centaines d’autres marques médias.

Au total, plus de 1500 organisations médiatiques, marques et entreprises technologiques à travers le monde soutiennent désormais RSL, couvrant des milliards de pages web qui représentent la majorité du contenu internet professionnel utilisé pour entraîner les modèles d’IA.

Will Allen, vice-président produit chez Cloudflare, souligne que la licence lisible par les machines sera une caractéristique importante pour l’avenir du web. De son côté, la PDG de Creative Commons, Anna Tumadóttir, rappelle l’importance des options de partage équitable au-delà des licences commerciales pour maintenir l’accès aux connaissances à l’ère de l’IA.

Un modèle économique pour l’ère de l’IA

RSL 1.0 ne se contente pas de définir des règles techniques. Doug Leeds, co-PDG et cofondateur du RSL Collective – une organisation à but non lucratif pour les droits collectifs des créateurs numériques – affirme que pour quiconque tire ses revenus de la publication de contenu en ligne, RSL 1.0 est une évidence. C’est ce qui explique le large soutien provenant de tous les secteurs de l’écosystème internet, des grandes entreprises médiatiques aux organisations d’infrastructure qui définissent le fonctionnement du web.

Le standard arrive à un moment critique où les questions de droits d’auteur et d’utilisation du contenu par les systèmes d’IA font l’objet de nombreux débats juridiques. RSL 1.0 propose un cadre pragmatique pour résoudre ces tensions en offrant aux créateurs de contenu les outils pour définir précisément leurs conditions d’utilisation, tout en permettant aux développeurs d’IA d’accéder légalement aux ressources dont ils ont besoin.

L’arrivée de RSL 1.0 représente plus qu’une simple norme technique : c’est une tentative de rééquilibrer les relations de pouvoir dans l’économie numérique. En donnant aux éditeurs et créateurs les moyens de contrôler l’utilisation de leur travail par les systèmes d’IA, tout en préservant les principes d’ouverture et de partage qui ont fait la richesse d’internet, RSL 1.0 pourrait tracer la voie vers un modèle plus durable et équitable pour tous les acteurs de l’écosystème numérique.

La spécification complète est accessible sur le site rslstandard.org, où les développeurs et éditeurs peuvent découvrir comment implémenter ce nouveau standard dans leurs applications et sites web.

Selon nos observations, aucun éditeur français n’est engagé pour le lancement dans l’initiative RSL 1.0.

The post C’est quoi RSL 1.0, le standard qui veut protéger les éditeurs face à l’IA ? appeared first on Silicon.fr.

Pourquoi Adobe s’invite dans ChatGPT

10 décembre 2025 à 15:52

Adobe va intégré Photoshop, Adobe Express et Acrobat dans ChatGPT. Les utilisateurs pourront taper une requête dans ChatGPT pour retoucher des photos, créer un graphique, animer des designs ou résumer un PDF, déclenchant automatiquement l’outil correspondant.

Adobe va ainsi toucher les 800 millions d’utilisateurs actifs hebdomadaires de ChatGPT qui devront créer un compte Adobe pour utiliser les applications au sein de ChatGPT.

Ce lancement s’appuie sur l’annonce d’Adobe fin octobre, lorsque l’entreprise avait remanié ses outils de montage vidéo et d’édition d’images pour permettre aux utilisateurs d’exécuter des tâches via des assistants IA conversationnels. L’intégration dans ChatGPT s’inscrit dans la continuité de cette innovation en matière d’IA agentique et du protocole MCP.

Une adaptation aux bouleversements de l’IA

En août dernier, Adobe avait lancé Acrobat Studio, transformant les documents statiques en espaces de travail interactifs alimentés par l’IA. Lors de sa conférence Adobe MAX, l’éditeur avait également présenté des assistants IA pour Photoshop et Adobe Express, permettant à chacun de créer en utilisant ses propres mots et d’affiner les résultats avec les outils de classe mondiale de l’entreprise.

Son accord avec OpenAI intervient à un moment où Adobe intensifie ses efforts pour s’adapter aux transformations engendrées par l’IA dans les marchés du design professionnel, tout en élargissant sa portée auprès de nouveaux publics qui découvrent ses applications pour la première fois.

Les termes financiers de l’accord ne sont pas dévoilés.

The post Pourquoi Adobe s’invite dans ChatGPT appeared first on Silicon.fr.

L’Agentic AI Foundation veut imposer les standards de l’IA autonome

10 décembre 2025 à 15:17

Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.

OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.

Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM  Salesforce.

L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.

Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.

Trois briques technologiques au cœur du dispositif

L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.

De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.

OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.

Un soutien des géants du cloud

L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.

Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.

Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.

The post L’Agentic AI Foundation veut imposer les standards de l’IA autonome appeared first on Silicon.fr.

❌