Vue normale

Gouvernance des données : pourquoi il devient difficile de choisir une solution

13 janvier 2026 à 14:15

En se connectant aux agents IA embarqués, les solutions de gouvernance des données se rapprochent des applications métier.

Gartner signale cette tendance dans le cadre de son Magic Quadrant. Les acquisitions d’Informatica par Salesforce et de data.world par ServiceNow y font écho, estime-t-il.

Le cabinet américain relève d’autres marqueurs d’évolution du marché de la data governance. La gestion des données non structurées en fait partie. Avec l’IA en ligne de mire, les fonctionnalités se sont développées jusqu’à la vectorisation.

Convergences et chevauchements

Il y a un an, Gartner avait déclaré que la notion de plate-forme restait émergente sur ce marché. Historiquement axés sur l’exécution des politiques de gouvernance plus que sur leur mise en œuvre (data stewardship), les outils manquaient encore de liant, observait-il.

Son propos est moins affirmatif cette année. Mais au fond, le constat demeure : en pratique, plusieurs solutions autonomes sont souvent utilisées en parallèle (sécurité, qualité, confidentialité de la donnée, etc.). Elles occasionnent parfois des chevauchements fonctionnels.

Ces chevauchements sont accentués par l’évolution d’applications telles que les ERP et les CRM/CDP, qui en viennent à inclure des fonctionnalités de gouvernance des données. Ils le sont aussi par l’évolution du data management. Lequel, en connectant les silos de données par des approches comme le data mesh et la data fabric, devient plus à même d’automatiser cette gouvernance à l’appui de machine learning et de modèles sémantiques.

L’IA agentique, un discours plus qu’un état de fait

La hype autour de l’IA a ajouté à la confusion, menant nombre de fournisseurs de solutions classées dans la catégorie data management à prétendre pouvoir « automatiser la gouvernance ». C’est exagéré, avertit Gartner : au mieux, cette automatisation touche des tâches spécifiques comme la découverte d’entités ou la remédiation.

Même avertissement quant au discours sur la gouvernance à renfort d’agents IA : on le prendra comme une promesse – celle d’automatiser les workflows alimentés par les métadonnées actives* – plutôt qu’un état de fait.

La gouvernance de l’IA s’est développée plus nettement, avec l’arrivée de capacités natives (workflows d’approbation automatisés, gestion du cycle de vie des modèles, évaluation continue du risque et des biais, reporting réglementaire…). En toile de fond, la concurrence d’autres types de solutions (cybersécurité, GRC…).

* La plupart des fournisseurs classés dans le Magic Quadrant de la data governance le sont aussi dans celui de la gestion des métadonnées. Les solutions relevant de ce marché visent toutefois plus large. Il y a celles « orientées data » et celles « orientées gouvernance ». Les premières s’adressent généralement à un public plus technique que les secondes, nécessitent moins d’extensibilité et ciblent la gestion des politiques plutôt que leur exécution.

Illustration © kwanchaift – Adobe Stock

The post Gouvernance des données : pourquoi il devient difficile de choisir une solution appeared first on Silicon.fr.

Via l’agentique, la gouvernance des données se rapproche des applications métier

13 janvier 2026 à 13:05

En matière de gouvernance des données, qu’est-ce qu’un déploiement « à grande échelle » ? Dans le cadre du Magic Quadrant dédié à ce marché, Gartner a défini trois planchers : 500 utilisateurs, 50 sources et 1000 assets.

Pour être classés, les fournisseurs devaient être en mesure de revendiquer au moins 10 de ces déploiements. Il fallait aussi, entre autres, figurer dans le top 25 sur un indice maison : le CII (Customer Impact Index). Il est calculé à partir d’éléments tels que le volume de recherches sur le site web de Gartner, le nombre de mentions dans ses Peer Insights, les tendances sur Google Search et le nombre d’abonnés sur X/LinkedIn.

AWS et Google, cités mais non classés

Le « critère CII » a coûté leur place à plusieurs offreurs néanmoins crédités d’une « mention honorable ». Parmi eux, Anjana Data et Global Data Excellence, tous deux classés dans l’édition précédente de ce Magic Quadrant.

Au rang des « mentions honorables », il y a aussi AWS et Google. Chez le premier, on obtient une solution de gouvernance data & analytics en associant les briques SageMaker, SageMaker Catalog et AWS Glue. Mais elle ne répond pas à l’un des critères fonctionnels exigés : l’extensibilité native entre environnements cloud. Avec Dataplex Universal Catalog, Google en propose bien une, mais elle dépend de fournisseurs tiers comme Collibra et Informatica.

15 fournisseurs, 5 « leaders »

D’une année sur l’autre, les catalogues de données ont évolué vers des « catalogues d’insights » permettant de rechercher des produits data. Ils se sont aussi rapprochés des applications métier sous le prisme de l’IA agentique (en se connectant aux agents embarqués). Dans ce contexte sont intervenues deux acquisitions notables : Informatica par Salesforce et data.world par ServiceNow.

De 3 « leaders » l’an dernier, on est passé à 5 : Alation et Atlan ont rejoint Collibra, IBM et Informatica.

Sur l’axe « exécution », qui traduit la capacité à répondre effectivement à la demande du marché, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 IBM + 1
2 Collibra + 1
3 Microsoft nouvel entrant
4 Atlan + 1
5 Informatica – 4
6 Alation =
7 BigID nouvel entrant
8 Alex Solutions – 1
9 Ab Initio + 4
10 Ataccama – 2
11 ServiceNow (data.world) =
12 Precisely – 8
13 DataGalaxy – 4
14 OvalEdge – 2
15 Solidatus – 1

Sur l’axe « vision », qui reflète les stratégies (commerciale, marketing, sectorielle, géographique…) :

Rang Fournisseur Évolution annuelle
1 Collibra + 2
2 Informatica – 1
3 IBM – 1
4 Atlan =
5 Alation =
6 ServiceNow =
7 Alex Solutions =
8 Precisely + 4
9 Microsoft nouvel entrant
10 BigID nouvel entrant
11 Ab Initio + 2
12 Ataccama – 4
13 OvalEdge – 2
14 DataGalaxy – 4
15 Solidatus – 1

Alation, pas encore mature sur la déclaration de politiques pour les produits data

Alation se distingue par le niveau d’ouverture de sa plate-forme, qui favorise la portabilité et met l’accent sur la flexibilité d’hébergement des données. Bon point également pour l’usage de l’IA, notamment pour la gestion de politiques, les contrôles de qualité des données et le dépannage. Gartner apprécie aussi l’écosystème de partenaires, qui favorise l’interopérabilité dans les environnements data & analytics.

On prendra garde aux efforts de gestion du changement et de montée en compétence que suppose l’adoption de fonctionnalités avancées tel le constructeur de produits data. Vigilance également sur les capacités natives de déclaration de politiques au niveau de ces mêmes produits data : elles ne sont sont pas aussi matures que chez la concurrence. Attention aussi au fait que certains modules (data quality, par exemple) ne sont livrés par défaut qu’avec la version cloud.

Chez Atlan, un point d’interrogation sur les déploiements à grande échelle

Gartner apprécie l’architecture de la solution, fondée sur un cœur Apache Iceberg qui favorise l’exploitation des métadonnées. Il salue également les outils fournis pour développer des connecteurs et des agents de gouvernance. Ainsi que, plus globalement, la dynamique commerciale d’Atlan (croissance de la base client et des revenus supérieure à celle des concurrents).

En natif, Atlan ne propose pas de profilage avancé des données ni de workflows de data quality (il s’appuie sur des partenaires comme Anomalo et Ataccama). Autre élément : les options de déploiement sur site et en cloud privé sont limitées. Par ailleurs, près des trois quarts des clients ne sont pas des grandes entreprises ; des clients déplorent d’ailleurs des performances réduites sur les déploiements à grande échelle.

Des écarts entre SaaS et on-prem chez Collibra…

Gartner apprécie le positionnement de Collibra en « plan de contrôle unifié » avec modèles natifs de data quality et d’observabilité. Il salue aussi l’écosystème de partenaires (AWS, Google, Infosys, Snowflake…) et le niveau de gouvernance de l’IA (la plate-forme fonctionne comme un registre documentant les modèles et mettant automatiquement en œuvre les politiques).

La parité fonctionnelle n’est pas systématique entre les modes de déploiement (la version SaaS sur AWS et GCP est la mieux dotée). Quant au modèle data quality/observabilité, il lui manque des fonctionnalités comme la supervision des données en flux et la déduplication. Attention aussi aux efforts nécessaires pour arriver à « maturité opérationnelle » avec la solution.

… comme chez IBM

Comme Alation, IBM a pour lui le niveau d’ouverture de sa solution, jugée adaptée aux environnements hybrides. Il se distingue aussi sur le niveau d’unification et de cohérence de la gouvernance entre data et IA. Ainsi que sur l’exécution de cas d’usages pertinents dans des domaines comme l’aide agentique à la gestion des tâches et la curation de données non structurées.

Comme chez Collibra, les produits SaaS et on-prem ne sont pas à parité fonctionnelle. Il y a aussi des écarts entre packages (par exemple, IBM Knowledge Catalog Standard ne donne pas accès à la gestion des règles, au contraire de watsonx.data intelligence). La migration depuis InfoSphere reste un défi, d’autant plus que le support à la gestion du changement manque. Attention aussi aux compétences nécessaires pour déployer la solution, la personnaliser et la passer à l’échelle.

Informatica, une feuille de route à surveiller sous l’ère Salesforce

Informatica est salué pour l’étendue de son catalogue d’intégrations et de ses partenariats avec les CSP. Il l’est aussi sur le volet automatisation, pour l’assistant CLAIRE Copilot et le moteur CLAIRE GPT (accès aux données en langage naturel). Gartner souligne également sa santé financière, son niveau d’investissement R&D et sa tarification flexible.

Si le modèle PaaS fluidifie le déploiement, un support additionnel peut se révéler nécessaire pour en tirer la valeur en fonction de la maturité du client. Attention aussi, d’une part, aux problèmes de disponibilité que peuvent poser les pannes chez les CSP partenaires. De l’autre, à l’évolution de la stratégie sour l’ère Salesforce.

Illustration © TensorSpark – Adobe Stock

The post Via l’agentique, la gouvernance des données se rapproche des applications métier appeared first on Silicon.fr.

Gestion des terminaux : les solutions unifiées n’ont pas encore effacé les outils ad hoc

12 janvier 2026 à 09:40

Les solutions de gestion unifiée des terminaux (UEM, Unified Endpoint Management) n’ont pas encore totalement comblé l’écart fonctionnel avec les outils ad hoc.

Gartner le souligne dans le premier Magic Quadrant qu’il dédie à ce marché. Cet écart se manifeste tant en termes de fiabilité que de rapidité et de granularité, explique le cabinet américain. D’où une tendance encore fréquente, du côté des acheteurs, à combiner les outils.

De la marge de progression, il y en a aussi sur l’aspect gestion autonome (AEM, Autonomous Endpoint Management). Pour le moment axée sur l’automatisation du patching, elle devrait s’étendre notamment à la gestion des configurations et des stratégies « dans les prochaines années ».

18 fournisseurs, 8 « leaders »

Les principaux critères à respecter sur le plan fonctionnel pour pouvoir figurer dans ce Magic Quadrant étaient les suivants (évalués au 1er août 2025) :

  • Disponibilité d’une version SaaS
  • Gestion, avec ou sans agent, de Windows, macOS, iOS/iPadOS et Android
  • Support natif de l’enregistrement/provisionnement d’appareils, du déploiement d’applications, de la gestion des mises à jour et de la mise en œuvre de configurations/stratégies
  • Contrôle d’accès basé sur les rôles

Il n’était pas obligatoire de gérer Chrome OS, Linux et l’IoT. Ni de fournir des composantes MDM/MAM, DEX (gestion de l’expérience employé numérique) ou des intégrations ITSM/CMDB. La fourniture d’un app store d’entreprise n’était pas non plus impérative. Même chose pour l’automatisation du patching des apps tierces et la possibilité de personnaliser le reporting.

En complément aux critères fonctionnels, il fallait couvrir au moins 5 millions d’endpoints actifs, hors offres gratuites (périodes d’essai, freemium, etc.). Addigy, Applivery, Automox, Fleet, Hexnode, Iru, Matrix42 et Scalefusion n’atteignaient pas ce seuil. Gartner leur a cependant attribué une « mention honorable ».

Les 18 fournisseurs classés le sont sur deux axes. L’un, dit « exécution », reflète la capacité à répondre effectivement à la demande du marché (expérience client, qualité des produits/services…). L’autre est centré sur les stratégies (commerciale, marketing, sectorielle, géographique…).

La situation sur l’axe « exécution » :

Rang Fournisseur
1 Microsoft
2 Tanium
3 NinjaOne
4 HCLSoftware
5 Jamf
6 Omnissa
7 Adaptiva
8 ManageEngine
9 IBM
10 42Gears
11 Ivanti
12 Atera
13 N-able
14 Kaseya
15 Google
16 Absolute Security
17 Samsung Electronics
18 Raynet

Sur l’axe « vision » :

Rang Fournisseur
1 Tanium
2 Omnissa
3 Microsoft
4 Adaptiva
5 Ivanti
6 HCLSoftware
7 IBM
8 NinjaOne
9 Jamf
10 Atera
11 ManageEngine
12 42Gears
13 Absolute Security
14 N-able
15 Kaseya
16 Raynet
17 Samsung Electronics
18 Google

Adaptiva, connu surtout comme un complément aux solutions Microsoft

Avec son offre OneSite (licence par appareil), Adaptiva est salué sur le volet automatisation ; et plus globalement pour les capacités de gestion à grande échelle qu’il propose, entre livraison P2P et intégration avec les outils d’entreprise. L’exhaustivité de ses partenariats éditeurs (CrowdStrike, Microsoft, SentinelOne, Tenable…) lui vaut aussi un bon point. Comme sa roadmap, jugée bien alignée sur la demande.

Si le produit ne manque pas de notoriété en tant que « compagnon » pour les solutions Microsoft, on ne peut pas en dire autant de la version autonome. Attention aussi à l’absence de MDM pour Android et iOS, tandis que sur les plates-formes prises en charge, l’enregistrement d’appareils doit passer par un client local. Adaptiva est par ailleurs en transition vers un modèle essentiellement indirect, ce qui est susceptible de limiter sa croissance à court terme.

Le SaaS de HCLSoftware, pas au niveau de la version on-prem

HCLSoftware a intégré son offre BigFix Workspace+ (licence par utilisateur ou par appareil) à un grand nombre de solutions ITOps et de sécurité/gestion des identités (Azure, Qualys, Rapid7, ServiceNow, Tenable…). Gartner salue aussi son réseau de revendeurs et de MSP. Ainsi que sa santé financière (marges importantes, croissance continue sur plusieurs segments) qui contribue à réduire le risque pour le client final.

Le SaaS n’est pas à parité avec la version sur site : des fonctionnalités ou des modules disponibles sur l’un ne sont pas encore pleinement configurables sur l’autre. Sur l’aspect expérience client, l’UI et le paramétrage ne font pas l’unanimité. Attention aussi à d’éventuelles modifications du modèle de licence à l’heure où HCLSoftware bascule vers une approche « service as software ».

IBM, plus cher et moins « focus »

Dans l’offre MaaS360 (licence par utilisateur et par appareil), Gartner apprécie la diffusion de la GenAI et du machine learning, entre détection des menaces et recommandation de stratégies. Il note aussi la couverture mondiale des équipes d’IBM et la flexibilité des options de déploiement. Ainsi que les fonctionnalités – scoring de risque, conformité continue… – qui favorisent la gestion autonome.

Manquant de notoriété hors de la partie MDM, l’offre MaaS360 n’est pas le focus d’IBM. Ce dernier ne cible par ailleurs pas de profils d’utilisateurs (personas) et propose une tarification plus élevée que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Jamf, encore largement Apple-centric

L’outil Jamf (licence par appareil) est reconnu comme un gold standard pour la gestion des appareils Apple. Fonctionnellement parlant, il se distingue notamment sur la profondeur de prise en charge de macOS. Gartner salue aussi le « contenu engageant » constitué autour de cette offre et la diversité des canaux par lesquels il est livré.

Le focus historique sur l’écosystème Apple a nécessairement limité le potentiel de croissance, tout en engendrant une certaine dépendance. Jamf a fini par s’ouvrir à Android, mais la démarche est récente. Au dernier pointage, l’entreprise n’est pas rentable (en normes comptables GAAP).

Problèmes de fiabilité chez Microsoft

Intune est le choix par défaut de beaucoup de clients Microsoft. Sa notoriété est d’autant plus importante que l’éditeur produit quantité de contenus à son sujet et les diffuse efficacement. Autre avantage : un effectif qui permet une livraison différenciée entre secteurs économiques et régions géographiques, avec de la flexibilité sur la localisation des données et du support.

Comme IBM, Microsoft ne cible pas de personas, que ce soit par métier ou par géographie. Les clients signalent régulièrement des problèmes de latence sur le reporting, la synchronisation des stratégies et le déploiement d’applications. Attention aussi à la courbe d’apprentissage que suppose Intune et aux défis qui peuvent se poser lors du dépannage de la solution.

L’IA, peu diffusée chez NinjaOne

L’offre NinjaOne Endpoint Management (licence par appareil) a une tarification plus basse que la moyenne. Et les bundles s’avèrent bien adaptés aux besoins des grandes entreprises comme des MSP. Gartner salue aussi le niveau d’expérience client (customer success managers, ressources en self-service…) et le sentiment généralement positif quant à la facilité d’usage de la solution. Il rappelle aussi la croissance de l’effectif et de la base client de NinjaOne, qui a bouclé début 2025 un tour de table de 500 M$.

Le focus historique était sur les MSP et sur le mid-market. Des évolutions sont en cours (plate-forme, intégrations, channel) pour toucher les grandes entreprises. NinjaOne a également de la marge de progression pour ce qui est de la notoriété de sa solution. Même chose pour la diffusion de l’IA, dont l’usage est encore limité.

Omnissa manque de clients référents

L’offre Workspace ONE UEM (licence par appareil ou par utilisateur) est jugée mature. Gartner apprécie les possibilités d’automatisation qu’elle apporte sur les principaux OS. Il salue aussi la stratégie sectorielle élaborée à renfort d’intégrations ciblées. Autre point distinctif : Omnissa est le seul « leader » de la gestion des terminaux à occuper cette même position dans le Magic Quadrant du DEX. Une combinaison qu’il met d’ailleurs à profit.

Quoique modulaire, l’offre est plus chère que la moyenne. Et Omnissa est de ceux qui ne ciblent pas de profils d’utilisateurs. Son site web manque de logos référents et d’études de cas, ce qui est susceptible de compliquer l’évaluation de sa solution. On se rappellera aussi que l’activité a été perturbée avec le passage dans le giron de Broadcom (2023) puis la revente au fonds KKR (2024).

Pas de MDM natif chez Tanium

Avec Tanium Endpoint Management (licence par appareil), la gestion autonome est un point distinctif. Autant par le contenu que l’éditeur produit à ce sujet que par la réalité du produit. L’éditeur est plus globalement profitable, dispose des certifications adéquates et couvre les principales géographiques tout en fournissant de la flexibilité d’hébergement.

Récemment repackagée, l’offre a une tarification plus élevée que la moyenne. Elle n’inclut pas de MDM natif (intégration d’Intune). Sur macOS, elle n’utilise pas la méthodologie « moderne » d’Apple, ce qui peut limiter l’automatisation et l’élasticité.

Illustration générée par IA

The post Gestion des terminaux : les solutions unifiées n’ont pas encore effacé les outils ad hoc appeared first on Silicon.fr.

À quoi sert la 6ème vitesse sur une boîte de vitesse manuelle ?

4 janvier 2026 à 08:00
À quoi sert réellement une boite de vitesse manuelle à 6 rapports ? Photo d'illustration non contractuelle. Crédit : Shutterstock

Vous pensiez que la 6e vitesse servait juste à rouler plus vite ? Moi aussi, jusqu’à ce que ma fille me pose LA question.

L’article À quoi sert la 6ème vitesse sur une boîte de vitesse manuelle ?, rédigé par Nathalie Kleczinski, est apparu en premier sur NeozOne.

Bases de données cloud : l’abondance de l’offre devient un défi

16 décembre 2025 à 15:17

Chez les principaux fournisseurs de bases de données cloud, il n’est plus si rare que des produits se chevauchent.

La synthèse du dernier Magic Quadrant dédié à ce marché en témoigne. La majorité des « leaders » (5 sur 9) ont droit à une remarque à ce sujet :

  • Alibaba Cloud
    Chevauchement entre AnalyticDB et Hologres (analytique) comme entre DMS et DataWorks (intégration de données).
  • AWS
    Grand choix de SGBD et d’options d’intégration… au prix de chevauchements et de conflits.
  • Google
    Plusieurs solutions pour Postgre (Cloud SQL, AlloyDB, Spanner) entre lesquelles il faut faire la balance.
  • IBM
    Chevauchements sur la partie entrepôt de données, entre les offres Db2 Warehouse, Neterra watsonx.data.
  • Microsoft
    Concurrence entre Azure Synapse, Microsoft Fabric et Azure Databricks.

Gérer les coûts reste un défi

Autre sujet largement partagé parmi les « leaders » : la gestion des coûts.

Elle est difficile chez AWS faute de tarification unifiée entre services.
Elle l’est aussi pour beaucoup de clients de Databricks, malgré des avancées sur l’outillage FinOps.
Chez Google, elle a tendance à se complexifier avec l’intégration de nouvelles fonctionnalités.
Concernant Oracle, la clientèle se plaint toujours des prix et de la difficulté de contractualisation, même si la tendance s’atténue avec le passage au cloud et son modèle de facturation à l’usage.
Concernant Snowflake, Gartner a un jugement plus spécifique : le côté « user-friendly » est susceptible de favoriser le développement d’un état d’esprit « black box », et par là même de limiter la capacité à optimiser les workloads.

Plusieurs de ces fournisseurs avaient déjà été épinglés à ce sujet il y a un an, dans l’édition précédente de ce Magic Quadrant.
Databricks, à cause de la difficulté à prédire les coûts avec le modèle fondé sur des unités de consommation.
Google, parce que le suivi des dépenses pouvait se révéler délicat, a fortiori lorsqu’on interfaçait aux bases de données des services fondés sur des unités de consommation.
Oracle, perçu, de par son historique, comme un fournisseur aux offres onéreuses.
Alibaba, chez qui la variété des modèles de pricing, combinée à une facturation découplée pour certaines ressources au nom de la flexibilité, pouvait s’avérer difficile à maîtriser.

20 fournisseurs, 9 « leaders »

D’une année à l’autre, les critères à respecter ont peu évolué. Il fallait toujours, entre autres, gérer au moins un cas d’usage parmi :

  • Transactionnel
  • Transactions « légères » (gros volumes à haute concurrence et basse latence)
  • Gestion d’état d’applications
  • Data warehouse
  • Lakehouse
  • Analyse d’événements

Une fois encore, Gartner n’a évalué que les offres managées, fournies en cloud public ou privé. Il n’a pas pris en compte les bases de données hébergées sur du IaaS.

Les 20 fournisseurs classés sont les mêmes que l’an dernier. Et les 9 « leaders » d’alors le sont restés. Dans l’ordre alphabétique : Alibaba Cloud, AWS, Databricks, Google, IBM, Microsoft, MongoDB, Oracle et Snowflake.

Sur l’axe « exécution », reflétant la capacité à répondre à la demande, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 AWS =
2 Google =
3 Microsoft + 1
4 Oracle – 1
5 Databricks =
6 Snowflake + 1
7 MongoDB – 1
8 IBM + 2
9 Alibaba Cloud – 1
10 InterSystems – 1
11 Huawei Cloud =
12 SAP =
13 Teradata =
14 Cloudera =
15 Couchbase + 3
16 SingleStore + 1
17 EDB + 3
18 Redis – 3
19 Neo4j – 3
20 Cockroach Labs – 1

Sur l’axe « vision », reflétant les stratégies :

Rang Fournisseur Évolution annuelle
1 Google =
2 Databricks + 3
3 Microsoft – 1
4 Oracle – 1
5 AWS – 1
6 Snowflake + 2
7 Alibaba Cloud + 3
8 IBM – 1
9 SAP – 3
10 Teradata – 1
11 MongoDB =
12 Cloudera =
13 InterSystems + 2
14 Neo4j =
15 Huawei Cloud + 1
16 EDB + 4
17 Couchbase =
18 SingleStore =
19 Redis – 6
20 Cockroach Labs – 1

Alibaba Cloud, distingué pour son approche « data + IA »…

Les principales offres d’Alibaba Cloud sur ce marché sont PolarDB et ApsaraDB (transactionnel), AnalyticDB et MaxCompute (analytique), Tair et Lindorm (clé-valeur).

L’a dernier, le groupe chinois avait été salué pour sa présence sectorielle importante et différenciée, le développement de son écosystème de partenaires et le poids de sa communauté open source.

Cette année, Gartner apprécie la tarification, jugée attractive. Ainsi que la fiabilité de l’architecture serverless. Désormais étendue à tous les SGBD, elle se distingue par son architecture découplant calcul, mémoire et stockage en environnement hybride. Bon point également pour l’approche « data + IA » qui permet de développer et de déployer des applications en n’utilisant que des technologies d’Alibaba Cloud.

… mais pas pour la configuration de PolarDB

L’an dernier, Gartner avait pointé, au-delà de la gestion des coûts, le risque géopolitique associé à Alibaba Cloud. Ainsi que la disponibilité encore limitée de ses servies hors de l’Asie (moins de régions et de zones de disponibilité que la concurrence).

Cette année encore, la faible présence hors Asie est signalée. Elle peut se traduire par un moins grand nombre d’intégrations d’outils tiers et de ressources en anglais (documentation, formation, support). Attention aussi à la configuration de PolarDB, jugée complexe par les nouveaux utilisateurs, notamment sur l’équilibre coût/performance et la gestion du stockage multicouche. Il faut y ajouter les chevauchements de produits sus-évoqués.

AWS a un catalogue d’une ampleur sans égale…

Aurora, Redshift, DynamoDB et SageMaker font partie des principaux produits d’AWS sur ce marché.

L’an dernier, Gartner avait salué la couverture fonctionnelle d’AWS et sa capacité à créer du liant entre ses solutions. Il avait aussi noté l’exhaustivité des partenariats et de la présence géographique.

Ce dernier point vaut toujours et s’assortit d’un bon historique de disponibilité de l’infrastructure ainsi que d’une approche « proactive » de dialogue avec le client pour l’optimisation des coûts. AWS a, plus globalement, un catalogue d’une ampleur sans égale sur ce marché, avec SageMaker comme point central de gouvernance data/IA.

… mais des dépendances pour l’orchestration hybride

L’intégration entre les services d’AWS peut être complexe, avait souligné Gartner l’an dernier. Le cabinet américain avait aussi constaté que la prise en charge des déploiements hybrides/multicloud était limitée malgré la disponibilité de connecteurs natifs et le support de moteurs comme Spark (les clients tendent à utiliser des orchestrateurs tiers, avait-il expliqué).

Ce dernier constat est toujours d’actualité : beaucoup de clients dépendent de solutions tierces pour l’orchestration hybride/multicloud. S’y ajoutent les deux éléments sus-évoqués : gestion des coûts difficile et chevauchements entre produits.

Databricks, rapide pour innover…

Outre Data Intelligence Platform (qui inclut Unity Catalog), Databricks propose du data warehouse avec Databricks SQL, du transactionnel avec Lakebase, ainsi que de l’intégration et de l’engineering avec Lakeflow.

L’an dernier, Gartner avait salué les investissements dans la GenAI (dont l’acquisition de MosaicML), traduits par le développement de ses propres LLM. Il avait aussi donne un bon point au catalogue Unity (qui venait d’être basculé en open source) et au format Delta Lake (concurrent d’Iceberg).

Cette année, Databricks est salué pour sa « vision lakehouse », bien qu’il ne soit plus seul sur ce marché. Il l’est aussi pour sa cadence d’innovation, entre la composante Agent Bricks (qui a reçu des fonctionnalités importantes presque tous les mois), l’acquisition de Tabular (qui a accompagné la prise en charge d’Iceberg sur tout le portefeuile) et l’introduction de capacités low code dans Lakeflow. Bon point également pour l’engagement sur des standards ouverts (Delta Lake, Iceberg, Spark, Postgre…) qui favorisent la portabilité.

… mais pas si simple à prendre en main

L’an dernier, Gartner avait pointé le manque d’intuitivité de l’UI, qui changeait fréquemment tout en manquant de documentation et de capacités low code. Il y avait ajouté l’aspect FinOps, sus-évoqué.

Cette année, le cabinet américain met un bémol à la logique d’ouverture : certains clients s’inquiètent d’un éventuel verrouillage au niveau de l’orchestration et de Delta Live Tables (devenu Lakeflow Spark Declarative Pipelines). Il souligne par ailleurs la tendance des clients à juger que l’usage de la solution exige un haut niveau de compétence technique. En parallèle, le sujet FinOps reste valable (voir ci-dessus).

Google, bien positionné sur l’IA…

Entre autres produits positionnés sur ce marché, Google a Spanner, BigQuery, AlloyDB, Cloud SQL, Firestore, Memorystore et Bigtable.

L’an dernier, Gartner avait salué les contributions open source (à PostgreSQL en particulier). Il avait fait de même pour les avancées dans la GenAI (intégration de Gemini + support transversal de la recherche vectorielle via LangChain) et pour la fondation data/IA unifiée avec Dataplex pour la gouvernance.

Cette fondation data/IA a à nouveau droit à un bon point ; dans les grandes lignes, pour les mêmes motifs. Gartner note plus globalement la capacité de l’offre SGBD de Google à couvrir les cas d’usage dans l’IA agentique. Et apprécie en particulier l’exhaustivité des modèles de données pris en charge par Spanner (relationnel, clé-valeur, graphe, vectoriel).

… mais moins sur le partage de données

Le réseau de partenaires doit encore se développer, avait estimé Gartner l’an dernier. Il avait aussi pointé l’aspect FinOps et souligné que Google proposait moins d’options que la concurrence pour l’intégration native d’applicaitons et le master data management.

Cette année, outre la gestion des coûts et les chevauchements sus-évoqués, un point de vigilance va à la marketplace de données et aux capacités de partage. Elle se révèlent moins avancées que chez certains concurrents, malgré des améliorations sur les clean rooms et l’interopérabilité entre clouds.

IBM étend sa présence multicloud…

Les principaux SGBD cloud d’IBM sont Db2 (transactionnel + analytique) et watsonx.data (lakehouse).

L’an dernier, Big Blue s’était distingué sur sa stratégie sectorielle (solutions spécifiques adaptées sur la gouvernance, la sécurité et la conformité). Ainsi que sur sa capacité à combiner les expertises en open source et en data management au service des déploiements hybrides. Son offre est bien adaptée aux applications critiques, avait ajouté Gartner.

Cette année encore, la stratégie sectorielle est saluée. L’extension de la présence cloud l’est aussi (mise à disposition de Db2 chez les hyperscalers et acquisition de DataStax, qui a une forte présence multicloud). Bon point également pour l’approche « bien définie » d’IBM concernant l’intégration des SGBD dans les frameworks de data management.

… mais a toujours du mal à faire passer son message

IBM a du mal à se différencier dans la communication, par ailleurs pas uniforme entre équipes commerciales, avait expliqué Gartner l’a dernier. Il avait aussi rappelé que le déploiement géographique de l’offre n’atteignait pas encore celui des autres hyperscalers.

Les difficultés de communication restent d’actualité, occasionnant un certain manque de notoriété sur le segment. En parallèle, IBM demeure perçu comme un vendeur « legacy », ce qui est susceptible de détourner certains acheteurs. Gartner y ajoute, comme sus-évoqué, les chevauchements entre certains produits.

Une offre exhaustive chez Microsoft…

Entre autres produits, Microsoft évolue sur ce marché avec Azure SQL Database, Azure Database pour PostgreSQL et MySQL, ainsi qu’Azure Cosmos DB.

L’an dernier, Gartner avait salué l’exhaustivité de l’offre et le niveau d’intégration avec les autres services Microsoft. Il avait aussi apprécié les possibilités d’usage de l’IA pour le data management. Et les avancées sur la gestion du multicloud, exemplifiées par l’interconnexion Azure-Oracle comme par les « raccourcis » dans OneLake pour les analyses fédérées.

Bon point cette année encore pour l’exhaustivité de l’offre, qui « gère presque tous les modèles de données et cas d’usage sectoriels ». L’engagement de Microsoft sur PostgreSQL est également salué. Comme les innovations sur la partie IA (embeddings in-database, indexation de vecteurs, jonctions entre Copilot et Fabric…).

… mais une offre Fabric qui manque encore de maturité

Le chevauchement de certaines offres avait déjà été signalé l’an dernier, en sus de craintes des clients sur la pérennité d’Azure Synapse Analytics et d’Azure Database face à Microsoft Fabric. Ce dernier manquait encore de maturité, avait expliqué Gartner : les capacités d’intégration, de gouvernance et de gestion des métadonnées étaient moins « robustes » que chez d’autres « leaders ». Le déploiement pouvait par ailleurs se révéler complexe, en particulier pour le DR, la sécurité et la gestion des coûts.

Outre le chevauchement de certains produits, Gartner pointe à nouveau le manque de maturité de Microsot Fabric. Les inquiétudes des clients touchent autant aux fonctions data warehouse que gouvernance, entre souveraineté, dimensionnement des ressources, prix, gestion des métadonnées et data quality. Attention aussi aux investissements consentis pour intégrer le transactionnel dans Fabric : sur le court terme, ils peuvent engendrer des enjeux de performance.

MongoDB demeure un standard pour le modèle document…

Outre son édition communautaire et son produit sur site (Enterprise Advanced), MongoDB propose son SGBD Atlas chez AWS, Google et Microsoft.

L’an dernier, Gartner avait salué une offre « bien considérée » pour ses capacités de traitement à haut volume, son élasticité et la flexibilité du schéma. Il avait aussi souligné la souplesse et la rapidité d’implémentation, contribuant à la popularité auprès des développeurs.

Ce dernier élément vaut toujours et engendre un vivier de compétences d’autant plus grand. S’y ajoute la richesse des options de déploiement, accentuée par un programme de partenariats jugé « robuste ». MongoDB est plus globalement parvenu à établir une forme de standard pour qui souhaite un modèle orienté document.

… mais manque d’un storytelling sur la convergence transactionnel-analytique

Si MongoDB associe transactionnel et analytique, son offre se limite à du non relationnel, avait signalé Gartner l’an dernier. La concurrence s’accentue de la part de fournisseurs de SGBD qui incluent l’approche document en plus d’autres modèles, avait-il souligné ; sans compter ceux qui proposent une compatibilité MongoDB.

Cette remaruqe sur la concurrence accrue reste valable. Le cabinet américain y ajoute la courbe d’apprentissage nécessaire pour prendre en main le modèle MongoDB. Et le manque d’un storytelling complet l’intégration du transactionnel et de l’analytique.

Oracle, salué pour sa richesse fonctionnelle…

Autonomous AI Lakehouse, Autonomous JSON Database et Exadata Database Service font partie des SGBD cloud au catalogue d’Oracle.

L’an dernier, Gartner avait salué l’exhaustivité de l’offre (fonctionnalités + support de modèles modèles de données et de l’architecture lakehouse). Ainsi que le niveau de gestion du multicloud (offres Database@ + interconnexion avec les principaux hyperscalers) et la capacité à diffuser rapidement des nouveautés (GenAI, low code, consensus RAFT).

Cette année encore, la richesse fonctionnelle est saluée (bases de données distribuées, recherche vectorielle, framework agentique…). La diversité des options de déploiement l’est aussi. Comme l’adéquation de l’offre d’oracle aux applications critiques.

… mais peu adopté pour les déploiements lakehouse

Oracl reste perçu comme onéreux et a du travail pour « cloudifier » sa base client, avait noté Gartner l’an dernier. Il avait aussi appelé les acheteurs à s’assurer de bien interpréter l’approche « une base de données pour tout » et ce qu’elle impliquait en matière de livraison de fonctionnalités.

Cette dernière remarque est reconduite : vigilance sur cette approche, qui s’oppose aux architecture combinant les SGBD et les systèmes de data management. La question du prix – sus-évoquée – reste sensible et les clients continuent à prioriser des produits concurrents pour les déploiements lakehouse.

Snowflake a amélioré sa couverture fonctionnelle…

L’an dernier, Snowflake s’était distingué par son UI adaptée à divers profils d’utilisateurs, sa prise en charge de multiples formats sur la couche de stockage et l’extension de l’architecture lakehouse avec Iceberg et Polaris.

Cette année encore, Gartner donne un bon à l’UI. Il relève aussi l’extension fonctionnelle de l’offre (data engineering avancé via Openflow, ML/IA avec Snowpark et Cortex AI, support de Postgre apporté par l’acquisition de Crunchy Data). Et l’amélioration de la scalabilité avec les entrepôts de génération 2 (meilleur rapport qualité-prix que la gen 1 pour les workloads complexes).

… mais reste focalisé sur le batch et l’analytique

L’an dernier, Gartner avait pointé une prise en charge limitée des scénarios hybrides. Il y avait ajouté la complexité dans le partage des données entre organisations utilisatrices de Snowflake et les défis d’usabilité que posait l’intégration avec le stockage sur site via les tables externes.

Ces deux derniers aspect demeurent. D’une part, la performance n’est pas la même avec les tables externes qu’avec le stockage natif ou les tables Iceberg. De l’autre, sur le partage, il est nécessaire de bien planifier des éléments tels que les permissions, le repartage et les restrictions régionales. Gartner y ajoute l’aspect FinOps (voir ci-dessus). Et le fait que l’architecture est focalisée sur le batch et l’analytique plutôt que sur le transactionnel ou le temps réel (même s’il existe les tables hybrides et une intégration avancée de PostgreSQL).

Illustration générée par IA

The post Bases de données cloud : l’abondance de l’offre devient un défi appeared first on Silicon.fr.

Intégration de données : les hyperscalers s’imposent en vase clos

15 décembre 2025 à 11:35

À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.

Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.

Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).

Sans Informatica, SAP n’est plus un « leader »

Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).

La situation sur l’axe « exécution » :

Rang Fournisseur Évolution annuelle
1 Microsoft + 1
2 Informatica – 1
3 AWS + 1
4 Oracle – 1
5 Google + 3
6 Denodo + 3
7 IBM =
8 Fivetran + 2
9 Ab Initio – 4
10 Qlik – 4
11 Matillion =
12 Confluent =
13 SAP =
14 SnapLogic + 1
15 Sage Software + 2
16 Workato nouvel entrant
17 CData Software + 1
18 K2view + 1
19 Boomi nouvel entrant
20 Precisely – 4

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Informatica =
2 IBM + 1
3 Oracle – 1
4 Microsoft =
5 Ab Initio =
6 SnapLogic + 1
7 Denodo + 2
8 AWS + 5
9 Qlik – 1
10 K2view + 2
11 Google =
12 Workato nouvel entrant
13 SAP – 3
14 Matillion + 1
15 Fivetran + 2
16 Safe Software =
17 CData Software + 2
18 Confluent – 4
19 Boomi nouvel entrant
20 Precisely =

9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.

Ab Initio salué sur l’automatisation et l’agentique…

Le produit pris en considération se nomme Ab Initio Data Platform.

L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.

Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).

… mais pas sur l’UI, ni la tarification

Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.

La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.

AWS a réduit l’écart avec la concurrence…

La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.

L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.

Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».

… mais reste centré sur son écosystème

L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).

De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.

Denodo se distingue toujours sur la virtualisation des données…

Le produit pris en considération est Denodo Platform.

L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.

Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).

… mais demeure peu utilisé pour certains types d’intégrations

Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.

La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.

Un Google largement distingué sur l’IA…

Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).

L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.

Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.

… mais lui aussi centré sur son écosystème

L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).

La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.

Données non structurées et déploiements hybrides, points forts d’IBM…

L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.

L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.

Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.

… au contraire de la tarification

À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.

Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.

Informatica, à nouveau salué pour la maturité de son offre…

L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).

L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).

Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.

… mais toujours plus sous pression

L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.

Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.

La vision data fabric fait encore mouche chez Microsoft…

Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.

L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.

Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.

… qui se centre lui aussi sur son écosystème

Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.

Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.

Oracle garde l’avantage GoldenGate…

Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.

L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.

Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.

… mais suscite de moins en moins d’intérêt

Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.

Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.

Plusieurs briques robustes chez Qlik…

Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.

L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.

Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.

… mais un ralentissement de la R&D depuis l’acquisition de Talend

L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.

Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.

Illustration © alphaspirit – Shutterstock

The post Intégration de données : les hyperscalers s’imposent en vase clos appeared first on Silicon.fr.

La gestion des accès se détache des mots de passe

5 décembre 2025 à 16:39

Les délais de configuration se sont réduits, les consoles d’admin ont gagné en simplicité et la prise en charge des passkeys s’est généralisée.

Tels furent quelques-uns des constats formulés, fin 2024, dans la synthèse du Magic Quadrant dédié aux solutions autonomes de gestion des accès.

Un an plus tard, les passkeys laissent place, dans le discours de Gartner, au passwordless, sujet à une « large adoption ». Les identités décentralisées n’en sont pas au même stade, mais « gagnent du terrain », tandis que les solutions s’améliorent sur le volet accessibilité.

D’une année à l’autre, les exigences fonctionnelles à respecter ont peu évolué. Elles touchent aux services d’annuaire, à l’administration des identités (gestion « basique » de leur cycle de vie), au SSO/gestion des sessions, à l’authentification (accent sur les méthodes MFA robustes et les contrôles pour atténuer l’usage de mots de passe compromis) et à l’autorisation (accès adaptatif basé sur l’évaluation du risque).

La gestion des identités décentralisées a été prise en compte, mais n’était pas impérative. Même chose, entre autres, pour la gestion des accès machine, du consentement, des données personnelles, de la vérification d’identité et de l’autorisation granulaire (à base rôles ou d’attributs).

12 fournisseurs, 5 « leaders »

Les offreurs sont évalués sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre, sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

La situation sur l’axe « exécution » :

Rang Fournisseur Évolution annuelle
1 Ping Identity + 2
2 Microsoft – 1
3 Okta – 1
4 Transmit Security nouvel entrant
5 CyberArk – 1
6 Entrust – 1
7 IBM – 1
8 Thales =
9 OpenText – 2
10 One Identity – 1
11 RSA – 1
12 Alibaba Cloud nouvel entrant

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Ping Identity =
2 Okta =
3 Microsoft =
4 Transmit Security nouvel entrant
5 Thales – 1
6 IBM – 1
7 CyberArk – 1
8 One Identity =
9 RSA =
10 Entrust – 3
11 Alibaba Cloud nouvel entrant
12 OpenText – 2

« Leaders » l’an dernier, IBM, Microsoft, Okta et Ping Identity le restent. Transmit Security les rejoint.

Au sens où Gartner définit les solutions autonomes de gestion des accès, Google, Salesforce et SAP auraient pu prétendre à une place dans ce Magic Quadrant. Ils n’ont le droit qu’à une « mention honorable » faute d’avoir été dans les clous sur la partie business. Il fallait être en mesure de revendiquer, avec cette activité, au moins 65 M$ de CA 2025 (maintenance incluse) ou bien au moins 1100 clients n’ayant pas de contrats sur d’autres produits.

Une proposition de valeur diluée chez IBM…

IBM parvient mettre la notoriété de sa marque, sa base de clientèle, ses expertises sectorielles et son écosystème au service de son activité sur ce marché. Il a su améliorer l’UX de sa solution (Verify) pour l’enregistrement en self-service et étendre la prise en charge des logins sociaux. Gartner apprécie les capacités d’administration déléguée et d’orchestration, ainsi que l’extensibilité. Il salue une roadmap « robuste » à court et long terme, portée par des investissements plus élevés que la moyenne sur ce segment.

L’ampleur du portefeuille sécurité d’IBM a tendance à diluer la proposition de valeur de la gestion des accès. Les parcours utilisateurs restent par ailleurs complexes sur la partie CIAM (accès des clients) : du support supplémentaire peut être nécessaire. La tendance à contractualiser sur le long terme peut limiter la flexibilité, tant du point de vue tarifaire que du passage à l’échelle.

… comme chez Microsoft

Les offres Entra ID (accès des employés) et Entra External ID (clients) bénéficient du bundling avec d’autres services Microsoft, qui les rend moins chères que les solutions concurrentes. Elles sont de plus soutenues par une infrastructure qui a fait ses preuves et par un vaste réseau de partenaires. Sur le plan fonctionnel, elles se distinguent sur la gestion des accès machine, la gestion du cycle de vie des identités, l’accès adaptatif et l’intégration de la GenAI.

La tendance au bundling présente évidemment des risques de lock-in. Gartner note aussi les efforts et les ressources techniques que peut nécessiter la connexion aux services tiers et aux applications héritées. Il souligne également que la stratégie marketing de Microsoft positionne la gestion des accès comme une brique d’une plate-forme de sécurité… et qu’elle complique par là même l’identification des capacités différenciantes de la solution. Entra ID n’a, pas ailleurs, pas de capacités d’orchestration visuelle fine des parcours utilisateurs.

Une tarification à bien étudier chez Okta

Au-delà de sa notoriété globale et de son réseau de partenaires, Okta se distingue sur le processus d’onboarding. Il est aussi crédité d’un bon point pour sa stratégie sectorielle entre intégrations et workflows personnalisables. Sur le plan fonctionnel, ses solutions se révèlent plus « capables » que la moyenne, en particulier sur les scénarios de développement applicatif. Quant à la stratégie marketing, elle est bien alignée sur les besoins et les tendances.

Okta a connu, sur l’année écoulée, une croissance nette de clientèle plus faible que certains concurrents. Sa tarification associant bundles et options « à la carte » doit être bien étudiée pour choisir le modèle adapté. Pour qui souhaite une approche monofournisseur, la vérification d’identité peut être un point de blocage, faute d’un support natif du standard W3C Verifiable Credentials.

Ping Identity, plus cher que la moyenne sur les accès employés et partenaires

Comme Okta, Ping Identity est au-dessus de la moyenne sur l’aspect fonctionnel. Gartner apprécie notamment la gestion des accès partenaires, l’administration déléguée, l’orchestration, l’extensibilité et le contrôle des accès aux API. Il affirme que la stratégie marketing donne une compréhension claire du positionnement de la solution. Et que l’expérience client s’est améliorée, à renfort de parcours personnalisés.

S’étant historiquement concentré sur les grandes entreprises, Ping Identity peut être perçu comme inadapté aux organisations de plus petite taille. Sa présence commerciale est limitée hors de l’Europe et de l’Amérique du Nord, où se concentre l’essentiel de sa clientèle. Les prix sont par ailleurs plus élevés que la moyenne sur certains scénarios (notamment les accès employés et partenaires). On surveillera aussi l’impact que l’acquisition de ForgeRock pourrait avoir en matière d’agilité.

Transmit Security, en retard sur les accès employés

Fonctionnellement parlant, Transmit Security est au-dessus de la moyenne sur le passwordless, l’authentification adaptative, l’orchestration et la détection des menaces sur les identités. Sa solution (Mosaic) propose une expérience client « robuste » et ses modèles de tarification sont clairs, contribuant à un des meilleurs ratios d’efficacité commerciale du marché.

Comme chez Ping Identity, la présence géographique est limitée et le focus est mis sur les grandes entreprises. Transmit Security est par ailleurs en retard sur la gestion des accès employés. Sa stratégie sectorielle se développe, mais des vides demeurent, notamment en matière de conformité.

Illustration générée par IA

The post La gestion des accès se détache des mots de passe appeared first on Silicon.fr.

Sécurité des e-mails : l’option multifournisseur s’impose

4 décembre 2025 à 10:43

Pour sécuriser ses e-mails, pas simple de faire avec un seul fournisseur.

Telle est en tout cas la vision de Gartner, qui l’exprime dans la synthèse du dernier Magic Quadrant consacré à ce marché. Il la justifie notamment par la difficulté à mesurer l’efficacité des détections. Et recommande d’autant plus de combiner les offres que les chevauchements entre elles se multiplient, favorisant la négociation de remises.

Autre observation : la distinction entre SEG (Secure email gateway) et ICES Integrated cloud email security) commence à s’estomper.
Dans la terminologie du cabinet américain, l’ICES est au SEG ce que l’EDR est – dans une certaine mesure – à l’antivirus : une évolution censée, notamment à renfort d’analyse comportementale, aller au-delà de la détection sur la base de signatures. Elles sont par ailleurs moins périmétriques, s’intégrant le plus souvent aux messageries par API (certaines utilisent des règles de routage ou de la journalisation).

La plupart des fournisseurs de SEG proposent désormais des options de déploiement par API. Tandis que les ICES sont, de plus en plus, enrichis pour effectuer du pre-delivery, soit via les enregistrements MX, soit par modification des règles de flux de messagerie.

La plupart des offreurs proposent désormais une forme de sécurité pour les applications collaboratives. En parallèle, les simulations de phishing évoluent à l’appui de modèles de langage. Lesquels contribuent aussi à étendre le support linguistique des moteurs de détection, au même titre que la vision par ordinateur et l’analyse dynamique de pages web. La détection des mauvais destinataires progresse également grâce à ce même socle (validation sur la base des conversations précédentes).

Trend Micro n’est plus « leader » ; Darktrace et Microsoft le deviennent

D’une édition à l’autre de ce Magic Quadrant, les critères obligatoires sur le plan fonctionnel sont globalement restés les mêmes. Dans les grandes lignes, il s’agissait toujours de proposer un produit indépendant capable de bloquer ou de filtrer le trafic indésirable, d’analyser les fichiers et de protéger contre les URL malveillantes. L’an dernier, il fallait aussi assurer une protection contre la compromission de comptes grâce à divers outils analytiques. Cette année, ces outils sont pris sous un autre angle : l’analyse du contenu des messages et l’exposition de leur sémantique à des admins.

Cisco, classé l’an dernier, ne l’est plus cette fois-ci, faute d’avoir rempli l’intégralité de ces critères. Egress et Perception Point ont aussi disparu des radars, mais parce qu’ils ont été acquis respectivement par KnowBe4 et Fortinet.

Sur l’indicateur « exécution », qui traduit la capacité à répondre à la demande du marché (qualité des produits/services, tarification, expérience client…), la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Proofpoint =
2 Check Point + 2
3 Darktrace + 5
4 Abnormal AI + 1
5 Mimecast + 1
6 Trend Micro – 4
7 Microsoft – 4
8 KnowBe4 – 1
9 Fortinet + 1
10 IRONSCALES – 1
11 Barracuda + 2
12 Cloudflare =
13 Libraesva nouvel entrant
14 RPost nouvel entrant

Sur l’indicateur « vision », reflet des stratégies (sectorielle, géographique, commerciale, marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 Abrnormal AI =
2 KnowBe4 + 3
3 Proofpoint – 1
4 Mimecast – 1
5 Check Point + 4
6 Darktrace + 6
7 Barracuda =
8 Cloudflare + 5
9 IRONSCALES – 3
10 Microsoft =
11 Fortinet – 3
12 Trend Micro – 8
13 Libraesva nouvel entrant
14 RPost nouvel entrant

Des 6 fournisseurs classés « leaders » l’an dernier, 5 le sont restés : Abnormal AI, Check Point, Know4Be (Egress), Mimecast et Proofpoint. Trend Micro a rétrogradé chez les « challengers » (plus performants en exécution qu’en vision).
Darktrace et Microsoft, « challengers » l’an dernier, sont désormais des « leaders ».

Chez Abnormal AI, les derniers développements ne convainquent pas

Abnormal AI se distingue par ses investissements marketing, la qualité de sa relation client et sa stratégie commerciale qui le rend particulièrement compétitif sur les services professionnels.

Ses développements récents ont cependant échoué à étendre la couverture de son offre aux menaces les plus significatives, remarque Gartner. Qui souligne aussi le peu de ressources commerciales hors Europe et Amérique du Nord par rapport aux autres « leaders », ainsi qu’un moindre effectif sur des aspects comme le product management et la recherche en threat intelligence.

Check Point, pas le plus présent sur les shortlists

Au-delà de la viabilité de son activité sur ce segment, Check Point a, comme Abnormal AI, des pratiques « robustes » en matière de relation client. Gartner salue aussi une interface intuitive et une large couverture des cas d’usage rencontrés dans la sécurisation des e-mails.

Check Point se retrouve toutefois moins souvent sur les shortlists que les autres « leaders ». Il a également moins développé qu’eux sa stratégie verticale et la capacité à régionaliser ses services.

Chez Darktrace, l’effet des ajustements tarifaires se fait attendre

Darktrace se distingue par la nette augmentation de ses effectifs de support technique. Ainsi que par sa feuille de route, jugée bien alignée sur les besoins émergents et potentiellement génératrice d’opportunités par rapport à la concurrence.

Les ajustements de prix effectués depuis le précédent Magic Quadrant doivent encore se refléter dans le sentiment client, observe Gartner. Qui note aussi, par rapport aux autres « leaders », une stratégie marketing moins « agressive » et un retard sur les capacités de régionalisation.

Moins de profondeur fonctionnelle chez KnowBe4

Comme Darktrace, KnowBe4 se distingue par sa roadmap., entre protection contre la compromission de comptes et sécurisation du collaboratif. Sa stratégie verticale fait également mouches, comme l’acquisition d’Egress et la viabilité globale de l’entreprise.

KnowBe4 ne propose néanmoins pas la même profondeur fonctionnelle que les autres « leaders ». Il est aussi en retard sur la relation client et sur le marketing (positionnement non différencié).

Avec Microsoft, attention au bundling

Au-delà de sa viabilité et de son historique sur ce marché, Microsoft se distingue par l’étendue de ses ressources de support et de formation – y compris tierces. Et par sa capacité à répondre effectivement aux menaces émergentes.

Sur le volet services et support, la qualité s’avère variable. Quant à la stratégie produit, elle n’est pas pleinement alignée sur les besoins, en conséquence d’un focus sur des fonctionnalités qui améliorent l’efficacité plutôt que la sécurité. Vigilance également sur la tendance au bundling avec d’autres produits : Microsoft y recourt à un « degré supérieur » aux autres fournisseurs.

Le licensing s’est complexifié chez Mimecast

Gartner apprécie les effectifs que Mimecast a alloués au support technique et à la gestion produit. Il salue aussi le programme partenaires, le niveau de remise sur les contrats pluriannuels et, plus globalement, la visibilité de l’offre sur ce marché.

Depuis l’an dernier, le licensing est devenu plus complexe. S’y ajoute un retard par rapport aux autres « leaders » en matière de relation client. Gartner signale aussi un manque de liant entre le focus sur le risque humain et les enjeux de sécurité des e-mails.

Prix en nette hausse chez Proofpoint

Proofpoint propose un outillage plus large que la concurrence, et continue à étendre son portefeuille – par exemple à la sécurité du collaboratif. Il se distingue aussi par la diversité de sa clientèle et, plus généralement, par la viabilité de son activité.

De la diversité, il y en a moins du point de vue de la présence géographique, en tout cas par rapport aux autres « leaders ». Et la stratégie marketing n’est pas la plus différenciée sur le marché. Les prix ont par ailleurs nettement augmenté en l’espace d’un an.

Illustration générée par IA

The post Sécurité des e-mails : l’option multifournisseur s’impose appeared first on Silicon.fr.

Gestion du SaaS : les outils autonomes se heurtent au SAM

25 novembre 2025 à 17:13

Quand on a déjà du SAM, à quoi bon acquérir une solution de gestion du SaaS ?

Dans sa synthèse du dernier Magic Quadrant consacré à ce marché, Gartner ne tranche pas la question. Il note néanmoins qu’existe, chez les acheteurs, une forme de « résistance à l’ajout d’un autre outil »…

Ces acheteurs évoluent le plus souvent dans les achats et l’exploitation informatique. Tels sont en tout cas les principaux profils que les fournisseurs ciblent, plutôt que les métiers de la sécurité/conformité IT et de la gestion des actifs informatiques.

Le message communiqué l’an dernier quant à la faible maturité du marché reste d’actualité. Comme le conseil qui en découle : négocier des contrats de 2 ans maximum, vu le manque de garanties sur la viabilité de nombreux offreurs. Cette situation les expose à des acquisitions… y compris par des acteurs du SAM.

De la gestion des contrats aux scores de risque, de nombreuses briques facultatives

D’une année à l’autre, le cahier des charges fonctionnel pour figurer dans ce Magic Quadrant a peu évolué.

Illustration sur la découverte de l’usage du SaaS. Seule l’intégration avec des outils de sécurité a été ajoutée sur la liste des options. Il s’agissait toujours d’en proposer au moins trois, entre celle-ci et :

  • Extension de navigateur
  • Agent
  • Système de gestion financière ou des dépenses
  • SSO
  • Outil de gestion des terminaux
  • Messagerie électronique
  • OAuth
  • Connexion API directe

Comme l’an dernier, il fallait assurer un minimum d’orchestration de workflows sans code pour l’automatisation de tâches courantes dont l’onboarding/offboarding employé. Étaient également attendues, sur le volet optimisation des dépenses, des possibilités d’identification des apps redondantes, de révocation/réallocation de licences et – nouveauté – de délégation d’ownership aux métiers hors IT, avec contrôle d’accès basé sur les rôles.

Les intégrations ITSM étaient facultatives. Comme les scores de risque et de conformité, les rapports d’adoption, la gestion des contrats et des fournisseurs, la GenAI pour les admins ou les procédures de traitement des demandes d’applications par les employés.

17 fournisseurs, 5 « leaders »

L’évaluation des fournisseurs s’est faite sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

La situation sur l’axe « exécution » :

Rang Fournisseur Évolution annuelle
1 Zylo =
2 Torii =
3 Flexera + 1
4 BetterCloud + 3
5 Zluri – 2
6 1Password + 3
7 Lumos – 1
8 ServiceNow – 3
9 Calero + 1
10 CloudEagle.ai + 2
11 Auvik nouvel entrant
12 USU – 1
13 Axonius nouvel entrant
14 Josys =
15 Corma nouvel entrant
16 Viio nouvel entrant
17 MegaZoneCloud nouvel entrant

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Zylo =
2 Torii =
3 BetterCloud + 1
4 Flexera + 2
5 Zluri – 2
6 Lumos – 1
7 Calero + 3
8 1Password + 1
9 CloudEagle.ai + 3
10 ServiceNow – 1
11 Viio nouvel entrant
12 Josys + 1
13 Axonius nouvel entrant
14 Auvik nouvel entrant
15 USU – 4
16 Corma nouvel entrant
17 MegaZoneCloud nouvel entrant

L’an dernier, trois fournisseurs étaient classés « leaders » : Torii, Zluri et Zylo. Ils le restent, rejoints par BetterCloud et Flexera.

FinQuery et Oomnitza ont disparu des radars, ne vendant plus de plate-forme autonome de gestion du SaaS. Productiv aussi est sorti, parce qu’il ne respectait pas complètement le critère d’orchestration de workflows. Quant à Trelica, il a été acquis par 1Password (que nous ne signalons ainsi pas, dans les tableaux ci-dessus, comme un nouvel entrant).

Les « leaders » mis à part, la quasi-totalité des offreurs sont dans la catégorie « acteurs de niche », témoin de la faible maturité du marché.

Plage de support limitée chez BetterCloud

BetterCloud se distingue par son adaptation à l’évolution des besoins. Les acquisitions de G2 Track et de Tricent ont enrichi son offre, respectivement sur la gestion des dépenses et la gouvernance du partage de fichiers. Gartner salue aussi un ciblage efficace des acheteurs IT, finance et sécurité, avec une stratégie de ristournes flexible. Bon point également pour la cadence de livraison de nouvelles fonctionnalités.

BetterCloud ne permet pas de choisir la localisation des données et n’assure de support que du lundi au vendredi entre 8 heures et 20 heures (heure de l’Est*). Sa tarification est plus élevée que la moyenne du marché (modèle à trois niveaux et module complémentaire pour la gouvernance). Gartner note aussi l’absence d’extension de navigateur pour la découverte de l’usage du SaaS.

Flexera n’a pas fini d’intégrer Snow Software

Flexera bénéficie d’une présence physique mondiale (États-Unis, Canada, Brésil, Royaume-Uni, Suède, Australie, Inde) et d’un réseau d’intégrateurs étendu. Gartner apprécie sa capacité de ciblage commercial, tant d’un point de vue sectoriel que géographique. Ainsi que ses prix, généralement plus bas que chez la concurrence et assortis d’une politique de ristournes flexible. Bon point également pour le marketing, qui, entre webinaires et événements physiques, alimente la notoriété de Flexera, y compris sur le SAM.

En attendant que soit finalisée l’intégration de Snow Software, Flexera ne propose pas de moyen de mesurer ou de stimuler l’adoption du SaaS. Gartner signale aussi l’inconsistance du support et de la qualité des partenaires intégrateurs. Il y ajoute le nombre limité d’intégrations directes par API.

La résidence des données, absente chez Torii…

Torri est crédité d’un bon point pour son recueil du feed-back, et par là même pour sa roadmap. Il l’est aussi pour sa cadence de livraison d’améliorations fonctionnelles. Et pour sa tendance à « anticiper » le besoi. En tout cas à introduire des capacités avant que la demande soit généralisée. Gartner en veut pour preuve l’usage de la GenAI pour, entre autres, traiter les contrats, enrichir les profils d’applications et concevoir des automatisations.

Comme chez BetterCloud, pas de choix de l’emplacement des données (Amérique du Nord uniquement). Si le licensing est flexible, Torii propose, avec son niveau Enterprise, l’une des offres les plus onéreuses de tout le Magic Quadrant. Plus « petit » que les autres « leaders », il n’a pas la même capacité pour passer à l’échelle ses équipes commerciales.

… et coûteuse chez Zluri

La tarification de base de Zluri est parmi les plus avantageuses du Magic Quadrant et elle s’assortit d’une stratégie intéressante de remise sur volume. Comme chez Flexera, le marketing est jugé efficace. L’intégration de l’IA l’est aussi (traitement des contrats, analyse de l’activité des utilisateurs, dimensionnement des licences…), d’autant plus qu’elle favorise la prise en main de la solution.

Zluri permet de choisir la localisation des données… mais c’est plus cher (le prix dépend, en particulier, de la taille de l’entreprise et du volume de données). Les avis sont de plus variés quant à la qualité du support et à l’efficacité de la solution. Par ailleurs, les éléments qui figurent en tête de la feuille n’apparaissent pas alignés sur les principales demandes des clients.

Avec Zylo, des coûts potentiellement difficiles à prévoir

Bon point marketing pour Zylo également, de son podcast et sa chaîne YouTube à son SaaS Management Index annuel. Gartner salue aussi la qualité de l’expérience client, entre customer success managers et méthodes de maximisation de la valeur. Il note aussi l’enrichissement de la bibliothèque d’applications (chacune incluant des informations financières, fonctionnels et de risque) et les capacités « exhaustives » de mesure d’adoption.

Chez Zylo, les données sont localisées exclusivement en Amérique du Nord. Et le personnel, exclusivement aux États-Unis (élément à prendre d’autant plus en compte dans le contexte géopolitique que l’on connaît). Vigilance aussi sur la tarification : il peut être difficile de la comprendre… et de prévoir les coûts. À noter également l’absence d’approche sectorielle sauf pour gouvernements et pharma.

* Fuseau horaire du Québec et de New York, entre autres. 6 heures de décalage avec Paris.

Illustration générée par IA

The post Gestion du SaaS : les outils autonomes se heurtent au SAM appeared first on Silicon.fr.

❌