Déballer une console ou un PC à Noël, c’est bien. Avoir un jeu à lancer dessus, c’est encore mieux. Et comme tout le monde n’a pas forcément envie de repasser à la caisse juste après les fêtes, ça tombe bien : il y a de quoi se faire plaisir gratuitement. Nous avons réuni ici une sélection de jeux gratuits disponibles sur PS5, Xbox et PC. Il y en a pour tous les goûts.
Airbus veut réduire la consommation de carburant des avions en s’inspirant des formations des oies migratrices. Un test crucial a été réalisé entre septembre et octobre avec des compagnies aériennes.
Et si nos réfrigérateurs cessaient définitivement de nuire à l'environnement ? Des scientifiques américains ont développé une approche révolutionnaire baptisée refroidissement ionocalorique. Cette innovation pourrait bien transformer notre quotidien en remplaçant les systèmes actuels par une...
L’électrification du parc automobile progresse, mais elle se heurte à des obstacles économiques, industriels et sociaux. La France et l’Europe doivent agir de façon pragmatique pour concilier ambitions écologiques, compétitivité industrielle et justice sociale.
À la veille de Noël, Foodwatch passe au crible plusieurs produits festifs vendus en grande surface. L’association pointe des pratiques marketing discutables et des compositions qui interrogent, loin de l’image gourmande et traditionnelle affichée en rayon. Un rappel utile pour faire ses courses...
Présenté ce 16 décembre 2025, le paquet automobile de la Commission européenne introduit des objectifs de verdissement obligatoires pour les flottes d’entreprise. Des propositions qui doivent encore être examinées par le Parlement européen et le Conseil.
L'Europe a repoussé l'interdiction totale des moteurs thermiques en 2035, un délai salué comme une victoire par les partisans du pétrole et certains constructeurs. Mais derrière cet assouplissement se cache une réalité bien plus subtile, ne laissant qu'un mince espoir aux motorisations traditionnelles à long terme. Caradisiac décrypte les vraies implications de cet accord historique et pourquoi les électriques s'imposeront de toute façon.
Depuis plusieurs années, déjà, les stations-services Leclerc proposent son carburant à prix coûtant. Pour les fêtes de fin d’année, une autre enseigne se lance dans la bataille.
Chez les principaux fournisseurs de bases de données cloud, il n’est plus si rare que des produits se chevauchent.
La synthèse du dernier Magic Quadrant dédié à ce marché en témoigne. La majorité des « leaders » (5 sur 9) ont droit à une remarque à ce sujet :
Alibaba Cloud
Chevauchement entre AnalyticDB et Hologres (analytique) comme entre DMS et DataWorks (intégration de données).
AWS
Grand choix de SGBD et d’options d’intégration… au prix de chevauchements et de conflits.
Google
Plusieurs solutions pour Postgre (Cloud SQL, AlloyDB, Spanner) entre lesquelles il faut faire la balance.
IBM
Chevauchements sur la partie entrepôt de données, entre les offres Db2 Warehouse, Neterra watsonx.data.
Microsoft
Concurrence entre Azure Synapse, Microsoft Fabric et Azure Databricks.
Gérer les coûts reste un défi
Autre sujet largement partagé parmi les « leaders » : la gestion des coûts.
Elle est difficile chez AWS faute de tarification unifiée entre services.
Elle l’est aussi pour beaucoup de clients de Databricks, malgré des avancées sur l’outillage FinOps.
Chez Google, elle a tendance à se complexifier avec l’intégration de nouvelles fonctionnalités.
Concernant Oracle, la clientèle se plaint toujours des prix et de la difficulté de contractualisation, même si la tendance s’atténue avec le passage au cloud et son modèle de facturation à l’usage.
Concernant Snowflake, Gartner a un jugement plus spécifique : le côté « user-friendly » est susceptible de favoriser le développement d’un état d’esprit « black box », et par là même de limiter la capacité à optimiser les workloads.
Plusieurs de ces fournisseurs avaient déjà été épinglés à ce sujet il y a un an, dans l’édition précédente de ce Magic Quadrant.
Databricks, à cause de la difficulté à prédire les coûts avec le modèle fondé sur des unités de consommation.
Google, parce que le suivi des dépenses pouvait se révéler délicat, a fortiori lorsqu’on interfaçait aux bases de données des services fondés sur des unités de consommation.
Oracle, perçu, de par son historique, comme un fournisseur aux offres onéreuses.
Alibaba, chez qui la variété des modèles de pricing, combinée à une facturation découplée pour certaines ressources au nom de la flexibilité, pouvait s’avérer difficile à maîtriser.
20 fournisseurs, 9 « leaders »
D’une année à l’autre, les critères à respecter ont peu évolué. Il fallait toujours, entre autres, gérer au moins un cas d’usage parmi :
Transactionnel
Transactions « légères » (gros volumes à haute concurrence et basse latence)
Gestion d’état d’applications
Data warehouse
Lakehouse
Analyse d’événements
Une fois encore, Gartner n’a évalué que les offres managées, fournies en cloud public ou privé. Il n’a pas pris en compte les bases de données hébergées sur du IaaS.
Les 20 fournisseurs classés sont les mêmes que l’an dernier. Et les 9 « leaders » d’alors le sont restés. Dans l’ordre alphabétique : Alibaba Cloud, AWS, Databricks, Google, IBM, Microsoft, MongoDB, Oracle et Snowflake.
Sur l’axe « exécution », reflétant la capacité à répondre à la demande, la situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
AWS
=
2
Google
=
3
Microsoft
+ 1
4
Oracle
– 1
5
Databricks
=
6
Snowflake
+ 1
7
MongoDB
– 1
8
IBM
+ 2
9
Alibaba Cloud
– 1
10
InterSystems
– 1
11
Huawei Cloud
=
12
SAP
=
13
Teradata
=
14
Cloudera
=
15
Couchbase
+ 3
16
SingleStore
+ 1
17
EDB
+ 3
18
Redis
– 3
19
Neo4j
– 3
20
Cockroach Labs
– 1
Sur l’axe « vision », reflétant les stratégies :
Rang
Fournisseur
Évolution annuelle
1
Google
=
2
Databricks
+ 3
3
Microsoft
– 1
4
Oracle
– 1
5
AWS
– 1
6
Snowflake
+ 2
7
Alibaba Cloud
+ 3
8
IBM
– 1
9
SAP
– 3
10
Teradata
– 1
11
MongoDB
=
12
Cloudera
=
13
InterSystems
+ 2
14
Neo4j
=
15
Huawei Cloud
+ 1
16
EDB
+ 4
17
Couchbase
=
18
SingleStore
=
19
Redis
– 6
20
Cockroach Labs
– 1
Alibaba Cloud, distingué pour son approche « data + IA »…
Les principales offres d’Alibaba Cloud sur ce marché sont PolarDB et ApsaraDB (transactionnel), AnalyticDB et MaxCompute (analytique), Tair et Lindorm (clé-valeur).
L’a dernier, le groupe chinois avait été salué pour sa présence sectorielle importante et différenciée, le développement de son écosystème de partenaires et le poids de sa communauté open source.
Cette année, Gartner apprécie la tarification, jugée attractive. Ainsi que la fiabilité de l’architecture serverless. Désormais étendue à tous les SGBD, elle se distingue par son architecture découplant calcul, mémoire et stockage en environnement hybride. Bon point également pour l’approche « data + IA » qui permet de développer et de déployer des applications en n’utilisant que des technologies d’Alibaba Cloud.
… mais pas pour la configuration de PolarDB
L’an dernier, Gartner avait pointé, au-delà de la gestion des coûts, le risque géopolitique associé à Alibaba Cloud. Ainsi que la disponibilité encore limitée de ses servies hors de l’Asie (moins de régions et de zones de disponibilité que la concurrence).
Cette année encore, la faible présence hors Asie est signalée. Elle peut se traduire par un moins grand nombre d’intégrations d’outils tiers et de ressources en anglais (documentation, formation, support). Attention aussi à la configuration de PolarDB, jugée complexe par les nouveaux utilisateurs, notamment sur l’équilibre coût/performance et la gestion du stockage multicouche. Il faut y ajouter les chevauchements de produits sus-évoqués.
AWS a un catalogue d’une ampleur sans égale…
Aurora, Redshift, DynamoDB et SageMaker font partie des principaux produits d’AWS sur ce marché.
L’an dernier, Gartner avait salué la couverture fonctionnelle d’AWS et sa capacité à créer du liant entre ses solutions. Il avait aussi noté l’exhaustivité des partenariats et de la présence géographique.
Ce dernier point vaut toujours et s’assortit d’un bon historique de disponibilité de l’infrastructure ainsi que d’une approche « proactive » de dialogue avec le client pour l’optimisation des coûts. AWS a, plus globalement, un catalogue d’une ampleur sans égale sur ce marché, avec SageMaker comme point central de gouvernance data/IA.
… mais des dépendances pour l’orchestration hybride
L’intégration entre les services d’AWS peut être complexe, avait souligné Gartner l’an dernier. Le cabinet américain avait aussi constaté que la prise en charge des déploiements hybrides/multicloud était limitée malgré la disponibilité de connecteurs natifs et le support de moteurs comme Spark (les clients tendent à utiliser des orchestrateurs tiers, avait-il expliqué).
Ce dernier constat est toujours d’actualité : beaucoup de clients dépendent de solutions tierces pour l’orchestration hybride/multicloud. S’y ajoutent les deux éléments sus-évoqués : gestion des coûts difficile et chevauchements entre produits.
Databricks, rapide pour innover…
Outre Data Intelligence Platform (qui inclut Unity Catalog), Databricks propose du data warehouse avec Databricks SQL, du transactionnel avec Lakebase, ainsi que de l’intégration et de l’engineering avec Lakeflow.
L’an dernier, Gartner avait salué les investissements dans la GenAI (dont l’acquisition de MosaicML), traduits par le développement de ses propres LLM. Il avait aussi donne un bon point au catalogue Unity (qui venait d’être basculé en open source) et au format Delta Lake (concurrent d’Iceberg).
Cette année, Databricks est salué pour sa « vision lakehouse », bien qu’il ne soit plus seul sur ce marché. Il l’est aussi pour sa cadence d’innovation, entre la composante Agent Bricks (qui a reçu des fonctionnalités importantes presque tous les mois), l’acquisition de Tabular (qui a accompagné la prise en charge d’Iceberg sur tout le portefeuile) et l’introduction de capacités low code dans Lakeflow. Bon point également pour l’engagement sur des standards ouverts (Delta Lake, Iceberg, Spark, Postgre…) qui favorisent la portabilité.
… mais pas si simple à prendre en main
L’an dernier, Gartner avait pointé le manque d’intuitivité de l’UI, qui changeait fréquemment tout en manquant de documentation et de capacités low code. Il y avait ajouté l’aspect FinOps, sus-évoqué.
Cette année, le cabinet américain met un bémol à la logique d’ouverture : certains clients s’inquiètent d’un éventuel verrouillage au niveau de l’orchestration et de Delta Live Tables (devenu Lakeflow Spark Declarative Pipelines). Il souligne par ailleurs la tendance des clients à juger que l’usage de la solution exige un haut niveau de compétence technique. En parallèle, le sujet FinOps reste valable (voir ci-dessus).
Google, bien positionné sur l’IA…
Entre autres produits positionnés sur ce marché, Google a Spanner, BigQuery, AlloyDB, Cloud SQL, Firestore, Memorystore et Bigtable.
L’an dernier, Gartner avait salué les contributions open source (à PostgreSQL en particulier). Il avait fait de même pour les avancées dans la GenAI (intégration de Gemini + support transversal de la recherche vectorielle via LangChain) et pour la fondation data/IA unifiée avec Dataplex pour la gouvernance.
Cette fondation data/IA a à nouveau droit à un bon point ; dans les grandes lignes, pour les mêmes motifs. Gartner note plus globalement la capacité de l’offre SGBD de Google à couvrir les cas d’usage dans l’IA agentique. Et apprécie en particulier l’exhaustivité des modèles de données pris en charge par Spanner (relationnel, clé-valeur, graphe, vectoriel).
… mais moins sur le partage de données
Le réseau de partenaires doit encore se développer, avait estimé Gartner l’an dernier. Il avait aussi pointé l’aspect FinOps et souligné que Google proposait moins d’options que la concurrence pour l’intégration native d’applicaitons et le master data management.
Cette année, outre la gestion des coûts et les chevauchements sus-évoqués, un point de vigilance va à la marketplace de données et aux capacités de partage. Elle se révèlent moins avancées que chez certains concurrents, malgré des améliorations sur les clean rooms et l’interopérabilité entre clouds.
IBM étend sa présence multicloud…
Les principaux SGBD cloud d’IBM sont Db2 (transactionnel + analytique) et watsonx.data (lakehouse).
L’an dernier, Big Blue s’était distingué sur sa stratégie sectorielle (solutions spécifiques adaptées sur la gouvernance, la sécurité et la conformité). Ainsi que sur sa capacité à combiner les expertises en open source et en data management au service des déploiements hybrides. Son offre est bien adaptée aux applications critiques, avait ajouté Gartner.
Cette année encore, la stratégie sectorielle est saluée. L’extension de la présence cloud l’est aussi (mise à disposition de Db2 chez les hyperscalers et acquisition de DataStax, qui a une forte présence multicloud). Bon point également pour l’approche « bien définie » d’IBM concernant l’intégration des SGBD dans les frameworks de data management.
… mais a toujours du mal à faire passer son message
IBM a du mal à se différencier dans la communication, par ailleurs pas uniforme entre équipes commerciales, avait expliqué Gartner l’a dernier. Il avait aussi rappelé que le déploiement géographique de l’offre n’atteignait pas encore celui des autres hyperscalers.
Les difficultés de communication restent d’actualité, occasionnant un certain manque de notoriété sur le segment. En parallèle, IBM demeure perçu comme un vendeur « legacy », ce qui est susceptible de détourner certains acheteurs. Gartner y ajoute, comme sus-évoqué, les chevauchements entre certains produits.
Une offre exhaustive chez Microsoft…
Entre autres produits, Microsoft évolue sur ce marché avec Azure SQL Database, Azure Database pour PostgreSQL et MySQL, ainsi qu’Azure Cosmos DB.
L’an dernier, Gartner avait salué l’exhaustivité de l’offre et le niveau d’intégration avec les autres services Microsoft. Il avait aussi apprécié les possibilités d’usage de l’IA pour le data management. Et les avancées sur la gestion du multicloud, exemplifiées par l’interconnexion Azure-Oracle comme par les « raccourcis » dans OneLake pour les analyses fédérées.
Bon point cette année encore pour l’exhaustivité de l’offre, qui « gère presque tous les modèles de données et cas d’usage sectoriels ». L’engagement de Microsoft sur PostgreSQL est également salué. Comme les innovations sur la partie IA (embeddings in-database, indexation de vecteurs, jonctions entre Copilot et Fabric…).
… mais une offre Fabric qui manque encore de maturité
Le chevauchement de certaines offres avait déjà été signalé l’an dernier, en sus de craintes des clients sur la pérennité d’Azure Synapse Analytics et d’Azure Database face à Microsoft Fabric. Ce dernier manquait encore de maturité, avait expliqué Gartner : les capacités d’intégration, de gouvernance et de gestion des métadonnées étaient moins « robustes » que chez d’autres « leaders ». Le déploiement pouvait par ailleurs se révéler complexe, en particulier pour le DR, la sécurité et la gestion des coûts.
Outre le chevauchement de certains produits, Gartner pointe à nouveau le manque de maturité de Microsot Fabric. Les inquiétudes des clients touchent autant aux fonctions data warehouse que gouvernance, entre souveraineté, dimensionnement des ressources, prix, gestion des métadonnées et data quality. Attention aussi aux investissements consentis pour intégrer le transactionnel dans Fabric : sur le court terme, ils peuvent engendrer des enjeux de performance.
MongoDB demeure un standard pour le modèle document…
Outre son édition communautaire et son produit sur site (Enterprise Advanced), MongoDB propose son SGBD Atlas chez AWS, Google et Microsoft.
L’an dernier, Gartner avait salué une offre « bien considérée » pour ses capacités de traitement à haut volume, son élasticité et la flexibilité du schéma. Il avait aussi souligné la souplesse et la rapidité d’implémentation, contribuant à la popularité auprès des développeurs.
Ce dernier élément vaut toujours et engendre un vivier de compétences d’autant plus grand. S’y ajoute la richesse des options de déploiement, accentuée par un programme de partenariats jugé « robuste ». MongoDB est plus globalement parvenu à établir une forme de standard pour qui souhaite un modèle orienté document.
… mais manque d’un storytelling sur la convergence transactionnel-analytique
Si MongoDB associe transactionnel et analytique, son offre se limite à du non relationnel, avait signalé Gartner l’an dernier. La concurrence s’accentue de la part de fournisseurs de SGBD qui incluent l’approche document en plus d’autres modèles, avait-il souligné ; sans compter ceux qui proposent une compatibilité MongoDB.
Cette remaruqe sur la concurrence accrue reste valable. Le cabinet américain y ajoute la courbe d’apprentissage nécessaire pour prendre en main le modèle MongoDB. Et le manque d’un storytelling complet l’intégration du transactionnel et de l’analytique.
Oracle, salué pour sa richesse fonctionnelle…
Autonomous AI Lakehouse, Autonomous JSON Database et Exadata Database Service font partie des SGBD cloud au catalogue d’Oracle.
L’an dernier, Gartner avait salué l’exhaustivité de l’offre (fonctionnalités + support de modèles modèles de données et de l’architecture lakehouse). Ainsi que le niveau de gestion du multicloud (offres Database@ + interconnexion avec les principaux hyperscalers) et la capacité à diffuser rapidement des nouveautés (GenAI, low code, consensus RAFT).
Cette année encore, la richesse fonctionnelle est saluée (bases de données distribuées, recherche vectorielle, framework agentique…). La diversité des options de déploiement l’est aussi. Comme l’adéquation de l’offre d’oracle aux applications critiques.
… mais peu adopté pour les déploiements lakehouse
Oracl reste perçu comme onéreux et a du travail pour « cloudifier » sa base client, avait noté Gartner l’an dernier. Il avait aussi appelé les acheteurs à s’assurer de bien interpréter l’approche « une base de données pour tout » et ce qu’elle impliquait en matière de livraison de fonctionnalités.
Cette dernière remarque est reconduite : vigilance sur cette approche, qui s’oppose aux architecture combinant les SGBD et les systèmes de data management. La question du prix – sus-évoquée – reste sensible et les clients continuent à prioriser des produits concurrents pour les déploiements lakehouse.
Snowflake a amélioré sa couverture fonctionnelle…
L’an dernier, Snowflake s’était distingué par son UI adaptée à divers profils d’utilisateurs, sa prise en charge de multiples formats sur la couche de stockage et l’extension de l’architecture lakehouse avec Iceberg et Polaris.
Cette année encore, Gartner donne un bon à l’UI. Il relève aussi l’extension fonctionnelle de l’offre (data engineering avancé via Openflow, ML/IA avec Snowpark et Cortex AI, support de Postgre apporté par l’acquisition de Crunchy Data). Et l’amélioration de la scalabilité avec les entrepôts de génération 2 (meilleur rapport qualité-prix que la gen 1 pour les workloads complexes).
… mais reste focalisé sur le batch et l’analytique
L’an dernier, Gartner avait pointé une prise en charge limitée des scénarios hybrides. Il y avait ajouté la complexité dans le partage des données entre organisations utilisatrices de Snowflake et les défis d’usabilité que posait l’intégration avec le stockage sur site via les tables externes.
Ces deux derniers aspect demeurent. D’une part, la performance n’est pas la même avec les tables externes qu’avec le stockage natif ou les tables Iceberg. De l’autre, sur le partage, il est nécessaire de bien planifier des éléments tels que les permissions, le repartage et les restrictions régionales. Gartner y ajoute l’aspect FinOps (voir ci-dessus). Et le fait que l’architecture est focalisée sur le batch et l’analytique plutôt que sur le transactionnel ou le temps réel (même s’il existe les tables hybrides et une intégration avancée de PostgreSQL).
À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.
Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.
Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).
Sans Informatica, SAP n’est plus un « leader »
Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
Microsoft
+ 1
2
Informatica
– 1
3
AWS
+ 1
4
Oracle
– 1
5
Google
+ 3
6
Denodo
+ 3
7
IBM
=
8
Fivetran
+ 2
9
Ab Initio
– 4
10
Qlik
– 4
11
Matillion
=
12
Confluent
=
13
SAP
=
14
SnapLogic
+ 1
15
Sage Software
+ 2
16
Workato
nouvel entrant
17
CData Software
+ 1
18
K2view
+ 1
19
Boomi
nouvel entrant
20
Precisely
– 4
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Informatica
=
2
IBM
+ 1
3
Oracle
– 1
4
Microsoft
=
5
Ab Initio
=
6
SnapLogic
+ 1
7
Denodo
+ 2
8
AWS
+ 5
9
Qlik
– 1
10
K2view
+ 2
11
Google
=
12
Workato
nouvel entrant
13
SAP
– 3
14
Matillion
+ 1
15
Fivetran
+ 2
16
Safe Software
=
17
CData Software
+ 2
18
Confluent
– 4
19
Boomi
nouvel entrant
20
Precisely
=
9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.
Ab Initio salué sur l’automatisation et l’agentique…
Le produit pris en considération se nomme Ab Initio Data Platform.
L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.
Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).
… mais pas sur l’UI, ni la tarification
Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.
La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.
AWS a réduit l’écart avec la concurrence…
La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.
L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.
Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».
… mais reste centré sur son écosystème
L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).
De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.
Denodo se distingue toujours sur la virtualisation des données…
Le produit pris en considération est Denodo Platform.
L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.
Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).
… mais demeure peu utilisé pour certains types d’intégrations
Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.
La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.
Un Google largement distingué sur l’IA…
Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).
L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.
Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.
… mais lui aussi centré sur son écosystème
L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).
La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.
Données non structurées et déploiements hybrides, points forts d’IBM…
L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.
L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.
Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.
… au contraire de la tarification
À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.
Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.
Informatica, à nouveau salué pour la maturité de son offre…
L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).
L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).
Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.
… mais toujours plus sous pression
L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.
Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.
La vision data fabric fait encore mouche chez Microsoft…
Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.
L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.
Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.
… qui se centre lui aussi sur son écosystème
Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.
Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.
Oracle garde l’avantage GoldenGate…
Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.
L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.
Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.
… mais suscite de moins en moins d’intérêt
Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.
Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.
Plusieurs briques robustes chez Qlik…
Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.
L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.
Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.
… mais un ralentissement de la R&D depuis l’acquisition de Talend
L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.
Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.
Tickets restaurant 2026, fin du papier, usage élargi prolongé, réforme annoncée… et si on faisait ensemble le point, calmement, avant de paniquer à la caisse ?
Les délais de configuration se sont réduits, les consoles d’admin ont gagné en simplicité et la prise en charge des passkeys s’est généralisée.
Tels furent quelques-uns des constats formulés, fin 2024, dans la synthèse du Magic Quadrant dédié aux solutions autonomes de gestion des accès.
Un an plus tard, les passkeyslaissent place, dans le discours de Gartner, au passwordless, sujet à une « large adoption ». Les identités décentralisées n’en sont pas au même stade, mais « gagnent du terrain », tandis que les solutions s’améliorent sur le volet accessibilité.
D’une année à l’autre, les exigences fonctionnelles à respecter ont peu évolué. Elles touchent aux services d’annuaire, à l’administration des identités (gestion « basique » de leur cycle de vie), au SSO/gestion des sessions, à l’authentification (accent sur les méthodes MFA robustes et les contrôles pour atténuer l’usage de mots de passe compromis) et à l’autorisation (accès adaptatif basé sur l’évaluation du risque).
La gestion des identités décentralisées a été prise en compte, mais n’était pas impérative. Même chose, entre autres, pour la gestion des accès machine, du consentement, des données personnelles, de la vérification d’identité et de l’autorisation granulaire (à base rôles ou d’attributs).
12 fournisseurs, 5 « leaders »
Les offreurs sont évalués sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre, sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
Ping Identity
+ 2
2
Microsoft
– 1
3
Okta
– 1
4
Transmit Security
nouvel entrant
5
CyberArk
– 1
6
Entrust
– 1
7
IBM
– 1
8
Thales
=
9
OpenText
– 2
10
One Identity
– 1
11
RSA
– 1
12
Alibaba Cloud
nouvel entrant
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Ping Identity
=
2
Okta
=
3
Microsoft
=
4
Transmit Security
nouvel entrant
5
Thales
– 1
6
IBM
– 1
7
CyberArk
– 1
8
One Identity
=
9
RSA
=
10
Entrust
– 3
11
Alibaba Cloud
nouvel entrant
12
OpenText
– 2
« Leaders » l’an dernier, IBM, Microsoft, Okta et Ping Identity le restent. Transmit Security les rejoint.
Au sens où Gartner définit les solutions autonomes de gestion des accès, Google, Salesforce et SAP auraient pu prétendre à une place dans ce Magic Quadrant. Ils n’ont le droit qu’à une « mention honorable » faute d’avoir été dans les clous sur la partie business. Il fallait être en mesure de revendiquer, avec cette activité, au moins 65 M$ de CA 2025 (maintenance incluse) ou bien au moins 1100 clients n’ayant pas de contrats sur d’autres produits.
Une proposition de valeur diluée chez IBM…
IBM parvient mettre la notoriété de sa marque, sa base de clientèle, ses expertises sectorielles et son écosystème au service de son activité sur ce marché. Il a su améliorer l’UX de sa solution (Verify) pour l’enregistrement en self-service et étendre la prise en charge des logins sociaux. Gartner apprécie les capacités d’administration déléguée et d’orchestration, ainsi que l’extensibilité. Il salue une roadmap « robuste » à court et long terme, portée par des investissements plus élevés que la moyenne sur ce segment.
L’ampleur du portefeuille sécurité d’IBM a tendance à diluer la proposition de valeur de la gestion des accès. Les parcours utilisateurs restent par ailleurs complexes sur la partie CIAM (accès des clients) : du support supplémentaire peut être nécessaire. La tendance à contractualiser sur le long terme peut limiter la flexibilité, tant du point de vue tarifaire que du passage à l’échelle.
… comme chez Microsoft
Les offres Entra ID (accès des employés) et Entra External ID (clients) bénéficient du bundling avec d’autres services Microsoft, qui les rend moins chères que les solutions concurrentes. Elles sont de plus soutenues par une infrastructure qui a fait ses preuves et par un vaste réseau de partenaires. Sur le plan fonctionnel, elles se distinguent sur la gestion des accès machine, la gestion du cycle de vie des identités, l’accès adaptatif et l’intégration de la GenAI.
La tendance au bundling présente évidemment des risques de lock-in. Gartner note aussi les efforts et les ressources techniques que peut nécessiter la connexion aux services tiers et aux applications héritées. Il souligne également que la stratégie marketing de Microsoft positionne la gestion des accès comme une brique d’une plate-forme de sécurité… et qu’elle complique par là même l’identification des capacités différenciantes de la solution. Entra ID n’a, pas ailleurs, pas de capacités d’orchestration visuelle fine des parcours utilisateurs.
Une tarification à bien étudier chez Okta
Au-delà de sa notoriété globale et de son réseau de partenaires, Okta se distingue sur le processus d’onboarding. Il est aussi crédité d’un bon point pour sa stratégie sectorielle entre intégrations et workflows personnalisables. Sur le plan fonctionnel, ses solutions se révèlent plus « capables » que la moyenne, en particulier sur les scénarios de développement applicatif. Quant à la stratégie marketing, elle est bien alignée sur les besoins et les tendances.
Okta a connu, sur l’année écoulée, une croissance nette de clientèle plus faible que certains concurrents. Sa tarification associant bundles et options « à la carte » doit être bien étudiée pour choisir le modèle adapté. Pour qui souhaite une approche monofournisseur, la vérification d’identité peut être un point de blocage, faute d’un support natif du standard W3C Verifiable Credentials.
Ping Identity, plus cher que la moyenne sur les accès employés et partenaires
Comme Okta, Ping Identity est au-dessus de la moyenne sur l’aspect fonctionnel. Gartner apprécie notamment la gestion des accès partenaires, l’administration déléguée, l’orchestration, l’extensibilité et le contrôle des accès aux API. Il affirme que la stratégie marketing donne une compréhension claire du positionnement de la solution. Et que l’expérience client s’est améliorée, à renfort de parcours personnalisés.
S’étant historiquement concentré sur les grandes entreprises, Ping Identity peut être perçu comme inadapté aux organisations de plus petite taille. Sa présence commerciale est limitée hors de l’Europe et de l’Amérique du Nord, où se concentre l’essentiel de sa clientèle. Les prix sont par ailleurs plus élevés que la moyenne sur certains scénarios (notamment les accès employés et partenaires). On surveillera aussi l’impact que l’acquisition de ForgeRock pourrait avoir en matière d’agilité.
Transmit Security, en retard sur les accès employés
Fonctionnellement parlant, Transmit Security est au-dessus de la moyenne sur le passwordless, l’authentification adaptative, l’orchestration et la détection des menaces sur les identités. Sa solution (Mosaic) propose une expérience client « robuste » et ses modèles de tarification sont clairs, contribuant à un des meilleurs ratios d’efficacité commerciale du marché.
Comme chez Ping Identity, la présence géographique est limitée et le focus est mis sur les grandes entreprises. Transmit Security est par ailleurs en retard sur la gestion des accès employés. Sa stratégie sectorielle se développe, mais des vides demeurent, notamment en matière de conformité.
Pour sécuriser ses e-mails, pas simple de faire avec un seul fournisseur.
Telle est en tout cas la vision de Gartner, qui l’exprime dans la synthèse du dernier Magic Quadrant consacré à ce marché. Il la justifie notamment par la difficulté à mesurer l’efficacité des détections. Et recommande d’autant plus de combiner les offres que les chevauchements entre elles se multiplient, favorisant la négociation de remises.
Autre observation : la distinction entre SEG (Secure email gateway) et ICES Integrated cloud email security) commence à s’estomper.
Dans la terminologie du cabinet américain, l’ICES est au SEG ce que l’EDR est – dans une certaine mesure – à l’antivirus : une évolution censée, notamment à renfort d’analyse comportementale, aller au-delà de la détection sur la base de signatures. Elles sont par ailleurs moins périmétriques, s’intégrant le plus souvent aux messageries par API (certaines utilisent des règles de routage ou de la journalisation).
La plupart des fournisseurs de SEG proposent désormais des options de déploiement par API. Tandis que les ICES sont, de plus en plus, enrichis pour effectuer du pre-delivery, soit via les enregistrements MX, soit par modification des règles de flux de messagerie.
La plupart des offreurs proposent désormais une forme de sécurité pour les applications collaboratives. En parallèle, les simulations de phishing évoluent à l’appui de modèles de langage. Lesquels contribuent aussi à étendre le support linguistique des moteurs de détection, au même titre que la vision par ordinateur et l’analyse dynamique de pages web. La détection des mauvais destinataires progresse également grâce à ce même socle (validation sur la base des conversations précédentes).
Trend Micro n’est plus « leader » ; Darktrace et Microsoft le deviennent
D’une édition à l’autre de ce Magic Quadrant, les critères obligatoires sur le plan fonctionnel sont globalement restés les mêmes. Dans les grandes lignes, il s’agissait toujours de proposer un produit indépendant capable de bloquer ou de filtrer le trafic indésirable, d’analyser les fichiers et de protéger contre les URL malveillantes. L’an dernier, il fallait aussi assurer une protection contre la compromission de comptes grâce à divers outils analytiques. Cette année, ces outils sont pris sous un autre angle : l’analyse du contenu des messages et l’exposition de leur sémantique à des admins.
Cisco, classé l’an dernier, ne l’est plus cette fois-ci, faute d’avoir rempli l’intégralité de ces critères. Egress et Perception Point ont aussi disparu des radars, mais parce qu’ils ont été acquis respectivement par KnowBe4 et Fortinet.
Sur l’indicateur « exécution », qui traduit la capacité à répondre à la demande du marché (qualité des produits/services, tarification, expérience client…), la situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
Proofpoint
=
2
Check Point
+ 2
3
Darktrace
+ 5
4
Abnormal AI
+ 1
5
Mimecast
+ 1
6
Trend Micro
– 4
7
Microsoft
– 4
8
KnowBe4
– 1
9
Fortinet
+ 1
10
IRONSCALES
– 1
11
Barracuda
+ 2
12
Cloudflare
=
13
Libraesva
nouvel entrant
14
RPost
nouvel entrant
Sur l’indicateur « vision », reflet des stratégies (sectorielle, géographique, commerciale, marketing, produit…) :
Rang
Fournisseur
Évolution annuelle
1
Abrnormal AI
=
2
KnowBe4
+ 3
3
Proofpoint
– 1
4
Mimecast
– 1
5
Check Point
+ 4
6
Darktrace
+ 6
7
Barracuda
=
8
Cloudflare
+ 5
9
IRONSCALES
– 3
10
Microsoft
=
11
Fortinet
– 3
12
Trend Micro
– 8
13
Libraesva
nouvel entrant
14
RPost
nouvel entrant
Des 6 fournisseurs classés « leaders » l’an dernier, 5 le sont restés : Abnormal AI, Check Point, Know4Be (Egress), Mimecast et Proofpoint. Trend Micro a rétrogradé chez les « challengers » (plus performants en exécution qu’en vision).
Darktrace et Microsoft, « challengers » l’an dernier, sont désormais des « leaders ».
Chez Abnormal AI, les derniers développements ne convainquent pas
Abnormal AI se distingue par ses investissements marketing, la qualité de sa relation client et sa stratégie commerciale qui le rend particulièrement compétitif sur les services professionnels.
Ses développements récents ont cependant échoué à étendre la couverture de son offre aux menaces les plus significatives, remarque Gartner. Qui souligne aussi le peu de ressources commerciales hors Europe et Amérique du Nord par rapport aux autres « leaders », ainsi qu’un moindre effectif sur des aspects comme le product management et la recherche en threat intelligence.
Check Point, pas le plus présent sur les shortlists
Au-delà de la viabilité de son activité sur ce segment, Check Point a, comme Abnormal AI, des pratiques « robustes » en matière de relation client. Gartner salue aussi une interface intuitive et une large couverture des cas d’usage rencontrés dans la sécurisation des e-mails.
Check Point se retrouve toutefois moins souvent sur les shortlists que les autres « leaders ». Il a également moins développé qu’eux sa stratégie verticale et la capacité à régionaliser ses services.
Chez Darktrace, l’effet des ajustements tarifaires se fait attendre
Darktrace se distingue par la nette augmentation de ses effectifs de support technique. Ainsi que par sa feuille de route, jugée bien alignée sur les besoins émergents et potentiellement génératrice d’opportunités par rapport à la concurrence.
Les ajustements de prix effectués depuis le précédent Magic Quadrant doivent encore se refléter dans le sentiment client, observe Gartner. Qui note aussi, par rapport aux autres « leaders », une stratégie marketing moins « agressive » et un retard sur les capacités de régionalisation.
Moins de profondeur fonctionnelle chez KnowBe4
Comme Darktrace, KnowBe4 se distingue par sa roadmap., entre protection contre la compromission de comptes et sécurisation du collaboratif. Sa stratégie verticale fait également mouches, comme l’acquisition d’Egress et la viabilité globale de l’entreprise.
KnowBe4 ne propose néanmoins pas la même profondeur fonctionnelle que les autres « leaders ». Il est aussi en retard sur la relation client et sur le marketing (positionnement non différencié).
Avec Microsoft, attention au bundling
Au-delà de sa viabilité et de son historique sur ce marché, Microsoft se distingue par l’étendue de ses ressources de support et de formation – y compris tierces. Et par sa capacité à répondre effectivement aux menaces émergentes.
Sur le volet services et support, la qualité s’avère variable. Quant à la stratégie produit, elle n’est pas pleinement alignée sur les besoins, en conséquence d’un focus sur des fonctionnalités qui améliorent l’efficacité plutôt que la sécurité. Vigilance également sur la tendance au bundling avec d’autres produits : Microsoft y recourt à un « degré supérieur » aux autres fournisseurs.
Le licensing s’est complexifié chez Mimecast
Gartner apprécie les effectifs que Mimecast a alloués au support technique et à la gestion produit. Il salue aussi le programme partenaires, le niveau de remise sur les contrats pluriannuels et, plus globalement, la visibilité de l’offre sur ce marché.
Depuis l’an dernier, le licensing est devenu plus complexe. S’y ajoute un retard par rapport aux autres « leaders » en matière de relation client. Gartner signale aussi un manque de liant entre le focus sur le risque humain et les enjeux de sécurité des e-mails.
Prix en nette hausse chez Proofpoint
Proofpoint propose un outillage plus large que la concurrence, et continue à étendre son portefeuille – par exemple à la sécurité du collaboratif. Il se distingue aussi par la diversité de sa clientèle et, plus généralement, par la viabilité de son activité.
De la diversité, il y en a moins du point de vue de la présence géographique, en tout cas par rapport aux autres « leaders ». Et la stratégie marketing n’est pas la plus différenciée sur le marché. Les prix ont par ailleurs nettement augmenté en l’espace d’un an.
La start-up française Earthwake s'appuie sur la technologie de la pyrolyse pour transformer les déchets plastiques en carburant diesel. Elle a mis au point un dispositif innovant baptisé Chrysalis…
Quand on a déjà du SAM, à quoi bon acquérir une solution de gestion du SaaS ?
Dans sa synthèse du dernier Magic Quadrant consacré à ce marché, Gartner ne tranche pas la question. Il note néanmoins qu’existe, chez les acheteurs, une forme de « résistance à l’ajout d’un autre outil »…
Ces acheteurs évoluent le plus souvent dans les achats et l’exploitation informatique. Tels sont en tout cas les principaux profils que les fournisseurs ciblent, plutôt que les métiers de la sécurité/conformité IT et de la gestion des actifs informatiques.
Le message communiqué l’an dernier quant à la faible maturité du marché reste d’actualité. Comme le conseil qui en découle : négocier des contrats de 2 ans maximum, vu le manque de garanties sur la viabilité de nombreux offreurs. Cette situation les expose à des acquisitions… y compris par des acteurs du SAM.
De la gestion des contrats aux scores de risque, de nombreuses briques facultatives
D’une année à l’autre, le cahier des charges fonctionnel pour figurer dans ce Magic Quadrant a peu évolué.
Illustration sur la découverte de l’usage du SaaS. Seule l’intégration avec des outils de sécurité a été ajoutée sur la liste des options. Il s’agissait toujours d’en proposer au moins trois, entre celle-ci et :
Extension de navigateur
Agent
Système de gestion financière ou des dépenses
SSO
Outil de gestion des terminaux
Messagerie électronique
OAuth
Connexion API directe
Comme l’an dernier, il fallait assurer un minimum d’orchestration de workflows sans code pour l’automatisation de tâches courantes dont l’onboarding/offboarding employé. Étaient également attendues, sur le volet optimisation des dépenses, des possibilités d’identification des apps redondantes, de révocation/réallocation de licences et – nouveauté – de délégation d’ownership aux métiers hors IT, avec contrôle d’accès basé sur les rôles.
Les intégrations ITSM étaient facultatives. Comme les scores de risque et de conformité, les rapports d’adoption, la gestion des contrats et des fournisseurs, la GenAI pour les admins ou les procédures de traitement des demandes d’applications par les employés.
17 fournisseurs, 5 « leaders »
L’évaluation des fournisseurs s’est faite sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
Zylo
=
2
Torii
=
3
Flexera
+ 1
4
BetterCloud
+ 3
5
Zluri
– 2
6
1Password
+ 3
7
Lumos
– 1
8
ServiceNow
– 3
9
Calero
+ 1
10
CloudEagle.ai
+ 2
11
Auvik
nouvel entrant
12
USU
– 1
13
Axonius
nouvel entrant
14
Josys
=
15
Corma
nouvel entrant
16
Viio
nouvel entrant
17
MegaZoneCloud
nouvel entrant
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Zylo
=
2
Torii
=
3
BetterCloud
+ 1
4
Flexera
+ 2
5
Zluri
– 2
6
Lumos
– 1
7
Calero
+ 3
8
1Password
+ 1
9
CloudEagle.ai
+ 3
10
ServiceNow
– 1
11
Viio
nouvel entrant
12
Josys
+ 1
13
Axonius
nouvel entrant
14
Auvik
nouvel entrant
15
USU
– 4
16
Corma
nouvel entrant
17
MegaZoneCloud
nouvel entrant
L’an dernier, trois fournisseurs étaient classés « leaders » : Torii, Zluri et Zylo. Ils le restent, rejoints par BetterCloud et Flexera.
FinQuery et Oomnitza ont disparu des radars, ne vendant plus de plate-forme autonome de gestion du SaaS. Productiv aussi est sorti, parce qu’il ne respectait pas complètement le critère d’orchestration de workflows. Quant à Trelica, il a été acquis par 1Password (que nous ne signalons ainsi pas, dans les tableaux ci-dessus, comme un nouvel entrant).
Les « leaders » mis à part, la quasi-totalité des offreurs sont dans la catégorie « acteurs de niche », témoin de la faible maturité du marché.
Plage de support limitée chez BetterCloud
BetterCloud se distingue par son adaptation à l’évolution des besoins. Les acquisitions de G2 Track et de Tricent ont enrichi son offre, respectivement sur la gestion des dépenses et la gouvernance du partage de fichiers. Gartner salue aussi un ciblage efficace des acheteurs IT, finance et sécurité, avec une stratégie de ristournes flexible. Bon point également pour la cadence de livraison de nouvelles fonctionnalités.
BetterCloud ne permet pas de choisir la localisation des données et n’assure de support que du lundi au vendredi entre 8 heures et 20 heures (heure de l’Est*). Sa tarification est plus élevée que la moyenne du marché (modèle à trois niveaux et module complémentaire pour la gouvernance). Gartner note aussi l’absence d’extension de navigateur pour la découverte de l’usage du SaaS.
Flexera n’a pas fini d’intégrer Snow Software
Flexera bénéficie d’une présence physique mondiale (États-Unis, Canada, Brésil, Royaume-Uni, Suède, Australie, Inde) et d’un réseau d’intégrateurs étendu. Gartner apprécie sa capacité de ciblage commercial, tant d’un point de vue sectoriel que géographique. Ainsi que ses prix, généralement plus bas que chez la concurrence et assortis d’une politique de ristournes flexible. Bon point également pour le marketing, qui, entre webinaires et événements physiques, alimente la notoriété de Flexera, y compris sur le SAM.
En attendant que soit finalisée l’intégration de Snow Software, Flexera ne propose pas de moyen de mesurer ou de stimuler l’adoption du SaaS. Gartner signale aussi l’inconsistance du support et de la qualité des partenaires intégrateurs. Il y ajoute le nombre limité d’intégrations directes par API.
La résidence des données, absente chez Torii…
Torri est crédité d’un bon point pour son recueil du feed-back, et par là même pour sa roadmap. Il l’est aussi pour sa cadence de livraison d’améliorations fonctionnelles. Et pour sa tendance à « anticiper » le besoi. En tout cas à introduire des capacités avant que la demande soit généralisée. Gartner en veut pour preuve l’usage de la GenAI pour, entre autres, traiter les contrats, enrichir les profils d’applications et concevoir des automatisations.
Comme chez BetterCloud, pas de choix de l’emplacement des données (Amérique du Nord uniquement). Si le licensing est flexible, Torii propose, avec son niveau Enterprise, l’une des offres les plus onéreuses de tout le Magic Quadrant. Plus « petit » que les autres « leaders », il n’a pas la même capacité pour passer à l’échelle ses équipes commerciales.
… et coûteuse chez Zluri
La tarification de base de Zluri est parmi les plus avantageuses du Magic Quadrant et elle s’assortit d’une stratégie intéressante de remise sur volume. Comme chez Flexera, le marketing est jugé efficace. L’intégration de l’IA l’est aussi (traitement des contrats, analyse de l’activité des utilisateurs, dimensionnement des licences…), d’autant plus qu’elle favorise la prise en main de la solution.
Zluri permet de choisir la localisation des données… mais c’est plus cher (le prix dépend, en particulier, de la taille de l’entreprise et du volume de données). Les avis sont de plus variés quant à la qualité du support et à l’efficacité de la solution. Par ailleurs, les éléments qui figurent en tête de la feuille n’apparaissent pas alignés sur les principales demandes des clients.
Avec Zylo, des coûts potentiellement difficiles à prévoir
Bon point marketing pour Zylo également, de son podcast et sa chaîne YouTube à son SaaS Management Index annuel. Gartner salue aussi la qualité de l’expérience client, entre customer success managers et méthodes de maximisation de la valeur. Il note aussi l’enrichissement de la bibliothèque d’applications (chacune incluant des informations financières, fonctionnels et de risque) et les capacités « exhaustives » de mesure d’adoption.
Chez Zylo, les données sont localisées exclusivement en Amérique du Nord. Et le personnel, exclusivement aux États-Unis (élément à prendre d’autant plus en compte dans le contexte géopolitique que l’on connaît). Vigilance aussi sur la tarification : il peut être difficile de la comprendre… et de prévoir les coûts. À noter également l’absence d’approche sectorielle sauf pour gouvernements et pharma.
* Fuseau horaire du Québec et de New York, entre autres. 6 heures de décalage avec Paris.
Des modèles spécialisés aux templates d’applications, la demande en solutions sectorielles est croissante, mais le marché n’est pas encore mature.
Gartner fait la remarque dans son premier Magic Quadrant des « plates-formes de développement d’applications IA ».
Il est tentant d’y voir la continuité de celui consacré aux « services d’IA cloud pour les développeurs » (dernière édition : avril 2024). La majorité des fournisseurs classés dans l’un se retrouvent d’ailleurs dans l’autre. À commencer par les quatre désignés « leaders » : AWS, Google, IBM et Microsoft.
D’un Magic Quadrant à l’autre, l’idée reste la même : les solutions évaluées permettent d’intégrer de l’IA dans des applications. La terminologie évolue néanmoins pour englober la notion de plate-forme. Un mouvement que Gartner a suivi ces derniers temps pour quantité d’autres marchés (gouvernance des données et stockage d’entreprise, par exemple).
La gouvernance, critère obligatoire ; pas l’observabilité
Les briques fonctionnelles à fournir impérativement étaient, dans les grandes lignes : développement avec et sans code, ancrage, garde-fous, catalogue de modèles, déploiement, gouvernance et évaluations.
Les éléments suivants n’étaient pas obligatoires :
Gestion de la sécurité et du risque (DLP, sandbox, IAM…)
Routage intelligent des prompts (selon cas d’usage, performance et coût)
Passerelle IA (pour la continuité d’activité)
Observabilité
Techniques « avancées » d’ancrage (graphes de connaissances, chunking, reranking…)
Composabilité (intégration de solutions tierces)
Gestion des protocoles émergents (MCP, A2A, etc.)
Simulation
Catalogues et marketplaces d’outils, de données et d’agents
Il fallait aussi respecter quelques seuils business. Principalement, avoir dégagé au moins 100 M$ de CA en 2024 avec les offres concernées ou bien être en mesure de revendiquer au moins 500 organisations clientes.
Ces seuils ont coûté leur place à Cohere, CrewAI, Dify, Live Tech et WRITER, qui ont cependant tous droit à une « mention honorable ». Même situation pour H2O.ai, qui figurait dans le dernier Magic Quadrant des services d’IA cloud pour les développeurs.
11 fournisseurs, 4 « leaders »
Les offreurs sont jugés sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre censé refléter la capacité à répondre effectivement à la demande du marché (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
Sur cet axe « exécution », la situation est la suivante :
Rang
Fournisseur
1
Google
2
AWS
3
Microsoft
4
IBM
5
Volcano Engine
6
Alibaba Cloud
7
Palantir
8
Tencent Cloud
9
LangChain
10
OpenAI
11
CoreWeave
Sur l’axe « vision » :
Rang
Fournisseur
1
Microsoft
2
Google
3
AWS
4
OpenAI
5
IBM
6
Volcano Engine
7
Alibaba Cloud
8
Palantir
9
Tencent Cloud
10
CoreWeave
11
LangChain
Des 11 fournisseurs classés, 4 n’étaient pas présents dans le Magic Quadrant des services d’IA cloud pour les développeurs :
CoreWeave, avec son offre Weights & Biases (issue de l’acquisition de la société éponyme)
LangChain, avec ses frameworks LangChain et LangGraph ainsi que sa plate-forme commerciale LangSmith
Palantir avec son Artificial Intelligence Platform, commercialisée avec Palantir Foundry
Volcano Engine, avec son offre Volcano Ark
AWS doit mieux communiquer sur la valeur métier
AWS a été évalué sur son offre Bedrock (hors AgentCore, lancé après les derniers relevés de Gartner).
Sa stratégie sectorielle fait mouche auprès du cabinet américain, entre agents prêts à l’emploi, modèles spécialisés (TelClaude pour les télécoms, par exemple) et gestion de formats de données comme FHIR (Fast Healthcare Interoperability Resources) ou ODSU (Open Subsurface Data Universe). Bon point également pour une brique que Gartner a déjà saluée en d’autres occasions : la vérification par raisonnement automatisé.
AWS gagnerait à améliorer sa communication sur la valeur métier, ainsi qu’auprès de certains secteurs de marché, estime Gartner. Qui souligne par ailleurs le risque potentiel lié au choix de s’appuyer sur de l’« innovation organique » et des partenariats (AWS acquiert moins de technologies IA et recrute moins de talents que la concurrence).
Google peut progresser sur le déploiement et la gouvernance
Avec Vertex AI, Google propose un licensing « parmi les plus flexibles » entre les fournisseurs classés au Magic Quadrant. Gartner note les promotions accordées aux start-up, les programmes académiques et les partenariats d’intégration (Accenture, Cognizant, Deloitte, Onix et Quantiphi sont cités). Il rappelle aussi que Google est à l’origine du protocole A2A – lancé en 2025 puis confié à la Fondation Linux – et qu’il permet de déployer Vertex AI sur site et en périphérie.
Les utilisateurs de Vertex AI ont tendance à le noter moins bien que les solutions concurrentes concernant les capacités de déploiement et de gouvernance. Quant au modèle économique, encore principalement fondé sur une facturation, sa transition vers du SaaS avec débit garanti est lente, entraînant un risque de perte de compétitivité. Google doit aussi gagner en notoriété avec des campagnes plus ciblées, estime Gartner.
IBM, en retard sur la multimodalité
Avec watsonx, IBM est salué pour son marketing, tant de par sa capacité à cibler divers profils et métiers que de par sa présence sur les réseaux sociaux… et son sponsoring sportif (F1, Wimbledon). Autre point positif : son positionnement « ouvert » dont témoignent, selon Gartner, les modèles Granite (open-weight, licence Apache2) et le framework BeeAI.
Les scores attribués par les clients sont plus faibles que chez les autres « leaders » sur l’observabilité et les agents prêts à l’emploi. IBM a par ailleurs du retard sur la gestion de la multimodalité et sur les certifications de conformité dans certaines régions géographiques.
Microsoft, encore largement branché à OpenAI
Microsoft a efficacement communiqué le rebranding d’Azure AI en Azure AI Foundry, juge Gartner, qui salue aussi une bonne communication autour des outils pour les développeurs. Sur le plan fonctionnel, le cabinet américain apprécie les capacités d’orchestration et de développement multimodal. Ainsi que l’extension du catalogue de ressources et des options de déploiement.
Les scores attribués par les clients sont inférieurs à ceux des autres « leaders » sur la partie services et support. Ils le sont aussi sur le prix. Gartner y ajoute une dépendance encore importante aux technologies d’OpenAI.
Si la GenAI contribue à « raviver » les solutions de gestion des actifs numériques (DAM), elle s’y diffuse de manière très inégale.
Le constat était ressorti, il y a près d’un an, du Magic Quadrant consacré à ce marché.
L’analyse de Gartner dépeignait la situation à octobre 2024.
Au sujet de cette diffusion très inégale de la GenAI, le cabinet américain évoquait les fournisseurs qui n’en proposaient pas encore pour la création de contenu ; ceux qui étaient « en retard » sur ces mêmes capacités ; ceux qui avaient plus globalement « du mal à suivre le rythme » ; et ceux chez qui la GenAI avait un prix non négligeable.
Cette remarque ne figure plus dans la nouvelle édition du Magic Quadrant du DAM. Gartner met, au contraire, l’accent sur la généralisation de certaines briques. Par exemple, la création de contenu assistée par IA. La majorité des fournisseurs classés (13 sur 17) en proposent nativement. Soit grâce à des modèles propriétaires, soit en embarquant des LLM ouverts.
La manipulation de contenu assistée par IA est également devenue standard. En parallèle, les fonctionnalités touchant à la vidéo (création, édition, localisation linguistique) se répandent. On voit aussi émerger une adaptation automatisée des contenus aux canaux de diffusion. Et la possibilité, pour le client, d’apporter ses propres modèles.
L’intégration de MCP, vu comme un levier de standardisation et d’encadrement de la production de contenu, est en revanche encore limitée. Au moment où Gartner a effectué ses relevés, un tiers des offreurs avaient commencé à implémenter le protocole, ou tout moins déclaraient envisager de le faire.
Adobe et Orange Logic, nouveaux « leaders »
Sur le plan fonctionnel, le cahier des charges pour figurer dans le dernier Magic Quadrant du DAM imposait, dans les grandes lignes :
L’ingestion des actifs, leur organisation (tagging et taxonomie) et leur mise à disposition
Gestion des droits numériques
Planification de workflows
Intégration avec des solutions marketing – ce métier étant le premier public
La capacité à répondre effectivement à la demande du marché (expérience client, marketing, qualité des produits/services…) est restituée sur l’axe dit « exécution ». Les fournisseurs s’y positionnent comme suit :
Rang
Fournisseur
Évolution annuelle
1
Aprimo
=
2
Bynder
=
3
Storyteq
=
4
Adobe
+ 4
5
OpenText
+ 4
6
Frontlify
nouvel entrant
7
Smarsheet
– 2
8
Orange Logic
– 4
9
Hyland
– 3
10
Acquia
– 3
11
Cloudinary
=
12
Sitecore
– 2
13
CELUM
– 1
14
PhotoShelter
nouvel entrant
15
MediaValet
– 1
16
Wedia
nouvel entrant
17
Fotoware
– 4
Sur l’axe « vision », qui reflète les stratégies (commercial, marketing, produit, sectorielle, géographique…), la situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
Storyteq
+ 1
2
Aprimo
– 1
3
Cloudinary
=
4
Orange Logic
+ 4
5
Bynder
– 1
6
Sitecore
– 1
7
Adobe
=
8
OpenText
– 2
9
Acquia
– 1
10
Frontlify
nouvel entrant
11
PhotoShelter
nouvel entrant
12
CELUM
=
13
Wedia
nouvel entrant
14
MediaValet
– 1
15
Hyland
– 6
16
Smartsheet
– 5
17
Fotoware
– 3
Il y a un an, ils étaient trois dans le carré des « leaders » : Aprimo, Bynder et Storyteq. Adobe et Orange Logic les y ont rejoints.
Quels produits pour quels usages ? L’offre d’Adobe suscite des incertitudes
Gartner salue les possibilités d’Adobe Experience Manager Assets sur l’aspect workflows de création (soumission, approbation, intégration de l’IA Firefly). Il apprécie également les fonctionnalités de gouvernance et de contrôle d’accès, basées sur les rôles et les attributs. Et souligne qu’Adobe est l’un des porteurs de la Content Authenticity Initiative. Bon point également pour le réseau de partenaires (ils sont 4200 certifiés).
Le jugement est moins positif quant aux capacités agentiques. Gartner l’illustre par l’absence d’un agent capable de contrôler les actifs à l’ingestion. Il appelle aussi à la vigilance sur la tarification. D’une part, parce que l’accès à des fonctionnalités avancées (rendu temps réel, expériences 3D…) nécessite un add-on. De l’autre, à cause du nombre limité de licences utilisateur incluses de base dans les différents niveaux d’offre. Le cabinet américain note également de potentielles incertitudes sur les produits auxquels recourir en fonction des cas d’usage. Un « manque de clarté » qui peut compliquant l’adoption et la mise en action.
Aprimo et la GenAI : vigilance sur le modèle à la consommation
Il y a un an, Aprimo avait été crédité d’un bon point pour la continuité offerte dans la gestion du contenu entre les outils marketing et les autres logiciels d’entreprise. Gartner avait aussi apprécié ses « starter packs » sectoriels avec workflows et taxonomies préconfigurés. Il avait également salué les capacités de son produit en matière de recherche, de tagging et de templating.
Le focus GenAI avait valu à Aprimo un mauvais point, en ce qu’il était susceptible de limiter les investissements dans le cœur fonctionnel. La tarification de la GenAI était autre point noir : l’add-on donnant accès aux fonctionnalités les plus avancées (entraînement personnalisé pour le tagging, génération d’images, traduction…) pouvait faire augmenter le TCO d’un tiers. Gartner avait aussi regretté le nombre limité d’événements physiques à destination des clients.
Cette fois, l’IA vaut un bon point à Aprimo, entre recherche sémantique, métadonnées prédictives et révision automatisée du contenu. Gartner y ajoute le niveau de performance et de fiabilité de la plate-forme. Ainsi que les fonctionnalités de conformité (certifications sectorielles, pistes d’audit immuables, vérifications assistées par IA).
Le module complémentaire pour la GenAI avancée reste un problème, mais sous un autre angle : son modèle à la consommation, qui rend potentiellement les coûts moins prévisibles. Pour ce qui est de la stratégie AI-first, elle est susceptible de « challenger » les organisations peu matures, tant par la cadence de diffusion de l’IA que par le périmètre concerné. Les clients ayant des besoins hors Amérique du Nord et EMEA resteront par ailleurs vigilants quant à la présence physique limitée d’Aprimo et de ses ressources de support sur les autres plaques géographiques.
Chez Bynder, une double tarification à bien étudier
Il y a un an, l’offre de Bynder avait fait mouche auprès de Gartner sur le plan fonctionnel. Notamment sur la détection de visages et le système de mise en quarantaine des contenus avant approbation. Les capacités d’analyse de l’usage des actifs avaient aussi été saluées. Comme la relation client (événements réguliers, roadmap accessible à tous, webinars lors de la sortie de mises à jour).
Les investissements en IA ont produit moins de fonctionnalités que chez la concurrence, avait regretté Gartner. Il y avait ajouté un manque de transparence sur le packaging des fonctionnalités constituant des add-on. Tout en signalant l’absence de roadmaps sectorielles et d’améliorations ciblées sur des verticales (Bynder a opté pour une approche horizontale avec adaptation aux cas d’usage).
Cette fois, l’un des bons points va aux capacités de création et de mise en œuvre d’agents IA. Qui, combinés à l’API, favorisent la création de contenus par d’autres métiers que le marketing. Bynder se distingue aussi sur la distribution des contenus, autant par leur adaptation à chaque canal que par l’exhaustivité du catalogue de connecteurs. Il a aussi pour la la qualité de son support à l’implémentation (blueprints, formations par rôle, conseils de gouvernance, taxonomies sur étagère, templates personnalisables…).
À un an d’intervalle, Gartner note toujours que la feuille de route sectorielle est limitée. Il trouve aussi à redire sur la partie analytics, du fait que les dashboards doivent être configurés via un mix d’API et d’intégrations pour obtenir des recommandations réellement « activables ». Quant à la tarification, basée soit sur le nombre d’assets soit sur le volume de stockage, elle implique de bien évaluer la structure de sa bibliothèque de contenus.
Orange Logic : gare aux délais d’implémentation
Comme Bynder, Orange Logic se distingue sur l’automatisation agentique. Il en est de même sur la recherche conversationnelle – avec exploitation du contexte : profils d’utilisateurs, relations entre assets, analyse des frames dans les vidéos, etc. Gartner salue aussi son concepteur visuel de workflows, jugé convivial (user-friendly).
Comme chez Aprimo, la présence physique est limitée hors Amérique du Nord. Le processus d’implémentation s’avère par ailleurs plus long que chez la concurrence. Et les modules optionnels (3D, gestion des droits, concepteur de sites sans code…), souvent indispensables dans les grandes entreprises, peuvent faire monter la facture.
Avec Storyteq, le modèle à la connexion peut coûter cher
Il y a un an, Gartner avait présenté Storyteq comme le fournisseur proposant le plus de capacités d’assistance par IA pour la création et l’édition de contenus. Il y avait ajouté les fonctionnalités de vision par ordinateur pour améliorer la recherche d’assets et la disponibilité d’un CMS en self-service. Tout en soulignant l’étendue des partenariats conseil et ISV.
Le prix de la GenAI était un point noir, même si la tarification d’ensemble demeurait flexible. Gartner avait aussi fait remarquer les travaux préparatoires que certaines fonctionnalités GenAI supposaient pour pouvoir fonctionner à l’échelle. Et affirmé que la présence physique de Storyteq restait largement concentrée en EMEA, en plus d’un focus historique sur les services d’agence et d’une absence de programme de reconnaissance client.
Cette fois, la stratégie sectorielle fait mouche: Storyteq a des équipes dédiées à la santé, l’automobile, la finance et le retail, entre autres. Il y couple des packs associant workflows, schémas et exemples de conformité. Son offre se distingue aussi sur les services professionnels et le support technique. Ainsi que sur la conception d’agents sans code et l’exploitation de l’IA pour la protection des contenus (gestion dynamique du consentement, détection de données personnelles, audit de conformité continu).
Beaucoup d’intégrations avec des systèmes externes sont facturées à la connexion. Pour qui souhaite organiser un écosystème, les coûts peuvent vite enfler. Pour ce qui est de la présence physique, elle reste largement concentrée en Amérique du Nord et en EMEA, malgré l’acquisition de PureRed. Quant aux investissements marketing, ils sont moins importants que chez la concurrence, résultant en une visibilité limitée.
Parler d’un marché des solutions de gestion du travail collaboratif a-t-il encore un sens ?
Gartner le fait encore dans le cadre de son Magic Quadrant. L’an dernier, il avait toutefois reconnu que les frontières s’estompaient avec des offres issues de segments adjacents (gestion de projets, intranets, outils de développement, suites bureautiques cloud…) tendant à développer de telles capacités.
La même dynamique est évoquée cette année, mais dans le sens inverse : à mesure que l’IA les gagne, les solutions de gestion du travail collaboratif entrent en concurrence avec des applications métier qui relèvent d’autres segments dans la nomenclature du cabinet américain.
Ce phénomène est aussi porté par la multiplication de ce que Gartner appelle des « accélérateurs de cas d’usage ». En quelque sorte, des kits de démarrage associant modèles de données, workflows et configurations prêts à l’emploi. Une proposition de valeur qui réduisent, tout du moins sur le papier, le besoin en applications spécialisées.
9 fournisseurs… tous « leaders » ou presque
D’une année à l’autre, les critères d’inclusion au Magic Quadrant ont peu évolué. Sur le volet fonctionnel, il fallait toujours, dans les grandes lignes, couvrir au minimum les aspects planification, collaboration (y compris création de contenu), workflows et automatisation, reporting et analytics, en fournissant également lesdits « accélérateurs de cas d’usage ». Un élément s’est ajouté : « assistance intelligente ». Y sont regroupées des capacités fondées sur l’IA générative, dont la création et l’édition de contenu, l’aide à l’utilisation des produits et l’optimisation de workflows.
Les offreurs sont évalués sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre censé refléter la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
Les 9 fournisseurs classés sont les mêmes que l’an dernier. En 2024, ils étaient 5 dans le carré des « leaders »… et les 4 autres n’en étaient pas si loin. Un an plus tard, ils sont 7 « leaders » et les 2 autres en sont encore plus proches.
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
monday.com
+1
2
Smartsheet
– 1
3
Asana
=
4
Adobe
=
5
Airtable
+ 1
6
Wrike
– 1
7
Atlassian
=
8
ClickUp
=
9
Quickbase
=
L’expérience client et la qualité des produits ont eu un poids élevé dans la notation. La viabilité (santé financière et probabilité d’investissement continu dans la solution), un poids moyen. L’exécution commerciale et marketing, un poids bas.
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
monday.com
=
2
Asana
=
3
Smartsheet
=
4
Airtable
=
5
Wrike
=
6
ClickUp
+ 1
7
Quickbase
+ 2
8
Atlassian
=
9
Adobe
– 3
La stratégie produit a eu un poids élevé dans la notation. L’innovation, un poids moyen. La compréhension du marché, un poids bas, comme les stratégies commerciale, marketing et géographique. La stratégie sectorielle n’a pas été notée.
Du channel aux solutions sectorielles, des éléments « en développement » chez Airtable
Airtable se distingue autant sur la composante low-code que sur la scalabilité de son socle HyperDB. Gartner salue aussi l’innovation en matière d’IA, avec une approche associant chatbot global et agents embarqués au sein des applications.
À grande échelle, il peut s’avérer difficile de maintenir une gouvernance cohérente des applications personnalisés. Attention aussi à la courbe d’apprentissage pour qui est néophyte des concepts de base de données. Gartner souligne aussi qu’Airtable développe actuellement sa présence hors de son cœur de marché (présence physique, channel, datacenters) et sur les solutions sectorielles.
Avec Asana, attention à la courbe d’apprentissage
Bon point pour Asana sur la notoriété de marque, la communauté et le taux d’adoption pour certains usages (planification du travail, en particulier). Gartner apprécie aussi l’architecture Work Graph, entre le modèle de données qui la porte et les agents IA qui y sont greffés. Il note également l’exhaustivité de l’offre sur la gestion de tâches et des projets ainsi que sur le suivi d’objectifs et résultats.
De par son exhaustivité, Asana est susceptible de présenter une certaine courbe d’apprentissage. Gartner relève aussi une marge de progression sur l’approche sectorielle : certains cas d’usage peuvent ne pas être efficacement couverts. Le cabinet américain remarque également que la croissance des revenus d’Asana a ralenti, tandis que l’effectif n’a pas augmenté. Potentiellement le signe, estime-t-il, d’une dépendance au modèle product-led (le produit comme moyen privilégié d’acquisition, par opposition au sales-led ou au marketing-led).
Atlassian : des faiblesses sur la gestion des actifs et du temps
Atlassian se distingue par son niveau de présence sur le marché ; et par sa notoriété, notamment chez les développeurs et l’IT. Il a aussi pour lui son écosystème (partenaires, marketplace fournie, certification de produits tiers…). Et sa tarification, jugée transparente et compétitive.
Certains produits ayant tendance à se chevaucher (Gartner cite Trello et Jira), l’offre d’Atlassian peut s’avérer difficile à appréhender. S’y ajoute une approche commerciale et marketing moins développée que chez les concurrents sur l’aspect sectoriel. Au niveau fonctionnel, il existe des faiblesses sur la gestion d’actifs, l’allocation de ressources et le suivi du temps.
ClickUp, pas déployé à la même échelle que les concurrents directs
Gartner note la croissance notable de la clientèle de ClickUp et du nombre d’utilisateurs actifs. Il souligne aussi la facilité d’utilisation, tant au niveau de l’interface que de par la flexibilité offerte sur la gestion de tâches, avec une configuration initiale minimale. Bon point également sur la convergence « travail-connaissances-communication », qui minimise le changement de contexte.
Hors de l’Union européenne, la présence géographique de ClickUp est limité. Ses plus gros déploiements sont plus petits que ceux des concurrents directs (moindres volumes de données et d’utilisateurs simultanés). Quant au réseau de partenaires, il est « en évolution », tout comme le ciblage de secteurs et de métiers (pas de programme commercial dédié).
Tarification, cœur fonctionnel… Les contreparties des « accélérateurs » de monday.com
monday.com jouit d’une notoriété portée par son niveau d’offre gratuit, son UX jugée intuitive et son ciblage efficace de relais d’influence dans plusieurs secteurs. Autre élément de distinction : ses « accélérateurs » (CRM, développement logiciel, service management…), qui comment à concurrencer des apps métier. Gartner apprécie aussi les investissements dans la gestion du cycle de vie des données et la personnalisation par API.
Point fort, les « accélérateurs » sont en même temps susceptibles de limiter les investissements dans le cœur fonctionnel. Ils entraînent aussi, avec leur tarification spécifique, une complexité pour qui recherche une solution multiusage. Gartner recommande par ailleurs de vérifier la disponibilité d’expertise sur les plaques géographiques où monday.com est essentiellement en indirect.
Smartsheet : les complexités du nouveau modèle de licence
Bon point sur le plan fonctionnel pour Smartsheet, qui s’avère adapté aux workflows complexes nécessitant de l’élasticité. Les briques de gestion de projet, de gestion de ressources et de reporting tendent à être appréciées des grandes entreprises. Autres points forts : la notoriété (Smartsheet est le fournisseur le plus souvent benchmarké dans les requêtes faites à Gartner) et la partie collaboration de contenu (versioning, pistes d’audit, fonctionnalité de révision avec fils de discussion).
L’an dernier, Gartner rappelait que Smartsheet allait redevenir une entreprise privée et appelait à porter attention aux impacts sur la visibilité de la stratégie, de la roadmap et des résultats. Il n’en dit pas moins cette année, même si la transition a été bouclée depuis (janvier 2025). Dans cet intervalle, la croissance des revenus et de l’effectif a été plus faible que chez les principaux concurrents. Quant à la transition vers le modèle à l’abonnement par utilisateur, elle a engendré des complexités de réconciliation et de gestion des licences ; complexités renforcées par la suppression de l’option free collaborator.
La marketplace de Wrike, en défaut de capacités-clés
L’acquisition de Klaxoon a renforcé les capacités de Wrike sur la collaboration visuelle et ouvert la voie au développement d’agents IA autour de cette brique. Gartner apprécie aussi les possibilités en matière de gestion des données (synchronisation des systèmes tiers, moteur no code avec connecteurs préconstruits…). Et la tarification, jugée transparente, compétitive et particulièrement accessible aux petites équipes comme aux déploiements multiusages.
Comme chez Smartsheet, la dynamique business n’est pas positive, tant sur la croissance des revenus et de la clientèle que sur la visibilité globale. La présence physique reste limitée dans certaines régions géographiques et le réseau de partenaires n’est pas le plus étendu sur ce marché. Des services-clés manquent par ailleurs sur la marketplace (publication en self-service, évaluations et discussions d’utilisateurs).
« SIEM : 6 fournisseurs dominent un marché qui se densifie ».
Ainsi avions-nous titré, au printemps 2024, notre synthèse de ce qui était alors le dernier Magic Quadrant consacré à ce marché. Gartner avait effectivement classé 22 offreurs, dépassant le seuil des 20 auquel il se tient généralement.
Ils furent 6 à faire leur entrée à cette occasion. Un directement chez les « visionnaires » (Google). Les autres chez les « acteurs de niche » (Logz.io, NetWitness, Odyssey, QAX, Venustech).
4 entrants pour 9 sortants : un Magic Quadrant à périmètre nettement réduit
Dans le Magic Quadrant du SIEM version 2025, plus de Logz.io, de NetWitness, d’Odyssey ni de Venustech. Ils ne sont pas les seuls à disparaître. Devo Technology, IBM, LogRhythm, Logpoint et OpenText suivent le même chemin.
Pour LogRhythm, c’est dû à sa fusion avec Exabeam (finalisée en juillet 2024). IBM ne remplit quant à lui plus le cahier des charges technique de Gartner depuis qu’il a vendu QRadar SaaS à Palo Alto Networks.
Pour les autres, c’est partagé. Logpoint n’a pas satisfait à tous les critères fonctionnels. Devo Technology, Odyssey et Venustech, aux critères business. Logz.io, Netwitness et OpenText, aux uns et aux autres.
Les critères techniques ont globalement peu évolué par rapport à l’an dernier. Mais quelques seuils ont été relevés, comme le volume miminal de connecteurs pour la capture et le streaming de données en complément à la collecte de logs.
D’une année sur l’autre, les mêmes fonctionnalités sont restées « à la carte ». Il fallait, d’une part, en fournir au moins 2 sur les 4 suivantes :
Recherche fédérée sur environnement SIEM distribué
Recherche hors des dépôts du SIEM
Intégration de data lakes tiers
Disponibilité d’un stockage de long terme (avec capacité de rappel « chaud » sur 365 jours)
D’autre part, fournir au moins 2 des 3 suivantes :
SOAR (automatisation et orchestration de tâches communes)
Threat intelligence
Capacités fondées sur l’analyse comportementale ou la data science/le machine learning
Sur le volet business aussi, des seuils ont été relevés. D’une part, il fallait avoir dégagé, entre mars 2024 et mars 2025, au moins 85 M$ de CA licences + maintenance sur les produits cloud*/SaaS ou bien disposer de 500 clients en production avec des contrats en direct sur ce même type de produits (les seuils précédents étaient à 75 M$ et 200 clients). De l’autre, avoir réalisé au moins 25 % de ce CA auprès de clients localisés hors de la région dans laquelle se trouve le siège social du fournisseur ; ou bien disposer d’au moins 25 % de clients respectant de même périmètre géographique (les seuils précédents étaient à 15 % de CA et 30 clients).
Platform or not platform ? Des divergences qui structurent le marché
Le relèvement des seuils business est aussi, explique Gartner, la conséquence de la présence de « gros » fournisseurs parmi les 4 entrants de cette année (CrowdStrike, Datadog, Graylog et Palo Alto Networks).
CrowdStrike et Palo Alto Networks font partie des fournisseurs qui ont, comme Microsoft entre autres, intégré leur SIEM dans des offres plus larges avec un modèle de licence adapté. Certains, plutôt que de jouer la carte de la plate-forme, axent leur discours sur les capacités d’ingestion à grande échelle.
Une opposition existe aussi entre ceux qui, pour réduire la complexité, poussent la combinaison du SIEM avec d’autres parties de la stack de sécurité. Et ceux qui, en vue de ce même objectif, prônent un usage stratégie de l’augmentation des workflows (IA, automatisation).
Ces divergences contribuent à faire évoluer le paysage concurrentiel. À tel point que Gartner a priorisé, dans son évaluation, la vision que les fournisseurs ont du SIEM et leur capacité à faire adopter cette vision au marché.
17 fournisseurs, toujours 6 « leaders »
Le positionnement au sein du Magic Quadrant résulte de la combinaison d’évaluations sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre censé refléter la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
Sur l’axe « exécution », la situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
Splunk
=
2
Microsoft
=
3
Google
+ 8
4
Rapid7
+ 3
5
Palo Alto Networks
nouvel entrant
6
Securonix
– 2
7
Exabeam
– 1
8
Fortinet
=
9
Gurucul
=
10
Elastic
+ 4
11
CrowdStrike
nouvel entrant
12
Sumo Logic
– 7
13
Huawei
+ 2
14
Datadog
nouvel entrant
15
QAX
+ 6
16
ManageEngine
+ 1
17
Graylog
nouvel entrant
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Google
+ 4
2
Securonix
+ 4
3
Microsoft
– 1
4
Gurucul
– 3
5
Exabeam
– 1
6
Splunk
– 3
7
Elastic
+ 2
8
CrowdStrike
nouvel entrant
9
Datadog
nouvel entrant
10
Huawei
+ 6
11
Palo Alto Networks
nouvel entrant
12 (ex aequo)
QAX
+ 6
12 (ex aequo)
Fortinet
+ 2
12 (ex aequo)
Rapid7
+ 1
15
Sumo Logic
– 3
16
Graylog
nouvel entrant
17
ManageEngine
+ 5
Six fournissent se trouvent dans le carré des « leaders » : Exabeam, Google, Gurucul, Microsoft, Securonix et Splunk.
Exabeam demeure plus cher que la moyenne
L’an dernier, Gartner avait salué l’UI d’Exabeam, « très en phase » avec les besoins des analystes sécurité. Il avait aussi apprécié le scoring dynamique et les capacités de traitement des flux tiers par recherche fédérée.
Le cabinet américain avait, en revanche, pointé une courbe d’apprentissage plus longue que sur les autres SIEM. Et relevé une tarification plus élevée que la moyenne, en plus d’une tendance à se focaliser sur les grandes entreprises.
Cette année encore, l’UI fait mouche. Comme le scoring et la recherche fédérée. S’y ajoutent l’assistant Exabeam Copilot (qui simplifie le tri et la priorisation des cas) et une marketplace « bien fournie en contenu », notamment sur la menace interne, les règles de corrélation et les dashboards extensibles.
La tarification au-dessus de la moyenne reste d’actualité. La courbe d’apprentissage aussi, mais pour une brique en particulier : Advanced Analytics (moteur legacy de détection comportementale). On surveillera par ailleurs l’effet latent de la fusion avec LogRhythm (annoncée en mai 2024) en matière d’allocation des ressources de développement produit.
Google peut progresser sur l’UEBA
Avec son offre Chronicle, Google Cloud avait fait son entrée au Magic Quadrant du SIEM l’an dernier. Il était classé chez les « visionnaires » (résultat insuffisant sur l’axe « exécution » pour être leader).
Depuis, Chronicle est devenu SecOps. La plate-forme se distingue sur les requêtes « avancées et complexes », selon Gartner. La fédération et le multilocataire la rendent attractive pour les MSSP comme pour les grandes organisations qui ont besoin de plusieurs instances de SIEM. Autre bon point : l’injection d’IA sur un large spectre de workflows, en plus de capacités d’automatisation « bien intégrées ».
On notera qu’il n’existe pas de version on-prem de SecOps. S’y ajoute une UI complexe, au sens où Google favorise une approche CLI (pour la création de requêtes, par exemple) dont l’implémentation et l’exploitation supposent des compétences. Il y a également de la marge de progression sur l’UEBA, qui manque de use cases embarqués qu’on trouve généralement chez les autres « leaders » du SIEM.
Gurucul : un prix potentiellement difficile à justifier
L’an dernier, Gurucul était lui aussi chez les « visionnaires ».
Il est crédité d’un bon point pour son programme marketing, dont l’extension est corrélée à un taux de renouvellements plus élevé que la moyenne. Gartner apprécie aussi ses roadmaps et sa capacité à délivrer des fonctionnalités de façon consistante. Bon point également pour la partie gestion des données, qui apporte de la flexibilité.
Le prix est beaucoup plus élevé que chez les principaux concurrents, si bien qu’il peut être difficile de prouver la valeur de certaines fonctionnalités « avancées ». Globalement, la solution est plutôt adaptée aux acheteurs qui présentent des cas d’usage complexes. Attention aussi sur la partie « augmentation » des workflows (automatisation, orchestration) : sur le plan fonctionnel, Gurucul est en retard sur les autres « leaders ».
Chez Microsoft, les dépendances à Azure perdurent
L’an dernier, Gartner avait salué les passerelles établies entre le SIEM Sentinel et le reste de l’écosystème de Microsoft (SOAR, CASB, protection des identités et des terminaux…). Il avait aussi apprécié la couverture MITRE ATT&CK. Et les capacités de personnalisation, tant au niveau des modèles de détection de menaces que de l’UI de threat intelligence.
Le cabinet américain n’en avait pas dit autant au sujet du reporting de conformité, jugé limité. Il y avait ajouté la dépendance à des services Azure pour certaines fonctionnalités… et pour l’hébergement de la solution.
Cette année, Microsoft conserve son bon point pour le niveau de couverture de la matrice MITRE ATT&CK. Même chose pour les intégrations avec le reste de son écosystème. Gartner y ajoute l’extension de la prise en charge d’outils tiers, l’intégration d’IA en particulier sur la partie corrélation, et les capacités de personnalisation du tableau de bord de renseignement sur les menaces.
Microsoft peut lui aussi se révéler plus cher que la concurrence, surtout lorsqu’on ingère des données depuis des sources externes. Les dépendances à Azure valent toujours (pour l’intégration de sources de télémétrie tierces, par exemple), y compris pour l’hébergement (SaaS uniquement).
Securonix, en retard sur l’augmentation des workflows
L’an dernier, Securonix s’était distingué pour sa gestion des sources de données tierces et des flux de threat intelligence. Gartner avait aussi salué l’aide fournie pour améliorer la configuration du SIEM (identification des sources de données manquantes, des modèles d’analyse pertinents…).
Il avait moins apprécié le modèle économique fondé exclusivement sur les EPS (événements par seconde). Ainsi que la prise en main. Qui, expliquait-il, nécessitait « plus de services professionnels que la moyenne ». En tout cas pour les déploiements cloud.
Cette année, un bon point va à la gestion des data lakes tiers – et à la flexibilité que cela apporte. Securonix se distingue aussi sur l’UEBA (capacité à gérer des use cases avancés), assorti de « capacités exhaustives » de test et de tuning. Il dédie par ailleurs au développement produit une équipe « plus grosse que la moyenne » [de l’ensemble des fournisseurs classés au Magic Quadrant du SIEM].
S’il existe une brique d’augmentation de workflows, elle est en retard sur celles des autres « leaders », tant au niveau des fonctionnalités que des intégrations. Gartner souligne aussi une dépendance au risk scoring susceptible de réduire la capacité à créer manuellement des requêtes. Et note que la croissance de la base client est plus faible que chez d’autres « leaders ».
Splunk traduit sa vision moins vite que la concurrence
L’an dernier, Splunk s’était distingué avec son UI, en particulier pour les capacités de personnalisation. Il avait aussi pour lui une bibliothèque d’intégrations exhaustive, SOAR en tête. Gartner avait aussi salué la composante observabilité, couplée à la recherche fédérée et aux capacités d’analyse sur les data stores tiers.
Bien que flexible, la tarification apparaissait plus élevée que la moyenne. Et la solution, complexe, tout du moins au niveau de l’implémentation. Gartner avait aussi souligné le fait que les effectifs étaient majoritairement localisés en Amérique du Nord… et l’impact potentiel que cela pouvait avoir sur le support client.
Cette année, l’un des bons points va à la marketplace de contenus, doublée de la richesse des ressources développées par la communauté. Un autre va au catalogue d’intégrations avec les produits de sécurité, dont ceux de Cisco. Gartner souligne aussi les possibilités de personnalisation de la solution pour le développement de workflows et de dashboards.
L’augmentation de workflows n’est pas le fort de Splunk, qui affiche lui aussi du retard sur ses principaux concurrents. Du retard face à ces mêmes acteurs, il en a aussi au niveau de la roadmap, reflet d’une stratégie encore centrée sur l’intégration dans l’optique de constituer une plate-forme TDIR unifiée. Quant aux possibilités de personnalisation, elles supposent une certaine complexité qui pourrait rebuter les organisations les moins matures.
* Comprendre « cloud-native« , c’est-à-dire conçu pour exploiter les caractéristiques du cloud.