Vue normale

OpenAI renforce les garde-fous de ChatGPT face aux utilisateurs adolescents

20 décembre 2025 à 13:00

L’intelligence artificielle soulève des inquiétudes croissantes quant à son impact sur les jeunes publics. OpenAI vient de franchir une nouvelle étape en révisant jeudi ses directives concernant le comportement de ses modèles face aux mineurs. L’entreprise a simultanément publié des ressources pédagogiques destinées aux adolescents et à leurs parents. Reste à savoir si ces mesures ... Lire plus

L'article OpenAI renforce les garde-fous de ChatGPT face aux utilisateurs adolescents est apparu en premier sur Fredzone.

OpenAI ouvre les portes de sa plateforme applicative aux créateurs du monde entier

19 décembre 2025 à 13:25

Le chatbot phare d’OpenAI franchit un cap stratégique en accueillant un répertoire d’applications tiers, rapidement baptisé « app store » par la communauté tech. Dès mercredi, les développeurs peuvent soumettre leurs créations pour examen et éventuelle publication au sein de l’interface conversationnelle. Un mouvement qui élargit considérablement les possibilités offertes aux utilisateurs et qui inscrit ... Lire plus

L'article OpenAI ouvre les portes de sa plateforme applicative aux créateurs du monde entier est apparu en premier sur Fredzone.

Le studio de Baldur's Gate 3 utilise aussi l'IA générative, mais pas dans ses jeux - Numerama

17 décembre 2025 à 11:20
> Cependant, Swen Vincke a clarifié que l’IA n’a pas permis d’améliorer significativement l’efficacité des développeuses et des développeurs. « **Le processus créatif en lui-même est quelque chose qu’on ne peut pas accélérer** », avoue-t-il. Il précise aussi qu’**il n’y aura aucun contenu généré par IA dans Divinity** et explique que « les créateurs utilisent fréquemment des outils d’IA pour explorer des idées, étoffer des présentations PowerPoint, développer des illustrations conceptuelles et rédiger des textes provisoires ».

Ça me va. Tant que l'IA reste au service du processus créatif, "qu'on ne peut pas accélérer", dixit Swen Vincke, ça ne pose pas de problèmes. Le problème, c'est quand on veut accélérer ou remplacer le processus ou les créatifs eux même avec l'IA. Là, ça génère surtout de la merde.
(Permalink)

Le studio de Baldur's Gate 3 utilise aussi l'IA générative, mais pas dans ses jeux - Numerama

17 décembre 2025 à 11:20
> Cependant, Swen Vincke a clarifié que l’IA n’a pas permis d’améliorer significativement l’efficacité des développeuses et des développeurs. « **Le processus créatif en lui-même est quelque chose qu’on ne peut pas accélérer** », avoue-t-il. Il précise aussi qu’**il n’y aura aucun contenu généré par IA dans Divinity** et explique que « les créateurs utilisent fréquemment des outils d’IA pour explorer des idées, étoffer des présentations PowerPoint, développer des illustrations conceptuelles et rédiger des textes provisoires ».

Ça me va. Tant que l'IA reste au service du processus créatif, "qu'on ne peut pas accélérer", dixit Swen Vincke, ça ne pose pas de problèmes. Le problème, c'est quand on veut accélérer ou remplacer le processus ou les créatifs eux même avec l'IA. Là, ça génère surtout de la merde.
(Permalink)

Ecosia : un moteur de recherche écologique avec IA intégrée

17 décembre 2025 à 09:23

Dernière mise à jour le 17 décembre 2025 En salle informatique comme sur les appareils personnels, Google reste le réflexe : efficace, rapide, familier. Mais ce réflexe ouvre aussi des questions utiles en classe...

L’article Ecosia : un moteur de recherche écologique avec IA intégrée est apparu en premier sur Les Outils Tice.

Nvidia intensifie engagement dans l’intelligence artificielle ouverte

16 décembre 2025 à 14:00

Le fabricant de semi-conducteurs Nvidia poursuit son expansion dans l’univers de l’IA open source par une double initiative stratégique. Lundi, l’entreprise a simultanément dévoilé l’acquisition d’une société spécialisée et le lancement d’une nouvelle gamme de modèles d’intelligence artificielle accessibles à tous. Ces mouvements confirment la volonté du géant technologique de s’imposer comme un acteur incontournable ... Lire plus

L'article Nvidia intensifie engagement dans l’intelligence artificielle ouverte est apparu en premier sur Fredzone.

WhatsApp Updates Attachment Menu With Faster Photo Access

16 décembre 2025 à 16:00
WhatsApp continues refining its user experience by combining the rollout of AI features with ongoing interface design improvements; One of the latest releases focuses on simplifying and accelerating media sharing and the new changes have recently been made available to some Android users through the beta program. The update brings a redesigned attachment and sharing menu within the app. Previously, users needed to open specific options (such as the gallery) […]

Databricks atteint une valorisation de 134 milliards $

16 décembre 2025 à 16:28

Qui a parlé d’une bulle spéculative sur l’IA ? Databricks annonce avoir levé plus de 4 milliards de $ lors d’un tour de financement de Série L, portant sa valorisation à 134 milliards $.
Le tour de financement a été mené par Insight Partners, Fidelity Management & Research Company et J.P. Morgan Asset Management.  La présence de gestionnaires d’actifs majeurs comme BlackRock et Blackstone témoigne d’un intérêt croissant des grandes institutions financières pour les investissements dans le secteur de l’intelligence artificielle.

Une partie des fonds sera utilisée pour permettre aux employés de procéder à des ventes secondaires d’actions. Ali Ghodsi a également indiqué au Wall Street Journal que l’entreprise prévoit de créer des milliers de nouveaux postes, notamment des chercheurs en IA, pour développer un laboratoire d’IA qui n’emploie actuellement qu’une centaine de personnes.

Une croissance soutenue

L’investissement soutiendra également de futures acquisitions dans le domaine de l’IA et l’approfondissement de la recherche.

Avec cette nouvelle levée de fonds, Databricks dépasse désormais largement la valorisation ( 75 milliards)  de son concurrent coté en bourse Snowflake.

Databricks, fondée en 2013 à San Francisco, affiche des résultats financiers impressionnants avec un chiffre d’affaires annualisé de 4,8 milliards $ au troisième trimestre, soit une progression de plus de 55% en un an. En septembre dernier, ce taux s’établissait à 4 milliards $.

L’entreprise compte ainsi plus de 700 clients, sur plus de 20 000, générant un revenu annuel supérieur à un million. Cette levée de fonds intervient quelques mois seulement après qu’elle ait levé 1 milliard de dollars pour une valorisation de 100 milliards $

Trois axes stratégiques pour les applications intelligentes

Le nouveau capital servira à accélérer le développement de trois offres stratégiques :

> Lakebase, présentée comme la première base de données Postgres sans serveur conçue spécifiquement pour l’ère de l’IA. Lancé il y a six mois, ce produit compte déjà des milliers de clients et enregistre une croissance de revenus deux fois plus rapide que le produit d’entreposage de données de Databricks.

> Databricks Apps, qui permet de créer et déployer des applications de données et d’IA avec rapidité et sécurité.

> Agent Bricks, qui aide les organisations à créer et mettre à l’échelle facilement des agents de haute qualité sur leurs données.

The post Databricks atteint une valorisation de 134 milliards $ appeared first on Silicon.fr.

Red Hat renforce la sécurité de son offre IA avec Chatterbox Labs

16 décembre 2025 à 15:53

Red Hat rachète Chatterbox Labs, un spécialiste des garde-fous de sécurité pour l’intelligence artificielle générative. Le montant de l’opération n’est pas communiqué.

Fondée en 2011 et basée à Londres avec un bureau à New York, Chatterbox Labs propose des capacités de test de sécurité automatisées et personnalisées, fournissant des métriques de risque quantitatives.

La technologie de Chatterbox Labs s’articule autour de trois piliers :

  • AIMI pour l’IA générative : des métriques de risque quantitatives indépendantes pour les grands modèles de langage
  • AIMI pour l’IA prédictive : validation de toute architecture IA sur des critères clés incluant robustesse, équité et explicabilité
  • Garde-fous : identification et correction des invites non sécurisées, toxiques ou biaisées avant la mise en production des modèles

Sécuriser l’IA agentique de nouvelle génération

L’approche est agnostique des modèles, permettant de valider données et modèles quelle que soit leur origine. Selon Steven Huels, vice-président de l’ingénierie IA et de la stratégie produit chez Red Hat, l’intégration de Chatterbox Labs permettra de fournir une plateforme open source complète où la sécurité est intégrée dès le départ.

Chatterbox Labs a mené des travaux sur la sécurité holistique des agents IA, incluant la surveillance des réponses des agents et la détection des déclencheurs d’action des serveurs MCP. Ces travaux s’alignent avec la feuille de route de Red Hat pour le support de Llama Stack et MCP.

Cette acquisition est la deuxième opération de Red Hat dans le domaine de l’IA en un an. En novembre 2024, l’éditeur avait racheté Neural Magic, spécialisé dans l’optimisation des modèles d’IA pour processeurs et GPU standards. Cette acquisition a été finalisée en janvier 2025.

The post Red Hat renforce la sécurité de son offre IA avec Chatterbox Labs appeared first on Silicon.fr.

Bases de données cloud : l’abondance de l’offre devient un défi

16 décembre 2025 à 15:17

Chez les principaux fournisseurs de bases de données cloud, il n’est plus si rare que des produits se chevauchent.

La synthèse du dernier Magic Quadrant dédié à ce marché en témoigne. La majorité des « leaders » (5 sur 9) ont droit à une remarque à ce sujet :

  • Alibaba Cloud
    Chevauchement entre AnalyticDB et Hologres (analytique) comme entre DMS et DataWorks (intégration de données).
  • AWS
    Grand choix de SGBD et d’options d’intégration… au prix de chevauchements et de conflits.
  • Google
    Plusieurs solutions pour Postgre (Cloud SQL, AlloyDB, Spanner) entre lesquelles il faut faire la balance.
  • IBM
    Chevauchements sur la partie entrepôt de données, entre les offres Db2 Warehouse, Neterra watsonx.data.
  • Microsoft
    Concurrence entre Azure Synapse, Microsoft Fabric et Azure Databricks.

Gérer les coûts reste un défi

Autre sujet largement partagé parmi les « leaders » : la gestion des coûts.

Elle est difficile chez AWS faute de tarification unifiée entre services.
Elle l’est aussi pour beaucoup de clients de Databricks, malgré des avancées sur l’outillage FinOps.
Chez Google, elle a tendance à se complexifier avec l’intégration de nouvelles fonctionnalités.
Concernant Oracle, la clientèle se plaint toujours des prix et de la difficulté de contractualisation, même si la tendance s’atténue avec le passage au cloud et son modèle de facturation à l’usage.
Concernant Snowflake, Gartner a un jugement plus spécifique : le côté « user-friendly » est susceptible de favoriser le développement d’un état d’esprit « black box », et par là même de limiter la capacité à optimiser les workloads.

Plusieurs de ces fournisseurs avaient déjà été épinglés à ce sujet il y a un an, dans l’édition précédente de ce Magic Quadrant.
Databricks, à cause de la difficulté à prédire les coûts avec le modèle fondé sur des unités de consommation.
Google, parce que le suivi des dépenses pouvait se révéler délicat, a fortiori lorsqu’on interfaçait aux bases de données des services fondés sur des unités de consommation.
Oracle, perçu, de par son historique, comme un fournisseur aux offres onéreuses.
Alibaba, chez qui la variété des modèles de pricing, combinée à une facturation découplée pour certaines ressources au nom de la flexibilité, pouvait s’avérer difficile à maîtriser.

20 fournisseurs, 9 « leaders »

D’une année à l’autre, les critères à respecter ont peu évolué. Il fallait toujours, entre autres, gérer au moins un cas d’usage parmi :

  • Transactionnel
  • Transactions « légères » (gros volumes à haute concurrence et basse latence)
  • Gestion d’état d’applications
  • Data warehouse
  • Lakehouse
  • Analyse d’événements

Une fois encore, Gartner n’a évalué que les offres managées, fournies en cloud public ou privé. Il n’a pas pris en compte les bases de données hébergées sur du IaaS.

Les 20 fournisseurs classés sont les mêmes que l’an dernier. Et les 9 « leaders » d’alors le sont restés. Dans l’ordre alphabétique : Alibaba Cloud, AWS, Databricks, Google, IBM, Microsoft, MongoDB, Oracle et Snowflake.

Sur l’axe « exécution », reflétant la capacité à répondre à la demande, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 AWS =
2 Google =
3 Microsoft + 1
4 Oracle – 1
5 Databricks =
6 Snowflake + 1
7 MongoDB – 1
8 IBM + 2
9 Alibaba Cloud – 1
10 InterSystems – 1
11 Huawei Cloud =
12 SAP =
13 Teradata =
14 Cloudera =
15 Couchbase + 3
16 SingleStore + 1
17 EDB + 3
18 Redis – 3
19 Neo4j – 3
20 Cockroach Labs – 1

Sur l’axe « vision », reflétant les stratégies :

Rang Fournisseur Évolution annuelle
1 Google =
2 Databricks + 3
3 Microsoft – 1
4 Oracle – 1
5 AWS – 1
6 Snowflake + 2
7 Alibaba Cloud + 3
8 IBM – 1
9 SAP – 3
10 Teradata – 1
11 MongoDB =
12 Cloudera =
13 InterSystems + 2
14 Neo4j =
15 Huawei Cloud + 1
16 EDB + 4
17 Couchbase =
18 SingleStore =
19 Redis – 6
20 Cockroach Labs – 1

Alibaba Cloud, distingué pour son approche « data + IA »…

Les principales offres d’Alibaba Cloud sur ce marché sont PolarDB et ApsaraDB (transactionnel), AnalyticDB et MaxCompute (analytique), Tair et Lindorm (clé-valeur).

L’a dernier, le groupe chinois avait été salué pour sa présence sectorielle importante et différenciée, le développement de son écosystème de partenaires et le poids de sa communauté open source.

Cette année, Gartner apprécie la tarification, jugée attractive. Ainsi que la fiabilité de l’architecture serverless. Désormais étendue à tous les SGBD, elle se distingue par son architecture découplant calcul, mémoire et stockage en environnement hybride. Bon point également pour l’approche « data + IA » qui permet de développer et de déployer des applications en n’utilisant que des technologies d’Alibaba Cloud.

… mais pas pour la configuration de PolarDB

L’an dernier, Gartner avait pointé, au-delà de la gestion des coûts, le risque géopolitique associé à Alibaba Cloud. Ainsi que la disponibilité encore limitée de ses servies hors de l’Asie (moins de régions et de zones de disponibilité que la concurrence).

Cette année encore, la faible présence hors Asie est signalée. Elle peut se traduire par un moins grand nombre d’intégrations d’outils tiers et de ressources en anglais (documentation, formation, support). Attention aussi à la configuration de PolarDB, jugée complexe par les nouveaux utilisateurs, notamment sur l’équilibre coût/performance et la gestion du stockage multicouche. Il faut y ajouter les chevauchements de produits sus-évoqués.

AWS a un catalogue d’une ampleur sans égale…

Aurora, Redshift, DynamoDB et SageMaker font partie des principaux produits d’AWS sur ce marché.

L’an dernier, Gartner avait salué la couverture fonctionnelle d’AWS et sa capacité à créer du liant entre ses solutions. Il avait aussi noté l’exhaustivité des partenariats et de la présence géographique.

Ce dernier point vaut toujours et s’assortit d’un bon historique de disponibilité de l’infrastructure ainsi que d’une approche « proactive » de dialogue avec le client pour l’optimisation des coûts. AWS a, plus globalement, un catalogue d’une ampleur sans égale sur ce marché, avec SageMaker comme point central de gouvernance data/IA.

… mais des dépendances pour l’orchestration hybride

L’intégration entre les services d’AWS peut être complexe, avait souligné Gartner l’an dernier. Le cabinet américain avait aussi constaté que la prise en charge des déploiements hybrides/multicloud était limitée malgré la disponibilité de connecteurs natifs et le support de moteurs comme Spark (les clients tendent à utiliser des orchestrateurs tiers, avait-il expliqué).

Ce dernier constat est toujours d’actualité : beaucoup de clients dépendent de solutions tierces pour l’orchestration hybride/multicloud. S’y ajoutent les deux éléments sus-évoqués : gestion des coûts difficile et chevauchements entre produits.

Databricks, rapide pour innover…

Outre Data Intelligence Platform (qui inclut Unity Catalog), Databricks propose du data warehouse avec Databricks SQL, du transactionnel avec Lakebase, ainsi que de l’intégration et de l’engineering avec Lakeflow.

L’an dernier, Gartner avait salué les investissements dans la GenAI (dont l’acquisition de MosaicML), traduits par le développement de ses propres LLM. Il avait aussi donne un bon point au catalogue Unity (qui venait d’être basculé en open source) et au format Delta Lake (concurrent d’Iceberg).

Cette année, Databricks est salué pour sa « vision lakehouse », bien qu’il ne soit plus seul sur ce marché. Il l’est aussi pour sa cadence d’innovation, entre la composante Agent Bricks (qui a reçu des fonctionnalités importantes presque tous les mois), l’acquisition de Tabular (qui a accompagné la prise en charge d’Iceberg sur tout le portefeuile) et l’introduction de capacités low code dans Lakeflow. Bon point également pour l’engagement sur des standards ouverts (Delta Lake, Iceberg, Spark, Postgre…) qui favorisent la portabilité.

… mais pas si simple à prendre en main

L’an dernier, Gartner avait pointé le manque d’intuitivité de l’UI, qui changeait fréquemment tout en manquant de documentation et de capacités low code. Il y avait ajouté l’aspect FinOps, sus-évoqué.

Cette année, le cabinet américain met un bémol à la logique d’ouverture : certains clients s’inquiètent d’un éventuel verrouillage au niveau de l’orchestration et de Delta Live Tables (devenu Lakeflow Spark Declarative Pipelines). Il souligne par ailleurs la tendance des clients à juger que l’usage de la solution exige un haut niveau de compétence technique. En parallèle, le sujet FinOps reste valable (voir ci-dessus).

Google, bien positionné sur l’IA…

Entre autres produits positionnés sur ce marché, Google a Spanner, BigQuery, AlloyDB, Cloud SQL, Firestore, Memorystore et Bigtable.

L’an dernier, Gartner avait salué les contributions open source (à PostgreSQL en particulier). Il avait fait de même pour les avancées dans la GenAI (intégration de Gemini + support transversal de la recherche vectorielle via LangChain) et pour la fondation data/IA unifiée avec Dataplex pour la gouvernance.

Cette fondation data/IA a à nouveau droit à un bon point ; dans les grandes lignes, pour les mêmes motifs. Gartner note plus globalement la capacité de l’offre SGBD de Google à couvrir les cas d’usage dans l’IA agentique. Et apprécie en particulier l’exhaustivité des modèles de données pris en charge par Spanner (relationnel, clé-valeur, graphe, vectoriel).

… mais moins sur le partage de données

Le réseau de partenaires doit encore se développer, avait estimé Gartner l’an dernier. Il avait aussi pointé l’aspect FinOps et souligné que Google proposait moins d’options que la concurrence pour l’intégration native d’applicaitons et le master data management.

Cette année, outre la gestion des coûts et les chevauchements sus-évoqués, un point de vigilance va à la marketplace de données et aux capacités de partage. Elle se révèlent moins avancées que chez certains concurrents, malgré des améliorations sur les clean rooms et l’interopérabilité entre clouds.

IBM étend sa présence multicloud…

Les principaux SGBD cloud d’IBM sont Db2 (transactionnel + analytique) et watsonx.data (lakehouse).

L’an dernier, Big Blue s’était distingué sur sa stratégie sectorielle (solutions spécifiques adaptées sur la gouvernance, la sécurité et la conformité). Ainsi que sur sa capacité à combiner les expertises en open source et en data management au service des déploiements hybrides. Son offre est bien adaptée aux applications critiques, avait ajouté Gartner.

Cette année encore, la stratégie sectorielle est saluée. L’extension de la présence cloud l’est aussi (mise à disposition de Db2 chez les hyperscalers et acquisition de DataStax, qui a une forte présence multicloud). Bon point également pour l’approche « bien définie » d’IBM concernant l’intégration des SGBD dans les frameworks de data management.

… mais a toujours du mal à faire passer son message

IBM a du mal à se différencier dans la communication, par ailleurs pas uniforme entre équipes commerciales, avait expliqué Gartner l’a dernier. Il avait aussi rappelé que le déploiement géographique de l’offre n’atteignait pas encore celui des autres hyperscalers.

Les difficultés de communication restent d’actualité, occasionnant un certain manque de notoriété sur le segment. En parallèle, IBM demeure perçu comme un vendeur « legacy », ce qui est susceptible de détourner certains acheteurs. Gartner y ajoute, comme sus-évoqué, les chevauchements entre certains produits.

Une offre exhaustive chez Microsoft…

Entre autres produits, Microsoft évolue sur ce marché avec Azure SQL Database, Azure Database pour PostgreSQL et MySQL, ainsi qu’Azure Cosmos DB.

L’an dernier, Gartner avait salué l’exhaustivité de l’offre et le niveau d’intégration avec les autres services Microsoft. Il avait aussi apprécié les possibilités d’usage de l’IA pour le data management. Et les avancées sur la gestion du multicloud, exemplifiées par l’interconnexion Azure-Oracle comme par les « raccourcis » dans OneLake pour les analyses fédérées.

Bon point cette année encore pour l’exhaustivité de l’offre, qui « gère presque tous les modèles de données et cas d’usage sectoriels ». L’engagement de Microsoft sur PostgreSQL est également salué. Comme les innovations sur la partie IA (embeddings in-database, indexation de vecteurs, jonctions entre Copilot et Fabric…).

… mais une offre Fabric qui manque encore de maturité

Le chevauchement de certaines offres avait déjà été signalé l’an dernier, en sus de craintes des clients sur la pérennité d’Azure Synapse Analytics et d’Azure Database face à Microsoft Fabric. Ce dernier manquait encore de maturité, avait expliqué Gartner : les capacités d’intégration, de gouvernance et de gestion des métadonnées étaient moins « robustes » que chez d’autres « leaders ». Le déploiement pouvait par ailleurs se révéler complexe, en particulier pour le DR, la sécurité et la gestion des coûts.

Outre le chevauchement de certains produits, Gartner pointe à nouveau le manque de maturité de Microsot Fabric. Les inquiétudes des clients touchent autant aux fonctions data warehouse que gouvernance, entre souveraineté, dimensionnement des ressources, prix, gestion des métadonnées et data quality. Attention aussi aux investissements consentis pour intégrer le transactionnel dans Fabric : sur le court terme, ils peuvent engendrer des enjeux de performance.

MongoDB demeure un standard pour le modèle document…

Outre son édition communautaire et son produit sur site (Enterprise Advanced), MongoDB propose son SGBD Atlas chez AWS, Google et Microsoft.

L’an dernier, Gartner avait salué une offre « bien considérée » pour ses capacités de traitement à haut volume, son élasticité et la flexibilité du schéma. Il avait aussi souligné la souplesse et la rapidité d’implémentation, contribuant à la popularité auprès des développeurs.

Ce dernier élément vaut toujours et engendre un vivier de compétences d’autant plus grand. S’y ajoute la richesse des options de déploiement, accentuée par un programme de partenariats jugé « robuste ». MongoDB est plus globalement parvenu à établir une forme de standard pour qui souhaite un modèle orienté document.

… mais manque d’un storytelling sur la convergence transactionnel-analytique

Si MongoDB associe transactionnel et analytique, son offre se limite à du non relationnel, avait signalé Gartner l’an dernier. La concurrence s’accentue de la part de fournisseurs de SGBD qui incluent l’approche document en plus d’autres modèles, avait-il souligné ; sans compter ceux qui proposent une compatibilité MongoDB.

Cette remaruqe sur la concurrence accrue reste valable. Le cabinet américain y ajoute la courbe d’apprentissage nécessaire pour prendre en main le modèle MongoDB. Et le manque d’un storytelling complet l’intégration du transactionnel et de l’analytique.

Oracle, salué pour sa richesse fonctionnelle…

Autonomous AI Lakehouse, Autonomous JSON Database et Exadata Database Service font partie des SGBD cloud au catalogue d’Oracle.

L’an dernier, Gartner avait salué l’exhaustivité de l’offre (fonctionnalités + support de modèles modèles de données et de l’architecture lakehouse). Ainsi que le niveau de gestion du multicloud (offres Database@ + interconnexion avec les principaux hyperscalers) et la capacité à diffuser rapidement des nouveautés (GenAI, low code, consensus RAFT).

Cette année encore, la richesse fonctionnelle est saluée (bases de données distribuées, recherche vectorielle, framework agentique…). La diversité des options de déploiement l’est aussi. Comme l’adéquation de l’offre d’oracle aux applications critiques.

… mais peu adopté pour les déploiements lakehouse

Oracl reste perçu comme onéreux et a du travail pour « cloudifier » sa base client, avait noté Gartner l’an dernier. Il avait aussi appelé les acheteurs à s’assurer de bien interpréter l’approche « une base de données pour tout » et ce qu’elle impliquait en matière de livraison de fonctionnalités.

Cette dernière remarque est reconduite : vigilance sur cette approche, qui s’oppose aux architecture combinant les SGBD et les systèmes de data management. La question du prix – sus-évoquée – reste sensible et les clients continuent à prioriser des produits concurrents pour les déploiements lakehouse.

Snowflake a amélioré sa couverture fonctionnelle…

L’an dernier, Snowflake s’était distingué par son UI adaptée à divers profils d’utilisateurs, sa prise en charge de multiples formats sur la couche de stockage et l’extension de l’architecture lakehouse avec Iceberg et Polaris.

Cette année encore, Gartner donne un bon à l’UI. Il relève aussi l’extension fonctionnelle de l’offre (data engineering avancé via Openflow, ML/IA avec Snowpark et Cortex AI, support de Postgre apporté par l’acquisition de Crunchy Data). Et l’amélioration de la scalabilité avec les entrepôts de génération 2 (meilleur rapport qualité-prix que la gen 1 pour les workloads complexes).

… mais reste focalisé sur le batch et l’analytique

L’an dernier, Gartner avait pointé une prise en charge limitée des scénarios hybrides. Il y avait ajouté la complexité dans le partage des données entre organisations utilisatrices de Snowflake et les défis d’usabilité que posait l’intégration avec le stockage sur site via les tables externes.

Ces deux derniers aspect demeurent. D’une part, la performance n’est pas la même avec les tables externes qu’avec le stockage natif ou les tables Iceberg. De l’autre, sur le partage, il est nécessaire de bien planifier des éléments tels que les permissions, le repartage et les restrictions régionales. Gartner y ajoute l’aspect FinOps (voir ci-dessus). Et le fait que l’architecture est focalisée sur le batch et l’analytique plutôt que sur le transactionnel ou le temps réel (même s’il existe les tables hybrides et une intégration avancée de PostgreSQL).

Illustration générée par IA

The post Bases de données cloud : l’abondance de l’offre devient un défi appeared first on Silicon.fr.

La chasse aux sorcières de Washington pour imposer sa doctrine IA

16 décembre 2025 à 10:10

Washington accentue la chasse aux textes de loi qui vont contre sa doctrine en matière d’intelligence artificielle.

Son « plan d’action IA » publié cet été avait ouvert la voie. Il prévoyait notamment que les agences du gouvernement fédéral ayant des programmes de financement de l’IA prennent en compte le « climat réglementaire » des États américains. Et qu’elles limitent ces financements dans le cas où un régime serait susceptible de compromettre leur efficacité.

La Maison Blanche promettait plus globalement de réviser ou d’abroger tout texte « entravant inutilement le déploiement de l’IA ». En première ligne étaient alors les ordonnances définitives, les décrets exécutoires et les injonctions de la FTC (Federal Trade Commission, qui fait appliquer le droit de la consommation).

Le mantra du « biais idéologique »

Le mode opératoire se précise à la faveur d’un ordre exécutif (équivalent d’un décret présidentiel) que Donald Trump a signé la semaine passée. Dans le viseur, en particulier, les lois qui « exigent d’intégrer des biais idéologiques dans les modèles ». Référence est faite à une « loi au Colorado ». Il s’agit probablement du SB24-205 (« Consumer Protections for Artificial Intelligence »), qui doit entrer en application le 1er février 2026. Le postulat : en interdisant la « discrimination algorithmique », le texte pourrait forcer les modèles à produire de faux résultats afin d’éviter un « traitement différencié » de minorités.

L’ordre exécutif cible aussi les lois qui ont une portée extraterritoriale. Et qui, par là même, compromettraient les échanges commerciaux entre États.

Une task force gouvernementale pour contester les textes présumés illégaux

Ce travail d’élagage doit contribuer à « entretenir et renforcer la domination mondiale des États-Unis dans l’IA à travers un cadre législatif national le moins pénible possible ».

Un groupe de travail sera chargé de contester (challenge) les lois en contradiction avec cet objectif. Le procureur général a 30 jours – à compter de la signature de l’ordre exécutif – pour l’établir.

Cette contestation pourra se faire, notamment, au motif d’inconstitutionnalité, de prévalence d’une loi fédérale… ou de « toute présomption d’illégalité de la part du procureur général ».

La perspective d’une coupure de financements fédéraux

Le secrétaire au Commerce a 90 jours pour identifier les lois jugées problématiques et qui devraient être signalées au groupe de travail. Il lui faudra lister au minimum celles qui « requièrent que les modèles IA altèrent leurs outputs véridiques (truthful) » ou qui sont susceptibles de contraindre les développeurs ou les déployeurs à divulguer des informations au mépris de la Constitution, à commencer par le premier amendement (liberté d’expression).

Dans le même délai, le secrétaire au Commerce devra émettre une notice relative aux financements dans le cadre du BEAD (Broadband Equity Access and Deployment, programme fédéral à 42,5 Md$). Les fonds non alloués aux objectifs principaux de déploiement d’infrastructure ne seraient pas accessibles aux États qui promulguent ou envisagent de promulguer des lois jugées problématiques.
En parallèle, départements exécutifs et agences sont invités à examiner leurs programmes de subventions pour déterminer s’ils peuvent les conditionner à l’absence de ces mêmes lois – ou à un engagement contraignant à ne pas les faire appliquer.

Face à l’altération des outputs, Washington avence… le droit de la consommation

La FCC (Federal Communications Commission) a quant à elle 90 jours pour lancer une procédure visant à déterminer s’il faut adopter une norme fédérale de divulgation d’informations relatives aux modèles d’IA. Elle prévaudrait sur les lois des États américains.

Dans le même délai, la FTC doit émettre une déclaration de principe sur l’application du droit à la consommation aux IA. Il lui faudra plus précisément expliquer les circonstances dans lesquelles les textes qui exigent d’altérer les outputs ne prévalent pas sur la loi fédérale interdisant les pratiques commerciales injustes ou trompeuses.

Au bout, il y aurait une recommandation de cadre législatif fédéral uniforme. Celui-ci prévaudrait sur les législations IA jugées problématiques. Mais pas, en revanche, sur celles qui touchent à la protection de l’enfance, aux infrastructures de calcul et de données ainsi qu’à la commande publique.

Illustration générée par IA

The post La chasse aux sorcières de Washington pour imposer sa doctrine IA appeared first on Silicon.fr.

L’explosion des datacenters IA compromet la modernisation des infrastructures américaines

15 décembre 2025 à 13:00

L’engouement massif pour les centres de données dédiés à l’intelligence artificielle pourrait freiner considérablement les travaux d’amélioration des routes, ponts et autres équipements collectifs aux États-Unis. Bloomberg révèle une tension croissante entre deux types de chantiers qui rivalisent désormais pour les mêmes ressources humaines dans un contexte de pénurie structurelle de main-d’œuvre. Alors que gouvernements ... Lire plus

L'article L’explosion des datacenters IA compromet la modernisation des infrastructures américaines est apparu en premier sur Fredzone.

Intégration de données : les hyperscalers s’imposent en vase clos

15 décembre 2025 à 11:35

À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.

Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.

Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).

Sans Informatica, SAP n’est plus un « leader »

Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).

La situation sur l’axe « exécution » :

Rang Fournisseur Évolution annuelle
1 Microsoft + 1
2 Informatica – 1
3 AWS + 1
4 Oracle – 1
5 Google + 3
6 Denodo + 3
7 IBM =
8 Fivetran + 2
9 Ab Initio – 4
10 Qlik – 4
11 Matillion =
12 Confluent =
13 SAP =
14 SnapLogic + 1
15 Sage Software + 2
16 Workato nouvel entrant
17 CData Software + 1
18 K2view + 1
19 Boomi nouvel entrant
20 Precisely – 4

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Informatica =
2 IBM + 1
3 Oracle – 1
4 Microsoft =
5 Ab Initio =
6 SnapLogic + 1
7 Denodo + 2
8 AWS + 5
9 Qlik – 1
10 K2view + 2
11 Google =
12 Workato nouvel entrant
13 SAP – 3
14 Matillion + 1
15 Fivetran + 2
16 Safe Software =
17 CData Software + 2
18 Confluent – 4
19 Boomi nouvel entrant
20 Precisely =

9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.

Ab Initio salué sur l’automatisation et l’agentique…

Le produit pris en considération se nomme Ab Initio Data Platform.

L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.

Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).

… mais pas sur l’UI, ni la tarification

Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.

La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.

AWS a réduit l’écart avec la concurrence…

La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.

L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.

Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».

… mais reste centré sur son écosystème

L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).

De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.

Denodo se distingue toujours sur la virtualisation des données…

Le produit pris en considération est Denodo Platform.

L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.

Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).

… mais demeure peu utilisé pour certains types d’intégrations

Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.

La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.

Un Google largement distingué sur l’IA…

Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).

L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.

Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.

… mais lui aussi centré sur son écosystème

L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).

La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.

Données non structurées et déploiements hybrides, points forts d’IBM…

L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.

L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.

Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.

… au contraire de la tarification

À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.

Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.

Informatica, à nouveau salué pour la maturité de son offre…

L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).

L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).

Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.

… mais toujours plus sous pression

L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.

Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.

La vision data fabric fait encore mouche chez Microsoft…

Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.

L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.

Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.

… qui se centre lui aussi sur son écosystème

Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.

Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.

Oracle garde l’avantage GoldenGate…

Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.

L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.

Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.

… mais suscite de moins en moins d’intérêt

Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.

Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.

Plusieurs briques robustes chez Qlik…

Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.

L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.

Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.

… mais un ralentissement de la R&D depuis l’acquisition de Talend

L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.

Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.

Illustration © alphaspirit – Shutterstock

The post Intégration de données : les hyperscalers s’imposent en vase clos appeared first on Silicon.fr.

❌