Pourquoi vous devez acheter votre smartphone d’entrée de gamme avant 2026
La pénurie de RAM contraint les fabricants à prendre plusieurs décisions importantes, que vous allez ressentir sur votre budget.


À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.
Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.
Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).
Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).
La situation sur l’axe « exécution » :
| Rang | Fournisseur | Évolution annuelle |
| 1 | Microsoft | + 1 |
| 2 | Informatica | – 1 |
| 3 | AWS | + 1 |
| 4 | Oracle | – 1 |
| 5 | + 3 | |
| 6 | Denodo | + 3 |
| 7 | IBM | = |
| 8 | Fivetran | + 2 |
| 9 | Ab Initio | – 4 |
| 10 | Qlik | – 4 |
| 11 | Matillion | = |
| 12 | Confluent | = |
| 13 | SAP | = |
| 14 | SnapLogic | + 1 |
| 15 | Sage Software | + 2 |
| 16 | Workato | nouvel entrant |
| 17 | CData Software | + 1 |
| 18 | K2view | + 1 |
| 19 | Boomi | nouvel entrant |
| 20 | Precisely | – 4 |
Sur l’axe « vision » :
| Rang | Fournisseur | Évolution annuelle |
| 1 | Informatica | = |
| 2 | IBM | + 1 |
| 3 | Oracle | – 1 |
| 4 | Microsoft | = |
| 5 | Ab Initio | = |
| 6 | SnapLogic | + 1 |
| 7 | Denodo | + 2 |
| 8 | AWS | + 5 |
| 9 | Qlik | – 1 |
| 10 | K2view | + 2 |
| 11 | = | |
| 12 | Workato | nouvel entrant |
| 13 | SAP | – 3 |
| 14 | Matillion | + 1 |
| 15 | Fivetran | + 2 |
| 16 | Safe Software | = |
| 17 | CData Software | + 2 |
| 18 | Confluent | – 4 |
| 19 | Boomi | nouvel entrant |
| 20 | Precisely | = |
9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.
Le produit pris en considération se nomme Ab Initio Data Platform.
L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.
Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).
Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.
La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.
La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.
L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.
Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».
L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).
De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.
Le produit pris en considération est Denodo Platform.
L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.
Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).
Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.
La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.
Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).
L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.
Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.
L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).
La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.
L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.
L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.
Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.
À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.
Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.
L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).
L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).
Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.
L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.
Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.
Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.
L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.
Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.
Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.
Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.
Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.
L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.
Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.
Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.
Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.
Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.
L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.
Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.
L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.
Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.
Illustration © alphaspirit – Shutterstock
The post Intégration de données : les hyperscalers s’imposent en vase clos appeared first on Silicon.fr.


![]()
C'est le nouveau colosse du parc nucléaire français, et il a pu faire la démonstration de son plein potentiel. Après une montée en puissance qui a commencé en septembre 2024, avec sa première réaction en chaîne, le réacteur EPR de Flamanville a atteint sa capacité maximale de 100 % de puissance nucléaire.

![]()
Dans Resident Evil Requiem, Leon, qui vient tout juste d'être confirmé en tant que second personnage jouable, conduit une Porsche. La voiture arbore une plaque d'immatriculation avec des chiffres qui n'ont pas été choisis au hasard.
Notre dossier sur l’extrême droite grossit à mesure que ce courant politique gagne du terrain. La résistance de la démocratie face aux assauts de ses ennemis est faible. L’accession au pouvoir, à nouveau, de Donald Trump en est l’illustration la plus criante. Dans l’ombre, le terrorisme d’extrême droite se développe, recrute et se coordonne pour parvenir à ses fins. Démonstration.
Tandis que l’extrême droite parlementaire joue le jeu de la démocratie, sa fraction la plus radicale porte la violence dans la rue et explore le terrorisme comme moyen d’accélérer son ascension vers le pouvoir.
La situation européenne n’est pas reluisante et Europol note le nombre d’attentats d’extrême droite perpétrés, avortés et déjoués augmente ces dernières années de ce côté du spectre politique.
La situation française est inquiétante. Dans son rapport «Terrorisme et violence d’extrême droite en Europe occidentale, 1990 - 2022», le C-REX soulignait déjà en 2023 que «la France est l’un des rares pays d’Europe occidentale où le terrorisme et la violence d’extrême droite pourraient être en hausse». Le rapport notait que l’«augmentation du soutien électoral tend à faire baisser les niveaux de violence». La stratégie de dédiabolisation du RN (ex-FN) avec l’aide du système médiatique, ses succès électoraux ont pu détourner quelques caciques d’extrême droite de la violence. Mais en parallèle, et Reflets l’a documenté, une mouvance d’extrême droite extra parlementaire se développe, se fédère et opte pour une violence décomplexée. Les membres de ces groupes peuvent parfois imaginer qu’il faut des méthodes d’action plus violentes que celles que le parti ayant pignon sur rue a choisies? Mais pas uniquement. Car à bien y regarder, on trouve très souvent derrière ces groupuscules des figures connues et anciennes de l’extrême droite française.
C’est par exemple le cas d’anciennes...
Samsung pourrait avoir laissé échapper un indice majeur sur l’avenir de ses smartphones pliables. D’après un rapport de SammyGuru, une enquête interne menée par le constructeur sud-coréen inclurait des visuels suggérant un nouveau design pour un second Galaxy Z Fold 8, distinct du modèle principal attendu l’an prochain. Un appareil qui, à en croire ces […]
L’article Samsung Galaxy Z Fold 8 : un nouveau modèle plus large se profile face à l’iPhone Fold est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

SK Hynix vient de jeter un sérieux pavé dans la mare : lors d'une réunion interne, le constructeur estime que la tension sur l'offre de mémoire commodity pourrait durer jusqu'en 2028. Traduction : pour la DRAM grand public (DDR4/DDR5), la GDDR6/GDDR7 (cartes graphiques / consoles) et la LPDDR (mobiles), la situation resterait compliquée et pourrait continuer à pousser les prix vers le haut. Point important : SK Hynix expliquerait que cette pénurie longue durée ne concernerait pas (ou beaucoup moins) ses mémoires les plus avancées, notamment HBM et SOCAMM, qui bénéficieraient au contraire d'extensions de capacité. Logique : ces produits partent en masse sur les GPU et serveurs dédiés à l'IA, et l'industriel veut clairement prioriser ce marché à très forte valeur. […]
Lire la suite![]()
Nouvelle création de James Cameron, Avatar : De feu et de cendres est un film pensé spécifiquement pour les salles de cinéma, avec de très nombreuses exigences techniques. Quelle est la meilleure configuration entre Dolby Cinema, IMAX, 4DX (spoiler : pas ça) ou ScreenX ? Numerama vous aide à choisir.
La saison 11 de Diablo 4 est pleine de surprises, et un objet attire particulièrement l’attention des joueurs : les Essences Purifiées Uniques. Ces essences tombent lorsque vous abattez les Moindres Maux, comme Belial et Duriel, et agissent comme des clés pour améliorer votre jeu. Imaginez avoir le pouvoir de modifier vos Dons Divins et […]
Le post Maîtriser l’essence purifiée unique dans Diablo 4 Saison 11 : Un guide est apparu en premier sur Moyens I/O.


Dans le monde captivant de Fischmas 2025, les aventuriers ont la chance de découvrir des récompenses uniques, des reliques et des surprises cachées. Parmi ces mystères se trouve le secret de la Cryoshock Cellar, niché sous le village animé de Northstar. Y accéder n’est pas simplement une promenade de santé ; cela demande un peu […]
Le post Ouvrir le hayon et accéder à la cave Cryoshock dans Fisch : un guide étape par étape est apparu en premier sur Moyens I/O.

Après avoir attendu 13 ans la sortie d’un second Avatar, trois ans pour le troisième, c’est rien du tout. Que vous retourniez à Pandora pour Avatar: Fire and Ash, ou que vous soyez un nouveau venu, il y a quelques choses que vous voudrez vous rappeler. Prenez un siège confortable ; explorons ! Depuis que […]
Le post Faits clés à connaître avant de regarder ‘Avatar : Feu et Cendres’ est apparu en premier sur Moyens I/O.
![]()
Un extrait publié par RTL mentionne un potentiel départ de Mistral, géant français de l'IA, en Suisse. L'entreprise a annoncé il y a une semaine l'ouverture de bureaux, à priori situés à Lausanne et Zurich.