Pouvez-vous croire que cela fait 25 ans que le film en live-action de Ron Howard, Le Grinch, est sorti sur nos écrans ? Ce classique des fêtes a apporté joie, rires et une touche de malice à d’innombrables familles. Mais derrière la façade joyeuse se cache un incroyable parcours de transformation, en particulier pour Jim […]
La pénurie de mémoire vive qui frappe l’ensemble du secteur technologique ne semble pas près de se résorber. SK Hynix, l’un des trois plus grands fabricants mondiaux de mémoire DRAM, vient indirectement confirmer que la situation actuelle pourrait perdurer bien plus longtemps que prévu. Selon des documents internes récemment divulgués, l’approvisionnement en mémoire restera fortement […]
Mis à jour : 10 décembre 2025 Nous avons recherché de nouveaux codes ! Êtes-vous fatigué de Anime Vanguards et prêt pour quelque chose qui a sa propre saveur ? Découvrez Anime Ultra Verse, un jeu captivant de défense de tour sur Roblox qui met à l’épreuve votre esprit stratégique. Ce n’est pas seulement à […]
Vivo n’a pas encore dit son dernier mot pour sa série vivo X300. Après le déploiement mondial des vivo X300 et vivo X300 Pro, le constructeur chinois prépare déjà la suite. En 2026, un troisième modèle viendra compléter la gamme : le vivo X300 Ultra, un smartphone qui s’annonce comme une véritable vitrine technologique — notamment sur […]
Le bout du tunnel semble s'éloigner encore un peu plus pour le marché du PC grand public. Alors que l'industrie espérait une normalisation d'ici 2027, de nouvelles informations suggèrent que la tension sur l'approvisionnement en mémoire DRAM pourrait perdurer jusqu'à la fin de l'année 2028. C'est ce que révèle une analyse interne de SK Hynix, l'un de...
La magie des fêtes envahit le terrain virtuel alors que les Winter Wildcards sont sur le point de revenir dans FC 26 Ultimate Team. Si tu es aussi impatient que moi, tu sais qu’il est temps de rassembler des informations et de commencer à planifier ta stratégie. Bien sûr, il y a d’autres promotions, mais […]
Dans le cadre de son nouvel accord avec OpenAI, la firme aux grandes oreilles se montre plus stricte que jamais concernant l'utilisation de ses personnages et licences sur d'autres plateformes.
La petite Europe pourrait être bien plus active qu'on ne le pensait et grimpe, de ce fait, un peu plus haut dans la liste des mondes potentiellement habitables.
La dernière fois je suis retombé sur mon Nokia N900 à la cave et je me suis souvenu que c’était quand même un sacré téléphone.
Ce smartphone sorti en 2009 faisait tourner Maemo Linux
et était limite plus un mini-PC qu’un téléphone. Hé bien bonne nouvelle les amis, y’a un mec qui vient de ressusciter le sien en mode DIY total, et vous allez voir, c’est du bon boulot !
Le problème de base avec ce téléphone d’un autre temps, c’est comme vous vous en doutez la batterie. La BL-5J d’origine, après plus de 15 ans, est morte de chez morte. Et racheter une batterie de remplacement c’est jouer à la roulette russe vu que celles qu’on trouve aujourd’hui ont probablement passé autant de temps à prendre la poussière dans un entrepôt. Du coup, le gars a eu une idée de dingue : Remplacer la batterie par des supercondensateurs.
Oui, des supercondensateurs, plus exactement 10 condensateurs FM0H473ZF de 47000 mF chacun, soudés ensemble pour obtenir environ 0,5 Farad de capacité, le tout agencé dans un template imprimé en 3D pour que ça rentre pile poil dans le compartiment batterie. C’est bourrin mais ça fonctionne.
Sauf que forcément, en essayant d’alimenter tout ce bordel via le port micro-USB d’origine, catastrophe !!! Le fil +5V s’est carrément détaché du port à cause du courant trop important et de la corrosion. Et paf, le seul pad +5V de la carte mère (à part ceux planqués sous le connecteur USB) a été endommagé au passage. Du coup, plan B !
Il a du virer le port micro-USB pourri et le remplacer par un connecteur USB-C. Le bougre a limé l’ouverture du boîtier pour faire rentrer le nouveau connecteur, puis soudé un port USB-C 6 broches (poncé pour réduire l’épaisseur) à sa place. Seules l’alimentation et la masse sont connectées par contre, donc c’est limité à du chargement “dumb” à 0,5 A max, donc pas de Power Delivery, mais bon, ça charge, c’est l’essentiel.
Pour le boîtier batterie final, il a réutilisé la coque de la batterie d’origine en virant les composants internes. À l’intérieur, un seul gros condensateur, une diode pour réguler le voltage, des fils et des connecteurs DuPont qui font le lien avec le port USB-C. C’est un peu trop épais et ça dépasse légèrement, mais ça marche. D’ailleurs sur le mien c’est ce que j’avais fait… j’avais pris à l’époque une batterie plus grosse et c’était livré avec une espèce de coque un peu plus grande. Donc ça donnait un look très “pavé” au téléphone.
Niveau software, forcément en bidouillant le hardware il a corrompu la partition OS interne mais c’est pas grave car il a installé le bootloader u-boot pour pouvoir booter depuis une carte SD, et hop,
Maemo Leste
(la version communautaire moderne de Maemo) démarre sans souci.
Résultat final après toutes ces péripéties, un Nokia N900 ressuscité qui lui sert maintenant de radio internet via Open Media Player, alimenté uniquement par son système à supercondensateurs rechargeable via USB-C.
Bref, pas mal pour un téléphone de 2009 qui aurait dû finir à la poubelle.
Voilà, le mec a posté tout son process
sur son blog
avec photos et schémas si jamais ça vous inspire…
Malgré leurs moyens considérables, de plus en plus de sociétés de la tech ne veulent plus investir dans des applications dédiées pour Windows et Mac. C'est notamment le cas de Meta qui, après avoir pris la décision de revenir à une version web de WhatsApp pour remplacer son application native sur Windows, a décidé il y a quelques semaines de mettre f...
Mis à jour : 14 décembre 2025 Vous ressentez l’envie de créer un petit sanctuaire chaleureux pour vous et quelques adorables créatures ? Critter Bay est juste l’évasion que vous recherchez ! Imaginez-vous en train de vous détendre avec une tasse de thé ou de café fumante tout en plongeant dans un monde peuplé d’animaux […]
C’est le mec qui a fondé Boston Dynamics, la boîte derrière ces fameux robots qui font flipper tout le monde sur YouTube (
Spot le chien robot
,
Atlas l’humanoïde
qui fait du parkour,
Wildcat le chat sauvage
…). Et bien le bonhomme a lancé un nouveau projet avec son
RAI Institute
, et cette fois c’est un robot à roues qui fait des acrobaties de malade.
Ça s’appelle l’UMV pour Ultra Mobility Vehicle, et l’idée c’est de créer un engin qui “pense” et bouge comme un athlète de haut niveau. Comme vous pouvez le voir sur la vidéo, son inspiration ce sont les riders de vélo trial. Oui oui, ces kamikaze qui font des wheelies sur des escaliers et des backflips sur des rochers. Le but c’est donc de combiner l’efficacité des robots à roues (rapides et économes en énergie) avec les capacités de saut des robots à pattes.
Le robot pèse environ 23 kg et peut mesurer entre 80 cm replié et plus de 1m50 en extension (comme Zemmour quoi). Y’a aussi deux moteurs pour la direction et la vitesse, plus quatre moteurs dédiés aux sauts. Le cadre inférieur est en fibre de carbone pour rester léger, et le haut du robot sert de contrepoids pour les manœuvres agressives. Un peu comme un rider humain qui déplace son poids pour garder l’équilibre.
Et le truc de ouf, c’est que le robot n’a pas été programmé manuellement pour faire des bunny hops ou des flips. Il a tout appris tout seul via du reinforcement learning (apprentissage par renforcement). L’équipe l’a fait s’entraîner dans des millions de simulations sur NVIDIA Isaac Lab, et ensuite ils ont transféré ces apprentissages dans le monde réel. C’est ce qu’ils appellent du “zero-shot transfer” où en gros le robot passe direct de la simulation au monde réel… Débrouille-toi mon grand.
Résultat, l’engin est capable de faire des sauts d’un mètre, des flips avant, des wheelies prolongés, et des bunny hops en continu, le tout en gardant un équilibre parfait grâce à ce qu’ils appellent l’"intelligence athlétique". Alors moi j’ai aucune intelligence athlétique car j’ai été dispensé d’EPS toute ma jeunesse, mais en gros, le robot a développé une compréhension intuitive de la physique de son propre corps, comme un sportif qui sait instinctivement comment répartir son poids.
Pour la suite, l’équipe prévoit d’intégrer de la perception haute performance avec LiDAR et caméras, pour que le robot puisse naviguer de façon autonome en terrain difficile. On est clairement dans l’évolution de ce qu’on appelle l’"embodied AI" c’est à dire des IA qui ont un corps physique et qui apprennent à l’utiliser comme des athlètes.
Bref, si l’apprentissage par renforcement peut maîtriser ce niveau d’équilibre dynamique aujourd’hui, dans combien de temps on aura des humanoïdes qui courent plus vite que nous sur n’importe quel terrain ?? Pfiou, ça va arriver vite et j’espère juste qu’ils n’apprendront pas à ouvrir les portes de nos maisons avant qu’on ait le temps de se barrer. Skynet representzzzz !
Vous pensiez que les apps de messagerie alternatives à WhatsApp c’était pour échapper à la surveillance des États ? Hé bien en Russie et dans les territoires ukrainiens occupés, c’est exactement l’inverse ! En ce moment, y’a une app qui s’appelle MAX, qui est présentée comme le “WhatsApp russe”, et qui depuis le 1er septembre de cette année, est préinstallée de force sur tous les téléphones vendus.
Cette app c’est le rêve de tout dictateur en culottes courtes et installer MAX sur son téléphone, c’est donner volontairement le contrôle total de son appareil au FSB (les services de sécurité russes). Et quand je dis total, c’est accès à toutes vos données personnelles, vos contacts, vos messages, votre localisation… Selon des experts IT, l’app activerait même la caméra automatiquement toutes les 10 à 15 minutes pour prendre des photos à l’insu de l’utilisateur. Un véritable “espion de poche”. Le KGB soviétique aurait tellement kiffé avoir ce truc à leur grande époque.
Et c’est pas fini puisque dans les territoires ukrainiens occupés, notamment dans les oblasts de Zaporizhzhia et Kherson, MAX est devenu un véritable test de loyauté. Aux checkpoints, l’absence de l’app sur un smartphone éveille les soupçons et déclenche des fouilles approfondies. Les autorités d’occupation ont même obligé tous leurs employés à l’utiliser, et les écoles communiquent exclusivement via MAX avec les parents. Histoire de vous faire “rigoler” un bon coup, sachez que même certains fonctionnaires de l’occupation seraient réticents à l’installer, bien conscients des risques…
Et depuis le 1er décembre, ils ont poussé le bouchon encore plus loin en interdisant la vente de cartes SIM non-russes, du coup, pour utiliser MAX, faut un numéro de téléphone russe ou biélorusse.
Et comme je vous l’ai dit
, WhatsApp, Telegram et compagnie sont progressivement bloqués, donc les possibilités de communiquer librement commencent à fondre comme neige au soleil. L’objectif affiché pour Vladoche et ses copains, c’est de couper complètement les Ukrainiens des territoires occupés du reste du monde et des sources d’information fiables.
Reporters sans Frontières a d’ailleurs dénoncé MAX comme un “outil de contrôle numérique” qui érige un véritable “rideau de fer numérique”, isolant les citoyens des territoires occupés de toute information fiable. Et la dictature prévoit d’aller encore plus loin car bientôt, l’app sera obligatoire pour accéder aux services bancaires en ligne et aux services publics. C’est un véritable rideau de fer numérique qui isole les populations.
L’app revendique 50 millions d’utilisateurs, mais bon, quand t’as pas le choix et que c’est préinstallé de force sur ton téléphone, est-ce que ça compte vraiment comme des “utilisateurs” ? Souvenez-vous de TousAntiCovid, loool.
Bref, si vous voulez voir à quoi ressemble la surveillance de masse version 2025, MAX c’est l’exemple parfait et c’est une bonne piqûre de rappel sur pourquoi il faut continuer à se battre pour garder des messageries chiffrées et indépendantes…
L’espace proche de la Terre devient de plus en plus encombré, et un incident récent illustre les risques croissants liés à cette densification. SpaceX a ainsi révélé qu’un satellite issu d’un lancement chinois est passé à seulement 200 mètres de l’un de ses satellites Starlink, frôlant ce que …
Vous vous souvenez de mes conseils bien chiants sur l’importance de faire des backups ? Mais siii, ceux que je vous rabâche régulièrement depuis des années et que vous ne suivez pas du tout ?
Hé bien voici une histoire qui va vous donner envie de les suivre une bonne fois pour toutes (enfin j’espère… ^^) !
Dr Paris Buttfield-Addison, est basé en Australie et c’est un développeur Apple depuis 25 ans et le mec a écrit plus de 20 bouquins sur Objective-C et Swift, et co-organise le plus ancien événement développeur Apple non-officiel… Bref, c’est pas un random qui a téléchargé une app météo une fois.
C’est un évangéliste Apple depuis 30 ans.
Et bien du jour au lendemain, son compte Apple ID a été fermé sans aucune explication. Et bien sûr, impossible de faire un recours.
L’élément déclencheur de sa mésaventure c’est qu’il a essayé de racheter une carte cadeau Apple de 500 dollars pour payer son abonnement iCloud+ de 6 To. Le code a foiré, le vendeur lui a proposé un remplacement, et quelques temps après… boom, compte verrouillé.
Résultat, environ 30 000 dollars de matos Apple devenu inutilisable, des milliers de dollars de logiciels et médias achetés auxquels il n’a plus accès, plus d’iMessage non plus, et surtout des téraoctets de photos de famille qu’il ne peut plus récupérer.
Voilà comment 25 ans de souvenirs et de boulot se sont fait vaporiser…
Et le support Apple n’a pas dit grand chose à part que le compte a été fermé pour “non conformité avec les conditions”. Pas d’autre explication ni possibilité de faire escalader sa demande au support. Tout ce qu’on lui a conseillé c’est de créer un nouveau compte…
On lui a également suggéré de se présenter physiquement au siège australien d’Apple comme si le mec allait prendre un billet d’avion pour aller plaider sa cause en personne. Bref, c’est bizarre comme réponse venant d’une boîte qui vaut 4000 milliards de dollars.
Le truc, c’est que cette histoire peut arriver à n’importe qui. Que ce soit chez Apple, Google ou Microsoft, nous sommes tous à la merci d’un algorithme qui décide un beau matin que notre compte est suspect ou à la bonne humeur de Donald Trump comme
ce qui est arrivé à ce juge
. Et bonne chance pour trouver un interlocuteur prêt à mouiller sa chemise pour vous…
Moi-même j’ai eu tellement de problèmes de synchro avec iCloud au fil des années que j’ai perdu des fichiers. C’est de la grosse merde donc otez pour un truc mieux si vous le pouvez.
Alors du coup, comment on évite ça ?
L’idéal c’est bien sûr l’auto-hébergement si vous avez le temps et les compétences (Oui, c’est gratuit que si votre temps ne vaut rien…sinon, faut relever les manches un peu ^^). Sinon, au minimum, faites des backups réguliers de vos données. Pour Apple Notes par exemple, y’a un outil qui s’appelle
Exporter
que j’aime beaucoup qui permet d’exporter toutes vos notes vers du Markdown ou du HTML comme ça le jour où Tim Cook décide que votre tronche lui revient pas, vous aurez au moins une copie de vos données quelque part.
Bref, ne faites jamais confiance à 100% à ces plateformes avec vos données les plus précieuses. Elles peuvent vous couper l’accès du jour au lendemain, et vous n’aurez aucun recours comme ce pauvre évangéliste qui a consacré sa vie à Apple…
À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.
Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.
Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).
Sans Informatica, SAP n’est plus un « leader »
Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
Microsoft
+ 1
2
Informatica
– 1
3
AWS
+ 1
4
Oracle
– 1
5
Google
+ 3
6
Denodo
+ 3
7
IBM
=
8
Fivetran
+ 2
9
Ab Initio
– 4
10
Qlik
– 4
11
Matillion
=
12
Confluent
=
13
SAP
=
14
SnapLogic
+ 1
15
Sage Software
+ 2
16
Workato
nouvel entrant
17
CData Software
+ 1
18
K2view
+ 1
19
Boomi
nouvel entrant
20
Precisely
– 4
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Informatica
=
2
IBM
+ 1
3
Oracle
– 1
4
Microsoft
=
5
Ab Initio
=
6
SnapLogic
+ 1
7
Denodo
+ 2
8
AWS
+ 5
9
Qlik
– 1
10
K2view
+ 2
11
Google
=
12
Workato
nouvel entrant
13
SAP
– 3
14
Matillion
+ 1
15
Fivetran
+ 2
16
Safe Software
=
17
CData Software
+ 2
18
Confluent
– 4
19
Boomi
nouvel entrant
20
Precisely
=
9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.
Ab Initio salué sur l’automatisation et l’agentique…
Le produit pris en considération se nomme Ab Initio Data Platform.
L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.
Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).
… mais pas sur l’UI, ni la tarification
Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.
La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.
AWS a réduit l’écart avec la concurrence…
La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.
L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.
Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».
… mais reste centré sur son écosystème
L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).
De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.
Denodo se distingue toujours sur la virtualisation des données…
Le produit pris en considération est Denodo Platform.
L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.
Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).
… mais demeure peu utilisé pour certains types d’intégrations
Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.
La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.
Un Google largement distingué sur l’IA…
Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).
L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.
Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.
… mais lui aussi centré sur son écosystème
L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).
La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.
Données non structurées et déploiements hybrides, points forts d’IBM…
L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.
L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.
Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.
… au contraire de la tarification
À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.
Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.
Informatica, à nouveau salué pour la maturité de son offre…
L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).
L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).
Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.
… mais toujours plus sous pression
L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.
Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.
La vision data fabric fait encore mouche chez Microsoft…
Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.
L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.
Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.
… qui se centre lui aussi sur son écosystème
Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.
Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.
Oracle garde l’avantage GoldenGate…
Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.
L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.
Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.
… mais suscite de moins en moins d’intérêt
Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.
Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.
Plusieurs briques robustes chez Qlik…
Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.
L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.
Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.
… mais un ralentissement de la R&D depuis l’acquisition de Talend
L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.
Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.
Quatre-vingt-trois ans. C'est le temps qu'il aura fallu pour percer le mystère de la disparition du Tonnant, sous-marin français englouti au large de Cadix depuis novembre 1942. Une équipe de chercheurs de l'Université de Bretagne Occidentale vient de localiser son épave.
Le REDMAGIC 11 Pro veut redéfinir ce qu’un smartphone gaming est capable de faire. Nouveau Snapdragon 8 Elite Gen 5, refroidissement liquide actif, écran 144 Hz ultra-réactif, batterie massive… À première vue, tout y est pour en faire une véritable console portable sous Android. Reste à savoir si cette surenchère technologique se ressent dans l’usage, et surtout si le mobile parvient à séduire au-delà des joueurs les plus hardcore.