L’engouement massif pour les centres de données dédiés à l’intelligence artificielle pourrait freiner considérablement les travaux d’amélioration des routes, ponts et autres équipements collectifs aux États-Unis. Bloomberg révèle une tension croissante entre deux types de chantiers qui rivalisent désormais pour les mêmes ressources humaines dans un contexte de pénurie structurelle de main-d’œuvre. Alors que gouvernements ... Lire plus
À la faveur des migrations cloud, les CSP gagnent en visibilité sur l’intégration de données.
Gartner en avait fait part fin 2024 dans la synthèse de son Magic Quadrant dédié à ces solutions. Il avait souligné que cette visibilité accrue se traduisait par un gain notable de part de marché.
Un an plus tard, le constat vaut toujours. En parallèle, une autre typologie de fournisseur se distingue par sa croissance : les acteurs « de niche » qui proposent des produits plus spécialisés… ou plus abordables (cost-effective).
Sans Informatica, SAP n’est plus un « leader »
Gartner mène son évaluation sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, commerciale, marketing, produit…). L’autre porté sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits-services…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
Microsoft
+ 1
2
Informatica
– 1
3
AWS
+ 1
4
Oracle
– 1
5
Google
+ 3
6
Denodo
+ 3
7
IBM
=
8
Fivetran
+ 2
9
Ab Initio
– 4
10
Qlik
– 4
11
Matillion
=
12
Confluent
=
13
SAP
=
14
SnapLogic
+ 1
15
Sage Software
+ 2
16
Workato
nouvel entrant
17
CData Software
+ 1
18
K2view
+ 1
19
Boomi
nouvel entrant
20
Precisely
– 4
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Informatica
=
2
IBM
+ 1
3
Oracle
– 1
4
Microsoft
=
5
Ab Initio
=
6
SnapLogic
+ 1
7
Denodo
+ 2
8
AWS
+ 5
9
Qlik
– 1
10
K2view
+ 2
11
Google
=
12
Workato
nouvel entrant
13
SAP
– 3
14
Matillion
+ 1
15
Fivetran
+ 2
16
Safe Software
=
17
CData Software
+ 2
18
Confluent
– 4
19
Boomi
nouvel entrant
20
Precisely
=
9 des 10 « leaders » de l’an dernier le restent. Dans l’ordre alphabétique : Ab Initio, Denodo, Google, IBM, Informatica, Microsoft, Oracle et Qlik.
SAP rétrograde chez les « visionnaires » en conséquence d’un recul sur l’axe « exécution ». Gartner n’a pas pris en compte l’acquisition d’Informatica, finalisée le 8 décembre 2025.
Ab Initio salué sur l’automatisation et l’agentique…
Le produit pris en considération se nomme Ab Initio Data Platform.
L’an dernier, Ab Initio avait été salué pour sa prise en charge des cas d’usage complexes de gestion des données dans les grandes entreprises. Gartner avait aussi apprécié l’expérience client, portée par une approche de la relation en direct. Ainsi que l’exploitation d’un graphe de connaissances facilitant la connexion des indicateurs business aux modèles physiques de données.
Cette année, Ab Initio est salué pour la stabilité de son équipe dirigeante et de sa clientèle historique. Il l’est aussi pour son support et la résilience de sa plate-forme. Bon point également pour son approche d’automatisation à base de métadonnées et de templates. Ainsi que pour son framework agentique AI Central (compréhension des données, création de pipelines, interaction en langage naturel…).
… mais pas sur l’UI, ni la tarification
Paramétrage et mise à niveau peuvent être chronophages, en plus d’une courbe d’apprentissage importante pour les équipes techniques, avait souligné Gartner l’an dernier. La clientèle a tendance à trouver les prix élevés et la gestion des accords de licence, difficile, avait-il ajouté. Tout en notant la faible pénétration sur les usages « simples » de type ETL autonome.
La remarque sur la courbe d’apprentissage reste d’actualité. Gartner y ajoute un UI jugée peu intuitive et un support communautaire minimal. Ab Initio manque plus globalement de visibilité par rapport aux autres « leaders » (en particulier sous le prisme de la production de contenu). Sa tarification est par ailleurs complexe et les déploiements on-prem manquent de souplesse.
AWS a réduit l’écart avec la concurrence…
La plupart des services que Gartner a englobés dans son évaluation – Glue, Kinesis, Athena, etc. – sont inclus dans la plate-forme de data management Amazon SageMaker.
L’an dernier, Amazon se distinguait sur la notion d’écosystème, du « zero-ETL » entre S3, Redshift et Aurora à la connexion Glue-SageMaker en passant par DataZone pour la gestion des métadonnées. Gartner avait aussi apprécié la gestion de multiples profils d’utilisateurs (Glue associe notebooks, GUI, interface tableur et NLP avec Amazon Q). Ainsi que l’architecture serverless, accueillie favorablement par la clientèle, en particulier pour l’efficacité de l’autoscaling.
Cette année encore, Gartner souligne le niveau d’intégration avec le reste d’AWS – en mettant l’accent sur la gouvernance partagée. Il salue aussi la robustesse de l’offre pour la préparation de données à destination des cas d’usage GenAI. Et note qu’AWS a su réduire l’écart avec la concurrence sur des aspects comme les données en flux et les transformations « avancées ».
… mais reste centré sur son écosystème
L’an dernier, Gartner avait relevé que Glue pouvait présenter des coûts élevés, surtout sur de gros volumes de données. Et que malgré la possibilité de se connecter à des bases de données externes, il ne proposait pas le niveau d’intégration des pure players – en plus de ne pas être déployable sur d’autres clouds publics. Autre limite : la complexité d’usage sur les cas avancés de data engineering exigeant du code (marge de progression, entre autres, sur l’intégration avec Apache Iceberg et la gestion des jobs Spark).
De l’impossibilité de déployer Glue sur d’autres clouds publics, on passe, cette année, à une remarque plus générale : l’offre est AWS-centric. D’une part, le catalogue de connecteurs vers d’autres destinations est limité. De l’autre, s’il est plus fourni côté sources, la configuration manque souvent de souplesse. S’y ajoute une tarification perçue comme élevée, avec des hausses de prix parfois inattendues et des outils de gestion des coûts dont la clientèle demande une amélioration. Vigilance également sur la maintenance des pipelines. Elle est souvent complexe et chronophage, et la remédiation automatisée est limitée.
Denodo se distingue toujours sur la virtualisation des données…
Le produit pris en considération est Denodo Platform.
L’an dernier, Denodo se distinguait par la notoriété de sa marque sur la partie virtualisation de données. Gartner avait aussi souligné sa croissance « nettement supérieure » à celle du marché et l’extension de son réseau de partenaires. Il avait également attribué un bon point à l’expérience client, en premier lieu sur la partie fonctionnelle.
Cette année encore, la notoriété sur la virtualisation de données vaut un bon point à Denodo. Son contrôle d’accès granulaire et l’évolution de son catalogue de données en une marketplace de produits data lui en valent d’autres. Gartner y ajoute les briques Denodo Assistant (description et étiquetage automatiques des données sensibles) et DeepQuery (réponse aux questions des métiers à l’appui d’un modèle de raisonnement).
… mais demeure peu utilisé pour certains types d’intégrations
Les produits Denodo sont rarement utilisés pour les intégrations de type bulk/batch ou réplication, surtout en présence de SLA de performance, avait souligné Gartner l’an dernier. Il avait aussi mentionné l’absence d’accélérateurs ou de modèles sectoriels, ainsi que la difficulté à optimiser et maintenir les déploiements distribués.
La première remarque vaut toujours (et s’applique aussi à l’intégration de données en flux). En corrélation, Gartner note le besoin fréquent d’outils complémentaires pour couvrir tous les types d’intégration et les cas d’usage complexes. Il évoque aussi la difficulté à résoudre les problèmes d’intégration de logiciels tiers et à paramétrer le SSO sur les déploiements complexes ; ainsi que l’inadéquation du monitoring natif.
Un Google largement distingué sur l’IA…
Gartner a pris en considération les produits Cloud Data Fusion (pipelines visuels), Datastream (réplication), Dataflow (données en flux), Cloud Composer (orchestration) et BigQuery Data Engineering Agent (enrichissement et automatisation des pipelines dans BigQuery).
L’an dernier, Google se distinguait par le niveau d’intégration de Gemini dans son offre. Autre point fort : les capacités de gouvrnance à l’échelle (découverte automatique, lignage, exploitation des métadonnées…). Gartner jugeait par ailleurs les produits plus faciles à utiliser que la moyenne pour les data engineers – et assortis d’une documentation exhaustive.
Cette année, la remarque sur Gemini devient une remarque sur la capacité à couvrir les cas d’usage IA, à l’appui de l’intégration avec Vertex AI. Gartner apprécie aussi l’adaptation à de multiples profils (pipelines visuels, notebooks, code…) et les capacités de l’agent de data engineering pour BigQuery (création de pipelines, résolution de problèmes…), même s’il ne s’étend pas aux pipelines implémentés avec les autres outils d’intégration de données de Google.
… mais lui aussi centré sur son écosystème
L’an dernier, Gartner avait fait le constat d’une offre Google-centric ; et appelé à la vigilance quiconque n’était pas pleinement engagé dans cet écosystème. Il avait aussi pointé le manque d’unification du portefeuille (qui souhaite plusieurs modes d’intégration aura potentiellement besoin de plusieurs outils).
La vision Google-centric est toujours d’actualité : les produits sont conçus et vendus essentiellement pour un usage dans l’écosystème Google Cloud. Le portefeuille reste lui aussi fragmenté : en 10 outils en l’occurrence, avec une UX et des capacités fonctionnelles d’autant plus inégales.
Données non structurées et déploiements hybrides, points forts d’IBM…
L’offre prise en considération est watsonx.data integration. Incluant DataStage (bulk/batch), Data Replication et StreamSets (données en flux), elle est fournie au sein de la plate-forme watsonx.data.
L’an dernier, Gartner avait salué la « vision » globale d’IBM, entre gestion des déploiements hybrides, exploitation des métadonnées actives et mise à contribution de l’IA watsonx. Il avait aussi souligné l’étendue de sa présence géographique et de son réseau de partenaires. Ainsi que l’acquisition de StreamSets, qui avait amélioré la capacité à gérer les pipelines complexes en environnement multicloud.
Cette année, l’un des bons points va à l’architecture de la solution, qui permet de découpler conception du pipeline et style d’intégration, ce dernier pouvant être sélectionné à l’exécution et déployé en hybride/multicloud. Autre point fort : la gestion des données non structurées, à l’appui notamment des modèles Granite et Slate. Gartner mentionne aussi le niveau d’intégration avec la composante watsonx.data intelligence, qui inclut catalogue, lignage et gestion de produits data.
… au contraire de la tarification
À cas d’usage comparables, les solutions d’IBM sont plus chères que la concurrence, avait souligné Gartner. Le cabinet américain avait aussi fait remarquer que la mise en action de l’élasticité et des capacités de gouvernance pouvait impliquer un paramétrage complexe. Il avait également pointé un manque de clarté sur la portabilité des licences DataStage et sur les bonnes pratiques associées à la migration vers le Cloud Pak for Data.
Cette année encore, IBM est plus cher que la concurrence ; ou reste tout du moins perçu comme tel. Le modèle fondé sur des « unités de ressources » y contribue. L’offre apparaît par ailleurs rarement dans les shortlists et dans les projets d’architectures data « modernes », sauf pour qui utilise déjà DataStage. Elle est également peu prise en considération par les organisations qui recherche des outils spécialisés ne faisant pas partie d’une offre intégrée (virtualisation ou réplication de données, par exemple), en particulier lorsque la source n’est pas un mainframe ou une base de données IBM.
Informatica, à nouveau salué pour la maturité de son offre…
L’offre prise en considération est Cloud Data Integration, qu’Informatica distribue au sein de sa plate-forme IDMC (Intelligent Data Management Cloud).
L’an dernier, Informatica avait eu des bons points pour son moteur IA CLAIRE et pour sa vision data fabric. Ainsi que pour son approche de la préparation des données pour les cas d’usage IA. Et plus globalement pour la maturité de son offre (variété des connecteurs, des cas d’usage couverts et des styles d’intégration).
Cette année encore, Gartner évoque une « vision claire pour l’IA », entre gestion du non structuré, brique agentique (Agent Engineering) et modules CLAIRE Copilot et CLAIRE GPT pour la gestion des pipelines. La notoriété de la marque, l’écosystème de partenaires et le vivier de compétences disponibles sont d’autres points forts. La maturité de l’offre l’est à nouveau, pour les mêmes raisons que l’an dernier.
… mais toujours plus sous pression
L’an dernier, Gartner avait expliqué à quel point la percée des CSP était un « défi » à la croissance d’Informatica. Il avait aussi noté que la tarification à l’usage pouvait ne pas s’avérer avantageuse pour qui n’utiliserait que partiellement le produit. Et souligné qu’une grande partie de la clientèle était encore sur l’offre PowerCenter, sachant que la migration vers IDMC peut se révéler chère et chronophage.
Cette dernière remarque vaut toujours. Et cette année, elle est assortie d’un constat : des clients « explorent des solutions alternatives »… Informatica voit par ailleurs baisser sa part de marché, en premier lieu au profit des hyperscalers. On restera de plus vigilant concernant la roadmap et le pricing maintenant qu’Informatica appartient à Salesforce.
La vision data fabric fait encore mouche chez Microsoft…
Gartner a pris en considération Data Factory (inclus dans Microsoft Fabric), ainsi qu’Azure Data Factory, SQL Server Integration Services, Power Query et Azure Synapse Link.
L’an dernier, Microsoft avait eu un bon point pour l’adoption significative de Fabric, autant par des clients nouveaux qu’existants. Gartner avait aussi salué le niveau d’intégration avec le reste du cloud Azure et l’injection des capacités de Copilot.
Cette année encore, l’adoption de Microsoft Fabric – et de la composante Data Factory – est saluée ; comme l’écosystème de partenaires et la cadence de développement de fonctionnalités. Le module Real-Time Intelligence (traitement des données en flux) l’est aussi, pour son accessibilité et son intuitivité.
… qui se centre lui aussi sur son écosystème
Comme d’autres hyperscalers, Microsoft a un produit centré sur son écosystème, avait fait remarquer Gartner l’an dernier. Il avait aussi évoqué une satisfaction utilisateur relativement faible à propos du support. Et affirmé que les capacité de réplication et de virtualisation manquaient encore de maturité – pour ces raisons, l’offre avait tendance à n’être envisagée que pour des déploiements simples.
Le manque de maturité de l’offre reste signalé cette année. Des fonctionnalités pourraient ne pas convenir à un usage en prod, estime Gartner (exemples donnés : les nouveautés sur le CI/CD et la copie de données). Les capacités on-prem sont limitées, le focus étant clairement sur le cloud, ajoute-t-il. Tout en réaffirmant que l’offre est Microsoft-centric ; autrement dit, efficace surtout pour qui est déjà dans Azure ou Microsoft Fabric.
Oracle garde l’avantage GoldenGate…
Les principales offres prises en compte sont GoldenGate et OCI Data Integration. Gartner a aussi pris en considération Oracle Data Integrator et Oracle Autonomous Database Data Studio.
L’an dernier, Gartner avait souligné l’approche « agnostique » d’Oracle, OCI jouant le rôle de hub entre CSP (partage de métadonnées, FinOps…). Il avait aussi apprécié les capacités de GoldenGate sur la réplication et le streaming. Et souligné le niveau de prise en charge des scénarios complexes, dont l’intégration en environnement hybride.
Ce dernier point est toujours valable, avec un accent sur le niveau de support des déploiements on-prem. Même chose pour les capacités de GoldenGate sur la réplication et le streaming. Gartner y ajoute les fonctionnalités IA, en tête desquelles un framework agentique.
… mais suscite de moins en moins d’intérêt
Oracle tend à apparaître moins fréquemment dans les shortlists que les autres acteurs de ce marché, avait noté Gartner l’an dernier. Ses solutions restent perçues comme chères, avait-il ajouté. Et en dépit du catalogue de connecteurs, elles sont plus souvent envisagées lorsque ses bases de données sont la source ou la destination des intégrations.
Robuste sur l’intégration des données opérationnelles, GoldenGate éclipse souvent le portefeuille touchant aux données analytiques, estime Gartner. La tarification reste perçue comme onéreuse, d’autant plus qu’elle manque de transparence. Oracle suscite plus globalement un intérêt moindre que les années précédentes et son taux de rétention client est sous la moyenne du marché.
Plusieurs briques robustes chez Qlik…
Trois solutions ont été prises en considération : Qlik Talend Cloud (la principale), Talend Data Fabric et Qlik Replicate.
L’an dernier, Gartner avait crédité Qlik de bons points pour la robustesse de ses briques de réplication et de préparation de données. Il avait fait de même pour le catalogue de connecteurs et pour la partie gouvernance, renforcée par l’acquisition de Talend.
Cette année, le cabinet américain affirme que la brique réplication est « parmi les meilleures du marché ». Il salue plus globalement une « vision holistique » de la gestion des données, portée par une emphase sur la gouvernance et un engagement sur l’architecture lakehouse après l’acquisition d’Upsolver. Autre point fort : la robustesse du produit sur le bulk/batch et la transformation de données.
… mais un ralentissement de la R&D depuis l’acquisition de Talend
L’acquisition de Talend a potentiellement pesé sur la R&D, qui a ralenti, avait postulé Gartner l’an dernier. Il avait aussi affirmé que Qlik pouvait gagner en maturité sur la virtualisation de données. Et qu’il avait peu communiqué au sujet de l’augmentation de ses prix.
Ce dernier point vaut toujours ; et il a surpris des clients, l’absence d’une tarification publique ajoutant à leur frustration. Quant au ralentissement de la R&D, il s’est confirmé, engendrant une incertitude sur la capacité de Qlik à suivre le rythme du marché. Attention aussi aux capacités d’automatisation limitées, tant pour la conception de pipelines que l’optimisation des transformations de données.
La fin de l’anime My Hero Academia est imminente. Après huit saisons mouvementées, l’adaptation animée s’apprête à tirer sa révérence avec un dernier épisode très attendu. Les plus grands antagonistes, All For One et Shigaraki, ont finalement été vaincus, mais quelques révélations cruciales restent encore à dévoiler avant que le rideau ne tombe définitivement sur ... Lire plus
According to recent industry analyses, although smartphone manufacturers have been trying to keep stable prices for Android devices released in 2025, this trend is probably not going to happen next year, in 2026. Rising production costs driven by global demand for memory components are expected to have a huge impact, causing a significant price increases across the whole Android market. A major factor behind all the shift is the escalating […]
Il y a quelque temps, le dirigeant de l’une des plus grandes entreprises tech au monde expliquait dans un podcast que les organisations qui utilisent l’intelligence artificielle (IA) pour accroître leur productivité et stimuler l’économie seront les véritables gagnants de cette révolution.
Cette déclaration met en lumière les avancées concrètes observées avec l’IA générative, en particulier avec les petits modèles de langage (SLM) et les agents d’IA. Moins visibles que les grands modèles de langage (LLM) qui équipent sur les ordinateurs portables et les smartphones, les SLM offrent des avantages remarquables et des applications concrètes pour les équipes terrain, notamment dans des secteurs comme celui de la distribution.
Une sélection de SLM dédiés, intégrée à une suite d’agents d’IA, peut être optimisée de manière efficace pour l’automatisation intelligente de tâches spécifiques. Ces capacités d’IA permettent aux équipes terrain de capturer facilement le contexte de leurs workflows, puis de l’intégrer directement dans un terminal mobile doté d’agents d’IA afin d’améliorer la productivité, l’expérience client, et renforcer la visibilité des actifs.
Rendre l’IA réelle
Les SLM sont également idéaux pour des capacités d’IA embarquée (on-device AI). Ils apportent cette technologie directement sur des terminaux mobiles, transportables et autres terminaux aux ressources limitées, permettant ainsi des fonctionnalités telles que les assistants vocaux hors ligne et la traduction en temps réel.
Les agents d’IA basés sur des SLM permettent de mettre en œuvre des applications d’edge computing, en traitant les données au plus près de leur source, ce qui réduit la latence et la consommation de bande passante.
Cette technologie offre des avantages significatifs aux équipes terrain dans la distribution, les entrepôts et la logistique, en améliorant la prise de décision en temps réel et l’efficacité opérationnelle. Voici quelques exemples d’agents IA générés par des SLM :
1. Agent de connaissances : capable d’interagir en langage naturel avec les supports de formation et les procédures opérationnelles standards pour faciliter l’intégration des collaborateurs, et leur fournir l’information dont ils ont besoin dès qu’ils en ont besoin.
2. Agent de vente : aide à répondre aux questions des clients et collaborateurs, interroge en direct les stocks et les prix, et propose des recommandations de vente croisées ou additionnelles.
3. Agent de merchandising : combine reconnaissance d’image embarquée et vision par ordinateur pour automatiser l’analyse de l’état des rayons, identifier les ruptures, erreurs de placement, non-conformités planogramme ou erreurs de prix et de signalétique.
L’IA au bon moment, et sans cloud
Les SLM embarqués présentent des avantages particulièrement intéressants pour les équipes informatiques, innovation et techniques, notamment en matière de confidentialité :
● Confidentialité renforcée : les données de l’utilisateur ne quittent en effet jamais l’appareil, ce qui réduit le risque de violation de données et garantit un meilleur contrôle des informations personnelles.
● Faible latente : le traitement s’effectue localement, sans qu’il soit nécessaire d’interroger un serveur éloigné. Les réponses sont ainsi quasi instantanées, ce qui est essentiel pour les applications en temps réel, telles que les assistants vocaux ou la traduction.
● Réduction des coûts de bande passante et de cloud : comme les données ne sont plus systématiquement envoyées dans le cloud, le traitement local diminue l’usage des données mobiles et les dépenses liées au calcul des LLM dans le cloud.
● Fonctionnalités hors-ligne : lorsque les LLM sont intégrés aux appareils, l’IA peut continuer à fonctionner sans connexion Internet, ce qui est particulièrement utile dans les zones où la connectivité est limitée ou instable.
L’avenir est aux agents d’IA multimodaux
Le futur de l’IA est intrinsèquement multimodal. Les êtres humains n’expérimentent pas le monde uniquement par le texte ; ils utilisent tous leurs sens. L’IA doit faire de même en s’appuyant sur tous ces « sens » pour réellement comprendre et interagir efficacement avec le monde.
La bonne nouvelle, c’est que les SLM et les agents IA peuvent être multimodaux, comme dans l’exemple de l’agent merchandising évoqué précédemment. Pour exploiter pleinement leur potentiel, notamment lorsqu’ils sont déployés sur des appareils en périphérie, ils doivent justement être multimodaux, et ne pas se limiter au traitement et à la génération de texte. Deux approches principales permettent d’atteindre cet objectif :
● Les SLM multimodaux intégrés sont conçus pour traiter plusieurs modalités directement. Cette approche est la plus efficace, mais elle requiert un travail de conception et d’entraînement particulièrement méticuleux.
● Les systèmes multimodaux modulaires combinent un SLM avec des modèles spécialisés distincts (par exemple un modèle de reconnaissance d’images ou de transcription de la parole en texte). Le SLM joue alors le rôle de coordinateur en traitant le texte et en interagissant avec les autres modèles selon les besoins.
La tendance est aux SLM multimodaux plus intégrés, à mesure que la technologie évolue et que l’entraînement des modèles, même complexes, gagne en efficacité. Toutefois, une approche modulaire reste souvent plus simple et plus rentable à court terme.
L’avenir reposera probablement sur une combinaison des deux approches, en fonction des cas d’usage et des ressources disponibles. Les travaux de R&D actuels permettront de créer des SLM multimodaux intégrés et des agents IA plus efficaces et plus puissants, tout en développant des systèmes modulaires robustes, faciles à personnaliser et à déployer sur une large gamme d’appareils.
L’objectif est de permettre à des systèmes d’IA de comprendre le monde à travers plusieurs prismes, afin d’offrir des interactions plus naturelles, intuitives et efficaces avec les humains et leur environnement. L’IA qui améliore le travail au quotidien sera la véritable gagnante de demain.
*Andrea Mirabile est directeur global de la recherche en intelligence artificielle de Zebra Technologies
Dernière mise à jour le 11 décembre 2025 L’intelligence artificielle générative n’est plus une promesse lointaine : elle est déjà dans nos salles de classe et dans les cartables de nos élèves. Les réflexes...
KIOXIA dévoile aujourd'hui un nouveau SSD M.2. qui porte le nom de Exceria Pro G2. C'est un SSD M.2. NVMe au format 2280 qui profite d'une interface PCI Express 5.0 4x
Une Ukrainienne est inculpée pour son rôle au sein des groupes pro-Russie CARR et NoName, accusés d’attaques contre des infrastructures critiques mondiales....
L’Inde renonce à imposer l’app Sanchar Saathi sur tous les smartphones, révélant les tensions entre cybersécurité d’État, vie privée et puissance des géants du numérique....
Adobe va intégré Photoshop, Adobe Express et Acrobat dans ChatGPT. Les utilisateurs pourront taper une requête dans ChatGPT pour retoucher des photos, créer un graphique, animer des designs ou résumer un PDF, déclenchant automatiquement l’outil correspondant.
Ce lancement s’appuie sur l’annonce d’Adobe fin octobre, lorsque l’entreprise avait remanié ses outils de montage vidéo et d’édition d’images pour permettre aux utilisateurs d’exécuter des tâches via des assistants IA conversationnels. L’intégration dans ChatGPT s’inscrit dans la continuité de cette innovation en matière d’IA agentique et du protocole MCP.
Une adaptation aux bouleversements de l’IA
En août dernier, Adobe avait lancé Acrobat Studio, transformant les documents statiques en espaces de travail interactifs alimentés par l’IA. Lors de sa conférence Adobe MAX, l’éditeur avait également présenté des assistants IA pour Photoshop et Adobe Express, permettant à chacun de créer en utilisant ses propres mots et d’affiner les résultats avec les outils de classe mondiale de l’entreprise.
Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.
OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.
Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM Salesforce.
L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.
Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.
Trois briques technologiques au cœur du dispositif
L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.
De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.
OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.
Un soutien des géants du cloud
L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.
Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.
Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.
Airbus franchit une nouvelle étape dans le secteur de la défense. L’industriel européen vient de signer un contrat de 50 millions € avec l’Agence ministérielle pour l’intelligence artificielle de défense (AMIAD) pour intégrer des technologies d’IA dans les systèmes militaires français.
Spationav, première cible de la modernisation
La phase initiale de ce contrat se concentrera sur la modernisation de Spationav, le système français de surveillance maritime. L’objectif : intégrer l’intelligence artificielle pour traiter les données issues des satellites, permettant ainsi une analyse plus rapide et plus précise des informations collectées.
Les applications futures devraient s’étendre à des domaines stratégiques comme le renseignement, la cybersécurité et la gestion des réseaux de télécommunications militaires.
L’ambition de la France est de centraliser l’ensemble des données collectées par ses capteurs dispersés sur satellites, radars et drones. Cette approche intégrée vise à offrir une vision unifiée et en temps réel du champ de bataille moderne, où l’information devient un atout aussi décisif que l’armement lui-même.