Vue lecture

Harmattan AI : la pépite française de l’IA de défense devient licorne

À peine neuf mois après sa création, Harmattan AI, spécialisée dans les systèmes autonomes de défense dopés à l’intelligence artificielle vient de boucler une levée de fonds de 200 millions $ en série B, portant sa valorisation à 1,4 milliard $.

Une opération menée par Dassault Aviation qui propulse la jeune pousse au rang de première licorne française de l’armement.

Dassault Aviation mise gros sur l’autonomie

En prenant la tête de ce tour de table aux côtés d’investisseurs financiers déjà présents, l’avionneur français ne se contente pas d’un pari financier. Il s’offre un partenaire stratégique pour ses futurs programmes aériens.

Harmattan AI est désormais positionnée pour développer les « fonctions d’IA embarquées » du Rafale F5, ainsi que les systèmes aériens inhabités (UCAS) qui accompagneront les chasseurs de sixième génération du SCAF (Système de combat aérien du futur).

Ce rapprochement s’inscrit dans une stratégie plus large orchestrée avec Thales et l’Agence ministérielle pour l’IA de défense (AMIAD) : bâtir une intelligence artificielle de combat souveraine, capable de rivaliser avec les géants américains et chinois.

Licorne en moins d’un an

Fondée en avril 2024 par Mouad M’Ghari et Martin de Gourcuff, Harmattan AI  développe une gamme complète de systèmes autonomes intégrés : drones de frappe et de surveillance, plateformes de commandement et briques logicielles d’IA embarquée. Son approche « full stack » ( maîtrise du hardware comme du software) séduit les états-majors.

Les succès commerciaux se sont enchaînés à une vitesse inédite dans un secteur réputé pour ses cycles décisionnels interminables. Un contrat emblématique avec la Direction générale de l’armement (DGA) pour plusieurs milliers de drones, destinés notamment à l’exercice militaire Orion 2026, puis une commande de l’armée britannique pour des drones d’entraînement. De quoi valider le modèle et attirer l’attention des industriels historiques.

Avec cette manne de 200 millions $, Harmattan AI vise une montée en cadence spectaculaire pour atteindre une production de plusieurs dizaines de milliers de drones par mois à court terme. Un objectif qui nécessitera de muscler considérablement l’appareil industriel et les chaînes d’approvisionnement.

Les fonds serviront également à étendre le déploiement de ses algorithmes d’IA à de nouveaux théâtres d’opérations : défense aérienne multi-niveaux, interception de drones, guerre électronique. L’entreprise compte renforcer massivement ses équipes de R&D et d’ingénierie logicielle pour tenir la cadence technologique face à une concurrence internationale qui s’intensifie.

La French Tech défense entre en scène

L’entrée d’Harmattan AI dans le club des licornes marque un tournant pour l’écosystème français de la défense. Longtemps dominé par les grands industriels historiques, le secteur voit émerger une nouvelle génération de startups qui articulent souveraineté, IA et capacité de production à grande échelle. À l’image d’Helsing en Allemagne ou d’Anduril aux États-Unis, ces jeunes pousses bousculent les codes et les positions établies.

Cette évolution reflète un changement doctrinal profond. Les armées françaises et européennes intègrent désormais pleinement les startups dans la chaîne de valeur de l’armement, conscientes que l’innovation de rupture vient souvent de l’extérieur des grands programmes étatiques. Le soutien de l’AMIAD et les nouvelles modalités d’achats publics facilitent ces rapprochements.

Reste désormais à transformer l’essai industriel. Car dans ce domaine ultra-exigeant où la fiabilité opérationnelle est non négociable, le passage de la startup prometteuse au fournisseur stratégique des armées constitue un marathon autrement plus redoutable qu’une levée de fonds, aussi spectaculaire soit-elle.

Image : © DR

The post Harmattan AI : la pépite française de l’IA de défense devient licorne appeared first on Silicon.fr.

  •  

Anthropic lance son offensive dans la santé avec Claude

Quelques jours seulement après l’annonce de son rival OpenAI, Anthropic réplique avec « Claude for Healthcare ».

La scale-up basée à San Francisco vient de dévoiler son offensive dans le secteur lucratif de la santé en annonçant que son chatbot Claude était désormais conforme à la norme HIPAA (Health Insurance Portability and Accountability Act). Un sésame réglementaire indispensable aux États-Unis pour permettre aux hôpitaux et prestataires de soins de manipuler des données de santé protégées.

Un hub de données personnelles sous conditions

Avec Claude for Healthcare, l’ambition d’Anthropic ne s’arrête pas aux couloirs des hôpitaux. Côté grand public, l’entreprise permet désormais à ses utilisateurs d’exporter leurs données de santé depuis des applications comme Apple Health ou Function Health. L’objectif est d’ aider les particuliers à centraliser leurs dossiers médicaux pour mieux les partager avec leurs médecins.

Toutefois, cette intégration directe est actuellement réservée aux utilisateurs basés aux États-Unis, où le cadre HIPAA prévaut. Pour les utilisateurs européens, si l’accès à Claude est disponible, l’importation automatisée de données biométriques reste soumise aux évolutions de la conformité locale (RGPD).

Claude intègre désormais des bases de données scientifiques (comme PubMed ou le registre NPI) pour étayer ses réponses par des citations vérifiables. Un argument de poids pour rassurer des cliniciens échaudés par les risques de désinformation liés à l’IA.

« L’IA est prête à avoir un impact majeur sur l’économie globale, dès lors que vous faites ce qu’il faut sur le plan réglementaire et des données », défend Mike Krieger, Chief Product Officer d’Anthropic, en garantissant qu’il n’utilisera pas les données de santé de ses utilisateurs pour entraîner ses modèles.

Une bataille de géants pour le « care »

Si le marché est colossal, la concurrence féroce. Selon Anthropic, Claude séduit déjà des géants comme le système de santé à but non lucratif Banner Health où 22 000 prestataires l’utilisent, mais aussi le groupe pharmaceutique Novo Nordisk ou le centre hospitalier universitaire Stanford Health Care.

Alors que des discussions sont en cours pour une levée de fonds sur la base d’une valorisation stratosphérique de 350 milliards $, Anthropic doit prouver que l’IA peut non seulement automatiser le code informatique, un de ses points forts actuels, mais aussi transformer radicalement la recherche biologique. Le diagnostic ne fait que commencer.

Illustration : © DR

The post Anthropic lance son offensive dans la santé avec Claude appeared first on Silicon.fr.

  •  

Andreessen Horowitz franchit un nouveau cap avec 15 milliards de dollars levés

Le fonds d’investissement Andreessen Horowitz (a16z) vient d’annoncer une levée colossale dépassant légèrement 15 milliards de dollars. Un montant qui représente plus de 18 % de l’ensemble du capital-risque distribué aux États-Unis durant l’année 2025, selon les déclarations de Ben Horowitz, cofondateur de la firme. Cette nouvelle injection propulse a16z au-delà de 90 milliards de ... Lire plus

L'article Andreessen Horowitz franchit un nouveau cap avec 15 milliards de dollars levés est apparu en premier sur Fredzone.
  •  

Anthropic séduit le géant allemand de l’assurance Allianz avec ses modèles d’IA

Le laboratoire de recherche en intelligence artificielle Anthropic continue d’élargir son portefeuille de clients d’envergure. Vendredi dernier, l’entreprise a annoncé un accord stratégique avec Allianz, conglomérat munichois spécialisé dans l’assurance à l’échelle mondiale. L’objectif affiché consiste à introduire une IA responsable dans le secteur assurantiel. Les parties prenantes ont toutefois refusé de divulguer les montants ... Lire plus

L'article Anthropic séduit le géant allemand de l’assurance Allianz avec ses modèles d’IA est apparu en premier sur Fredzone.
  •  

Dépendances numériques de l’UE : une matrice des risques

2017 : Apple empêche la publication d’applications sur l’App Store en Iran. 2019 : GitHub bloque des utilisateurs en Syrie ; Adobe, au Venezuela. 2025 : Microsoft coupe la messagerie du procureur général de la Cour pénale internationale.

Toutes ces mesures ont fait suite à des sanctions dont avait décidé le gouvernement américain. Une étude récemment remise au Parlement européen* les mentionne, en illustration des risques inhérents aux dépendances à des technologies étrangères.

Les technologies chinoises en font aussi partie. Sont évoquées entre autres celles de Xiaomi, qui a capté 12 % du marché européen des smartphones en 2024. Ainsi que celles de Huawei et ZTE, dont les équipements télécoms ont couvert jusqu’à un quart des réseaux mobiles européens.

Une matrice du « risque de souveraineté » sur 9 dimensions

L’étude propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions.

Contrôle juridique

Le risque est jugé maximal (5/5) sur la dimension « pourcentage de logiciels critiques de sources non européennes », en ce qu’on dépasse les 80 %.

Il l’est aussi sur la concentration des dépendances au sein d’une seule juridiction étrangère (États-Unis).

Il est élevé (4/5) pour ce qui est de l’influence gouvernementale sur des fournisseurs-clés (des lois à portée extraterritoriale s’appliquent aux activités de ces fournisseurs dans l’UE).

Autonomie technique

Le risque est moyennement élevé (3/5) concernant la disponibilité de substituts européens (il en existe sur beaucoup des segments étudiés, mais leur adoption reste limitée).

Il l’est aussi sur la complexité technique du changement de fournisseur. Lequel « peut prendre 6 à 15 mois », nous annonce-t-on en citant trois sources : un cas de migration vers S/4HANA, la transition cloud de l’organisme chargé de la régulation des titres municipaux aux USA… et un guide AWS pour les grandes migrations.

Le risque est jugé plus élevé (4/5) pour ce qui est de l’accès au code source : les logiciels les plus utilisés sont propriétaires.

Indépendance stratégique

Le score de risque le moins élevé (2/5) concerne la disponibilité de capacités R&D dans l’UE – même si celles-ci sont « de plus en plus limitées », nous fait-on remarquer.

Pour ce qui est des compétences, on en est à 3/5 (la base est « considérable » mais s’amoindrit).

Même score pour le financement (difficultés notables pour obtenir des capitaux européens). Sur ce point, 28 % des fonds levés par les start-up européennes en 2024 provenaient des USA. Cette même année, les acquisitions par des entreprises américaines ont représenté près de la moitié de la valeur des M&A tech sur le continent.

Le risque économique, du micro au macro

À cette matrice du risque de souveraineté s’en ajoute une sur le risque économique. Là aussi avec trois axes (coûts directs, dépendance au marché et impact macroéconomique).

Coûts directs

Le risque est dit maximal (5/5) sur le coût des produits et services, en ce qu’une part considérable du PIB de l’UE y est consacrée (1,5 % rien que pour les dépenses des entreprises).

Il est moyennement élevé (3/5) concernant les hausses de prix. De l’ordre de 10 % par an, elles sont plus fortes que l’inflation, mais « acceptables pour les acheteurs ».

Pour le coût du changement de fournisseur, on en est à 4/5 : malgré les apports du Data Act, les démarches nécessitent des investissements « irraisonnables ».

Dépendance au marché

Le risque est maximal (5/5) si on le prend sous le prisme de la position de marché des fournisseurs non européens : des acteurs américains captent 70 à 100 % de la plupart des segments étudiés.

Le risque reste élevé (4/5) si on s’intéresse au pouvoir de négociation des entreprises européennes, limité tant par le manque de substituts que par le coût du changement de fournisseur.

Risque également élevé (4/5) pour la dépendance R&D à des fournisseurs étrangers : la plupart des innovations européennes viennent s’adosser à des plates-formes américaines.

Impact macroéconomique

Score maximum sur les trois éléments listés :

  • Compétitivité de l’UE (jugée « affaiblie en permanence »)
  • Effets sur l’emploi (les dépenses des entreprises européennes financent environ 2 millions d’emplois aux États-Unis)
  • Balance commerciale (le déficit dans le secteur numérique dépasse 100 Md€ et continue à croître)

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration générée par IA

The post Dépendances numériques de l’UE : une matrice des risques appeared first on Silicon.fr.

  •  

Marché numérique français : reprise en trompe-l’œil ou vrai rebond ?

Après une année 2025 en demi-teinte (+2 %), le marché du numérique français devrait retrouver des couleurs en 2026 avec une croissance prévue de 4,3 %, selon les dernières projections de Numeum, le syndicat des entreprises du secteur.

Un chiffre qui pourrait rassurer, si l’on s’en tenait aux apparences. Mais la réalité est plus contrastée : cette reprise masque des trajectoires divergentes selon les segments, et pose une question lancinante sur la répartition de la valeur créée.

Un marché qui se désolidarise

Le premier constat tient en trois chiffres. Les éditeurs de logiciels et plateformes affichent une croissance vigoureuse de 8,4 % en 2026, prolongeant leur dynamique de 2025 (+8,2 %), pour atteindre 31,6 milliards €. À l’inverse, les entreprises de services du numérique (ESN) peinent à retrouver leur rythme : après un recul de 1,8 % en 2025 (34,3 milliards), elles ne progresseraient que de 1,4 % en 2026, à 35 milliards. Quant aux sociétés d’ingénierie et de conseil en technologies (ICT), elles reviennent tout juste en territoire positif (+1 %) après une baisse de 2,5 % l’an dernier.

Cette divergence n’est pas anecdotique. Elle illustre un basculement structurel : le passage d’un modèle fondé sur les projets et les prestations intellectuelles vers un modèle de consommation récurrente, porté par le SaaS et les plateformes cloud.

En 2025, 77 % des nouveaux projets des éditeurs ont été réalisés en mode SaaS, contre 53 % en 2021. Cette migration accélérée capte une part croissante des budgets IT, au détriment des services d’intégration traditionnels.

L’IA générative, accélérateur… de quoi exactement ?

L’intelligence artificielle générative est présentée comme le grand moteur de la reprise. Près de 40 % des acteurs du secteur constatent déjà un impact positif sur leurs marges ou leur chiffre d’affaires.

Les gains de productivité sont tangibles : 12,5 % en moyenne en 2025, avec une perspective de 17 % en 2026. Les éditeurs l’utilisent pour accélérer leurs cycles de développement, créer de nouvelles offres (63 % des répondants) et personnaliser leurs solutions.

Mais pour les ESN, le tableau est plus ambigu. L’IA permet certes de répondre plus rapidement aux appels d’offres (54 % des acteurs) et de livrer davantage de projets dans l’année (58 %), mais elle introduit aussi une pression déflationniste. Si l’on délivre plus vite, pourquoi facturer autant ? Certains clients commencent à renégocier leurs contrats à la baisse, pointant les gains de productivité pour justifier une compression des tarifs. Résultat : 15 % des entreprises interrogées évoquent une pression accrue sur les prix, 10 % une réduction du temps facturable.

Cette dynamique pose une question centrale : qui capte la valeur générée par l’IA ? Les gains de productivité se traduisent-ils en marges supplémentaires pour les prestataires, en tarifs réduits pour les clients, ou en nouvelles capacités qui justifient un niveau de facturation stable ? Pour l’instant, la réponse n’est pas tranchée. Et c’est précisément ce flou qui inquiète.

La souveraineté numérique, du discours à la réalité

Autre thème en vogue : la souveraineté numérique.

Numeum relève que 42 % des entreprises du secteur accompagnent leurs clients sur des projets liés à cette thématique. Mais la dynamique reste embryonnaire : 80 % des acteurs ont réalisé moins de dix projets en 2025, avec un panier moyen compris entre 100 000 et 150 000 euros. Loin, donc, des grands programmes structurants.

Ce concept, longtemps cantonné aux discours politiques, commence néanmoins à se matérialiser sous la pression de plusieurs facteurs : obligations réglementaires (NIS2, IA Act), tensions géopolitiques et méfiance croissante envers les solutions américaines dominantes. Mais le passage de l’intention à l’investissement reste lent, freiné par la complexité technique et les arbitrages budgétaires.

Un retour de la croissance… sans l’emploi ?

Derrière les prévisions optimistes, un angle mort persiste : l’emploi. En 2024, le secteur a perdu 7 500 postes. L’année 2025 s’est inscrite dans une logique de stabilisation, sans réelle reprise des embauches.

Or, si la croissance de 2026 se matérialise, il n’est pas certain qu’elle se traduise par une dynamique d’emploi comparable à celle des deux dernières décennies, où les effectifs avaient progressé de 50 % en dix ans pour atteindre environ 666 000 salariés.

Plusieurs facteurs expliquent cette déconnexion. D’abord, l’automatisation : les gains de productivité liés à l’IA réduisent mécaniquement les besoins en main-d’œuvre sur certaines tâches. Ensuite, la géographie du « delivery » : l’offshore progresse quand l’optimisation devient le maître-mot. Enfin, la réallocation des budgets vers les modèles récurrents (SaaS, cloud) diminue la part des projets nécessitant une mobilisation humaine intensive.

Ce que les DSI doivent retenir

Pour les directions des systèmes d’information, cette reconfiguration du marché impose trois vigilances.

D’abord, une cartographie rigoureuse des dépenses récurrentes. Les abonnements SaaS et les factures cloud deviennent incompressibles, grignotant les marges de manœuvre budgétaires. Anticiper leur évolution est crucial pour préserver la capacité d’investissement dans des projets de transformation.

Ensuite, une réflexion sur la mesure de la valeur. Les gains de productivité liés à l’IA ne doivent pas se traduire uniquement par une réduction des jours-hommes facturables. Il faut définir des unités de valeur pertinentes : qualité, délai, couverture fonctionnelle, réduction des risques. Faute de quoi, la pression déflationniste des fournisseurs se fera au détriment de la qualité des livrables.

Enfin, une attention accrue aux enjeux de souveraineté et de dépendance. La concentration sur quelques hyperscalers américains fragilise la capacité de négociation et la liberté de choix. Sans tomber dans le dogmatisme, diversifier les sources d’approvisionnement et privilégier des solutions offrant des garanties de réversibilité devient un enjeu stratégique.

Une reprise, oui. Mais pour qui ?

Numeum table sur une accélération en 2026, portée par l’IA, la cybersécurité et les investissements dans la modernisation des systèmes. Les indicateurs opérationnels se redressent, les carnets de commandes se remplissent, les taux d’occupation des ESN remontent. Mais cette reprise ne ressemble pas aux précédentes.

Elle se construit sur fond de réallocation de valeur vers les éditeurs et les plateformes, de pression déflationniste sur les services, et d’incertitudes persistantes sur l’emploi. La croissance peut revenir sans recréer les postes perdus, surtout si elle s’alimente d’automatisation et d’arbitrages de localisation.

Dans un contexte d’instabilité économique et géopolitique, Numeum souligne lui-même la complexité d’anticiper précisément l’évolution du secteur.

The post Marché numérique français : reprise en trompe-l’œil ou vrai rebond ? appeared first on Silicon.fr.

  •  

OpenAI lance ChatGPT Health…mais pas dans l’UE

Avec le lancement de ChatGPT Health, OpenAI franchit une nouvelle étape dans son ambition de transformer son chatbot en super-outil personnel capable d’accompagner les utilisateurs dans les dimensions les plus sensibles de leur existence.

Le déploiement se fait progressivement, via une liste d’attente pour un groupe restreint d’utilisateurs, avant une ouverture élargie dans les semaines à venir.

ChatGPT Health se présente comme un espace dédié au sein de l’interface habituelle, conçu pour aider les utilisateurs à mieux comprendre leur santé et préparer leurs rendez-vous médicaux. L’ambition affichée n’est pas de concurrencer les médecins, mais de les compléter. OpenAI insiste : il ne s’agit ni de diagnostiquer ni de traiter, mais d’apporter des explications pédagogiques sur des résultats d’examens, des symptômes ou des options thérapeutiques.

La vraie innovation réside dans la possibilité de connecter directement ses données de santé réelles. Dossiers médicaux électroniques via la plateforme b.well, mais aussi applications grand public comme Apple Health, MyFitnessPal, WeightWatchers, AllTrails, Instacart ou Peloton peuvent désormais alimenter les réponses de l’IA. De quoi ancrer les conseils dans le profil réel de l’utilisateur plutôt que dans des généralités.

Un portail santé intégré à ChatGPT

Concrètement, ChatGPT Health peut expliquer des résultats d’analyses biologiques, mettre en évidence des tendances dans la glycémie ou le sommeil, aider à préparer une consultation avec une synthèse des symptômes et traitements en cours, ou encore proposer des plans d’activité physique alignés sur les objectifs personnels.

Face à la sensibilité des données médicales, OpenAI indique avoir déployé une architecture spécifique. ChatGPT Health fonctionne comme un silo isolé du reste de la plateforme, avec des couches supplémentaires de chiffrement et une promesse forte : les conversations au sein de cet espace ne servent pas à entraîner les modèles d’intelligence artificielle de l’entreprise.

Les utilisateurs conservent le contrôle sur leurs connexions et peuvent révoquer l’accès aux différentes sources à tout moment. L’authentification multi-facteurs est encouragée pour sécuriser davantage les comptes. Selon OpenAI, toutes les applications tierces disponibles ont dû passer des audits de sécurité stricts avant d’être intégrées.

Plus de 260 médecins mobilisés

Pour affiner son outil, OpenAI affirme avoir collaboré avec plus de 260 médecins issus d’une soixantaine de pays et de nombreuses spécialités. Ces praticiens ont fourni des retours sur les réponses du modèle des centaines de milliers de fois, permettant de cadrer l’assistant sur des usages considérés comme utiles et relativement sûrs : pédagogie, préparation de consultations, explication de trajectoires de soins ou décryptage des options d’assurance santé.

Les cas d’usage visés couvrent la compréhension de symptômes fréquents, l’analyse de tendances de bien-être à partir des données connectées, ou encore les compromis entre différentes options d’assurance en fonction des habitudes de soins observées.

Avec cette offensive, OpenAI se positionne frontalement sur un marché de la santé numérique déjà encombré, où se croisent géants de la tech, plateformes de télé-médecine et assureurs.

Le mur européen du RGPD

L’exclusion de l’Europe du lancement de ChatGPT Health révèle un gouffre réglementaire difficile à combler. Autrement dit, impossible en l’état de franchir le mur du Règlement général sur la protection des données (RGPD) qui classe les informations de santé parmi les données les plus sensibles et impose des obligations drastiques.

Le contexte n’arrange rien : ChatGPT (standard)  fait déjà l’objet de plaintes persistantes en Europe pour non-conformité au RGPD. Les CNIL française et italienne, ainsi que le Contrôleur européen de la protection des données, pointent l’absence de base légale claire pour le traitement des données, leur utilisation pour l’entraînement des modèles, et les difficultés à exercer les droits de rectification et d’oubli.

Même l’offre Enterprise, qui bénéficie d’un hébergement européen depuis 2025, n’échappe pas aux enquêtes sur les lacunes en matière de transparence et de minimisation des données.

Pour ChatGPT Health, les obstacles sont encore plus élevés. Les protections techniques mises en place par OpenAI – isolement des données, chiffrement renforcé, non-utilisation pour l’entraînement – sont certes louables, mais insuffisantes au regard du RGPD. L’entreprise devrait notamment fournir un consentement granulaire valide, signer des accords de sous-traitance (DPA) avec ses partenaires comme b.well, réaliser une évaluation d’impact sur la vie privée pour chaque type de données sensibles, et surtout héberger les informations sur le sol européen pour éviter les transferts extra-communautaires.

L’absence de Privacy Shield valide entre l’Union européenne et les États-Unis complique encore la donne. Sans certification RGPD explicite ni adaptation aux clauses contractuelles types ou au EU-US Data Privacy Framework, toute utilisation du service par des résidents européens exposerait OpenAI à des sanctions potentiellement lourdes.

Les alternatives européennes en embuscade

Cette impasse réglementaire ouvre un boulevard aux acteurs européens. Des solutions basées sur des modèles comme Mistral, hébergées dans l’UE et certifiées RGPD, existent déjà pour les professionnels de santé. Elles garantissent la souveraineté des données et évitent les transferts outre-Atlantique, arguments de poids pour les établissements de santé et les autorités sanitaires.

OpenAI pourrait théoriquement adapter ChatGPT Health pour l’Europe via un hébergement local et une architecture similaire à celle de son offre Enterprise, mais aucun calendrier d’adaptation pour les marchés européens n’est annoncé.

La conjonction du RGPD et du récent AI Act européen, qui impose des règles strictes sur les systèmes d’IA à haut risque dans le domaine de la santé, pourrait exiger une validation réglementaire longue et complexe avant tout déploiement.

Reste à savoir si OpenAI acceptera de jouer selon les règles européennes ou si l’entreprise préférera se concentrer sur des marchés moins contraignant. Pour les 450 millions d’Européens, l’attente pourrait durer.

Image : © DR

The post OpenAI lance ChatGPT Health…mais pas dans l’UE appeared first on Silicon.fr.

  •  

Les dépendances numériques de l’UE chiffrées, GenAI comprise

Environ 83 % des dépenses des grandes entreprises européennes en services cloud et logiciels vont à des acteurs américains.

Une étude publiée en avril 2025 avait produit cette estimation. Commandée par le Cigref, elle quantifiait à un peu plus de 260 Md€ la valeur ainsi créée chaque année aux États-Unis – soit 1,5 % du PIB de l’UE et 1,5 fois son budget.

Cette dernière donnée est reprise dans une autre étude, parue en décembre*. Elle a été réalisée par un cabinet de recherche et de conseil lituanien, à la demande de la commission de l’industrie, de la recherche et de l’énergie du Parlement européen. Y sont cartographiées les dépendances numériques auxquelles l’Europe est sujette (avec un focus sur le logiciel et la cyber) et les risques économiques et géopolitiques qu’elles soulèvent. Nous en présentons ici quelques éléments chiffrés.

À 10 ans d’intervalle, les GAFAM ont maintenu voire renforcé leur position

L’étude compile des données de StatCounter pour rendre compte de l’évolution de la concurrence sur divers segments du marché entre 2015 et 2025.

OS de bureau : 90 % du marché pour Apple et Microsoft

Windows macOS Linux ChromeOS Autres/inconnus
2015 86,26 % 10,12 % 2,18 % 0,21 % 1,22 %
2025 (juillet) 73,45 % 16,34 % 3,82 % 1,57 % 4,82 %

En 10 ans, Windows a perdu environ 13 % de part de marché, tandis que macOS en a gagné 6 %. Leur part cumulée avoisine 90 %.

OS mobiles : 99,5 % du marché pour Apple et Google

Android iOS Windows Autres
2015 63,3 % 28,79 % 4,03 % 3,66 %
2025 (juillet) 65,3 % 34,21 % 0,01 % 0,48 %

La plus grande progression est pour iOS (+ 5,42 %).
L’usage des forks d’Android made in Europe est quasiment nul.

Moteurs de recherche : Google à 90 %

Google Bing Yandex Yahoo! Autres
2015 92,55 % 2,73 % 1,31 % 2,06 % 1,34 %
2025 (juillet) 89,9 % 4,13 % 3,32 % 1,05 % 1,6 %

Malgré les sanctions à répétition censées rééquilibrer la concurrence, Google capte encore 9 recherches sur 10. Le moteur allemand Ecosia a environ 0,3 % du marché ; Qwant, moins de 0,1 %.

Réseaux sociaux : Facebook reste au-dessus des 80 %

Facebook Instagram YouTube Twitter/X Pinterest Tumblr Reddit Autres
2015 84,82 % N/A N/A 5,79 % 3,18 % 2,87 % 1,53 % 1,81 %
2025 (juillet) 80,79 % 7,07 % 1,82 % 4,33 % 4,07 % N/A 0,93 % 0,99 %

Selon l’analyse que fait StatCounter, Facebook concentre encore plus de 80 % des pages vues.
L’usage des plates-formes décentralisées comme Mastodon et Diaspora reste « négligeable », pour reprendre les mots de l’étude.

Navigateurs : les GAFAM cumulent près de 90 % du marché

Chrome Safari Edge/IE Firefox Samsung Internet Opera Yandex Android Autres
2015 44,64 % 14,7 % 12,69 % 17,41 % N/A 2,93 % 0,36 % 5,22 % 2,06 %
2025 (juillet) 60,73 % 19,68 % 6,4 % 4,39 % 3,28 % 2,7 % 1,25 % 0,36 % 1,1 %

Chrome a gagné environ 16 % de part de marché, tandis que Firefox en a perdu 13 %.
Même en ajoutant Vivaldi, les navigateurs d’origine européenne ne captent pas plus de 3 % du marché.

Des dépendances fortes sur la chaîne de valeur de la GenAI

L’étude se réfère aussi à des productions du cabinet McKinsey. En particulier, une estimation de la part de marché de l’Europe sur chacun des 8 segments d’une chaîne de valeur GenAI « simplifiée ».

Segment Part de marché Trajectoire historique
Matières premières < 5 % Stable
Équipements de fabrication de semi-conducteurs > 15 % En hausse
Conception de semi-conducteurs < 5 % En baisse
Fabrication de semi-conducteurs < 5 % Stable
Infrastructure cloud et supercalculateurs < 5 % Stable
Modèles de fondation 5-15 % En hausse
Applications IA 5-15 % En hausse
Services de conception et déploiement de cas d’usage > 15 % En hausse

L’Europe fournit environ 5 % des matières premières stratégiques pour la fabrication de semi-conducteurs. Elle représente moins de 1 % de la capacité de production mondiale de semi-conducteurs à moins de 7 nm pour l’IA. Elle a en revanche, avec ASML, 80 à 90 % de part de marché sur la lithographie EUV.

En croisant parts de marché mondiales et indicateurs d’adoption régionale, l’étude tente de donner une photographe du marché européen de la GenAI. Les dépenses en la matière étant souvent comptées sur les budgets cloud, le résultat reflète davantage le business des plates-formes (Azure OpenAI, Bedrock/Sagemaker, Vertex AI…) que des outils destinés à l’utilisateur final.

parts de marché GenAI en Europe

SAP garde une nette longueur d’avance sur l’ERP…

Le marché de la GenAI est estimé à 3,1 Md$ en 2024. Celui de l’IA d’entreprise, à 4,8 Md$. SAP y occupe probablement une position plus favorable, vu le niveau d’adoption de son ERP.

Sur ce segment à 19 Md$ en 2023, l’éditeur allemand capte 55 % de la valeur. Oracle parvient toutefois à combler l’écart avec la transition cloud, tout en générant davantage de revenu par client. Les estimations sont moins certaines pour les plus petits fournisseurs, faute de communication financière.

parts de marché ERP Europe

… et de retard sur le CRM

Le marché du CRM est d’une valeur comparable (18 Md$ en 2024). SAP n’y a cependant pas le même poids.

parts de marché CRM Europe

Dans la bureautique et la collaboration (18 Md$ en 2025), Microsoft se taille la part du lion, sur la foi de données du cabinet Compass Lexecon pour 2023.

parts de marché collaboration bureautique

En élargissant à l’ensemble des logiciels d’entreprise (70 Md$ en 2025), SAP devance Oracle et Salesforce. L’UE a des leaders sur quelques niches. Notamment le PLM, avec Dassault Systèmes (17 % du marché, Siemens étant dans le top 3), lequel se distingue aussi sur la CAD.

parts de marché logiciels d'entreprise Europe

Le marché des services informatiques serait 4 à 5 fois plus grand que celui des logiciels d’entreprise (300-350 Md$ en 2023, hors services liés au cloud d’infrastructure).

parts de marché services conseil Europe

Le marché de la cybersécurité est estimé à 63 Md$ en 2025. Les produits (logiciel + matériel) en représentent 42 à 68 % ; le services, 32 à 58 %.
L’Europe est bien représentée sur les services, avec la France en première ligne (Atos, Capgemini, Orange Cyberdefense, Thales). Pas dans les solutions elles-mêmes, où Palo Alto Networks a tendance à monter en puissance, tandis que Check Point et Cisco bénéficient d’un ancrage historique fort.

Marchés publics : 12 % de la valeur pour les consortiums 100 % européens

Si on se focalise la commande publique au sein de l’UE, 88 % de la valeur totale des contrats IT va à des consortiums qui incluent au moins une entreprise non européenne.

Cette information résulte de l’analyse de 315 appels d’offres organisés entre 2020 et 2025.
Sur ce même échantillon, 18 % des marchés attribués ont eu au moins un lauréat américain ; 8 %, au moins un lauréat japonais. Accenture et Deloitte ont été les sociétés les plus fréquemment sélectionnées.

taux de sélection dans les appels d'offres

sociétés gagnantes des appels d'offres

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration principale © Molodec – Shutterstock.com

The post Les dépendances numériques de l’UE chiffrées, GenAI comprise appeared first on Silicon.fr.

  •  

Course à l’IA : la bulle controversée, la pénurie avérée

La croissance du parc mondial de datacenters hyperscale ne montre pas de signes de ralentissement. Les dépenses d’infrastructure associées, non plus.

Depuis deux ans, les pointages trimestriels de Synergy Research Group en ont témoigné quasi systématiquement. Le dernier en date n’y déroge pas.

Ruée sur les GPU… et sur la RAM

Le parc en question avoisine désormais les 1300 datacenters, pour une puissance informatique plus que quadruplée en 7 ans. Au T3 2025, les dépenses d’exploitation des hyperscalers – Synergy en recense une vingtaine, acteurs du IaaS, du PaaS, du SaaS, de la recherche, des réseaux sociaux, du e-commerce et du gaming – ont atteint 142 Md$. Elles étaient d’environ 80 Md$ un an plus tôt (et 50 Md$ au T3 2023).

capex capacité hyperscalers

Ces investissements vont pour l’essentiel dans les serveurs. La plupart d’entre eux (91 %) sont maintenant équipés d’accélérateurs. À commencer par des GPU… qui ont besoin d’autant plus de RAM qu’on y fait tourner des modèles d’IA.

La course engagée par les hyperscalers a contribué à engendrer une pénurie de mémoire. Et par là même une augmentation remarquable des prix. On en est par exemple arrivé, il y a quelques semaines, à ce qu’un kit de 64 Go de DDR5 coûte plus cher qu’une PlayStation.

Le phénomène est amplifié par une réorientation de la fabrication vers des types de mémoires adaptés aux accélérateurs IA. En tête de liste, la HBM (DRAM à large bande passante). Les modules mémoire génériques se raréfient d’autant plus.

Des conséquences en 2026 sur PC et smartphones

Il se dit que la situation pourrait persister au moins jusqu’en 2027. Elle a en tout cas commencé à se répercuter en bout de chaîne, sur le prix des équipements informatiques. Chez Dell, il semble falloir se préparer à des augmentations de 10 à 30 % dans les gammes de PC B2B. Chez ASUS, il est question de 15 à 20 % de hausse sur des notebooks. Les prévisions sont similaires chez Acer, qui songerait aussi à livrer des modèles avec moins de RAM… potentiellement à rebours de la promesse des « PC IA ».

On surveillera particulièrement les plus petits fournisseurs, qui ont globalement moins d’inventaire, de trésorerie et de marge de négociation. Même chose avec les smartphones. Sur ce segment, la mémoire peut traditionnellement représenter jusqu’à 20 % du coût de revient matériel. Il est probable que, si hausses de prix il y a, elle seront plus nettes sur l’entrée et le milieu de gamme, où les marges sont faibles. À l’autre bout du spectre, on pourrait voir les flagships plafonner à 12 Go de RAM en 2026.

IDC estime que cette année, le marché des smartphones pourrait se contracter d’environ 5 % en volume, tandis que le prix de vente moyen augmenterait de quelque 8 %. Ses prévisions sont comparables pour les PC, dont les fabricants ne se verront sans doute pas livrer toute la capacité de mémoire commandée (potentiellement, autour de 70 % pour les principaux OEM et de 40 % pour les plus petits). D’autant plus que les hyperscalers se battent, de plus en plus agressivement, pour les stocks restants. Une tendance accentuée par le marché chinois, où les USA ont finalement autorisé la vente des GPU H200. Sur place, plus de 2 millions d’unités auraient été commandées à NVIDIA, qui en aurait à peine la moitié en réserve. AMD est aussi concerné, dans une moindre mesure, avec ses accélérateurs Instinct. Alibaba, entre autres, lui en aurait acheté jusqu’à 50 000.

Les hyperscalers en éléments perturbateurs

En parallèle à leurs ventes sur le marché du datacenter, AMD et NVIDIA prépareraient tous deux des hausses de prix sur leurs cartes graphiques « grand public ». Ce mois-ci pour le premier ; en février pour le second. Avec la pénurie, la GDDR en est venue à constituer plus de 80 % de leur coût de revient.

AMD envisagerait par ailleurs de réintroduire des puces sur socket AM4 (potentiellement des CPU Ryzen 5000 et des APU Zen 3), ce qui éviterait d’avoir à racheter des cartes mères… et de la DDR5.

Du côté des fabricants de semi-conducteurs, on s’en tient dorénavant à des contrats au trimestre. Et on donne, comme sus-évoqué, la priorité à la mémoire HBM. Actuellement en mesure de produire 160 000 à 170 000 wafers par mois, Samsung Electronics prévoirait d’augmenter cette capacité de 50 %. Micron a quant à lui annoncé que son carnet de commandes HBM était rempli pour l’année 2026.

Dans ce contexte, le marché IT dans son ensemble a potentiellement connu, en 2025, une croissance sans égale depuis 30 ans. Tout du moins à en croire IDC, qui communiquait, début décembre, une estimation à + 14 % (4250 Md$), hors dépenses télécoms. En première ligne, les dépenses des fournisseurs de services d’infrastructure, pas majoritaires (environ 500 Md$), mais en nette croissance (+ 86 %, contre environ + 10 % pour les dépenses des entreprises).

IDC prévisions dépenses IT mondiales

IDC croissance des dépenses IT mondiales par client

Le capex d’Amazon, Google et Microsoft atteint celui des telcos

Si on s’en tient à ce qu’IDC qualifie d’infrastructures IA (dans les grandes lignes, tout ce qui porte des applications au minimum « augmentées » par de l’IA), les Ètats-Unis concentrent les trois quarts des dépenses, contre environ 5 % pour l’EMEA.
Sur place se trouve environ 55 % de la capacité hyperscale mondiale, selon Synergy Research Group. La Virginie en concentre à elle seule 14 %. Mais la demande croissante en énergie favorise les implantations dans des Ètats moins densément peuplés comme l’Oregon (22 habitants au km² ; actuellement 5 % de la capacité mondiale), l’Iowa (17 hab/km² ; 4 %) et le Nebraska (10 hab/km²). On ne peut pas en dire autant d’emplacements tels que Londres et Francfort. Ce dernier est d’ailleurs sorti du top 20 des hubs mondiaux, comme Amsterdam. Ne reste, côté européen, que Dublin, qui accueille environ 4 % de la capacité hyperscale.

capacité par région géographique

De cette capacité, le trio Amazon-Microsoft-Google détient une part (58 %) du même ordre que son poids sur le marché mondial du cloud d’infrastructure (63 %). Leur ratio capex est aujourd’hui au niveau de celui des telcos, approchant de 20 % du chiffre d’affaires – la majorité allant dans les datacenters.

Sur un marché du cloud d’infrastructure estimé à 107 Md$ au T3 2025, les néo-clouds (plates-formes spécialisées, le plus souvent sur les workloads IA à base de GPU) montent doucement en puissance. Ils ont passé les 5 Md$ de revenus trimestriels. Les principaux acteurs se nomment CoreWeave, Crusoe, Lambda, Nebius… et OpenAI (que Synergy inclut au titre de ses abonnements à ChatGPT).

En parallèle, les fusions-acquisitions(-investissements) « orienté(e)s datacenter » ont atteint en 2024 une valeur globale sans précédent : 73 Md$. Principal contributeur : l’acquisition d’AirTrunk, emmenée par le fonds Blackstone et bouclée en décembre pour 16 Md$. Suivent deux investissements dans Vantage Data Centers totalisant 9,2 Md$.

Illustration principale générée par IA

The post Course à l’IA : la bulle controversée, la pénurie avérée appeared first on Silicon.fr.

  •  

Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable »

Dans les couloirs de l’industrie musicale, l’annonce fait du bruit. Universal Music Group (UMG), premier major mondial de la musique, et Nvidia, poids lourd des semi-conducteurs et de l’IA, ont noué une alliance de long terme pour développer des modèles d’intelligence artificielle appliqués au catalogue du label.

L’objectif affiché : transformer en profondeur la découverte musicale, l’engagement des fans et les processus de création, tout en garantissant la protection des droits d’auteur.

Un modèle qui « pense » comme un mélomane

Au cœur du dispositif, on trouve Music Flamingo, le modèle audio-langage développé par Nvidia fin 2025. Cette technologie se distingue par sa capacité à analyser des morceaux de près de 15 minutes dans leur intégralité.

Contrairement aux systèmes traditionnels qui se contentent d’étiqueter par genre ou style, Music Flamingo décortique structure harmonique, instrumentation, paroles et trajectoires émotionnelles. Le tout pour reproduire, selon ses concepteurs, la façon dont un auditeur humain appréhende une œuvre.

Cette approche ouvre des perspectives inédites : fini les recherches par simple mot-clé, place aux requêtes par ambiance, contexte narratif ou résonance culturelle. Les plateformes de streaming adossées au catalogue d’UMG pourraient ainsi proposer des recommandations fondées sur des similarités musicales profondes plutôt que sur des playlists thématiques conventionnelles.

Trois axes de développement

Le partenariat s’articule autour de trois piliers. D’abord, la découverte musicale : les algorithmes permettront d’explorer le catalogue selon des critères émotionnels et structurels sophistiqués. Ensuite, l’engagement des fans : artistes et auditeurs pourront interagir avec la musique dans un environnement « conversationnel et contextuel », loin du simple listing de titres.

Troisième volet, et non des moindres : la création. Un incubateur réunissant auteurs, compositeurs et producteurs verra le jour dans des studios prestigieux comme Abbey Road à Londres ou Capitol Studios à Los Angeles. Mission : co-concevoir de nouveaux outils alimentés par l’IA. UMG martèle toutefois que ces technologies resteront des aides à la création humaine, et non des machines à générer automatiquement de la musique.

La question brûlante des droits d’auteur

Derrière les promesses technologiques se cache un enjeu majeur : celui de la propriété intellectuelle. UMG et Nvidia promettent une IA « responsable », intégrant dès la conception la protection des œuvres, l’attribution et la rémunération des créateurs. Une posture qui tranche avec les pratiques de certaines start-up, accusées d’avoir entraîné leurs modèles sur des catalogues commerciaux sans autorisation.

Pour UMG, ce partenariat avec un mastodonte comme Nvidia représente une opportunité de dicter les standards du marché, en conciliant innovation technologique et respect du cadre légal. Le groupe entend proposer un « antidote » à la prolifération de contenus générés par des IA génériques, en misant sur un acteur capable d’intégrer nativement les contraintes de copyright dans ses outils.

Un coup stratégique pour les deux camps

Pour l’industrie musicale, l’accord peut faire jurisprudence et ouvrir la voie à d’autres alliances entre majors, plateformes et fournisseurs d’IA. Il valorise les catalogues musicaux comme ressources stratégiques pour entraîner des modèles spécialisés et pourrait creuser l’écart entre services premium dotés d’une découverte « intelligente » et offres standard aux algorithmes classiques.

Côté Nvidia, le deal marque une nouvelle étape dans la conquête des industries culturelles. Après le jeu vidéo et la vidéo, le groupe démontre que ses GPUs, ses plateformes de modélisation et ses modèles pré-entraînés comme Music Flamingo peuvent s’adapter aux exigences spécifiques de la musique. Un positionnement stratégique au moment où la régulation de l’IA se durcit dans de nombreux pays.

Illustration : image générée par l’IA

The post Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable » appeared first on Silicon.fr.

  •  

Comment ManoMano a modernisé son système d’envoi d’e-mails

Plutôt que des tables imbriquées et du CSS inline, utilisons MJML*.

ManoMano a fait ce choix pour générer des e-mails responsive. Le contexte : un projet de modernisation du système assurant l’envoi de ces messages.

Auparavant, il y avait un monolithe en PHP. Désormais, il y a une plate-forme Node.js/Kotlin.

L’ancien service était basé sur des bibliothèques obsolètes, d’autant plus difficiles à mettre à jour que l’expertise PHP s’était progressivement perdue en interne. Il était par ailleurs étroitement lié à des services tels que RabbitMQ, donc impossible à maintenir de manière indépendante. Des années de correctifs avaient plus globalement alourdi la codebase, compliquant les changements et les rendant plus risqués. L’écriture des templates en Twig et en HTML brut posait de plus des problèmes de compatibilité en fonction des clients de messagerie.

Une approche configuration over code

Le service d’origine était déclenché par des appels API ou par des événements RabbitMQ. Avant d’envoyer un e-mail, il fallait l’enrichir en récupérant des éléments sur plusieurs services externes. Des dépendances qui tendaient à fragiliser l’ensemble.

Pour favoriser le décommisionnement, ManoMano a isolé cette logique en un composant email-merger. Ses requêtes sont centralisées sur la nouvelle plate-forme au côté des requêtes « modernes » – qui ne passent plus par le monolithe – par un service Kotlin (email-sender). Celui-ci suit une approche configuration over code : toute la configuration est gérée via le back-end central, sans avoir à écrire de code.

La passerelle réceptionnant les requêtes s’appuie sur PostgreSQL pour le stockage d’état et de configuration. Elle transmet les événements à un nœud de travail qui récupère un template et fait la liaison avec le service SMTP. Le bus de messagerie RabbitMQ a été remplacé par du Kafka, pour l’élasticité, la résilience et le retry intégré.

Une séparation plus claire des responsabilités

Le fournisseur de templates (email-templates) est écrit en Node.js. Il évite aux développeurs front-end d’avoir à évoluer dans un environnement PHP. La bibliothèque react-mjml leur permet de créer des templates comme ils créent des composants React.

Épargner aux développeurs React le travail en environnement PHP a déchargé l’équipe back-end de nombre de requêtes. Dans le même temps, la centralisation des templates assure une plus grande cohérence des e-mails. Et les responsabilités sont plus claires : le back n’est plus impliqué dans les changements visuels, le front ne l’est plus dans la logique de delivery.

Mi-novembre 2025, ManoMano avait migré environ 80 % de son trafic mail sur la nouvele plate-forme. Dont ses communications les plus critiques (confirmations de commandes, notifications d’envois, réinitialisations de mots de passe).

* Mailjet Markup Language, publié en source ouverte (licence MIT) en 2016 par Mailjet. Ce langage déclaratif est transpilé en HTML responsive.

Illustration générée par IA

The post Comment ManoMano a modernisé son système d’envoi d’e-mails appeared first on Silicon.fr.

  •  

Dell relance sa gamme XPS et admet s’être « égaré » dans le marché du PC

Un an après l’avoir supprimé, Dell revient sur sa décision et relance XPS, le segment haut de gamme de ses ordinateurs portables et un pilier historique de sa stratégie produits.

L’annonce, faite au CES 2026 de Las Vegas, marque un revirement assumé de la part de Jeff Clarke, directeur des opérations du groupe texan, qui reconnaît que l’entreprise s’était « un peu égarée » dans le pilotage de son activité PC.

Un aveu d’erreur et un retour aux fondamentaux

« Nous n’avons pas écouté nos clients. Vous aviez raison sur le branding », a déclaré Jeff Clarke lors d’un point presse à Las Vegas. Celui qui a repris l’an dernier la supervision directe de la division PC, a évoqué une année difficile marquée par « des tarifs douaniers, la promesse non tenue de l’IA » et « l’une des transitions de processeurs les plus lentes de [sa] carrière ».

Cette autocritique s’ajoute aux retours négatifs du marché, lorsque le constructeurs avait remplacé la marque XPS par les appellations Dell Pro et Dell Pro Max, une nomenclature jugée trop proche de celle d’Apple et mal accueillie par le public comme par les partenaires.

Le groupe justifie aujourd’hui ce revirement par la nécessité de clarifier son offre : les modèles Dell visent désormais le segment grand public et professionnel intermédiaire, XPS reprend son positionnement premium, et Alienware demeure consacré au gaming.

Des machines plus fines et mieux optimisées

Les deux premiers modèles relancés, les XPS 14 et XPS 16, figurent parmi les ordinateurs les plus fins jamais produits par Dell, avec une épaisseur de 14,6 mm et un poids respectif de 1,36 kg et 1,63 kg. Leurs châssis en aluminium, leurs bordures d’écran réduites et leur design minimaliste les placent en concurrence directe avec les MacBook Air 13 et 15 pouces d’Apple.

Les deux machines embarquent les nouveaux processeurs Intel Core Ultra Series 3, dotés de graphiques Intel Arc, censés offrir jusqu’à 78 % de performances IA supérieures et une autonomie pouvant atteindre 27 heures dans certaines configurations. Dell affirme également avoir repensé son système de refroidissement pour le rendre plus silencieux, plus fin et plus économe en énergie.

Les XPS 14 et 16 sont disponibles dès cette semaine aux États-Unis et au Canada, à partir de 2000 $. Un XPS 13 de moins de 13 mm d’épaisseur sera présenté plus tard dans l’année.

Un marché du PC sous tension

Le choix de relancer XPS s’inscrit dans un contexte de reprise incertaine du marché mondial du PC. Selon les estimations d’IDC, les ventes devraient progresser de 3 à 5 % cette année, après deux années de contraction.

Mais Dell, comme ses concurrents HP  et Lenovo, reste confronté à des coûts de production accrus – notamment à cause de la hausse du prix des mémoires – et à une demande encore freinée par l’attentisme des entreprises.

Jeff Clarke a reconnu que l’intelligence artificielle n’a pas encore généré le cycle de renouvellement espéré, malgré la mise en avant des fonctions d’assistance et de traitement local intégrées aux nouveaux processeurs.

Avec le retour de la gamme XPS, née dans les années 1990, Dell espère ainsi regagner des parts de marché dans le segment premium.

The post Dell relance sa gamme XPS et admet s’être « égaré » dans le marché du PC appeared first on Silicon.fr.

  •  

Fusions & acquisitions : De la Due Diligence à l’intégration IT

L’IT est aujourd’hui un actif clé d’une entreprise et une démarche de Due Diligence en vue d’une fusion/acquisition implique d’expertiser ses comptes, son organisation, ses équipes, mais aussi d’évaluer la qualité de ses infrastructures informatiques logicielles et matérielles. C’est ce que l’on appelle l’IT Due Diligence.

Cette évaluation doit commencer par une cartographie du système d’information de l’entreprise cible. Il faut référencer et documenter l’ensemble de son patrimoine informatique, depuis l’infrastructure avec les matériels et équipements en production, ses réseaux, ses systèmes de cybersécurité, ainsi que l’ensemble des applications (maisons, SaaS) utilisées par l’entreprise. Pour mener à bien cette tâche fastidieuse, une Data Room doit être mise en place et la DSI de l’entreprise cible doit être capable de fournir toute la documentation nécessaire sur ces process et politiques de sécurité en vigueur. Toutes les ressources déployées en interne doivent être dument cataloguées, de même que les ressources Cloud. L’objectif est bien évidemment d’évaluer la dette technique de l’entreprise cible, identifier ses équipements et logiciels obsolètes qui vont s’avérer extrêmement coûteux à migrer ou simplement à faire cohabiter avec le SI de l’acquéreur.

Une analyse détaillée du SI de l’entreprise cible est indispensable

Cette phase peut être extrêmement complexe et chronophage lorsque la cible est un grand groupe qui a lui-même connu plusieurs fusions et acquisitions. A chaque opération de ce type, le SI devient plus complexe, avec de nouvelles applications, d’autres opérateurs de communications, d’autres fournisseurs Cloud. Chacune d’elles vient ajouter un peu plus de complexité et va, in fine, ajouter des délais et des coûts d’intégration supplémentaires pour l’acquéreur. De cet état des lieux doit émerger un plan d’action détaillé que les équipes d’intégration vont pouvoir mener dès la signature.

Une attention toute particulière doit être portée aux aspects réseau et sécurité comme l’explique Hakim Belhouchi, Solution Specialist SASE chez Tata Communications : « L’intégration de systèmes hétérogènes n’est jamais facile, mais les technologies modernes nous permettent de les réaliser de manière beaucoup plus simple que par le passé. Du point de vue réseau, il était auparavant excessivement complexe de connecter deux réseaux MPLS ensemble. Cela avait de lourds impacts sur les plans d’adressage, énormément de recouvrements à traiter. »

Faire appel à des consultants aguerris à ce type de projets

Le volet cybersécurité reste un sujet de premier plan. Les attaquants privilégient de plus en plus les attaques sur la supply chain informatique. Une attaque sur une nouvelle filiale potentiellement moins sécurisée peut leur donner un accès à l’informatique de la cible réelle. Comme l’explique Hakim Belhouchi, les solutions modernes viennent grandement faciliter le travail des ingénieurs qui vont mener l’intégration du nouveau SI. « Avec les réseaux SD-WAN, il est beaucoup plus simple de connecter 2 réseaux entre eux, même si ceux-ci appartiennent à des opérateurs différents. De même, les architectures de sécurité SASE (Secure Access Service Edge) et en particulier la mise en œuvre d’une solution de ZTNA (Zero Trust Network Access) permet aujourd’hui d’accorder un accès facile et rapide aux ressources en toute sécurité. »

Faire appel à des équipes de consultants et d’ingénieurs aguerris sur ce type de projet peut faire gagner énormément de temps en phase de fusion des SI.


Les 5 grandes phases d’une IT Due Diligence

  1. Cadrage et préparation
    • Définition des objectifs,
    • Mise en place de la gouvernance.
  2. Mise en place d’une Data Room
    • Cartographie du SI,
    • Travail collaboratif avec la DSI de l’entreprise cible.
  3. Analyse détaillée du SI
    • Inventaire des assets, estimation précise de la dette technique,
    • Evaluation des risques liés à la sécurité, à la continuité d’activité, à la dépendance à des tiers.
  4. Rédaction des scénarios d’intégration et chiffrage
    • Statuer pour chaque ressource sur sa substitution avec une application existante, une migration ou un arrêt.
  5. Restitution et recommandations
    • Livraison du rapport en amont de la négociation.

 

The post Fusions & acquisitions : De la Due Diligence à l’intégration IT appeared first on Silicon.fr.

  •  

10 articles à lire pour préparer 2026

Cloud

> VMware exclut l’UE de la marche forcée vers VCF
VMware franchit un nouveau cap dans le resserrement de son offre autour de VCF, mais fait – jusqu’à nouvel ordre – une exception pour l’UE.

A lire ici 

> Panne Cloudflare : ce qui s’est passé dans le système anti-bots
La panne chez Cloudflare a été déclenchée par une erreur de configuration dans une base de données alimentant le système de gestion des bots.
A lire ici 

Data & IA

> L’Agentic AI Foundation veut imposer les standards de l’IA autonome
OpenAI, Anthropic et Block s’allient au sein de l’Agentic AI Foundation (AAIF), pour éviter la fragmentation d’un marché stratégique. Plusieurs poids lourds de l’IT participent à l’initiative.
A lire ici

> Stratégie IA : la France en tête du peloton européen…mais loin du compte
Le rapport de la Cour des comptes révèle les failles d’une stratégie nationale sur IA, ambitieuse mais sous-financée.
A lire ici

> AI Safety Index 2025 : un bilan inquiétant de la sécurité de l’IA
Le Future of Life Institute tire la sonnette d’alarme : aucune des huit grandes entreprises d’IA évaluées n’obtient une note satisfaisante en matière de sécurité.
A lire ici

 Cybersécurité

> Comment le Shadow AI fait exploser le risque de fuite de données
Si les grandes entreprises ont cadré les usages de l’IA générative, le risque de voir leurs collaborateurs développer des pratiques de Shadow AI en utilisant des modèles américains ou chinois est bien réel.
A lire ici

> Quand un rapport de l’ANSSI révélait les défaillances cyber du Louvre
Les défaillances du dispositif de cybersécurité du Louvre, pourtant signalées depuis près de dix ans, n’ont jamais été pleinement corrigées.
A lire ici

Business

> Pourquoi OpenAI décrète l’« alerte rouge » face à Google
Bousculée par les dernières avancées de Google et d’Anthropic, OpenAI suspend ses projets annexes pour sauver le soldat ChatGPT.
A lire ici

> Les pétrodollars à l’assaut de l’IA
Les géants pétroliers et les fonds souverains du Golfe accélèrent leurs investissements dans l’intelligence artificielle pour peser sur l’ordre technologique mondial.
A lire ici

> Ce que le nouveau statut d’OpenAI change dans sa relation avec Microsoft
Avec sa transformation en « public benefit corporation », OpenAI rebat les cartes de son partenariat stratégique avec Microsoft.
A lire ici

The post 10 articles à lire pour préparer 2026 appeared first on Silicon.fr.

  •  

Google mise 4,75 milliards $ sur l’énergie verte pour doper ses data centers IA

Alphabet, maison mère de Google, vient d’annoncer l’acquisition d’Intersect pour 4,75 milliards $ en cash, auxquels s’ajoute la reprise de la dette existante. Cette opération représente l’une de ses transactions les plus importantes et marque un tournant dans sa stratégie de développement de centres de données dédiés à l’IA.

L’enjeu est de taille : permettre à Google d’accéder à davantage d’électricité pour ses infrastructures, alors que le réseau électrique américain, vieillissant, peine à absorber une demande énergétique qui explose pour la première fois depuis des décennies. L’IA  constitue le principal moteur de cette croissance fulgurante.

« Intersect nous aidera à accroître nos capacités, à opérer avec plus d’agilité dans la construction de nouvelles centrales électriques en phase avec la nouvelle charge des centres de données, et à repenser les solutions énergétiques pour stimuler l’innovation et le leadership des États-Unis » déclare Sundar Pichai, directeur général de Google et d’Alphabet.

Un portefeuille énergétique impressionnant

Aux termes de cet accord, Alphabet achète les projets énergétiques et de centres de données d’Intersect, qu’ils soient en développement ou en construction. L’entreprise possède 15 milliards $ d’actifs en exploitation ou en construction.

Elle exploite actuellement environ 7,5 gigawatts de capacité solaire et de stockage, et prévoit de développer 8 gigawatts supplémentaires. Pour référence, un gigawatt équivaut approximativement à la production d’un réacteur nucléaire et peut alimenter environ 750 000 foyers. L’essentiel de cette capacité est concentré au Texas.

Son PDG, Sheldon Kimber, avait d’ailleurs surnommé le Texas le « Disneyland de l’énergie » en raison de ses abondantes ressources éoliennes et solaires. Parmi ses projets phares dans cet État figure « Quantum », un système de stockage d’énergie propre construit directement à côté d’un campus de centres de données pour Google.

L’opération s’inscrit dans une stratégie plus large d’Alphabet dans le secteur énergétique. Google, en partenariat avec TPG Rise Climate, avait déjà soutenu Intersect lors d’une levée de fonds de plus de 800 millions $ en décembre 2024.

Une structure d’acquisition sur mesure

Dans le cadre de cet accord, Alphabet acquiert la plateforme de développement et les effectifs d’Intersect, y compris les actifs en développement déjà sous contrat avec Google. Intersect conservera sa propre marque et restera dirigée par Sheldon Kimber.

Les actifs opérationnels existants de la société au Texas, ainsi que ses actifs opérationnels et en développement en Californie, ne seront pas inclus dans l’acquisition et continueront de fonctionner comme une entreprise indépendante, soutenue par ses investisseurs actuels. TPG Rise Climate conservera une participation dans ces actifs.

Intersect explorera également un éventail de technologies émergentes pour accroître et diversifier l’approvisionnement énergétique, tout en soutenant les investissements de Google dans ses centres de données américains.

« En acquérant un développeur et pas seulement un contrat d’achat d’électricité, Google s’offre la flexibilité nécessaire pour construire où et quand il le souhaite » estime Ben Hertz-Shargel, analyste du cabinet Wood Mackenzie cité par Bloomberg.

The post Google mise 4,75 milliards $ sur l’énergie verte pour doper ses data centers IA appeared first on Silicon.fr.

  •  

Régulation du numérique en 2025 : quand l’UE lâche du lest

Au nom de la compétitivité, une « révolution en matière de simplification » se prépare.

Les institutions de l’UE l’avaient promis en novembre 2024, à l’issue du Sommet de la communauté politique européenne. Elles s’étaient engagées à « réduire drastiquement les charges administratives, réglementaires et de déclaration, en particulier pour les PME ».

La Commission européenne a repris ces éléments dans son programme de travail pour 2025. Annoncé le 11 février, il comporte des objectifs chiffrés : d’ici à la fin du mandat en 2029, réduire le « fardeau administratif » de 25 % (et de 35 % pour les PME).

Deux semaines plus tard étaient présentés deux trains de mesures, dits omnibus. L’un assouplit les exigences de reporting extra-financier, notamment en réduisant le champ d’application de la directive CSRD (informations en matière de durabilité) et en reportant l’entrée en application de certaines de ses dispositions. L’autre applique la même logique aux règlements InvestEU et EFSI, dans le but de stimuler les investissements stratégiques.

Depuis, 8 autres omnibus ont été proposés. Dont un sur le numérique, en novembre. Il doit encore être approuvé par les 27 et le Parlement.

Décalage d’une échéance importante de l’AI Act

L’omnibus numérique apporte des changements à l’AI Act. Il prévoit notamment de décaler l’entrée en application des règles relatives au système d’intelligence artificielle classés à haut risque. L’échéance, initialement fixée à août 2026, pourra être repoussée de 16 mois maximum, le temps de mettre des outils de soutien à disposition des entreprises.

L’AI Act serait aussi modifier pour étendre aux small caps certaines simplifications accordées aux PME qui développent ou utilisent des systèmes d’IA. Notamment en matière de documentation technique. Par small cap, il faut entendre les organisations comptant moins de 750 salariés et ne dépassant pas 150 M€ de CA annuel ou 129 M€ de total de bilan. Une catégorie créée à l’échelle de l’UE par un autre paquet omnibus.

Toujours au chapitre AI Act, l’accès aux bacs à sable réglementaires (environnements de tests contrôlés) est élargi. Davantage de tests en conditions réelles seront par ailleurs effectués, dans des secteurs comme l’automobile.

Allégements autour d’un « nouveau Data Act »

L’omnibus numérique abroge plusieurs textes dont il fusionne certaines dispositions au sein du Data Act :

  • Data Governance Act (règlement 2022/868)
  • Directive Open Data (2019/1024)
  • Règlement sur la libre circulation des données à caractère non personnel au sein de l’UE (2018/1807, dit FFDR)

Le « nouveau Data Act » apporte, entre autres, des facilités pour les PME qui fournissent des services de traitement de données. Plus précisément, un régime plus « léger » pour les services « personnalisés » (non commercialisés sur étagère et qui ne fonctionneraient pas sans une adaptation préalable aux besoins de l’utilisateur).

Des facilités sont également octroyées aux fournisseurs de services d’intermédiation de données. Ils n’ont pas l’obligation de notifier les autorités compétentes, ni d’opérer une séparation juridique vis-à-vis d’autres services (une séparation fonctionnelle suffit).

L’omnibus supprime aussi, dans le Data Act, les exigences pour les smart contracts qui exécutent des accords de partage de données (contrôle de l’accès, archivage, résilation en toute sécurité…). Il fournit par ailleurs un motif supplémentaire pour refuser de communiquer des données relatives à des produits connectés au nom du secret des affaires. En plus du risque de préjudice économique grave, il devient possible d’invoquer le risque élevé d’acquisition ou d’usage par des pays tiers qui ne garantissent pas un niveau de protection des données équivalent à celui de l’UE.

PME et small caps sont de plus exemptées des règles sur le changement de fournisseur cloud, excepté celles relatives à la fin des frais de sortie.

Le RGPD assoupli jusqu’à la définition des données personnelles

L’omnibus numérique apporte aussi des modifications au RGPD… qui change jusqu’à la définition des données personnelles.

Celles-ci ne le sont plus pour toute entité qui ne peut pas réidentifier la personne concernée à l’aide de moyens raisonnables. Cela reste vrai même si un destinataire ultérieur a les moyens de réaliser cette identification.

Le périmètre des « données de santé » se réduit aussi. Ne sont plus considérées comme telles que celles qui révèlent « directement » des infos sur l’état de santé d’une personne. De même, n’est plus interdit que le traitement de données personnelles révélant « directement » l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques, etc.

L’omnibus numérique introduit une dérogation supplémentaire à l’interdiction de traiter des catégories particulières de données personnelles. Elle touche au développement et à l’exploitation de systèmes d’IA. Elle complète, entre autres, l’obtention d’un consentement explicite et la nécessité pour la sauvegarde des intérêts vitaux de la personne concernée.

Des contraintes en moins sur l’information des personnes concernées et des autorités

Les règles relatives aux cookies sont modernisées. L’idée est que les utilisateurs puissent définir leurs préférences « en un clic » pour une durée de 6 mois ou via les paramètres de leur navigateur ou OS. En parallèle, certaines fonctions basiques des sites web, comme le comptage du nombre de visiteurs, ne nécessitent plus de consentement.

Autres exigences allégées : celles relatives à l’information des personnes concernées. Elles ne s’appliquent plus dès lors que les collectes sont effectuées dans le cadre d’une relation « claire et délimitée » par un responsable de traitement exerçant une activité « non intensive en données ». Ce sous réserve que la personne connaisse déjà les finalités et la base du traitement.

Quant à l’obligation de notifier l’autorité référente en cas de violation de données, elle devient limitée aux incidents qui engendrent un risque élevé pour les droits et libertés des personnes concernées. Le délai est porté de 72 à 96 heures.

L’abandon de la directive sur la responsabilité en matière d’IA…

Parallèlement à ces dispositifs, la Commission européenne a abandonné ses travaux sur certains textes. Parmi eux, une directive sur la responsabilité en matière d’IA. Motif : pas d’accord prévisible entre les colégislateurs de l’UE.

Il s’agissait de garantir aux victimes de dommages causés par l’IA une protection équivalente à celle des victimes de dommages causés par d’autres produits de manière générale.
En toile de fond, des règles nationales jugées non adaptées au traitement des actions en responsabilité pour de tels dommages. En particulier sur la charge de la preuve. Autre constat : les stratégies IA de plusieurs États membres montraient une volonté d’élaborer des mesures dans le domaine… au risque d’une fragmentation qui augmenterait les coûts pour les entreprises exerçant dans l’ensemble de l’Union.

La directive devait s’appliquer aux actions civiles fondées sur une faute extracontractuelle pour des dommages causés par un système d’IA classé « à haut risque ». Elle avait pour principaux effets d’habiliter les juridictions nationales à ordonner la divulgation d’éléments de preuve et d’établir une présomption de lien de causalité. L’approche d’harmonisation était dite minimale, de sorte qu’on pourrait toujours invoquer les règles plus favorables du droit national.

… et du règlement ePrivacy

Un autre texte a été mis sur la touche : le règlement ePrivacy. Là aussi par manque de perspective d’accord entre législateurs. Mais également parce que son contenu apparaissait « obsolète au vu de la législation récente ».

Le règlement était resté à l’état de projet depuis 2017. L’objectif était initialement de le faire entrer en application parallèment au RGPD (soit le 25 mai 2018). Il aurait remplacé une directive de 2002, révisée pour la dernière fois en 2009, et également dite ePrivacy – ou « vie privée et communications électroniques ». D’un côté, pour encadrer plus strictement l’usage des métadonnées et des cookies. De l’autre, pour élargir son champ aux services de communication « par contournement » (OTT, over-the-top).

Le « nouvel ePrivacy » devait englober davantage de techniques de suivi du comportement en ligne. Et remédier à la « formulation confuse » de certaines dispositions de la directive. L’une touchait au consentement dans le cadre du suivi en ligne. Les modifications proposées avaient entraîné une levée de boucliers d’éditeurs de presse et de représentants du numérique et des télécoms.

Une disposition nouvelle aurait obligé les fournisseurs de logiciels et de matériels associés à des services de communication à proposer, dans les paramètres de configuration, la possibilité de refuser les cookies tiers. Une autre aurait imposé de présenter un code ou un indicatif spécifique montrant le caractère commercial d’appels téléphoniques.

AI Act : une entrée en application (très) progressive

Le RGPD est en application depuis le 25 mai 2018. Le Data Act, depuis le 12 septembre 2025. Concernant l’AI Act, une première salve de dispositions sont applicables depuis février. Une bonne partie ont pour effet d’exclure du champ du règlement certains systèmes et usage. Par exemple :

  • Systèmes d’IA utilisés exclusivement à des fins militaires, de défense ou de sécurité nationale
  • Systèmes ou modèles d’IA spécifiquement développés et mis en service uniquement à des fins de R&D scientifique
  • Systèmes d’IA publiés sous licence ouverte, tant qu’ils ne sont pas mis sur le marché ou mis en service en tant que système à haut risque ou relevant d’usages que l’AI Act interdit

Parmi ces usages interdits, il y a la techniques subliminales ou délibérément trompeuses, la « notation sociale » et l’exploitation de vulnérabilités dues à l’âge, au handicap ou à la situation sociale ou économique. Pour aider à leur interprétation, la Commission européenne a publié des lignes directrices.

Des pressions face aux règles applicables à ChatGPT & Cie

Une deuxième série de mesures de l’AI Act est entrée en application au mois d’août. Parmi elles, les obligations faites aux fournisseurs de modèles d’IA à usage général – ChatGPT, Gemini, Claude, etc.

En amont, l’association EU AI Champions, qui regroupe une soixantaine d’entreprises européennes, avait demandé un moratoire de 2 ans sur l’application des principales obligations. Motif : la complexité du texte et l’absence de lignes directrices opérationnelles. Parmi les signataires, Arthur Mensch (Mistral AI), Éléonore Crespo (Pigment), Alexandre Bompard (Carrefour), Jean-Laurent Bonnafé (BNP Paribas), Bernard Charlès (Dassault Systèmes), Guillaume Faury (Airbus) et Patrick Pouyanné (TotalEnergies).

L’association professionnelle CCIA Europe, représentant de grandes entreprises technologiques internationales, avait également appelé à un report, soulignant le risque de freiner l’innovation et la compétitivité.

La France avait adopté une position intermédiaire. Clara Chappaz, ministre déléguée au numérique, avait souhaité que la mise en œuvre du règlement ne soit pas ralentie, mais qu’un délai de grâce soit accordé pour la mise en conformité.
La présidence polonaise du Conseil de l’UE, comme le Premier ministre suédois, avait porté une demande formelle de report.

Le débat se porte sur la révision du DMA

Entre juillet et septembre 2025, la Commission européenne a organisé une consultation publique. Cela préfigure la première évaluation du DMA (une démarche à boucler au plus tard le 3 mai 2026 et qui pourrait mener à des modifications).

Le règlement s’applique actuellement à une vingtaine de « services de plate-forme essentiels » dont les exploitants sont nommés « contrôleurs d’accès » (gatekeepers). Il est censé garantir la contestabilité et l’équité des marchés dans le secteur numérique de l’UE, à travers des règles touchant notamment à l’exploitation de données, à l’interopérabilité et aux relations contractuelles avec les entreprises utilisatrices des services en question.

Dans le contexte de pression sur la Commission européenne, la Chambre de commerce de République tchèque s’est inscrite dans la lignée du rapport Draghi pour réclamer des allégements du DMA.

L’Open Cloud Coalition (alliance de fournisseurs essentiellement britanniques) a suivi. Elle estime que le DMA n’est pas adapté au cloud, mieux couvert par les règles antitrust standards ; en tout cas pour le IaaS et le PaaS, dont le fonctionnement n’implique pas réellement d’intermédiaires entre des utilisateurs et des fournisseurs de services.

Illustration générée par IA

The post Régulation du numérique en 2025 : quand l’UE lâche du lest appeared first on Silicon.fr.

  •  

Comment le marché IT a évolué en 2025

Du SIEM à la RPA, de l’UCaaS à l’iPaaS, il existe au moins un axe d’évolution commun : la diffusion des technologies d’IA.

Nous en avons fait un des angles d’une brève revue des tendances du marché IT en 2025. En nous intéressant, en parallèle, à trois autres aspects :

  • La « platformisation » et ses effets (stratégies mono/multifournisseur, lock-in, chevauchements de produits)
  • Le décalage entre offre et demande
  • L’évolution des tarifications

Les éléments suivants sont issus de notre traitement du Magic Quadrant au long de l’année, sur une quarantaine de segments. Il s’agit donc d’instantanés ; basés, pour les plus anciens, sur des évaluations qui remontent à 2024. Nous avons circonscrit le périmètre d’analyse aux fournisseurs considérés comme leaders sur les marchés concernés.

1. L’IA, élément plus ou moins perturbateur

Une voie structurante pour le SIEM

Parmi les dynamiques qui structurent le marché du SIEM, il y a une opposition. Entre, d’un côté, les fournisseurs qui poussent la combinaison avec d’autres parties de la stack de sécurité pour réduire la complexité. Et de l’autre, ceux qui prônent un usage stratégique de l’augmentation des workflows, notamment à renfort d’IA.

Sur ce marché, Gartner salue l’usage de l’IA chez Exabeam pour la priorisation des cas ; chez Microsoft pour la corrélation. Il note aussi la capacité de Google à la diffuser sur un large spectre de workflows.

Un enrichissement pour la sécurité des e-mails

Sur ce marché, les modèles de langage contribuent, entre autres, à l’évolution des simulations de phishing, à l’extension du support linguistique de moteurs d’analyse et à la détection des mauvais destinataires.

Une recomposition du paysage concurrentiel sur la gestion du travail collaboratif

À mesure que l’IA les gagne, les solutions de gestion du travail collaboratif entrent en concurrence avec des applications traditionnellement classées dans d’autres segments de marché. Par exemple, la gestion de projets, les intranets, les outils de développement et les suites bureautiques cloud. Le phénomène est notamment porté par la multiplication des « accélérateurs de cas d’usage ». En quelque sorte, des kits de démarrage associant modèles de données, workflows et configurations prêtes à l’emploi. Une proposition de valeur qui réduit, tout du moins sur le papier, le besoin en applications spécialisées.

Sur ce marché, Gartner salue l’approche d’Airtable associant chatbot global et agents embarqués au sein des applications. Il apprécie aussi l’architecture Work Graph d’Asana, entre le modèle de données qui la porte et les agents IA qui y sont greffés.

Une diffusion rapide dans la gestion des actifs numériques

La GenAI se généralise pour la création et la manipulation de contenus, ainsi que leur adaptation aux canaux de diffusion. Elle ajoute cependant à la complexité des tarifications.

Sur ce marché, Gartner salue l’intégration de l’IA dans les workflows de création chez Adobe. Il apprécie aussi sa mise en œuvre par Aprimo (recherche sémantique, métadonnées prédictives et révision automatisée du contenu). Comme par Bynder (capacité de création et de mise en œuvre d’agents IA qui, combinés à l’API, favorisent la création de contenus par d’autres métiers que le marketing), Orange Logic (automatisation agentique, recherche conversationnelle) et Storyteq (conception d’agents sans code).

Une composante pas encore fondamentale dans l’UCaaS

L’IA est un levier de différenciation pour les offreurs, en premier lieu sur l’administration et la maintenance. Elle apparaît toutefois rarement fondamentale dans les décisions d’achat. Sauf pour des cas spécifiques impliquant des métiers en contact avec la clientèle.

Sur ce marché, Gartner salue les investissements de Cisco dans l’IA. Il apprécie aussi le socle « robuste » proposé chez Microsoft – bien qu’il soit focalisé sur la partie réunions – et la fonctionnalité de « réceptionniste virtuel » de RingCentral.

Un développement embryonnaire du génératif dans la protection des terminaux

Sur ce marché, les principaux fournisseurs ont globalement peu innové au niveau du cœur fonctionnel. La R&D s’est concentrée sur les produits adjacents, l’intégration de solutions tierces… et le volet IA. Y compris générative, même si son usage demeure embryonnaire, essentiellement pour l’assistance administrative (résumé d’incidents, découverte de documentation, traduction code-texte et vice versa). Il reste par ailleurs du chemin à parcourir pour ce qui est d’intégrer les assistants IA avec des produits tiers.

Une boussole commerciale pour la RPA sous le prisme agentique

La RPA se dilue au sein de plates-formes englobant des technologies comme l’iPaaS, l’IDP (Intelligent Document Processing) et le développement low code. La tendance n’est pas nouvelle, mais elle prend un autre visage avec l’automatisation agentique. Les principaux offreurs ont presque tous développé des fonctionnalités qui relèvent de ce domaine. Ils n’hésitent pas à les intégrer dans leurs propositions commerciales, quand bien même le client ne les a pas sollicitées.

Sur ce marché, Gartner salue la brique computer vision de SS&C Blue Prism. Mais note que ses offres GenAI sont moins « versatiles » que chez la concurrence, en ce qu’elles se focalisent sur la modalité texte. Le cabinet américain appelle aussi à la vigilance concernant l’impact que le focus sur l’automatisation agentique pourrait avoir sur le « cœur RPA » chez Automation Anywhere et UiPath.

Le génératif, désormais une commodité sur le DEX et l’iPaaS

Sur le marché du DEX (gestion de l’expérience employé numérique), la GenAI s’est répandue, en tout cas pour la recommandation de remédiations, l’ébauche de campagnes à destination des employés et la fourniture d’interfaces en langage naturel aux admins. Omnissa a droit à une mention pour son assistant Omni AI.

Sur le marché de l’iPaaS, Gartner considère maintenant l’IA comme une fonctionnalité standard, que ce soit pour la création d’intégrations, la génération de documentation ou l’exploitation des solutions. Il salue son intégration rapide chez Workato, sa connexion avec l’écosystème Azure chez Microsoft et son utilisation chez SAP en renfort d’une approche « composable » et orientée événements.

Du conversationnel pour la data quality

Gartner focalise désormais son analyse sur les solutions « augmentées ». En d’autres termes, enrichies à base d’algorithmes. Principalement à l’appui de techniques d’apprentissage supervisé, tout du moins pour les cas d’usage où les entités et leurs relations sont bien cernées (analyse des graphes et des métadonnées, par exemple).

Sur la partie GenAI, la tendance est à l’ajout de capacités « de type ChatGPT ». Souvent à renfort de versions spécifiques de l’offre OpenAI (Azure OpenAI, modèles sur Vertex AI…) pour des raisons de sécurité. Il arrive que les fournisseurs développent leurs propres interfaces avec les LLM pour traduire entrées et sorties.

La prise en charge des données structurées s’est développée avec le RAG en point de mire. Les offreurs ont pris le pas, pêle-même, en s’associant à des hyperscalers, en exploitant des LLM ouverts, en personnalisant des LLM commerciaux, voire en développant les leurs.

Sur ce marché, Gartner salue la brique CLAIR AI Copilot d’Informatica et l’assistant qu’Ataccama a intégré dans sa plate-forme de data management.

Les plates-formes DSML, entre prédictif et génératif

Dans l’univers des plates-formes DSML (data science & machine learning), la tendance est à cibler des profils d’utilisateurs alignés sur des BU et des domaines fonctionnels. AutoML reste, dans ce cadre, une composante essentielle. Mais il est désormais complété par des assistants GenAI. En toile de fond, des opportunités de différenciation pour les vendeurs, dans la manière dont ils combinent prédictif et génératif.

Sur ce marché, Gartner apprécie l’offre SageMaker Unified Studio d’AWS et sa brique « IA responsable » Bedrock Guardrails (vérification par raisonnement automatisé), mais note que son catalogue de modèles de fondation n’a pas encore une influence déterminante auprès des acheteurs. Databricks est salué pour sa vision d’un écosystème agentique, adapté en particulier à la finance et à la gestion de réputation. Dataiku l’est pour son initiative LLM Mesh, par ce qu’elle apporte en matière de gouvernance. DataRobot l’est pour son repositionnement vers un écosystème agentique d’applications métier, avec cependant un point d’interrogation quant à l’adhésion des éditeurs partenaires à ce pivot.

Dans le DEM, attention au marketing de l’IA

Dans beaucoup de solutions de DEM (gestion de l’expérience numérique ; pas seulement pour les employés, ce qui différencie ce marché du DEX), il existe un décalage entre les capacités promises et celles réellement apportées.

Gartner apprécie les briques Davis AI et Davis CoPilot de Dynatrace. Il salue aussi Datadog (pour la détection d’anomalies et la fourniture de résumés après corrélation) et New Relic (dépannage, résumé de sessions, provisionnement de tests synthétiques).

Un coup de pouce pour les infrastructures LAN

Sur ce marché, l’évolution de l’offre est portée par de nouvelles approches d’approvisionnement, sur fond de basculement vers des réseaux « autonomes », à l’appui de technologies regroupées sous la bannière IA. Parmi ces nouvelles approches, le NaaS, encore peu adopté, mais qui se structure par l’émergence de modèles de consommation basés sur la surface occupée (square footage) ou sur des incréments par utilisateur.

Gartner salue l’usage de l’IA par HPE pour la collecte et le traitement de la télémétrie ; par Juniper à travers les jumeaux numériques ; par Huawei pour le même motif, ainsi que pour l’optimisation du provisionnement et de l’UX.

Des d’usage distingués sur la data…

Entre autres capacités notables sur l’intégration de données sont celles de :

  • Ab Initio (compréhension des données, création de pipelines, interactions en langage naturel)
  • Denodo (description et étiquetage automatiques des données sensibles ; réponse aux questions des métiers à l’appui d’un modèle de raisonnement)
  • Google (agent de data engineering pour BigQuery)
  • IBM (gestion des données non structurées avec les modèles Granite)
  • Informatica (gestion de pipelines avec CLAIRE GPT)

Informatica est également distingué sur la gouvernance des données, avec son plug-in CLAIRE AI axé sur l’automatisation des tâches côté tech.

Sur la gouvernance des communications électroniques, bon point pour Arctera mêle détection automatique de la langue et transcription, analyse de sentiment, recherche et labels prédictifs.

Au niveau des intranets, l’IA se diffuse chez LumApps, tant pour les gestionnaires de contenus que les utilisateurs finaux. Et chez Simpplr, notamment pour la gouvernance (utilisation de NVIDIA NeMo Guardrails et de Langfuse).

… l’infra

Sur la gestion du SaaS, Torii est salué pour le traitement des contrats, l’enrichissement des profils d’applications et la conception d’automatisations. Zluri, pour l’analyse de l’activité des utilisateurs, le dimensionnement des licences… et aussi le traitement des contrats.

En matière de gestion d’API, bon point pour Kong (génération d’API, de spécifications et de serveurs MCP).

Sont mentionnés sur l’observabilité :

  • Dynatrace : découverte des environnements et des causes racines
  • Elastic : catalogue de modèles, capacités de personnalisation, assistant avec RAG
  • New Relic : bibliothèque d’agents et API d’intégration standardisée

Sur le PaaS, Gartner souligne les connexions que les principaux hyperscalers ont établies avec leurs écosystèmes IA : Bedrock et SageMaker chez AWS, Azure AI Foundry chez Microsoft, Gemini et Vertex AI chez Google, Model Studio et Platform for AI chez Alibaba Cloud. Il note aussi que Salesforce a aligné Heroku sur sa stratégie IA, le rendant ainsi susceptible de mieux toucher les métiers.

AWS et Google ont un avantage sur le cloud public d’infrastructure, par la maîtrise qu’ils ont sur leurs piles respectives, à commencer par les puces.

Sur le stockage d’entreprise, HPE et Huawei sont cités pour leur usage de l’IA. Le premier, sur l’optimisation des ressources et l’observabilité. Le second, sur l’atténuation des risques et l’isolation plus rapide des erreurs.

HCLSoftware est mentionné sur le SOAP (orchestration de services) pour les capacités qu’il apporte en matière d’optimisation des workloads et de gestion de la plate-forme.

AWS l’est sur le DaaS, pour l’assistance au dépannage et à la gestion des ressources.

… et la sécurité

Sur le PAM (gestion des accès à privilèges), bons points pour CyberArk (résumé de sessions, détection d’anomalies au niveau des secrets, recommandation de règles) et Delinea (automatisation des décisions d’accès dans les environnements cloud).

Dans le domaine des pare-feu réseau, Fortinet a intégré de l’IA jusque sur ses appliances physiques pour l’analyse des événements de sécurité. Palo Alto Networks en a aussi intégré… et l’a surtout sécurisée. Dans le même ordre d’idée, Netskope a étendu la couverture de son SASE aux agents IA.

En matière de sauvegarde, Veeam se distingue sur le scan inline ; Rubrik, sur la détection d’anomalies ; Druva, sur l’aide au dépannage et au reporting.

2. La « platformisation » et ses effets

Dans la nomenclature de Gartner, plusieurs analyses de marchés ont vu leur terminologie évoluer en 2025 pour englober la notion de plate-forme. Il n’est, par exemple, plus question de solutions de sauvegarde/restauration, mais de « plates-formes de sauvegarde et de protection des données ». Le reflet d’une « complexification des patrimoines data », pour résumer la position du cabinet américain. Même si dans la pratique, les critères fonctionnels pris en considération pour évaluer les fournisseurs n’ont pas significativement changé (il faut tout de même désormais gérer les environnements multicloud).

Dans la même logique, le marché des « services d’IA pour les développeurs » a laissé place à celui des « plates-formes de développement d’applications IA ». Quant au stockage d’entreprise, les technologies bloc, fichier et objet font désormais l’objet d’une analyse unifiée.

Gartner n’a pas attendu 2025 pour accoler le terme à son analyse des solutions de process mining, mais il note cette année une tendance croissante à les inclure dans des plates-formes d’automatisation. Cette tendance reste au contraire émergente pour la gouvernance des données : historiquement axées sur le data management (exécution des politiques de gouvernance) plus que sur la data stewardship (mise en place de ces politiques), les outils manquent encore de liant.

La notion de plate-forme participe d’une autre opposition qui structure le marché du SIEM. Certains fournisseurs en jouent la carte, intégrant leur solution dans des offres plus large avec un modèle de licence adapté. D’autres axent plutôt leur discours sur les capacités d’ingestion à grande échelle.

Les stratégies multifournisseurs gardent leur place

Plates-formes ou pas, l’approche monofournisseur ne domine pas sur certains marchés. Parmi eux, la gestion des API. L’approvisionnement chez de multiples offreurs y est devenu standard. Il s’est développé en parallèle des architectures fédérées, qui peuvent atténuer le risque de fragmentation.

Sur le SASE, l’offre monofournisseur s’est étoffée, mais le sourcing des briques réseau et sécurité s’effectue encore majoritairement à part.

Pour ce qui est du DSML, la décentralisation des activités de data science ne favorise pas le travail avec une seule solution – des passerelles se sont de surcroît créées entre fournisseurs.

L’évolution du marché de la sécurité des e-mails rend aussi opportunes que nécessaires les stratégies multifournisseurs. Cela s’explique notamment par la difficulté à mesurer l’efficacité des détections. Il apparaît d’autant plus adéquat de combiner les offres que les chevauchements entre elles se multiplient, favorisant la négociation de remises. À ce sujet, la distinction entre SEG (Secure Email Gateway) et ICES (Integrated Cloud Email Security) commence à s’estomper. La plupart des fournisseurs de SEG proposent désormais des options de déploiement par API, tandis que les ICES sont, de plus en plus, enrichis pour effectuer du pre-delivery, soit via les enregistrements MX, soit par modification des règles de flux de messagerie.

Le PaaS reste quant à lui peu propice au multicloud. La mise en œuvre d’une telle stratégie semble en tout cas délicate vu la nette séparation des solutions portées sur le front vis-à-vis de celles axées sur le back.

Des marchés propices au lock-in

Dans le domaine du PaaS, les risques de lock-in n’arrangent pas les choses. Ils existent chez AWS avec Lambda (nécessité de retravailler les applications avant de les déplacer) et chez Microsoft avec Azure Functions (même constat). Un effet de verrouillage apparaît aussi chez Google : le niveau d’intégration de son portefeuille rend les workloads plus « normatifs » que chez la concurrence. Une approche qu’on peut juger restrictive lorsqu’on a l’habitude de construire avec plusieurs services cloud.

Sur l’intégration de données, les « trois grands » du cloud ont développé des offres autocentrées. AWS propose un catalogue de connecteurs limité vers d’autres destinations que son écosystème. L’offre est plus fournie côté sources, mais la configuration manque souvent de souplesse. Les produits de Microsoft sont efficaces surtout pour qui est déjà dans Azure ou Fabric. Google conçoit et vend les siens essentiellement pour un usage dans son écosystème.

Dans l’observabilité, le niveau d’intégration chez Datadog peut dissuader de changer de fournisseur, autant par coût que par complexité.

Dans la gestion des accès, le bundling d’Entra ID avec d’autres services Microsoft le rend moins cher que les solutions concurrentes, mais entraîne des risques de verrouillage.

Sur les plates-formes de gestion des conteneurs, AWS propose un haut niveau d’intégration avec le reste de ses services d’infrastructure et de gestion, mais le support du multicloud est limité. Chez Huawei, c’est le matériel qui peut poser problème, faute de toujours suivre les standards de l’industrie (en tête de liste, ses accélérateurs IA ; une alternative aux GPU NVIDIA qui peut poser des problèmes de compatibilité). On peut aussi considérer que Red Hat présente un certain risque de lock-in, du fait que la brique qui apporte de l’interopérabilité – Advanced Cluster Management – n’est pas incluse dans tous les abonnements.

Quand les offres se chevauchent

En plus du risque de verrouillage, les solutions PaaS tendent à se chevaucher chez certains fournisseurs. C’est le cas chez AWS, entre App Runner, Fargate et Lambda. Comme chez Microsoft, entre Azure Container Apps et Azure Kubernetes Service.

Même tendance dans les bases de données cloud. Chez Alibaba Cloud, cela vaut pour les AnalyticDB et Hologres (analytique) comme pour DMS et DataWorks (intégrations de données). Chez IBM, pour les produits Db2 Warehouse, Neterra et watsonx.data sur la dimension entrepôt de données. Chez Google, entre les solutions pour Postgre (Cloud SQL, AlloyDB, Spanner). Chez Microsoft, entre Azure Synapse, Azure Databricks et Microsot Fabric.

On est face au même phénomène sur la gestion du travail collaboratif avec Atlassian (entre Trello et Jira), la gestion des actifs avec Adobe (manque de clarté sur quels produits dédier à quels usages) et les infrastructures LAN avec HPE (multiplicité des offres NaaS entre channel et utilisateurs finaux). Sur l’iPaaS, Oracle a un grand nombre d’offres, ce qui en complique l’adoption. Quant à Salesforce, il a fait de MuleSoft son « cœur iPaaS », mais diffuse de plus en plus de services d’intégration sous sa propre marque, au risque d’engendrer de la confusion.

3. Quand l’offre ne suit pas la demande

Sur le FinOps, la demande – couverture du PaaS et du SaaS, des workloads IA, des environnements sur site… – progresse plus vite que la capacité de beaucoup de fournisseurs à y répondre.

Dans les intranets, malgré la tendance des super-apps, couvrir les frontline workers reste délicat pour les principaux fournisseurs. Ils sont par ailleurs peu à avoir des solutions verticales voire à déployer un effort commercial dans ce sens.

Sur les plates-formes de développement d’applications IA, les offreurs ne parviennent pas à répondre à l’ensemble des besoins sectoriels (des modèles spécialisés aux templates d’applications).

Les solutions de gestion du SaaS n’apparaissent pas comme un choix évident pour qui a déjà du SAM (gestion des actifs logiciels). Et le marché est peu mature : vu le manque de garanties sur la viabilité de nombreux offreurs, on négociera des contrats de 2 ans maximum.

Le marché des assistants de codage n’est pas tant immature que volatil. En témoignent l’affaire Windsurf (pressenti pour se vendre à OpenAI, mais finalement repris par Cognition, Google récupérant l’équipe dirigeante) et la controverse Cursor (augmentation des prix après une hausse du coût de la « matière première », en l’occurrence les modèles d’Anthropic).

Sur ce même marché, GitLab a tendance à centre son message sur l’aspect « IA pour le DevOps » plutôt que sur le cœur fonctionnel, au risque de perdre en notoriété auprès des développeurs.
Les stratégies marketing ont du mal à toucher ce même public sur la gestion des API, alors même qu’il représente une part croissante des utilisateurs de ces solutions.

Le marketing est un point faible chez la plupart des principaux fournisseurs de plates-formes de développement low code. Chez Microsoft, la communication autour d’Azure, Microsoft 365 et Dynamics 365 fait de l’ombre à celle autour de Power Apps. Chez Oracle, APEX est moins marketé que les autres offres et la proposition de valeur n’est pas claire pour qui n’est pas déjà dans l’écosystème. OutSystems a quant à lui du mal à communiquer la valeur de sa solution dans les environnements complexes ; Salesforce, à démontrer les capacités autonomes de sa plate-forme. Creatio a une notoriété limitée, comme Retool, qui manque par ailleurs de visibilité auprès des analystes et des médias du secteur. PegaSystems reste perçu comme un fournisseur de solutions d’automatisation, tandis que l’offre de ServiceNow demeure vue comme orientée vers les services IT.

Dans certains cas, c’est la demande qui ne suit pas l’offre. Par exemple sur les infrastructures LAN, reflétant un allongement des cycles de vie, corollaire de la pression économique. Malgré le développement du modèle managé (allant de la notification d’incidents à la codétection de menaces), le NDR reste un marché de niche : les acheteurs sont des grandes entreprises qui ont structuré un programme de sécurité.

4. Quelques éléments de prix

Tarification plus élevée que la moyenne

Marchés Fournisseurs Commentaires
Bases de données Oracle
SIEM Exabeam, Gurucul, Microsoft Avec Gurucul, il peut être difficile de prouver la valeur de fonctionnalités « avancées ».
Pour Microsoft, c’est surtout lorsqu’on ingère des données depuis des sources externes.
Infrastructures hybrides Nutanix
Intégration de données AWS, IBM Chez IBM, le modèle fondé sur des unités de ressources y contribue.
Plates-formes de conteneurs Red Hat Difficile de justifier les coûts pour des déploiements qui n’exigent pas de fonctionnalités avancées.
Gestion des accès Ping Identity Notamment pour les accès employés et partenaires.
Gestion du SaaS BetterCloud, Torii Le niveau Enterprise chez Torii est une des offres les plus onéreuses du marché.
Sécurité applicative Black Duck, HCLSoftware Black Duck peut se révéler coûteux pour les organisations de moins de 1000 employés qui ne recherchent que du SCA ou du SAST.
Le coût chez HCLSoftware est potentiellement prohibitif pour les petites équipes.
Gestion des API MuleSoft
Protection des terminaux CrowdStrike, Palo Alto Networks, SentinelOne Chez Palo Alto Networks, les coûts sont élevés malgré la compétitivité du programme de migration depuis les solutions concurrentes.
SASE Cato Networks, Palo Alto Networks
Sauvegarde Cohesity Prix élevé lors des négociations initiales.
DEX Nextthink, Riverbed Le bundle complet coûte plus cher que la plupart des autres outils DEX. Manque d’un ticket d’entrée à bas prix.
Gouvernance des données IBM
Gouvernance des communications Global Relay, Mimecast, Proofpoint Chez Global Relay, facturation des extractions au Go pendant la durée des contrats et à un prix négocié une fois arrivé à terme.
Frais d’exportation en fin de contrat chez Mimecast.
Chez Proofpoint, coûts potentiels du modèle axé sur la conservation.
PAM BeyondTrust, CyberArk, Delinea Globalement au-dessus du marché chez BeyondTrust, même si la partie SaaS fait exception sur plusieurs scénarios.
Toujours pas de remises sur engagement multiannuel chez CyberArk.
Au-dessus de la moyenne chez Delinea pour les organisations de plus de 1000 employés.
Pare-feu réseau Palo Alto Networks TCO « relativement élevé »

 

Les hausses de prix sont une tendance généralisée dans la gouvernance des communications électroniques. Le phénomène est plus sporadique sur d’autres marchés. Quelques exemples :

    • Sécurité des e-mails : Proofpoint (augmentation ces derniers temps)
    • UCaaS : RingCentral (au renouvellement)
    • RPA : UiPath (hausses annuelles fréquentes)

Certains fournisseurs se révèlent, au contraire, particulièrement compétitifs :

  • Microsoft sur la RPA (« souvent 30 à 50 % moins cher ») et l’UCaaS
  • Atlassian sur la gestion du travail collaboratif
  • SUSE sur les plates-formes de conteneurs
  • Delinea sur le PAM (pour les organisations de moins de 1000 employés)
  • Fortinet sur les infrastructures LAN (tant sur site qu’en cloud)
  • Flexera et Zluri sur la gestion du SaaS, l’un et l’autre ayant par ailleurs une politique de ristournes flexible

Le prix devient un argument d’adoption du DaaS : il est désormais compétitif en termes de coûts par rapport à des ordinateurs portables, en particulier lorsqu’on lui associe des clients légers.

Tarification complexe

Marchés Fournisseurs Commentaires
Bases de données cloud AWS, Databricks, Google Chez AWS, pas de tarification unifiée entre services.
Chez Google, l’enrichissement fonctionnel a tendance à aller de pair avec une complexification de la tarification.
Intégration de données Oracle Manque de transparence.
Gestion des accès Okta Bien étudier la tarification associant bundles et options « à la carte ».
Gestion des actifs numériques Aprimo, Bynder, Storyteq Chez Aprimo, le module complémentaire pour la GenAI peut rendre les coûts moins prévisibles avec son modèle à la consommation.
Avec Bynder, bien évaluer la structure de sa bibliothèque de contenus pour choisir entre la facturation au nombre d’assets ou au volume de stockage.
Chez Storyteq, beaucoup d’intégrations avec des systèmes externes sont facturées à la connexion ; les coûts peuvent vite enfler.
Gestion du travail collaboratif monday.com Les « accélérateurs » sectoriels (CRM, développement logiciel, service management…) ont une tarification spécifique.
Sécurité applicative Black Duck, Checkmarx, OpenText Packaging des offres difficile à comprendre chez Checkmarx, jusqu’aux options de support.
Chez OpenText, la complexité est liée autant à la diversité des options de déploiement qu’à l’ancienneté du fournisseur sur ce marché.
Intranets Unily Manque de transparence.
UCaaS Cisco Compliqué à comprendre et à négocier pour le mid-market.
Pare-feu réseau Palo Alto Networks Accords de licence et de support qui manquent de clarté.
SASE Cato Networks, Fortinet, Netskope Chez Fortinet, le pricing à 2 niveaux pour les points de présence peut susciter de la confusion.
Observabilité Dynatrace, Elastic, New Relic, Splunk Chez Dynatrace, l’abonnement DPS comprend beaucoup d’éléments non présents dans les contrats précédents, ce qui complique la compréhension des coûts.
Chez Elastic, les coûts sont durs à estimer, surtout à mesure que croissent les volumes de données.
Chez New Relic, le modèle à la consommation – basé sur le nombre d’utilisateurs et le volume ingéré – peut entraîner des coûts plus élevés que prévu.
Chez Splunk, coût global difficile à contrôler, notamment dans le cas d’une utilisation de Splunk Cloud en jonction avec la brique IT Service Intelligence.
RPA Microsoft Interprétations contradictoires du licensing jusqu’aux équipes commerciales.
DEX Nextthink Options à la carte complexes à comprendre.
DEM Catchpoint Pas de tarification publique.
Data quality Informatica Usage à prévoir sur un an (pas de report de crédits).
Process mining Celonis, IBM, UiPath Chez Celnis, métriques « changeantes » et manque de clarté sur la mise à l’échelle.
Complexe chez IBM, notamment sur la version on-prem.
Gouvernance des données IBM, Informatica Chez Informatica, usage à prévoir sur un an (pas de report de crédits).
Assistants de codage Amazon, Cognition, GitHub, Google Chez Amazon, le modèle économique peut compliquer la planification des coûts.
Chez Cognition, attention à la transition du modèle par siège vers une tarification à l’usage.
Chez GitHub, la multiplication des SKU et l’interaction avec les abonnements GitHub Enterprise contribuent à une forme d’opacité. Pas évident de s’y retrouver avec les conditions contractuelles de Microsoft dans le cadre des offres cross-platform.
Chez Google, manque de transparence, en particulier sur les remises.
Plates-formes de développement d’apps low code Mendix, Microsoft, ServiceNow Chez ServiceNow, le modèle à l’usage peut entraîner des dépenses imprévues.
NDR Darktrace, ExtraHop Chez Darktrace comme chez ExtraHop, tarification complexifiée par la tendance au bundling.
iPaaS Microsoft, SAP Chez Microsoft, manque de cohésion des outils sur le plan tarifaire.

 

Dans l’observabilité, la demande de coûts lisibles est « à son comble » à l’heure où les modèles de tarification par hôte laissent place à des formules à la consommation – ou, de plus en plus, à des approches hybrides.

Tarification peu flexible

Marchés Fournisseurs Commentaires
DaaS Citrix Le regroupement de licences pose un risque de sous-utilisation de produits. Manque de flexibilité contractuelle (difficulté à négocier sur moins de 3 ans pour les clients qui sont en direct).
PaaS Salesforce Le prix fixe par dyno Heroku limite la marge d’optimisation pour les microservices complexes.
Gestion des accès IBM Tendance à contractualiser sur le long terme – ce qui limite la flexibilité tant du point de vue des tarifs que de la mise à l’échelle.
FinOps IBM
Protection des terminaux Microsoft Bundles souvent sous-utilisés.
Observabilité Datadog Flexibilité limitée entre lignes de produits.
RPA UiPath Tendance au bundling forcé.
Infrastructures LAN Huawei, Juniper Pas de modèles opex chez Huawei.
Pas de facturation à l’usage pour le NaaS chez Juniper.

 

Quelques fournisseurs se distinguent au contraire par la flexibilité de leur tarification :

  • Informatica sur l’iPaaS
  • Microsoft sur le DSML
  • Google sur les plates-formes de développement d’applications IA
  • Datadog sur le DEM (découplage de l’ingestion et de l’indexation de sessions, ce qui permet une conservation sélective)
  • SS&C Blue Prism sur la RPA (par exemple avec l’inclusion des sessions concurrentes sur certaines offres)
  • Fortinet sur les pare-feu réseau (flexibilité du système de licence à points)

Attention aux modules complémentaires

Marchés Fournisseurs Commentaires
Gestion du SaaS Zluri Le choix de la localisation des données a un coût (qui dépend en particulier de la taille de l’entreprise et du volume de données).
Gestion des actifs numériques Adobe L’accès à des fonctionnalités avancées (rendu temps réel, expériences 3D…) nécessite un add-on.
UCaaS Zoom Tendance à inclure, au renouvellement, des fonctionnalités non nécessaires.
RPA Automation Anywhere, UiPath Chez l’un et l’autre, tendance à l’ajout de capacités agentiques non sollicitées dans les propositions de renouvellement.
Gouvernance des données Collibra Observabilité et data quality nécessitent un module complémentaire.
Plates-formes de développement d’apps low code Appian, ServiceNow Chez Appian, beaucoup de fonctionnalités accessibles seulement à des niveaux de prix avancés.
Chez ServiceNow, prévision des coûts complexifiée par les multiples niveaux de modules et d’add-on.

 

Date de publication du dernier Magic Quadrant pour les marchés ici évoqués (et lien vers le traitement que nous en avons fait) :

Marchés Dates de publication
Intégration de données 8 décembre
Sécurité des e-mails 1er décembre
Bases de données cloud 18 novembre
Plates-formes de développement d’applications IA 17 novembre
Gestion des actifs numériques 4 novembre
Gestion du travail collaboratif 28 octobre
DEM 27 octobre
PAM 13 octobre
SIEM 8 octobre
Gestion des API 7 octobre
Sécurité applicative 6 octobre
Intranets 6 octobre
UCaaS 22 septembre
FinOps 15 septembre
Assistants de codage 15 septembre
Stockage d’entreprise 2 septembre
SOAP 26 août
Pare-feu réseau 25 août
DaaS 11 août
Plates-formes de conteneurs 6 août
PaaS 4 août
Cloud public d’infrastructure 4 août
Gestion du SaaS 30 juillet
Plates-formes de développement d’applications low code 28 juillet
Protection des terminaux 14 juillet
SASE 9 juillet
Observabilité 7 juillet
Infrastructures LAN 25 juin
Sauvegarde 24 juin
RPA 23 juin
NDR 29 mai
DSML 28 mai
DEX 26 mai
iPaaS 19 mai
Process mining 15 avril
Gouvernance des communications 14 avril
Data quality 10 mars
Gouvernance des données 20 janvier

Illustration générée par IA

The post Comment le marché IT a évolué en 2025 appeared first on Silicon.fr.

  •  

10 personnalités IT qui ont marqué 2025

Odile Duthil – Directrice de la cybersécurité du groupe Caisse des Dépôts et Présidente du Clusif

Pourquoi elle ? La trajectoire 2025 d’Odile Duthil illustre la reconnaissance de son parcours dans l’écosystème cyber français. Directrice cybersécurité du Groupe Caisse des Dépôts, elle est membre du comité éditorial des Assises. En avril dernier, elle accède à la présidence du Clusif, la plus ancienne association française de RSSI et de promotion de la cybersécurité  reconnue comme établissement d’utilité publique par l’Etat. Elle est aussi élue  » Femme Cyber Dirigeante » de l’année par le Cercle des Femmes de la CyberSécurité  (CEFCYS).
À la Caisse des Dépôts, Odile Duthil pilote la stratégie de cybersécurité dans un contexte de transformation numérique soutenue du secteur public et parapublic. Son action s’inscrit dans la sécurisation des données sensibles, des services numériques et des infrastructures critiques au cœur des politiques publiques et de l’investissement de long terme.

A lire : Odile Duthil, nouvelle présidente du Clusif

Fabrice Bru – Fabrice Bru, directeur cybersécurité et architecture de la STIME – Groupement Les Mousquetaire et Président du Cesin

Pourquoi lui ? Au sein des Mousquetaires, Fabrice Bru poursuit ses chantiers stratégiques : développement sécurisé via la « Dev Factory », intégration de l’intelligence artificielle dans les processus de sécurité, et renforcement du patch management. Sa vision : faire de la cybersécurité un levier de confiance et de résilience, particulièrement crucial dans le secteur du retail face aux attaques ciblées.
Après sept années comme administrateur, il est élu Président du Club des Experts en Sécurité de l’Information et du Numérique (CESIN) et ses 1200 CISO adhérents qui occupe une place central au sein de l’écosystème cyber français. Dans ce rôle, il est élu au conseil d’administration du Campus Cyber.

A lire : Fabrice Bru est le nouveau Président du Cesin

Michel Paulin – Président du Comité Stratégique de Filière « logiciels et solutions numériques de confiance

Pourquoi lui ? En tant que président du Comité Stratégique de Filière (CSF) « logiciels et solutions numériques de confiance », Michel Paulin a piloté la concertation qui a abouti à la signature du premier contrat de filière pour la période 2025‑2028. Ce contrat formalise les engagements réciproques de l’État et des industriels pour renforcer l’autonomie stratégique numérique de la France.
Sous son impulsion, la filière a défini cinq projets structurants, dont l’accélération d’offres de bout en bout dans le triptyque cloud‑data‑IA et l’amélioration de l’interopérabilité entre infrastructures, logiciels data, IA, cybersécurité et applications métiers. Ces axes visent à proposer des alternatives européennes crédibles face aux acteurs internationaux dominant

A lire : Que faut-il attendre du premier CSF « logiciels et solutions numériques de confiance »

Arthur Mensch – CEO de Mistral AI

Pourquoi lui ? Archi légitime dans la figure du « patron de l’IA made in France », Arthur Mensch  porte la voix d’une technologie souveraine, performante et ouverte, défiant les géants américains sur les benchmarks d’entreprise. Guest star de tous les évènements IA et des voyages présidentiels, il est aussi très efficace pour transformer le show en business avec les grands groupes français ( CMA CGM, TotalEnergies, Orange,…), le lancement d’une offre d’infrastructure avec Nvidia et les investisseurs qui se pressent à ses tours de tables.
Celui qui pilote la plus grosse scale-up européenne du secteur avec une valorisation qui frôle les 12 milliards € sait aussi montrer un visage « BtoC » et user de pédagogie au journal de France 2 ou chez Quotidien.

A lire : Mistral AI, valorisée 11,7 milliards €, devient la première startup IA européenne

Thomas Wolf – Co-fondateur et Chief Science Officer de Hugging Face

Pourquoi lui ? Moins visible. que son pair de Mistral AI, Thomas Wolf n’en est pas moins une figure de l’IA chez les « techs » de tous poils, des développeurs aux ingénieurs. Il pilote les efforts scientifiques et open source de Hugging Face, autour des bibliothèques Transformers, Datasets et des outils mis à disposition de la communauté mondiale de l’IA.
Thomas Wolf défend une stratégie centrée sur des modèles plus petits, capables de fonctionner localement sur les appareils des utilisateurs plutôt que sur des infrastructures géantes et fermées.  Il met aussi l’accent sur la rencontre entre IA et robotique, à travers des projets open source destinés à standardiser les politiques de contrôle et à rendre les outils robotiques plus accessibles

A lire : Hugging Face ajoute des options européennes pour l’inférence

Guillaume Rincé – Chief Technology Officer du groupe MAIF

Pourquoi lui ? En 2025, Guillaume Rincé, continue de piloter une transformation technologique profonde au sein de l’un des acteurs majeurs de l’assurance mutualiste en France. Sa vision dépasse les approches traditionnelles des systèmes d’information : sous sa direction, le groupe fonctionne comme un éditeur de logiciels à part entière. Depuis plusieurs années, la mutuelle a recruté des centaines de développeurs et organisé ses équipes en tribus pluridisciplinaires – intégrant développeurs, ingénieurs, designers et analystes – selon les domaines métiers (sinistres, canaux digitaux, etc.). Cette organisation matricielle vise à responsabiliser les équipes, accélérer les livraisons et favoriser l’innovation continuelle.
Face aux défis de l’IA générative, Guillaume Rincé adopte une stratégie raisonnée : expérimenter des cas d’usage à forte valeur ajoutée (assistance en langage naturel pour sinistres, soutien à la digital workplace) tout en veillant à la qualité des données et à l’accompagnement du changement.

A lire : Guillaume Rincé, CTO du Groupe MAIF : « Nous fonctionnons comme un éditeur de logiciels »


Philippe Latombe –
Député, rapporteur de la mission Souveraineté Numérique

Pourquoi lui ? Député de la première circonscription de la Vendée ( Les Démocrates) depuis trois mandats et secrétaire de la commission des Lois, Philippe Latombe s’est imposé comme l’une des figures du Palais Bourbon sur les enjeux du numérique. Il préside la Commission spéciale chargée d’examiner le projet de loi sur la résilience des infrastructures critiques et le renforcement de la cybersécurité ( NIS2) qui attend toujours d’être votée.
Rapporteur de la mission « Bâtir et promouvoir une souveraineté numérique nationale et européenne », il a fait du « Cloud Souverain » un de ses dossiers de prédilection et défend une régulation de l’IA centrée sur la souveraineté numérique, la maîtrise des infrastructures (cloud, calcul, supercalculateurs) et le soutien prioritaire à des acteurs européens.

A lire : Souveraineté numérique : fronde contre l’Éducation nationale qui attribue un « gros » contrat à Microsoft

Yves Caseau – Chief Digital & Information Officer du Groupe Michelin

Pourquoi lui ? En 2025, Yves Caseau a poursuivi la transformation numérique de Michelin en affirmant une vision où le logiciel devient un actif stratégique de la performance industrielle. Son action s’est concentrée sur le renforcement des plateformes digitales du groupe, en particulier autour de la data, du cloud hybride et de l’intelligence artificielle, afin de soutenir l’innovation produit, l’excellence opérationnelle et le développement de nouveaux services. Yves Caseau  porte également une vision forte de la souveraineté technologique et du développement des compétences internes. Son leadership s’incarne aussi sur LinkedIn une DSI capable de concilier innovation, fiabilité et création de valeur durable.

A lire : Yves Caseau, CDIO du groupe Michelin

Clara Chappaz – Ambassadrice pour le numérique et l’intelligence artificielle

Pourquoi elle ? Pas facile d’exercer des responsabilités  dans des gouvernements en sursis, sans expérience politique et sans réseau autre que celui de la French Tech. Commencé sous Michel Barnier en qualité de Secrétaire d’État chargée de l’Intelligence Artificielle et du Numérique, son parcours se poursuit avec François Bayrou et une montée en grade au rang de Ministre déléguée jusqu’à octobre 2025.
On retiendra de son action la double ambition de renforcer l’écosystème de l’intelligence artificielle et d’ancrer la souveraineté numérique de la France. Notamment, le lancement du plan national “Osez l’IA” en juillet 2025, conçu pour encourager l’adoption de l’intelligence artificielle par les entreprises françaises, notamment les PME et les TPE encore à la traîne dans l’intégration de ces technologies.

A lire : « Osez l’IA » : le plan du gouvernement pour accélérer l’adoption dans les entreprises

Photos : © DR

The post 10 personnalités IT qui ont marqué 2025 appeared first on Silicon.fr.

  •  

AMI Labs : la startup de Yann LeCun lève des fonds

Yann LeCun, ex futur Chief AI Scientist at Meta, serait en discussions avancées d’un financement de 500 millions d’euros pour sa startup Advanced Machine Intelligence Labs selon le Financial Times. Si l’opération aboutie, sa valorisation serait d’environ 3 milliards € avant même son lancement officiel.

Le FT, qui ne dévoile pas l’identité des participants au tour de table, affirme en revanche que le futur directeur général d’AMI Labs est déjà nommé. Il s’agit d’Alexandre LeBrun, fondateur de  Nabla, qui développe un assistant IA qui génère les comptes-rendus médicaux pour les praticiens. Cependant, le polytechnicien conservera ses fonctions de président et de directeur scientifique IA chez Nabla. Un partenariat stratégique de recherche a également été conclu entre les deux startups.

AMI Labs se concentrera sur la création d’une nouvelle génération de systèmes d’IA superintelligents en développant des « modèles du monde ». Ces systèmes sont capables de comprendre le monde physique et trouvent des applications dans des domaines variés comme la robotique et les transports.

Depuis Paris, elle s’appuiera sur les travaux menés par LeCun chez Meta, portant sur une nouvelle architecture d’IA capable d’apprendre à partir de vidéos et de données spatiales plutôt que simplement à partir du langage, tout en disposant d’une mémoire persistante et de capacités de raisonnement et de planification d’actions complexes.

The post AMI Labs : la startup de Yann LeCun lève des fonds appeared first on Silicon.fr.

  •  

Pourquoi OpenAI recrute George Osborne ?

Le créateur de ChatGPT frappe un grand coup dans sa stratégie d’expansion internationale. avec le recrutement de George Osborne, ex-chancelier de l’Échiquier britannique, pour diriger « OpenAI for Countries ».

L’architecte du programme d’austérité du gouvernement conservateur britannique a pour  mission de piloter l’ensemble des projets de déploiement de l’IA avec les États étrangers, du développement d’infrastructures aux applications dans l’éducation et la formation.

Des accords déjà conclus, 50 pays en discussion

OpenAI for Countries est le volet international de Stargate, l’ambitieux projet de 500 milliards $ lancé début 2025 par Sam Altman aux côtés de Masayoshi Son (SoftBank) et Larry Ellison (Oracle) lors d’un événement à la Maison Blanche.

Depuis son lancement en mai dernier, OpenAI a signé des accords au Royaume-Uni et en Norvège. Elle affirme être en négociation avec une cinquantaine de pays pour les aider à développer une « IA souveraine » respectant les principes démocratiques, notamment la liberté d’expression, les marchés libres et la prévention de la collecte massive de données gouvernementales.

Le recrutement de George Osborne, qui sera basé à Londres, intervient quelques mois après l’embauche par Anthropic, de Rishi Sunak, autre ancien chancelier et Premier ministre conservateur britannique, comme conseiller en octobre dernier.

 

The post Pourquoi OpenAI recrute George Osborne ? appeared first on Silicon.fr.

  •  
❌