Vue lecture

Yann LeCun quitte Meta : les coulisses d’une rupture

C’est au restaurant étoilé Pavyllon, à deux pas du Grand Palais parisien, que Yann LeCun s’est confié au Financial Times dans le cadre de sa série « Lunch with the FT ».

Attablé pour un déjeuner de trois heures et demie, le chercheur français de 64 ans a expliqué sans détour pourquoi il a décidé de quitter Meta après onze ans de bons et loyaux services. « Rester est devenu politiquement difficile », confie-t-il. Une litote pour décrire une rupture qui révèle les tensions croissantes au sein du groupe californien sur la direction à prendre en matière d’IA.

LLM : un modèle en fin de course

Au cœur du conflit : une divergence fondamentale sur l’avenir technologique de l’intelligence artificielle. LeCun, prix Turing et figure tutélaire du deep learning, ne croit pas aux grands modèles de langage comme voie vers la superintelligence. Pour lui, les LLM sont utiles mais limités, contraints par le langage seul. Une conviction qui détonne dans une Silicon Valley obsédée par cette approche.

Le problème ? Meta vient justement de miser massivement sur cette technologie. Après le lancement de ChatGPT fin 2022, l’entreprise a réorganisé ses équipes autour de Llama, son propre modèle de langage.

Le tournant s’opère véritablement en 2025. Mark Zuckerberg, déçu par les performances de Llama 4, décide de frapper fort. Il investit 15 milliards $ dans Scale AI et embauche son patron, Alexandr Wang, 28 ans, pour diriger le nouveau laboratoire de recherche TBD Lab. Une décision qui place ce jeune entrepreneur à la tête de l’unité de recherche en IA de Meta. Ses nouvelles recrues, attirées à coups de primes pouvant atteindre 100 millions $, sont selon LeCun « complètement convaincues par les LLM ».

LeCun se retrouve ainsi managé par quelqu’un qu’il qualifie de « jeune » et « inexpérimenté ». S’il reconnaît que Alexandr Wang apprend vite, il souligne son manque d’expérience en matière de recherche fondamentale. « On ne dit pas à un chercheur ce qu’il doit faire. On ne dit certainement pas à un chercheur comme moi ce qu’il doit faire », lance-t-il.

La communication se dégrade également avec l’unité IA générative. LeCun regrette que ses équipes proposent des innovations ambitieuses quand la direction ne retient que des projets éprouvés et sans risque. Une prudence qui, selon lui, conduit l’entreprise à prendre du retard.

Une organisation bouleversée

Plus profondément, LeCun refuse de renier ses convictions scientifiques. Certains chez Meta aimeraient qu’il cesse de proclamer publiquement que les LLM constituent une impasse pour atteindre la superintelligence. Mais le chercheur ne transige pas : « Je ne vais pas changer d’avis parce qu’un type pense que j’ai tort. Je n’ai pas tort. Mon intégrité de scientifique ne me le permet pas. »

Cette inflexibilité s’explique aussi par sa vision alternative : les modèles du monde, ou world models, qu’il développe depuis des années. Cette architecture baptisée V-JEPA vise à donner aux machines une compréhension du monde physique en apprenant à partir de vidéos, et non uniquement du langage. Une approche qui intéresse davantage l’industrie lourde et l’aéronautique que les réseaux sociaux.

Cap vers AMI Labs

LeCun prépare désormais son prochain chapitre : Advanced Machine Intelligence Labs, une start-up qui incarnera sa vision de l’intelligence artificielle avancée. Il y occupera le poste de président exécutif, laissant la direction opérationnelle à Alex LeBrun, cofondateur de la startup française Nabla. Une structure qui lui permettra de conserver la liberté de recherche qu’il chérissait chez Meta. Pourquoi ne doit pas prendre le rôle de CEO ?  « Je suis à la fois trop désorganisé et trop vieux ! » confie Yann LeCun.

Le chercheur promet des premières versions de sa technologie dans les douze mois. Pas encore la superintelligence, mais un chemin vers celle-ci. Emmanuel Macron lui-même aurait manifesté sa satisfaction de voir cette nouvelle entreprise mondiale maintenir des liens étroits avec la France.

Après des décennies passées à façonner l’IA moderne, Yann LeCun entame donc un nouveau cycle. Son ambition ? Augmenter la quantité d’intelligence dans le monde. « L’intelligence, c’est vraiment ce dont nous devrions avoir davantage », affirme-t-il.

Photo : © DR

The post Yann LeCun quitte Meta : les coulisses d’une rupture appeared first on Silicon.fr.

  •  

Gouvernance des données : pourquoi il devient difficile de choisir une solution

En se connectant aux agents IA embarqués, les solutions de gouvernance des données se rapprochent des applications métier.

Gartner signale cette tendance dans le cadre de son Magic Quadrant. Les acquisitions d’Informatica par Salesforce et de data.world par ServiceNow y font écho, estime-t-il.

Le cabinet américain relève d’autres marqueurs d’évolution du marché de la data governance. La gestion des données non structurées en fait partie. Avec l’IA en ligne de mire, les fonctionnalités se sont développées jusqu’à la vectorisation.

Convergences et chevauchements

Il y a un an, Gartner avait déclaré que la notion de plate-forme restait émergente sur ce marché. Historiquement axés sur l’exécution des politiques de gouvernance plus que sur leur mise en œuvre (data stewardship), les outils manquaient encore de liant, observait-il.

Son propos est moins affirmatif cette année. Mais au fond, le constat demeure : en pratique, plusieurs solutions autonomes sont souvent utilisées en parallèle (sécurité, qualité, confidentialité de la donnée, etc.). Elles occasionnent parfois des chevauchements fonctionnels.

Ces chevauchements sont accentués par l’évolution d’applications telles que les ERP et les CRM/CDP, qui en viennent à inclure des fonctionnalités de gouvernance des données. Ils le sont aussi par l’évolution du data management. Lequel, en connectant les silos de données par des approches comme le data mesh et la data fabric, devient plus à même d’automatiser cette gouvernance à l’appui de machine learning et de modèles sémantiques.

L’IA agentique, un discours plus qu’un état de fait

La hype autour de l’IA a ajouté à la confusion, menant nombre de fournisseurs de solutions classées dans la catégorie data management à prétendre pouvoir « automatiser la gouvernance ». C’est exagéré, avertit Gartner : au mieux, cette automatisation touche des tâches spécifiques comme la découverte d’entités ou la remédiation.

Même avertissement quant au discours sur la gouvernance à renfort d’agents IA : on le prendra comme une promesse – celle d’automatiser les workflows alimentés par les métadonnées actives* – plutôt qu’un état de fait.

La gouvernance de l’IA s’est développée plus nettement, avec l’arrivée de capacités natives (workflows d’approbation automatisés, gestion du cycle de vie des modèles, évaluation continue du risque et des biais, reporting réglementaire…). En toile de fond, la concurrence d’autres types de solutions (cybersécurité, GRC…).

* La plupart des fournisseurs classés dans le Magic Quadrant de la data governance le sont aussi dans celui de la gestion des métadonnées. Les solutions relevant de ce marché visent toutefois plus large. Il y a celles « orientées data » et celles « orientées gouvernance ». Les premières s’adressent généralement à un public plus technique que les secondes, nécessitent moins d’extensibilité et ciblent la gestion des politiques plutôt que leur exécution.

Illustration © kwanchaift – Adobe Stock

The post Gouvernance des données : pourquoi il devient difficile de choisir une solution appeared first on Silicon.fr.

  •  

Via l’agentique, la gouvernance des données se rapproche des applications métier

En matière de gouvernance des données, qu’est-ce qu’un déploiement « à grande échelle » ? Dans le cadre du Magic Quadrant dédié à ce marché, Gartner a défini trois planchers : 500 utilisateurs, 50 sources et 1000 assets.

Pour être classés, les fournisseurs devaient être en mesure de revendiquer au moins 10 de ces déploiements. Il fallait aussi, entre autres, figurer dans le top 25 sur un indice maison : le CII (Customer Impact Index). Il est calculé à partir d’éléments tels que le volume de recherches sur le site web de Gartner, le nombre de mentions dans ses Peer Insights, les tendances sur Google Search et le nombre d’abonnés sur X/LinkedIn.

AWS et Google, cités mais non classés

Ce dernier critère a coûté leur place à plusieurs offreurs néanmoins crédités d’une « mention honorable » : parmi eux, Anjana Data et Global Data Excellence, tous deux classés dans l’édition précédente de ce Magic Quadrant.

Au rang des « mentions honorables », il y a aussi AWS et Google. Chez le premier, on obtient une solution de gouvernance data & analytics en associant les briques SageMaker, SageMaker Catalog et AWS Glue. Mais elle ne répond pas à l’un des critères fonctionnels exigés : l’extensibilité native entre environnements cloud. Avec Dataplex Universal Catalog, Google en propose bien une, mais elle dépend de fournisseurs tiers comme Collibra et Informatica.

15 fournisseurs, 5 « leaders »

D’une année sur l’autre, les catalogues de données ont évolué vers des « catalogues d’insights » permettant de rechercher des produits data. Ils se sont aussi rapprochés des applications métier sous le prisme de l’IA agentique (en se connectant aux agents embarqués). Dans ce contexte sont intervenues deux acquisitions notables : Informatica par Salesforce et data.world par ServiceNow.

De 3 « leaders » l’an dernier, on est passé à 5 : Alation et Atlan ont rejoint Collibra, IBM et Informatica.

Sur l’axe « exécution », qui traduit la capacité à répondre effectivement à la demande du marché, la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 IBM + 1
2 Collibra + 1
3 Microsoft nouvel entrant
4 Atlan + 1
5 Informatica – 4
6 Alation =
7 BigID nouvel entrant
8 Alex Solutions – 1
9 Ab Initio + 4
10 Ataccama – 2
11 ServiceNow (data.world) =
12 Precisely – 8
13 DataGalaxy – 4
14 OvalEdge – 2
15 Solidatus – 1

Sur l’axe « vision », qui reflète les stratégies (commerciale, marketing, sectorielle, géographique…) :

Rang Fournisseur Évolution annuelle
1 Collibra + 2
2 Informatica – 1
3 IBM – 1
4 Atlan =
5 Alation =
6 ServiceNow =
7 Alex Solutions =
8 Precisely + 4
9 Microsoft nouvel entrant
10 BigID nouvel entrant
11 Ab Initio + 2
12 Ataccama – 4
13 OvalEdge – 2
14 DataGalaxy – 4
15 Solidatus – 1

Alation, pas encore mature sur la déclaration de politiques pour les produits data

Alation se distingue par le niveau d’ouverture de sa plate-forme, qui favorise la portabilité et met l’accent sur la flexibilité d’hébergement des données. Bon point également pour l’usage de l’IA, notamment pour la gestion de politiques, les contrôles de qualité des données et le dépannage. Gartner apprécie aussi l’écosystème de partenaires, qui favorise l’interopérabilité dans les environnements data & analytics.

On prendra garde aux efforts de gestion du changement et de montée en compétence que suppose l’adoption de fonctionnalités avancées tel le constructeur de produits data. Vigilance également sur les capacités natives de déclaration de politiques au niveau de ces mêmes produits data : elles ne sont sont pas aussi matures que chez la concurrence. Attention aussi au fait que certains modules (data quality, par exemple) ne sont livrés par défaut qu’avec la version cloud.

Chez Atlan, un point d’interrogation sur les déploiements à grande échelle

Gartner apprécie l’architecture de la solution, fondée sur un cœur Apache Iceberg qui favorise l’exploitation des métadonnées. Il salue également les outils fournis pour développer des connecteurs et des agents de gouvernance. Ainsi que, plus globalement, la dynamique commerciale d’Atlan (croissance de la base client et des revenus supérieure à celle des concurrents).

En natif, Atlan ne propose pas de profilage avancé des données ni de workflows de data quality (il s’appuie sur des partenaires comme Anomalo et Ataccama). Autre élément : les options de déploiement sur site et en cloud privé sont limitées. Par ailleurs, près des trois quarts des clients ne sont pas des grandes entreprises ; des clients déplorent d’ailleurs des performances réduites sur les déploiements à grande échelle.

Des écarts entre SaaS et on-prem chez Collibra…

Gartner apprécie le positionnement de Collibra en « plan de contrôle unifié » avec modèles natifs de data quality et d’observabilité. Il salue aussi l’écosystème de partenaires (AWS, Google, Infosys, Snowflake…) et le niveau de gouvernance de l’IA (la plate-forme fonctionne comme un registre documentant les modèles et mettant automatiquement en œuvre les politiques).

La parité fonctionnelle n’est pas systématique entre les modes de déploiement (la version SaaS sur AWS et GCP est la mieux dotée). Quant au modèle data quality/observabilité, il lui manque des fonctionnalités comme la supervision des données en flux et la déduplication. Attention aussi aux efforts nécessaires pour arriver à « maturité opérationnelle » avec la solution.

… comme chez IBM

Comme Alation, IBM a pour lui le niveau d’ouverture de sa solution, jugée adaptée aux environnements hybrides. Il se distingue aussi sur le niveau d’unification et de cohérence de la gouvernance entre data et IA. Ainsi que sur l’exécution de cas d’usages pertinents dans des domaines comme l’aide agentique à la gestion des tâches et la curation de données non structurées.

Comme chez Collibra, les produits SaaS et on-prem ne sont pas à parité fonctionnelle. Il y a aussi des écarts entre packages (par exemple, IBM Knowledge Catalog Standard ne donne pas accès à la gestion des règles, au contraire de watsonx.data intelligence). La migration depuis InfoSphere reste un défi, d’autant plus que le support à la gestion du changement manque. Attention aussi aux compétences nécessaires pour déployer la solution, la personnaliser et la passer à l’échelle.

Informatica, une feuille de route à surveiller sous l’ère Salesforce

Informatica est salué pour l’étendue de son catalogue d’intégrations et de ses partenariats avec les CSP. Il l’est aussi sur le volet automatisation, pour l’assistant CLAIRE Copilot et le moteur CLAIRE GPT (accès aux données en langage naturel). Gartner souligne également sa santé financière, son niveau d’investissement R&D et sa tarification flexible.

Si le modèle PaaS fluidifie le déploiement, un support additionnel peut se révéler nécessaire pour en tirer la valeur en fonction de la maturité du client. Attention aussi, d’une part, aux problèmes de disponibilité que peuvent poser les pannes chez les CSP partenaires. De l’autre, à l’évolution de la stratégie sour l’ère Salesforce.

Illustration © TensorSpark – Adobe Stock

The post Via l’agentique, la gouvernance des données se rapproche des applications métier appeared first on Silicon.fr.

  •  

Apple et Google scellent une alliance stratégique majeure dans l’IA

C’est la fin du suspense sur la stratégie IA d’Apple. L’inventeur de l’iPhone a officialisé un accord stipulant que les modèles Gemini alimenteront la prochaine génération d’Apple Intelligence et le Siri entièrement remanié prévu pour fin 2026.

Le deal, qui prolonge leur collaboration historique sur la recherche (search), replace Google face à OpenAI dans la course à l’IA générative, avec un accès privilégié à plus de deux milliards d’appareils Apple actifs.

Gemini, socle technologique de l’IA pour Apple

Apple a tranché après évaluation en faveur de la technologie de Mountain View, jugeant que « la technologie d’intelligence artificielle de Google offrait la base la plus performante » pour ses modèles Apple Foundation. Ces briques logicielles alimenteront non seulement Siri, mais également l’ensemble des fonctionnalités futures d’Apple Intelligence.

Les termes financiers de l’accord restent confidentiels, mais des sources industrielles évoquent un montant de 1 milliard $ annuel.

Cette décision relègue ChatGPT, intégré de manière optionnelle fin 2024, à un rôle de simple complément pour les requêtes les plus complexes. Un camouflet pour OpenAI, dont le PDG Sam Altman a déclenché un « code red » interne face à la montée en puissance de Gemini 3. Comme le souligne Parth Talsania d’Equisights Research, ce choix  « rétrograde OpenAI en rôle secondaire », transformant ChatGPT en solution d’appoint plutôt qu’en fondation stratégique.

« Apple Intelligence continuera de fonctionner sur les appareils Apple et sur le cloud privé, tout en préservant les normes de confidentialité de pointe d’Apple » assure les deux groupes. L’architecture retenue permet à Apple de conserver le contrôle total de l’intégration, de l’orchestration et de l’interface utilisateur, limitant ainsi l’accès de Google aux données brutes de ses clients.

Gemini sur plus de 2 milliards de terminaux

Pour Google, l’enjeu dépasse largement la question financière. Gemini devient le standard de facto sur mobile grâce aux partenariats Apple et Samsung (déjà intégré dans Galaxy AI), ce qui booste mécaniquement les revenus cloud et enrichit les données d’entraînement. La valorisation boursière d’Alphabet a d’ailleurs franchi le cap symbolique des 4 000 milliards $, portée par une hausse spectaculaire de 65% en 2025 sur fond d’optimisme autour de l’IA.

Pour Apple, c’est une bouée de sauvetage stratégique qui accélère brutalement le rattrapage. Retardataire notoire sur l’IA générative, il a accumulé les déboires : reports successifs de la mise à niveau de Siri (décalée à 2026), départs d’exécutifs clés comme John Giannandrea et accueil tiède pour ses premiers outils d’intelligence artificielle.

L’accord avec Google permet d’accélérer brutalement le rattrapage en évitant des années de recherche et développement solitaire, tout en capitalisant sur un partenariat existant qui génère déjà des dizaines de milliards $ annuels via le trafic de recherche.

Ce deal risque toutefois d’attirer l’attention des autorités antitrust, déjà mobilisées sur les contrats d’exclusivité dans la recherche. L’extension au domaine de l’IA pourrait déclencher de nouvelles enquêtes sur les pratiques anticoncurrentielles.

Illustration : image générée par l’IA

The post Apple et Google scellent une alliance stratégique majeure dans l’IA appeared first on Silicon.fr.

  •  

Open source : la perspective d’une nouvelle stratégie européenne fait réagir

Vu nos relations actuelles avec les États-Unis, il est peut-être temps d’amender, si ce n’est supprimer, l’article 6 de la directive copyright.

Cette suggestion revient régulièrement dans les réponses à un appel à témoignages lancé par la Commission européenne. L’initiative est censée préfigurer une nouvelle stratégie open source pour l’UE. Il est question de la publier parallèlement au CAIDA (Cloud and AI Development Act)*, pour lequel une consultation publique a déjà été organisée.

Face à la directive copyright, l’argument souverain

Bruxelles sollicite des informations concernant :

  • Les forces et faiblesses de ce secteur, notamment les barrières à l’adoption et aux contributions
  • Sa valeur ajoutée pour le public et le privé
  • Les mesures à prendre pour en soutenir le développement
  • Les domaines technologiques à prioriser
  • Le potentiel de gain en compétitivité et en cyberrésilience pour les secteurs économiques

L’appel à témoignages est ouvert jusqu’au 3 février 2026. En une semaine, il a réuni quelque 350 réponses – un volume notable en comparaison à d’autres consultations. Elles sont, donc, nombreuses à mentionner le fameux article 6 de la directive copyright (de 2001). Il a pour effet, entre autres, de criminaliser la rétroingénierie de certaines technologies.

S’en passer permettrait aux entreprises européennes de développer des outils simplifiant le basculement vers l’open source depuis des solutions propriétaires, note un des répondants. D’autres expliquent que cela permettrait de rendre des plates-formes conformes au DMA. Ou de réduire le risque géopolitique en pouvant reprendre la main sur une technologie à laquelle l’accès serait coupé.

Taxer l’usage de l’open source ?

Certains témoignages visent des technos spécifiques, invitant par exemple à soutenir le projet de BIOS ouvert coreboot ou à remplacer HDMI par DisplayPort sur les téléviseurs. D’autres se concentrent sur les mécanismes de financement. Ils vont jusqu’à proposer de taxer l’usage de l’open source par les grandes entreprises du numérique – mettant ces ressources sur le même plan que les infrastructures financées par l’argent public.

Autre recommandation : obliger les éditeurs à publier le code source de toute version de logiciel pour laquelle ils ne fournissent plus de support ; et, éventuellement, qu’ils n’en tirent plus de revenus.

Quant aux domaines à prioriser, certains conseillent les dépôts de code, puisque les projets open source en dépendent. D’autres incitent, pêle-même, à se focaliser sur les projets qui souhaitent passer des certifications de conformité ou à ceux qui se focalisent sur l’intégration de multiples composantes open source au sein de systèmes.

Du côté de la Commission européenne, on se félicite que certaines initiatives aient « porté leurs fruits ». Sont cités NGI (Next Generation Internet), GenAI4EU (pour faire émerger des pionniers de l’IA générative), le Chips Act (plus particulièrement, l’investissement sur RISC-V consenti dans ce cadre), le framework FIWARE (destiné au développement de plates-formes de gestion de données), et le programme Simpl (soutien de middlewares pour les data spaces). Bruxelles rappelle aussi la création du DC-EDIC (consortium pour les communs numériques).

* Cette proposition d’acte législatif – dont la nature n’est pas déterminée à date – porte principalement deux objectifs. D’une part, lever des barrières à l’accroissement de la capacité de calcul disponible dans l’UE. De l’autre, aider au développement d’une offre compétitive de services cloud.

Illustration générée par IA

The post Open source : la perspective d’une nouvelle stratégie européenne fait réagir appeared first on Silicon.fr.

  •  

Harmattan AI : la pépite française de l’IA de défense devient licorne

À peine neuf mois après sa création, Harmattan AI, spécialisée dans les systèmes autonomes de défense dopés à l’intelligence artificielle vient de boucler une levée de fonds de 200 millions $ en série B, portant sa valorisation à 1,4 milliard $.

Une opération menée par Dassault Aviation qui propulse la jeune pousse au rang de première licorne française de l’armement.

Dassault Aviation mise gros sur l’autonomie

En prenant la tête de ce tour de table aux côtés d’investisseurs financiers déjà présents, l’avionneur français ne se contente pas d’un pari financier. Il s’offre un partenaire stratégique pour ses futurs programmes aériens.

Harmattan AI est désormais positionnée pour développer les « fonctions d’IA embarquées » du Rafale F5, ainsi que les systèmes aériens inhabités (UCAS) qui accompagneront les chasseurs de sixième génération du SCAF (Système de combat aérien du futur).

Ce rapprochement s’inscrit dans une stratégie plus large orchestrée avec Thales et l’Agence ministérielle pour l’IA de défense (AMIAD) : bâtir une intelligence artificielle de combat souveraine, capable de rivaliser avec les géants américains et chinois.

Licorne en moins d’un an

Fondée en avril 2024 par Mouad M’Ghari et Martin de Gourcuff, Harmattan AI  développe une gamme complète de systèmes autonomes intégrés : drones de frappe et de surveillance, plateformes de commandement et briques logicielles d’IA embarquée. Son approche « full stack » ( maîtrise du hardware comme du software) séduit les états-majors.

Les succès commerciaux se sont enchaînés à une vitesse inédite dans un secteur réputé pour ses cycles décisionnels interminables. Un contrat emblématique avec la Direction générale de l’armement (DGA) pour plusieurs milliers de drones, destinés notamment à l’exercice militaire Orion 2026, puis une commande de l’armée britannique pour des drones d’entraînement. De quoi valider le modèle et attirer l’attention des industriels historiques.

Avec cette manne de 200 millions $, Harmattan AI vise une montée en cadence spectaculaire pour atteindre une production de plusieurs dizaines de milliers de drones par mois à court terme. Un objectif qui nécessitera de muscler considérablement l’appareil industriel et les chaînes d’approvisionnement.

Les fonds serviront également à étendre le déploiement de ses algorithmes d’IA à de nouveaux théâtres d’opérations : défense aérienne multi-niveaux, interception de drones, guerre électronique. L’entreprise compte renforcer massivement ses équipes de R&D et d’ingénierie logicielle pour tenir la cadence technologique face à une concurrence internationale qui s’intensifie.

La French Tech défense entre en scène

L’entrée d’Harmattan AI dans le club des licornes marque un tournant pour l’écosystème français de la défense. Longtemps dominé par les grands industriels historiques, le secteur voit émerger une nouvelle génération de startups qui articulent souveraineté, IA et capacité de production à grande échelle. À l’image d’Helsing en Allemagne ou d’Anduril aux États-Unis, ces jeunes pousses bousculent les codes et les positions établies.

Cette évolution reflète un changement doctrinal profond. Les armées françaises et européennes intègrent désormais pleinement les startups dans la chaîne de valeur de l’armement, conscientes que l’innovation de rupture vient souvent de l’extérieur des grands programmes étatiques. Le soutien de l’AMIAD et les nouvelles modalités d’achats publics facilitent ces rapprochements.

Reste désormais à transformer l’essai industriel. Car dans ce domaine ultra-exigeant où la fiabilité opérationnelle est non négociable, le passage de la startup prometteuse au fournisseur stratégique des armées constitue un marathon autrement plus redoutable qu’une levée de fonds, aussi spectaculaire soit-elle.

Image : © DR

The post Harmattan AI : la pépite française de l’IA de défense devient licorne appeared first on Silicon.fr.

  •  

GenAI : l’Autorité de la concurrence bascule en aval de la chaîne

Dans son analyse du secteur de l’IA générative, l’Autorité de la concurrence va désormais voir en aval. Elle s’est effectivement autosaisie pour se pencher sur les chatbots.

En la matière, le paysage concurrentiel apparaît dynamique, avec la présence de plusieurs acteurs, note-t-elle. Mais les derniers développements montrent que les chatbots pourraient avoir un impact sur le fonctionnement de plusieurs secteurs-clés de l’économie.

L’autorité entend examiner cet aspect en s’intéressant notamment au commerce agentique. La relation entre chatbots et moteurs de recherche n’est en revanche pas dans le champ d’analyse, précise-t-elle.

Le volet énergétique et environnemental, déjà analysé

Son premier avis sur le secteur avait été publié en juin 2024. Il traitait essentiellement de l’amont de la chaîne de valeur. Y furent soulignés, entre autres, la dépendance envers CUDA, le verrouillage potentiel inhérent à l’octroi de crédits cloud pour les start-up de la GenAI et les risques en termes d’accords de non-débauchage et de fixation de salaires.

Plus récemment (mi-décembre 2025), l’autorité a rendu ses conclusions sur un autre sujet : les enjeux concurrentiels liés à l’impact énergétique et environnemental de l’IA. Son analyse suit 3 axes :

  • Difficultés d’accès au réseau électrique et incertitudes sur le prix de l’énergie
  • Montée en puissance des services d’IA frugaux
  • Standardisation, notamment des méthodes de détermination d’empreinte environnementale

Sur l’accès au réseau électrique

L’autorité constate que si l’inférence demeure sensible à la latence, la phase d’entraînement offre davantage de flexibilité en matière d’implantation géographique.
Elle aborde aussi la fin du dispositif d’accès régulé à l’électricité nucléaire historique (ARENH). Lui succède un système dual. D’un côté, la redistribution des bénéfices d’EDF aux consommateurs finaux via un versement nucléaire universel (VNU ; en cours d’examen parlementaire). De l’autre, le développement, par EDF, de contrats d’allocation de long terme adossés à la production nucléaire (CAPN).

Plusieurs opérateurs de datacenters ont passé des commandes sur le fondement des CAPN. L’Autorité de la concurrence surveille ces contrats, craignant qu’ils donnent lieu à des comportements verrouillant le marché des consommateurs grands industriels. Elle entend plus globalement veiller à l’absence de barrières à l’entrée ou à l’expansion pour les acteurs « de taille modeste ». Et reste attentive à la potentielle entrée des grands acteurs du numérique en tant qu’offreurs sur les marchés de l’énergie, surtout à l’étranger.

Sur l’IA frugale

L’autorité estime que la montée en puissance des services d’IA frugaux pourrait favoriser l’émergence de solutions compétitives sur le plan tarifaire. Et ainsi permettre aux fameux acteurs « de taille modeste » de rivaliser avec les grands du secteur. La concurrence pourrait aussi être affectée par le prisme de la qualité, au sens où l’IA s’adapterait à des déploiements moins importants utilisant éventuellement des infrastructures existantes.

Il existe un risque que des acteurs adoptent, de manière coordonnée ou non, et y compris involontairement, des comportements trompeurs qui ne reposeraient pas sur des méthodologies robustes en termes scientifiques. Ou bien qu’ils fassent en sorte de limiter l’innovation ou de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande.

Sur la standardisation

La standardisation des méthodes de détermination d’empreinte environnementale est fondamentale pour garantir une concurrence sur la base des mérites, déclare l’autorité.

Elle mentionne deux documents – le référentiel général d’écoconception Arcep/Arcom et celui sur l’IA frugale porté par l’Afnor – et appelle à les voir comme la préfiguration d’une normalisation à l’échelle européenne voire internationale. Mais reste vigilante concernant, en particulier :

  • Adoption d’outils sans méthodologie sous-jacente robuste
  • Conditions privant des acteurs du bénéfice de la standardisation ou empêchant l’expression de la frugalité comme paramètre de concurrence
  • Comportements empêchant cette standardisation ou ralentissant son élaboration
  • Découragement des acteurs à aller plus loin que ce que propose la standardisation

Illustration générée par IA

The post GenAI : l’Autorité de la concurrence bascule en aval de la chaîne appeared first on Silicon.fr.

  •  

Anthropic lance son offensive dans la santé avec Claude

Quelques jours seulement après l’annonce de son rival OpenAI, Anthropic réplique avec « Claude for Healthcare ».

La scale-up basée à San Francisco vient de dévoiler son offensive dans le secteur lucratif de la santé en annonçant que son chatbot Claude était désormais conforme à la norme HIPAA (Health Insurance Portability and Accountability Act). Un sésame réglementaire indispensable aux États-Unis pour permettre aux hôpitaux et prestataires de soins de manipuler des données de santé protégées.

Un hub de données personnelles sous conditions

Avec Claude for Healthcare, l’ambition d’Anthropic ne s’arrête pas aux couloirs des hôpitaux. Côté grand public, l’entreprise permet désormais à ses utilisateurs d’exporter leurs données de santé depuis des applications comme Apple Health ou Function Health. L’objectif est d’ aider les particuliers à centraliser leurs dossiers médicaux pour mieux les partager avec leurs médecins.

Toutefois, cette intégration directe est actuellement réservée aux utilisateurs basés aux États-Unis, où le cadre HIPAA prévaut. Pour les utilisateurs européens, si l’accès à Claude est disponible, l’importation automatisée de données biométriques reste soumise aux évolutions de la conformité locale (RGPD).

Claude intègre désormais des bases de données scientifiques (comme PubMed ou le registre NPI) pour étayer ses réponses par des citations vérifiables. Un argument de poids pour rassurer des cliniciens échaudés par les risques de désinformation liés à l’IA.

« L’IA est prête à avoir un impact majeur sur l’économie globale, dès lors que vous faites ce qu’il faut sur le plan réglementaire et des données », défend Mike Krieger, Chief Product Officer d’Anthropic, en garantissant qu’il n’utilisera pas les données de santé de ses utilisateurs pour entraîner ses modèles.

Une bataille de géants pour le « care »

Si le marché est colossal, la concurrence féroce. Selon Anthropic, Claude séduit déjà des géants comme le système de santé à but non lucratif Banner Health où 22 000 prestataires l’utilisent, mais aussi le groupe pharmaceutique Novo Nordisk ou le centre hospitalier universitaire Stanford Health Care.

Alors que des discussions sont en cours pour une levée de fonds sur la base d’une valorisation stratosphérique de 350 milliards $, Anthropic doit prouver que l’IA peut non seulement automatiser le code informatique, un de ses points forts actuels, mais aussi transformer radicalement la recherche biologique. Le diagnostic ne fait que commencer.

Illustration : © DR

The post Anthropic lance son offensive dans la santé avec Claude appeared first on Silicon.fr.

  •  

Microsoft teste une GPO pour désinstaller Copilot

Les admins de parcs Windows 11 auront peut-être bientôt une méthode « officielle » pour désinstaller l’application Microsoft Copilot.

La dernière build (26220.7535) publiée sur les canaux dev et bêta inclut en tout cas une GPO RemoveMicrosoftCopilotApp.

Elle ne s’applique qu’à trois conditions.
Premièrement, que Microsoft 365 Copilot et Microsoft Copilot soient tous deux installés.
Deuxièmement, que l’application Microsoft Copilot n’ait pas été installée par l’utilisateur.
Troisièmement, que cette même application n’ait pas été lancée sur les 28 derniers jours.

L’utilisateur garde la possibilité de réinstaller Microsoft Copilot.

Une nouvelle fonctionnalité Copilot non disponible en Europe

Une autre nouveauté de la build 26220.7535 concerne Copilot. Plus précisément, son usage avec le Narrateur pour décrire des images.

Cette possibilité fut introduite l’an dernier sur les PC Copilot+, à base d’IA locale. Presser la touche Narrateur + Ctrl + S décrit l’image sélectionnée ; Narrateur + Ctrl + D décrit tout l’écran.

Les autres PC Windows 11 y ont désormais accès… moyennant une connexion Internet (utilisation de modèles distants). Une fonctionnalité que Microsoft juge suffisamment sensible pour ne pas la proposer, en l’état, dans l’Espace économique européen.

À consulter en complément :

Microsoft 365 Copilot : les leçons d’un test à grande échelle
Agent 365 : après l’orchestration, Microsoft promet l’encadrement de l’IA agentique
L’Agentic AI Foundation veut des standards de l’IA autonome
L’AI Factory, une grammaire désormais légitime chez AWS ?
Amazon vs Perplexity : un premier litige emblématique pour le commerce agentique

Illustration générée par IA

The post Microsoft teste une GPO pour désinstaller Copilot appeared first on Silicon.fr.

  •  

Gestion des terminaux : les solutions unifiées n’ont pas encore effacé les outils ad hoc

Les solutions de gestion unifiée des terminaux (UEM, Unified Endpoint Management) n’ont pas encore totalement comblé l’écart fonctionnel avec les outils ad hoc.

Gartner le souligne dans le premier Magic Quadrant qu’il dédie à ce marché. Cet écart se manifeste tant en termes de fiabilité que de rapidité et de granularité, explique le cabinet américain. D’où une tendance encore fréquente, du côté des acheteurs, à combiner les outils.

De la marge de progression, il y en a aussi sur l’aspect gestion autonome (AEM, Autonomous Endpoint Management). Pour le moment axée sur l’automatisation du patching, elle devrait s’étendre notamment à la gestion des configurations et des stratégies « dans les prochaines années ».

18 fournisseurs, 8 « leaders »

Les principaux critères à respecter sur le plan fonctionnel pour pouvoir figurer dans ce Magic Quadrant étaient les suivants (évalués au 1er août 2025) :

  • Disponibilité d’une version SaaS
  • Gestion, avec ou sans agent, de Windows, macOS, iOS/iPadOS et Android
  • Support natif de l’enregistrement/provisionnement d’appareils, du déploiement d’applications, de la gestion des mises à jour et de la mise en œuvre de configurations/stratégies
  • Contrôle d’accès basé sur les rôles

Il n’était pas obligatoire de gérer Chrome OS, Linux et l’IoT. Ni de fournir des composantes MDM/MAM, DEX (gestion de l’expérience employé numérique) ou des intégrations ITSM/CMDB. La fourniture d’un app store d’entreprise n’était pas non plus impérative. Même chose pour l’automatisation du patching des apps tierces et la possibilité de personnaliser le reporting.

En complément aux critères fonctionnels, il fallait couvrir au moins 5 millions d’endpoints actifs, hors offres gratuites (périodes d’essai, freemium, etc.). Addigy, Applivery, Automox, Fleet, Hexnode, Iru, Matrix42 et Scalefusion n’atteignaient pas ce seuil. Gartner leur a cependant attribué une « mention honorable ».

Les 18 fournisseurs classés le sont sur deux axes. L’un, dit « exécution », reflète la capacité à répondre effectivement à la demande du marché (expérience client, qualité des produits/services…). L’autre est centré sur les stratégies (commerciale, marketing, sectorielle, géographique…).

La situation sur l’axe « exécution » :

Rang Fournisseur
1 Microsoft
2 Tanium
3 NinjaOne
4 HCLSoftware
5 Jamf
6 Omnissa
7 Adaptiva
8 ManageEngine
9 IBM
10 42Gears
11 Ivanti
12 Atera
13 N-able
14 Kaseya
15 Google
16 Absolute Security
17 Samsung Electronics
18 Raynet

Sur l’axe « vision » :

Rang Fournisseur
1 Tanium
2 Omnissa
3 Microsoft
4 Adaptiva
5 Ivanti
6 HCLSoftware
7 IBM
8 NinjaOne
9 Jamf
10 Atera
11 ManageEngine
12 42Gears
13 Absolute Security
14 N-able
15 Kaseya
16 Raynet
17 Samsung Electronics
18 Google

Adaptiva, connu surtout comme un complément aux solutions Microsoft

Avec son offre OneSite (licence par appareil), Adaptiva est salué sur le volet automatisation ; et plus globalement pour les capacités de gestion à grande échelle qu’il propose, entre livraison P2P et intégration avec les outils d’entreprise. L’exhaustivité de ses partenariats éditeurs (CrowdStrike, Microsoft, SentinelOne, Tenable…) lui vaut aussi un bon point. Comme sa roadmap, jugée bien alignée sur la demande.

Si le produit ne manque pas de notoriété en tant que « compagnon » pour les solutions Microsoft, on ne peut pas en dire autant de la version autonome. Attention aussi à l’absence de MDM pour Android et iOS, tandis que sur les plates-formes prises en charge, l’enregistrement d’appareils doit passer par un client local. Adaptiva est par ailleurs en transition vers un modèle essentiellement indirect, ce qui est susceptible de limiter sa croissance à court terme.

Le SaaS de HCLSoftware, pas au niveau de la version on-prem

HCLSoftware a intégré son offre BigFix Workspace+ (licence par utilisateur ou par appareil) à un grand nombre de solutions ITOps et de sécurité/gestion des identités (Azure, Qualys, Rapid7, ServiceNow, Tenable…). Gartner salue aussi son réseau de revendeurs et de MSP. Ainsi que sa santé financière (marges importantes, croissance continue sur plusieurs segments) qui contribue à réduire le risque pour le client final.

Le SaaS n’est pas à parité avec la version sur site : des fonctionnalités ou des modules disponibles sur l’un ne sont pas encore pleinement configurables sur l’autre. Sur l’aspect expérience client, l’UI et le paramétrage ne font pas l’unanimité. Attention aussi à d’éventuelles modifications du modèle de licence à l’heure où HCLSoftware bascule vers une approche « service as software ».

IBM, plus cher et moins « focus »

Dans l’offre MaaS360 (licence par utilisateur et par appareil), Gartner apprécie la diffusion de la GenAI et du machine learning, entre détection des menaces et recommandation de stratégies. Il note aussi la couverture mondiale des équipes d’IBM et la flexibilité des options de déploiement. Ainsi que les fonctionnalités – scoring de risque, conformité continue… – qui favorisent la gestion autonome.

Manquant de notoriété hors de la partie MDM, l’offre MaaS360 n’est pas le focus d’IBM. Ce dernier ne cible par ailleurs pas de profils d’utilisateurs (personas) et propose une tarification plus élevée que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Jamf, encore largement Apple-centric

L’outil Jamf (licence par appareil) est reconnu comme un gold standard pour la gestion des appareils Apple. Fonctionnellement parlant, il se distingue notamment sur la profondeur de prise en charge de macOS. Gartner salue aussi le « contenu engageant » constitué autour de cette offre et la diversité des canaux par lesquels il est livré.

Le focus historique sur l’écosystème Apple a nécessairement limité le potentiel de croissance, tout en engendrant une certaine dépendance. Jamf a fini par s’ouvrir à Android, mais la démarche est récente. Au dernier pointage, l’entreprise n’est pas rentable (en normes comptables GAAP).

Problèmes de fiabilité chez Microsoft

Intune est le choix par défaut de beaucoup de clients Microsoft. Sa notoriété est d’autant plus importante que l’éditeur produit quantité de contenus à son sujet et les diffuse efficacement. Autre avantage : un effectif qui permet une livraison différenciée entre secteurs économiques et régions géographiques, avec de la flexibilité sur la localisation des données et du support.

Comme IBM, Microsoft ne cible pas de personas, que ce soit par métier ou par géographie. Les clients signalent régulièrement des problèmes de latence sur le reporting, la synchronisation des stratégies et le déploiement d’applications. Attention aussi à la courbe d’apprentissage que suppose Intune et aux défis qui peuvent se poser lors du dépannage de la solution.

L’IA, peu diffusée chez NinjaOne

L’offre NinjaOne Endpoint Management (licence par appareil) a une tarification plus basse que la moyenne. Et les bundles s’avèrent bien adaptés aux besoins des grandes entreprises comme des MSP. Gartner salue aussi le niveau d’expérience client (customer success managers, ressources en self-service…) et le sentiment généralement positif quant à la facilité d’usage de la solution. Il rappelle aussi la croissance de l’effectif et de la base client de NinjaOne, qui a bouclé début 2025 un tour de table de 500 M$.

Le focus historique était sur les MSP et sur le mid-market. Des évolutions sont en cours (plate-forme, intégrations, channel) pour toucher les grandes entreprises. NinjaOne a également de la marge de progression pour ce qui est de la notoriété de sa solution. Même chose pour la diffusion de l’IA, dont l’usage est encore limité.

Omnissa manque de clients référents

L’offre Workspace ONE UEM (licence par appareil ou par utilisateur) est jugée mature. Gartner apprécie les possibilités d’automatisation qu’elle apporte sur les principaux OS. Il salue aussi la stratégie sectorielle élaborée à renfort d’intégrations ciblées. Autre point distinctif : Omnissa est le seul « leader » de la gestion des terminaux à occuper cette même position dans le Magic Quadrant du DEX. Une combinaison qu’il met d’ailleurs à profit.

Quoique modulaire, l’offre est plus chère que la moyenne. Et Omnissa est de ceux qui ne ciblent pas de profils d’utilisateurs. Son site web manque de logos référents et d’études de cas, ce qui est susceptible de compliquer l’évaluation de sa solution. On se rappellera aussi que l’activité a été perturbée avec le passage dans le giron de Broadcom (2023) puis la revente au fonds KKR (2024).

Pas de MDM natif chez Tanium

Avec Tanium Endpoint Management (licence par appareil), la gestion autonome est un point distinctif. Autant par le contenu que l’éditeur produit à ce sujet que par la réalité du produit. L’éditeur est plus globalement profitable, dispose des certifications adéquates et couvre les principales géographiques tout en fournissant de la flexibilité d’hébergement.

Récemment repackagée, l’offre a une tarification plus élevée que la moyenne. Elle n’inclut pas de MDM natif (intégration d’Intune). Sur macOS, elle n’utilise pas la méthodologie « moderne » d’Apple, ce qui peut limiter l’automatisation et l’élasticité.

Illustration générée par IA

The post Gestion des terminaux : les solutions unifiées n’ont pas encore effacé les outils ad hoc appeared first on Silicon.fr.

  •  

Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud

Snowflake a signé un accord définitif pour le rachat d’Observe, une jeune pousse spécialisée dans l’observabilité basée en Californie et historiquement construite sur l’architecture de données de Snowflake.

Selon The Information, le montant du deal serait d’environ 1 milliard $, ce qui en ferait l’un des plus importants rachats de startup de Snowflake.

La finalisation de l’acquisition est attendue au cours de l’année 2026, sous réserve des conditions habituelles de clôture et d’éventuelles approbations réglementaires.

Observe propose une plateforme d’observabilité capable de collecter et corréler logs, métriques et traces afin d’aider les équipes à diagnostiquer les incidents et surveiller les performances applicatives. La solution s’appuie sur une architecture de graphe de contexte et sur un langage de requête maison (OPAL) pour l’analyse de séries temporelles, avec des fonctions d’assistant IA pour les tâches de troubleshooting et de SRE.

La startup s’est différenciée par un modèle conçu pour ingérer de très grands volumes de télémétrie à moindre coût, en tirant parti du stockage objet et du calcul élastique de Snowflake. Elle revendique plusieurs pétaoctets de données ingérées par mois.

L’observabilité au cœur de l’AI Data Cloud

Snowflake prévoit d’intégrer directement les capacités d’Observe dans son AI Data Cloud, en considérant la télémétrie (logs, métriques, traces) comme des données « de première classe » au même titre que les autres données analytiques.

L’architecture cible repose sur des standards ouverts, notamment Apache Iceberg pour le stockage de tables et OpenTelemetry pour la collecte de données d’observabilité, afin de faciliter l’interopérabilité avec l’écosystème existant.

L’éditeur met en avant la possibilité pour les clients de conserver 100% de leurs données d’observabilité au sein de Snowflake, avec des promesses de réduction des coûts pouvant aller jusqu’à 60% par rapport aux solutions traditionnelles basées sur l’échantillonnage et des durées de rétention courtes.

Du point de vue de Snowflake, l’observabilité devient un enjeu central au moment où les entreprises déploient des agents et applications d’IA de plus en plus complexes, pour lesquels la fiabilité est présentée comme une exigence métier autant que technique.

En absorbant Observe, Snowflake veut offrir une chaîne complète : ingestion, gouvernance et analyse des données métier et de télémétrie, puis construction et supervision d’agents et de modèles, dans un environnement unifié.

L’éditeur positionne la future offre comme un socle d’observabilité pour agents d’IA, capable de gérer des volumes de télémétrie allant du téraoctet au pétaoctet, en s’appuyant sur l’élasticité de son moteur et sur des workflows de résolution assistés par IA.

Un pas de plus vers le marché des opérations IT

Avec ce rachat, Snowflake étend son périmètre au-delà de la seule gestion de données pour entrer plus directement sur le marché des logiciels de gestion des opérations IT, estimé à plus de 50 milliards $ et en croissance d’environ 9% par an.

L’intégration d’Observe renforce la réponse de Snowflake face aux acteurs de l’observabilité et du monitoring (Datadog, Splunk, New Relic, Dynatrace, etc.) ainsi que face aux grands clouds généralistes qui combinent déjà infrastructure, données et outils de supervision.

Pour les clients existants, l’enjeu sera de mesurer dans les prochains mois la maturité des intégrations, la politique tarifaire associée aux volumes de télémétrie et la capacité réelle de la plateforme unifiée à remplacer ou compléter les outils d’observabilité déjà en place.

The post Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud appeared first on Silicon.fr.

  •  

{ Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu

L’observabilité a beaucoup évolué au cours de la dernière décennie, à l’époque où on l’appelait encore monitoring. Si auparavant, la technologie servait principalement à maintenir les services et les systèmes en état de marche, l’essor des expériences numériques en fait un outil essentiel pour la continuité d’activité, alimentant la prise de décision pour améliorer la satisfaction des clients, prévenir une défaillance ou même pour déterminer quels produits développer.

Aujourd’hui, l’IA déclenche un nouveau séisme et les pratiques d’observabilité doivent assumer des responsabilités plus lourdes encore : superviser les workloads complexes et dynamiques de l’IA pour en garantir la performance et la fiabilité. Cette évolution fait de l’observabilité non seulement un véritable fondement de l’expérience client, mais aussi un facteur clé d’innovation et de croissance dans les entreprises axées sur l’IA.

De la réaction à l’anticipation avec l’observabilité prédictive

 Pendant des années, l’observabilité s’est limitée à répondre aux questions : « Qu’est-ce qui s’est passé ? » et « Pourquoi ? ». En 2026, ce paradigme bascule radicalement. Les plateformes d’observabilité deviennent des systèmes d’intelligence pilotés par l’IA, capables non seulement d’expliquer les incidents, mais de les anticiper, de les corriger automatiquement et d’effectuer une auto-réparation pilotée par une IA générative et agentique.

Cette révolution s’appuie sur des LLM et des techniques de recherche augmentée (RAG) appliquées à la télémétrie privée des entreprises : les cahiers de procédures s’automatisent, la corrélation des données s’accélère et l’analyse des causes profondes devient instantanée. Plus besoin de naviguer dans des tableaux de bord complexes ; le langage naturel devient l’interface privilégiée pour interroger les données d’observabilité.

L’observabilité au service de la stratégie métier

Mais cette IA ne doit pas servir qu’à optimiser les performances techniques. Les organisations les plus matures établissent une corrélation directe entre les signaux techniques et l’impact métier réel. Les indicateurs évoluent : ils ne mesurent plus seulement la latence ou la disponibilité des serveurs, mais le revenu à risque, le coût par demande et l’impact sur l’expérience client.

Cette approche business-centric redéfinit les priorités IT. Chaque décision d’infrastructure, chaque investissement en observabilité, doit être justifié par son impact sur les SLO (objectifs de niveau de service), le MTTR (Mean Time To Resolution) et, à terme, sur la satisfaction et la fidélité des clients. 2026 marque la fin de l’IT en silo, déconnectée des enjeux métiers.

Maîtriser les coûts : l’enjeu oublié de l’observabilité

 Les factures d’observabilité explosent. C’est malheureusement une réalité pour de nombreuses entreprises. Elles font face à des surcoûts imprévus liés à l’ingestion de données, à la cardinalité élevée et aux fonctionnalités premium. En conséquence, beaucoup consolident leurs chaînes d’outils fragmentées et renforcent le contrôle des coûts liés à l’ingestion, au stockage et à la conservation des données. Pour cela, les organisations se tournent vers les plateformes unifiées, la consolidation étant perçue comme un gain à la fois en termes de coûts et de productivité.

Mais attention : la consolidation ne suffit pas. En 2026, les utilisateurs finaux devront aller au-delà des économies globales et examiner attentivement le modèle de facturation automatique de chaque fournisseur. Les prix liés à ces surcoûts peuvent encore générer des factures d’un montant inattendu si la croissance des données n’est pas étroitement contrôlée.

De même, les acheteurs doivent évaluer la puissance des capacités de gestion du pipeline de données de chaque plateforme (filtrage, routage, fédération et stockage hiérarchisé, par exemple) afin de pouvoir déterminer activement quelles données sont collectées, où elles sont stockées et combien de temps elles seront conservées. Ce n’est qu’en combinant la consolidation avec une facturation transparente et des contrôles rigoureux du pipeline que les organisations peuvent maintenir les dépenses d’observabilité à un niveau prévisible et alignées sur la valeur qu’elles tirent des données. 

OpenTelemetry : la norme qui libère

L’émergence d’OpenTelemetry (OTel) comme standard par défaut marque un tournant majeur. Finie l’époque des agents propriétaires verrouillant les organisations dans des écosystèmes fermés : OTel offre une architecture ouverte et interopérable pour l’ingestion de métriques, de logs et de traces.

Ce qui différenciera les organisations en 2026, ce ne sera plus l’ingestion des données, mais ce qu’elles en font après : analyses à haute cardinalité, espaces de travail guidés par l’IA, workflows intelligents. L’ouverture du standard crée un terrain de jeu égal, où l’innovation se concentre sur la valeur, pas sur le verrouillage technologique.

L’observabilité au cœur de l’IA et du cloud complexe

 L’explosion des workloads d’IA et des architectures cloud hyperscale impose une nouvelle norme : l’observabilité des LLM et des agents IA. En 2026, superviser la latence, le coût et le comportement des modèles de langage deviendra aussi critique que de monitorer une base de données. La gouvernance des agents IA, la visibilité des pipelines IA, le suivi des ressources GPU… autant de domaines où l’observabilité devient indispensable.

Parallèlement, les environnements hybrides et à l’edge demeurent ancrés dans le cloud natif et Kubernetes, mais l’observabilité y joue un rôle nouveau : elle devient le catalyseur d’expériences numériques résilientes basées sur l’IA et les API.

En 2026, l’observabilité ne sera pas une simple évolution technologique. C’est une refonte complète du modèle : de la réaction à l’anticipation, de l’infrastructure aux résultats métiers, de la complexité à la transparence, et de l’isolement à l’intégration écosystémique. Les organisations qui maîtriseront ces quatre piliers (observabilité prédictive, alignement métier, maîtrise des coûts et standardisation ouverte) seront celles qui tireront le maximum de valeur de leurs données et de leurs systèmes. Les autres risquent de rester bloquées dans une observabilité fragmentée, coûteuse et inefficace.

*Stéphane Estevez est EMEA Observability Market Advisor chez Splunk

The post { Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu appeared first on Silicon.fr.

  •  

Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie

Lock-in, contrôle limité sur les mises à jour logicielles, exposition potentielle à la surveillance et aux réglementations étrangères… Finalement, le secteur européen de l’énergie est largement confronté aux mêmes risques que d’autres industries.

Ce constat ressort d’une étude réalisée à la demande de l’UE. Elle dresse un état des lieux de la dépendance à des solutions numériques étrangères. Une section est dédiée au secteur de l’énergie, avec un focus sur les solutions cyber qui y sont déployées. Comme au niveau global, les fournisseurs américains – et, dans une moindre mesure, israéliens – dominent.

Sécurité réseau

Firewalls : Check Point (Israël), Fortinet (USA), Palo Alto Networks (USA), Siemens (Allemagne), Stormshield (France).

IDS/IPS : Cisco (USA), Dragos (USA), Nozomi Networks (USA, mais en projet d’acquisition par l’entreprise japonaise Mitsubishi Electric), Siemens (Allemagne), Stormshield (France).

Segmentation : Schneider Electric (France), Siemens (Allemagne), TDi (USA), Waterfall Security (Israël).

Endpoints

CrowdStrike (USA), McAfee (USA), Microsoft (USA), SentinelOne (USA), Sophos (Royaume-Uni), Symantec (USA ; acquis en 2019 par Broadcom), Trellix (USA), Trend Micro (Japon).

IAM

Gestion des patchs : Ivanti (USA), ManageEngine (Inde), Microsoft (USA), SolarWinds (USA).

RBAC : IBM (USA), Micro Focus (Royaume-Uni, mais acquis en 2023 par l’entreprise canadienne OpenText), Okta (USA), SailPoint (USA), Savyint (USA).

MFA : Duo Security (USA, acquis par Cisco en 2018), Microsoft (USA), RSA (USA), Yubico (Suède).

PAM : BeyondTrust (USA), CyberArk (Israël ; acquis par Palo Alto Networks en 2025), One Identity (USA), Thycotic (USA ; fusionné en 2021 avec Centrify pour donner Delinea).

Supervision et réponse à incident

SIEM : ArcSight (USA, mais acquis par Micro Focus en 2023), IBM (USA), LogRhythm (USA, fusionné dans Exabeam en 2024), Splunk (USA, acquis par Cisco en 2024).

XDR/SOAR : Armis (USA ; en projet d’acquisition par ServiceNow), Claroty (USA), Dragos (USA), Nozomi Networks (USA).

Protection des données

Chiffrement : IBM (USA), Microsoft (USA), Symantec (USA), Thales (France).

Détection d’anomalies : Acronis (Suisse), Commvault (USA), Rubrik (USA), Veeam (Suisse).

Un secteur plus enclin à « accepter » un risque cyber

La domination américaine est plus nette sur la partie IT, même si des fournisseurs spécialisés sont parvenus à se positionner sur l’OT.

Quasi absente dans les solutions cyber, la Chine est en revanche très présente sur les équipements. Elle fournit par exemple approximativement 80 % des panneaux solaires de l’UE… et les vulnérabilités – voire backdoors – potentielles qui vont avec.

L’ENISA s’est dernièrement penchée sur le cas du secteur de l’énergie. Elle en a conclu à une résilience très inégale, par exemple entre l’électricité (relativement mature) et le gaz (en retard sur la préparation et la réponse, en particulier). Il faut dire que les professionnels du secteur s’affirment souvent prêts à accepter un risque cyber accru en contrepartie à davantage de possibilités d’innovation.

Illustration générée par IA

The post Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie appeared first on Silicon.fr.

  •  

Dépendances numériques de l’UE : une matrice des risques

2017 : Apple empêche la publication d’applications sur l’App Store en Iran. 2019 : GitHub bloque des utilisateurs en Syrie ; Adobe, au Venezuela. 2025 : Microsoft coupe la messagerie du procureur général de la Cour pénale internationale.

Toutes ces mesures ont fait suite à des sanctions dont avait décidé le gouvernement américain. Une étude récemment remise au Parlement européen* les mentionne, en illustration des risques inhérents aux dépendances à des technologies étrangères.

Les technologies chinoises en font aussi partie. Sont évoquées entre autres celles de Xiaomi, qui a capté 12 % du marché européen des smartphones en 2024. Ainsi que celles de Huawei et ZTE, dont les équipements télécoms ont couvert jusqu’à un quart des réseaux mobiles européens.

Une matrice du « risque de souveraineté » sur 9 dimensions

L’étude propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions.

Contrôle juridique

Le risque est jugé maximal (5/5) sur la dimension « pourcentage de logiciels critiques de sources non européennes », en ce qu’on dépasse les 80 %.

Il l’est aussi sur la concentration des dépendances au sein d’une seule juridiction étrangère (États-Unis).

Il est élevé (4/5) pour ce qui est de l’influence gouvernementale sur des fournisseurs-clés (des lois à portée extraterritoriale s’appliquent aux activités de ces fournisseurs dans l’UE).

Autonomie technique

Le risque est moyennement élevé (3/5) concernant la disponibilité de substituts européens (il en existe sur beaucoup des segments étudiés, mais leur adoption reste limitée).

Il l’est aussi sur la complexité technique du changement de fournisseur. Lequel « peut prendre 6 à 15 mois », nous annonce-t-on en citant trois sources : un cas de migration vers S/4HANA, la transition cloud de l’organisme chargé de la régulation des titres municipaux aux USA… et un guide AWS pour les grandes migrations.

Le risque est jugé plus élevé (4/5) pour ce qui est de l’accès au code source : les logiciels les plus utilisés sont propriétaires.

Indépendance stratégique

Le score de risque le moins élevé (2/5) concerne la disponibilité de capacités R&D dans l’UE – même si celles-ci sont « de plus en plus limitées », nous fait-on remarquer.

Pour ce qui est des compétences, on en est à 3/5 (la base est « considérable » mais s’amoindrit).

Même score pour le financement (difficultés notables pour obtenir des capitaux européens). Sur ce point, 28 % des fonds levés par les start-up européennes en 2024 provenaient des USA. Cette même année, les acquisitions par des entreprises américaines ont représenté près de la moitié de la valeur des M&A tech sur le continent.

Le risque économique, du micro au macro

À cette matrice du risque de souveraineté s’en ajoute une sur le risque économique. Là aussi avec trois axes (coûts directs, dépendance au marché et impact macroéconomique).

Coûts directs

Le risque est dit maximal (5/5) sur le coût des produits et services, en ce qu’une part considérable du PIB de l’UE y est consacrée (1,5 % rien que pour les dépenses des entreprises).

Il est moyennement élevé (3/5) concernant les hausses de prix. De l’ordre de 10 % par an, elles sont plus fortes que l’inflation, mais « acceptables pour les acheteurs ».

Pour le coût du changement de fournisseur, on en est à 4/5 : malgré les apports du Data Act, les démarches nécessitent des investissements « irraisonnables ».

Dépendance au marché

Le risque est maximal (5/5) si on le prend sous le prisme de la position de marché des fournisseurs non européens : des acteurs américains captent 70 à 100 % de la plupart des segments étudiés.

Le risque reste élevé (4/5) si on s’intéresse au pouvoir de négociation des entreprises européennes, limité tant par le manque de substituts que par le coût du changement de fournisseur.

Risque également élevé (4/5) pour la dépendance R&D à des fournisseurs étrangers : la plupart des innovations européennes viennent s’adosser à des plates-formes américaines.

Impact macroéconomique

Score maximum sur les trois éléments listés :

  • Compétitivité de l’UE (jugée « affaiblie en permanence »)
  • Effets sur l’emploi (les dépenses des entreprises européennes financent environ 2 millions d’emplois aux États-Unis)
  • Balance commerciale (le déficit dans le secteur numérique dépasse 100 Md€ et continue à croître)

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration générée par IA

The post Dépendances numériques de l’UE : une matrice des risques appeared first on Silicon.fr.

  •  

Marché numérique français : reprise en trompe-l’œil ou vrai rebond ?

Après une année 2025 en demi-teinte (+2 %), le marché du numérique français devrait retrouver des couleurs en 2026 avec une croissance prévue de 4,3 %, selon les dernières projections de Numeum, le syndicat des entreprises du secteur.

Un chiffre qui pourrait rassurer, si l’on s’en tenait aux apparences. Mais la réalité est plus contrastée : cette reprise masque des trajectoires divergentes selon les segments, et pose une question lancinante sur la répartition de la valeur créée.

Un marché qui se désolidarise

Le premier constat tient en trois chiffres. Les éditeurs de logiciels et plateformes affichent une croissance vigoureuse de 8,4 % en 2026, prolongeant leur dynamique de 2025 (+8,2 %), pour atteindre 31,6 milliards €. À l’inverse, les entreprises de services du numérique (ESN) peinent à retrouver leur rythme : après un recul de 1,8 % en 2025 (34,3 milliards), elles ne progresseraient que de 1,4 % en 2026, à 35 milliards. Quant aux sociétés d’ingénierie et de conseil en technologies (ICT), elles reviennent tout juste en territoire positif (+1 %) après une baisse de 2,5 % l’an dernier.

Cette divergence n’est pas anecdotique. Elle illustre un basculement structurel : le passage d’un modèle fondé sur les projets et les prestations intellectuelles vers un modèle de consommation récurrente, porté par le SaaS et les plateformes cloud.

En 2025, 77 % des nouveaux projets des éditeurs ont été réalisés en mode SaaS, contre 53 % en 2021. Cette migration accélérée capte une part croissante des budgets IT, au détriment des services d’intégration traditionnels.

L’IA générative, accélérateur… de quoi exactement ?

L’intelligence artificielle générative est présentée comme le grand moteur de la reprise. Près de 40 % des acteurs du secteur constatent déjà un impact positif sur leurs marges ou leur chiffre d’affaires.

Les gains de productivité sont tangibles : 12,5 % en moyenne en 2025, avec une perspective de 17 % en 2026. Les éditeurs l’utilisent pour accélérer leurs cycles de développement, créer de nouvelles offres (63 % des répondants) et personnaliser leurs solutions.

Mais pour les ESN, le tableau est plus ambigu. L’IA permet certes de répondre plus rapidement aux appels d’offres (54 % des acteurs) et de livrer davantage de projets dans l’année (58 %), mais elle introduit aussi une pression déflationniste. Si l’on délivre plus vite, pourquoi facturer autant ? Certains clients commencent à renégocier leurs contrats à la baisse, pointant les gains de productivité pour justifier une compression des tarifs. Résultat : 15 % des entreprises interrogées évoquent une pression accrue sur les prix, 10 % une réduction du temps facturable.

Cette dynamique pose une question centrale : qui capte la valeur générée par l’IA ? Les gains de productivité se traduisent-ils en marges supplémentaires pour les prestataires, en tarifs réduits pour les clients, ou en nouvelles capacités qui justifient un niveau de facturation stable ? Pour l’instant, la réponse n’est pas tranchée. Et c’est précisément ce flou qui inquiète.

La souveraineté numérique, du discours à la réalité

Autre thème en vogue : la souveraineté numérique.

Numeum relève que 42 % des entreprises du secteur accompagnent leurs clients sur des projets liés à cette thématique. Mais la dynamique reste embryonnaire : 80 % des acteurs ont réalisé moins de dix projets en 2025, avec un panier moyen compris entre 100 000 et 150 000 euros. Loin, donc, des grands programmes structurants.

Ce concept, longtemps cantonné aux discours politiques, commence néanmoins à se matérialiser sous la pression de plusieurs facteurs : obligations réglementaires (NIS2, IA Act), tensions géopolitiques et méfiance croissante envers les solutions américaines dominantes. Mais le passage de l’intention à l’investissement reste lent, freiné par la complexité technique et les arbitrages budgétaires.

Un retour de la croissance… sans l’emploi ?

Derrière les prévisions optimistes, un angle mort persiste : l’emploi. En 2024, le secteur a perdu 7 500 postes. L’année 2025 s’est inscrite dans une logique de stabilisation, sans réelle reprise des embauches.

Or, si la croissance de 2026 se matérialise, il n’est pas certain qu’elle se traduise par une dynamique d’emploi comparable à celle des deux dernières décennies, où les effectifs avaient progressé de 50 % en dix ans pour atteindre environ 666 000 salariés.

Plusieurs facteurs expliquent cette déconnexion. D’abord, l’automatisation : les gains de productivité liés à l’IA réduisent mécaniquement les besoins en main-d’œuvre sur certaines tâches. Ensuite, la géographie du « delivery » : l’offshore progresse quand l’optimisation devient le maître-mot. Enfin, la réallocation des budgets vers les modèles récurrents (SaaS, cloud) diminue la part des projets nécessitant une mobilisation humaine intensive.

Ce que les DSI doivent retenir

Pour les directions des systèmes d’information, cette reconfiguration du marché impose trois vigilances.

D’abord, une cartographie rigoureuse des dépenses récurrentes. Les abonnements SaaS et les factures cloud deviennent incompressibles, grignotant les marges de manœuvre budgétaires. Anticiper leur évolution est crucial pour préserver la capacité d’investissement dans des projets de transformation.

Ensuite, une réflexion sur la mesure de la valeur. Les gains de productivité liés à l’IA ne doivent pas se traduire uniquement par une réduction des jours-hommes facturables. Il faut définir des unités de valeur pertinentes : qualité, délai, couverture fonctionnelle, réduction des risques. Faute de quoi, la pression déflationniste des fournisseurs se fera au détriment de la qualité des livrables.

Enfin, une attention accrue aux enjeux de souveraineté et de dépendance. La concentration sur quelques hyperscalers américains fragilise la capacité de négociation et la liberté de choix. Sans tomber dans le dogmatisme, diversifier les sources d’approvisionnement et privilégier des solutions offrant des garanties de réversibilité devient un enjeu stratégique.

Une reprise, oui. Mais pour qui ?

Numeum table sur une accélération en 2026, portée par l’IA, la cybersécurité et les investissements dans la modernisation des systèmes. Les indicateurs opérationnels se redressent, les carnets de commandes se remplissent, les taux d’occupation des ESN remontent. Mais cette reprise ne ressemble pas aux précédentes.

Elle se construit sur fond de réallocation de valeur vers les éditeurs et les plateformes, de pression déflationniste sur les services, et d’incertitudes persistantes sur l’emploi. La croissance peut revenir sans recréer les postes perdus, surtout si elle s’alimente d’automatisation et d’arbitrages de localisation.

Dans un contexte d’instabilité économique et géopolitique, Numeum souligne lui-même la complexité d’anticiper précisément l’évolution du secteur.

The post Marché numérique français : reprise en trompe-l’œil ou vrai rebond ? appeared first on Silicon.fr.

  •  

OpenAI lance ChatGPT Health…mais pas dans l’UE

Avec le lancement de ChatGPT Health, OpenAI franchit une nouvelle étape dans son ambition de transformer son chatbot en super-outil personnel capable d’accompagner les utilisateurs dans les dimensions les plus sensibles de leur existence.

Le déploiement se fait progressivement, via une liste d’attente pour un groupe restreint d’utilisateurs, avant une ouverture élargie dans les semaines à venir.

ChatGPT Health se présente comme un espace dédié au sein de l’interface habituelle, conçu pour aider les utilisateurs à mieux comprendre leur santé et préparer leurs rendez-vous médicaux. L’ambition affichée n’est pas de concurrencer les médecins, mais de les compléter. OpenAI insiste : il ne s’agit ni de diagnostiquer ni de traiter, mais d’apporter des explications pédagogiques sur des résultats d’examens, des symptômes ou des options thérapeutiques.

La vraie innovation réside dans la possibilité de connecter directement ses données de santé réelles. Dossiers médicaux électroniques via la plateforme b.well, mais aussi applications grand public comme Apple Health, MyFitnessPal, WeightWatchers, AllTrails, Instacart ou Peloton peuvent désormais alimenter les réponses de l’IA. De quoi ancrer les conseils dans le profil réel de l’utilisateur plutôt que dans des généralités.

Un portail santé intégré à ChatGPT

Concrètement, ChatGPT Health peut expliquer des résultats d’analyses biologiques, mettre en évidence des tendances dans la glycémie ou le sommeil, aider à préparer une consultation avec une synthèse des symptômes et traitements en cours, ou encore proposer des plans d’activité physique alignés sur les objectifs personnels.

Face à la sensibilité des données médicales, OpenAI indique avoir déployé une architecture spécifique. ChatGPT Health fonctionne comme un silo isolé du reste de la plateforme, avec des couches supplémentaires de chiffrement et une promesse forte : les conversations au sein de cet espace ne servent pas à entraîner les modèles d’intelligence artificielle de l’entreprise.

Les utilisateurs conservent le contrôle sur leurs connexions et peuvent révoquer l’accès aux différentes sources à tout moment. L’authentification multi-facteurs est encouragée pour sécuriser davantage les comptes. Selon OpenAI, toutes les applications tierces disponibles ont dû passer des audits de sécurité stricts avant d’être intégrées.

Plus de 260 médecins mobilisés

Pour affiner son outil, OpenAI affirme avoir collaboré avec plus de 260 médecins issus d’une soixantaine de pays et de nombreuses spécialités. Ces praticiens ont fourni des retours sur les réponses du modèle des centaines de milliers de fois, permettant de cadrer l’assistant sur des usages considérés comme utiles et relativement sûrs : pédagogie, préparation de consultations, explication de trajectoires de soins ou décryptage des options d’assurance santé.

Les cas d’usage visés couvrent la compréhension de symptômes fréquents, l’analyse de tendances de bien-être à partir des données connectées, ou encore les compromis entre différentes options d’assurance en fonction des habitudes de soins observées.

Avec cette offensive, OpenAI se positionne frontalement sur un marché de la santé numérique déjà encombré, où se croisent géants de la tech, plateformes de télé-médecine et assureurs.

Le mur européen du RGPD

L’exclusion de l’Europe du lancement de ChatGPT Health révèle un gouffre réglementaire difficile à combler. Autrement dit, impossible en l’état de franchir le mur du Règlement général sur la protection des données (RGPD) qui classe les informations de santé parmi les données les plus sensibles et impose des obligations drastiques.

Le contexte n’arrange rien : ChatGPT (standard)  fait déjà l’objet de plaintes persistantes en Europe pour non-conformité au RGPD. Les CNIL française et italienne, ainsi que le Contrôleur européen de la protection des données, pointent l’absence de base légale claire pour le traitement des données, leur utilisation pour l’entraînement des modèles, et les difficultés à exercer les droits de rectification et d’oubli.

Même l’offre Enterprise, qui bénéficie d’un hébergement européen depuis 2025, n’échappe pas aux enquêtes sur les lacunes en matière de transparence et de minimisation des données.

Pour ChatGPT Health, les obstacles sont encore plus élevés. Les protections techniques mises en place par OpenAI – isolement des données, chiffrement renforcé, non-utilisation pour l’entraînement – sont certes louables, mais insuffisantes au regard du RGPD. L’entreprise devrait notamment fournir un consentement granulaire valide, signer des accords de sous-traitance (DPA) avec ses partenaires comme b.well, réaliser une évaluation d’impact sur la vie privée pour chaque type de données sensibles, et surtout héberger les informations sur le sol européen pour éviter les transferts extra-communautaires.

L’absence de Privacy Shield valide entre l’Union européenne et les États-Unis complique encore la donne. Sans certification RGPD explicite ni adaptation aux clauses contractuelles types ou au EU-US Data Privacy Framework, toute utilisation du service par des résidents européens exposerait OpenAI à des sanctions potentiellement lourdes.

Les alternatives européennes en embuscade

Cette impasse réglementaire ouvre un boulevard aux acteurs européens. Des solutions basées sur des modèles comme Mistral, hébergées dans l’UE et certifiées RGPD, existent déjà pour les professionnels de santé. Elles garantissent la souveraineté des données et évitent les transferts outre-Atlantique, arguments de poids pour les établissements de santé et les autorités sanitaires.

OpenAI pourrait théoriquement adapter ChatGPT Health pour l’Europe via un hébergement local et une architecture similaire à celle de son offre Enterprise, mais aucun calendrier d’adaptation pour les marchés européens n’est annoncé.

La conjonction du RGPD et du récent AI Act européen, qui impose des règles strictes sur les systèmes d’IA à haut risque dans le domaine de la santé, pourrait exiger une validation réglementaire longue et complexe avant tout déploiement.

Reste à savoir si OpenAI acceptera de jouer selon les règles européennes ou si l’entreprise préférera se concentrer sur des marchés moins contraignant. Pour les 450 millions d’Européens, l’attente pourrait durer.

Image : © DR

The post OpenAI lance ChatGPT Health…mais pas dans l’UE appeared first on Silicon.fr.

  •  

Les dépendances numériques de l’UE chiffrées, GenAI comprise

Environ 83 % des dépenses des grandes entreprises européennes en services cloud et logiciels vont à des acteurs américains.

Une étude publiée en avril 2025 avait produit cette estimation. Commandée par le Cigref, elle quantifiait à un peu plus de 260 Md€ la valeur ainsi créée chaque année aux États-Unis – soit 1,5 % du PIB de l’UE et 1,5 fois son budget.

Cette dernière donnée est reprise dans une autre étude, parue en décembre*. Elle a été réalisée par un cabinet de recherche et de conseil lituanien, à la demande de la commission de l’industrie, de la recherche et de l’énergie du Parlement européen. Y sont cartographiées les dépendances numériques auxquelles l’Europe est sujette (avec un focus sur le logiciel et la cyber) et les risques économiques et géopolitiques qu’elles soulèvent. Nous en présentons ici quelques éléments chiffrés.

À 10 ans d’intervalle, les GAFAM ont maintenu voire renforcé leur position

L’étude compile des données de StatCounter pour rendre compte de l’évolution de la concurrence sur divers segments du marché entre 2015 et 2025.

OS de bureau : 90 % du marché pour Apple et Microsoft

Windows macOS Linux ChromeOS Autres/inconnus
2015 86,26 % 10,12 % 2,18 % 0,21 % 1,22 %
2025 (juillet) 73,45 % 16,34 % 3,82 % 1,57 % 4,82 %

En 10 ans, Windows a perdu environ 13 % de part de marché, tandis que macOS en a gagné 6 %. Leur part cumulée avoisine 90 %.

OS mobiles : 99,5 % du marché pour Apple et Google

Android iOS Windows Autres
2015 63,3 % 28,79 % 4,03 % 3,66 %
2025 (juillet) 65,3 % 34,21 % 0,01 % 0,48 %

La plus grande progression est pour iOS (+ 5,42 %).
L’usage des forks d’Android made in Europe est quasiment nul.

Moteurs de recherche : Google à 90 %

Google Bing Yandex Yahoo! Autres
2015 92,55 % 2,73 % 1,31 % 2,06 % 1,34 %
2025 (juillet) 89,9 % 4,13 % 3,32 % 1,05 % 1,6 %

Malgré les sanctions à répétition censées rééquilibrer la concurrence, Google capte encore 9 recherches sur 10. Le moteur allemand Ecosia a environ 0,3 % du marché ; Qwant, moins de 0,1 %.

Réseaux sociaux : Facebook reste au-dessus des 80 %

Facebook Instagram YouTube Twitter/X Pinterest Tumblr Reddit Autres
2015 84,82 % N/A N/A 5,79 % 3,18 % 2,87 % 1,53 % 1,81 %
2025 (juillet) 80,79 % 7,07 % 1,82 % 4,33 % 4,07 % N/A 0,93 % 0,99 %

Selon l’analyse que fait StatCounter, Facebook concentre encore plus de 80 % des pages vues.
L’usage des plates-formes décentralisées comme Mastodon et Diaspora reste « négligeable », pour reprendre les mots de l’étude.

Navigateurs : les GAFAM cumulent près de 90 % du marché

Chrome Safari Edge/IE Firefox Samsung Internet Opera Yandex Android Autres
2015 44,64 % 14,7 % 12,69 % 17,41 % N/A 2,93 % 0,36 % 5,22 % 2,06 %
2025 (juillet) 60,73 % 19,68 % 6,4 % 4,39 % 3,28 % 2,7 % 1,25 % 0,36 % 1,1 %

Chrome a gagné environ 16 % de part de marché, tandis que Firefox en a perdu 13 %.
Même en ajoutant Vivaldi, les navigateurs d’origine européenne ne captent pas plus de 3 % du marché.

Des dépendances fortes sur la chaîne de valeur de la GenAI

L’étude se réfère aussi à des productions du cabinet McKinsey. En particulier, une estimation de la part de marché de l’Europe sur chacun des 8 segments d’une chaîne de valeur GenAI « simplifiée ».

Segment Part de marché Trajectoire historique
Matières premières < 5 % Stable
Équipements de fabrication de semi-conducteurs > 15 % En hausse
Conception de semi-conducteurs < 5 % En baisse
Fabrication de semi-conducteurs < 5 % Stable
Infrastructure cloud et supercalculateurs < 5 % Stable
Modèles de fondation 5-15 % En hausse
Applications IA 5-15 % En hausse
Services de conception et déploiement de cas d’usage > 15 % En hausse

L’Europe fournit environ 5 % des matières premières stratégiques pour la fabrication de semi-conducteurs. Elle représente moins de 1 % de la capacité de production mondiale de semi-conducteurs à moins de 7 nm pour l’IA. Elle a en revanche, avec ASML, 80 à 90 % de part de marché sur la lithographie EUV.

En croisant parts de marché mondiales et indicateurs d’adoption régionale, l’étude tente de donner une photographe du marché européen de la GenAI. Les dépenses en la matière étant souvent comptées sur les budgets cloud, le résultat reflète davantage le business des plates-formes (Azure OpenAI, Bedrock/Sagemaker, Vertex AI…) que des outils destinés à l’utilisateur final.

parts de marché GenAI en Europe

SAP garde une nette longueur d’avance sur l’ERP…

Le marché de la GenAI est estimé à 3,1 Md$ en 2024. Celui de l’IA d’entreprise, à 4,8 Md$. SAP y occupe probablement une position plus favorable, vu le niveau d’adoption de son ERP.

Sur ce segment à 19 Md$ en 2023, l’éditeur allemand capte 55 % de la valeur. Oracle parvient toutefois à combler l’écart avec la transition cloud, tout en générant davantage de revenu par client. Les estimations sont moins certaines pour les plus petits fournisseurs, faute de communication financière.

parts de marché ERP Europe

… et de retard sur le CRM

Le marché du CRM est d’une valeur comparable (18 Md$ en 2024). SAP n’y a cependant pas le même poids.

parts de marché CRM Europe

Dans la bureautique et la collaboration (18 Md$ en 2025), Microsoft se taille la part du lion, sur la foi de données du cabinet Compass Lexecon pour 2023.

parts de marché collaboration bureautique

En élargissant à l’ensemble des logiciels d’entreprise (70 Md$ en 2025), SAP devance Oracle et Salesforce. L’UE a des leaders sur quelques niches. Notamment le PLM, avec Dassault Systèmes (17 % du marché, Siemens étant dans le top 3), lequel se distingue aussi sur la CAD.

parts de marché logiciels d'entreprise Europe

Le marché des services informatiques serait 4 à 5 fois plus grand que celui des logiciels d’entreprise (300-350 Md$ en 2023, hors services liés au cloud d’infrastructure).

parts de marché services conseil Europe

Le marché de la cybersécurité est estimé à 63 Md$ en 2025. Les produits (logiciel + matériel) en représentent 42 à 68 % ; le services, 32 à 58 %.
L’Europe est bien représentée sur les services, avec la France en première ligne (Atos, Capgemini, Orange Cyberdefense, Thales). Pas dans les solutions elles-mêmes, où Palo Alto Networks a tendance à monter en puissance, tandis que Check Point et Cisco bénéficient d’un ancrage historique fort.

Marchés publics : 12 % de la valeur pour les consortiums 100 % européens

Si on se focalise la commande publique au sein de l’UE, 88 % de la valeur totale des contrats IT va à des consortiums qui incluent au moins une entreprise non européenne.

Cette information résulte de l’analyse de 315 appels d’offres organisés entre 2020 et 2025.
Sur ce même échantillon, 18 % des marchés attribués ont eu au moins un lauréat américain ; 8 %, au moins un lauréat japonais. Accenture et Deloitte ont été les sociétés les plus fréquemment sélectionnées.

taux de sélection dans les appels d'offres

sociétés gagnantes des appels d'offres

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration principale © Molodec – Shutterstock.com

The post Les dépendances numériques de l’UE chiffrées, GenAI comprise appeared first on Silicon.fr.

  •  

Le patron de l’ANSSI sur SecNumCloud : « Pas une médaille en chocolat »

La qualification SecNumCloud 3.2 de l’offre PREMI3NS de S3NS, fin 2025, a déclenché une vague de controverses dans le paysage IT.

Suffisamment pour que Vincent Strubel, le directeur général de l’ANSSI, prenne la plume pour publier une longue tribune sur LinkedIn. Un exercice de déminage pédagogique pour répondre aux  « interrogations voire (aux) incompréhensions sur ce que fait et ne fait pas la qualification SecNumCloud ».

« Ce n’est pas une médaille en chocolat »

Premier rappel du patron de l’agence nationale de cybersécurité : SecNumCloud n’est ni une décision arbitraire, ni un choix politique. La qualification découle d’un processus formalisé d’évaluation sur la base d’exigences strictes. « Les règles, le processus et le niveau d’exigence sont les mêmes pour tous », martèle Vincent Strubel.

La procédure ? Longue et exigeante. Près de 1 200 points de contrôle vérifiés in situ par un évaluateur indépendant, sous le regard scrutateur de l’ANSSI qui « ne se prive pas de demander parfois à l’évaluateur d’approfondir son travail ou de réévaluer de manière plus stricte ses conclusions ». Un référentiel actualisé constamment depuis plus de dix ans. « Bref, ce n’est pas une médaille en chocolat, et ce n’est pas pour tout le monde », résume le directeur.

Se protéger du CLOUD Act… et du « kill switch »

Les risques liés au droit extra-territorial ? C’est le sujet qui monopolise l’attention. Vincent Strubel rappelle l’enjeu : éviter que les données hébergées dans le cloud ne tombent sous le coup du CLOUD Act américain ou de la loi chinoise sur le renseignement de 2017, qui permettent aux autorités d’exiger l’accès aux données de clients européens.

La parade de SecNumCloud : un prestataire européen qui contrôle seul les données. Même si l’offre est « hybride » et repose sur une technologie américaine, « le fournisseur de la technologie cloud est soumis aux lois américaines, mais n’a pas accès aux données et ne peut par conséquent pas donner suite à une injonction », explique le patron de l’ANSSI.

Autre protection : le scénario du « kill switch », cette coupure brutale du service imposée à certains clients. Vincent Strubel cite l’exemple récent de magistrats de la Cour Pénale Internationale privés d’accès aux services numériques américains. Avec SecNumCloud, le sous-traitant non européen « ne dispose pas de la capacité à couper le service à tel ou tel client, car ce n’est pas lui qui administre la solution ».

L’autarcie complète, une illusion

Vincent Strubel le reconnaît sans détour : SecNumCloud ne signifie pas l’absence de dépendance. Une offre « hybride » est « sans doute plus exposée à ce risque, « mais imaginer qu’il existe des offres 100% européennes relève de la pure vue de l’esprit qui ne résiste pas à la confrontation aux faits ».

Tous les fournisseurs de cloud dépendent de composants électroniques et logiciels non maîtrisés à 100% en Europe. L’open source ? « Une plus grande liberté d’action », certes, mais « pas la panacée » : aucun acteur ne peut prétendre maîtriser entièrement toute la stack technologique du cloud.

« Si nous sommes un jour privés de l’accès à la technologie américaine, chinoise, ou plus généralement non européenne, nous aurons un problème global de dégradation du niveau de sécurité », prévient le directeur de l’ANSSI. Un problème qui dépasserait largement les seules offres hybrides.

Les cyberattaques, la vraie menace

Vincent Strubel le martèle : les critères liés à la nationalité du prestataire ne représentent
« qu’une petite partie des exigences » du référentiel. La vraie menace ? Les cyberattaques, qui demeurent « la menace la plus tangible pesant sur les usages sensibles du cloud ».

Les prestataires, « quelle que soit leur nationalité », sont des «cibles à très haute valeur ajoutée » qui « subissent en permanence des tentatives d’attaque, y compris particulièrement avancées, dont certaines réussissent forcément ». Hyperscalers américains comme acteurs européens, personne n’est épargné.

D’où des exigences techniques drastiques : cloisonnement fort entre clients, chaîne d’administration isolée, gestion sécurisée des mises à jour, chiffrement systématique. « Ces exigences ne sont généralement pas toutes satisfaites par une offre de cloud standard, quelle que soit son origine », note le directeur de l’ANSSI.

Le référentiel prend même en compte le risque humain : corruption, contrainte ou infiltration d’employés du prestataire. Un chapitre entier y est consacré.

« Souverain », mais pas baguette magique

SecNumCloud est-il un label de souveraineté ? Vincent Strubel botte en touche :  « Il est difficile de répondre à cette question, vu que le concept de souveraineté numérique n’est quasiment jamais défini, et que tout le monde lui donne un sens différent ».

Pour l’ANSSI, la souveraineté numérique couvre trois enjeux : ne pas être une victime facile des cyberattaques, faire appliquer nos règles plutôt que subir celles des autres, et disposer d’une liberté de choix technologique. SecNumCloud répond aux deux premiers et contribue au troisième.

« Les offres qualifiées SecNumCloud sont donc, sans le moindre doute, souveraines, et cette qualification est un levier indispensable pour défendre notre souveraineté numérique », affirme Vincent Strubel. Mais il avertit aussitôt : cette qualification « ne va pas faire naître des solutions alternatives ou des briques technologiques maîtrisées »».  « C’est un outil de cybersécurité, pas de politique industrielle. »

Hybride ou non, même combat

Le directeur de l’ANSSI tord le cou à une idée reçue : les offres « hybrides » qualifiées « satisfont exactement les mêmes exigences que les autres ». La distinction entre hybride et non-hybride ? « Assez artificielle », tranche-t-il. « Il n’y a pas d’un côté des offres totalement dépendantes de fournisseurs non européens et de l’autre des offres 100% européennes. »

Certains réclament un label light, reprenant uniquement les critères capitalistiques sans les exigences techniques. Vincent Strubel balaie l’idée : « Du point de vue de la cybersécurité, ça n’aurait aucun sens de couvrir uniquement certaines menaces, et pas d’autres.» Une solution doit couvrir tous les risques, « car les attaquants visent toujours le maillon faible ».

Son image choc : « Un cloud échappant au droit non européen, mais à la merci des cyberattaques, ça n’a pas plus de sens qu’une maison avec des volets blindés et des barreaux aux fenêtres, mais dont la porte serait fermée par un rideau.»

Même refus pour un label purement technique : impossible de couvrir les risques juridiques par la seule technique. Le chiffrement des données, par exemple, « ne protège pas du CLOUD Act : le prestataire de cloud a forcément, tôt ou tard, accès à la clé de chiffrement ».

Photo : © DR

The post Le patron de l’ANSSI sur SecNumCloud : « Pas une médaille en chocolat » appeared first on Silicon.fr.

  •  

Course à l’IA : la bulle controversée, la pénurie avérée

La croissance du parc mondial de datacenters hyperscale ne montre pas de signes de ralentissement. Les dépenses d’infrastructure associées, non plus.

Depuis deux ans, les pointages trimestriels de Synergy Research Group en ont témoigné quasi systématiquement. Le dernier en date n’y déroge pas.

Ruée sur les GPU… et sur la RAM

Le parc en question avoisine désormais les 1300 datacenters, pour une puissance informatique plus que quadruplée en 7 ans. Au T3 2025, les dépenses d’exploitation des hyperscalers – Synergy en recense une vingtaine, acteurs du IaaS, du PaaS, du SaaS, de la recherche, des réseaux sociaux, du e-commerce et du gaming – ont atteint 142 Md$. Elles étaient d’environ 80 Md$ un an plus tôt (et 50 Md$ au T3 2023).

capex capacité hyperscalers

Ces investissements vont pour l’essentiel dans les serveurs. La plupart d’entre eux (91 %) sont maintenant équipés d’accélérateurs. À commencer par des GPU… qui ont besoin d’autant plus de RAM qu’on y fait tourner des modèles d’IA.

La course engagée par les hyperscalers a contribué à engendrer une pénurie de mémoire. Et par là même une augmentation remarquable des prix. On en est par exemple arrivé, il y a quelques semaines, à ce qu’un kit de 64 Go de DDR5 coûte plus cher qu’une PlayStation.

Le phénomène est amplifié par une réorientation de la fabrication vers des types de mémoires adaptés aux accélérateurs IA. En tête de liste, la HBM (DRAM à large bande passante). Les modules mémoire génériques se raréfient d’autant plus.

Des conséquences en 2026 sur PC et smartphones

Il se dit que la situation pourrait persister au moins jusqu’en 2027. Elle a en tout cas commencé à se répercuter en bout de chaîne, sur le prix des équipements informatiques. Chez Dell, il semble falloir se préparer à des augmentations de 10 à 30 % dans les gammes de PC B2B. Chez ASUS, il est question de 15 à 20 % de hausse sur des notebooks. Les prévisions sont similaires chez Acer, qui songerait aussi à livrer des modèles avec moins de RAM… potentiellement à rebours de la promesse des « PC IA ».

On surveillera particulièrement les plus petits fournisseurs, qui ont globalement moins d’inventaire, de trésorerie et de marge de négociation. Même chose avec les smartphones. Sur ce segment, la mémoire peut traditionnellement représenter jusqu’à 20 % du coût de revient matériel. Il est probable que, si hausses de prix il y a, elle seront plus nettes sur l’entrée et le milieu de gamme, où les marges sont faibles. À l’autre bout du spectre, on pourrait voir les flagships plafonner à 12 Go de RAM en 2026.

IDC estime que cette année, le marché des smartphones pourrait se contracter d’environ 5 % en volume, tandis que le prix de vente moyen augmenterait de quelque 8 %. Ses prévisions sont comparables pour les PC, dont les fabricants ne se verront sans doute pas livrer toute la capacité de mémoire commandée (potentiellement, autour de 70 % pour les principaux OEM et de 40 % pour les plus petits). D’autant plus que les hyperscalers se battent, de plus en plus agressivement, pour les stocks restants. Une tendance accentuée par le marché chinois, où les USA ont finalement autorisé la vente des GPU H200. Sur place, plus de 2 millions d’unités auraient été commandées à NVIDIA, qui en aurait à peine la moitié en réserve. AMD est aussi concerné, dans une moindre mesure, avec ses accélérateurs Instinct. Alibaba, entre autres, lui en aurait acheté jusqu’à 50 000.

Les hyperscalers en éléments perturbateurs

En parallèle à leurs ventes sur le marché du datacenter, AMD et NVIDIA prépareraient tous deux des hausses de prix sur leurs cartes graphiques « grand public ». Ce mois-ci pour le premier ; en février pour le second. Avec la pénurie, la GDDR en est venue à constituer plus de 80 % de leur coût de revient.

AMD envisagerait par ailleurs de réintroduire des puces sur socket AM4 (potentiellement des CPU Ryzen 5000 et des APU Zen 3), ce qui éviterait d’avoir à racheter des cartes mères… et de la DDR5.

Du côté des fabricants de semi-conducteurs, on s’en tient dorénavant à des contrats au trimestre. Et on donne, comme sus-évoqué, la priorité à la mémoire HBM. Actuellement en mesure de produire 160 000 à 170 000 wafers par mois, Samsung Electronics prévoirait d’augmenter cette capacité de 50 %. Micron a quant à lui annoncé que son carnet de commandes HBM était rempli pour l’année 2026.

Dans ce contexte, le marché IT dans son ensemble a potentiellement connu, en 2025, une croissance sans égale depuis 30 ans. Tout du moins à en croire IDC, qui communiquait, début décembre, une estimation à + 14 % (4250 Md$), hors dépenses télécoms. En première ligne, les dépenses des fournisseurs de services d’infrastructure, pas majoritaires (environ 500 Md$), mais en nette croissance (+ 86 %, contre environ + 10 % pour les dépenses des entreprises).

IDC prévisions dépenses IT mondiales

IDC croissance des dépenses IT mondiales par client

Le capex d’Amazon, Google et Microsoft atteint celui des telcos

Si on s’en tient à ce qu’IDC qualifie d’infrastructures IA (dans les grandes lignes, tout ce qui porte des applications au minimum « augmentées » par de l’IA), les Ètats-Unis concentrent les trois quarts des dépenses, contre environ 5 % pour l’EMEA.
Sur place se trouve environ 55 % de la capacité hyperscale mondiale, selon Synergy Research Group. La Virginie en concentre à elle seule 14 %. Mais la demande croissante en énergie favorise les implantations dans des Ètats moins densément peuplés comme l’Oregon (22 habitants au km² ; actuellement 5 % de la capacité mondiale), l’Iowa (17 hab/km² ; 4 %) et le Nebraska (10 hab/km²). On ne peut pas en dire autant d’emplacements tels que Londres et Francfort. Ce dernier est d’ailleurs sorti du top 20 des hubs mondiaux, comme Amsterdam. Ne reste, côté européen, que Dublin, qui accueille environ 4 % de la capacité hyperscale.

capacité par région géographique

De cette capacité, le trio Amazon-Microsoft-Google détient une part (58 %) du même ordre que son poids sur le marché mondial du cloud d’infrastructure (63 %). Leur ratio capex est aujourd’hui au niveau de celui des telcos, approchant de 20 % du chiffre d’affaires – la majorité allant dans les datacenters.

Sur un marché du cloud d’infrastructure estimé à 107 Md$ au T3 2025, les néo-clouds (plates-formes spécialisées, le plus souvent sur les workloads IA à base de GPU) montent doucement en puissance. Ils ont passé les 5 Md$ de revenus trimestriels. Les principaux acteurs se nomment CoreWeave, Crusoe, Lambda, Nebius… et OpenAI (que Synergy inclut au titre de ses abonnements à ChatGPT).

En parallèle, les fusions-acquisitions(-investissements) « orienté(e)s datacenter » ont atteint en 2024 une valeur globale sans précédent : 73 Md$. Principal contributeur : l’acquisition d’AirTrunk, emmenée par le fonds Blackstone et bouclée en décembre pour 16 Md$. Suivent deux investissements dans Vantage Data Centers totalisant 9,2 Md$.

Illustration principale générée par IA

The post Course à l’IA : la bulle controversée, la pénurie avérée appeared first on Silicon.fr.

  •  

Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable »

Dans les couloirs de l’industrie musicale, l’annonce fait du bruit. Universal Music Group (UMG), premier major mondial de la musique, et Nvidia, poids lourd des semi-conducteurs et de l’IA, ont noué une alliance de long terme pour développer des modèles d’intelligence artificielle appliqués au catalogue du label.

L’objectif affiché : transformer en profondeur la découverte musicale, l’engagement des fans et les processus de création, tout en garantissant la protection des droits d’auteur.

Un modèle qui « pense » comme un mélomane

Au cœur du dispositif, on trouve Music Flamingo, le modèle audio-langage développé par Nvidia fin 2025. Cette technologie se distingue par sa capacité à analyser des morceaux de près de 15 minutes dans leur intégralité.

Contrairement aux systèmes traditionnels qui se contentent d’étiqueter par genre ou style, Music Flamingo décortique structure harmonique, instrumentation, paroles et trajectoires émotionnelles. Le tout pour reproduire, selon ses concepteurs, la façon dont un auditeur humain appréhende une œuvre.

Cette approche ouvre des perspectives inédites : fini les recherches par simple mot-clé, place aux requêtes par ambiance, contexte narratif ou résonance culturelle. Les plateformes de streaming adossées au catalogue d’UMG pourraient ainsi proposer des recommandations fondées sur des similarités musicales profondes plutôt que sur des playlists thématiques conventionnelles.

Trois axes de développement

Le partenariat s’articule autour de trois piliers. D’abord, la découverte musicale : les algorithmes permettront d’explorer le catalogue selon des critères émotionnels et structurels sophistiqués. Ensuite, l’engagement des fans : artistes et auditeurs pourront interagir avec la musique dans un environnement « conversationnel et contextuel », loin du simple listing de titres.

Troisième volet, et non des moindres : la création. Un incubateur réunissant auteurs, compositeurs et producteurs verra le jour dans des studios prestigieux comme Abbey Road à Londres ou Capitol Studios à Los Angeles. Mission : co-concevoir de nouveaux outils alimentés par l’IA. UMG martèle toutefois que ces technologies resteront des aides à la création humaine, et non des machines à générer automatiquement de la musique.

La question brûlante des droits d’auteur

Derrière les promesses technologiques se cache un enjeu majeur : celui de la propriété intellectuelle. UMG et Nvidia promettent une IA « responsable », intégrant dès la conception la protection des œuvres, l’attribution et la rémunération des créateurs. Une posture qui tranche avec les pratiques de certaines start-up, accusées d’avoir entraîné leurs modèles sur des catalogues commerciaux sans autorisation.

Pour UMG, ce partenariat avec un mastodonte comme Nvidia représente une opportunité de dicter les standards du marché, en conciliant innovation technologique et respect du cadre légal. Le groupe entend proposer un « antidote » à la prolifération de contenus générés par des IA génériques, en misant sur un acteur capable d’intégrer nativement les contraintes de copyright dans ses outils.

Un coup stratégique pour les deux camps

Pour l’industrie musicale, l’accord peut faire jurisprudence et ouvrir la voie à d’autres alliances entre majors, plateformes et fournisseurs d’IA. Il valorise les catalogues musicaux comme ressources stratégiques pour entraîner des modèles spécialisés et pourrait creuser l’écart entre services premium dotés d’une découverte « intelligente » et offres standard aux algorithmes classiques.

Côté Nvidia, le deal marque une nouvelle étape dans la conquête des industries culturelles. Après le jeu vidéo et la vidéo, le groupe démontre que ses GPUs, ses plateformes de modélisation et ses modèles pré-entraînés comme Music Flamingo peuvent s’adapter aux exigences spécifiques de la musique. Un positionnement stratégique au moment où la régulation de l’IA se durcit dans de nombreux pays.

Illustration : image générée par l’IA

The post Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable » appeared first on Silicon.fr.

  •  
❌