Vue normale

Reçu hier — 8 janvier 2026

Dépendances numériques de l’UE : une matrice des risques

8 janvier 2026 à 16:22

2017 : Apple empêche la publication d’applications sur l’App Store en Iran. 2019 : GitHub bloque des utilisateurs en Syrie ; Adobe, au Venezuela. 2025 : Microsoft coupe la messagerie du procureur général de la Cour pénale internationale.

Toutes ces mesures ont fait suite à des sanctions dont avait décidé le gouvernement américain. Une étude récemment remise au Parlement européen* les mentionne, en illustration des risques inhérents aux dépendances à des technologies étrangères.

Les technologies chinoises en font aussi partie. Sont évoquées entre autres celles de Xiaomi, qui a capté 12 % du marché européen des smartphones en 2024. Ainsi que celles de Huawei et ZTE, dont les équipements télécoms ont couvert jusqu’à un quart des réseaux mobiles européens.

Une matrice du « risque de souveraineté » sur 9 dimensions

L’étude propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions.

Contrôle juridique

Le risque est jugé maximal (5/5) sur la dimension « pourcentage de logiciels critiques de sources non européennes », en ce qu’on dépasse les 80 %.

Il l’est aussi sur la concentration des dépendances au sein d’une seule juridiction étrangère (États-Unis).

Il est élevé (4/5) pour ce qui est de l’influence gouvernementale sur des fournisseurs-clés (des lois à portée extraterritoriale s’appliquent aux activités de ces fournisseurs dans l’UE).

Autonomie technique

Le risque est moyennement élevé (3/5) concernant la disponibilité de substituts européens (il en existe sur beaucoup des segments étudiés, mais leur adoption reste limitée).

Il l’est aussi sur la complexité technique du changement de fournisseur. Lequel « peut prendre 6 à 15 mois », nous annonce-t-on en citant trois sources : un cas de migration vers S/4HANA, la transition cloud de l’organisme chargé de la régulation des titres municipaux aux USA… et un guide AWS pour les grandes migrations.

Le risque est jugé plus élevé (4/5) pour ce qui est de l’accès au code source : les logiciels les plus utilisés sont propriétaires.

Indépendance stratégique

Le score de risque le moins élevé (2/5) concerne la disponibilité de capacités R&D dans l’UE – même si celles-ci sont « de plus en plus limitées », nous fait-on remarquer.

Pour ce qui est des compétences, on en est à 3/5 (la base est « considérable » mais s’amoindrit).

Même score pour le financement (difficultés notables pour obtenir des capitaux européens). Sur ce point, 28 % des fonds levés par les start-up européennes en 2024 provenaient des USA. Cette même année, les acquisitions par des entreprises américaines ont représenté près de la moitié de la valeur des M&A tech sur le continent.

Le risque économique, du micro au macro

À cette matrice du risque de souveraineté s’en ajoute une sur le risque économique. Là aussi avec trois axes (coûts directs, dépendance au marché et impact macroéconomique).

Coûts directs

Le risque est dit maximal (5/5) sur le coût des produits et services, en ce qu’une part considérable du PIB de l’UE y est consacrée (1,5 % rien que pour les dépenses des entreprises).

Il est moyennement élevé (3/5) concernant les hausses de prix. De l’ordre de 10 % par an, elles sont plus fortes que l’inflation, mais « acceptables pour les acheteurs ».

Pour le coût du changement de fournisseur, on en est à 4/5 : malgré les apports du Data Act, les démarches nécessitent des investissements « irraisonnables ».

Dépendance au marché

Le risque est maximal (5/5) si on le prend sous le prisme de la position de marché des fournisseurs non européens : des acteurs américains captent 70 à 100 % de la plupart des segments étudiés.

Le risque reste élevé (4/5) si on s’intéresse au pouvoir de négociation des entreprises européennes, limité tant par le manque de substituts que par le coût du changement de fournisseur.

Risque également élevé (4/5) pour la dépendance R&D à des fournisseurs étrangers : la plupart des innovations européennes viennent s’adosser à des plates-formes américaines.

Impact macroéconomique

Score maximum sur les trois éléments listés :

  • Compétitivité de l’UE (jugée « affaiblie en permanence »)
  • Effets sur l’emploi (les dépenses des entreprises européennes financent environ 2 millions d’emplois aux États-Unis)
  • Balance commerciale (le déficit dans le secteur numérique dépasse 100 Md€ et continue à croître)

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration générée par IA

The post Dépendances numériques de l’UE : une matrice des risques appeared first on Silicon.fr.

Marché numérique français : reprise en trompe-l’œil ou vrai rebond ?

8 janvier 2026 à 15:37

Après une année 2025 en demi-teinte (+2 %), le marché du numérique français devrait retrouver des couleurs en 2026 avec une croissance prévue de 4,3 %, selon les dernières projections de Numeum, le syndicat des entreprises du secteur.

Un chiffre qui pourrait rassurer, si l’on s’en tenait aux apparences. Mais la réalité est plus contrastée : cette reprise masque des trajectoires divergentes selon les segments, et pose une question lancinante sur la répartition de la valeur créée.

Un marché qui se désolidarise

Le premier constat tient en trois chiffres. Les éditeurs de logiciels et plateformes affichent une croissance vigoureuse de 8,4 % en 2026, prolongeant leur dynamique de 2025 (+8,2 %), pour atteindre 31,6 milliards €. À l’inverse, les entreprises de services du numérique (ESN) peinent à retrouver leur rythme : après un recul de 1,8 % en 2025 (34,3 milliards), elles ne progresseraient que de 1,4 % en 2026, à 35 milliards. Quant aux sociétés d’ingénierie et de conseil en technologies (ICT), elles reviennent tout juste en territoire positif (+1 %) après une baisse de 2,5 % l’an dernier.

Cette divergence n’est pas anecdotique. Elle illustre un basculement structurel : le passage d’un modèle fondé sur les projets et les prestations intellectuelles vers un modèle de consommation récurrente, porté par le SaaS et les plateformes cloud.

En 2025, 77 % des nouveaux projets des éditeurs ont été réalisés en mode SaaS, contre 53 % en 2021. Cette migration accélérée capte une part croissante des budgets IT, au détriment des services d’intégration traditionnels.

L’IA générative, accélérateur… de quoi exactement ?

L’intelligence artificielle générative est présentée comme le grand moteur de la reprise. Près de 40 % des acteurs du secteur constatent déjà un impact positif sur leurs marges ou leur chiffre d’affaires.

Les gains de productivité sont tangibles : 12,5 % en moyenne en 2025, avec une perspective de 17 % en 2026. Les éditeurs l’utilisent pour accélérer leurs cycles de développement, créer de nouvelles offres (63 % des répondants) et personnaliser leurs solutions.

Mais pour les ESN, le tableau est plus ambigu. L’IA permet certes de répondre plus rapidement aux appels d’offres (54 % des acteurs) et de livrer davantage de projets dans l’année (58 %), mais elle introduit aussi une pression déflationniste. Si l’on délivre plus vite, pourquoi facturer autant ? Certains clients commencent à renégocier leurs contrats à la baisse, pointant les gains de productivité pour justifier une compression des tarifs. Résultat : 15 % des entreprises interrogées évoquent une pression accrue sur les prix, 10 % une réduction du temps facturable.

Cette dynamique pose une question centrale : qui capte la valeur générée par l’IA ? Les gains de productivité se traduisent-ils en marges supplémentaires pour les prestataires, en tarifs réduits pour les clients, ou en nouvelles capacités qui justifient un niveau de facturation stable ? Pour l’instant, la réponse n’est pas tranchée. Et c’est précisément ce flou qui inquiète.

La souveraineté numérique, du discours à la réalité

Autre thème en vogue : la souveraineté numérique.

Numeum relève que 42 % des entreprises du secteur accompagnent leurs clients sur des projets liés à cette thématique. Mais la dynamique reste embryonnaire : 80 % des acteurs ont réalisé moins de dix projets en 2025, avec un panier moyen compris entre 100 000 et 150 000 euros. Loin, donc, des grands programmes structurants.

Ce concept, longtemps cantonné aux discours politiques, commence néanmoins à se matérialiser sous la pression de plusieurs facteurs : obligations réglementaires (NIS2, IA Act), tensions géopolitiques et méfiance croissante envers les solutions américaines dominantes. Mais le passage de l’intention à l’investissement reste lent, freiné par la complexité technique et les arbitrages budgétaires.

Un retour de la croissance… sans l’emploi ?

Derrière les prévisions optimistes, un angle mort persiste : l’emploi. En 2024, le secteur a perdu 7 500 postes. L’année 2025 s’est inscrite dans une logique de stabilisation, sans réelle reprise des embauches.

Or, si la croissance de 2026 se matérialise, il n’est pas certain qu’elle se traduise par une dynamique d’emploi comparable à celle des deux dernières décennies, où les effectifs avaient progressé de 50 % en dix ans pour atteindre environ 666 000 salariés.

Plusieurs facteurs expliquent cette déconnexion. D’abord, l’automatisation : les gains de productivité liés à l’IA réduisent mécaniquement les besoins en main-d’œuvre sur certaines tâches. Ensuite, la géographie du « delivery » : l’offshore progresse quand l’optimisation devient le maître-mot. Enfin, la réallocation des budgets vers les modèles récurrents (SaaS, cloud) diminue la part des projets nécessitant une mobilisation humaine intensive.

Ce que les DSI doivent retenir

Pour les directions des systèmes d’information, cette reconfiguration du marché impose trois vigilances.

D’abord, une cartographie rigoureuse des dépenses récurrentes. Les abonnements SaaS et les factures cloud deviennent incompressibles, grignotant les marges de manœuvre budgétaires. Anticiper leur évolution est crucial pour préserver la capacité d’investissement dans des projets de transformation.

Ensuite, une réflexion sur la mesure de la valeur. Les gains de productivité liés à l’IA ne doivent pas se traduire uniquement par une réduction des jours-hommes facturables. Il faut définir des unités de valeur pertinentes : qualité, délai, couverture fonctionnelle, réduction des risques. Faute de quoi, la pression déflationniste des fournisseurs se fera au détriment de la qualité des livrables.

Enfin, une attention accrue aux enjeux de souveraineté et de dépendance. La concentration sur quelques hyperscalers américains fragilise la capacité de négociation et la liberté de choix. Sans tomber dans le dogmatisme, diversifier les sources d’approvisionnement et privilégier des solutions offrant des garanties de réversibilité devient un enjeu stratégique.

Une reprise, oui. Mais pour qui ?

Numeum table sur une accélération en 2026, portée par l’IA, la cybersécurité et les investissements dans la modernisation des systèmes. Les indicateurs opérationnels se redressent, les carnets de commandes se remplissent, les taux d’occupation des ESN remontent. Mais cette reprise ne ressemble pas aux précédentes.

Elle se construit sur fond de réallocation de valeur vers les éditeurs et les plateformes, de pression déflationniste sur les services, et d’incertitudes persistantes sur l’emploi. La croissance peut revenir sans recréer les postes perdus, surtout si elle s’alimente d’automatisation et d’arbitrages de localisation.

Dans un contexte d’instabilité économique et géopolitique, Numeum souligne lui-même la complexité d’anticiper précisément l’évolution du secteur.

The post Marché numérique français : reprise en trompe-l’œil ou vrai rebond ? appeared first on Silicon.fr.

OpenAI lance ChatGPT Health…mais pas dans l’UE

8 janvier 2026 à 12:24

Avec le lancement de ChatGPT Health, OpenAI franchit une nouvelle étape dans son ambition de transformer son chatbot en super-outil personnel capable d’accompagner les utilisateurs dans les dimensions les plus sensibles de leur existence.

Le déploiement se fait progressivement, via une liste d’attente pour un groupe restreint d’utilisateurs, avant une ouverture élargie dans les semaines à venir.

ChatGPT Health se présente comme un espace dédié au sein de l’interface habituelle, conçu pour aider les utilisateurs à mieux comprendre leur santé et préparer leurs rendez-vous médicaux. L’ambition affichée n’est pas de concurrencer les médecins, mais de les compléter. OpenAI insiste : il ne s’agit ni de diagnostiquer ni de traiter, mais d’apporter des explications pédagogiques sur des résultats d’examens, des symptômes ou des options thérapeutiques.

La vraie innovation réside dans la possibilité de connecter directement ses données de santé réelles. Dossiers médicaux électroniques via la plateforme b.well, mais aussi applications grand public comme Apple Health, MyFitnessPal, WeightWatchers, AllTrails, Instacart ou Peloton peuvent désormais alimenter les réponses de l’IA. De quoi ancrer les conseils dans le profil réel de l’utilisateur plutôt que dans des généralités.

Un portail santé intégré à ChatGPT

Concrètement, ChatGPT Health peut expliquer des résultats d’analyses biologiques, mettre en évidence des tendances dans la glycémie ou le sommeil, aider à préparer une consultation avec une synthèse des symptômes et traitements en cours, ou encore proposer des plans d’activité physique alignés sur les objectifs personnels.

Face à la sensibilité des données médicales, OpenAI indique avoir déployé une architecture spécifique. ChatGPT Health fonctionne comme un silo isolé du reste de la plateforme, avec des couches supplémentaires de chiffrement et une promesse forte : les conversations au sein de cet espace ne servent pas à entraîner les modèles d’intelligence artificielle de l’entreprise.

Les utilisateurs conservent le contrôle sur leurs connexions et peuvent révoquer l’accès aux différentes sources à tout moment. L’authentification multi-facteurs est encouragée pour sécuriser davantage les comptes. Selon OpenAI, toutes les applications tierces disponibles ont dû passer des audits de sécurité stricts avant d’être intégrées.

Plus de 260 médecins mobilisés

Pour affiner son outil, OpenAI affirme avoir collaboré avec plus de 260 médecins issus d’une soixantaine de pays et de nombreuses spécialités. Ces praticiens ont fourni des retours sur les réponses du modèle des centaines de milliers de fois, permettant de cadrer l’assistant sur des usages considérés comme utiles et relativement sûrs : pédagogie, préparation de consultations, explication de trajectoires de soins ou décryptage des options d’assurance santé.

Les cas d’usage visés couvrent la compréhension de symptômes fréquents, l’analyse de tendances de bien-être à partir des données connectées, ou encore les compromis entre différentes options d’assurance en fonction des habitudes de soins observées.

Avec cette offensive, OpenAI se positionne frontalement sur un marché de la santé numérique déjà encombré, où se croisent géants de la tech, plateformes de télé-médecine et assureurs.

Le mur européen du RGPD

L’exclusion de l’Europe du lancement de ChatGPT Health révèle un gouffre réglementaire difficile à combler. Autrement dit, impossible en l’état de franchir le mur du Règlement général sur la protection des données (RGPD) qui classe les informations de santé parmi les données les plus sensibles et impose des obligations drastiques.

Le contexte n’arrange rien : ChatGPT (standard)  fait déjà l’objet de plaintes persistantes en Europe pour non-conformité au RGPD. Les CNIL française et italienne, ainsi que le Contrôleur européen de la protection des données, pointent l’absence de base légale claire pour le traitement des données, leur utilisation pour l’entraînement des modèles, et les difficultés à exercer les droits de rectification et d’oubli.

Même l’offre Enterprise, qui bénéficie d’un hébergement européen depuis 2025, n’échappe pas aux enquêtes sur les lacunes en matière de transparence et de minimisation des données.

Pour ChatGPT Health, les obstacles sont encore plus élevés. Les protections techniques mises en place par OpenAI – isolement des données, chiffrement renforcé, non-utilisation pour l’entraînement – sont certes louables, mais insuffisantes au regard du RGPD. L’entreprise devrait notamment fournir un consentement granulaire valide, signer des accords de sous-traitance (DPA) avec ses partenaires comme b.well, réaliser une évaluation d’impact sur la vie privée pour chaque type de données sensibles, et surtout héberger les informations sur le sol européen pour éviter les transferts extra-communautaires.

L’absence de Privacy Shield valide entre l’Union européenne et les États-Unis complique encore la donne. Sans certification RGPD explicite ni adaptation aux clauses contractuelles types ou au EU-US Data Privacy Framework, toute utilisation du service par des résidents européens exposerait OpenAI à des sanctions potentiellement lourdes.

Les alternatives européennes en embuscade

Cette impasse réglementaire ouvre un boulevard aux acteurs européens. Des solutions basées sur des modèles comme Mistral, hébergées dans l’UE et certifiées RGPD, existent déjà pour les professionnels de santé. Elles garantissent la souveraineté des données et évitent les transferts outre-Atlantique, arguments de poids pour les établissements de santé et les autorités sanitaires.

OpenAI pourrait théoriquement adapter ChatGPT Health pour l’Europe via un hébergement local et une architecture similaire à celle de son offre Enterprise, mais aucun calendrier d’adaptation pour les marchés européens n’est annoncé.

La conjonction du RGPD et du récent AI Act européen, qui impose des règles strictes sur les systèmes d’IA à haut risque dans le domaine de la santé, pourrait exiger une validation réglementaire longue et complexe avant tout déploiement.

Reste à savoir si OpenAI acceptera de jouer selon les règles européennes ou si l’entreprise préférera se concentrer sur des marchés moins contraignant. Pour les 450 millions d’Européens, l’attente pourrait durer.

Image : © DR

The post OpenAI lance ChatGPT Health…mais pas dans l’UE appeared first on Silicon.fr.

Les dépendances numériques de l’UE chiffrées, GenAI comprise

8 janvier 2026 à 12:05

Environ 83 % des dépenses des grandes entreprises européennes en services cloud et logiciels vont à des acteurs américains.

Une étude publiée en avril 2025 avait produit cette estimation. Commandée par le Cigref, elle quantifiait à un peu plus de 260 Md€ la valeur ainsi créée chaque année aux États-Unis – soit 1,5 % du PIB de l’UE et 1,5 fois son budget.

Cette dernière donnée est reprise dans une autre étude, parue en décembre*. Elle a été réalisée par un cabinet de recherche et de conseil lituanien, à la demande de la commission de l’industrie, de la recherche et de l’énergie du Parlement européen. Y sont cartographiées les dépendances numériques auxquelles l’Europe est sujette (avec un focus sur le logiciel et la cyber) et les risques économiques et géopolitiques qu’elles soulèvent. Nous en présentons ici quelques éléments chiffrés.

À 10 ans d’intervalle, les GAFAM ont maintenu voire renforcé leur position

L’étude compile des données de StatCounter pour rendre compte de l’évolution de la concurrence sur divers segments du marché entre 2015 et 2025.

OS de bureau : 90 % du marché pour Apple et Microsoft

Windows macOS Linux ChromeOS Autres/inconnus
2015 86,26 % 10,12 % 2,18 % 0,21 % 1,22 %
2025 (juillet) 73,45 % 16,34 % 3,82 % 1,57 % 4,82 %

En 10 ans, Windows a perdu environ 13 % de part de marché, tandis que macOS en a gagné 6 %. Leur part cumulée avoisine 90 %.

OS mobiles : 99,5 % du marché pour Apple et Google

Android iOS Windows Autres
2015 63,3 % 28,79 % 4,03 % 3,66 %
2025 (juillet) 65,3 % 34,21 % 0,01 % 0,48 %

La plus grande progression est pour iOS (+ 5,42 %).
L’usage des forks d’Android made in Europe est quasiment nul.

Moteurs de recherche : Google à 90 %

Google Bing Yandex Yahoo! Autres
2015 92,55 % 2,73 % 1,31 % 2,06 % 1,34 %
2025 (juillet) 89,9 % 4,13 % 3,32 % 1,05 % 1,6 %

Malgré les sanctions à répétition censées rééquilibrer la concurrence, Google capte encore 9 recherches sur 10. Le moteur allemand Ecosia a environ 0,3 % du marché ; Qwant, moins de 0,1 %.

Réseaux sociaux : Facebook reste au-dessus des 80 %

Facebook Instagram YouTube Twitter/X Pinterest Tumblr Reddit Autres
2015 84,82 % N/A N/A 5,79 % 3,18 % 2,87 % 1,53 % 1,81 %
2025 (juillet) 80,79 % 7,07 % 1,82 % 4,33 % 4,07 % N/A 0,93 % 0,99 %

Selon l’analyse que fait StatCounter, Facebook concentre encore plus de 80 % des pages vues.
L’usage des plates-formes décentralisées comme Mastodon et Diaspora reste « négligeable », pour reprendre les mots de l’étude.

Navigateurs : les GAFAM cumulent près de 90 % du marché

Chrome Safari Edge/IE Firefox Samsung Internet Opera Yandex Android Autres
2015 44,64 % 14,7 % 12,69 % 17,41 % N/A 2,93 % 0,36 % 5,22 % 2,06 %
2025 (juillet) 60,73 % 19,68 % 6,4 % 4,39 % 3,28 % 2,7 % 1,25 % 0,36 % 1,1 %

Chrome a gagné environ 16 % de part de marché, tandis que Firefox en a perdu 13 %.
Même en ajoutant Vivaldi, les navigateurs d’origine européenne ne captent pas plus de 3 % du marché.

Des dépendances fortes sur la chaîne de valeur de la GenAI

L’étude se réfère aussi à des productions du cabinet McKinsey. En particulier, une estimation de la part de marché de l’Europe sur chacun des 8 segments d’une chaîne de valeur GenAI « simplifiée ».

Segment Part de marché Trajectoire historique
Matières premières < 5 % Stable
Équipements de fabrication de semi-conducteurs > 15 % En hausse
Conception de semi-conducteurs < 5 % En baisse
Fabrication de semi-conducteurs < 5 % Stable
Infrastructure cloud et supercalculateurs < 5 % Stable
Modèles de fondation 5-15 % En hausse
Applications IA 5-15 % En hausse
Services de conception et déploiement de cas d’usage > 15 % En hausse

L’Europe fournit environ 5 % des matières premières stratégiques pour la fabrication de semi-conducteurs. Elle représente moins de 1 % de la capacité de production mondiale de semi-conducteurs à moins de 7 nm pour l’IA. Elle a en revanche, avec ASML, 80 à 90 % de part de marché sur la lithographie EUV.

En croisant parts de marché mondiales et indicateurs d’adoption régionale, l’étude tente de donner une photographe du marché européen de la GenAI. Les dépenses en la matière étant souvent comptées sur les budgets cloud, le résultat reflète davantage le business des plates-formes (Azure OpenAI, Bedrock/Sagemaker, Vertex AI…) que des outils destinés à l’utilisateur final.

parts de marché GenAI en Europe

SAP garde une nette longueur d’avance sur l’ERP…

Le marché de la GenAI est estimé à 3,1 Md$ en 2024. Celui de l’IA d’entreprise, à 4,8 Md$. SAP y occupe probablement une position plus favorable, vu le niveau d’adoption de son ERP.

Sur ce segment à 19 Md$ en 2023, l’éditeur allemand capte 55 % de la valeur. Oracle parvient toutefois à combler l’écart avec la transition cloud, tout en générant davantage de revenu par client. Les estimations sont moins certaines pour les plus petits fournisseurs, faute de communication financière.

parts de marché ERP Europe

… et de retard sur le CRM

Le marché du CRM est d’une valeur comparable (18 Md$ en 2024). SAP n’y a cependant pas le même poids.

parts de marché CRM Europe

Dans la bureautique et la collaboration (18 Md$ en 2025), Microsoft se taille la part du lion, sur la foi de données du cabinet Compass Lexecon pour 2023.

parts de marché collaboration bureautique

En élargissant à l’ensemble des logiciels d’entreprise (70 Md$ en 2025), SAP devance Oracle et Salesforce. L’UE a des leaders sur quelques niches. Notamment le PLM, avec Dassault Systèmes (17 % du marché, Siemens étant dans le top 3), lequel se distingue aussi sur la CAD.

parts de marché logiciels d'entreprise Europe

Le marché des services informatiques serait 4 à 5 fois plus grand que celui des logiciels d’entreprise (300-350 Md$ en 2023, hors services liés au cloud d’infrastructure).

parts de marché services conseil Europe

Le marché de la cybersécurité est estimé à 63 Md$ en 2025. Les produits (logiciel + matériel) en représentent 42 à 68 % ; le services, 32 à 58 %.
L’Europe est bien représentée sur les services, avec la France en première ligne (Atos, Capgemini, Orange Cyberdefense, Thales). Pas dans les solutions elles-mêmes, où Palo Alto Networks a tendance à monter en puissance, tandis que Check Point et Cisco bénéficient d’un ancrage historique fort.

Marchés publics : 12 % de la valeur pour les consortiums 100 % européens

Si on se focalise la commande publique au sein de l’UE, 88 % de la valeur totale des contrats IT va à des consortiums qui incluent au moins une entreprise non européenne.

Cette information résulte de l’analyse de 315 appels d’offres organisés entre 2020 et 2025.
Sur ce même échantillon, 18 % des marchés attribués ont eu au moins un lauréat américain ; 8 %, au moins un lauréat japonais. Accenture et Deloitte ont été les sociétés les plus fréquemment sélectionnées.

taux de sélection dans les appels d'offres

sociétés gagnantes des appels d'offres

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration principale © Molodec – Shutterstock.com

The post Les dépendances numériques de l’UE chiffrées, GenAI comprise appeared first on Silicon.fr.

Warner Bros Discovery : c’est toujours « non » pour l’offre XXL de Paramount Skydance

Par :Olivier
8 janvier 2026 à 07:01
Warner Bros Netflix Rachat

Il se passe toujours quelque chose sur le front de l'acquisition de Warner Bros Discovery ! Dernier épisode en date, le groupe de médias a une nouvelle fois demandé à ses actionnaires d’ignorer l’offre hostile de Paramount Skydance, pourtant évaluée à près de 110 milliards de dollars. Malgré des garanties financières musclées et un soutien de poids, Warner préfère rester fidèle à l’accord déjà signé avec Netflix. Une bataille de chiffres, d’arguments, et de nerfs.

Reçu — 7 janvier 2026

Nike pourrait revendre Converse : la marque fait le ménage et vient de laisser tomber RTFKT

7 janvier 2026 à 17:30
Nike Converse

Après plusieurs trimestres difficiles et une forte chute en Bourse, Nike cherche à reprendre la main sur sa stratégie. Le groupe américain a commencé par céder RTFKT, sa filiale spécialisée dans les NFT, avant d’envisager un recentrage plus large. Et selon des analystes, Converse pourrait à son tour être concernée.

Course à l’IA : la bulle controversée, la pénurie avérée

7 janvier 2026 à 13:52

La croissance du parc mondial de datacenters hyperscale ne montre pas de signes de ralentissement. Les dépenses d’infrastructure associées, non plus.

Depuis deux ans, les pointages trimestriels de Synergy Research Group en ont témoigné quasi systématiquement. Le dernier en date n’y déroge pas.

Ruée sur les GPU… et sur la RAM

Le parc en question avoisine désormais les 1300 datacenters, pour une puissance informatique plus que quadruplée en 7 ans. Au T3 2025, les dépenses d’exploitation des hyperscalers – Synergy en recense une vingtaine, acteurs du IaaS, du PaaS, du SaaS, de la recherche, des réseaux sociaux, du e-commerce et du gaming – ont atteint 142 Md$. Elles étaient d’environ 80 Md$ un an plus tôt (et 50 Md$ au T3 2023).

capex capacité hyperscalers

Ces investissements vont pour l’essentiel dans les serveurs. La plupart d’entre eux (91 %) sont maintenant équipés d’accélérateurs. À commencer par des GPU… qui ont besoin d’autant plus de RAM qu’on y fait tourner des modèles d’IA.

La course engagée par les hyperscalers a contribué à engendrer une pénurie de mémoire. Et par là même une augmentation remarquable des prix. On en est par exemple arrivé, il y a quelques semaines, à ce qu’un kit de 64 Go de DDR5 coûte plus cher qu’une PlayStation.

Le phénomène est amplifié par une réorientation de la fabrication vers des types de mémoires adaptés aux accélérateurs IA. En tête de liste, la HBM (DRAM à large bande passante). Les modules mémoire génériques se raréfient d’autant plus.

Des conséquences en 2026 sur PC et smartphones

Il se dit que la situation pourrait persister au moins jusqu’en 2027. Elle a en tout cas commencé à se répercuter en bout de chaîne, sur le prix des équipements informatiques. Chez Dell, il semble falloir se préparer à des augmentations de 10 à 30 % dans les gammes de PC B2B. Chez ASUS, il est question de 15 à 20 % de hausse sur des notebooks. Les prévisions sont similaires chez Acer, qui songerait aussi à livrer des modèles avec moins de RAM… potentiellement à rebours de la promesse des « PC IA ».

On surveillera particulièrement les plus petits fournisseurs, qui ont globalement moins d’inventaire, de trésorerie et de marge de négociation. Même chose avec les smartphones. Sur ce segment, la mémoire peut traditionnellement représenter jusqu’à 20 % du coût de revient matériel. Il est probable que, si hausses de prix il y a, elle seront plus nettes sur l’entrée et le milieu de gamme, où les marges sont faibles. À l’autre bout du spectre, on pourrait voir les flagships plafonner à 12 Go de RAM en 2026.

IDC estime que cette année, le marché des smartphones pourrait se contracter d’environ 5 % en volume, tandis que le prix de vente moyen augmenterait de quelque 8 %. Ses prévisions sont comparables pour les PC, dont les fabricants ne se verront sans doute pas livrer toute la capacité de mémoire commandée (potentiellement, autour de 70 % pour les principaux OEM et de 40 % pour les plus petits). D’autant plus que les hyperscalers se battent, de plus en plus agressivement, pour les stocks restants. Une tendance accentuée par le marché chinois, où les USA ont finalement autorisé la vente des GPU H200. Sur place, plus de 2 millions d’unités auraient été commandées à NVIDIA, qui en aurait à peine la moitié en réserve. AMD est aussi concerné, dans une moindre mesure, avec ses accélérateurs Instinct. Alibaba, entre autres, lui en aurait acheté jusqu’à 50 000.

Les hyperscalers en éléments perturbateurs

En parallèle à leurs ventes sur le marché du datacenter, AMD et NVIDIA prépareraient tous deux des hausses de prix sur leurs cartes graphiques « grand public ». Ce mois-ci pour le premier ; en février pour le second. Avec la pénurie, la GDDR en est venue à constituer plus de 80 % de leur coût de revient.

AMD envisagerait par ailleurs de réintroduire des puces sur socket AM4 (potentiellement des CPU Ryzen 5000 et des APU Zen 3), ce qui éviterait d’avoir à racheter des cartes mères… et de la DDR5.

Du côté des fabricants de semi-conducteurs, on s’en tient dorénavant à des contrats au trimestre. Et on donne, comme sus-évoqué, la priorité à la mémoire HBM. Actuellement en mesure de produire 160 000 à 170 000 wafers par mois, Samsung Electronics prévoirait d’augmenter cette capacité de 50 %. Micron a quant à lui annoncé que son carnet de commandes HBM était rempli pour l’année 2026.

Dans ce contexte, le marché IT dans son ensemble a potentiellement connu, en 2025, une croissance sans égale depuis 30 ans. Tout du moins à en croire IDC, qui communiquait, début décembre, une estimation à + 14 % (4250 Md$), hors dépenses télécoms. En première ligne, les dépenses des fournisseurs de services d’infrastructure, pas majoritaires (environ 500 Md$), mais en nette croissance (+ 86 %, contre environ + 10 % pour les dépenses des entreprises).

IDC prévisions dépenses IT mondiales

IDC croissance des dépenses IT mondiales par client

Le capex d’Amazon, Google et Microsoft atteint celui des telcos

Si on s’en tient à ce qu’IDC qualifie d’infrastructures IA (dans les grandes lignes, tout ce qui porte des applications au minimum « augmentées » par de l’IA), les Ètats-Unis concentrent les trois quarts des dépenses, contre environ 5 % pour l’EMEA.
Sur place se trouve environ 55 % de la capacité hyperscale mondiale, selon Synergy Research Group. La Virginie en concentre à elle seule 14 %. Mais la demande croissante en énergie favorise les implantations dans des Ètats moins densément peuplés comme l’Oregon (22 habitants au km² ; actuellement 5 % de la capacité mondiale), l’Iowa (17 hab/km² ; 4 %) et le Nebraska (10 hab/km²). On ne peut pas en dire autant d’emplacements tels que Londres et Francfort. Ce dernier est d’ailleurs sorti du top 20 des hubs mondiaux, comme Amsterdam. Ne reste, côté européen, que Dublin, qui accueille environ 4 % de la capacité hyperscale.

capacité par région géographique

De cette capacité, le trio Amazon-Microsoft-Google détient une part (58 %) du même ordre que son poids sur le marché mondial du cloud d’infrastructure (63 %). Leur ratio capex est aujourd’hui au niveau de celui des telcos, approchant de 20 % du chiffre d’affaires – la majorité allant dans les datacenters.

Sur un marché du cloud d’infrastructure estimé à 107 Md$ au T3 2025, les néo-clouds (plates-formes spécialisées, le plus souvent sur les workloads IA à base de GPU) montent doucement en puissance. Ils ont passé les 5 Md$ de revenus trimestriels. Les principaux acteurs se nomment CoreWeave, Crusoe, Lambda, Nebius… et OpenAI (que Synergy inclut au titre de ses abonnements à ChatGPT).

En parallèle, les fusions-acquisitions(-investissements) « orienté(e)s datacenter » ont atteint en 2024 une valeur globale sans précédent : 73 Md$. Principal contributeur : l’acquisition d’AirTrunk, emmenée par le fonds Blackstone et bouclée en décembre pour 16 Md$. Suivent deux investissements dans Vantage Data Centers totalisant 9,2 Md$.

Illustration principale générée par IA

The post Course à l’IA : la bulle controversée, la pénurie avérée appeared first on Silicon.fr.

Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable »

7 janvier 2026 à 13:05

Dans les couloirs de l’industrie musicale, l’annonce fait du bruit. Universal Music Group (UMG), premier major mondial de la musique, et Nvidia, poids lourd des semi-conducteurs et de l’IA, ont noué une alliance de long terme pour développer des modèles d’intelligence artificielle appliqués au catalogue du label.

L’objectif affiché : transformer en profondeur la découverte musicale, l’engagement des fans et les processus de création, tout en garantissant la protection des droits d’auteur.

Un modèle qui « pense » comme un mélomane

Au cœur du dispositif, on trouve Music Flamingo, le modèle audio-langage développé par Nvidia fin 2025. Cette technologie se distingue par sa capacité à analyser des morceaux de près de 15 minutes dans leur intégralité.

Contrairement aux systèmes traditionnels qui se contentent d’étiqueter par genre ou style, Music Flamingo décortique structure harmonique, instrumentation, paroles et trajectoires émotionnelles. Le tout pour reproduire, selon ses concepteurs, la façon dont un auditeur humain appréhende une œuvre.

Cette approche ouvre des perspectives inédites : fini les recherches par simple mot-clé, place aux requêtes par ambiance, contexte narratif ou résonance culturelle. Les plateformes de streaming adossées au catalogue d’UMG pourraient ainsi proposer des recommandations fondées sur des similarités musicales profondes plutôt que sur des playlists thématiques conventionnelles.

Trois axes de développement

Le partenariat s’articule autour de trois piliers. D’abord, la découverte musicale : les algorithmes permettront d’explorer le catalogue selon des critères émotionnels et structurels sophistiqués. Ensuite, l’engagement des fans : artistes et auditeurs pourront interagir avec la musique dans un environnement « conversationnel et contextuel », loin du simple listing de titres.

Troisième volet, et non des moindres : la création. Un incubateur réunissant auteurs, compositeurs et producteurs verra le jour dans des studios prestigieux comme Abbey Road à Londres ou Capitol Studios à Los Angeles. Mission : co-concevoir de nouveaux outils alimentés par l’IA. UMG martèle toutefois que ces technologies resteront des aides à la création humaine, et non des machines à générer automatiquement de la musique.

La question brûlante des droits d’auteur

Derrière les promesses technologiques se cache un enjeu majeur : celui de la propriété intellectuelle. UMG et Nvidia promettent une IA « responsable », intégrant dès la conception la protection des œuvres, l’attribution et la rémunération des créateurs. Une posture qui tranche avec les pratiques de certaines start-up, accusées d’avoir entraîné leurs modèles sur des catalogues commerciaux sans autorisation.

Pour UMG, ce partenariat avec un mastodonte comme Nvidia représente une opportunité de dicter les standards du marché, en conciliant innovation technologique et respect du cadre légal. Le groupe entend proposer un « antidote » à la prolifération de contenus générés par des IA génériques, en misant sur un acteur capable d’intégrer nativement les contraintes de copyright dans ses outils.

Un coup stratégique pour les deux camps

Pour l’industrie musicale, l’accord peut faire jurisprudence et ouvrir la voie à d’autres alliances entre majors, plateformes et fournisseurs d’IA. Il valorise les catalogues musicaux comme ressources stratégiques pour entraîner des modèles spécialisés et pourrait creuser l’écart entre services premium dotés d’une découverte « intelligente » et offres standard aux algorithmes classiques.

Côté Nvidia, le deal marque une nouvelle étape dans la conquête des industries culturelles. Après le jeu vidéo et la vidéo, le groupe démontre que ses GPUs, ses plateformes de modélisation et ses modèles pré-entraînés comme Music Flamingo peuvent s’adapter aux exigences spécifiques de la musique. Un positionnement stratégique au moment où la régulation de l’IA se durcit dans de nombreux pays.

Illustration : image générée par l’IA

The post Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable » appeared first on Silicon.fr.

Discord pourrait bientôt entrer en Bourse : qu’est-ce que ça va changer ?

7 janvier 2026 à 12:00
Discord Ipo

Après des années de prudence sur les marchés, Discord avance ses pions. La plateforme de messagerie, passée du gaming aux communautés grand public, a déposé confidentiellement une demande d’introduction en Bourse aux États-Unis. Une étape décisive pour son avenir.

Reçu — 6 janvier 2026

Des lunettes autofocus qui rendent les verres progressifs inutiles

Par :Korben
6 janvier 2026 à 14:44

Vous portez des verres progressifs mais le truc relou c'est que ça vous oblige à pencher la tête dans tous les sens pour lire le menu au resto ou regarder votre écran... Alors ça tombe bien puisqu'une startup finlandaise vient de trouver LA solution pour nous débarrasser de cette galère.

En effet, IXI (anciennement Pixieray) a développé des lunettes autofocus qui font la mise au point toutes seules en fonction de ce que vous regardez. Le concept existe depuis un moment dans les labos, mais ça a été suffisamment miniaturisé pour ne rajouter que quelques grammes à des montures qui ressemblent à de vraies lunettes, et pas à un casque de réalité virtuelle.

Le prototype IXI mis à nu, avec sa finition élégante. ( Source )

En fait, ça fonctionne avec des cristaux liquides intégrés dans les verres, et des capteurs infrarouges et des LEDs permettent de tracker vos yeux et de calculer à quelle distance se trouve ce que vous fixez. Du coup, les verres ajustent automatiquement leur correction en quelques millisecondes. Vous regardez votre téléphone ? Correction de près. Vous levez les yeux vers la route ? Correction de loin. Et tout ça sans avoir à bouger la tête.

Et l'équipe derrière ce projet, c'est pas des rigolos puisque ce sont des anciens de chez Nokia, Microsoft HoloLens et Varjo (les gars qui font les casques VR haut de gamme). Ils sont 75 employés et ont levé 36,5 millions de dollars, avec notamment Amazon dans les investisseurs via leur Alexa Fund. Ça vous donne donc une idée du potentiel que les gros du secteur voient dans cette techno.

Perso, ce qui me plaît dans ce concept, c'est qu'on élimine enfin les zones aveugles des verres progressifs. Ce sont ces endroits sur les côtés du verre où tout devient flou alors qu'avec les cristaux liquides, toute la surface du verre est utilisable. Et pour ceux qui flipperaient à l'idée de porter des lunettes high-tech au volant, IXI a prévu un mode failsafe qui fait que si le système plante, les verres se calent automatiquement sur la vision de loin. Pas bête.

Niveau fabrication, l'électronique sort des usines finlandaises et les montures sont finies à la main en Italie. Le prix n'est pas encore annoncé bien sûr mais ce sera pour les richous qui en ont marre de jongler avec deux ou trois paires de lunettes.

Les lunettes IXI, élégantes comme des lunettes classiques, oh yeah ! ( Source )

Le lancement est prévu dans l'année qui vient. En attendant, si vous voulez en savoir plus sur ces histoires de lunettes connectées et de vie privée, jetez un oeil à Ban-Rays , un projet open source qui fait l'inverse à savoir détecter les gens qui vous filment avec leurs Ray-Ban Meta.

Source

Comment ManoMano a modernisé son système d’envoi d’e-mails

6 janvier 2026 à 12:16

Plutôt que des tables imbriquées et du CSS inline, utilisons MJML*.

ManoMano a fait ce choix pour générer des e-mails responsive. Le contexte : un projet de modernisation du système assurant l’envoi de ces messages.

Auparavant, il y avait un monolithe en PHP. Désormais, il y a une plate-forme Node.js/Kotlin.

L’ancien service était basé sur des bibliothèques obsolètes, d’autant plus difficiles à mettre à jour que l’expertise PHP s’était progressivement perdue en interne. Il était par ailleurs étroitement lié à des services tels que RabbitMQ, donc impossible à maintenir de manière indépendante. Des années de correctifs avaient plus globalement alourdi la codebase, compliquant les changements et les rendant plus risqués. L’écriture des templates en Twig et en HTML brut posait de plus des problèmes de compatibilité en fonction des clients de messagerie.

Une approche configuration over code

Le service d’origine était déclenché par des appels API ou par des événements RabbitMQ. Avant d’envoyer un e-mail, il fallait l’enrichir en récupérant des éléments sur plusieurs services externes. Des dépendances qui tendaient à fragiliser l’ensemble.

Pour favoriser le décommisionnement, ManoMano a isolé cette logique en un composant email-merger. Ses requêtes sont centralisées sur la nouvelle plate-forme au côté des requêtes « modernes » – qui ne passent plus par le monolithe – par un service Kotlin (email-sender). Celui-ci suit une approche configuration over code : toute la configuration est gérée via le back-end central, sans avoir à écrire de code.

La passerelle réceptionnant les requêtes s’appuie sur PostgreSQL pour le stockage d’état et de configuration. Elle transmet les événements à un nœud de travail qui récupère un template et fait la liaison avec le service SMTP. Le bus de messagerie RabbitMQ a été remplacé par du Kafka, pour l’élasticité, la résilience et le retry intégré.

Une séparation plus claire des responsabilités

Le fournisseur de templates (email-templates) est écrit en Node.js. Il évite aux développeurs front-end d’avoir à évoluer dans un environnement PHP. La bibliothèque react-mjml leur permet de créer des templates comme ils créent des composants React.

Épargner aux développeurs React le travail en environnement PHP a déchargé l’équipe back-end de nombre de requêtes. Dans le même temps, la centralisation des templates assure une plus grande cohérence des e-mails. Et les responsabilités sont plus claires : le back n’est plus impliqué dans les changements visuels, le front ne l’est plus dans la logique de delivery.

Mi-novembre 2025, ManoMano avait migré environ 80 % de son trafic mail sur la nouvele plate-forme. Dont ses communications les plus critiques (confirmations de commandes, notifications d’envois, réinitialisations de mots de passe).

* Mailjet Markup Language, publié en source ouverte (licence MIT) en 2016 par Mailjet. Ce langage déclaratif est transpilé en HTML responsive.

Illustration générée par IA

The post Comment ManoMano a modernisé son système d’envoi d’e-mails appeared first on Silicon.fr.

❌