Vue lecture

Cloudflare mise gros sur Astro

Début d’années riche en acquisitions pour Cloudflare. Après l’achat de Human Native, c’est l’équipe d’Astro Technology qui rejoint ses effectifs.

L’opération, dont les termes financiers n’ont pas été divulgués, marque une nouvelle étape dans la guerre d’influence que se livrent les géants du cloud pour contrôler l’écosystème du développement web.

Astro s’est imposé comme un framework JavaScript incontournable utilisé par des marques majeures comme Unilever, Visa et NBC News, ainsi que par des centaines de milliers de développeurs à travers le monde. Sa particularité ? Chaque page web ne charge que le code strictement nécessaire à son affichage dans le navigateur, une approche qui optimise drastiquement les performances.

Dans un environnement où les moteurs de recherche privilégient les sites au chargement rapide et où les consommateurs exigent une instantanéité quasi totale, cette technologie répond à un besoin critique du marché. Les sites reposant massivement sur JavaScript pour le rendu initial peinent à offrir cette vitesse, au détriment de leur référencement et de leurs taux de conversion.

L’open source comme arme stratégique

Matthew Prince, cofondateur et PDG de Cloudflare, ne s’y trompe pas en affirmant sa philosophie : « Protéger et investir dans les outils open source est essentiel à la santé d’un Internet libre et ouvert ». Contrairement aux craintes qui entourent habituellement les rachats par les grands groupes, Astro conservera sa licence MIT et restera entièrement open source.

Cette décision n’est pas anodine. Elle s’inscrit dans une stratégie éprouvée par Cloudflare, qui a déjà démontré son soutien à des projets comme TanStack et Hono sans chercher à verrouiller ces technologies. L’entreprise s’engage même à poursuivre le financement du Astro Ecosystem Fund, aux côtés de partenaires industriels comme Webflow, Netlify, Wix et Sentry.

Une intégration déjà bien avancée

Astro constitue déjà l’architecture de plateformes comme Webflow et Wix qui fonctionnent sur Cloudflare. Cette acquisition officialise donc une collaboration de longue date. Cloudflare n’a d’ailleurs jamais caché son rôle de sponsor et défenseur du projet depuis ses débuts.

Le timing de l’opération est particulièrement stratégique. Astro 6, dont la version bêta vient d’être lancée, introduit un serveur de développement repensé alimenté par l’API Vite Environments.

Cette nouvelle mouture permet aux développeurs utilisant le plugin Vite de Cloudflare de faire tourner leur environnement local avec workerd, le runtime open source de Cloudflare Workers. Une intégration technique qui facilite considérablement l’accès aux services comme Durable Objects et D1 dès la phase de développement.

Un double pari sur l’avenir

Avec Human Native, l’acquisition d’Astro dessine les contours d’une stratégie ambitieuse : contrôler l’ensemble du cycle de vie du contenu web, de sa création à sa monétisation dans l’écosystème de l’IA générative.

Cloudflare défie frontalement Vercel et Netlify, deux acteurs qui ont massivement investi dans leurs propres écosystèmes de développeurs. La bataille ne se joue plus uniquement sur les performances d’infrastructure, mais sur la capacité à offrir une expérience développeur complète et intégrée.

Reste une question cruciale : Cloudflare saura-t-il maintenir l’agilité et l’esprit innovant qui ont fait le succès d’Astro tout en l’intégrant dans son infrastructure mondiale ? Les prochains mois nous le diront.

The post Cloudflare mise gros sur Astro appeared first on Silicon.fr.

  •  

OpenAI insère la publicité dans ChatGPT

L’annonce a mis fin à des mois de spéculations : OpenAI va tester l’insertion de publicités dans ChatGPT dès les prochaines semaines.

La nouvelle, officialisée le 16 janvier par Sam Altman, marque un virage à 180 degrés pour le patron d’OpenAI qui déclarait encore en 2024 qu’il « détestait » la publicité et trouvait l’idée de la combiner avec l’IA « particulièrement dérangeante ».

La réalité économique a eu raison des réticences… Avec 800 millions d’utilisateurs mensuels mais seulement 5% d’abonnés payants, OpenAI affiche des pertes cumulées dépassant 13,5 milliards $ au premier semestre 2025. Les projections internes tablent même sur 74 milliards de déficit opérationnel en 2028, avant un hypothétique retour à la rentabilité en 2030.

Un modèle publicitaire sous haute surveillance

Les publicités, baptisées « contenus sponsorisés », apparaîtront au bas des réponses de ChatGPT pour les utilisateurs américains de la version gratuite et de l’abonnement ChatGPT Go, récemment lancé à 8 dollars par mois. OpenAI promet que ces annonces seront clairement identifiées et séparées des réponses principales, sans jamais influencer le contenu généré par l’intelligence artificielle.

« Les réponses de ChatGPT ne seront jamais influencées par la publicité », a martelé Fidji Simo, directrice des applications chez OpenAI, dans un communiqué. L’ancienne dirigeante de Meta et d’Instacart, recrutée pour piloter cette stratégie de monétisation, insiste sur la protection de la confidentialité : aucune donnée utilisateur ne sera vendue aux annonceurs, et les mineurs ne verront aucune publicité.

OpenAI a également défini des zones d’exclusion strictes. Les annonces ne s’afficheront pas sur des sujets sensibles comme la santé, la santé mentale ou la politique. Les utilisateurs pourront désactiver la personnalisation publicitaire, supprimer leurs données de ciblage et masquer les annonces avec un système de feedback.

Le pari risqué de la publicité conversationnelle

Ce basculement vers la publicité place OpenAI en concurrence frontale avec Google et Meta sur un nouveau terrain : celui de la publicité native dans l’IA.

Google vient d’autoriser l’insertion d’offres sponsorisées dans son AI Mode, tandis que Meta utilise désormais les interactions avec son chatbot pour affiner le ciblage publicitaire.

Selon les projections d’eMarketer, le marché américain de la publicité pilotée par l’IA devrait bondir de 1,1 milliard $ en 2025 à 26 milliards en 2029. Pour OpenAI, l’enjeu est considérable : les documents internes évoquent 1 milliard $de revenus publicitaires dès 2026, pour atteindre 29 milliards en 2029, soit 20% du chiffre d’affaires total.

Reste que le modèle de la publicité conversationnelle n’a rien d’évident. Perplexity, concurrent d’OpenAI, a dû récemment suspendre l’accueil de nouveaux annonceurs après des difficultés d’intégration. Les utilisateurs, habitués à une expérience sans publicité, pourraient manifester leur mécontentement si la qualité des réponses venait à se dégrader.

Des révélations de The Information en décembre ont d’ailleurs semé le trouble : des employés auraient évoqué en interne la possibilité de donner un « traitement préférentiel » aux contenus sponsorisés dans les réponses du chatbot. Une pratique qu’OpenAI s’est empressée de démentir, mais qui illustre la zone grise entre recommandation et promotion commerciale.

Un équilibre fragile entre croissance et confiance

L’introduction de la publicité soulève aussi des questions éthiques et réglementaires. En Europe, le RGPD et la directive sur les services numériques (DSA) imposent une transparence stricte en matière publicitaire. La frontière entre conseil personnalisé et manipulation commerciale pourrait rapidement devenir un terrain miné, surtout dans un outil utilisé pour des conversations parfois intimes.

Les abonnés premium (Plus à 20 dollars, Pro à 200 dollars, ainsi que les offres Team et Enterprise) resteront à l’abri de la publicité. Une stratégie classique de différenciation qui pourrait inciter les utilisateurs gratuits à basculer vers un abonnement payant pour retrouver une expérience originelle.

Illustration : © OpenAI

The post OpenAI insère la publicité dans ChatGPT appeared first on Silicon.fr.

  •  

Pénurie de mémoire vive : le GPU le plus abordable de Nvidia pour le 4K en péril

Le marché des cartes graphiques fait face à une crise sans précédent début 2026. Les constructeurs rencontrent des difficultés croissantes pour maintenir la production de modèles équipés de 16 Go de VRAM. La pénurie mondiale de mémoire, exacerbée par la demande des centres de données d’intelligence artificielle, frappe désormais les joueurs PC. Alors que les ... Lire plus

L'article Pénurie de mémoire vive : le GPU le plus abordable de Nvidia pour le 4K en péril est apparu en premier sur Fredzone.
  •  

News Corp intègre l’intelligence artificielle dans ses rédactions via un partenariat stratégique

L’empire médiatique de Rupert Murdoch vient de conclure un accord majeur avec Symbolic.ai, startup relativement discrète jusqu’alors. Ce rapprochement marque une évolution significative dans l’adoption de l’IA par les groupes de presse, passant du stade expérimental à une intégration opérationnelle concrète. News Corp déploiera la plateforme technologique de Symbolic au sein de Dow Jones Newswires, ... Lire plus

L'article News Corp intègre l’intelligence artificielle dans ses rédactions via un partenariat stratégique est apparu en premier sur Fredzone.
  •  

Cloudflare rachète Human Native, une marketplace de données IA

Cloudflare rachète  Human Native, une place de marché de données pour l’IA, pour structurer un nouveau modèle économique entre créateurs de contenus et développeurs de modèles génératifs.

Avec cette opération, dont le montant n’est pas communiqué, Cloudflare entend se positionner au cœur des flux de données qui alimentent l’IA tout en répondant aux tensions croissantes autour de la rémunération et du contrôle des contenus en ligne.

Cloudflare présente Human Native comme une marketplace destinée à connecter créateurs, éditeurs et développeurs d’IA autour de données « prêtes à l’emploi » pour l’entraînement et l’inférence. L’objectif affiché est de rendre plus simple et plus rapide la découverte, l’achat et l’accès à des contenus fiables, tout en offrant aux ayants droit des mécanismes transparents de prix et de rémunération.

Fondée en 2024, Human Native revendique une mission centrée sur une relation plus équitable et transparente entre créateurs de contenu et entreprises d’IA. La start-up s’appuie sur une équipe issue d’acteurs comme DeepMind, Google, Figma ou Bloomberg, avec une forte culture croisée tech–médias.

De la « Napster era » de l’IA à un modèle régulé

Pour James Smith, cofondateur et CEO de Human Native, l’ambition est de « sortir l’IA générative de son ère Napster », en garantissant contrôle, compensation et crédit aux créateurs lorsque leurs œuvres servent à entraîner des systèmes d’IA. Ce discours s’inscrit dans un climat de conflit croissant entre éditeurs, plateformes et fournisseurs de modèles, accusés de s’appuyer sur du scraping massif sans cadre contractuel clair.

Cloudflare avait lancé des outils permettant aux éditeurs de mieux contrôler quels robots peuvent accéder à leurs contenus et de signaler leurs préférences d’utilisation via des mécanismes comme Content Signals.

L’acquisition de Human Native apparaît comme l’étape suivante : passer de la simple gestion d’accès au contenu à une monétisation structurée à l’échelle Internet.

La stratégie de Cloudflare dans l’IA

Historiquement positionné sur la performance web, la sécurité et le « connectivity cloud », Cloudflare se rapproche de plus en plus des couches applicatives liées à l’IA. En s’emparant d’une marketplace de données, l’entreprise se place en intermédiaire critique entre les détenteurs de contenu et les équipes IA, un rôle potentiellement aussi stratégique que celui de fournisseur d’infrastructure.

Pour les créateurs et les éditeurs, l’intérêt de Human Native réside dans la promesse de conserver le contrôle sur les usages tout en ouvrant un canal de revenus dédié à l’IA. La marketplace doit leur permettre de décider si leurs contenus sont accessibles, dans quelles conditions, et à quel prix, en remplaçant une logique de scraping par une logique de licence.

Pour les développeurs d’IA, l’enjeu est l’accès à des corpus fiables, traçables et juridiquement sécurisés, dans un contexte où le risque de litiges sur les données d’entraînement augmente. En centralisant découverte, négociation et flux de paiement, Cloudflare espère réduire la friction d’accès aux données tout en répondant aux attentes des régulateurs et des ayants droit.

Intégration aux outils de contrôle d’accès

Cloudflare prévoit d’intégrer progressivement les technologies et produits de Human Native à ses offres existantes. Cette fusion s’appuie sur des solutions comme AI Crawl Control, Pay Per Crawl et l’AI Index, afin de transformer des contenus non structurés en données prêtes pour l’entraînement et l’inférence des modèles IA.

Human Native complétera les mécanismes de Cloudflare permettant aux éditeurs de décider qui accède à leurs contenus via des bots IA. Les technologies de la startup transformeront les données multimédias en formats indexables et licenciables, intégrés à Pay Per Crawl pour des paiements automatisés lors de l’accès.

Cloudflare accélérera son AI Index, un système Pub/Sub où les sites publient des mises à jour structurées en temps réel, évitant les crawls coûteux et risqués. Human Native fournira les outils pour structurer et valoriser ces flux, rendant les données traçables et monétisables pour les développeurs IA.

L’acquisition soutiendra le protocole x402 et la x402 Foundation (avec Coinbase), pour des transactions machine-to-machine fluides. Les créateurs fixeront prix et conditions d’usage, intégrés aux services Cloudflare comme Workers et AI Gateway, créant un marché unifié de données IA.

The post Cloudflare rachète Human Native, une marketplace de données IA appeared first on Silicon.fr.

  •  

OpenAI : sa transformation contestée par Elon Musk ira en justice

Le bras de fer juridique entre Elon Musk et OpenAI vient de prendre un tour décisif. Ce 15 janvier, une juge fédérale d’Oakland a rejeté les demandes de rejet formulées par OpenAI et Microsoft, ouvrant la voie à un procès devant jury prévu fin avril.

Au cœur du litige : l’accusation selon laquelle l’inventeur de ChatGPT aurait trahi sa mission originelle en tant qu’organisation caritative.

Les origines du conflit

Elon Musk, qui a contribué au lancement d’OpenAI aux côtés de Sam Altman en 2015, lui reproche d’avoir abandonné son statut d’organisation à but non lucratif après avoir reçu des milliards de dollars de Microsoft. Et conteste la transformation d’OpenAI en société commerciale.

Dans sa décision, la juge Yvonne Gonzalez Rogers a refusé d’écarter l’accusation selon laquelle OpenAI aurait violé sa promesse de fonctionner comme une fondation caritative. Selon Elon Musk, ses contributions de 38 millions $  avaient un objectif caritatif spécifique, assorti de deux conditions fondamentales : qu’OpenAI reste open source et demeure une organisation à but non lucratif.

Des communications internes compromettantes

Selon Bloomberg, la magistrate s’est appuyée sur des échanges internes datant de 2017 pour maintenir les accusations de fraude. En septembre de cette année-là, Shivon Zilis, membre du conseil d’administration, avait indiqué à Elon Musk que Greg Brockman, cofondateur d’OpenAI, souhaitait poursuivre avec la structure à but non lucratif.

Deux mois plus tard, dans une note privée, Brockman écrivait pourtant : « Je ne peux pas dire que nous sommes engagés envers l’organisation à but non lucratif. Je ne veux pas dire que nous sommes engagés. Si dans trois mois nous passons en b-corp, ce sera un mensonge. »

Pour Marc Toberoff, l’avocat de Elon Musk, cette décision confirme « qu’il existe des preuves substantielles que les dirigeants d’OpenAI ont fait sciemment de fausses assurances à M. Musk concernant sa mission caritative, qu’ils n’ont jamais honorée au profit de leur enrichissement personnel. »

Microsoft également visée

La juge a estimé qu’il appartiendra au jury de déterminer si Microsoft a aidé OpenAI à manquer à ses responsabilités envers ses donateurs. Elle a relevé que Elon Musk avait identifié « des preuves considérables soulevant une question de fait contestable selon laquelle Microsoft avait une connaissance réelle allant au-delà d’un vague soupçon d’actes répréhensibles.»

En revanche, la juge  a rejeté l’allégation selon laquelle Microsoft se serait enrichie « injustement » aux dépens de Musk, faute de relation contractuelle entre les deux parties.

OpenAI maintient sa position

De son côté, OpenAI dénonce une procédure sans fondement. « La plainte de M. Musk continue d’être sans fondement et fait partie de son modèle continu de harcèlement », a déclaré l’entreprise dans un communiqué «.Nous avons hâte de le démontrer lors du procès. »

Dans le cadre de sa restructuration intervenue en octobre 2025, Microsoft a reçu une participation de 27% dans le cadre d’une transition qui maintient l’organisme à but non lucratif d’OpenAI en contrôle de ses opérations commerciales.

The post OpenAI : sa transformation contestée par Elon Musk ira en justice appeared first on Silicon.fr.

  •  

IA générative : Wikipedia fait enfin passer les chatbots à la caisse

L’ère de la gratuité totale semble révolue pour les leaders de l’IA. Après les accords passés avec certains groupes de médias (d’autres ont engagé des procédures judiciaires), c’est au tour de la plus grande encyclopédie collaborative de monétiser ses millions d’articles.

A l’occasion de ses 25 ans, Wikipedia vient en effet de signer, via sa maison mère la Wikimedia Foundation, des accords commerciaux avec Microsoft, Meta et Amazon, rejoignant ainsi Google, déjà signataire d’un accord depuis 2022.

Des acteurs de l’IA comme Perplexity et le français Mistral AI ont également été enrôlés dans ce dispositif qui redéfinit les règles du jeu entre communs numériques et industrie de l’intelligence artificielle.

Le montant des accords n’est pas communiqué.

Une manne de données devenue indispensable

Les chiffres parlent d’eux-mêmes : 65 millions d’articles répartis dans plus de 300 langues. Wikipedia s’est imposée comme la colonne vertébrale de l’entraînement des modèles d’IA générative. Chaque chatbot, chaque assistant virtuel développé par les mastodontes technologiques puise abondamment dans ce gigantesque corpus de connaissances structurées et vérifiées.

Mais cette exploitation massive a un coût. Le scraping intensif des contenus par les systèmes d’IA a fait exploser la demande sur les serveurs de la fondation, provoquant une hausse vertigineuse des dépenses d’infrastructure.  « Wikipedia est un composant critique du travail de ces entreprises technologiques, elles doivent trouver comment le soutenir financièrement », martèle Lane Becker, président de Wikimedia Enterprise, la branche commerciale de la fondation.

Un modèle économique en pleine mutation

Face à cette situation, Wikimedia a créé une offre sur mesure : Wikimedia Enterprise. Cette plateforme commerciale propose un accès structuré et haut débit aux données de l’encyclopédie via des API payantes, avec des garanties de disponibilité pouvant atteindre 99% et des mises à jour en temps quasi réel.

Wikipedia reste gratuite pour le grand public et les usages non commerciaux, mais les exploitations industrielles doivent contribuer. Un principe que Tim Frank, vice-président de Microsoft, semble avoir intégré : « Nous aidons à créer un écosystème de contenu durable pour l’internet de l’IA, où les contributeurs sont valorisés.»

Les revenus générés restent pour l’instant modestes. En 2023, le contrat avec Google avait rapporté environ 3,2 millions $ de revenus annuels récurrents, soit 1,7% des 185,3 millions de revenus totaux de la fondation. Mais la multiplication des partenaires laisse augurer une montée en puissance significative.

Cette stratégie pourrait bien inspirer d’autres plateformes de connaissances ouvertes confrontées aux mêmes défis. La fondation franchit par ailleurs un nouveau cap avec la nomination de Bernadette Meehan, ancienne ambassadrice des États-Unis au Chili, au poste de directrice générale à compter du 20 janvier. Un profil diplomatique pour naviguer dans ces eaux nouvelles.

Illustration : © DR

The post IA générative : Wikipedia fait enfin passer les chatbots à la caisse appeared first on Silicon.fr.

  •  

VMware assigné en référé par la Cnam

Face à VMware, la Cnam (Caisse nationale d’assurance maladie) a fini par saisir la justice.

Il y a quelques semaines, l’établissement public est allé en référé. Objectif : obtenir un délai pour convertir des jetons HPP (Hybrid Purchasing Program)* en licences perpétuelles.

Ces jetons avaient été acquis à l’été 2021, sur le fondement d’un accord-cadre conclu entre le GIP RESAH (Réseau des acheteurs hospitaliers) et Computacenter. Son objet : la fourniture de logiciels, dont ceux de VMware.

Le 22 avril 2024, Broadcom avait informé la Cnam que la conversion des jetons HPP ne serait plus possible après le 30 avril 2024.

Le 26 septembre 2025, la Cnam avait mis Computacenter et Broadcom en demeure de rétablir cette possibilité jusqu’au 20 décembre 2025. Elle avait essuyé un refus, au motif que le modèle de souscription alors en vigueur ne le permettait pas.

La Cnam a invoqué sa mission de service public

Le 2 décembre, la Cnam avait sollicité le juge des référés pour obtenir ce rétablissement, sous astreinte de 50 000 € par jour. Fondement invoqué : l’article L. 521-3 du Code de justice administrative. Lequel dit, en substance, que le juge des référés peut, en cas d’urgence, ordonner toute mesure utile, même en l’absence d’une décision administrative préalable.

D’après la Cnam, la condition d’urgence était remplie dès lors que :

  • ces jetons devaient être convertis avant le 20 décembre 2025 ;
  • à défaut, elle perdrait son droit contractuel à la conversion ;
  • l’acquisition de licences perpétuelles revêtait une importance particulière pour assurer sa mission de service public, l’ensemble de son SI reposant sur les technos Vmware.

La Cnam prétendait ne pas disposer des moyens suffisants pour contraindre Broadcom… et considérait par là même que la mesure demandée était utile.

Broadcom a fini par accéder à la demande. Et le 23 décembre, la Cnam s’est désistée de sa requête.

* Le programme HPP se destinait aux clients souhaitant migrer vers le cloud tout en conservant leur infrastructure privée. Il combinait l’EPP (Enterprise Purchasing Program) et le SPP (Subscription Program) en un modèle transactionnel. Chaque euro dépensé pouvait, dans certaines limites, être réparti entre, d’un côté, licences perpétuelles + services/support, et de l’autre, services sur abonnements.

Illustration générée par IA

The post VMware assigné en référé par la Cnam appeared first on Silicon.fr.

  •  

RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile

L’autorité de régulation frappe fort en ce début d’année. Suite à une intrusion massive survenue en octobre 2024 dans les systèmes d’information du groupe Iliad, la Commission nationale de l’informatique et des libertés (CNIL) inflige une amende d’un montant total de 42 millions € aux opérateurs Free Mobile (27 millions € ) et Free (15 millions €).
Retour sur les faits. En octobre 2024, un attaquant s’infiltre dans le système d’information des deux sociétés compromettant les données personnelles de 24 millions de contrats d’abonnés. Les données exposées incluaient notamment des IBAN pour les clients disposant d’abonnements auprès des deux entités simultanément.

L’ampleur de l’incident suscite plus de 2 500 plaintes d’abonnés et déclenche un contrôle approfondi de la CNIL qui identifie plusieurs manquements graves au Règlement général sur la protection des données (RGPD), chaque société étant tenue responsable du traitement des données de ses propres clients.

Des failles de sécurité élémentaires

La formation restreinte de la CNIL, organe compétent pour prononcer les sanctions, constate aussi l’absence de mesures de sécurité fondamentales qui auraient pu compliquer l’attaque. Les enquêteurs relèvent notamment que la procédure d’authentification pour accéder aux réseaux privés virtuels (VPN) des deux sociétés, utilisés pour le télétravail des employés, présentait des faiblesses importantes en termes de robustesse.

Par ailleurs, les dispositifs de détection des comportements anormaux sur les systèmes d’information se sont révélés inefficaces. La CNIL a jugé que ces mesures n’étaient pas adaptées au volume et à la sensibilité des données traitées par les deux opérateurs.

La commission reconnait cependant qu’ils ont renforcé leur niveau de sécurité en cours de procédure et leur impose d’achever la mise en œuvre de ces nouvelles mesures sous trois mois.

Une communication insuffisante auprès des victimes

Le régulateur pointe également du doigt les lacunes dans la communication auprès des clients. Si Free et Free Mobile ont déployé un dispositif d’information à deux niveaux (courriel initial puis numéro vert et service dédié), le courriel envoyé aux abonnés ne contenait pas toutes les informations obligatoires prévues par l’article 34 du RGPD.

Selon la CNIL, ces omissions empêchaient les victimes de comprendre directement les conséquences de la violation et les mesures de protection qu’elles pouvaient adopter pour limiter les risques.

Free Mobile épinglée pour conservation excessive de données

Un troisième manquement est retenu spécifiquement contre Free Mobile concernant la durée de conservation des données. Au moment du contrôle, l’opérateur n’avait pas mis en place de procédures permettant de trier et supprimer les données des anciens abonnés une fois leur conservation devenue inutile.

La CNIL a établi que Free Mobile conservait des millions de données d’abonnés sans justification pendant des durées excessives, en violation de l’article 5 du RGPD. L’opérateur a depuis initié un tri pour ne conserver que les données nécessaires au respect des obligations comptables pendant dix ans, et a supprimé une partie des données conservées de manière excessive. La société dispose de six mois pour finaliser cette opération de purge.

Image : © Cnil 

The post RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile appeared first on Silicon.fr.

  •  

Souveraineté numérique de l’UE : état des lieux et enjeux stratégiques

Avec 83 % des dépenses IT des grandes entreprises captées par des fournisseurs étrangers et une part de marché européenne marginale sur la plupart des segments critiques (OS, cloud, IA générative), l’UE fait face à des risques majeurs de souveraineté et de sécurité.

Ce dossier décrypte les données chiffrées de cette dépendance, analyse la matrice des risques économiques et géopolitiques associés, et illustre concrètement ces enjeux à travers le cas du secteur de l’énergie, où la cybersécurité repose massivement sur des solutions non européennes.

> Dépendances numériques de l’UE : une matrice des risques
L’étude commandée par le Parlement européen propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions

> Les dépendances numériques de l’UE chiffrées, GenAI comprise
Les grandes entreprises européennes orientent près 83 % de leurs budgets IT vers des acteurs américains.

> Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie
La dépendance de l’UE à des logiciels étrangers trouve une illustration avec les solutions cyber déployées dans le secteur de l’énergie.

The post Souveraineté numérique de l’UE : état des lieux et enjeux stratégiques appeared first on Silicon.fr.

  •  

Yann LeCun quitte Meta : les coulisses d’une rupture

C’est au restaurant étoilé Pavyllon, à deux pas du Grand Palais parisien, que Yann LeCun s’est confié au Financial Times dans le cadre de sa série « Lunch with the FT ».

Attablé pour un déjeuner de trois heures et demie, le chercheur français de 64 ans a expliqué sans détour pourquoi il a décidé de quitter Meta après onze ans de bons et loyaux services. « Rester est devenu politiquement difficile », confie-t-il. Une litote pour décrire une rupture qui révèle les tensions croissantes au sein du groupe californien sur la direction à prendre en matière d’IA.

LLM : un modèle en fin de course

Au cœur du conflit : une divergence fondamentale sur l’avenir technologique de l’intelligence artificielle. LeCun, prix Turing et figure tutélaire du deep learning, ne croit pas aux grands modèles de langage comme voie vers la superintelligence. Pour lui, les LLM sont utiles mais limités, contraints par le langage seul. Une conviction qui détonne dans une Silicon Valley obsédée par cette approche.

Le problème ? Meta vient justement de miser massivement sur cette technologie. Après le lancement de ChatGPT fin 2022, l’entreprise a réorganisé ses équipes autour de Llama, son propre modèle de langage.

Le tournant s’opère véritablement en 2025. Mark Zuckerberg, déçu par les performances de Llama 4, décide de frapper fort. Il investit 15 milliards $ dans Scale AI et embauche son patron, Alexandr Wang, 28 ans, pour diriger le nouveau laboratoire de recherche TBD Lab. Une décision qui place ce jeune entrepreneur à la tête de l’unité de recherche en IA de Meta. Ses nouvelles recrues, attirées à coups de primes pouvant atteindre 100 millions $, sont selon LeCun « complètement convaincues par les LLM ».

LeCun se retrouve ainsi managé par quelqu’un qu’il qualifie de « jeune » et « inexpérimenté ». S’il reconnaît que Alexandr Wang apprend vite, il souligne son manque d’expérience en matière de recherche fondamentale. « On ne dit pas à un chercheur ce qu’il doit faire. On ne dit certainement pas à un chercheur comme moi ce qu’il doit faire », lance-t-il.

La communication se dégrade également avec l’unité IA générative. LeCun regrette que ses équipes proposent des innovations ambitieuses quand la direction ne retient que des projets éprouvés et sans risque. Une prudence qui, selon lui, conduit l’entreprise à prendre du retard.

Une organisation bouleversée

Plus profondément, LeCun refuse de renier ses convictions scientifiques. Certains chez Meta aimeraient qu’il cesse de proclamer publiquement que les LLM constituent une impasse pour atteindre la superintelligence. Mais le chercheur ne transige pas : « Je ne vais pas changer d’avis parce qu’un type pense que j’ai tort. Je n’ai pas tort. Mon intégrité de scientifique ne me le permet pas. »

Cette inflexibilité s’explique aussi par sa vision alternative : les modèles du monde, ou world models, qu’il développe depuis des années. Cette architecture baptisée V-JEPA vise à donner aux machines une compréhension du monde physique en apprenant à partir de vidéos, et non uniquement du langage. Une approche qui intéresse davantage l’industrie lourde et l’aéronautique que les réseaux sociaux.

Cap vers AMI Labs

LeCun prépare désormais son prochain chapitre : Advanced Machine Intelligence Labs, une start-up qui incarnera sa vision de l’intelligence artificielle avancée. Il y occupera le poste de président exécutif, laissant la direction opérationnelle à Alex LeBrun, cofondateur de la startup française Nabla. Une structure qui lui permettra de conserver la liberté de recherche qu’il chérissait chez Meta. Pourquoi ne doit pas prendre le rôle de CEO ?  « Je suis à la fois trop désorganisé et trop vieux ! » confie Yann LeCun.

Le chercheur promet des premières versions de sa technologie dans les douze mois. Pas encore la superintelligence, mais un chemin vers celle-ci. Emmanuel Macron lui-même aurait manifesté sa satisfaction de voir cette nouvelle entreprise mondiale maintenir des liens étroits avec la France.

Après des décennies passées à façonner l’IA moderne, Yann LeCun entame donc un nouveau cycle. Son ambition ? Augmenter la quantité d’intelligence dans le monde. « L’intelligence, c’est vraiment ce dont nous devrions avoir davantage », affirme-t-il.

Photo : © DR

The post Yann LeCun quitte Meta : les coulisses d’une rupture appeared first on Silicon.fr.

  •  

Apple et Google scellent une alliance stratégique majeure dans l’IA

C’est la fin du suspense sur la stratégie IA d’Apple. L’inventeur de l’iPhone a officialisé un accord stipulant que les modèles Gemini alimenteront la prochaine génération d’Apple Intelligence et le Siri entièrement remanié prévu pour fin 2026.

Le deal, qui prolonge leur collaboration historique sur la recherche (search), replace Google face à OpenAI dans la course à l’IA générative, avec un accès privilégié à plus de deux milliards d’appareils Apple actifs.

Gemini, socle technologique de l’IA pour Apple

Apple a tranché après évaluation en faveur de la technologie de Mountain View, jugeant que « la technologie d’intelligence artificielle de Google offrait la base la plus performante » pour ses modèles Apple Foundation. Ces briques logicielles alimenteront non seulement Siri, mais également l’ensemble des fonctionnalités futures d’Apple Intelligence.

Les termes financiers de l’accord restent confidentiels, mais des sources industrielles évoquent un montant de 1 milliard $ annuel.

Cette décision relègue ChatGPT, intégré de manière optionnelle fin 2024, à un rôle de simple complément pour les requêtes les plus complexes. Un camouflet pour OpenAI, dont le PDG Sam Altman a déclenché un « code red » interne face à la montée en puissance de Gemini 3. Comme le souligne Parth Talsania d’Equisights Research, ce choix  « rétrograde OpenAI en rôle secondaire », transformant ChatGPT en solution d’appoint plutôt qu’en fondation stratégique.

« Apple Intelligence continuera de fonctionner sur les appareils Apple et sur le cloud privé, tout en préservant les normes de confidentialité de pointe d’Apple » assure les deux groupes. L’architecture retenue permet à Apple de conserver le contrôle total de l’intégration, de l’orchestration et de l’interface utilisateur, limitant ainsi l’accès de Google aux données brutes de ses clients.

Gemini sur plus de 2 milliards de terminaux

Pour Google, l’enjeu dépasse largement la question financière. Gemini devient le standard de facto sur mobile grâce aux partenariats Apple et Samsung (déjà intégré dans Galaxy AI), ce qui booste mécaniquement les revenus cloud et enrichit les données d’entraînement. La valorisation boursière d’Alphabet a d’ailleurs franchi le cap symbolique des 4 000 milliards $, portée par une hausse spectaculaire de 65% en 2025 sur fond d’optimisme autour de l’IA.

Pour Apple, c’est une bouée de sauvetage stratégique qui accélère brutalement le rattrapage. Retardataire notoire sur l’IA générative, il a accumulé les déboires : reports successifs de la mise à niveau de Siri (décalée à 2026), départs d’exécutifs clés comme John Giannandrea et accueil tiède pour ses premiers outils d’intelligence artificielle.

L’accord avec Google permet d’accélérer brutalement le rattrapage en évitant des années de recherche et développement solitaire, tout en capitalisant sur un partenariat existant qui génère déjà des dizaines de milliards $ annuels via le trafic de recherche.

Ce deal risque toutefois d’attirer l’attention des autorités antitrust, déjà mobilisées sur les contrats d’exclusivité dans la recherche. L’extension au domaine de l’IA pourrait déclencher de nouvelles enquêtes sur les pratiques anticoncurrentielles.

Illustration : image générée par l’IA

The post Apple et Google scellent une alliance stratégique majeure dans l’IA appeared first on Silicon.fr.

  •  

Harmattan AI : la pépite française de l’IA de défense devient licorne

À peine neuf mois après sa création, Harmattan AI, spécialisée dans les systèmes autonomes de défense dopés à l’intelligence artificielle vient de boucler une levée de fonds de 200 millions $ en série B, portant sa valorisation à 1,4 milliard $.

Une opération menée par Dassault Aviation qui propulse la jeune pousse au rang de première licorne française de l’armement.

Dassault Aviation mise gros sur l’autonomie

En prenant la tête de ce tour de table aux côtés d’investisseurs financiers déjà présents, l’avionneur français ne se contente pas d’un pari financier. Il s’offre un partenaire stratégique pour ses futurs programmes aériens.

Harmattan AI est désormais positionnée pour développer les « fonctions d’IA embarquées » du Rafale F5, ainsi que les systèmes aériens inhabités (UCAS) qui accompagneront les chasseurs de sixième génération du SCAF (Système de combat aérien du futur).

Ce rapprochement s’inscrit dans une stratégie plus large orchestrée avec Thales et l’Agence ministérielle pour l’IA de défense (AMIAD) : bâtir une intelligence artificielle de combat souveraine, capable de rivaliser avec les géants américains et chinois.

Licorne en moins d’un an

Fondée en avril 2024 par Mouad M’Ghari et Martin de Gourcuff, Harmattan AI  développe une gamme complète de systèmes autonomes intégrés : drones de frappe et de surveillance, plateformes de commandement et briques logicielles d’IA embarquée. Son approche « full stack » ( maîtrise du hardware comme du software) séduit les états-majors.

Les succès commerciaux se sont enchaînés à une vitesse inédite dans un secteur réputé pour ses cycles décisionnels interminables. Un contrat emblématique avec la Direction générale de l’armement (DGA) pour plusieurs milliers de drones, destinés notamment à l’exercice militaire Orion 2026, puis une commande de l’armée britannique pour des drones d’entraînement. De quoi valider le modèle et attirer l’attention des industriels historiques.

Avec cette manne de 200 millions $, Harmattan AI vise une montée en cadence spectaculaire pour atteindre une production de plusieurs dizaines de milliers de drones par mois à court terme. Un objectif qui nécessitera de muscler considérablement l’appareil industriel et les chaînes d’approvisionnement.

Les fonds serviront également à étendre le déploiement de ses algorithmes d’IA à de nouveaux théâtres d’opérations : défense aérienne multi-niveaux, interception de drones, guerre électronique. L’entreprise compte renforcer massivement ses équipes de R&D et d’ingénierie logicielle pour tenir la cadence technologique face à une concurrence internationale qui s’intensifie.

La French Tech défense entre en scène

L’entrée d’Harmattan AI dans le club des licornes marque un tournant pour l’écosystème français de la défense. Longtemps dominé par les grands industriels historiques, le secteur voit émerger une nouvelle génération de startups qui articulent souveraineté, IA et capacité de production à grande échelle. À l’image d’Helsing en Allemagne ou d’Anduril aux États-Unis, ces jeunes pousses bousculent les codes et les positions établies.

Cette évolution reflète un changement doctrinal profond. Les armées françaises et européennes intègrent désormais pleinement les startups dans la chaîne de valeur de l’armement, conscientes que l’innovation de rupture vient souvent de l’extérieur des grands programmes étatiques. Le soutien de l’AMIAD et les nouvelles modalités d’achats publics facilitent ces rapprochements.

Reste désormais à transformer l’essai industriel. Car dans ce domaine ultra-exigeant où la fiabilité opérationnelle est non négociable, le passage de la startup prometteuse au fournisseur stratégique des armées constitue un marathon autrement plus redoutable qu’une levée de fonds, aussi spectaculaire soit-elle.

Image : © DR

The post Harmattan AI : la pépite française de l’IA de défense devient licorne appeared first on Silicon.fr.

  •  

Anthropic lance son offensive dans la santé avec Claude

Quelques jours seulement après l’annonce de son rival OpenAI, Anthropic réplique avec « Claude for Healthcare ».

La scale-up basée à San Francisco vient de dévoiler son offensive dans le secteur lucratif de la santé en annonçant que son chatbot Claude était désormais conforme à la norme HIPAA (Health Insurance Portability and Accountability Act). Un sésame réglementaire indispensable aux États-Unis pour permettre aux hôpitaux et prestataires de soins de manipuler des données de santé protégées.

Un hub de données personnelles sous conditions

Avec Claude for Healthcare, l’ambition d’Anthropic ne s’arrête pas aux couloirs des hôpitaux. Côté grand public, l’entreprise permet désormais à ses utilisateurs d’exporter leurs données de santé depuis des applications comme Apple Health ou Function Health. L’objectif est d’ aider les particuliers à centraliser leurs dossiers médicaux pour mieux les partager avec leurs médecins.

Toutefois, cette intégration directe est actuellement réservée aux utilisateurs basés aux États-Unis, où le cadre HIPAA prévaut. Pour les utilisateurs européens, si l’accès à Claude est disponible, l’importation automatisée de données biométriques reste soumise aux évolutions de la conformité locale (RGPD).

Claude intègre désormais des bases de données scientifiques (comme PubMed ou le registre NPI) pour étayer ses réponses par des citations vérifiables. Un argument de poids pour rassurer des cliniciens échaudés par les risques de désinformation liés à l’IA.

« L’IA est prête à avoir un impact majeur sur l’économie globale, dès lors que vous faites ce qu’il faut sur le plan réglementaire et des données », défend Mike Krieger, Chief Product Officer d’Anthropic, en garantissant qu’il n’utilisera pas les données de santé de ses utilisateurs pour entraîner ses modèles.

Une bataille de géants pour le « care »

Si le marché est colossal, la concurrence féroce. Selon Anthropic, Claude séduit déjà des géants comme le système de santé à but non lucratif Banner Health où 22 000 prestataires l’utilisent, mais aussi le groupe pharmaceutique Novo Nordisk ou le centre hospitalier universitaire Stanford Health Care.

Alors que des discussions sont en cours pour une levée de fonds sur la base d’une valorisation stratosphérique de 350 milliards $, Anthropic doit prouver que l’IA peut non seulement automatiser le code informatique, un de ses points forts actuels, mais aussi transformer radicalement la recherche biologique. Le diagnostic ne fait que commencer.

Illustration : © DR

The post Anthropic lance son offensive dans la santé avec Claude appeared first on Silicon.fr.

  •  

Andreessen Horowitz franchit un nouveau cap avec 15 milliards de dollars levés

Le fonds d’investissement Andreessen Horowitz (a16z) vient d’annoncer une levée colossale dépassant légèrement 15 milliards de dollars. Un montant qui représente plus de 18 % de l’ensemble du capital-risque distribué aux États-Unis durant l’année 2025, selon les déclarations de Ben Horowitz, cofondateur de la firme. Cette nouvelle injection propulse a16z au-delà de 90 milliards de ... Lire plus

L'article Andreessen Horowitz franchit un nouveau cap avec 15 milliards de dollars levés est apparu en premier sur Fredzone.
  •  

Anthropic séduit le géant allemand de l’assurance Allianz avec ses modèles d’IA

Le laboratoire de recherche en intelligence artificielle Anthropic continue d’élargir son portefeuille de clients d’envergure. Vendredi dernier, l’entreprise a annoncé un accord stratégique avec Allianz, conglomérat munichois spécialisé dans l’assurance à l’échelle mondiale. L’objectif affiché consiste à introduire une IA responsable dans le secteur assurantiel. Les parties prenantes ont toutefois refusé de divulguer les montants ... Lire plus

L'article Anthropic séduit le géant allemand de l’assurance Allianz avec ses modèles d’IA est apparu en premier sur Fredzone.
  •  

Dépendances numériques de l’UE : une matrice des risques

2017 : Apple empêche la publication d’applications sur l’App Store en Iran. 2019 : GitHub bloque des utilisateurs en Syrie ; Adobe, au Venezuela. 2025 : Microsoft coupe la messagerie du procureur général de la Cour pénale internationale.

Toutes ces mesures ont fait suite à des sanctions dont avait décidé le gouvernement américain. Une étude récemment remise au Parlement européen* les mentionne, en illustration des risques inhérents aux dépendances à des technologies étrangères.

Les technologies chinoises en font aussi partie. Sont évoquées entre autres celles de Xiaomi, qui a capté 12 % du marché européen des smartphones en 2024. Ainsi que celles de Huawei et ZTE, dont les équipements télécoms ont couvert jusqu’à un quart des réseaux mobiles européens.

Une matrice du « risque de souveraineté » sur 9 dimensions

L’étude propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions.

Contrôle juridique

Le risque est jugé maximal (5/5) sur la dimension « pourcentage de logiciels critiques de sources non européennes », en ce qu’on dépasse les 80 %.

Il l’est aussi sur la concentration des dépendances au sein d’une seule juridiction étrangère (États-Unis).

Il est élevé (4/5) pour ce qui est de l’influence gouvernementale sur des fournisseurs-clés (des lois à portée extraterritoriale s’appliquent aux activités de ces fournisseurs dans l’UE).

Autonomie technique

Le risque est moyennement élevé (3/5) concernant la disponibilité de substituts européens (il en existe sur beaucoup des segments étudiés, mais leur adoption reste limitée).

Il l’est aussi sur la complexité technique du changement de fournisseur. Lequel « peut prendre 6 à 15 mois », nous annonce-t-on en citant trois sources : un cas de migration vers S/4HANA, la transition cloud de l’organisme chargé de la régulation des titres municipaux aux USA… et un guide AWS pour les grandes migrations.

Le risque est jugé plus élevé (4/5) pour ce qui est de l’accès au code source : les logiciels les plus utilisés sont propriétaires.

Indépendance stratégique

Le score de risque le moins élevé (2/5) concerne la disponibilité de capacités R&D dans l’UE – même si celles-ci sont « de plus en plus limitées », nous fait-on remarquer.

Pour ce qui est des compétences, on en est à 3/5 (la base est « considérable » mais s’amoindrit).

Même score pour le financement (difficultés notables pour obtenir des capitaux européens). Sur ce point, 28 % des fonds levés par les start-up européennes en 2024 provenaient des USA. Cette même année, les acquisitions par des entreprises américaines ont représenté près de la moitié de la valeur des M&A tech sur le continent.

Le risque économique, du micro au macro

À cette matrice du risque de souveraineté s’en ajoute une sur le risque économique. Là aussi avec trois axes (coûts directs, dépendance au marché et impact macroéconomique).

Coûts directs

Le risque est dit maximal (5/5) sur le coût des produits et services, en ce qu’une part considérable du PIB de l’UE y est consacrée (1,5 % rien que pour les dépenses des entreprises).

Il est moyennement élevé (3/5) concernant les hausses de prix. De l’ordre de 10 % par an, elles sont plus fortes que l’inflation, mais « acceptables pour les acheteurs ».

Pour le coût du changement de fournisseur, on en est à 4/5 : malgré les apports du Data Act, les démarches nécessitent des investissements « irraisonnables ».

Dépendance au marché

Le risque est maximal (5/5) si on le prend sous le prisme de la position de marché des fournisseurs non européens : des acteurs américains captent 70 à 100 % de la plupart des segments étudiés.

Le risque reste élevé (4/5) si on s’intéresse au pouvoir de négociation des entreprises européennes, limité tant par le manque de substituts que par le coût du changement de fournisseur.

Risque également élevé (4/5) pour la dépendance R&D à des fournisseurs étrangers : la plupart des innovations européennes viennent s’adosser à des plates-formes américaines.

Impact macroéconomique

Score maximum sur les trois éléments listés :

  • Compétitivité de l’UE (jugée « affaiblie en permanence »)
  • Effets sur l’emploi (les dépenses des entreprises européennes financent environ 2 millions d’emplois aux États-Unis)
  • Balance commerciale (le déficit dans le secteur numérique dépasse 100 Md€ et continue à croître)

* Gineikyte-Kanclere, V. et Al., 2025, European Software and Cyber Dependencies

Illustration générée par IA

The post Dépendances numériques de l’UE : une matrice des risques appeared first on Silicon.fr.

  •  

Marché numérique français : reprise en trompe-l’œil ou vrai rebond ?

Après une année 2025 en demi-teinte (+2 %), le marché du numérique français devrait retrouver des couleurs en 2026 avec une croissance prévue de 4,3 %, selon les dernières projections de Numeum, le syndicat des entreprises du secteur.

Un chiffre qui pourrait rassurer, si l’on s’en tenait aux apparences. Mais la réalité est plus contrastée : cette reprise masque des trajectoires divergentes selon les segments, et pose une question lancinante sur la répartition de la valeur créée.

Un marché qui se désolidarise

Le premier constat tient en trois chiffres. Les éditeurs de logiciels et plateformes affichent une croissance vigoureuse de 8,4 % en 2026, prolongeant leur dynamique de 2025 (+8,2 %), pour atteindre 31,6 milliards €. À l’inverse, les entreprises de services du numérique (ESN) peinent à retrouver leur rythme : après un recul de 1,8 % en 2025 (34,3 milliards), elles ne progresseraient que de 1,4 % en 2026, à 35 milliards. Quant aux sociétés d’ingénierie et de conseil en technologies (ICT), elles reviennent tout juste en territoire positif (+1 %) après une baisse de 2,5 % l’an dernier.

Cette divergence n’est pas anecdotique. Elle illustre un basculement structurel : le passage d’un modèle fondé sur les projets et les prestations intellectuelles vers un modèle de consommation récurrente, porté par le SaaS et les plateformes cloud.

En 2025, 77 % des nouveaux projets des éditeurs ont été réalisés en mode SaaS, contre 53 % en 2021. Cette migration accélérée capte une part croissante des budgets IT, au détriment des services d’intégration traditionnels.

L’IA générative, accélérateur… de quoi exactement ?

L’intelligence artificielle générative est présentée comme le grand moteur de la reprise. Près de 40 % des acteurs du secteur constatent déjà un impact positif sur leurs marges ou leur chiffre d’affaires.

Les gains de productivité sont tangibles : 12,5 % en moyenne en 2025, avec une perspective de 17 % en 2026. Les éditeurs l’utilisent pour accélérer leurs cycles de développement, créer de nouvelles offres (63 % des répondants) et personnaliser leurs solutions.

Mais pour les ESN, le tableau est plus ambigu. L’IA permet certes de répondre plus rapidement aux appels d’offres (54 % des acteurs) et de livrer davantage de projets dans l’année (58 %), mais elle introduit aussi une pression déflationniste. Si l’on délivre plus vite, pourquoi facturer autant ? Certains clients commencent à renégocier leurs contrats à la baisse, pointant les gains de productivité pour justifier une compression des tarifs. Résultat : 15 % des entreprises interrogées évoquent une pression accrue sur les prix, 10 % une réduction du temps facturable.

Cette dynamique pose une question centrale : qui capte la valeur générée par l’IA ? Les gains de productivité se traduisent-ils en marges supplémentaires pour les prestataires, en tarifs réduits pour les clients, ou en nouvelles capacités qui justifient un niveau de facturation stable ? Pour l’instant, la réponse n’est pas tranchée. Et c’est précisément ce flou qui inquiète.

La souveraineté numérique, du discours à la réalité

Autre thème en vogue : la souveraineté numérique.

Numeum relève que 42 % des entreprises du secteur accompagnent leurs clients sur des projets liés à cette thématique. Mais la dynamique reste embryonnaire : 80 % des acteurs ont réalisé moins de dix projets en 2025, avec un panier moyen compris entre 100 000 et 150 000 euros. Loin, donc, des grands programmes structurants.

Ce concept, longtemps cantonné aux discours politiques, commence néanmoins à se matérialiser sous la pression de plusieurs facteurs : obligations réglementaires (NIS2, IA Act), tensions géopolitiques et méfiance croissante envers les solutions américaines dominantes. Mais le passage de l’intention à l’investissement reste lent, freiné par la complexité technique et les arbitrages budgétaires.

Un retour de la croissance… sans l’emploi ?

Derrière les prévisions optimistes, un angle mort persiste : l’emploi. En 2024, le secteur a perdu 7 500 postes. L’année 2025 s’est inscrite dans une logique de stabilisation, sans réelle reprise des embauches.

Or, si la croissance de 2026 se matérialise, il n’est pas certain qu’elle se traduise par une dynamique d’emploi comparable à celle des deux dernières décennies, où les effectifs avaient progressé de 50 % en dix ans pour atteindre environ 666 000 salariés.

Plusieurs facteurs expliquent cette déconnexion. D’abord, l’automatisation : les gains de productivité liés à l’IA réduisent mécaniquement les besoins en main-d’œuvre sur certaines tâches. Ensuite, la géographie du « delivery » : l’offshore progresse quand l’optimisation devient le maître-mot. Enfin, la réallocation des budgets vers les modèles récurrents (SaaS, cloud) diminue la part des projets nécessitant une mobilisation humaine intensive.

Ce que les DSI doivent retenir

Pour les directions des systèmes d’information, cette reconfiguration du marché impose trois vigilances.

D’abord, une cartographie rigoureuse des dépenses récurrentes. Les abonnements SaaS et les factures cloud deviennent incompressibles, grignotant les marges de manœuvre budgétaires. Anticiper leur évolution est crucial pour préserver la capacité d’investissement dans des projets de transformation.

Ensuite, une réflexion sur la mesure de la valeur. Les gains de productivité liés à l’IA ne doivent pas se traduire uniquement par une réduction des jours-hommes facturables. Il faut définir des unités de valeur pertinentes : qualité, délai, couverture fonctionnelle, réduction des risques. Faute de quoi, la pression déflationniste des fournisseurs se fera au détriment de la qualité des livrables.

Enfin, une attention accrue aux enjeux de souveraineté et de dépendance. La concentration sur quelques hyperscalers américains fragilise la capacité de négociation et la liberté de choix. Sans tomber dans le dogmatisme, diversifier les sources d’approvisionnement et privilégier des solutions offrant des garanties de réversibilité devient un enjeu stratégique.

Une reprise, oui. Mais pour qui ?

Numeum table sur une accélération en 2026, portée par l’IA, la cybersécurité et les investissements dans la modernisation des systèmes. Les indicateurs opérationnels se redressent, les carnets de commandes se remplissent, les taux d’occupation des ESN remontent. Mais cette reprise ne ressemble pas aux précédentes.

Elle se construit sur fond de réallocation de valeur vers les éditeurs et les plateformes, de pression déflationniste sur les services, et d’incertitudes persistantes sur l’emploi. La croissance peut revenir sans recréer les postes perdus, surtout si elle s’alimente d’automatisation et d’arbitrages de localisation.

Dans un contexte d’instabilité économique et géopolitique, Numeum souligne lui-même la complexité d’anticiper précisément l’évolution du secteur.

The post Marché numérique français : reprise en trompe-l’œil ou vrai rebond ? appeared first on Silicon.fr.

  •  

OpenAI lance ChatGPT Health…mais pas dans l’UE

Avec le lancement de ChatGPT Health, OpenAI franchit une nouvelle étape dans son ambition de transformer son chatbot en super-outil personnel capable d’accompagner les utilisateurs dans les dimensions les plus sensibles de leur existence.

Le déploiement se fait progressivement, via une liste d’attente pour un groupe restreint d’utilisateurs, avant une ouverture élargie dans les semaines à venir.

ChatGPT Health se présente comme un espace dédié au sein de l’interface habituelle, conçu pour aider les utilisateurs à mieux comprendre leur santé et préparer leurs rendez-vous médicaux. L’ambition affichée n’est pas de concurrencer les médecins, mais de les compléter. OpenAI insiste : il ne s’agit ni de diagnostiquer ni de traiter, mais d’apporter des explications pédagogiques sur des résultats d’examens, des symptômes ou des options thérapeutiques.

La vraie innovation réside dans la possibilité de connecter directement ses données de santé réelles. Dossiers médicaux électroniques via la plateforme b.well, mais aussi applications grand public comme Apple Health, MyFitnessPal, WeightWatchers, AllTrails, Instacart ou Peloton peuvent désormais alimenter les réponses de l’IA. De quoi ancrer les conseils dans le profil réel de l’utilisateur plutôt que dans des généralités.

Un portail santé intégré à ChatGPT

Concrètement, ChatGPT Health peut expliquer des résultats d’analyses biologiques, mettre en évidence des tendances dans la glycémie ou le sommeil, aider à préparer une consultation avec une synthèse des symptômes et traitements en cours, ou encore proposer des plans d’activité physique alignés sur les objectifs personnels.

Face à la sensibilité des données médicales, OpenAI indique avoir déployé une architecture spécifique. ChatGPT Health fonctionne comme un silo isolé du reste de la plateforme, avec des couches supplémentaires de chiffrement et une promesse forte : les conversations au sein de cet espace ne servent pas à entraîner les modèles d’intelligence artificielle de l’entreprise.

Les utilisateurs conservent le contrôle sur leurs connexions et peuvent révoquer l’accès aux différentes sources à tout moment. L’authentification multi-facteurs est encouragée pour sécuriser davantage les comptes. Selon OpenAI, toutes les applications tierces disponibles ont dû passer des audits de sécurité stricts avant d’être intégrées.

Plus de 260 médecins mobilisés

Pour affiner son outil, OpenAI affirme avoir collaboré avec plus de 260 médecins issus d’une soixantaine de pays et de nombreuses spécialités. Ces praticiens ont fourni des retours sur les réponses du modèle des centaines de milliers de fois, permettant de cadrer l’assistant sur des usages considérés comme utiles et relativement sûrs : pédagogie, préparation de consultations, explication de trajectoires de soins ou décryptage des options d’assurance santé.

Les cas d’usage visés couvrent la compréhension de symptômes fréquents, l’analyse de tendances de bien-être à partir des données connectées, ou encore les compromis entre différentes options d’assurance en fonction des habitudes de soins observées.

Avec cette offensive, OpenAI se positionne frontalement sur un marché de la santé numérique déjà encombré, où se croisent géants de la tech, plateformes de télé-médecine et assureurs.

Le mur européen du RGPD

L’exclusion de l’Europe du lancement de ChatGPT Health révèle un gouffre réglementaire difficile à combler. Autrement dit, impossible en l’état de franchir le mur du Règlement général sur la protection des données (RGPD) qui classe les informations de santé parmi les données les plus sensibles et impose des obligations drastiques.

Le contexte n’arrange rien : ChatGPT (standard)  fait déjà l’objet de plaintes persistantes en Europe pour non-conformité au RGPD. Les CNIL française et italienne, ainsi que le Contrôleur européen de la protection des données, pointent l’absence de base légale claire pour le traitement des données, leur utilisation pour l’entraînement des modèles, et les difficultés à exercer les droits de rectification et d’oubli.

Même l’offre Enterprise, qui bénéficie d’un hébergement européen depuis 2025, n’échappe pas aux enquêtes sur les lacunes en matière de transparence et de minimisation des données.

Pour ChatGPT Health, les obstacles sont encore plus élevés. Les protections techniques mises en place par OpenAI – isolement des données, chiffrement renforcé, non-utilisation pour l’entraînement – sont certes louables, mais insuffisantes au regard du RGPD. L’entreprise devrait notamment fournir un consentement granulaire valide, signer des accords de sous-traitance (DPA) avec ses partenaires comme b.well, réaliser une évaluation d’impact sur la vie privée pour chaque type de données sensibles, et surtout héberger les informations sur le sol européen pour éviter les transferts extra-communautaires.

L’absence de Privacy Shield valide entre l’Union européenne et les États-Unis complique encore la donne. Sans certification RGPD explicite ni adaptation aux clauses contractuelles types ou au EU-US Data Privacy Framework, toute utilisation du service par des résidents européens exposerait OpenAI à des sanctions potentiellement lourdes.

Les alternatives européennes en embuscade

Cette impasse réglementaire ouvre un boulevard aux acteurs européens. Des solutions basées sur des modèles comme Mistral, hébergées dans l’UE et certifiées RGPD, existent déjà pour les professionnels de santé. Elles garantissent la souveraineté des données et évitent les transferts outre-Atlantique, arguments de poids pour les établissements de santé et les autorités sanitaires.

OpenAI pourrait théoriquement adapter ChatGPT Health pour l’Europe via un hébergement local et une architecture similaire à celle de son offre Enterprise, mais aucun calendrier d’adaptation pour les marchés européens n’est annoncé.

La conjonction du RGPD et du récent AI Act européen, qui impose des règles strictes sur les systèmes d’IA à haut risque dans le domaine de la santé, pourrait exiger une validation réglementaire longue et complexe avant tout déploiement.

Reste à savoir si OpenAI acceptera de jouer selon les règles européennes ou si l’entreprise préférera se concentrer sur des marchés moins contraignant. Pour les 450 millions d’Européens, l’attente pourrait durer.

Image : © DR

The post OpenAI lance ChatGPT Health…mais pas dans l’UE appeared first on Silicon.fr.

  •  
❌