Pourquoi le rachat de Warner par Netflix est une très mauvaise nouvelle (Edito)
Le rachat de Warner par Netflix consacre la naissance d'un géant qui aura bientôt tous les pouvoirs sur nos écrans. Et ça devrait nous inquiéter.


![]()
Sridhar Vembu, entrepreneur et ingénieur indien, cofondateur de Zoho, nous livre dans cette tribune exclusive sa vision de la géopolitique de la technologie en 2026. Alors qu'elle reposait sur un équilibre mondial relativement durable, la confiance s'effrite et les blocs renaissent. Pour le pire ? Pas forcément.


L’industrie technologique s’engage dans une compétition sans précédent autour des infrastructures dédiées à l’intelligence artificielle. Amazon et Google mènent la danse avec des budgets d’investissement vertigineux qui dépassent ceux de leurs concurrents. La logique sous-jacente semble limpide : accumuler davantage de capacités de calcul permettrait de concevoir les meilleurs produits IA et ainsi dominer le ... Lire plus
L'article La course aux investissements IA divise les géants technologiques et leurs actionnaires est apparu en premier sur Fredzone.» Nous ne voulons pas de subventions…nous avons besoin de commandes publiques « . Combien de fois n’avons-nous pas entendu cette revendication chez les éditeurs français de logiciels et les startups de la French Tech ?
La donne est peut-être en train de changer à la faveur d’un nouveau paradigme : ériger la souveraineté en critère structurant des achats de l’État, au même niveau que la performance, la sécurité ou les coûts.
Une circulaire doit être signée très prochainement par le Premier ministre pour valider ce principe même si le texte laisse encore de larges marges d’interprétation. L’objectif affiché est de mieux maîtriser les dépendances technologiques de l’administration et utiliser les 4,5 milliards € annuels de commande publique comme levier de structuration de l’offre française et européenne.
Cette circulaire fait suite à plusieurs mois de concertation interministérielle et de dialogue avec la filière industrielle du numérique, qui réclamait un cadre plus lisible.
Le texte consacre un principe de sobriété et de rationalisation. Avant tout achat, les services de l’État devront suivre trois étapes obligatoires : rechercher d’abord une solution déjà disponible au sein du secteur public, dans une logique de mutualisation entre administrations. À défaut, se tourner vers le marché en appliquant les nouveaux critères de sélection. Et seulement en dernier ressort, lancer un développement « à façon ».
Cette hiérarchie vise à limiter la prolifération de projets sur mesure, jugés coûteux et redondants. Elle s’articule avec la doctrine « Cloud au centre de l’État » et s’appuie sur des outils opérés par l’administration comme Tchap, Visio ou FranceTransfert, basés sur des logiciels libres.
Changement majeur : dans la grille de sélection des offres logicielles, la souveraineté apparaît désormais en première position, devant la performance, la sécurité, les coûts, la réversibilité, la maintenabilité et la durabilité. Un renversement symbolique qui place la maîtrise des dépendances technologiques au cœur de la décision.
Selon Bercy, cette souveraineté se décline en trois dimensions : l’immunité aux droits extraterritoriaux, pour limiter les risques liés aux législations étrangères ; la capacité de substitution, garantissant la réversibilité et évitant l’enfermement propriétaire ; et la maîtrise technologique, privilégiant les technologies placées sous contrôle de l’État ou d’acteurs alignés avec ses objectifs.
Le texte ne consacre pas formellement de préférence européenne, alors qu’Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, la défend dans ses interventions publiques. Une ambiguïté qui laisse une marge d’interprétation aux acheteurs tout en envoyant un signal aux industriels du Vieux Continent.
L’ambition affichée se heurte toutefois à une limite majeure : l’absence de barème. Aucune pondération chiffrée n’est associée aux critères fixés, notamment la souveraineté. Chaque acheteur public conserve donc une large autonomie pour apprécier l’importance de ce critère, ce qui pourrait conduire à des pratiques hétérogènes entre ministères et opérateurs.
La question du contrôle et du suivi reste également peu encadrée. Les dispositifs actuels, comme l’avis préalable de la DINUM pour les projets dépassant 9 millions d’euros, sont déjà partiellement contournés ou appliqués après coup.
Par ailleurs, la doctrine doit encore s’aligner avec les textes européens en préparation sur la commande publique, notamment la révision de la directive de 2014 qui vise elle aussi des objectifs d’autonomie stratégique. Les acheteurs devront arbitrer entre ces orientations nationales, les contraintes budgétaires et la pression opérationnelle.
Pour les éditeurs français et européens, cette circulaire constitue néanmoins un signal politique majeur. L’État annonce qu’il privilégiera les solutions maximisant l’immunité juridique, la réversibilité et la maîtrise technologique, sans exclure les acteurs extra-européens. Les fournisseurs capables de démontrer ces atouts par leur modèle d’hébergement, leur gouvernance ou leurs engagements de portabilité disposeront d’un argument différenciant.
Pour les acheteurs publics, le cadre de décision devient plus lisible, tout en préservant une part d’appréciation dans la mise en œuvre. Ils devront intégrer cette dimension de souveraineté dans leurs stratégies de sourcing et documenter davantage leurs choix pour sécuriser juridiquement leurs décisions.
La réussite de cette doctrine se mesurera à double titre : à la montée en puissance de l’écosystème numérique français et européen dans les marchés publics, et à la capacité de l’administration à réduire ses dépendances critiques sans sacrifier l’innovation ni la qualité de service.
The post Achats publics numériques : la souveraineté devient un critère de choix appeared first on Silicon.fr.

Je vous en parlais y'a pas longtemps, Neocities c'est cette plateforme qui fait revivre l'esprit GeoCities avec ses sites web persos pleins de GIFs qui clignotent et de fonds étoilés. Eh ben les galères continuent pour eux... et ça pique.
Car Bing a décidé de bloquer purement et simplement les 1,5 million de sites hébergés sur leur service. C'est le domaine ENTIER neocities.org qui a été viré de l'index du moteur de recherche de Microsoft et du coup, tous les sous-domaines des utilisateurs avec, en fait. D'ailleurs, c'est pas la première fois puisqu'un blocage similaire avait déjà eu lieu l'été dernier, soi-disant résolu après un contact avec Microsoft.
Kyle Drake, le fondateur, a vu son trafic Bing passer d'environ 500 000 visiteurs par jour à... zéro. Et en cherchant "Neocities" sur Bing, y'a juste un site copycat qui apparait en bonne place. D'ailleurs c'est possiblement du phishing donc gaffe à vous !
Après avoir découvert de ce qu'il se passe, Drake tente de contacter Microsoft pour régler ça. Il soumet alors une douzaine de tickets via les Bing Webmaster Tools. Sauf que derrière, y'a personne. Enfin si, y'a un chatbot IA qui répond en boucle sans rien résoudre. Le mec a même essayé d'acheter de la pub Bing juste pour avoir un être humain au bout du fil. QUE DALLE !
C'est quand Ars Technica a contacté Microsoft que ça a (un peu) bougé. En 24 heures, hop, la page d'accueil est réapparue dans les résultats de recherche. Sauf que les sous-domaines des utilisateurs, eux, sont toujours bloqués pour la plupart. Microsoft a juste dit que "certains sites violaient leurs règles", sans dire lesquels. Et bien sûr, ils refusent de discuter directement avec la plateforme...
Bing ne pèse que ~4,5% du marché mondial. Mais c'est le moteur par défaut de Windows, et surtout, plein d'autres moteurs (dont DuckDuckGo) s'appuient en bonne partie sur l'index Bing en coulisses. Du coup, c'est pas juste un problème Bing, c'est tout un pan du web qui perd l'accès à ces sites.
Le fondateur le dit lui-même , c'est "un des derniers bastions du contenu humain" sur le web. Pas d'IA slop ni de contenu généré pour gratter du référencement. Neocities, ce sont juste des gens qui font des sites persos chelous, des fanpages, de l'art...etc bref c'est totalement le genre de truc qu'un moteur de recherche devrait mettre en avant à une époque où tout est noyé sous de la bouillie synthétique. Mais bon...
Heureusement que Google continue d'indexer les sites Neocities normalement... ^^


Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».
Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.
L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.
Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.
Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».
Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.
Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.
Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.
De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.
Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.
Image : © Dassault Systemes
The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.



De la RAM aux CPU, une pénurie peut en cacher une autre.
Sur la RAM, la situation est avérée. Elle découle essentiellement de la demande en GPU, dans le cadre de la « course à l’IA » que se livrent les hyperscalers.
Concernant les CPU, il y a des signaux du côté d’Intel. Depuis quelques mois, l’entreprise emploie, dans sa communication publique, le mot shortage, qu’on peut traduire par « manque »… ou « pénurie ». Elle ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande.
Un premier avertissement était tombé en octobre 2025 : la « pénurie » de CPU allait atteindre un pic au premier trimestre 2026. À la fois sur l’informatique cliente et le datacenter. La demande a été plus importante que prévu sur les anciens procédés de gravure (Intel 10 et Intel 7), nous expliquait-on alors. D’une part pour les Xeon. De l’autre pour les Core, dans le contexte de la transition vers Windows 11.
À trois mois d’intervalle, le discours n’a globalement pas changé. La demande en Xeon reste insatisfaite à l’heure où l’activité « datacenter et IA » connaît une croissance séquentielle sans précédent depuis plus d’une décennie.
>>Intel affirme qu’il y a encore six mois, tout laissait anticiper une hausse du nombre de cœurs par serveur ; pas du nombre de serveurs tout court. Or, après communication avec des clients, c’est la deuxième option qui se dessine, potentiellement pour plusieurs années.
Le yield (taux de production de CPU « utilisables » par rapport au nombre de wafers) renforce la difficulté à délivrer. Intel explique en tout cas que cet indicateur est en dessous de ses attentes. Au final, il ne cache pas son intention de prioriser les serveurs aux PC. Pour ces derniers, la production se concentrerait sur le milieu et le haut de gamme, tout en sourçant davantage de wafers en externe. Il est également question de livrer en priorité les clients qui sont aussi parvenus à obtenir de la mémoire.
Au sujet du marché des serveurs, Omdia va dans le même sens qu’Intel. Le cabinet d’études estime que 15,9 millions d’unités seront livrées en 2026, contre 14,4 millions en 2025.
Les fabricants de processeurs ont, ajoute-t-il, d’autant plus de mal à suivre qu’ils doivent alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. Bilan : ces derniers pourraient, selon une estimation jugée « prudente », voir leurs prix augmenter de 11 à 15 % en 2026.
L’IA elle-même tend à se déporter sur les CPU, en conséquence de la rareté et de la cherté des GPU. DeepSeek a récemment ouvert des perspectives dans ce domaine avec son architecture Engram. Censée apporter un « deuxième cerveau » aux LLM, elle s’appuie sur une table de connaissances stockée en mémoire CPU, sans dégradation majeure par rapport à de l’inférence GPU pure.
Intel communique aussi à ce propos. Il est, par exemple, revenu sur l’exploitation de puces Xeon par une agence gouvernementale américaine pour faire tourner des SLM (Mistral 7B, Mixtral 8x7B et Llama 3.1-8B) avec OpenVINO.
AMD, qui maintient à son catalogue des CPU d’anciennes générations, ne parle pas officiellement de pénurie. Par rapport à Intel, il a potentiellement plus de marge pour réallouer si nécessaire sa capacité de production, avec les cartes graphiques Radeon comme variable d’ajustement.
Illustration générée par IA
The post Après la DRAM, le spectre d’une pénurie de CPU appeared first on Silicon.fr.


