Vue lecture

Neocities - Bing blackliste 1,5 million de sites et s'en tape

Je vous en parlais y'a pas longtemps, Neocities c'est cette plateforme qui fait revivre l'esprit GeoCities avec ses sites web persos pleins de GIFs qui clignotent et de fonds étoilés. Eh ben les galères continuent pour eux... et ça pique.

Car Bing a décidé de bloquer purement et simplement les 1,5 million de sites hébergés sur leur service. C'est le domaine ENTIER neocities.org qui a été viré de l'index du moteur de recherche de Microsoft et du coup, tous les sous-domaines des utilisateurs avec, en fait. D'ailleurs, c'est pas la première fois puisqu'un blocage similaire avait déjà eu lieu l'été dernier, soi-disant résolu après un contact avec Microsoft.

Kyle Drake, le fondateur, a vu son trafic Bing passer d'environ 500 000 visiteurs par jour à... zéro. Et en cherchant "Neocities" sur Bing, y'a juste un site copycat qui apparait en bonne place. D'ailleurs c'est possiblement du phishing donc gaffe à vous !

Après avoir découvert de ce qu'il se passe, Drake tente de contacter Microsoft pour régler ça. Il soumet alors une douzaine de tickets via les Bing Webmaster Tools. Sauf que derrière, y'a personne. Enfin si, y'a un chatbot IA qui répond en boucle sans rien résoudre. Le mec a même essayé d'acheter de la pub Bing juste pour avoir un être humain au bout du fil. QUE DALLE !

C'est quand Ars Technica a contacté Microsoft que ça a (un peu) bougé. En 24 heures, hop, la page d'accueil est réapparue dans les résultats de recherche. Sauf que les sous-domaines des utilisateurs, eux, sont toujours bloqués pour la plupart. Microsoft a juste dit que "certains sites violaient leurs règles", sans dire lesquels. Et bien sûr, ils refusent de discuter directement avec la plateforme...

Bing ne pèse que ~4,5% du marché mondial. Mais c'est le moteur par défaut de Windows, et surtout, plein d'autres moteurs (dont DuckDuckGo) s'appuient en bonne partie sur l'index Bing en coulisses. Du coup, c'est pas juste un problème Bing, c'est tout un pan du web qui perd l'accès à ces sites.

Le fondateur le dit lui-même , c'est "un des derniers bastions du contenu humain" sur le web. Pas d'IA slop ni de contenu généré pour gratter du référencement. Neocities, ce sont juste des gens qui font des sites persos chelous, des fanpages, de l'art...etc bref c'est totalement le genre de truc qu'un moteur de recherche devrait mettre en avant à une époque où tout est noyé sous de la bouillie synthétique. Mais bon...

Heureusement que Google continue d'indexer les sites Neocities normalement... ^^

Source

  •  

Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle

Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».

Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.

L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.

Un socle technologique combinant Virtual Twin et Omniverse

Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.

Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».

Des Industry World Models et des assistants virtuels

Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.

Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.

Des « AI factories » sur trois continents

Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.

De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.

Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.

Image : © Dassault Systemes

The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.

  •  

BNP Paribas explose en Bourse (+41 % en un an) : la banque française inquiète autant qu’elle impressionne

bnp paribas banque france 2026

L’établissement est en pleine forme et vient de marquer une année 2025 exceptionnelle, marquée par un dernier trimestre avec un bénéfice net en hausse de 28 % sur un an. De quoi compenser la perte d’un procès important aux États-Unis, et camoufler une accélération des objectifs de réduction des coûts.

  •  

Les caisses automatiques sont un échec dans les supermarchés

Caisses

Les caisses automatiques, autrefois perçues comme une innovation majeure dans le commerce de détail, ne sont prisées ni par les consommateurs, ni par la grande distribution. Entre problèmes techniques, vol à l'étalage et insatisfaction des clients, cette technologie est loin de répondre aux attentes initiales.

  •  

Après la DRAM, le spectre d’une pénurie de CPU

De la RAM aux CPU, une pénurie peut en cacher une autre.

Sur la RAM, la situation est avérée. Elle découle essentiellement de la demande en GPU, dans le cadre de la « course à l’IA » que se livrent les hyperscalers.

Concernant les CPU, il y a des signaux du côté d’Intel. Depuis quelques mois, l’entreprise emploie, dans sa communication publique, le mot shortage, qu’on peut traduire par « manque »… ou « pénurie ». Elle ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande.

Davantage de cœurs… ou de serveurs ?

Un premier avertissement était tombé en octobre 2025 : la « pénurie » de CPU allait atteindre un pic au premier trimestre 2026. À la fois sur l’informatique cliente et le datacenter. La demande a été plus importante que prévu sur les anciens procédés de gravure (Intel 10 et Intel 7), nous expliquait-on alors. D’une part pour les Xeon. De l’autre pour les Core, dans le contexte de la transition vers Windows 11.

À trois mois d’intervalle, le discours n’a globalement pas changé. La demande en Xeon reste insatisfaite à l’heure où l’activité « datacenter et IA » connaît une croissance séquentielle sans précédent depuis plus d’une décennie.
>>Intel affirme qu’il y a encore six mois, tout laissait anticiper une hausse du nombre de cœurs par serveur ; pas du nombre de serveurs tout court. Or, après communication avec des clients, c’est la deuxième option qui se dessine, potentiellement pour plusieurs années.

Le yield (taux de production de CPU « utilisables » par rapport au nombre de wafers) renforce la difficulté à délivrer. Intel explique en tout cas que cet indicateur est en dessous de ses attentes. Au final, il ne cache pas son intention de prioriser les serveurs aux PC. Pour ces derniers, la production se concentrerait sur le milieu et le haut de gamme, tout en sourçant davantage de wafers en externe. Il est également question de livrer en priorité les clients qui sont aussi parvenus à obtenir de la mémoire.

La perspective de l’IA sur CPU

Au sujet du marché des serveurs, Omdia va dans le même sens qu’Intel. Le cabinet d’études estime que 15,9 millions d’unités seront livrées en 2026, contre 14,4 millions en 2025.

Les fabricants de processeurs ont, ajoute-t-il, d’autant plus de mal à suivre qu’ils doivent alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. Bilan : ces derniers pourraient, selon une estimation jugée « prudente », voir leurs prix augmenter de 11 à 15 % en 2026.

L’IA elle-même tend à se déporter sur les CPU, en conséquence de la rareté et de la cherté des GPU. DeepSeek a récemment ouvert des perspectives dans ce domaine avec son architecture Engram. Censée apporter un « deuxième cerveau » aux LLM, elle s’appuie sur une table de connaissances stockée en mémoire CPU, sans dégradation majeure par rapport à de l’inférence GPU pure.

Intel communique aussi à ce propos. Il est, par exemple, revenu sur l’exploitation de puces Xeon par une agence gouvernementale américaine pour faire tourner des SLM (Mistral 7B, Mixtral 8x7B et Llama 3.1-8B) avec OpenVINO.

AMD, qui maintient à son catalogue des CPU d’anciennes générations, ne parle pas officiellement de pénurie. Par rapport à Intel, il a potentiellement plus de marge pour réallouer si nécessaire sa capacité de production, avec les cartes graphiques Radeon comme variable d’ajustement.

Illustration générée par IA

The post Après la DRAM, le spectre d’une pénurie de CPU appeared first on Silicon.fr.

  •  

1dex - Toutes les données d'un quartier en un clic

Quentin, fidèle lecteur de Korben, développe en solo depuis presque un an un outil qui va parler à tous ceux qui cherchent un appart ou une maison et qui en ont marre de jongler entre quinze onglets pour avoir une vision claire d'un quartier.

1dex.fr c'est une plateforme qui agrège un paquet de données géographiques et immobilières sur n'importe quelle adresse en France. Prix de vente au m², transactions DVF, permis de construire, qualité de l'eau, pollution de l'air, travaux à proximité, écoles... Le tout sur une interface cartographique plutôt bien foutue.

Concrètement, vous entrez une adresse, vous cliquez sur "Analyser cette zone" et hop, la carte se remplit de données. On peut alors visualiser les parcelles alentours, voir les dernières ventes, repérer les chantiers en cours, et même afficher les immeubles avec syndic de copropriété. Y'a même un système de calques pour switcher entre fond de carte classique, vue satellite ou mode sombre.

Perso j'aime bien ce genre d'outil qui met la data à portée de main sans avoir besoin de fouiller data.gouv.fr pendant des heures.

Son modèle est freemium mais rassurez-vous, l'essentiel est gratuit avec une limite journalière d'analyses. Si vous dépassez, soit vous revenez le lendemain, soit vous passez à la caisse pour un accès intensif. Quentin bosse aussi sur une API pour les pros et une extension navigateur qui ajoutera les données 1dex directement sur les annonces immo. Pas mal pour éviter les mauvaises surprises avant même de visiter !

Voilà si vous êtes en recherche de logement ou juste curieux de savoir ce qui se passe autour de chez vous, ça vaut le coup d'œil -> 1dex.fr

Et bravo à Quentin !

  •  

GitHub - Enfin un bouton pour bloquer les Pull Requests ?

GitHub vient peut-être de trouver une piste sérieuse pour sauver la santé mentale des mainteneurs de projets open source. Parce que je sais pas si vous le savez mais gérer un projet populaire sur GitHub, c'est un peu comme essayer de vider l'océan avec une petite cuillère, surtout avec la montée en puissance des contributions de faible qualité, dont une bonne partie est désormais générée par IA ...

Le problème, c'est que la quantité ne veut pas dire la qualité... Entre les Pull Requests (PR) qui ne respectent pas les guidelines du "README.md" et celles qui sont abandonnées en cours de route, les mecs derrière les gros dépôts commencent à fatiguer. Du coup, un représentant de GitHub explique dans une discussion avec la communauté explorer très sérieusement plusieurs options, dont la possibilité de désactiver purement et simplement les Pull Requests sur un dépôt.

Si l'idée est validée, ce serait un vrai changement car actuellement, pour arrêter de recevoir des contributions, la solution la plus radicale reste de passer le repo en mode "archive", ce qui gèle tout le projet (lecture seule). Certains utilisent des automatisations via des fichiers .github/workflows/close-pr.yml, mais c'est du bricolage. L'idée ici, c'est donc d'avoir un bouton spécial pour dire "Ok les gars, on n'accepte plus les modifs pour le moment", sans pour autant couper les issues ou les discussions.

GitHub évalue aussi d'autres leviers, genre limiter les PR uniquement aux collaborateurs du projet ou permettre la suppression définitive d'une PR polluante directement depuis l'interface. Perso, j'aime bien cette idée de bouton car elle évite de bloquer tout le reste du projet inutilement. Le coût de revue d'une PR, même foireuse, reste un effort humain important, alors que la générer avec Copilot ou ChatGPT ne demande qu'un effort minime pour l'expéditeur.

D'ailleurs, si vous faites partie de ceux qui aiment gérer vos PR depuis le terminal , vous voyez bien le délire... quand la liste s'allonge de dizaines d'entrées inutiles, y'a de quoi avoir envie de tout balancer par la fenêtre !!

Bref, peu importe ce qui sera décidé mais c'est bien de voir GitHub à l'écoute. Et si ils valident ces changements, ça pourrait carrément faciliter la vie de pas mal de développeurs qui saturent face au tri permanent.

Bref, je trouve que c'est une super idée !

Source

  •  

SpaceX et xAI fusionnent pour créer un colosse de 1 250 milliards $

SpaceX va acquérir xAI dans le cadre d’un échange d’actions qui valorise l’ensemble du nouvel groupe autour de 1 250 milliards $.

Cette opération de fusion-acquisition complète intègre xAI au sein de SpaceX, qui devient ainsi la maison mère d’une plateforme combinant fusées, réseau Starlink, intelligence artificielle Grok et services numériques associés. Les actionnaires de xAI recevront des titres SpaceX selon un ratio prédéfini.

La transaction intervient à un moment stratégique, en amont d’une introduction en Bourse envisagée pour SpaceX. L’opération valorise SpaceX proche de 1 000 milliards $ et xAI autour de 250 milliards. Cette consolidation vise à simplifier la structure capitalistique et à renforcer le profil de croissance perçu par les investisseurs.

Une intégration verticale espace-IA

L’enjeu industriel majeur réside dans le couplage des capacités d’intelligence artificielle de xAI avec les activités spatiales de SpaceX. Les modèles Grok et les infrastructures d’entraînement de xAI sont appelés à intervenir dans la conception de lanceurs, la planification de missions et la gestion de la chaîne logistique.

Le projet le plus ambitieux consiste à utiliser Starlink et des centres de données en orbite pour héberger et exécuter des modèles d’IA. L’objectif est de réduire la dépendance aux data centers terrestres, optimiser la consommation énergétique et limiter les contraintes de refroidissement.

L’IA de xAI doit également améliorer la conception des fusées, la détection d’anomalies en vol, la maintenance prédictive et l’optimisation des trajectoires, créant des boucles de rétroaction entre données de vol et entraînement des modèles. La fusion consolide par ailleurs les capacités duales civil-défense du groupe. SpaceX dispose déjà de nombreux contrats avec le Pentagone et les agences de renseignement, tandis que xAI commence à nouer des partenariats dans la défense, notamment pour des usages en logistique et analyse de renseignement.

Une diversification des revenus

Sur le plan commercial, cette fusion vise à justifier des multiples de valorisation plus élevés en présentant aux marchés une histoire de croissance unifiée avant l’introduction en Bourse. Au-delà des lancements et de Starlink, le nouvel ensemble ambitionne de proposer des offres de services d’IA adossées à l’infrastructure spatiale : connectivité augmentée, traitement de données en orbite, services temps réel pour entreprises et gouvernements.

Face aux autres acteurs de l’IA, xAI peine à rivaliser en part de marché avec OpenAI ou Anthropic. Mais son ancrage dans un actif industriel rentable et stratégique comme SpaceX lui confère un positionnement différenciant, basé sur la maîtrise conjointe de l’infrastructure physique et des modèles d’IA.

La taille et la nature stratégique du nouvel ensemble devraient accroître son pouvoir de négociation vis-à-vis des États et grands comptes. Cette concentration expose néanmoins le groupe à un contrôle accru sur les questions de concurrence, de sécurité nationale et de gouvernance des systèmes d’IA.

Image : © DR Space X

The post SpaceX et xAI fusionnent pour créer un colosse de 1 250 milliards $ appeared first on Silicon.fr.

  •  

« Accélérer l’avenir de l’humanité » : Elon Musk fusionne SpaceX et xAI pour financer son rêve

spacex elon musk bourse

SpaceX rachète xAI (Grok, X), devenant ainsi une méga-corporation de 1250 milliards de dollars et remboursant son ancien achat de Twitter. Avec une telle opération, Elon Musk se prépare à l'entrée en Bourse de la plus grosse entreprise privée au monde, et promet de faire avancer la conquête spatiale, tout comme le destin de l'espèce humaine. Rien que ça.

  •  

Face au « scandale ICE », Capgemini veut vendre sa filiale CGS

6 jours pour réagir face au « scandale ICE », c’est le temps qu’il a fallu à Capgemini. Et d’annoncer sa décision de vendre sa filiale américaine qui a signé et exécuté le contrat avec l’agence fédérale américaine. Selon le syndicat CFTC, elle a été adopté à l’issue d’un conseil d’administration exceptionnel convoqué durant le week-end.

Le 25 janvier, Aiman Ezzat, son directeur général  avait choisi son compte LinkedIn pour expliquer que le groupe qu’il dirige n’avait quasiment aucun pouvoir de contrôle sur cette filiale américaine ( ce n’est pas la seule) baptisée Capgemini Government Solutions (CGS).

Exit donc toute responsabilité sur la signature du contrat avec l’Immigration and Customs Enforcement (ICE) pour un montant de 4,8 millions $. Son objet clairement indiqué dans les documents officiels publiés par l’agence fédérale américaine des achats, consistait à fournir des « services de recherche de personnes (skip tracing) pour les opérations d’exécution et d’expulsion ».

Un contrat interdit par la Charte éthique

La révélation avait provoqué de vives critiques émanant de ministres et de responsables politiques mais aussi des syndicats maison. Le 29 janvier, la CGT a ainsi lancé une pétition  » Exigeons la fin de la collaboration entre Capgemi et l’ICE » qui a déjà reçue plus de cinq mille signatures.

Le 1er février, c’est finalement un communiqué officiel de quatre lignes, le seul depuis le début de l’affaire, qui annonce :

« Capgemini a estimé que les contraintes légales habituelles imposées aux Etats-Unis pour contracter avec des entités fédérales menant des activités classifiées ne permettaient pas au Groupe d’exercer un contrôle approprié sur certains aspects des opérations de cette filiale, afin d’assurer un alignement avec les objectifs du Groupe. Le processus de cession de cette entité, qui représente 0,4% du chiffre d’affaires estimé du Groupe en 2025 (moins de 2% de son chiffre d’affaires aux Etats-Unis), sera initié immédiatement. » Aucune date et aucune valorisation de la vente n’est évoqué.

Pas de regret exprimé non plus sur la dimension éthique de l’affaire. Pourtant, la CFTC est formelle : « La charte étique du groupe interdit ce genre de prestation attentatoire à la liberté et aux droits des personnes. Normalement, si les acteurs de cette affaire avaient respecté cette charte, ils n’auraient pas répondu à cet appel d’offre, ni signé le contrat.».

 

 

 

 

The post Face au « scandale ICE », Capgemini veut vendre sa filiale CGS appeared first on Silicon.fr.

  •  

Fnac Darty change de mains pour éviter la menace chinoise

Fnac Darty

Daniel Kretinsky veut maintenant s'emparer de Fnac Darty au complet, alors que le milliardaire tchèque est déjà premier actionnaire principal de l'entreprise. Il a lancé une offre publique d’achat pour prendre le contrôle du groupe, sans le retirer de la Bourse. Une opération bien accueillie en interne, mais suivie de très près par l’État.

  •  
❌