Vue normale

Firefox renforce sa sécurité grâce à l'IA : Claude découvre 22 vulnérabilités en un temps record.

9 mars 2026 à 16:00
La collaboration entre Mozilla et Anthropic illustre comment l'intelligence artificielle transforme notre approche de l'audit de sécurité des logiciels . En quelques semaines seulement, un modèle comme Claude Opus 4.6 a analysé le code de Firefox et détecté de nombreuses failles qui auraient normalement nécessité beaucoup plus de temps et de ressources. Pour ceux qui utilisent quotidiennement un navigateur pour accéder à leurs services bancaires, aux réseaux sociaux et à leur travail, ces expériences ne sont pas de simples curiosités techniques : elles ont un impact direct sur la sécurité du web face aux vulnérabilités que les cybercriminels pourraient exploiter. Durant deux semaines en janvier , les ingénieurs d'Anthropic ont utilisé Claude Opus 4.6 pour analyser le code source de Firefox , un navigateur open source déjà sous surveillance constante de la part des chercheurs en sécurité. Le modèle a ainsi identifié 22 failles de sécurité , dont 14 ont été classées comme critiques , ce qui représente une part importante du total des problèmes découverts en 2025 . Dans au moins un cas rapporté au Wall Street Journal , le modèle a détecté une vulnérabilité moins de 20 minutes après le début de l'analyse. Ce temps de réponse illustre comment l'automatisation peut accélérer les phases les plus répétitives du travail de revue de code. Les vulnérabilités identifiées ont été corrigées dans Firefox 148 , version dans laquelle Mozilla a intégré les correctifs nécessaires. L'entreprise reste toutefois prudente : il convient de rappeler que les outils basés sur l'IA ont tendance à générer de nombreux faux positifs , et que chaque signalement nécessite donc une vérification humaine approfondie. Tout a commencé par des rapports de bogues concernant le moteur JavaScript de Firefox , ce qui a incité Mozilla à collaborer plus étroitement avec Anthropic . Dès lors, l'utilisation de Claude Opus 4.6 est passée d'un simple test à un véritable outil de support pour le développement de navigateurs. Le modèle a d'abord été testé sur des vulnérabilités anciennes , connues et corrigées afin de vérifier s'il pouvait les reconnaître dans le code. Une fois ce contrôle passé, le code source actuel a été analysé, soit environ 6 000 fichiers C++ , une taille qui rend complexe une revue manuelle complète. Sur cet ensemble de fichiers, Claude Opus 4.6 a détecté 112 vulnérabilités , dont 22 failles de sécurité et 90 autres bogues , presque tous corrigés depuis par les ingénieurs de Mozilla . Suite à ces constatations, l'équipe a décidé d'utiliser ce modèle de manière continue tout au long du développement de Firefox , comme couche de contrôle supplémentaire. Anthropic a également testé un aspect plus délicat : la capacité de Claude Opus 4.6 à générer du code d’exploitation , c’est-à-dire le programme qui exploite une vulnérabilité. Le modèle n’a réussi que deux fois , ce qui a coûté à l’expérience environ 4 000 $ en crédits API . D'après l'entreprise, Claude est nettement plus efficace pour détecter les vulnérabilités que pour générer des exploits fonctionnels. De plus, le coût de la détection des failles est bien inférieur à celui de la création d'un exploit, ce qui rend le modèle beaucoup plus rentable pour les défenseurs que pour les attaquants . Cette asymétrie économique est peut-être le fait le plus intéressant : si des outils comme Claude Opus 4.6 restent plus efficaces et moins coûteux pour renforcer le code que pour développer des attaques, l’IA peut devenir un allié concret pour améliorer la sécurité des logiciels sans offrir automatiquement le même avantage à ceux qui tentent de la violer. (Lire la suite)

L'IA de Microsoft recommande des logiciels malveillants. Les installateurs volent les données des utilisateurs.

9 mars 2026 à 15:57
La popularité croissante des outils basés sur l'IA attire l'attention des cybercriminels. Les nouvelles technologies, encore familières à de nombreux utilisateurs, permettent de générer de nouveaux scénarios de fraude. La dernière campagne découverte par des chercheurs en sécurité démontre la facilité avec laquelle les moteurs de recherche et les dépôts de code peuvent être exploités pour diffuser des logiciels malveillants. De faux programmes d'installation du projet OpenClaw étaient hébergés sur GitHub et apparaissaient dans les résultats de recherche générés par l'IA sur le moteur de recherche Bing de Microsoft. Les utilisateurs recherchant le programme d'installation de l'outil se voyaient proposer des liens vers des dépôts malveillants. Après le téléchargement des fichiers et l'exécution des commandes d'installation, l'ordinateur lançait un logiciel conçu pour voler des données et transformer l'appareil en un nœud proxy destiné à des attaques ultérieures. OpenClaw est un projet open source développé comme agent d'IA autonome capable d'effectuer diverses tâches. Cet outil agit comme un assistant personnel pour l'utilisateur et peut accéder aux fichiers locaux, aux courriels, à la messagerie instantanée et à certains services Internet. Ce niveau d'intégration confère à l'application des privilèges étendus au sein du système d'exploitation. Pour les cybercriminels, cela signifie qu'ils peuvent obtenir une quantité importante d'informations confidentielles s'ils prennent le contrôle de l'installation du programme. C’est pourquoi les instigateurs de la campagne ont commencé à publier des fichiers d’installation malveillants et des instructions d’installation déguisées en documents officiels du projet. La campagne a été découverte par les analystes de Huntress, une entreprise spécialisée dans la détection et la réponse aux incidents de sécurité. Les chercheurs ont constaté que les utilisateurs recherchant le programme d'installation d'OpenClaw obtenaient des résultats générés par le moteur de recherche IA de Bing. Dans certains cas, le lien recommandé menait directement à un dépôt contenant un programme d'installation malveillant. Les conclusions de Huntress indiquent que la simple publication des fichiers sur GitHub suffisait à les faire apparaître dans les résultats générés par le système de recherche basé sur l'IA. Le faux dépôt semblait légitime et les attaquants l'ont associé à une organisation nommée openclaw-installer. Cette structure aurait pu influencer l'évaluation de la crédibilité des algorithmes des moteurs de recherche. Des comptes GitHub publiant des fichiers malveillants ont récemment fait leur apparition. Leurs auteurs ont tenté d'accroître leur crédibilité en copiant des extraits de code légitime du projet Moltworker de Cloudflare. Ces dépôts semblaient être des projets de développement actifs. Dans de nombreux cas, ils contenaient des instructions d'installation d'OpenClaw pour différents systèmes d'exploitation. Dans la section installation, les utilisateurs de macOS disposaient d'une commande bash à exécuter dans un terminal. Cette commande menait à un autre dépôt de l'organisation puppeteerrr, contenant des fichiers avec des scripts shell et des exécutables. L'analyse effectuée par Huntress a indiqué que l'un de ces fichiers était une variante du logiciel malveillant Atomic Stealer. Sous Windows, les faux dépôts hébergeaient le fichier OpenClaw_x64.exe. Une fois lancé, le programme d'installation téléchargeait et exécutait plusieurs composants malveillants supplémentaires. Certains étaient des chargeurs écrits en Rust. Leur rôle était de lancer en mémoire des modules additionnels conçus pour dérober des données du système de l'utilisateur. L'un de ces composants était Vidar, un programme répandu dans la communauté cybercriminelle. Ce logiciel peut voler les identifiants, les cookies et les informations stockées dans les navigateurs web. Dans la campagne analysée, la communication avec les serveurs de commande et de contrôle s'effectuait via des comptes Telegram et Steam. L'étape suivante de l'infection consistait en l'installation du module GhostSocks. Ce logiciel transforme l'ordinateur infecté en un nœud proxy accessible à l'opérateur de l'attaque. Les appareils infectés peuvent servir à mener d'autres opérations de cybercriminalité. Les attaquants peuvent ainsi faire transiter le trafic réseau par l'ordinateur de la victime ou effectuer des activités en utilisant des identifiants de connexion volés. Cette approche rend difficile l'identification de la source réelle de l'attaque. Le trafic Internet provient d'une adresse IP appartenant à l'utilisateur infecté. Les chercheurs de Huntress ont déterminé que plusieurs comptes et dépôts diffusant de faux installateurs OpenClaw étaient utilisés dans le cadre d'une même campagne. Tous les projets identifiés ont été signalés aux administrateurs de GitHub. On ignore pour l'instant s'ils ont tous été supprimés du site. (Lire la suite)

La crise du marché de la mémoire NAND est pire que celle de la DRAM. Samsung va doubler ses prix pour le deuxième trimestre consécutif.

9 mars 2026 à 13:53
Bien que la crise la plus médiatisée sur le marché de la mémoire DRAM ces derniers mois ait été celle de l'industrie informatique, cette dernière est confrontée à un autre défi sérieux qui ne cesse de s'aggraver. Il s'agit bien sûr de la mémoire flash NAND, utilisée notamment dans les SSD. Selon de récents articles de la presse sud-coréenne, Samsung envisage de nouvelles hausses de prix significatives, susceptibles d'impacter fortement le marché des ordinateurs personnels. D'après Sedaily, le géant sud-coréen prévoit d'augmenter à nouveau les prix de la mémoire NAND au deuxième trimestre, jusqu'à 100 %. À noter qu'une hausse similaire a déjà été appliquée au premier trimestre. Si les prévisions se confirment, Samsung augmentera les prix de la mémoire NAND de plus de 200 % en 2026. Cette hausse considérable pourrait entraîner une augmentation significative du coût de nombreux appareils électroniques. Les experts soulignent que les fabricants de mémoire sont actuellement en position de force. La demande de puces mémoire est si forte que les clients, notamment les fabricants d'ordinateurs, n'ont souvent d'autre choix que d'accepter les prix imposés. L'une des principales raisons de la hausse des prix est le développement rapide des infrastructures d'IA. Ces dernières années, les centres de données de grande envergure ont commencé à utiliser non seulement la DRAM, mais aussi des supports de stockage NAND rapides pour traiter d'énormes volumes de données. Les systèmes d'IA modernes, notamment ceux qui gèrent de longs contextes dans les modèles de langage, utilisent de plus en plus de baies SSD de grande capacité dans les serveurs et les racks de calcul. Cette évolution entraîne une croissance de la demande des entreprises technologiques et des hyperscalers bien plus rapide que sur le marché grand public traditionnel. Samsung n'est pas la seule entreprise à prévoir des hausses de prix. D'autres grands fabricants de mémoire, comme SK Hynix et Kioxia, envisageraient des mesures similaires. Il est à noter que les prix de la mémoire NAND ont déjà augmenté d'environ 450 % au cours de l'année écoulée. Cette hausse s'explique à la fois par la popularité croissante des infrastructures d'IA et par les difficultés rencontrées par les fabricants pour équilibrer leur production entre DRAM et NAND. Cette situation pourrait s'avérer très problématique pour le marché des PC. La hausse des prix de la mémoire NAND entraînerait une augmentation du coût des SSD, ainsi que des dépenses supplémentaires pour les fabricants d'ordinateurs portables et d'ordinateurs de bureau pré-assemblés. En pratique, cela pourrait mener à un scénario similaire à la crise de la DRAM, mais avec une augmentation des prix beaucoup plus brutale. (Lire la suite)

Nouveau processeur Intel Core Ultra 5 250K Plus testé : un bond en avant considérable en matière de multithreading

9 mars 2026 à 13:52
Peu avant son lancement officiel, les premiers résultats de tests de performances du processeur Intel Core Ultra 5 250K Plus ont fuité en ligne. Il s'agit de l'un des trois modèles qui composeront la future gamme Arrow Lake Refresh pour ordinateurs de bureau. Cette gamme comprendra également le Core Ultra 7 270K Plus et le Core Ultra 5 250KF Plus, la variante « KF » étant dépourvue de carte graphique intégrée. Le processeur Intel Core Ultra 5 250K Plus vise le segment milieu de gamme, mais selon les premières données, il pourrait s'avérer être l'un des processeurs Intel les plus efficaces de cette catégorie. Le processeur a été repéré dans la base de données de benchmarks PassMark, un outil de comparaison de performances CPU très répandu. Lors du test multithread, la puce a obtenu un score de 50 478 points, tandis que lors du test monothread, elle a atteint 4 854 points. Bien qu'une seule entrée soit actuellement disponible dans la base de données, les résultats indiquent une nette amélioration des performances par rapport à son prédécesseur, le Core Ultra 5 245K. Si les performances monocœur n'ont progressé que d'environ 3 %, la différence pour les tâches multithread atteint 16,6 %. La principale nouveauté de ce modèle réside dans le nombre accru de cœurs à faible consommation. Le Core Ultra 5 250K Plus intègre quatre cœurs Efficient supplémentaires, améliorant considérablement les performances en multitâche et dans les tâches multithreadées. D'après les informations actuelles, ce processeur offrira une configuration de 18 cœurs (6 processeurs et 12 processeurs) et 18 threads, avec une fréquence d'horloge maximale d'environ 5,3 GHz. Il se positionne ainsi entre le Core Ultra 5 245K et le Core Ultra 7 265K, plus haut de gamme. Pour l'instant, les performances en jeu laissent à désirer, un critère pourtant essentiel pour de nombreux utilisateurs lors du choix d'un processeur. La génération précédente d'Arrow Lake offrait de bonnes performances pour les applications bureautiques et multitâches, mais c'est bien le jeu qui déterminera le véritable succès de cette nouvelle série, et à cet égard, les processeurs Blue Lake étaient nettement inférieurs aux Ryzen. Le prix reste également une grande inconnue, mais si Intel maintient un niveau de coût similaire à celui de son prédécesseur, le Core Ultra 5 250K Plus pourrait devenir une proposition très intéressante pour les joueurs et les utilisateurs à la recherche d'un processeur puissant pour un nouvel ordinateur. (Lire la suite)

Ils dégradent délibérément le matériel et les jeux après leur achat. Un rapport norvégien dénonce vivement l'industrie technologique.

9 mars 2026 à 13:51
Les associations de défense des consommateurs critiquent de plus en plus vivement les modèles économiques de certaines entreprises technologiques. Le Conseil norvégien des consommateurs a publié un rapport détaillé accusant les fabricants d'électronique et les fournisseurs de services numériques de dégrader systématiquement les fonctionnalités de leurs produits après leur vente. Le document , préparé par le Conseil des consommateurs (Forbrukerrådet), compte une centaine de pages et analyse le phénomène à travers un large éventail de technologies. Les auteurs du rapport citent notamment les jeux vidéo, les imprimantes, les objets connectés pour la maison et les voitures intelligentes. Selon cette organisation, les fabricants utilisent la possibilité de mettre à jour les logiciels à distance pour limiter progressivement les fonctions des appareils achetés par les clients. Le rapport décrit cette pratique sous le terme d’« enshittification ». Ce concept désigne le cycle de dégradation des produits numériques. Dans un premier temps, une entreprise attire les utilisateurs grâce à un service attractif ou un matériel fonctionnel. L’étape suivante consiste à modifier le modèle opérationnel de la plateforme afin de favoriser les partenaires commerciaux. Enfin, la dernière étape vise à optimiser l’utilisation par les utilisateurs et les partenaires pour accroître les revenus. D'après les auteurs du rapport, les produits numériques demeurent particulièrement vulnérables à ce phénomène. Le logiciel qui les contrôle peut être mis à jour à tout moment, et l'utilisateur n'a aucun contrôle sur les modifications apportées par le fabricant. Par conséquent, un appareil acheté avec une configuration fonctionnelle spécifique peut, au fil du temps, fonctionner différemment de ce qu'il était au moment de l'achat. Le rapport met en lumière des exemples d'appareils dont le fonctionnement repose sur des logiciels et des services en ligne. Il s'agit notamment des lave-linge intelligents, des systèmes domotiques et des imprimantes en réseau. Les auteurs du document pointent du doigt des pratiques qui bloquent certaines fonctionnalités ou imposent des frais d'abonnement supplémentaires. Dans le cas des imprimantes, cela inclut des restrictions sur l'utilisation des cartouches d'encre de rechange. L'analyse comprend également des exemples de véhicules équipés de systèmes de communication réseau. Dans ces systèmes, certaines fonctions peuvent être activées ou désactivées par des mises à jour logicielles. Le système de conduite autonome proposé par Tesla en est un exemple. Ce service, appelé Full Self-Driving, est désormais disponible par abonnement. Le rapport aborde également le secteur du jeu vidéo. L'organisation souligne la popularité croissante des modèles freemium et des systèmes de microtransactions. Les auteurs du rapport soulignent que certains jeux sont conçus pour générer des revenus continus grâce à la publicité et aux achats intégrés. Les monnaies virtuelles et les mécanismes de limitation de temps de jeu influent sur le rythme de jeu et incitent les joueurs à dépenser de l'argent. Le document aborde également la question de la fermeture des serveurs de jeu après la fin du support technique. Dans ce cas, les utilisateurs perdent l'accès aux titres précédemment achetés. Le rapport met en lumière les nouvelles réglementations en cours d'élaboration au sein de l'Union européenne. L'un des éléments législatifs les plus importants est la directive relative au droit à la réparation. Ce règlement vise à endiguer la pratique consistant à bloquer les réparations effectuées par les ateliers indépendants. Les constructeurs seront tenus de garantir l'accès aux pièces détachées et à la documentation technique. Selon l'organisation, de telles réglementations pourraient être particulièrement importantes pour les fabricants d'imprimantes et d'équipements électroniques, qui ont historiquement créé des écosystèmes de services fermés. Le rapport a été publié accompagné d'une lettre adressée aux décideurs de l'Union européenne. Ce document a été signé par des dizaines d'organisations de défense des droits numériques, dont l'Electronic Frontier Foundation et Access Now. Les signataires appellent à une application rigoureuse des réglementations existantes relatives au marché numérique et à la protection des données personnelles. Ces réglementations comprennent la loi sur les marchés numériques et le règlement général sur la protection des données (RGPD). Ces organisations s'opposent également au projet de loi intitulé « Digital Omnibus ». Elles estiment que ces modifications pourraient affaiblir certains mécanismes de protection des consommateurs existants. Les auteurs du rapport espèrent l'adoption d'une nouvelle réglementation européenne encadrant spécifiquement les pratiques dans le secteur des services numériques. La Commission européenne a annoncé la préparation d'un projet de loi intitulé « Digital Fairness Act ». Ce projet de loi vise à couvrir des phénomènes tels que les modèles de conception d'interfaces manipulatrices, le marketing d'influence et la personnalisation des services basée sur les données des utilisateurs. La protection des joueurs fait également l'objet de débats publics. La campagne « Stop Killing Games » vise à instaurer une réglementation interdisant la désactivation des jeux achetés par les utilisateurs. (Lire la suite)

Une cause inhabituelle de plantages de Firefox. Certains pourraient être dus aux radiations cosmiques.

9 mars 2026 à 13:48
Un ingénieur de Firefox a remarqué un problème assez inhabituel qui pourrait être l'une des causes des plantages du programme. Selon son analyse, certaines erreurs signalées pourraient même être liées à la modification accidentelle d'un seul bit dans la mémoire de l'ordinateur. Cela provoque une modification de la valeur d'une cellule mémoire, passant de 0 à 1 ou inversement, alors que cela ne devrait pas se produire. Un changement aussi minime peut, dans certaines situations, entraîner un dysfonctionnement de l'application, voire sa fermeture inopinée. Gabriele Svelto, ingénieur senior travaillant sur Firefox, est parvenu à cette conclusion. Son analyse s'appuyait sur les données issues des rapports d'erreurs automatisés soumis par les utilisateurs du navigateur. En une seule semaine, Mozilla a reçu près d'un demi-million de signalements de plantages de programmes. L'analyse a également utilisé un nouvel outil de diagnostic qui s'exécute sur l'ordinateur de l'utilisateur lorsqu'une erreur se produit et vérifie l'état de la mémoire vive (RAM). D'après ces données, l'ingénieur a estimé que jusqu'à 10 % des pannes pouvaient être attribuées à des modifications aléatoires de bits en mémoire. Après avoir éliminé les erreurs dues à un manque de ressources système, comme une insuffisance de RAM disponible, ce chiffre pourrait atteindre 15 %. Les modifications aléatoires de bits en mémoire peuvent avoir de nombreuses causes. Elles sont souvent dues à des problèmes électriques, à l'instabilité du système, à des températures élevées ou à l'usure normale des composants informatiques. De telles situations peuvent également être causées par des erreurs de fabrication dans la RAM ou par des interférences entre cellules de mémoire adjacentes. L'une des causes les plus inhabituelles pourrait également être le rayonnement cosmique. Dans de rares cas, des particules de haute énergie provenant de l'espace peuvent pénétrer les composants électroniques et affecter le fonctionnement des cellules de mémoire individuelles. Ce problème est bien connu dans les systèmes spatiaux. C'est pourquoi les dispositifs envoyés en orbite ou dans l'espace utilisent des composants spéciaux résistants aux radiations. Ils utilisent également des systèmes de contrôle d'erreurs très sophistiqués, capables de détecter et de corriger automatiquement les modifications apportées aux bits individuels en mémoire. Sur les ordinateurs ordinaires utilisés par les particuliers, de telles protections sont beaucoup plus simples, voire inexistantes. L'ingénieur de Mozilla souligne que le problème des modifications aléatoires de bits n'est pas propre aux ordinateurs personnels. Tout appareil électronique utilisant de la mémoire peut potentiellement rencontrer un phénomène similaire. Cela concerne notamment les smartphones, les routeurs, les imprimantes et les ordinateurs portables. En pratique, ces situations sont relativement rares, mais compte tenu du nombre d'appareils utilisés, elles peuvent se produire plus fréquemment qu'on ne le pense. L'auteur de l'analyse souligne cependant lui-même qu'il est très difficile de déterminer précisément l'ampleur du problème. Le vérificateur de mémoire, qui s'exécute après un plantage de Firefox, n'examine qu'une petite partie de la mémoire disponible et ne dure que très peu de temps. (Lire la suite)

Un ordinateur portable Lenovo recevra de la mémoire LPCAMM2

9 mars 2026 à 13:45
Face à la pénurie de mémoire, les fabricants d'ordinateurs recherchent des fournisseurs alternatifs pour cette ressource de plus en plus rare et coûteuse. Dans ce contexte, Lenovo a déjà commencé à utiliser de la mémoire du fabricant chinois CXMT dans certains modèles d'ordinateurs portables. De plus, l'entreprise étend officiellement l'utilisation de la norme LPCAMM2 dans ses ordinateurs portables grand public, après son lancement sur le ThinkPad P1 Gen 7 en 2024. La LPCAMM2 est un nouveau format de mémoire qui combine les performances de la LPDDR5X avec la possibilité d'extension des modules SODIMM standard. Le ThinkBook 16+ sera probablement l'un des premiers appareils grand public Lenovo à intégrer cette mémoire. Cet ordinateur portable offre jusqu'à 32 Go de mémoire LPDDR5X-8533 et est équipé d'un processeur Intel Core Ultra X7 385H avec carte graphique intégrée Arc B390, utilisant les premiers modules de mémoire CXMT. Fin 2018, CXMT a présenté ses modules de mémoire DDR5-8000 et LPDDR5X-10667 au salon China International Semiconductor Expo 2025. Cette annonce a probablement incité de nombreux fabricants d'ordinateurs à rechercher des alternatives aux fournisseurs traditionnels tels que SK Hynix, Samsung et Micron, dont les approvisionnements sont actuellement fortement limités en raison de la priorité accordée aux commandes d'accélérateurs d'IA. Apple envisagerait même une collaboration avec les fabricants chinois de semi-conducteurs CXMT et YMTC pour la future gamme iPhone 18. La pénurie de mémoire pourrait donc bientôt s'atténuer. (Lire la suite)

La Xbox de nouvelle génération ne prendrait en charge que la plateforme Windows universelle, selon certaines informations.

9 mars 2026 à 13:39
Selon une source interne au sein de la communauté des développeurs, la prochaine Xbox (Project Helix) ne prendrait plus en charge les applications natives créées avec le kit de développement de jeux (GDK) actuel. La console s'appuierait exclusivement sur la plateforme Windows universelle (UWP), déjà utilisée pour les applications de l'écosystème Windows. D'après cette source , il s'agirait moins d'une console de jeux traditionnelle et davantage d'un système fortement inspiré du PC. Elle utiliserait une interface Windows plein écran pour une expérience de jeu similaire à celle d'une console.Si ces informations sont confirmées, les jeux seraient développés et distribués comme des applications pour le Microsoft Store. Les développeurs n'auraient plus besoin de créer une version Xbox distincte, mais pourraient distribuer leurs jeux via une plateforme commune. Les catalogues de jeux existants resteraient accessibles grâce à une solution d'émulation pour assurer la rétrocompatibilité. Cette source interne y voit l'expression de la stratégie commerciale actuelle de Microsoft : les revenus issus des logiciels et des services sont considérés comme le pilier central de l'activité Xbox. Les exclusivités pourraient limiter les revenus à court terme, car elles empêcheraient les ventes sur d'autres plateformes.La future console Xbox est également décrite comme relativement chère et destinée à un public restreint ; son approche rappelle davantage une version stationnaire d'appareils comme la ROG Xbox Ally qu'une console grand public classique. Microsoft n'a pas confirmé ces affirmations. (Lire la suite)
Reçu — 6 mars 2026 Informaticien.be

Samsung va augmenter les prix de sa mémoire NAND

6 mars 2026 à 19:00
Selon des sources internes, le prix de la mémoire NAND de Samsung va fortement augmenter. Le géant sud-coréen, comme pour la DRAM, entend tirer profit de la demande du secteur de l'intelligence artificielle. D'après le média coréen Sedaily, Samsung prévoit une hausse de 100 % au deuxième trimestre, après une augmentation similaire au premier trimestre. Cela signifie que l'entreprise a augmenté les prix de la NAND de plus de 200 % rien que cette année. Cette flambée des prix entraînera presque inévitablement une augmentation significative du coût des appareils utilisant ces puces, et certains produits pourraient devenir tout simplement inabordables pour les consommateurs. Le principal moteur de ces hausses de prix est le secteur de l'intelligence artificielle. Les prix de la mémoire NAND auraient augmenté d'environ 450 % rien que l'année dernière. Cette hausse s'explique non seulement par la demande des entreprises spécialisées en IA, mais aussi par les efforts des fabricants pour équilibrer leur production entre DRAM et NAND. Le rôle de la mémoire NAND dans les charges de travail d'IA a récemment connu une forte augmentation ; par exemple, les SSD sont déjà utilisés dans de grands systèmes d'IA comme Vera Rubin pour traiter des tâches contextuelles de longue durée. Face à cette demande, des fournisseurs tels que Samsung, SanDisk, SK Hynix et Kioxia préparent d'importantes augmentations de prix, cherchant à tirer profit de la demande des principaux fournisseurs de cloud pour générer des revenus et amortir leurs coûts de production. (Lire la suite)

Le nouveau processeur M5 Max s'est avéré à peine plus puissant que le M4 Max.

6 mars 2026 à 18:59
La nouvelle architecture Fusion a permis à Apple d'intégrer davantage de cœurs dans le processeur M5 Max. Dans sa configuration maximale, il dispose de six super cœurs et de douze cœurs hautes performances, ce qui devrait lui conférer des performances multithread exceptionnelles. Cependant, des résultats de tests de performances monocœur et multicœur récemment divulgués montrent une augmentation négligeable par rapport au M4 Max. Si cela peut être décevant, il y a néanmoins un point positif : le M5 Max surpasse toujours le processeur phare M3 Ultra pour stations de travail dans les mêmes tests, ce qui semble être l'un de ses atouts les plus impressionnants. Geekbench 6 a publié trois comparatifs de performances monocœur et multicœur, plaçant le M5 Max en tête. Ces tests portent sur trois processeurs Apple, et le M4 Max à 16 cœurs s'est avéré légèrement moins performant que son successeur. Cette faible différence de résultats pourrait inciter les acheteurs à envisager une mise à niveau vers les nouveaux Mac, car le gain de performances offert par le dernier M5 Max pourrait être minime. Cependant, la situation est différente face au M3 Ultra. Lors du test monocœur, le M5 Max s'est révélé 31,4 % plus rapide, ce qui n'est pas surprenant compte tenu de sa fréquence d'horloge plus élevée. Mais le résultat multicœur est particulièrement surprenant. Bien que le M5 Max possède 18 cœurs contre 32 pour le M3 Ultra, le nouveau processeur surpasse le fleuron d'Apple et constitue la solution la plus puissante. (Lire la suite)

Une application consomme excessivement la batterie de votre smartphone ? Android a la solution.

6 mars 2026 à 17:14
Les smartphones n'offrent pas une autonomie impressionnante, notamment à cause des applications qui fonctionnent en arrière-plan et consomment la batterie. Cependant, Google compte bien y remédier. Des avertissements spéciaux apparaîtront sur le Google Play Store pour les applications qui consomment une quantité exceptionnellement élevée de batterie. Cette nouvelle indication sera visible directement sur la page de l'application dans la boutique d'applications. Si une application consomme beaucoup de batterie, un message informera les utilisateurs qu'elle consomme potentiellement plus d'énergie que nécessaire. Cet avertissement s'affiche lorsque l'application est très active en arrière-plan. Concrètement, cela signifie que le programme effectue diverses opérations même lorsque l'utilisateur ne l'utilise pas. L'une des causes de cette consommation excessive d'énergie est liée aux mécanismes système qui permettent aux applications de rester actives sur l'appareil même après l'extinction de l'écran. Sous Android, cette fonctionnalité est assurée par le « verrouillage de l'écran ». Cette solution permet à l'application de maintenir le processeur de l'appareil actif. Cela se justifie dans certaines situations, comme lors du téléchargement de fichiers ou de la lecture de musique. Le problème survient lorsque l'application utilise cette fonctionnalité trop souvent ou trop longtemps, ce qui entraîne une décharge plus rapide de la batterie du téléphone. Google avait annoncé précédemment qu'il accorderait une plus grande attention aux applications qui consomment inutilement la batterie. Début mars, l'entreprise a introduit de nouvelles solutions pour contribuer à réduire ces situations. Ces modifications concernent notamment les applications qui dépassent un certain seuil d'utilisation excessive du verrouillage de l'appareil en arrière-plan. Si une application maintient l'appareil actif en arrière-plan trop fréquemment, elle pourra faire l'objet de restrictions supplémentaires. Un avertissement de la boutique n'est pas la seule conséquence pour ces applications. Celles qui ont un impact significatif sur l'autonomie de la batterie risquent également d'être moins souvent recommandées ou mises en avant. Concrètement, cela signifie que les applications jugées problématiques risquent d'être moins visibles sur l'App Store. L'objectif est d'inciter les développeurs à améliorer les performances et à optimiser leurs applications. D'après les informations fournies par Google, une application peut être considérée comme excessivement gourmande en énergie si le mécanisme de verrouillage de l'application se produit dans plus de 5 % des sessions. Pour les développeurs de logiciels, cela signifie un meilleur contrôle du fonctionnement des applications en arrière-plan. L'entreprise a également fourni des conseils aux développeurs afin de réduire la consommation d'énergie inutile. (Lire la suite)

Les États-Unis préparent une riposte spatiale. L'Europe risque de perdre l'accès au marché des satellites.

6 mars 2026 à 17:12
L'autorité américaine de régulation des télécommunications a lancé une vaste consultation auprès du secteur satellitaire sur la réciprocité en matière d'accès aux marchés internationaux. Ces discussions pourraient exacerber les tensions réglementaires entre les États-Unis et l'Europe, le différend portant principalement sur la réglementation des services spatiaux, l'accès aux fréquences radio et les conditions d'octroi des licences d'exploitation. Un document de consultation publié par la Commission fédérale des communications (FCC) invite les représentants du secteur à évaluer la situation sur le marché mondial des services par satellite. Washington souhaite déterminer si les réglementations étrangères entravent les activités des opérateurs américains. L'administration laisse entendre qu'une riposte réglementaire est envisageable. Ce scénario prévoit de restreindre l'accès au marché américain aux opérateurs originaires de pays imposant des réglementations restrictives aux entreprises américaines. L'un des principaux points de désaccord concerne la réglementation européenne du secteur spatial. Le projet de loi européen vise à créer un cadre commun pour les activités spatiales au sein de l'UE. D'après des représentants d'institutions américaines, la nouvelle réglementation pourrait entraîner des formalités administratives supplémentaires pour les opérateurs non européens. Les documents de l'autorité de régulation soulèvent des inquiétudes quant au système d'autorisation et aux règles d'utilisation du spectre satellitaire au sein de l'UE. L'administration américaine étudie la possibilité que les systèmes satellitaires étrangers soient soumis à une nouvelle procédure d'autorisation dans les États membres de l'Union européenne. Une telle mesure constituerait un changement majeur pour les entreprises déjà présentes sur le marché européen. Le président de la Commission fédérale des communications (FCC), Brendan Carr, a publiquement critiqué l'approche européenne en matière de réglementation du secteur satellitaire. S'adressant aux médias, il a insisté sur la nécessité d'une concurrence équitable entre les opérateurs des deux côtés de l'Atlantique. Carr a déclaré que les États-Unis pourraient envisager d'exclure les entreprises européennes de certains segments du marché américain si les réglementations restrictives à l'encontre des entreprises américaines étaient maintenues. Les représentants des institutions européennes indiquent que la nouvelle réglementation vise à garantir l'harmonisation des principes de fonctionnement du secteur spatial au sein de l'UE. Selon Henna Virkkunen, responsable de la souveraineté technologique à la Commission européenne, le projet de règlement a pour objectif de garantir des conditions de concurrence équitables. L'Europe élabore en parallèle une réglementation relative aux infrastructures numériques et de télécommunications. Parmi les changements prévus figure une loi sur les réseaux numériques, qui vise à harmoniser la réglementation applicable aux opérateurs de télécommunications. Cette nouvelle réglementation intervient dans un contexte de développement rapide des services satellitaires. Les technologies de communication spatiale sont de plus en plus intégrées aux réseaux cellulaires et aux appareils mobiles. Le document de consultation mentionne également d'autres pays dont la réglementation suscite des inquiétudes chez les autorités américaines. Le Brésil en fait partie. Selon l'autorité de régulation, les opérateurs étrangers y paient des frais plus élevés pour les licences permettant la communication avec les stations terrestres. Un autre exemple est celui des pays du Conseil de coopération du Golfe (CCG). Dans nombre d'entre eux, les licences de télécommunications ne sont accordées qu'à des entreprises enregistrées localement. Washington analyse l'impact de telles réglementations sur la concurrence internationale. Les entreprises américaines affirment que les restrictions administratives entravent le développement des services satellitaires mondiaux. Les consultations intègrent également le point de vue britannique. Selon les données des autorités de régulation, les entreprises britanniques figurent parmi les principaux détenteurs de licences étrangères sur le marché américain. Parallèlement, une part importante du budget de l'Agence spatiale britannique est consacrée à des projets mis en œuvre par l'Agence spatiale européenne. Du point de vue de Washington, cela pourrait se traduire par un accès limité des entreprises américaines à certains contrats spatiaux financés par l'Europe. Le gouvernement britannique s'engage à maintenir une coopération étroite avec les États-Unis dans le domaine spatial. Les responsables du ministère des Sciences et des Technologies soulignent l'importance des efforts conjoints en matière de sécurité, de réglementation et de commerce. (Lire la suite)

Test Nioh 3 (PS5) - Un voyage à travers les âges

6 mars 2026 à 16:08
L'histoire de Nioh 3 débute en 1622, en pleine période d'Edo, alors que Tokugawa Takechiyo s'apprête à devenir le troisième shogun. C'est un moment solennel, empreint de responsabilités et d'attentes, mais comme souvent dans le monde de Nioh, la tragédie précède la gloire. Son jeune frère, Tokugawa Kunimatsu, rongé par l'envie et corrompu par une force obscure, fomente un coup d'État à l'aide des yōkai. La scène est brutale, soudaine, et marque le début d'un voyage qui transcende le temps et l'histoire . Quand tout semble perdu, l'esprit gardien Kusanagi intervient, sauvant Takechiyo et ouvrant un passage vers la Fosse Éternelle, un lieu hors du temps qui deviendra le quartier général du protagoniste. À partir de ce moment, le récit se déploie sur quatre époques historiques, chacune ravagée par la corruption du Creuset : les Royaumes combattants, avec l’assaut de Takeda Shingen ; l’époque Heian, où d’anciens rituels et des divinités oubliées refont surface ; l’Antiquité, où le folklore prend forme ; et le Bakumatsu. Le tout dans un futur déformé où Kunimatsu s’est proclamé shogun éternel. Chaque époque est un fragment d'un Japon en déclin, un monde où l'histoire réelle se mêle au surnaturel, où la politique s'entremêle aux tragédies familiales, et où le protagoniste est contraint d'affronter le poids du pouvoir, la trahison et la responsabilité de sauver une nation entière. Le récit ne devient jamais le point central de l'expérience, car Nioh reste fidèle à son essence, tout en parvenant à créer un contexte émotionnel plus fort que par le passé , avec des moments saisissants par leur intensité et leur capacité à entremêler histoire et folklore. KXGm-JaxY54 (Lire la suite)

OpenAI lance GPT-5.4 : l’IA peut désormais véritablement travailler à notre place.

6 mars 2026 à 15:36
OpenAI vient d'annoncer la nouvelle version GPT-5.4 , clairement destinée à un usage professionnel . Il ne s'agit pas d'une simple mise à jour, mais d'un modèle capable de gérer des tâches complexes de bout en bout , réduisant ainsi le nombre de corrections et d'exécutions inutiles. Parallèlement à GPT‑5.4, GPT‑5.4 Pro est conçu pour ceux qui ont besoin de performances optimales sur des tâches particulièrement exigeantes, à la fois dans ChatGPT et via l'API . GPT‑5.4 combine les capacités de raisonnement , d'écriture de code et de gestion de flux de travail complexes dans un seul modèle , intégrant les fonctions de GPT‑5.3‑Codex avec un accent particulier sur les outils bureautiques. Ce modèle est conçu pour mieux fonctionner avec les tableurs , les présentations et les documents , en interagissant avec les outils et environnements logiciels de manière plus cohérente et prévisible, dans le but d'accomplir un travail concret avec moins d'intervention manuelle. Sur le benchmark GDPval , qui mesure la qualité du travail intellectuel dans 44 professions , GPT-5.4 atteint ou surpasse les professionnels humains dans 83,0 % des comparaisons, contre 70,9 % pour GPT-5.2. Dans les tâches typiques d'analyse, telles que la modélisation de feuilles de calcul , GPT-5.4 obtient un score moyen de 87,3 % , contre 68,4 % pour GPT-5.2, tandis que dans les présentations, les évaluateurs humains préfèrent les résultats de GPT-5.4 dans 68,0 % des cas pour la mise en page, la variété visuelle et l'utilisation des images. OpenAI déploie également ces fonctionnalités via un module complémentaire ChatGPT pour les clients Excel for Enterprise et via des outils dédiés aux feuilles de calcul et aux présentations dans Codex et l'API , confirmant ainsi son orientation vers le travail de bureau structuré. En matière de précision , GPT-5.4 réduit encore les hallucinations et les erreurs : par rapport à GPT-5.2, les déclarations isolées ont 33 % moins de chances d'être fausses et les réponses complètes ont 18 % moins de chances de contenir des inexactitudes, une découverte importante pour ceux qui utilisent le modèle dans des contextes sensibles. La nouveauté la plus importante pour les développeurs et les entreprises est l'introduction de véritables capacités de calcul : GPT-5.4 peut contrôler les applications, les sites et les systèmes d'exploitation, devenant ainsi la base d' agents qui exécutent des flux de travail complexes. Le modèle peut gérer jusqu'à 1 million de jetons de contexte , ce qui est suffisant pour planifier, exécuter et vérifier des tâches très longues, en conservant en mémoire les étapes et les outils utilisés. Avec la nouvelle fonctionnalité de recherche d'outils , GPT‑5.4 n'a plus besoin de recevoir toutes les définitions d'outils dans chaque requête : il ne reçoit qu'une liste légère et récupère les détails individuels des outils lorsque cela est nécessaire, réduisant ainsi les jetons , les coûts et la latence , en particulier dans les écosystèmes comportant de nombreux connecteurs. Dans les tests d'utilisation sur PC, les chiffres sont significatifs : sur OSWorld‑Verified , qui mesure la capacité à naviguer dans un environnement de bureau via des captures d'écran et une entrée clavier/souris, GPT‑5.4 atteint un taux de réussite de 75,0 % , contre 47,3 % pour GPT‑5.2 et au-dessus de la moyenne humaine de 72,4 % . Dans le navigateur , sur WebArena‑Verified GPT‑5.4 atteint 67,3 % de succès (avec interaction DOM et captures d'écran) contre 65,4 % pour GPT‑5.2, tandis que sur Online‑Mind2Web, il atteint 92,8 % en utilisant uniquement des captures d'écran, surpassant clairement le mode agent de ChatGPT Atlas qui se situe à 70,9 % . Pour les images, un nouveau niveau de détail « original » fait son apparition , prenant en charge jusqu'à 10,24 millions de pixels au total ou 6 000 pixels sur le côté le plus large, tandis que le niveau « élevé » atteint 2,56 millions de pixels ou 2 048 pixels sur le côté le plus large ; lors de tests internes, cela a permis d'améliorer les capacités de localisation , la compréhension des images et la précision des clics . Du point de vue de la programmation , GPT-5.4 intègre les capacités de GPT-5.3-Codex et les combine avec des améliorations dans le travail intellectuel et l'utilisation de l'ordinateur, ce qui le rend mieux adapté aux tâches longues où le modèle utilise des outils, itère et fait avancer le travail avec moins d'intervention humaine. Dans des tests comme SWE‑Bench Pro , GPT‑5.4 égale ou surpasse GPT‑5.3‑Codex, avec une latence plus faible pour le même effort de raisonnement, une considération importante pour ceux qui intègrent le modèle dans les pipelines de développement. Dans Codex , en activant le mode /fast , GPT-5.4 atteint une vitesse de génération de jetons jusqu'à 1,5 fois supérieure à la normale, conservant la même « intelligence » mais avec une réponse plus rapide, utile pour le débogage , les itérations fréquentes et le maintien du flux de travail . Lors de tests internes, GPT-5.4 a montré de meilleurs résultats, notamment dans les tâches complexes de frontend , avec des interfaces plus raffinées tant sur le plan esthétique que fonctionnel que les modèles précédents. En plus de la recherche d'outils , GPT‑5.4 améliore la recherche Web en mode agent : sur le benchmark BrowseComp, il enregistre un bond de 17 points de pourcentage par rapport à GPT‑5.2, tandis que GPT‑5.4 Pro atteint un nouveau sommet avec 89,3 % . En pratique, GPT‑5.4 Thinking gère mieux les requêtes qui nécessitent de collecter des informations sur plusieurs sites, de maintenir une recherche persistante sur plusieurs étapes et de synthétiser les sources en réponses plus claires et plus réfléchies , en particulier pour les requêtes classiques de type « aiguille dans une botte de foin ». Du point de vue de la contrôlabilité , GPT‑5.4 Thinking in ChatGPT introduit un préambule pour les requêtes longues et complexes : le modèle expose son plan de travail dès le départ, et l'utilisateur peut modifier les instructions en cours de réponse , sans avoir à recommencer. Ce modèle est conçu pour « réfléchir plus longtemps » aux tâches difficiles tout en conservant une meilleure conscience des étapes précédentes de la conversation, afin de pouvoir gérer des flux de travail étendus et des invites complexes sans perdre en cohérence. GPT‑5.4 est déployé progressivement sur ChatGPT et Codex et est déjà disponible via API sous le nom de modèle `gpt-5.4` ; la variante GPT‑5.4 Pro est disponible sous le nom de `gpt-5.4-pro` pour ceux qui exigent des performances maximales. Dans ChatGPT , GPT‑5.4 Thinking est disponible immédiatement pour les utilisateurs Plus , Team et Pro , remplaçant GPT‑5.2 Thinking : ce dernier restera sélectionnable pendant trois mois dans la section Modèles hérités , avant d’être retiré le 5 juin 2026 . OpenAI précise que GPT-5.4 est le premier modèle de raisonnement de base à intégrer les capacités de codage de GPT-5.3-Codex et qu'il est déployé en parallèle sur ChatGPT, API et Codex, d'où le choix d'un saut direct dans la numérotation pour simplifier la sélection du modèle dans Codex. (Lire la suite)

Problème d'accès à Internet sous Windows 11 après la mise à jour : le bug et sa solution

6 mars 2026 à 15:34
Certains utilisateurs de Windows 11 se retrouvent soudainement sans accès à Internet , le système affichant le message « Pas d'accès à Internet » alors que leur modem et leur réseau fonctionnent correctement. Ce problème affecte particulièrement les versions 24H2 et 25H2 suite à une mise à jour cumulative publiée par Microsoft à l'automne 2025 . Les rapports parvenus au cours des mois suivants ont révélé une situation plutôt confuse, mais avec un point commun : quelque chose dans les configurations réseau de Windows était défaillant, au point d’empêcher la navigation normale ou le fonctionnement des services locaux, sans qu’il y ait de panne réelle sur la ligne. Le problème provient d'une mise à jour cumulative, KB5066835 , ainsi que de packages associés tels que KB5065789 , conçus pour apporter des correctifs de sécurité et des modifications à la pile HTTP de Windows 11. En pratique, l'intervention de Microsoft sur les composants réseau de bas niveau a entraîné une série de régressions sur certaines configurations. Après l'installation des mises à jour d'octobre 2025 , plusieurs systèmes ont commencé à présenter des anomalies lors des mises sous tension ultérieures ou après un redémarrage . Votre carte Ethernet ou Wi-Fi continue de se connecter à votre routeur, mais les outils de diagnostic Windows indiquent l'absence d'accès à Internet et de nombreuses applications utilisant le réseau cessent de fonctionner correctement. Dans des scénarios plus complexes, tels que les petits serveurs ou les PC utilisés pour le développement web , même les services locaux basés sur IIS (Internet Information Services) entrent en crise : les sites et les applications exécutés localement ne répondent pas ou renvoient des erreurs, même s'ils sont installés et configurés. En théorie, face à une mise à jour problématique, le premier réflexe est de revenir à la version précédente. Cependant, dans le cas de ce bogue, la situation peut se compliquer : il arrive que les fichiers nécessaires à la récupération soient supprimés lors de la mise à jour, rendant le système irrécupérable à l’aide des outils standard de Windows. Cela conduit à des situations où le PC reste partiellement fonctionnel : le réseau physique est présent, mais Windows est incapable de l'utiliser correctement, et les options de récupération automatique n'offrent aucune solution immédiate. Sans sauvegardes ni images système, l'utilisateur risque de se retrouver avec une installation nécessitant des interventions plus approfondies. Pour limiter les dégâts, Microsoft a activé la fonctionnalité de restauration des problèmes connus (KIR) , qui permet aux administrateurs système de rétablir temporairement le comportement antérieur de certains composants sans désinstaller l'intégralité de la mise à jour cumulative. Il s'agit d'une sorte de « restauration ciblée » des modifications les plus critiques, gérée au niveau du système d'exploitation. Parallèlement, Microsoft a commencé à déployer de nouvelles versions de Windows, faisant suite à la mise à jour KB5066835 , via Windows Update . Ces mises à jour incluent des correctifs spécifiques pour les régressions observées, notamment la perte de connexion Internet . Selon Microsoft, les mises à jour cumulatives de novembre et décembre 2025 sont indispensables pour résoudre définitivement ce problème de réseau sous Windows 11. Pour ceux qui continuent de subir des interruptions de réseau, la première étape consiste à vérifier que le système est mis à jour avec la dernière version disponible et qu'il n'existe aucune limitation externe , telle que des règles de routeur , un logiciel de sécurité trop agressif ou des configurations particulières bloquant le trafic. En l'absence de ces facteurs, il est préférable de se concentrer sur l'état des services réseau internes à Windows. Parmi les solutions de contournement les plus fréquemment citées , on trouve la vérification du service DNS interne , suivie de la reconfiguration ou du redémarrage des services de connexion. Ces interventions peuvent aider à rétablir la résolution de noms et à faire disparaître le message « Accès Internet indisponible » , mais elles ne remplacent pas les mises à jour correctives officielles. (Lire la suite)

Marathon démarre mal sur Steam : le grand retour de Bungie semble voué à l’échec.

6 mars 2026 à 15:31
Marathon, le premier projet inédit de Bungie depuis Destiny 2, est enfin disponible pour les joueurs du monde entier. Malheureusement, ses premiers résultats sur Steam n'ont pas été à la hauteur des attentes. Le jour de sa sortie, le jeu a atteint un pic de 88 337 joueurs simultanés sur Steam. Un résultat honorable, certes, mais compte tenu de l'engouement suscité par le jeu et du prestige du studio, on aurait pu s'attendre à bien mieux. À titre de comparaison, Slay the Spire 2, sorti récemment, a facilement dépassé ce chiffre, malgré son statut de jeu de niche. Des titres multijoueurs payants comme Helldivers 2 et Arc Raiders ont également connu des démarrages bien plus impressionnants. Étonnamment, Marathon s'est hissé en tête des ventes Steam dès sa sortie, surpassant même le très apprécié Resident Evil Requiem. Paradoxalement, le jeu se vend bien, mais le nombre de joueurs simultanés ne le reflète pas encore. Le jeu de tir Extraction de Bungie a suscité des réactions mitigées dès sa sortie. Certains joueurs l'ont même dénigré avant même sa sortie, l'accusant de s'éloigner de la formule qui a fait le succès de la franchise. Bungie assure que Marathon est un projet à long terme. Si l'histoire de Destiny nous apprend quelque chose, c'est que le studio est capable de développer et d'améliorer ses jeux pendant des années. L'occasion de booster ses statistiques se présentera ce week-end, période traditionnellement marquée par une forte augmentation du nombre de joueurs. Marathon parviendra-t-il à fidéliser une base de joueurs stable avant que les utilisateurs déçus ne se tournent vers un autre titre ? Réponse dans les prochains mois. (Lire la suite)

Les employés de Meta peuvent voir tout ce que vous enregistrez, même depuis votre chambre ou votre salle de bain.

6 mars 2026 à 15:29
L'autorité britannique de protection des données prévoit d'enquêter sur les pratiques de Meta suite à des informations selon lesquelles des employés de sous-traitants auraient pu accéder à des images hautement privées capturées par les lunettes intelligentes du fabricant. L'autorité britannique de régulation des données, le Bureau du commissaire à l'information (ICO), enquête sur l'affaire et a annoncé l'envoi d'un courrier officiel à l'entreprise. La polémique porte sur les contenus capturés par des lunettes connectées dotées de services d'intelligence artificielle, permettant notamment d'enregistrer des vidéos, de prendre des photos et d'utiliser un assistant vocal. Selon Meta, certaines vidéos enregistrées par les utilisateurs sont analysées par des entreprises externes. L'objectif est d'améliorer les performances des systèmes d'intelligence artificielle et d'optimiser les fonctionnalités de l'appareil. Cependant, une enquête menée par les journaux suédois Svenska Dagbladet et Göteborgs-Posten révèle que des employés de pays à faible coût de main-d'œuvre, comme le Kenya, ont eu accès à ces enregistrements. D'après les informations recueillies, ils ont pu visionner des vidéos montrant des situations très privées, notamment des moments intimes de la vie des utilisateurs. Des employés signalent que certains enregistrements montrent des personnes qui ignoraient totalement être filmées par les lunettes. Dans certains cas, les enregistrements contenaient également des informations sensibles, comme des numéros de carte bancaire ou des contenus consultés par les utilisateurs. Les sous-traitants analysent également les requêtes envoyées à l'assistant IA. Outre les commandes standard, des contenus relatifs à des crimes, des manifestations et des sujets très privés apparaissent également. Les analystes de données sont tenus de signer des accords de confidentialité. Dans de nombreux cas, ils travaillent dans des bureaux sous vidéosurveillance et n'ont pas le droit d'y apporter leurs propres appareils électroniques. Toute violation de ces règles peut entraîner un licenciement immédiat. Néanmoins, le simple fait que les employés aient accès à des informations aussi sensibles soulève de sérieuses questions de confidentialité. L'ICO britannique a annoncé qu'elle exigerait de Meta des informations claires sur les données collectées par les lunettes et leur utilisation. Autre problème : selon des journalistes ayant testé l'appareil, les utilisateurs n'ont aucune possibilité de refuser la collecte de données s'ils souhaitent utiliser les fonctionnalités d'IA. Bien que Meta mette en garde contre le partage d'informations sensibles, les autorités de régulation estiment que cela pourrait ne pas suffire. (Lire la suite)

La future Xbox (Projet Helix) serait 25 % plus rapide que la PS6.

6 mars 2026 à 15:23
Le site Insider Moore's Law is Dead compare les caractéristiques techniques de la PlayStation 6 et de la Xbox de nouvelle génération, nom de code Project Helix, dans un nouveau rapport. Les deux consoles seraient basées sur de nouveaux processeurs AMD, mais différeraient considérablement au niveau de l'architecture et de la taille de la puce. Selon Moore's Law is Dead, la PlayStation 6 utiliserait la puce AMD Orion. Cette puce serait fabriquée selon le procédé 3 nanomètres de TSMC et aurait une surface d'environ 280 millimètres carrés. Project Helix, quant à elle, utiliserait la puce AMD Magnus, avec une surface nettement plus importante d'environ 408 millimètres carrés. L'association d'un système sur une puce de 144 millimètres carrés et d'une unité graphique de 264 millimètres carrés devrait entraîner une augmentation des coûts de fabrication. L'architecture du processeur diffère également : la PS6 devrait embarquer 54 unités de calcul RDNA 5 et huit cœurs Zen 6c, complétés par deux cœurs Zen 6 basse consommation dédiés au système d'exploitation. Selon le rapport, cela pourrait offrir environ 20 % de puissance de calcul supplémentaire pour les jeux par rapport à la PlayStation 5, dont le processeur ne dispose pas de cœurs dédiés aux tâches système. Le projet Helix combine jusqu'à trois cœurs Zen 6 avec huit cœurs Zen 6c et utilise 68 unités graphiques RDNA 5. Une fréquence d'horloge du GPU d'environ 3 GHz est attendue pour le système de Sony, ce qui pourrait théoriquement permettre d'atteindre environ 40 TFLOPS. Par rapport à la PS5, on parle de performances de rastérisation environ trois fois supérieures et de performances de ray tracing jusqu'à douze fois supérieures. Le système Magnus du projet Helix pourrait être environ 25 % plus rapide sur le papier, bien que les différences de performances réelles restent incertaines. Sony et Microsoft n'ont pas confirmé ces informations. (Lire la suite)

La PS6 devrait être capable de faire tourner la plupart des jeux en 4K à 120 images par seconde avec le ray tracing.

6 mars 2026 à 15:21
Selon le site d'information spécialisé Moore's Law Is Dead , la PlayStation 6 sera capable de faire tourner la plupart des jeux en résolution 4K à 120 images par seconde avec le ray tracing activé. Cette performance repose sur une unité graphique AMD conçue sur mesure, dotée de 54 unités de calcul et d'une fréquence d'horloge avoisinant les 3 GHz. Il en résulterait une puissance de calcul d'environ 40 téraflops, soit environ quatre fois celle de l'unité graphique de la PlayStation 5. Le processeur serait composé de huit cœurs Zen 6C dédiés aux jeux et de deux cœurs Zen 6 basse consommation pour le système d'exploitation et les tâches en arrière-plan. Cette configuration vise à garantir la disponibilité maximale des cœurs les plus puissants pour les calculs des jeux. Grâce à des fréquences d'horloge plus élevées et à une nouvelle architecture, Moore's Law Is Dead affirme que les performances du processeur pourraient être trois à quatre fois supérieures à celles du processeur Zen 2 de la PlayStation 5. Selon cette source, Sony utiliserait la popularité croissante des téléviseurs 4K à 120 Hz comme référence technique : la console devrait maintenir ce niveau de performance même avec des effets graphiques exigeants comme le ray tracing. Les calculs de ray tracing pourraient ainsi être trois à six fois plus rapides que sur la PlayStation 5 Pro et jusqu'à douze fois plus rapides que sur le modèle de base. Malgré les discussions concernant d'éventuels problèmes d'approvisionnement ou la hausse des prix de la mémoire, Moore's Law Is Dead estime toujours probable un lancement fin 2027. Début 2028 est envisagé comme une autre possibilité ; Sony planifierait déjà la production chez TSMC pour une fabrication utilisant le procédé 3 nanomètres dès 2027. Sony n'a ni confirmé ni commenté ces informations. (Lire la suite)
Reçu — 5 mars 2026 Informaticien.be

Test Dead of Darkness (PS5) - Un survival horror 2D à l'ancienne désormais en boite

5 mars 2026 à 19:33
Dead of Darkness s'aventure timidement dans le monde de l'horreur , exploitant une esthétique que beaucoup pourraient ignorer. Face au gore visuel et à la mise en scène extrême, très en vogue actuellement, le titre signé Retrofiction Games choisit de se replier sur quelques pixels, exploitant l'atmosphère et le gameplay, ainsi que la narration, pour instiller une horreur à l'ancienne , faite de faiblesses ludiques tangibles et de petites surprises. L'effet est réussi, mais inégal. Nous sommes en Angleterre, en 1985, et nous incarnons Miles Windham, ancien policier et actuel détective privé . Un homme solitaire, rongé par un passé qui l'épuise lentement et inexorablement. La situation change radicalement lorsque notre protagoniste reçoit un mystérieux message qui pourrait enfin l'aider à faire la paix avec le passé qui pèse sur ses épaules. Il quitte donc tout et part pour l'Île Velvet en quête de réponses . Malheureusement, pour l'accueillir, il n'y a que trop de questions, combinées à une situation surréaliste. Les habitants sont en effet résolument étranges et inhabituellement agressifs. En bref, la situation est « lourde » et le bon Miles est contraint d'abandonner immédiatement son objectif, se laissant entraîner par une série d'événements qu'il ne peut tout simplement pas contrôler. Heureusement pour lui, il n'est pas le seul « extraterrestre » sur l'île. Olivia Greene , une jeune infirmière fraîchement embauchée sur Velvet Island , a également embarqué avec lui . Miles et Olivia sont les protagonistes de toute l'histoire et seront bientôt victimes d'événements de plus en plus absurdes et brutaux. Un mélange d'horreurs qui se dévoile à travers des histoires et des légendes liées à l'île et à ses habitants et qui, malgré un rythme narratif imparfait, parvient à vous tenir en haleine du début à la fin. Dead of Darkness, en effet, n'est pas dénué de rebondissements, tout comme son atmosphère, pimentée par les personnages étranges et efficaces déjà mentionnés, parvient à transmettre l'horreur qui imprègne l'histoire, abordant des situations brutales sans détours. Il y a donc une certaine tension, alimentée par un mystère qui se dévoile progressivement et dont le résultat final, sans être brillant en termes d'originalité, parvient néanmoins à nous satisfaire. htuM-PFZYmM (Lire la suite)
❌