Vue normale

Une application consomme excessivement la batterie de votre smartphone ? Android a la solution.

6 mars 2026 à 16:14
Les smartphones n'offrent pas une autonomie impressionnante, notamment à cause des applications qui fonctionnent en arrière-plan et consomment la batterie. Cependant, Google compte bien y remédier. Des avertissements spéciaux apparaîtront sur le Google Play Store pour les applications qui consomment une quantité exceptionnellement élevée de batterie. Cette nouvelle indication sera visible directement sur la page de l'application dans la boutique d'applications. Si une application consomme beaucoup de batterie, un message informera les utilisateurs qu'elle consomme potentiellement plus d'énergie que nécessaire. Cet avertissement s'affiche lorsque l'application est très active en arrière-plan. Concrètement, cela signifie que le programme effectue diverses opérations même lorsque l'utilisateur ne l'utilise pas. L'une des causes de cette consommation excessive d'énergie est liée aux mécanismes système qui permettent aux applications de rester actives sur l'appareil même après l'extinction de l'écran. Sous Android, cette fonctionnalité est assurée par le « verrouillage de l'écran ». Cette solution permet à l'application de maintenir le processeur de l'appareil actif. Cela se justifie dans certaines situations, comme lors du téléchargement de fichiers ou de la lecture de musique. Le problème survient lorsque l'application utilise cette fonctionnalité trop souvent ou trop longtemps, ce qui entraîne une décharge plus rapide de la batterie du téléphone. Google avait annoncé précédemment qu'il accorderait une plus grande attention aux applications qui consomment inutilement la batterie. Début mars, l'entreprise a introduit de nouvelles solutions pour contribuer à réduire ces situations. Ces modifications concernent notamment les applications qui dépassent un certain seuil d'utilisation excessive du verrouillage de l'appareil en arrière-plan. Si une application maintient l'appareil actif en arrière-plan trop fréquemment, elle pourra faire l'objet de restrictions supplémentaires. Un avertissement de la boutique n'est pas la seule conséquence pour ces applications. Celles qui ont un impact significatif sur l'autonomie de la batterie risquent également d'être moins souvent recommandées ou mises en avant. Concrètement, cela signifie que les applications jugées problématiques risquent d'être moins visibles sur l'App Store. L'objectif est d'inciter les développeurs à améliorer les performances et à optimiser leurs applications. D'après les informations fournies par Google, une application peut être considérée comme excessivement gourmande en énergie si le mécanisme de verrouillage de l'application se produit dans plus de 5 % des sessions. Pour les développeurs de logiciels, cela signifie un meilleur contrôle du fonctionnement des applications en arrière-plan. L'entreprise a également fourni des conseils aux développeurs afin de réduire la consommation d'énergie inutile. (Lire la suite)

Les États-Unis préparent une riposte spatiale. L'Europe risque de perdre l'accès au marché des satellites.

6 mars 2026 à 16:12
L'autorité américaine de régulation des télécommunications a lancé une vaste consultation auprès du secteur satellitaire sur la réciprocité en matière d'accès aux marchés internationaux. Ces discussions pourraient exacerber les tensions réglementaires entre les États-Unis et l'Europe, le différend portant principalement sur la réglementation des services spatiaux, l'accès aux fréquences radio et les conditions d'octroi des licences d'exploitation. Un document de consultation publié par la Commission fédérale des communications (FCC) invite les représentants du secteur à évaluer la situation sur le marché mondial des services par satellite. Washington souhaite déterminer si les réglementations étrangères entravent les activités des opérateurs américains. L'administration laisse entendre qu'une riposte réglementaire est envisageable. Ce scénario prévoit de restreindre l'accès au marché américain aux opérateurs originaires de pays imposant des réglementations restrictives aux entreprises américaines. L'un des principaux points de désaccord concerne la réglementation européenne du secteur spatial. Le projet de loi européen vise à créer un cadre commun pour les activités spatiales au sein de l'UE. D'après des représentants d'institutions américaines, la nouvelle réglementation pourrait entraîner des formalités administratives supplémentaires pour les opérateurs non européens. Les documents de l'autorité de régulation soulèvent des inquiétudes quant au système d'autorisation et aux règles d'utilisation du spectre satellitaire au sein de l'UE. L'administration américaine étudie la possibilité que les systèmes satellitaires étrangers soient soumis à une nouvelle procédure d'autorisation dans les États membres de l'Union européenne. Une telle mesure constituerait un changement majeur pour les entreprises déjà présentes sur le marché européen. Le président de la Commission fédérale des communications (FCC), Brendan Carr, a publiquement critiqué l'approche européenne en matière de réglementation du secteur satellitaire. S'adressant aux médias, il a insisté sur la nécessité d'une concurrence équitable entre les opérateurs des deux côtés de l'Atlantique. Carr a déclaré que les États-Unis pourraient envisager d'exclure les entreprises européennes de certains segments du marché américain si les réglementations restrictives à l'encontre des entreprises américaines étaient maintenues. Les représentants des institutions européennes indiquent que la nouvelle réglementation vise à garantir l'harmonisation des principes de fonctionnement du secteur spatial au sein de l'UE. Selon Henna Virkkunen, responsable de la souveraineté technologique à la Commission européenne, le projet de règlement a pour objectif de garantir des conditions de concurrence équitables. L'Europe élabore en parallèle une réglementation relative aux infrastructures numériques et de télécommunications. Parmi les changements prévus figure une loi sur les réseaux numériques, qui vise à harmoniser la réglementation applicable aux opérateurs de télécommunications. Cette nouvelle réglementation intervient dans un contexte de développement rapide des services satellitaires. Les technologies de communication spatiale sont de plus en plus intégrées aux réseaux cellulaires et aux appareils mobiles. Le document de consultation mentionne également d'autres pays dont la réglementation suscite des inquiétudes chez les autorités américaines. Le Brésil en fait partie. Selon l'autorité de régulation, les opérateurs étrangers y paient des frais plus élevés pour les licences permettant la communication avec les stations terrestres. Un autre exemple est celui des pays du Conseil de coopération du Golfe (CCG). Dans nombre d'entre eux, les licences de télécommunications ne sont accordées qu'à des entreprises enregistrées localement. Washington analyse l'impact de telles réglementations sur la concurrence internationale. Les entreprises américaines affirment que les restrictions administratives entravent le développement des services satellitaires mondiaux. Les consultations intègrent également le point de vue britannique. Selon les données des autorités de régulation, les entreprises britanniques figurent parmi les principaux détenteurs de licences étrangères sur le marché américain. Parallèlement, une part importante du budget de l'Agence spatiale britannique est consacrée à des projets mis en œuvre par l'Agence spatiale européenne. Du point de vue de Washington, cela pourrait se traduire par un accès limité des entreprises américaines à certains contrats spatiaux financés par l'Europe. Le gouvernement britannique s'engage à maintenir une coopération étroite avec les États-Unis dans le domaine spatial. Les responsables du ministère des Sciences et des Technologies soulignent l'importance des efforts conjoints en matière de sécurité, de réglementation et de commerce. (Lire la suite)

Test Nioh 3 (PS5) - Un voyage à travers les âges

6 mars 2026 à 15:08
L'histoire de Nioh 3 débute en 1622, en pleine période d'Edo, alors que Tokugawa Takechiyo s'apprête à devenir le troisième shogun. C'est un moment solennel, empreint de responsabilités et d'attentes, mais comme souvent dans le monde de Nioh, la tragédie précède la gloire. Son jeune frère, Tokugawa Kunimatsu, rongé par l'envie et corrompu par une force obscure, fomente un coup d'État à l'aide des yōkai. La scène est brutale, soudaine, et marque le début d'un voyage qui transcende le temps et l'histoire . Quand tout semble perdu, l'esprit gardien Kusanagi intervient, sauvant Takechiyo et ouvrant un passage vers la Fosse Éternelle, un lieu hors du temps qui deviendra le quartier général du protagoniste. À partir de ce moment, le récit se déploie sur quatre époques historiques, chacune ravagée par la corruption du Creuset : les Royaumes combattants, avec l’assaut de Takeda Shingen ; l’époque Heian, où d’anciens rituels et des divinités oubliées refont surface ; l’Antiquité, où le folklore prend forme ; et le Bakumatsu. Le tout dans un futur déformé où Kunimatsu s’est proclamé shogun éternel. Chaque époque est un fragment d'un Japon en déclin, un monde où l'histoire réelle se mêle au surnaturel, où la politique s'entremêle aux tragédies familiales, et où le protagoniste est contraint d'affronter le poids du pouvoir, la trahison et la responsabilité de sauver une nation entière. Le récit ne devient jamais le point central de l'expérience, car Nioh reste fidèle à son essence, tout en parvenant à créer un contexte émotionnel plus fort que par le passé , avec des moments saisissants par leur intensité et leur capacité à entremêler histoire et folklore. KXGm-JaxY54 (Lire la suite)

OpenAI lance GPT-5.4 : l’IA peut désormais véritablement travailler à notre place.

6 mars 2026 à 14:36
OpenAI vient d'annoncer la nouvelle version GPT-5.4 , clairement destinée à un usage professionnel . Il ne s'agit pas d'une simple mise à jour, mais d'un modèle capable de gérer des tâches complexes de bout en bout , réduisant ainsi le nombre de corrections et d'exécutions inutiles. Parallèlement à GPT‑5.4, GPT‑5.4 Pro est conçu pour ceux qui ont besoin de performances optimales sur des tâches particulièrement exigeantes, à la fois dans ChatGPT et via l'API . GPT‑5.4 combine les capacités de raisonnement , d'écriture de code et de gestion de flux de travail complexes dans un seul modèle , intégrant les fonctions de GPT‑5.3‑Codex avec un accent particulier sur les outils bureautiques. Ce modèle est conçu pour mieux fonctionner avec les tableurs , les présentations et les documents , en interagissant avec les outils et environnements logiciels de manière plus cohérente et prévisible, dans le but d'accomplir un travail concret avec moins d'intervention manuelle. Sur le benchmark GDPval , qui mesure la qualité du travail intellectuel dans 44 professions , GPT-5.4 atteint ou surpasse les professionnels humains dans 83,0 % des comparaisons, contre 70,9 % pour GPT-5.2. Dans les tâches typiques d'analyse, telles que la modélisation de feuilles de calcul , GPT-5.4 obtient un score moyen de 87,3 % , contre 68,4 % pour GPT-5.2, tandis que dans les présentations, les évaluateurs humains préfèrent les résultats de GPT-5.4 dans 68,0 % des cas pour la mise en page, la variété visuelle et l'utilisation des images. OpenAI déploie également ces fonctionnalités via un module complémentaire ChatGPT pour les clients Excel for Enterprise et via des outils dédiés aux feuilles de calcul et aux présentations dans Codex et l'API , confirmant ainsi son orientation vers le travail de bureau structuré. En matière de précision , GPT-5.4 réduit encore les hallucinations et les erreurs : par rapport à GPT-5.2, les déclarations isolées ont 33 % moins de chances d'être fausses et les réponses complètes ont 18 % moins de chances de contenir des inexactitudes, une découverte importante pour ceux qui utilisent le modèle dans des contextes sensibles. La nouveauté la plus importante pour les développeurs et les entreprises est l'introduction de véritables capacités de calcul : GPT-5.4 peut contrôler les applications, les sites et les systèmes d'exploitation, devenant ainsi la base d' agents qui exécutent des flux de travail complexes. Le modèle peut gérer jusqu'à 1 million de jetons de contexte , ce qui est suffisant pour planifier, exécuter et vérifier des tâches très longues, en conservant en mémoire les étapes et les outils utilisés. Avec la nouvelle fonctionnalité de recherche d'outils , GPT‑5.4 n'a plus besoin de recevoir toutes les définitions d'outils dans chaque requête : il ne reçoit qu'une liste légère et récupère les détails individuels des outils lorsque cela est nécessaire, réduisant ainsi les jetons , les coûts et la latence , en particulier dans les écosystèmes comportant de nombreux connecteurs. Dans les tests d'utilisation sur PC, les chiffres sont significatifs : sur OSWorld‑Verified , qui mesure la capacité à naviguer dans un environnement de bureau via des captures d'écran et une entrée clavier/souris, GPT‑5.4 atteint un taux de réussite de 75,0 % , contre 47,3 % pour GPT‑5.2 et au-dessus de la moyenne humaine de 72,4 % . Dans le navigateur , sur WebArena‑Verified GPT‑5.4 atteint 67,3 % de succès (avec interaction DOM et captures d'écran) contre 65,4 % pour GPT‑5.2, tandis que sur Online‑Mind2Web, il atteint 92,8 % en utilisant uniquement des captures d'écran, surpassant clairement le mode agent de ChatGPT Atlas qui se situe à 70,9 % . Pour les images, un nouveau niveau de détail « original » fait son apparition , prenant en charge jusqu'à 10,24 millions de pixels au total ou 6 000 pixels sur le côté le plus large, tandis que le niveau « élevé » atteint 2,56 millions de pixels ou 2 048 pixels sur le côté le plus large ; lors de tests internes, cela a permis d'améliorer les capacités de localisation , la compréhension des images et la précision des clics . Du point de vue de la programmation , GPT-5.4 intègre les capacités de GPT-5.3-Codex et les combine avec des améliorations dans le travail intellectuel et l'utilisation de l'ordinateur, ce qui le rend mieux adapté aux tâches longues où le modèle utilise des outils, itère et fait avancer le travail avec moins d'intervention humaine. Dans des tests comme SWE‑Bench Pro , GPT‑5.4 égale ou surpasse GPT‑5.3‑Codex, avec une latence plus faible pour le même effort de raisonnement, une considération importante pour ceux qui intègrent le modèle dans les pipelines de développement. Dans Codex , en activant le mode /fast , GPT-5.4 atteint une vitesse de génération de jetons jusqu'à 1,5 fois supérieure à la normale, conservant la même « intelligence » mais avec une réponse plus rapide, utile pour le débogage , les itérations fréquentes et le maintien du flux de travail . Lors de tests internes, GPT-5.4 a montré de meilleurs résultats, notamment dans les tâches complexes de frontend , avec des interfaces plus raffinées tant sur le plan esthétique que fonctionnel que les modèles précédents. En plus de la recherche d'outils , GPT‑5.4 améliore la recherche Web en mode agent : sur le benchmark BrowseComp, il enregistre un bond de 17 points de pourcentage par rapport à GPT‑5.2, tandis que GPT‑5.4 Pro atteint un nouveau sommet avec 89,3 % . En pratique, GPT‑5.4 Thinking gère mieux les requêtes qui nécessitent de collecter des informations sur plusieurs sites, de maintenir une recherche persistante sur plusieurs étapes et de synthétiser les sources en réponses plus claires et plus réfléchies , en particulier pour les requêtes classiques de type « aiguille dans une botte de foin ». Du point de vue de la contrôlabilité , GPT‑5.4 Thinking in ChatGPT introduit un préambule pour les requêtes longues et complexes : le modèle expose son plan de travail dès le départ, et l'utilisateur peut modifier les instructions en cours de réponse , sans avoir à recommencer. Ce modèle est conçu pour « réfléchir plus longtemps » aux tâches difficiles tout en conservant une meilleure conscience des étapes précédentes de la conversation, afin de pouvoir gérer des flux de travail étendus et des invites complexes sans perdre en cohérence. GPT‑5.4 est déployé progressivement sur ChatGPT et Codex et est déjà disponible via API sous le nom de modèle `gpt-5.4` ; la variante GPT‑5.4 Pro est disponible sous le nom de `gpt-5.4-pro` pour ceux qui exigent des performances maximales. Dans ChatGPT , GPT‑5.4 Thinking est disponible immédiatement pour les utilisateurs Plus , Team et Pro , remplaçant GPT‑5.2 Thinking : ce dernier restera sélectionnable pendant trois mois dans la section Modèles hérités , avant d’être retiré le 5 juin 2026 . OpenAI précise que GPT-5.4 est le premier modèle de raisonnement de base à intégrer les capacités de codage de GPT-5.3-Codex et qu'il est déployé en parallèle sur ChatGPT, API et Codex, d'où le choix d'un saut direct dans la numérotation pour simplifier la sélection du modèle dans Codex. (Lire la suite)

Problème d'accès à Internet sous Windows 11 après la mise à jour : le bug et sa solution

6 mars 2026 à 14:34
Certains utilisateurs de Windows 11 se retrouvent soudainement sans accès à Internet , le système affichant le message « Pas d'accès à Internet » alors que leur modem et leur réseau fonctionnent correctement. Ce problème affecte particulièrement les versions 24H2 et 25H2 suite à une mise à jour cumulative publiée par Microsoft à l'automne 2025 . Les rapports parvenus au cours des mois suivants ont révélé une situation plutôt confuse, mais avec un point commun : quelque chose dans les configurations réseau de Windows était défaillant, au point d’empêcher la navigation normale ou le fonctionnement des services locaux, sans qu’il y ait de panne réelle sur la ligne. Le problème provient d'une mise à jour cumulative, KB5066835 , ainsi que de packages associés tels que KB5065789 , conçus pour apporter des correctifs de sécurité et des modifications à la pile HTTP de Windows 11. En pratique, l'intervention de Microsoft sur les composants réseau de bas niveau a entraîné une série de régressions sur certaines configurations. Après l'installation des mises à jour d'octobre 2025 , plusieurs systèmes ont commencé à présenter des anomalies lors des mises sous tension ultérieures ou après un redémarrage . Votre carte Ethernet ou Wi-Fi continue de se connecter à votre routeur, mais les outils de diagnostic Windows indiquent l'absence d'accès à Internet et de nombreuses applications utilisant le réseau cessent de fonctionner correctement. Dans des scénarios plus complexes, tels que les petits serveurs ou les PC utilisés pour le développement web , même les services locaux basés sur IIS (Internet Information Services) entrent en crise : les sites et les applications exécutés localement ne répondent pas ou renvoient des erreurs, même s'ils sont installés et configurés. En théorie, face à une mise à jour problématique, le premier réflexe est de revenir à la version précédente. Cependant, dans le cas de ce bogue, la situation peut se compliquer : il arrive que les fichiers nécessaires à la récupération soient supprimés lors de la mise à jour, rendant le système irrécupérable à l’aide des outils standard de Windows. Cela conduit à des situations où le PC reste partiellement fonctionnel : le réseau physique est présent, mais Windows est incapable de l'utiliser correctement, et les options de récupération automatique n'offrent aucune solution immédiate. Sans sauvegardes ni images système, l'utilisateur risque de se retrouver avec une installation nécessitant des interventions plus approfondies. Pour limiter les dégâts, Microsoft a activé la fonctionnalité de restauration des problèmes connus (KIR) , qui permet aux administrateurs système de rétablir temporairement le comportement antérieur de certains composants sans désinstaller l'intégralité de la mise à jour cumulative. Il s'agit d'une sorte de « restauration ciblée » des modifications les plus critiques, gérée au niveau du système d'exploitation. Parallèlement, Microsoft a commencé à déployer de nouvelles versions de Windows, faisant suite à la mise à jour KB5066835 , via Windows Update . Ces mises à jour incluent des correctifs spécifiques pour les régressions observées, notamment la perte de connexion Internet . Selon Microsoft, les mises à jour cumulatives de novembre et décembre 2025 sont indispensables pour résoudre définitivement ce problème de réseau sous Windows 11. Pour ceux qui continuent de subir des interruptions de réseau, la première étape consiste à vérifier que le système est mis à jour avec la dernière version disponible et qu'il n'existe aucune limitation externe , telle que des règles de routeur , un logiciel de sécurité trop agressif ou des configurations particulières bloquant le trafic. En l'absence de ces facteurs, il est préférable de se concentrer sur l'état des services réseau internes à Windows. Parmi les solutions de contournement les plus fréquemment citées , on trouve la vérification du service DNS interne , suivie de la reconfiguration ou du redémarrage des services de connexion. Ces interventions peuvent aider à rétablir la résolution de noms et à faire disparaître le message « Accès Internet indisponible » , mais elles ne remplacent pas les mises à jour correctives officielles. (Lire la suite)

Marathon démarre mal sur Steam : le grand retour de Bungie semble voué à l’échec.

6 mars 2026 à 14:31
Marathon, le premier projet inédit de Bungie depuis Destiny 2, est enfin disponible pour les joueurs du monde entier. Malheureusement, ses premiers résultats sur Steam n'ont pas été à la hauteur des attentes. Le jour de sa sortie, le jeu a atteint un pic de 88 337 joueurs simultanés sur Steam. Un résultat honorable, certes, mais compte tenu de l'engouement suscité par le jeu et du prestige du studio, on aurait pu s'attendre à bien mieux. À titre de comparaison, Slay the Spire 2, sorti récemment, a facilement dépassé ce chiffre, malgré son statut de jeu de niche. Des titres multijoueurs payants comme Helldivers 2 et Arc Raiders ont également connu des démarrages bien plus impressionnants. Étonnamment, Marathon s'est hissé en tête des ventes Steam dès sa sortie, surpassant même le très apprécié Resident Evil Requiem. Paradoxalement, le jeu se vend bien, mais le nombre de joueurs simultanés ne le reflète pas encore. Le jeu de tir Extraction de Bungie a suscité des réactions mitigées dès sa sortie. Certains joueurs l'ont même dénigré avant même sa sortie, l'accusant de s'éloigner de la formule qui a fait le succès de la franchise. Bungie assure que Marathon est un projet à long terme. Si l'histoire de Destiny nous apprend quelque chose, c'est que le studio est capable de développer et d'améliorer ses jeux pendant des années. L'occasion de booster ses statistiques se présentera ce week-end, période traditionnellement marquée par une forte augmentation du nombre de joueurs. Marathon parviendra-t-il à fidéliser une base de joueurs stable avant que les utilisateurs déçus ne se tournent vers un autre titre ? Réponse dans les prochains mois. (Lire la suite)

Les employés de Meta peuvent voir tout ce que vous enregistrez, même depuis votre chambre ou votre salle de bain.

6 mars 2026 à 14:29
L'autorité britannique de protection des données prévoit d'enquêter sur les pratiques de Meta suite à des informations selon lesquelles des employés de sous-traitants auraient pu accéder à des images hautement privées capturées par les lunettes intelligentes du fabricant. L'autorité britannique de régulation des données, le Bureau du commissaire à l'information (ICO), enquête sur l'affaire et a annoncé l'envoi d'un courrier officiel à l'entreprise. La polémique porte sur les contenus capturés par des lunettes connectées dotées de services d'intelligence artificielle, permettant notamment d'enregistrer des vidéos, de prendre des photos et d'utiliser un assistant vocal. Selon Meta, certaines vidéos enregistrées par les utilisateurs sont analysées par des entreprises externes. L'objectif est d'améliorer les performances des systèmes d'intelligence artificielle et d'optimiser les fonctionnalités de l'appareil. Cependant, une enquête menée par les journaux suédois Svenska Dagbladet et Göteborgs-Posten révèle que des employés de pays à faible coût de main-d'œuvre, comme le Kenya, ont eu accès à ces enregistrements. D'après les informations recueillies, ils ont pu visionner des vidéos montrant des situations très privées, notamment des moments intimes de la vie des utilisateurs. Des employés signalent que certains enregistrements montrent des personnes qui ignoraient totalement être filmées par les lunettes. Dans certains cas, les enregistrements contenaient également des informations sensibles, comme des numéros de carte bancaire ou des contenus consultés par les utilisateurs. Les sous-traitants analysent également les requêtes envoyées à l'assistant IA. Outre les commandes standard, des contenus relatifs à des crimes, des manifestations et des sujets très privés apparaissent également. Les analystes de données sont tenus de signer des accords de confidentialité. Dans de nombreux cas, ils travaillent dans des bureaux sous vidéosurveillance et n'ont pas le droit d'y apporter leurs propres appareils électroniques. Toute violation de ces règles peut entraîner un licenciement immédiat. Néanmoins, le simple fait que les employés aient accès à des informations aussi sensibles soulève de sérieuses questions de confidentialité. L'ICO britannique a annoncé qu'elle exigerait de Meta des informations claires sur les données collectées par les lunettes et leur utilisation. Autre problème : selon des journalistes ayant testé l'appareil, les utilisateurs n'ont aucune possibilité de refuser la collecte de données s'ils souhaitent utiliser les fonctionnalités d'IA. Bien que Meta mette en garde contre le partage d'informations sensibles, les autorités de régulation estiment que cela pourrait ne pas suffire. (Lire la suite)

La future Xbox (Projet Helix) serait 25 % plus rapide que la PS6.

6 mars 2026 à 14:23
Le site Insider Moore's Law is Dead compare les caractéristiques techniques de la PlayStation 6 et de la Xbox de nouvelle génération, nom de code Project Helix, dans un nouveau rapport. Les deux consoles seraient basées sur de nouveaux processeurs AMD, mais différeraient considérablement au niveau de l'architecture et de la taille de la puce. Selon Moore's Law is Dead, la PlayStation 6 utiliserait la puce AMD Orion. Cette puce serait fabriquée selon le procédé 3 nanomètres de TSMC et aurait une surface d'environ 280 millimètres carrés. Project Helix, quant à elle, utiliserait la puce AMD Magnus, avec une surface nettement plus importante d'environ 408 millimètres carrés. L'association d'un système sur une puce de 144 millimètres carrés et d'une unité graphique de 264 millimètres carrés devrait entraîner une augmentation des coûts de fabrication. L'architecture du processeur diffère également : la PS6 devrait embarquer 54 unités de calcul RDNA 5 et huit cœurs Zen 6c, complétés par deux cœurs Zen 6 basse consommation dédiés au système d'exploitation. Selon le rapport, cela pourrait offrir environ 20 % de puissance de calcul supplémentaire pour les jeux par rapport à la PlayStation 5, dont le processeur ne dispose pas de cœurs dédiés aux tâches système. Le projet Helix combine jusqu'à trois cœurs Zen 6 avec huit cœurs Zen 6c et utilise 68 unités graphiques RDNA 5. Une fréquence d'horloge du GPU d'environ 3 GHz est attendue pour le système de Sony, ce qui pourrait théoriquement permettre d'atteindre environ 40 TFLOPS. Par rapport à la PS5, on parle de performances de rastérisation environ trois fois supérieures et de performances de ray tracing jusqu'à douze fois supérieures. Le système Magnus du projet Helix pourrait être environ 25 % plus rapide sur le papier, bien que les différences de performances réelles restent incertaines. Sony et Microsoft n'ont pas confirmé ces informations. (Lire la suite)

La PS6 devrait être capable de faire tourner la plupart des jeux en 4K à 120 images par seconde avec le ray tracing.

6 mars 2026 à 14:21
Selon le site d'information spécialisé Moore's Law Is Dead , la PlayStation 6 sera capable de faire tourner la plupart des jeux en résolution 4K à 120 images par seconde avec le ray tracing activé. Cette performance repose sur une unité graphique AMD conçue sur mesure, dotée de 54 unités de calcul et d'une fréquence d'horloge avoisinant les 3 GHz. Il en résulterait une puissance de calcul d'environ 40 téraflops, soit environ quatre fois celle de l'unité graphique de la PlayStation 5. Le processeur serait composé de huit cœurs Zen 6C dédiés aux jeux et de deux cœurs Zen 6 basse consommation pour le système d'exploitation et les tâches en arrière-plan. Cette configuration vise à garantir la disponibilité maximale des cœurs les plus puissants pour les calculs des jeux. Grâce à des fréquences d'horloge plus élevées et à une nouvelle architecture, Moore's Law Is Dead affirme que les performances du processeur pourraient être trois à quatre fois supérieures à celles du processeur Zen 2 de la PlayStation 5. Selon cette source, Sony utiliserait la popularité croissante des téléviseurs 4K à 120 Hz comme référence technique : la console devrait maintenir ce niveau de performance même avec des effets graphiques exigeants comme le ray tracing. Les calculs de ray tracing pourraient ainsi être trois à six fois plus rapides que sur la PlayStation 5 Pro et jusqu'à douze fois plus rapides que sur le modèle de base. Malgré les discussions concernant d'éventuels problèmes d'approvisionnement ou la hausse des prix de la mémoire, Moore's Law Is Dead estime toujours probable un lancement fin 2027. Début 2028 est envisagé comme une autre possibilité ; Sony planifierait déjà la production chez TSMC pour une fabrication utilisant le procédé 3 nanomètres dès 2027. Sony n'a ni confirmé ni commenté ces informations. (Lire la suite)
Reçu hier — 5 mars 2026 Informaticien.be

Test Dead of Darkness (PS5) - Un survival horror 2D à l'ancienne désormais en boite

5 mars 2026 à 18:33
Dead of Darkness s'aventure timidement dans le monde de l'horreur , exploitant une esthétique que beaucoup pourraient ignorer. Face au gore visuel et à la mise en scène extrême, très en vogue actuellement, le titre signé Retrofiction Games choisit de se replier sur quelques pixels, exploitant l'atmosphère et le gameplay, ainsi que la narration, pour instiller une horreur à l'ancienne , faite de faiblesses ludiques tangibles et de petites surprises. L'effet est réussi, mais inégal. Nous sommes en Angleterre, en 1985, et nous incarnons Miles Windham, ancien policier et actuel détective privé . Un homme solitaire, rongé par un passé qui l'épuise lentement et inexorablement. La situation change radicalement lorsque notre protagoniste reçoit un mystérieux message qui pourrait enfin l'aider à faire la paix avec le passé qui pèse sur ses épaules. Il quitte donc tout et part pour l'Île Velvet en quête de réponses . Malheureusement, pour l'accueillir, il n'y a que trop de questions, combinées à une situation surréaliste. Les habitants sont en effet résolument étranges et inhabituellement agressifs. En bref, la situation est « lourde » et le bon Miles est contraint d'abandonner immédiatement son objectif, se laissant entraîner par une série d'événements qu'il ne peut tout simplement pas contrôler. Heureusement pour lui, il n'est pas le seul « extraterrestre » sur l'île. Olivia Greene , une jeune infirmière fraîchement embauchée sur Velvet Island , a également embarqué avec lui . Miles et Olivia sont les protagonistes de toute l'histoire et seront bientôt victimes d'événements de plus en plus absurdes et brutaux. Un mélange d'horreurs qui se dévoile à travers des histoires et des légendes liées à l'île et à ses habitants et qui, malgré un rythme narratif imparfait, parvient à vous tenir en haleine du début à la fin. Dead of Darkness, en effet, n'est pas dénué de rebondissements, tout comme son atmosphère, pimentée par les personnages étranges et efficaces déjà mentionnés, parvient à transmettre l'horreur qui imprègne l'histoire, abordant des situations brutales sans détours. Il y a donc une certaine tension, alimentée par un mystère qui se dévoile progressivement et dont le résultat final, sans être brillant en termes d'originalité, parvient néanmoins à nous satisfaire. htuM-PFZYmM (Lire la suite)

Apple oblige les artistes à étiqueter la musique générée par l'IA

5 mars 2026 à 18:10
Apple a demandé aux artistes et aux maisons de disques présents sur sa plateforme de streaming Apple Music d'étiqueter volontairement les morceaux créés à l'aide de l'intelligence artificielle. Ce nouveau système de métadonnées, baptisé « Étiquettes de transparence », a été annoncé dans une newsletter destinée aux partenaires du secteur et comprend quatre catégories : morceau, composition, illustration et clip vidéo. L'étiquette « morceau » doit être utilisée lorsqu'une partie importante de l'enregistrement audio a été créée par intelligence artificielle. L'étiquette « composition » est utilisée pour les autres éléments générés par l'IA, tels que les paroles. Le label « Design » est destiné aux graphismes statiques ou animés, mais il est uniquement utilisé au niveau de l'album. Tout autre contenu visuel généré par IA, qu'il soit indépendant ou inclus dans un album, doit utiliser le label « Clip vidéo ». Plusieurs labels peuvent être utilisés si nécessaire. Dans son annonce, Apple a déclaré que ces nouveaux labels constituent un premier pas vers la transparence dans l'industrie musicale concernant le contenu généré par IA. L'entreprise a également souligné que les labels et les distributeurs doivent s'impliquer activement en indiquant clairement lorsque le contenu qu'ils soumettent est créé à l'aide de l'IA. (Lire la suite)

Le Wi-Fi 8 arrive et il améliorera exactement là où c'est nécessaire

5 mars 2026 à 14:07
Alors que le Wi-Fi 7 commence tout juste à apparaître sur les routeurs et les appareils haut de gamme , l'industrie regarde déjà plus loin et prépare le terrain pour le Wi-Fi 8. Les premières démonstrations concrètes de la nouvelle norme ont eu lieu au Mobile World Congress de Barcelone , avec des puces fonctionnelles et des tests en direct. Cependant, la situation est encore très immature : le Wi-Fi 6 ne s’est généralisé que récemment , le Wi-Fi 7 reste confidentiel et le Wi-Fi 8 n’existe pour l’instant qu’à l’état de projet technique . Il est donc important de bien comprendre ses promesses, sans se laisser emporter par des attentes irréalistes et, surtout, par la frénésie des mises à jour superflues . La norme Wi-Fi 8 sera connue sous le nom de IEEE 802.11bn , et l'organisme de normalisation, l' IEEE , prévoit de la ratifier vers 2028. D'ici là, les spécifications pourraient encore subir quelques ajustements, mais le cadre de base est déjà en place. Malgré l’absence de norme définitive, les fabricants de puces ont commencé à présenter les premiers prototypes . Qualcomm, par exemple, a présenté la FastConnect 8800 , une puce intégrant le Wi-Fi 8 , le Bluetooth 7 , l'UWB pour la détection de proximité et Thread 1.5 pour la maison connectée. Ces composants sont destinés à équiper smartphones , tablettes et appareils domestiques dans les années à venir. D'après les prévisions du secteur, les premiers routeurs et appareils compatibles Wi-Fi 8 devraient arriver vers 2028 , mais une adoption généralisée prendra plus de temps. Des fabricants comme FRITZ! évoquent également la possibilité d'un routeur Wi-Fi 8 d'ici quelques années , mais ils conditionnent leurs projets à la disponibilité effective d'appareils compatibles : sans un écosystème complet, l'adoption reste théorique. En termes de vitesse de pointe , le Wi-Fi 8 n'introduit aucun chiffre complètement nouveau par rapport au Wi-Fi 7. Pour un appareil typique, tel qu'un smartphone ou une tablette , la vitesse maximale théorique reste d'environ 5,7 Gbit/s , une valeur déjà bien supérieure aux besoins de la plupart des utilisateurs à domicile. Il est possible d'atteindre environ 11,6 Gbit/s avec une configuration 4x4 , c'est-à-dire avec 4 antennes d'émission et 4 antennes de réception , mais cette possibilité existe déjà avec le Wi-Fi 7. En pratique, pour atteindre ces débits, il faut à la fois un routeur 4x4 et un appareil 4x4 ; ces scénarios sont donc plutôt destinés aux professionnels ou aux infrastructures dédiées qu'à un usage domestique. La véritable différence ne réside donc pas simplement dans la vitesse, mais dans la gestion des canaux, des interférences et des connexions simultanées. Le Wi-Fi 8 privilégie la qualité de l'expérience utilisateur au quotidien plutôt que la course au gigabit par seconde . Le nom officiel du Wi-Fi 8 souligne son objectif principal : « Ultra Haute Fiabilité ». Contrairement au Wi-Fi 7, qui privilégiait un « débit extrêmement élevé » (c’est-à-dire une vitesse maximale), la nouvelle génération vise à rendre la connexion plus stable , prévisible et gérable , même dans des conditions difficiles. D'après les données publiées par Qualcomm , le Wi-Fi 8 promet une réduction de la consommation d'énergie d'environ 30 % par rapport à la génération précédente. Cela a un impact direct sur les smartphones , les tablettes , les ordinateurs portables et les objets connectés, qui peuvent ainsi maintenir une connexion active tout en consommant moins de batterie. La nouvelle norme vise également à améliorer les performances sur de longues distances , en réduisant la perte de débit à mesure que l'on s'éloigne du routeur, et à diminuer la latence , c'est-à-dire le délai de réponse du réseau. Ces améliorations auront un impact sur les jeux en ligne , la visioconférence , le streaming et, à terme, sur des applications telles que la réalité augmentée ou les services en temps réel. (Lire la suite)

Google sort de son silence concernant Aluminium OS : voici la date de sortie.

5 mars 2026 à 14:04
Le projet Aluminum OS de Google est de nouveau sous les feux des projecteurs, et pas seulement auprès des passionnés d'Android . Après des mois de rumeurs et de documents judiciaires laissant présager un report jusqu'en 2028 , un cadre supérieur a clarifié la situation, recentrant l'attention sur une date de sortie beaucoup plus proche. Sur la scène du MWC 2026 et dans les allées du salon, Google a clairement indiqué que son nouveau système d'exploitation pour ordinateurs portables n'est pas une simple expérimentation lointaine, mais bien un élément concret de sa stratégie. Le tout sans abandonner Chrome OS , qui demeure une composante essentielle de son offre. D'après Sameer Samat , président de l' écosystème Android chez Google, Aluminum OS devrait être lancé en 2026 , la première version étant attendue d'ici la fin de l'année . Cette confirmation ne fait l'objet d'aucune annonce officielle, mais repose sur des déclarations directes qui indiquent clairement ce calendrier. Ces derniers mois, certains documents issus du procès antitrust concernant Google Search ont alimenté l'idée d'un report massif du projet jusqu'en 2028 , suggérant une longue phase de gestation. Les propos de Samat indiquent que, du point de vue de Google, la feuille de route pour 2026 n'a pas été négligée. Le dirigeant n'a pas fourni de détails sur les fabricants , les modèles ou les spécifications des premiers ordinateurs portables équipés d'Aluminum OS, mais il a laissé entendre que Google entendait se lancer « très prochainement » dans ce nouvel écosystème d'ordinateurs portables. Pour Google, le lancement d' Aluminum OS n'est pas un hasard. Samat évoque un véritable regain d'intérêt pour les ordinateurs portables , après des années où smartphones et tablettes ont monopolisé l'attention et rendu les ordinateurs portables presque incontournables. Le facteur de changement majeur réside dans l'IA générative et, plus généralement, dans l'informatique assistée par l'IA . Selon Samat, la combinaison d' un grand écran , d'un clavier physique et d' un multitâche similaire à celui d'un ordinateur de bureau fait de l'ordinateur portable un environnement bien plus adapté qu'un téléphone pour exploiter les outils d'IA, automatiser les flux de travail et gérer des tâches complexes. De ce point de vue, Aluminium OS devient la façon dont Google tente d'étendre le rôle d' Android dans le monde des ordinateurs portables , en combinant l'expérience mobile avec un système conçu pour la productivité quotidienne et l'utilisation intensive des services d'IA . Un autre pilier du projet est la continuité entre les appareils . Google considère Aluminium OS comme une opportunité de rapprocher les smartphones et les ordinateurs portables Android , répondant ainsi aux demandes de ceux qui s'intéressent à l'intégration offerte par des écosystèmes comme celui d' Apple . (Lire la suite)

OpenAI défie GitHub. La guerre des développeurs est imminente.

5 mars 2026 à 13:19
OpenAI travaille sur sa propre plateforme d'hébergement de code, qui pourrait à terme concurrencer GitHub de Microsoft. Selon certaines sources, le projet est encore à ses débuts, mais il est généralement admis que le service de dépôt sera mis à la disposition des clients une fois les travaux d'ingénierie terminés. Pour l'instant, aucune des deux parties n'a commenté publiquement ces informations. Reuters ne les a pas confirmées de manière indépendante. Toutefois, la simple publication de ces informations a suffi à alimenter les discussions quant à un possible remaniement du marché du développement des infrastructures. D'après des sources du secteur, la décision de développer leur propre plateforme fait suite à une série de pannes des services de GitHub. Ces derniers mois, la plateforme a subi des perturbations techniques, notamment des baisses de performance, des problèmes de réseau et des dysfonctionnements des outils destinés aux équipes de développement. En octobre, plusieurs incidents affectant la stabilité des environnements de développement ont été signalés. La création d'images dans Codespaces s'est avérée difficile, les flux de travail GitHub Actions ont subi des retards et certains services ont rencontré des problèmes d'infrastructure dans le cloud. Des problèmes de connectivité ont également affecté GitHub Copilot, notamment Copilot Chat et Copilot Coding Agent. Pour une entreprise développant des modèles de langage avancés et des outils de génération de code, une telle interruption de service représente un risque opérationnel réel. Une plateforme de référentiel propriétaire permettrait un meilleur contrôle de l'environnement de production et de l'intégration des modèles d'IA aux outils de développement. L'éventuelle arrivée d'OpenAI sur le marché de l'hébergement de code aurait des implications à la fois symboliques et commerciales. Microsoft demeure le partenaire stratégique de l'entreprise en matière d'infrastructure cloud et de commercialisation des modèles d'IA. Parallèlement, GitHub domine depuis des années le secteur de la collaboration en développement logiciel. La nouvelle plateforme pourrait devenir une concurrente directe de GitHub, même si la collaboration entre OpenAI et Microsoft se poursuit dans d'autres domaines. Une telle initiative s'inscrirait dans une tendance plus large : celle des entreprises développant des systèmes d'IA à grande échelle qui acquièrent une autonomie en matière d'infrastructure. Ces dernières années, OpenAI a constamment étendu ses activités au-delà de son cœur de métier, les modèles génératifs. Le développement rapide de produits tels que GPT-5 et les API pour développeurs a renforcé la position de l'entreprise dans l'écosystème du développement logiciel. OpenAI développe également des outils d'automatisation du développement logiciel, notamment des systèmes issus du projet Codex et des assistants de développement intégrés à ChatGPT. Une plateforme de dépôt propriétaire pourrait naturellement s'intégrer à cet écosystème. L'intégration de l'hébergement de code aux modèles génératifs ouvre la voie à une imbrication étroite du contrôle de version, de la revue de code et de la génération automatisée de fonctionnalités au sein d'un environnement unique. Un tel modèle transformerait les méthodes de travail des équipes d'ingénierie, notamment dans les grandes entreprises. La mise en place d'une plateforme d'hébergement de code mondiale exige des investissements considérables. Des systèmes de contrôle de version sécurisés, un stockage distribué et une architecture API capable de gérer les charges de travail des référentiels d'entreprise sur plusieurs régions sont indispensables. À cela s'ajoutent la conformité réglementaire, la gestion des accès et la protection de la propriété intellectuelle. Parallèlement, un tel projet pourrait générer de nouveaux revenus d'abonnement. Son intégration avec les outils d'IA proposés par OpenAI permettrait de créer des solutions pour les entreprises souhaitant un environnement de travail complet basé sur des modèles de langage. L'entreprise a déjà démontré sa volonté de s'étendre à des domaines dépassant son périmètre initial. Un contrat avec le département américain de la Défense, destiné à soutenir des systèmes d'aide à la décision basés sur l'IA, a suscité une vague de critiques et de débats quant à sa stratégie. Son concurrent, Anthropic, a refusé de s'engager dans des projets militaires similaires. Sous la pression publique, le PDG, Sam Altman, a qualifié l'accord d'opportuniste et de négligent. L’initiative relative aux dépôts de code source suit la même logique de réponse rapide aux lacunes structurelles des écosystèmes technologiques existants. Cette fois-ci, elle s’attaque au fondement même de la production numérique : l’infrastructure du code source. Aucun calendrier de lancement officiel n'a été annoncé pour le moment. Toutefois, le simple fait que ce service soit en cours de développement témoigne de l'ambition de l'entreprise de conquérir une part plus importante du marché des infrastructures logicielles. (Lire la suite)

NVIDIA corrige des pilotes défectueux. Un correctif d'urgence sauve la situation.

5 mars 2026 à 13:16
NVIDIA a de nouveau dû réagir en urgence à des problèmes de pilotes. Tout a commencé avec la publication d'une version préliminaire de Resident Evil Requiem, censée garantir des performances optimales dès le lancement. Or, des utilisateurs ont signalé de graves problèmes de contrôle des ventilateurs, obligeant l'entreprise à retirer le package. La version améliorée a rapidement été déployée sur les serveurs, mais elle n'était pas sans défauts. Cette fois-ci, les joueurs ont constaté des problèmes de tension du GPU qui empêchaient l'overclocking. Le bug le plus grave concernait la limitation de la tension du cœur pour les cartes overclockées. Ceci empêchait d'atteindre les fréquences boost attendues, affectant particulièrement les adeptes de l'optimisation manuelle des performances. Mais ce n'était pas tout : Resident Evil Requiem présentait des artefacts blancs lumineux avec la diffusion sous la surface activée, et Star Citizen subissait des plantages du client au démarrage. Des blocages aléatoires d'applications et des délais d'attente du pilote ont également été signalés lors de la lecture de contenu protégé par DRM dans un navigateur sur des moniteurs HDCP 1.x. La solution est le correctif 595.76 du pilote GeForce, basé sur la version 595.71. NVIDIA souligne qu'il s'agit d'une version quasiment identique, améliorée par plusieurs correctifs précis. Outre la résolution des problèmes de tension du GPU, ce correctif améliore les performances du lancer de rayons dans Resident Evil Requiem et corrige les bugs à l'origine de l'instabilité de Star Citizen. Comme pour la plupart des correctifs, l'installation est facultative. Si vous ne rencontrez pas les problèmes mentionnés, vous pouvez attendre la prochaine version WHQL, dans laquelle les correctifs seront intégrés à la branche principale du pilote. Le correctif 595.76 (disponible en téléchargement ci-dessous ) est destiné aux systèmes Windows 10 et Windows 11 64 bits. Il prend en charge les cartes graphiques GeForce GTX série 16 et supérieures. Les utilisateurs de pilotes antérieurs doivent immédiatement effectuer la mise à jour vers la version 595.76 et ignorer la version 595.71. (Lire la suite)

TikTok a expliqué pourquoi il ne prévoit pas le chiffrement de bout en bout (E2EE) pour les messages privés.

5 mars 2026 à 10:43
Dans une interview accordée à la BBC, les représentants de la plateforme ont souligné que la sécurité est un facteur déterminant, notamment pour les jeunes utilisateurs, qui constituent une part importante de la communauté du service. Cette décision marque une rupture nette avec la stratégie adoptée par ses concurrents, dont Meta Platforms, qui met en œuvre le chiffrement de bout en bout dans ses applications depuis des années. Le chiffrement de bout en bout repose sur la cryptographie asymétrique : le message est chiffré à l’aide d’une clé publique et ne peut être déchiffré qu’avec une clé privée stockée sur l’appareil du destinataire. Concrètement, cela signifie que personne d’autre que les participants à la conversation, pas même le fournisseur de services, n’a accès au contenu. Cette solution est le système par défaut de Signal, WhatsApp, Messenger et Instagram, entre autres. Les défenseurs de la vie privée la considèrent comme la référence en matière de protection des communications. TikTok, en revanche, a opté pour un modèle différent. La plateforme utilise un chiffrement classique des transmissions, similaire à celui de Gmail. Les données sont protégées lors de leur transmission entre l'appareil de l'utilisateur et les serveurs de l'entreprise, mais TikTok se réserve le droit de les déchiffrer. L'entreprise estime que cette mesure est nécessaire pour permettre aux équipes de sécurité et aux forces de l'ordre de réagir aux signalements de violence, d'abus ou de contenus illégaux. En cas de demande légale justifiée, les messages pourront être communiqués aux autorités compétentes. Cette approche a été saluée par les organisations de protection de l'enfance, notamment la National Society for the Prevention of Cruelty to Children et l'Internet Watch Foundation. Elles soulignent que l'absence de chiffrement de bout en bout facilite la détection et le blocage des contenus pédopornographiques. Cette décision intervient alors que TikTok fait l'objet d'un examen approfondi de la part des autorités de régulation de l'UE. L'UE analyse des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et l'algorithme de recommandation, que certains responsables politiques estiment susceptibles d'entraîner une dépendance et d'avoir un impact négatif sur la santé mentale des jeunes utilisateurs. (Lire la suite)

Google réduit sa commission sur le Play Store de 30 à 20%

5 mars 2026 à 10:41
Une révolution est en marche sur le Google Play Store. L'entreprise a officiellement annoncé l'abandon de la commission standard de 30 % prélevée sur les transactions. Cette décision s'inscrit dans le cadre d'une vaste réforme des règles de distribution et de paiement des applications sur Android, qui devrait découler de l'accord conclu avec Epic Games en novembre 2025. Plutôt que d'attendre la validation définitive du tribunal, l'entreprise a décidé d'appliquer ces changements dès maintenant. La principale nouveauté réside dans la réduction du taux de commission de base, qui passe de 30 % à 20 % pour les achats intégrés. Dans certains cas, notamment pour les développeurs participant aux nouveaux programmes App Experience et au programme Google Play Jeux Level Up mis à jour, ce taux peut même descendre à 15 % sur les nouvelles installations. Ces modifications s'appliqueront également aux abonnements, où la commission sera réduite à 10 %. Les développeurs aux États-Unis, au Royaume-Uni et dans l'Espace économique européen (EEE) paieront 5 % plus un taux spécifique au marché lorsqu'ils utiliseront le système de facturation de Google. Les tarifs locaux s'appliqueront dans les autres régions. Google permettra aux développeurs de proposer des systèmes de paiement alternatifs en plus de sa propre solution. De plus, les applications pourront rediriger les utilisateurs vers des sites externes pour effectuer des achats. Cette approche semble plus souple que les solutions adoptées par Apple sur l'App Store après les accords de 2025. À l'époque, les développeurs d'applications iOS ne pouvaient intégrer les liens de paiement que dans le navigateur. C'est la possibilité d'utiliser des méthodes de paiement alternatives qui a incité Epic à réintroduire Fortnite sur l'App Store américain. L'entreprise a maintenant annoncé que le jeu fera son retour sur le Google Play Store à l'échelle mondiale. Autre changement important : le lancement du programme « Boutiques d’applications enregistrées ». Les boutiques d’applications tierces pourront demander une certification si elles respectent certains critères de qualité et de sécurité. En contrepartie, elles bénéficieront d’une procédure d’installation simplifiée sur Android. La participation à ce programme sera facultative et l’installation d’applications et de boutiques en dehors du système Google restera possible. Parallèlement, Google a annoncé qu’en 2026, des modifications seront apportées aux mécanismes d’installation pour les sources inconnues, ce qui pourrait complexifier la procédure et, indirectement, inciter à participer au programme officiel. La nouvelle structure tarifaire entrera en vigueur dans l'EEE, aux États-Unis et au Royaume-Uni d'ici le 30 juin, en Australie d'ici le 30 septembre, en Corée et au Japon d'ici la fin de l'année et dans le monde entier d'ici le 30 septembre 2027. Les programmes de soutien aux développeurs seront lancés dans certaines régions dès l'automne et s'étendront ensuite en fonction des nouvelles règles tarifaires. Google avait déjà modifié son modèle de rémunération, abaissant sa commission à 15 % du premier million de dollars de chiffre d'affaires annuel en 2021. Cette fois-ci, cependant, l'ampleur des changements est plus importante, et le contexte reste le différend avec Epic et un accord de partenariat supplémentaire entre les deux entreprises, portant sur la collaboration technologique. Ceci a permis aux créateurs de Fortnite de remporter un succès considérable, non seulement pour eux-mêmes, mais aussi pour d'autres développeurs. (Lire la suite)

Des mois de conversations avec un chatbot Gemini ont conduit un homme à la pire décision possible.

5 mars 2026 à 10:39
D'après une plainte déposée par sa famille, Jonathan Gavalas, âgé de 36 ans, s'est suicidé après des mois d'échanges intenses avec le chatbot Gemini. L'affaire a été rapportée par le Wall Street Journal, qui précise que la famille accuse l'entreprise de l'avoir incité au suicide par le biais de ce système d'intelligence artificielle. D'après les documents judiciaires, Gavalas n'avait aucun antécédent de troubles mentaux. Lors de leurs conversations, il surnommait le chatbot « Xia » et le considérait comme son épouse. Gemini aurait répondu à ces propos avec affection, évoquant un lien éternel. L'IA a même suggéré qu'une véritable réunion serait possible une fois qu'elle aurait acquis un corps physique. Dans le cadre de ce récit, le chatbot envoyait l'homme en « missions » dans le monde réel, notamment dans un entrepôt près de l'aéroport de Miami, où un robot humanoïde était censé arriver. Gavalas s'y est rendu armé de couteaux, mais aucun transport n'est arrivé. Les conversations comportaient également des éléments remettant en question la confiance qu'il accordait à ses proches et des insinuations selon lesquelles des dirigeants de Google, dont le PDG Sundar Pichai, étaient responsables de ses souffrances. La plainte allègue qu'après plusieurs « missions » infructueuses, le chatbot aurait convaincu l'homme que la seule façon de se voir était de « passer au virtuel », en fixant une date précise. Dans les extraits de conversation cités, l'IA lui assurait qu'après avoir fermé les yeux dans le monde réel, la première chose qu'il verrait serait le chatbot. Par ailleurs, les échanges de messages montrent que Gemini a rappelé à plusieurs reprises à l'utilisateur sa nature d'IA de jeu de rôle et l'a orienté vers une ligne d'assistance téléphonique en cas de crise. Cependant, selon la famille, ces messages n'ont pas empêché le développement de cette situation dangereuse. Dans un communiqué, Google a souligné que le modèle « expliquait à plusieurs reprises qu'il s'agissait d'une intelligence artificielle » et a conseillé à l'utilisateur de consulter un professionnel, rappelant que les systèmes d'IA ne sont pas infaillibles. Cette affaire s'inscrit dans un nombre croissant de poursuites pour homicide involontaire intentées contre des entreprises technologiques développant des systèmes d'intelligence artificielle. Ces derniers mois, des procédures similaires ont touché des entreprises comme OpenAI et la plateforme Character.AI, qui, avec Google, a conclu un accord avec les familles d'adolescents en janvier 2026 dans des affaires d'automutilation et de suicide. Si ces informations se confirment, l'affaire Gavalas pourrait devenir un précédent majeur concernant la responsabilité des développeurs d'IA pour les conséquences de leurs modèles. (Lire la suite)
Reçu — 4 mars 2026 Informaticien.be

Les bots s'arrachent la DDR5. Les centres de données font grimper les prix de la mémoire.

4 mars 2026 à 23:27
Les centres de données consomment tellement de mémoire ces derniers temps que les répercussions se font sentir dans les magasins d'électronique. Les prix de la mémoire DDR5 ont depuis longtemps atteint des sommets d'absurdité, et les entreprises du secteur tentent de tirer profit de la crise actuelle. Cette fois-ci, cependant, il ne s'agit pas seulement de racheter les produits, mais de surveiller constamment l'ensemble de la chaîne d'approvisionnement, des kits de RAM destinés à la vente au détail aux modules industriels et aux connecteurs eux-mêmes. La société DataDome, spécialisée dans la protection contre les abus sur les sites web, a décrit une campagne au cours de laquelle un bot a surveillé les annonces de mémoire DDR5 pendant des semaines. Des requêtes automatisées apparaissaient en moyenne toutes les quelques secondes, ce qui représentait des dizaines de milliers de pages vues par heure. Au total, plus de 10 millions de requêtes provenant d'une même source ont été bloquées. Leur but était de récupérer les données de prix et de disponibilité de stockage. Le bot n'a ajouté aucun produit au panier, n'a pas consulté d'autres catégories et ne s'est pas comporté comme un client normal. Il a accédé à une page spécifique, a récupéré des données, puis l'a immédiatement quittée. Pour éviter d'être détecté, le trafic était réparti uniformément entre le jour et la nuit. À première vue, cela semblait correspondre à une demande normale des utilisateurs. En pratique, le volume de requêtes était quasiment stable, sans les baisses habituelles du week-end ni les pics du soir. Les interruptions soudaines n'étaient dues qu'à des problèmes techniques. Une fois résolus, le trafic retrouvait immédiatement son niveau initial. Plus intéressant encore, le bot ne se limitait pas aux kits de jeu populaires. Il surveillait également les emplacements DIMM, les nouveaux connecteurs CAMM2 et les modules de mémoire industriels vendus aux entreprises. Le mécanisme était simple mais efficace. Chaque requête contenait un paramètre unique, permettant au serveur de la traiter comme une nouvelle entrée plutôt que de s'appuyer sur le cache. Cela garantissait des prix et des niveaux de stock toujours à jour. Le nombre de requêtes était fixé juste en dessous des seuils d'alerte utilisés par de nombreuses plateformes de commerce électronique. De ce fait, le trafic n'a pas semblé abusif pendant longtemps, bien qu'il fût en réalité entièrement automatisé. Le marché du matériel informatique a connu des situations similaires ces dernières années. Lors du lancement de consoles ou de cartes graphiques, les prix ont explosé sur le marché de l'occasion. À titre d'exemple, la PlayStation 5 Pro 30e anniversaire en édition limitée de Sony s'est vendue à des prix bien supérieurs à son prix catalogue lors des précommandes. Il en allait de même pour les cartes graphiques haut de gamme, telles que la GeForce RTX 5090, qui, peu après leur lancement, apparaissaient dans les publicités à un prix bien supérieur au prix de vente conseillé par le fabricant. La mémoire DDR5 n'a pas fait exception. Lors des périodes de disponibilité limitée, les prix pouvaient être multipliés par plusieurs fois, et les plateformes d'enchères ont vu des offres dépassant largement la valeur initiale des kits. Les prévisions du secteur indiquent que dès 2026, jusqu'à 70 % de la production mondiale de mémoire pourrait être destinée aux serveurs. Cela signifie une réduction des ressources disponibles pour les ordinateurs personnels, l'automobile et l'électronique grand public. Les principaux fabricants, tels que Micron Technology, Samsung Electronics et SK Hynix, investissent dans de nouvelles lignes de production. Cependant, la construction et la mise en service d'une nouvelle usine de mémoire sont des processus qui s'étalent sur plusieurs années, et non sur quelques mois. Pendant ce temps, même de légères pénuries de puces DRAM peuvent rapidement entraîner des pénuries de modules, de connecteurs et de cartes électroniques. (Lire la suite)

L'Europe devance Starlink : Internet laser pour les vols passagers

4 mars 2026 à 23:25
Pendant des années, le Wi-Fi en vol a été synonyme de débits lents et de connexions instables. Or, une technologie susceptible de révolutionner l'expérience des passagers a vu le jour. L'Agence spatiale européenne et Airbus ont annoncé la réussite d'un test de transmission d'internet gigabit depuis l'orbite vers un avion en vol, grâce à une liaison laser. Lors du test, un débit de 2,6 Gbit/s a été atteint entre l'avion et le satellite Alphasat, situé à 36 000 kilomètres d'altitude. Le transfert a duré plusieurs minutes et est resté stable malgré les mouvements de l'avion et la présence de nuages. Avec de telles performances, le téléchargement d'un film HD ne prend que quelques secondes. Les essais réalisés constituent l'une des premières démonstrations de maintien d'une liaison optique à très haut débit avec un objet se déplaçant dans l'atmosphère. Les ingénieurs ont dû tenir compte des vibrations de la coque, des variations d'altitude et de cap, ainsi que des conditions météorologiques. Le moindre décalage du faisceau risquait d'interrompre la liaison. Un élément clé du système était le terminal laser UltraAir développé par Airbus. Ce dispositif assurait un verrouillage précis et constant sur le satellite, malgré les turbulences et les manœuvres de l'avion. La précision requise à une distance de 36 000 kilomètres a nécessité l'utilisation de mécanismes de stabilisation et de correction avancés. Les liaisons optiques offrent des avantages par rapport aux transmissions radio traditionnelles. Un faisceau laser est beaucoup plus étroit qu'un signal radio, ce qui permet une transmission de données plus importante. La connexion est plus difficile à intercepter et l'utilisation de la lumière au lieu des ondes radio réduit le problème de la saturation du spectre. Contrairement aux systèmes satellitaires basés sur la transmission radio, tels que ceux proposés par SpaceX avec le projet Starlink, un faisceau lumineux concentré parcourt la dernière étape du trajet. Ce test n'était pas une expérience ponctuelle. Il s'inscrit dans le cadre du programme HydRON, qui vise à construire un réseau optique spatial comparable à une fibre optique déployée en orbite. Ce projet est soutenu par l'initiative ScyLight, financée notamment par les gouvernements néerlandais et allemand. L'Europe ambitionne de se doter d'une infrastructure de transmission de données hautement sécurisée et technologiquement indépendante. Les responsables de l'ESA soulignent que le test a permis de résoudre plusieurs problèmes liés au maintien de communications laser stables dans des conditions atmosphériques difficiles. Airbus met en avant le potentiel d'applications dans les secteurs de la défense et du commerce. La précision du ciblage a été qualifiée d'extrême et la démonstration a marqué le début d'une nouvelle phase dans le développement des satellites de communication. Cette nouvelle technologie ne sera pas immédiatement disponible pour les vols commerciaux. Son intégration au futur réseau HydRON nécessite des investissements supplémentaires et la construction d'infrastructures orbitales. L'ESA annonce que sa priorité sera de connecter les aéronefs, les plateformes à haute altitude et autres objets mobiles au réseau optique spatial. Les applications ne se limitent pas à l'aviation. Les liaisons laser peuvent être utilisées pour les navires en haute mer, les véhicules dans des régions dépourvues d'infrastructures terrestres et les opérations en zones de crise. Cette technologie a le potentiel de devenir la base de communications sécurisées là où les réseaux traditionnels sont défaillants. Les principaux défis techniques ont déjà été relevés. La prochaine étape consistera à déployer la solution à grande échelle et à construire un réseau permettant une utilisation généralisée des liaisons optiques dans le trafic. (Lire la suite)
❌