Vue lecture

NVIDIA mise sur les cartes graphiques dotées de 8 Go de mémoire.

Certaines des cartes graphiques les plus critiquées pourraient bientôt voir leur part de marché augmenter significativement. Selon un rapport, NVIDIA prévoit d'accroître les livraisons de cartes graphiques RTX 50 dotées de 8 Go de mémoire. Alors qu'il semblait auparavant que l'industrie régressait en promouvant les plateformes DDR4 pour les systèmes de jeu, la situation est aujourd'hui encore plus révélatrice. Il semble que les rayons des magasins seront à nouveau remplis de cartes graphiques de 8 Go, rendant les configurations de jeu performantes et sans compromis de plus en plus rares. Selon Board Channels, NVIDIA entend augmenter les livraisons des GeForce RTX 5060 et RTX 5060 Ti avec 8 Go de mémoire vidéo, car une pénurie de VRAM empêche un approvisionnement stable des modèles 16 Go. Par conséquent, une nouvelle stratégie d'approvisionnement est en cours d'élaboration pour la série RTX 50, qui privilégiera les ventes de versions 8 Go, tandis que la disponibilité des RTX 5060 Ti et RTX 5070 Ti (16 Go) sur le marché sera considérablement réduite. La RTX 5060 8 Go devrait représenter la plus grande part des livraisons, tandis que la RTX 5060 Ti 8 Go sera produite en bien plus grande quantité que la version 16 Go. On ignore encore quand cette stratégie entrera en vigueur, mais certaines régions constatent déjà des hausses de prix pour les cartes graphiques. Des rapports précédents laissaient présager une augmentation significative des prix des solutions AMD et NVIDIA ce trimestre, et un nouveau rapport indique que ces hausses se poursuivront au deuxième trimestre. C'est une très mauvaise nouvelle pour les joueurs, car les cartes graphiques 8 Go sont encore peu nombreuses. (Lire la suite)
  •  

Apple dépose de moins en moins de brevets.

En 2025, 323 272 brevets ont été délivrés aux États-Unis, tandis que 393 344 demandes ont été déposées. Samsung arrive une nouvelle fois en tête du classement, avec 7 054 brevets américains déposés, soit une hausse de 11 % par rapport à l'année précédente. Ce résultat permet au géant sud-coréen de conserver la première place du classement IFI pour la quatrième année consécutive. TSMC se classe deuxième avec 4 194 brevets, enregistrant une progression de 5 % sur un an. Qualcomm arrive en troisième position avec 3 749 brevets, soit une augmentation de 9,5 %. Huawei se place quatrième avec 3 052 brevets, contre 3 046 l'année précédente, et Samsung Display complète le top 5 avec 2 859 brevets, soit une hausse de 10,1 %. Apple n'arrive qu'en sixième position cette année. En 2025, l'entreprise a obtenu 2 722 brevets américains, contre 3 082 en 2024, soit une baisse de 11,7 % sur un an. Il est à noter que le nombre total de brevets américains délivrés en 2025 a diminué d'environ 1 %, tandis que le nombre de demandes déposées a chuté de 9 %. Par ailleurs, des géants de la technologie comme Google et NVIDIA ne figurent même pas dans le top 10 cette année. Néanmoins, la baisse de près de 12 % du nombre de brevets déposés par Apple est alarmante, surtout compte tenu des départs importants de ses employés clés en 2025 et de l'utilisation par l'entreprise de solutions basées sur Google Gemini pour une future version mise à jour de Siri. De toute évidence, l'entreprise a perdu ses meilleurs talents. (Lire la suite)
  •  

Test Légendes Pokémon : Z-A - Méga-Dimension (Nintendo Switch 2) - Une histoire parallèle qui débute mal.

Deux mois après la sortie de Légendes Pokémon : ZA, les joueurs peuvent désormais débourser encore plus d'argent pour le DLC Mega Dimension. Ce contenu vise à ajouter de nouveaux Pokémon au casting, des activités répétables, et ce, par des moyens pour le moins discutables. L'intrigue débute en parallèle de l'histoire principale. Une étrange jeune fille nommée Anya apparaît à l'Hôtel Z et souhaite préparer des beignets. Pourquoi des beignets ? Eh bien, elle les offre au Pokémon légendaire Hoopa, qui utilise son pouvoir de malice pour ouvrir des portails vers l'Hyperscape d'Illumis. Ce sont d'étranges dimensions où l'on trouve des Pokémon rares, et le joueur peut explorer une version plus morne de la ville tout en chassant et en combattant des Pokémon. Le hic, c'est que ces Pokémon ont tous étrangement dépassé le niveau 100. De l'avis général, ce DLC est destiné aux joueurs en quête de défi. Et c'est réussi. Impossible de se lancer dans ces portails sans être préparé à ce qui vous attend. Ils regorgent souvent de Pokémon Méga-Évolués rebelles, particulièrement coriaces. Nous ne nous en plaignons pas pas, car la courbe de difficulté était plutôt plaisante. Après avoir terminé le jeu principal sans difficulté, c'était agréable d'être mis à l'épreuve. Même les combats d'arène contre les Pokémon évolués plus imposants obligent à esquiver et à rouler pour tenter de les vaincre le plus rapidement possible. Sans blague, ces quelques niveaux « supplémentaires » pour ces Pokémon dimensionnels font une énorme différence au niveau des statistiques, et ils sont loin d'être une promenade de santé. Une fois l'installation terminée et les cinématiques muettes agaçantes passées, Pokémon Legends: ZA Mega Dimension se résume à un gameplay répétitif, voire monotone, qui devient vite lassant. L'Hyperscape d'Illumis est d'un ennui mortel, même si le concept de dimensions et de failles est prometteur sur le papier. (Lire la suite)
  •  

Révolution en matière de recharge pour le Galaxy S26 Ultra : charge à 75 % en 30 minutes et batterie neuve

Le futur Samsung Galaxy S26 Ultra continue de se dessiner, et les dernières fuites concernant la gestion de l'énergie révèlent un changement attendu depuis des années par les fans. Après des générations de prudence extrême, il semble que le géant coréen soit enfin prêt à révolutionner les temps de charge de ses fleurons, réduisant ainsi l'écart avec ses concurrents les plus agressifs. D'après de nouvelles données partagées par le célèbre informateur Ice Universe , le Galaxy S26 Ultra franchira un cap important en matière de puissance de charge filaire, passant de 45 W à une puissance maximale de 60 W. Des tests internes réalisés dans des conditions contrôlées affichent des résultats surprenants, du moins par rapport aux modèles précédents. Mais la vitesse n'est pas le seul axe d'amélioration. D'une batterie légèrement plus performante à une nouvelle technologie d'affichage respectueuse de la vie privée, découvrons comment Samsung compte révolutionner l'expérience utilisateur en 2026. Les dernières fuites publiées par Ice Universe confirment que la charge filaire du Galaxy S26 Ultra atteindra une puissance maximale de 60 W , dépassant ainsi les 45 W précédents. Lors de tests réalisés dans des conditions contrôlées, le smartphone a effectué la transition de 0 % à 75 % en 30 minutes , un résultat qui suggère une approche plus agressive de la gestion de l'énergie. L'appareil devrait intégrer une batterie de 5200 mAh , une valeur légèrement supérieure à celle des générations récentes, mais toujours inférieure à celle des concurrents chinois qui utilisent des batteries silicium-carbone Pour atteindre la puissance maximale, vous aurez besoin d'un chargeur compatible ; Samsung prévoit d'en proposer un officiel, en tant qu'accessoire dédié et potentiellement disponible dès le lancement, même s'il n'est pas inclus dans la boîte. Dans le même temps, l'entreprise prépare également une mise à jour pour la recharge sans fil, avec une puissance maximale portée à 25 W , afin de réduire encore les temps de charge. Il s'agit bien sûr de la recharge Qi2 25 W. Le Galaxy S26 Ultra adoptera le SoC Qualcomm Snapdragon 8 Elite Gen 5 sur tous les marchés prévus, ce qui témoigne d'une cohérence de plateforme par rapport à certaines générations précédentes. L'écran AMOLED conservera des dimensions similaires au modèle précédent, mais introduira la technologie OLED Flex Magic Pixel , qui permettra d'activer la fonction Privacy Display via des solutions d'intelligence artificielle . L'arrière de l'appareil accueillera le module caméra dédié classique , mais aucun autre détail n'a été confirmé pour le moment. De plus amples informations devraient être communiquées dans les semaines à venir, à l'approche de la présentation officielle prévue fin février 2026 . (Lire la suite)
  •  

Les nouvelles lunettes Google ne sont pas encore officielles, mais certains ont déjà essayé l'application associée.

Le développement du logiciel pour les futures lunettes connectées de Google entre dans une phase plus claire grâce à un premier aperçu de ce qui sera l' application compagnon . Grâce à une version très préliminaire issue d'une version de test d' Android Studio , nous pouvons avoir un premier aperçu de la manière dont le système interagira avec les lunettes, même si une configuration complète ne sera pas possible sans le matériel dédié. Le code de l'application contient plusieurs lignes dédiées à la gestion des notifications vocales , notamment lorsque l'utilisateur est en conversation. Les fonctions identifiées permettent de désactiver automatiquement les alertes lorsque les lunettes détectent une conversation en cours. Le système utilise un mode appelé détection de conversation , conçu pour suspendre les notifications sans transférer l'audio ni les images vers des serveurs externes. Le traitement s'effectue directement sur les lunettes, en fonction des textes de l'application. Il existe également diverses options pour paramétrer une pause manuelle des notifications, les références trouvées suggérant des intervalles de 1, 2, 4 ou 8 heures , afin de limiter les interruptions de manière ciblée. L'application contient des avertissements concernant la compatibilité des lunettes avec les fonctionnalités Gemini , indiquant que tous les modèles ne pourront pas gérer les mêmes capacités. Certains appareils peuvent ne pas être compatibles et nécessiter une version plus récente. Parmi les options figurent le réglage de la luminosité et un curieux mode audio uniquement permettant de désactiver complètement l'écran des lunettes, un choix qui correspond à l'existence de modèles sans écran que Google préparerait, mais qui semble également disponible pour les versions équipées d'un écran. Des commandes dédiées à la caméra font également leur apparition , notamment la sélection de la résolution vidéo : les options identifiées indiquent des valeurs allant jusqu’à 3K , toutefois marquées comme expérimentales, en plus de la résolution plus courante de 1080p . Il est également fait mention d'un système qui empêche l'enregistrement si la LED d'enregistrement s'éteint , une mesure liée à la protection de la vie privée. Il faut dire que ces détails suggèrent un cadre logiciel déjà structuré , en attente du lancement des nouveaux modèles de lunettes que Google (et d'autres) préparent pour un avenir proche. (Lire la suite)
  •  

Même Meta ne croit plus au Métavers : il le sacrifie et opte pour des Ray-Ban.

La nouvelle orientation de Meta vers sa division Reality Labs entraînera la suppression drastique d'au moins 1 000 emplois , une décision qui reflète un recentrage des priorités internes. L'attention se porte désormais sur les objets connectés , un secteur qui a suscité un intérêt croissant au sein du groupe dirigé par Mark Zuckerberg ces dernières années, tandis que l'intérêt pour le Métavers a diminué par rapport au passé. C'est un revers pour une entreprise qui avait justement changé de nom en référence au Métavers auquel elle croyait tant. Cette réduction concerne environ 10 % de sa division Reality Labs , chargée du développement de produits et services XR. Meta a confirmé cette information par l'intermédiaire de sa porte-parole, Tracy Clayton , qui a expliqué cette décision par une nouvelle orientation d'investissement. L'entreprise a en effet choisi de réorienter une partie de ses ressources du projet métavers vers les objets connectés , avec l'intention de réinvestir les économies réalisées pour soutenir la croissance de ce segment en 2026. Les lunettes Ray-Ban de Meta , développées en collaboration avec EssilorLuxottica, ont suscité un intérêt bien plus grand que les casques de réalité virtuelle. Le lancement du modèle Ray-Ban Display l'année dernière a renforcé cette tendance, accompagné d'une demande croissante. Meta envisagerait de doubler sa capacité de production de lunettes dotées d'intelligence artificielle d'ici fin 2026. Le métavers ne disparaît cependant pas de la vision de l'entreprise, du moins pas totalement. Une note interne du directeur technique Andrew Bosworth indique un changement d'approche : l'accent n'est plus mis sur une plateforme sociale principalement basée sur la réalité virtuelle , mais sur une présence développée avant tout pour les appareils mobiles . (Lire la suite)
  •  

Les vidéos réalisées par l'IA deviennent de plus en plus réalistes : Google Veo 3.1 les filme désormais en 4K, même à la verticale.

La mise à jour Veo 3.1 apporte de nouveaux outils pour créer des clips plus cohérents, variés et naturels. Plus précisément, les améliorations concernent la gestion des images de référence, le rendu des mouvements et la qualité finale, avec un accent particulier sur les contenus verticaux et les productions nécessitant une haute résolution. La fonction « Ingrédients pour la vidéo » , déjà connue pour transformer des images de référence en clips complets, introduit une gestion des scènes plus expressive. Même avec des indications courtes, le système construit des segments aux dialogues plus détaillés et à la narration plus vivante. La cohérence des identités des personnages semble plus stable : les visages et leurs traits restent reconnaissables même lorsque le décor change, un aspect utile pour construire des séquences à plusieurs étapes sans interruptions visuelles. Cette mise à jour améliore également la gestion des éléments d'arrière-plan. Les environnements, les objets et les textures restent cohérents d'une scène à l'autre, assurant ainsi un contexte uniforme. De plus, les différents composants, y compris les éléments stylisés, s'intègrent désormais plus harmonieusement au résultat final. xJngjnLZ_ZI Veo 3.1 introduit pour la première fois la génération vidéo au format 9:16 dans Ingredients to Video . Ceci permet d'éviter le recadrage ou la réduction généralement appliqués aux contenus créés au format vertical lors de la conversion depuis des formats horizontaux. Pour les productions nécessitant une définition supérieure, le système propose une conversion ascendante en 1080p et 4K . Le mode Full HD vise à générer des clips plus nets et plus faciles à monter, tandis que la 4K préserve les détails et les textures avec une plus grande précision. uP9f0aYy6as Les nouvelles fonctionnalités sont déployées sur différents services. Des applications grand public comme YouTube Shorts et YouTube Create intègrent désormais la fonctionnalité « Ingrédients pour la vidéo », et le mode portrait avec des fonctionnalités avancées est également disponible dans l' application Gemini . Les flux professionnels et d'entreprise bénéficient des mêmes fonctionnalités sur Flow , l' API Gemini , Vertex AI et Google Vids , avec la possibilité d'obtenir des clips 1080p et 4K le cas échéant. L'intégration du système de vérification SynthID se poursuit . L'application Gemini reconnaît désormais également les vidéos générées par les outils Google, grâce à un filigrane numérique invisible qui permet de vérifier directement l'origine du contenu. En résumé, les nombreuses nouvelles options améliorent l'utilisation de la plateforme sur différentes tailles d'écran et pour différents projets. (Lire la suite)
  •  

Ordinateur dans un congélateur : un YouTubeur met le refroidissement extrême à l’épreuve

L'idée de placer son ordinateur dans un congélateur circule depuis des années sur les forums de passionnés d'informatique et d'overclocking. Cependant, la plupart de ces expériences échouent avant même d'avoir commencé, généralement à cause de l'humidité, de la condensation ou de problèmes d'alimentation. Le youtubeur TrashBench a décidé d'aborder le sujet méthodiquement et de voir si, avec les bonnes hypothèses, un succès, même minime, était possible. Le test utilisait une configuration aujourd'hui obsolète, mais qui était extrêmement performante à l'époque. Le système était composé d'un processeur Intel Core i7-9700K et d'une carte graphique GeForce GTX 1070. Au lieu d'un système de refroidissement classique, le concepteur avait utilisé un congélateur coffre, qu'il avait modifié en scellant le couvercle et en améliorant l'isolation afin de limiter les entrées d'air chaud extérieur. Les composants étaient suspendus par des courroies en caoutchouc afin de réduire la transmission des vibrations et le contact avec des surfaces froides. L'utilisation de grandes quantités de gel de silice, absorbant l'humidité de l'air, jouait également un rôle essentiel. Au lieu de démarrer l'ordinateur immédiatement, TrashBench a laissé le système se stabiliser. Concrètement, cela impliquait de « stocker » de l'air froid et sec dans un congélateur. Les tests de performance n'ont commencé qu'après avoir atteint une température d'environ -26 °C. L'expérience visait principalement l'overclocking de la carte graphique. Et c'est là la première déception : la température extrêmement basse n'a permis d'augmenter la fréquence d'horloge que d'environ 240 MHz lors de l'overclocking. Les résultats obtenus en jeu étaient plutôt modestes. Dans Far Cry 6, le système n'a gagné que trois images par seconde, dans Cyberpunk 2077 quatre, et le meilleur résultat a été enregistré dans Shadow of the Tomb Raider, avec un gain de huit images par seconde. Compte tenu des mesures de refroidissement aussi radicales, ces résultats sont loin d'être révolutionnaires. P4W8f-703rI Après avoir sorti l'équipement du congélateur, les composants se sont avérés parfaitement secs. C'est un véritable succès, car la condensation est la cause la plus fréquente de défaillance lors de tests similaires. Une isolation adéquate, des absorbeurs d'humidité et une durée de fonctionnement limitée ont permis d'éviter ce problème. L'expérience a confirmé qu'avec les précautions appropriées, l'humidité peut être maîtrisée, à condition que l'ordinateur ne fonctionne pas en continu dans de telles conditions. La conclusion de TrashBench est sans appel : si l’ordinateur placé au congélateur fonctionne bel et bien, la solution est extrêmement impraticable. Pour les adeptes de l’overclocking extrême, cette expérience relève davantage de la curiosité que de la méthode à suivre. Pour la plupart des utilisateurs dont le système est configuré par défaut, l’effort et les risques encourus ne justifient absolument pas le gain de quelques images par seconde. (Lire la suite)
  •  

Le Google Pixel 10a pourrait arriver plus tôt que prévu : sa sortie est imminente.

La possible sortie anticipée du Google Pixel 10a suscite beaucoup d'intérêt. Une nouvelle rumeur évoque une arrivée mi-février , ce qui constituerait un changement important par rapport au calendrier habituel de la gamme, qui ne revient généralement qu'à la fin du printemps avec de nouveaux modèles. Cette information, révélée en avant-première, provient de Roland Quandt , une source fiable en matière de fuites Google. Alors, préparons-nous à en apprendre davantage sur le nouveau smartphone milieu de gamme de Google, qui devrait se décliner dans une nouvelle couleur pour le moins originale . D'après les fuites, Google prévoit de commercialiser le Pixel 10a dès la mi-février. Si cela se confirme, ce serait nettement plus tôt que l'an dernier, où le Pixel 9a avait été présenté en mars et disponible en avril après un léger retard. La rumeur ne s'arrête pas à la date. La gamme devrait inclure des versions 128 Go et 256 Go , avec quatre coloris : Obsidian , Fog , Lavender et le nouveau Berry . Cette dernière reprendrait le ton déjà utilisé par Google sur la Nest Cam de troisième génération , un choix visant à standardiser la palette des appareils domestiques. Il ne devrait pas y avoir de changements majeurs par rapport au modèle actuel. En réalité, il s'agit d'un téléphone sans la mise à jour de la puce Tensor , avec un design quasiment inchangé et un positionnement qui pourrait permettre au Pixel 9a de rester compétitif dans le cadre des promotions actuelles. Il semblerait donc que le Pixel 10a soit un produit très similaire au modèle précédent , en attendant une confirmation officielle précisant les choix de Google concernant son modèle de milieu de gamme. Reste à voir comment l'entreprise entend positionner ce nouveau smartphone dans sa stratégie pour 2026. (Lire la suite)
  •  

Test UBOAT (PS5) - Un portage console handicapé par sa jouabilité

Vous avez toujours rêvé de devenir commandant de sous-marin ? Grâce à UBOAT, c’est désormais possible sur PS5. Néanmoins, le portage de ce genre de jeux de gestion, né sur PC, a toujours été ambivalente sur consoles. D'un côté, on souhaite que tous puissent jouer à ce genre de titres ; de l'autre, il est difficile de les adapter à la manette. UBOAT représente pour une petite partie du public le Graal des simulations. Comme son nom l'indique, on se retrouve aux commandes d'un sous-marin allemand, dans le rôle du capitaine, pour accomplir diverses missions inspirées de faits historiques réels . Le menu initial permet de choisir le défi à relever, après avoir pris connaissance d'une brève description de chacun. Comme si cela ne suffisait pas, pour adapter l'expérience à chaque type de joueur, UBOAT propose non pas un, mais deux niveaux de difficulté. Nous pouvons ainsi choisir le niveau de difficulté du défi et le degré d'assistance nécessaire à l'équipage. Car, heureusement, nous ne serons pas seuls aux commandes du sous-marin ! Nous pourrons compter sur une équipe soudée, prête à se surpasser pour nous . À condition, bien sûr, que nous soyons capables de répondre à leurs besoins et de maintenir une bonne ambiance. Il est difficile de parler à la légère des mécaniques d'UBOAT. En effet, le jeu de Deep Water Studios n'est pas conçu pour offrir une expérience simpliste, mais bien une simulation réaliste de la vie sous-marine. Notre UBOAT sera truffé de machines, de leviers et de paramètres à surveiller. Il nous faudra planifier nos itinéraires, nous méfier des ennemis, et même les surprendre et les abattre à la torpille . Nous pourrons également nous déplacer dans la structure en vue subjective et gérer certains éléments manuellement, ou les confier à l'équipage. (Lire la suite)
  •  

La mise à jour Android 16 de janvier apporte des correctifs pour la batterie et l'affichage

Le cycle de mises à jour de 2026 débute avec la mise à jour de sécurité de janvier pour Android 16 QPR2 , déployée sur un grand nombre d' appareils Pixel . Cette mise à jour apporte des correctifs qui affectent principalement la gamme Pixel 10 , notamment l'affichage , les performances graphiques et la réactivité de l'écran tactile . Cette mise à jour apporte également des correctifs utiles aux anciens modèles, comme la résolution des problèmes de consommation anormale de la batterie sur les Pixel 8 et versions ultérieures. Google a déployé la nouvelle version de janvier pour tous ses principaux modèles, du Pixel 7a au tout dernier Pixel 10 Pro Fold , avec des variantes spécifiques pour les régions Global , EMEA , Japon et Verizon . Chaque appareil reçoit le numéro de version BP4A.260105.004 , décliné ensuite en différents suffixes selon le marché. Le package inclut un correctif de sécurité unique daté du 5 janvier 2026 , mais l'essentiel de la mise à jour réside dans des améliorations fonctionnelles et des correctifs dédiés à des composants individuels. La série Pixel 10 bénéficie de trois améliorations au niveau de l'écran et des graphismes. Google améliore les performances du GPU dans des conditions spécifiques et résout le problème des lignes parasites qui apparaissaient lors de l'édition de photos HDR dans l' application Adobe Lightroom . Sur les modèles Pixel 10 , la société corrige également le comportement de l' écran toujours allumé , qui présentait parfois un scintillement gênant . Cette même gamme corrige aussi le dysfonctionnement aléatoire de l' écran tactile , qui pouvait cesser de fonctionner dans certaines circonstances. La série Pixel 8 et les modèles ultérieurs bénéficient quant à eux d'un correctif dédié à la consommation anormale de la batterie , un problème signalé dans certaines conditions et désormais résolu. Google apporte également une modification à la section audio, en éliminant les tonalités de retour sonores fortes que certains utilisateurs rencontraient lors des appels Webex . Cette mise à jour corrige également un problème de l' application Fonds d'écran et Styles : la suppression d'un fond d'écran Live Universe pouvait entraîner le blocage de l'application jusqu'au redémarrage de l'appareil. Le correctif rétablit le bon fonctionnement de l'application dans tous les cas signalés. Le correctif de janvier renforce la stabilité générale des appareils compatibles et résout certains problèmes potentiels pour les utilisateurs quotidiens des derniers modèles Pixel. Mais surtout, comme nous l'avons constaté récemment , la sécurité est primordiale , même sans nouvelles fonctionnalités majeures. Ceux qui le peuvent devraient effectuer la mise à jour sans hésiter. (Lire la suite)
  •  

Google restreint l'IA : les aperçus de l'IA sont retirés des recherches Santé en raison de trop nombreux bugs.

Google fait marche arrière sur le sujet de la santé. Dans une décision qui marque un tournant pour l'intelligence artificielle dans le secteur médical , le géant Google a commencé à supprimer les synthèses générées par l'IA des résultats de recherche pour de nombreuses affections et symptômes médicaux. Cette décision fait suite à une enquête qui a mis au jour de graves erreurs , des conseils potentiellement mortels et des « hallucinations » sur des questions cruciales telles que les diagnostics de cancer et les résultats d'analyses sanguines . Depuis le 12 janvier, les utilisateurs qui recherchent des informations sur des affections médicales spécifiques sur Google ne voient plus l'encadré coloré « Aperçu IA » en haut de la page de résultats de recherche (SERP). Le moteur de recherche affiche à nouveau les liens bleus classiques vers des sites de référence et des sources médicales vérifiées. Cette suppression discrète mais radicale est une réponse directe à une enquête approfondie (menée par The Guardian ) qui a révélé que l'algorithme de Gemini fournissait des réponses non seulement inexactes, mais aussi activement dangereuses . Google a implicitement confirmé le problème en désactivant la fonctionnalité pour des requêtes spécifiques telles que celles portant sur les valeurs hépatiques ou certaines pathologies cancéreuses , admettant qu'en matière de santé, la synthèse probabiliste d'un Large Language Model (LLM) ne saurait remplacer la précision clinique. Mais quelles étaient donc ces erreurs si graves que Mountain View a dû interrompre le système ? Les rapports concernent des cas où l’IA n’a pas su comprendre le contexte médical , fournissant des données brutes sans les nuances nécessaires. - Prenons l'exemple des analyses hépatiques : interrogée sur les valeurs normales des analyses hépatiques, l'IA a fourni une liste de chiffres « standards » sans tenir compte de facteurs déterminants tels que l'âge, le sexe ou l'origine ethnique. De nombreux utilisateurs se sont ainsi crus, à tort, en bonne santé (fausse assurance) ou malades, ignorant la complexité de l'interprétation médicale. - Conseils erronés sur le cancer : le cas du cancer du pancréas est encore plus grave. L’IA préconisait aux patients d’éviter les aliments gras ou riches en calories, un conseil diamétralement opposé aux recommandations médicales pour cette maladie spécifique, qui préconisent un régime alimentaire riche afin de lutter contre la fonte musculaire. - La banalisation de la santé mentale : dans le domaine de la psychologie, l’IA a eu tendance à minimiser les symptômes graves des troubles alimentaires ou de la psychose, suggérant des stratégies d’« auto-assistance » inefficaces au lieu d’orienter immédiatement les personnes vers un spécialiste. Des experts du British Liver Trust et de l' association caritative Marie Curie ont qualifié ces résultats de « dangereux et alarmants », soulignant comment un patient vulnérable pourrait prendre pour argent comptant des conseils algorithmiques erronés. Le nœud du problème réside dans la nature même de l'IA générative. Des modèles comme Gemini sont conçus pour prédire le mot le plus probable suivant dans une phrase, et non pour vérifier la véracité factuelle d'un concept médical. Ce phénomène, appelé hallucination , devient crucial dans le secteur du marketing digital . Une étude récente de l'Université de Pennsylvanie a révélé que près de 80 % des adultes recherchent leurs symptômes en ligne et, fait inquiétant, que deux tiers des utilisateurs font confiance aux résultats générés par l'IA en raison de leur présentation assurée et autoritaire. L'IA n'hésite pas, même lorsqu'elle se trompe, et ce biais d'autorité rend les erreurs de Google Medicine si insidieuses. La suppression des résultats de recherche basés sur l'IA pour les requêtes de santé représente une excellente nouvelle pour le secteur de l'édition médicale et pour le référencement naturel . Ces derniers mois, des sites comme WebMD, la Mayo Clinic ont constaté une baisse de leur trafic organique, cannibalisé par les réponses « zéro clic » de Google. Avec le retour de la recherche Google sans IA pour ces sujets, le trafic se dirige à nouveau vers les sources originales. Pour les créateurs de contenu, cela confirme une règle fondamentale : l’autorité (EEAT – Expérience, Expertise, Fiabilité, Intégrité) est le seul véritable rempart contre les fluctuations de l’IA. Google a, en quelque sorte, admis que la santé requiert la signature d’un médecin, et non le calcul d’un algorithme. Pour les utilisateurs finaux, ce changement implique un retour à une recherche plus approfondie. Si une IA médicale fiable est un objectif futur pour Google (qui travaille sur des modèles spécifiques comme Med-Gemini), la prudence est de mise aujourd'hui. Si vous rencontrez encore des résumés générés par l'IA pour des requêtes médicales complexes (éventuellement formulés différemment), nous vous recommandons de les ignorer ou de les consulter immédiatement en cliquant sur les liens ci-dessous. La technologie est un outil extraordinaire, mais en matière de santé, les « consultations » par l'IA ne sont pas encore prêtes à remplacer l'avis d'un expert humain . Et peut-être que ça n'arrivera jamais. (Lire la suite)
  •  

L'Iran a brouillé l'internet d'Elon Musk. Blocage sans précédent de Starlink

Le gouvernement iranien a considérablement renforcé son contrôle sur les communications numériques en déployant des systèmes de brouillage de signaux de qualité militaire. Sa cible est le réseau satellitaire Starlink, qui, ces dernières années, a constitué l'un des rares moyens d'accéder à Internet malgré les blocus imposés par le gouvernement. L'ampleur de l'opération témoigne d'un changement radical dans l'approche du régime en matière de censure et de contrôle de l'information. Les premiers signes de perturbations de la connectivité Starlink en Iran ont affecté environ un tiers du trafic réseau. En quelques heures, la situation s'est rapidement dégradée, avec des interruptions dépassant les 80 %. Dans de nombreuses régions, les utilisateurs ont perdu l'accès à Internet par satellite presque simultanément, sans aucun signe préalable de restrictions locales. Les précédentes tentatives de l'Iran pour interférer avec Starlink ont ​​eu un impact bien moindre. Lors des manifestations qui ont suivi la mort de Mahsa Amini en 2022, les autorités ont brouillé les signaux GPS dans certaines zones de villes comme Téhéran et Ispahan. Cette mesure s'est accompagnée du blocage du site web de Starlink et d'un renforcement de la censure des médias étrangers. Starlink repose sur un positionnement précis et une synchronisation temporelle grâce aux signaux GPS. Des perturbations à ce niveau ont entraîné une fragmentation de l'accès au réseau et la création de zones de connectivité irrégulières et éphémères. Concrètement, cela s'est traduit par la déconnexion totale de nombreux quartiers, même là où Starlink fonctionnait auparavant de manière stable. La panne du réseau Starlink a coïncidé avec des coupures internet généralisées à travers le pays. NetBlocks a indiqué que la panne a duré plus de 60 heures, l'activité du réseau en Iran chutant à environ 1 % de son niveau normal. Il s'agit de l'une des plus graves pannes numériques de l'histoire du pays. L'utilisation de systèmes de brouillage de qualité militaire étend considérablement la stratégie de contrôle de l'information de l'Iran, bien au-delà du blocage traditionnel de sites web et du filtrage de contenu. Starlink est longtemps resté le dernier recours pour les journalistes, les militants et les citoyens ordinaires lorsque les autorités coupaient leurs réseaux. Cette opération actuelle démontre la détermination du régime à éliminer même ces canaux alternatifs. Des gouvernements ont déjà tenté de perturber le réseau Starlink, mais aucun n'est parvenu à le paralyser efficacement à l'échelle nationale. L'action de l'Iran est considérée comme le premier cas connu de perturbation aussi efficace et généralisée d'un réseau internet par satellite par des moyens militaires. Depuis 2022, les unités de guerre électronique russes ont tenté à plusieurs reprises de perturber le fonctionnement de Starlink en Ukraine. Ces attaques ont consisté à brouiller les signaux GPS et à interférer avec la bande de fréquence Ku utilisée par le système. Ces actions, confirmées par les autorités ukrainiennes et par Elon Musk, ont entraîné des interruptions de service et des pertes de paquets de données ponctuelles. Cependant, ces perturbations sont restées localisées et limitées aux zones d'opérations militaires actives. SpaceX a réagi à ces menaces en déployant des mises à jour logicielles permettant aux terminaux Starlink de s'adapter aux tentatives de brouillage. Grâce à cela, le système en Ukraine a pu rester opérationnel malgré une pression électronique constante. Cependant, l'opération iranienne démontre que des actions coordonnées à grande échelle peuvent pousser les infrastructures satellitaires au-delà de leurs limites actuelles. (Lire la suite)
  •  

Windows 11 est désormais plus lent, mais plus sécurisé. Microsoft introduit HMAC.

Depuis des années, Microsoft s'efforce de se forger une image d'entreprise qui renforce constamment la sécurité de Windows. Un élément clé de cette stratégie est un cycle de mises à jour mensuelles, déployé le deuxième mardi du mois, appelé Patch Tuesday. C'est à ce moment-là que des correctifs sont distribués aux systèmes des utilisateurs, éliminant les vulnérabilités qui, entre les mains de cybercriminels, pourraient ouvrir la voie à de graves failles de sécurité. En novembre 2025, Microsoft a dévoilé l'une des évolutions les plus importantes de ces dernières années. Les mises à jour Windows 11 25H2 et Windows Server 2025 ont introduit un nouveau mécanisme de sécurité pour le pilote du système de fichiers de journalisation commun (CLFS). Cette mesure de sécurité consiste à ajouter des codes d'authentification cryptographiques basés sur HMAC aux fichiers journaux afin de les protéger contre tout accès non autorisé. HMAC (Hash-based Message Authentication Code) est un mécanisme cryptographique éprouvé permettant de garantir l'intégrité et l'authenticité des données. Concrètement, il consiste à lier les données à une clé cryptographique secrète et à une fonction de hachage. Grâce à cette même clé, le destinataire peut vérifier que le contenu n'a pas été altéré. Dans le cas des fichiers journaux système, cela offre une protection efficace contre toute manipulation silencieuse. D'après les informations fournies par Microsoft, les codes d'authentification sont générés à partir des données des fichiers et d'une clé cryptographique unique attribuée à chaque système. Cette clé est stockée dans le registre et accessible uniquement aux comptes SYSTEM et administrateur. En cas d'anomalie, le fichier journal n'est pas ouvert et toute tentative de manipulation est bloquée au niveau du système. Le système de fichiers de journalisation commun (CLFS) est un mécanisme de journalisation des événements polyvalent et très efficace, utilisé aussi bien par les applications utilisateur que par les composants du noyau. Son architecture est conçue pour garantir la fiabilité des transactions, les diagnostics et la récupération après incident. Cependant, au fil des ans, le CLFS a été régulièrement exploité lors d'attaques d'élévation de privilèges, ce qui en fait une cible fréquente pour les chercheurs en sécurité. Microsoft entend néanmoins combler définitivement cette faille grâce à HMAC. Pour limiter les risques de dysfonctionnements suite à la mise en place du nouveau mécanisme, Microsoft a instauré une phase d'apprentissage de 90 jours. Durant cette période, le système ajoute automatiquement des codes d'authentification aux fichiers journaux existants lors de leur ouverture. À l'issue de cette période, CLFS passe en mode de contrôle d'accès, exigeant que chaque fichier journal contienne un code d'authentification valide pour être traité. L'entreprise recommande aux administrateurs informatiques d'examiner attentivement leurs environnements CLFS et de consulter régulièrement les fichiers journaux pendant la phase d'apprentissage. Si cela s'avère impossible, ils doivent utiliser l'outil en ligne de commande `fsutil clfs authenticate`, qui leur permet d'ajouter manuellement des codes d'authentification aux fichiers les plus anciens. Cette nouvelle mesure de sécurité s'accompagne d'exigences techniques supplémentaires. Les codes d'authentification occupent de l'espace dans les fichiers journaux, et cet espace augmente avec la taille du conteneur. Pour les plus petits fichiers de 512 Ko, la surcharge est d'environ 8 Ko ; pour les fichiers de 1 Mo, elle dépasse 12 Ko, tandis que pour les conteneurs de 10 Mo, environ 90 Ko de données supplémentaires sont nécessaires. Pour les fichiers de 100 Mo, la surcharge dépasse 57 Ko, et pour les conteneurs de 4 Go, elle atteint plus de 2 Mo. Microsoft reconnaît également que la prise en charge de HMAC entraîne une augmentation des opérations d'E/S, une augmentation significative des temps de création et d'ouverture des fichiers journaux, ainsi qu'un ralentissement notable de l'écriture des enregistrements, le temps moyen doublant. Des informations détaillées sur l'authentification CLFS et les aspects techniques du nouveau mécanisme sont publiées dans la documentation officielle de Microsoft, dans l'article de support KB5056852. Sa lecture est indispensable pour les administrateurs. (Lire la suite)
  •  

Les nouvelles cartes graphiques AMD ne seront pas commercialisées avant 2028.

Selon certaines rumeurs, la prochaine génération de cartes graphiques gaming d'AMD, basée sur l'architecture RDNA 5, devrait être lancée après la série RTX 60 de NVIDIA. L'attente s'annonce donc longue. Des mises à jour mineures des solutions existantes sont possibles, mais compte tenu de la crise actuelle du marché de la mémoire, même cette option semble improbable. D'après l'initié Kepler_L2, AMD envisagerait de retarder la sortie de ses nouvelles cartes graphiques, car cela n'aurait aucun intérêt. Il avait été précédemment annoncé que les cartes graphiques AMD de nouvelle génération, basées sur l'architecture RDNA 5, seraient fabriquées avec le procédé N3P de TSMC et lancées vers mi-2027. Puis, des informations ont circulé concernant la prochaine série RTX 60 de NVIDIA, nom de code Rubin, prévue pour le second semestre 2027, probablement vers la fin de l'année. Selon les données Kepler_L2, AMD lancera ses GPU après la série RTX 60, soit début 2028. Cette décision s'expliquerait par les marges de NVIDIA. Même si AMD tente une stratégie de prix agressive et arrive en tête, NVIDIA peut se permettre de baisser ses prix et de compenser. Dans ce cas de figure, NVIDIA pourrait lancer ses cartes graphiques à un prix comparable, voire inférieur, sur les segments grand public et haut de gamme, tout en reconquérant son statut de produit phare, comme c'est le cas depuis la GTX 980 Ti. AMD souhaite inverser cette tendance. (Lire la suite)
  •  

Intel est prêt à conquérir le marché des consoles portables.

Lors du CES 2026, Intel a confirmé son intention de s'imposer sur le marché des consoles portables avec les processeurs Panther Lake. Si les précédentes gammes de processeurs Intel, notamment Meteor Lake et Lunar Lake, étaient déjà présentes dans certaines consoles portables, aucune n'avait pu rivaliser directement avec la vaste gamme de processeurs AMD série Z. Bien que Lunar Lake ait permis le lancement de quelques appareils notables, comme la MSI Claw, Intel semble opérer un changement radical dans son approche du segment des consoles portables avec la sortie de Panther Lake. Comme annoncé au CES 2026, Panther Lake constituera la pierre angulaire de la stratégie d'Intel dans l'écosystème des consoles portables. Outre la gamme standard Core Ultra Series 3, l'entreprise proposera des versions spécialisées des processeurs Panther Lake, conçues spécifiquement pour les consoles portables. Intel devrait supprimer certains composants redondants de ces processeurs, tout en conservant des éléments clés tels que le nombre accru de cœurs graphiques Xe3, un nombre suffisant de cœurs CPU et, éventuellement, en éliminant complètement le NPU. Cette approche permettra à la puce de fonctionner exclusivement dans son domaine de prédilection et d'optimiser la puissance disponible pour les jeux. De son côté, AMD a très peu mis à jour son offre cette année, se limitant à la série Ryzen AI 400. Ses processeurs portables resteront donc globalement inchangés jusqu'à la sortie de Medusa Point l'année prochaine. (Lire la suite)
  •  

Les prix de la RAM vont encore augmenter.

Face à la pénurie, les prix de la mémoire continuent d'augmenter, et les entreprises d'encapsulation et de test annoncent désormais des hausses de tarifs pouvant atteindre 30 %. Powertech, Walton et ChipMOS sont responsables de l'encapsulation et des tests de la mémoire, tandis que Samsung, SK Hynix et Micron produisent la DRAM utilisée dans des produits tels que la DDR4, la DDR5 et la HBM. Ces entreprises assurent également les tests, la validation et l'assemblage des modules de mémoire finis avant leur expédition aux clients. Powertech est le principal partenaire de Micron pour l'encapsulation et les tests, tandis que Walton, filiale du groupe Walsin Lihwa, traite principalement les commandes de Winbond, également membre du même groupe. Face à l'afflux de puces mémoire livrées par Micron et Winbond, la demande en conditionnement et tests finaux a explosé, entraînant une forte hausse d'activité pour Powertech et Walton. Formosa Plastics, fournisseur de Nanya Technology, profite également de la situation. Mais même si vous ne connaissez pas ces entreprises, il n'y a pas lieu de s'inquiéter. L'important est que si les fabricants de puces mémoire ont augmenté leurs prix d'un tiers, ces coûts seront répercutés sur le consommateur final, qui subira une augmentation de 30 %. Et dans le contexte de la RAM, c'est une très mauvaise nouvelle, car la RAM est déjà extrêmement chère et les prix devraient encore augmenter. Ce sont des temps difficiles pour les joueurs PC. (Lire la suite)
  •  

Les Technos : Episode du 13 janvier

NAugbqTb788 (00:00:00) : • Baisse du nombre de questions sur StackOverflow (00:01:45) : Vers la fin des forums de Questions Réponses pour les devs suite à l'avancée des IA? (Sources : techzine.eu (https://www.techzine.eu/news/devops/1...) , 36kr.com (https://eu.36kr.com/en/p/362634863555...) et theverge.com (https://www.theverge.com/podcast/8440...) ) • Et si on faisait tourner Windows, sur Linux? (00:19:46) : Et Loss32 est né. (Sources : theregister.com (https://www.theregister.com/2026/01/0...) et loss32.org (https://loss32.org/) ) • Michelin acquiert 2 entreprises aux USA (00:27:41) : Michelin s'éloigne du pneu pour booster sa croissance. (Sources : lamontagne.fr (https://www.lamontagne.fr/clermont-fe...) et boursorama.com (https://www.boursorama.com/bourse/act...) ) • CES: Huyndai va équiper ses usines des robots Atlas (00:38:19) : Avec le robot Atlas de Boston Dynamics, le robot devient un acteur économique réel. (Sources : bostondynamics.com (https://bostondynamics.com/blog/bosto...) , numerama.com (https://www.numerama.com/tech/2154001...) et 01net.com (https://www.01net.com/actualites/atla...) ) • Peppol, un acronyme qui empêche la Belgique de dormir (00:52:21) : Simplification ou outil de contrôle? (Source : levif.be (https://datanews.levif.be/actualite/b...) ) • Rob Pike dit ses vérités à l'IA (01:13:18) : L'un des pionniers s'inquiète de l'avenir de l'informatique. (Source : developpez.com (https://intelligence-artificielle.dev...) ) Retrouvez toutes nos informations, liens, versions du podcast via notre site (https://lestechnos.be) (Lire la suite)
  •  

La Nintendo Switch est sur le point de devenir la deuxième console la plus vendue de tous les temps.

La Nintendo Switch s'apprête à franchir une étape historique qui la consacrera comme l'une des consoles les plus importantes de tous les temps : après des années de ventes soutenues et une longévité exceptionnelle, la plateforme hybride de Nintendo est sur le point de surpasser une icône absolue comme la Nintendo DS . L'annonce officielle est imminente, mais les chiffres parlent déjà d'eux-mêmes. La prochaine publication des résultats financiers de l'entreprise marquera un moment symbolique pour l'ensemble du secteur, puisque, selon les dernières données disponibles, la Switch a atteint 154,01 millions d'unités vendues dans le monde, égalant quasiment le chiffre de la Nintendo DS et ses 154,02 millions d'unités . Un écart minime, qui a très probablement été comblé dans les mois à venir. Le 3 février, Nintendo publiera ses nouveaux résultats financiers et confirmera officiellement son record, faisant de la Switch la plateforme la plus vendue de l'histoire de la firme japonaise. Cet exploit est d'autant plus remarquable qu'il surpasse une console qui a marqué son époque grâce à des fonctionnalités novatrices comme le double écran, l'écran tactile et le stylet. La Switch, quant à elle, a bâti son succès sur un concept différent mais tout aussi révolutionnaire : sa nature hybride, combinant jeu portable et console de salon, un catalogue multiplateforme et une durée de vie exceptionnellement longue. Il reste à voir si la Nintendo Switch peut aller encore plus loin. Seule la PlayStation 2 la devance encore au classement mondial des consoles les plus vendues de tous les temps, avec environ 160 millions d'unités écoulées. L'écart n'est pas hors de portée, mais il dépendra de la capacité de la Switch à maintenir ses ventes malgré son matériel plus ancien et l'intérêt croissant de Nintendo pour la prochaine génération de consoles. (Lire la suite)
  •  

Siri fait peau neuve grâce à Google Gemini : le contrat d’un milliard de dollars est désormais une réalité.

La collaboration entre Apple et Google entre dans une nouvelle phase avec l'arrivée de Gemini au cœur de la prochaine génération de Siri , une évolution majeure qui marque un tournant dans leurs stratégies de développement internes. L'intégration sera disponible courant 2026, à une date encore indéterminée. La confirmation vient d'Apple, via un communiqué publié sur CNBC , qui clarifie l'orientation technologique choisie par l'entreprise et donne forme à des mois de rumeurs concernant les négociations entre les deux sociétés. Apple affirme avoir choisi Google Gemini après une évaluation approfondie, le considérant comme la plateforme la plus adaptée aux modèles de la Fondation Apple . Cette décision marque un tournant majeur dans l'organisation technique des services d'intelligence artificielle présents dans les appareils Apple. Cet accord s'inscrit dans le cadre d'un contrat pluriannuel et prévoit la mise en service des premières fonctionnalités dès cette année. Selon les médias américains, la transaction est évaluée à environ un milliard de dollars , bien que les détails financiers ne soient pas communiqués officiellement. D'après les informations disponibles, Google développe pour Apple un modèle à 1 200 milliards de paramètres , un projet d'une envergure dépassant les capacités des modèles internes de l'entreprise. Malgré cela, Apple reste activement impliquée : certaines fonctionnalités de Siri continueront de s'appuyer sur des modèles propriétaires , tandis que des tâches comme la synthèse et les outils d'organisation seront transférées vers Gemini. Un autre aspect important concerne l'infrastructure . Le modèle ne fonctionnera pas sur les serveurs de Google , mais sur ceux d' Apple , un élément qui a un impact direct sur la gestion des données et le contrôle de l'environnement d'exploitation. Les sociétés ont publié un bref commentaire public sur l'accord, en plus de la déclaration partagée avec CNBC, précisant que l'accord garantira l'arrivée de fonctionnalités dans les prochains mois et confirmant la nature opérationnelle de l'initiative. Et avec cette initiative, Gemini, bien que sous un nom différent, acquiert une pièce importante dans la lutte contre ChatGPT , qui était jusqu'à présent lié à Apple pour ses fonctions d'intelligence artificielle . De fait, le monde des smartphones devient le domaine exclusif des modèles Gemini, aussi bien sur Android que sur iOS, ce qui représente une victoire significative pour Google , qui semble de plus en plus s'imposer comme le roi de l'IA dans un avenir proche. Du moins jusqu'à la prochaine révolution. (Lire la suite)
  •  
❌