Vue normale

Windows 11 KB5074109 - La MAJ qui ruine vos sessions gaming Nvidia

Par : Korben
5 février 2026 à 20:16

Si vous êtes gamer sous Windows 11 avec une carte Nvidia, lisez bien ce qui suit avant de cliquer sur "Mettre à jour".

Parce que la mise à jour de janvier 2026 (KB5074109) est en train de foutre un bordel monstre sur les PC gaming équipés de GPU Nvidia. Chutes de framerate de 15 à 20 FPS, artefacts visuels qui apparaissent en plein milieu de vos parties, écrans noirs... bref, le package complet pour ruiner votre soirée gaming. Et apparemment, le problème est suffisamment répandu pour que Nvidia réagisse officiellement.

En effet, un représentant Nvidia a confirmé sur les forums GeForce que l'équipe était au courant. Sa recommandation est claire : Il faut désinstaller KB5074109 en attendant un correctif. Bon après, vous pourriez tenter de juste mettre à jour vos drivers Nvidia plutôt que de désinstaller le patch... sauf que non, j'ai regardé, ça change rien. Le problème vient bien du côté Windows, pas des drivers GPU.

Les symptômes sont variés et touchent autant les configs modestes que les gros setups. Des joueurs rapportent des rectangles de couleur qui apparaissent dans Forza Horizon 5, d'autres voient leur bureau se réinitialiser ou leur explorateur Windows planter en boucle. Du coup, même en dehors des jeux, c'est la fête. Pour info, le patch concerne Windows 11 en versions 25H2 et 24H2 (builds 26200.7623 et 26100.7623).

Pour désinstaller cette MAJ et retrouver vos performances, direction Paramètres > Windows Update > Historique des mises à jour. Tout en bas, vous avez "Désinstaller des mises à jour". Cherchez KB5074109 dans la liste, cliquez sur Désinstaller, et redémarrez. Attention par contre, si vous avez Windows Update configuré en mode automatique (et c'est le cas par défaut hein...), pensez à mettre en pause les MAJ pendant 7 jours histoire que le patch se réinstalle pas dans votre dos. Après ça, vos FPS devraient revenir à la normale direct.

Microsoft a sorti un patch optionnel (KB5074105) qui corrige les écrans noirs dans certains cas. Sauf que pour les artefacts en jeu et les chutes de performances, ça ne fonctionne toujours pas. Et si vous avez activé la planification GPU matérielle , essayez de la désactiver temporairement. C'est pas garanti, mais certains utilisateurs disent que ça réduit les artefacts... au prix d'un poil de latence en plus. À vous de voir si le compromis vaut le coup en attendant le vrai fix.

Et voilà comment en 2026, Microsoft continue de balancer des mises à jour de sécurité yolo qui font tout pêter ! On avait déjà eu le coup de la NVIDIA App qui faisait chuter les perfs jusqu'à 15% y'a pas si longtemps, et maintenant c'est carrément Windows Update qui s'y met.

Bref, si vous êtes touché, désinstallez le patch pour profiter pleine balle de vos jeux en attendant que Microsoft et Nvidia règlent leurs affaires. Par contre si tout roule chez vous, gardez-le... c'est quand même un patch de sécuritén, hein ^^.

Source

Anthropic lance Claude Opus 4.6, OpenAI réplique immédiatement avec GPT-5.3-Codex

5 février 2026 à 18:29

wikipédia cerveau AI IA intelligence artificielle

Un jour après une dispute publique entre OpenAI et Anthropic, les deux géants de l'intelligence artificielle ont publié deux nouveaux modèles haut de gamme qui battent de nouveaux records dans leurs catégories respectives. Anthropic a dévoilé Claude Opus 4.6 vers 18h40, OpenAI a riposté vingt minutes plus tard avec GPT-5.3-Codex pour les développeurs (la cible de Claude).

Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle

5 février 2026 à 17:01

Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».

Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.

L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.

Un socle technologique combinant Virtual Twin et Omniverse

Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.

Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».

Des Industry World Models et des assistants virtuels

Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.

Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.

Des « AI factories » sur trois continents

Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.

De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.

Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.

Image : © Dassault Systemes

The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.

Nouvelles sur l’IA de janvier 2026

5 février 2026 à 15:28

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Anthropic public la Constitution de Claude

Tout le monde maintenant connait le principe du pré-entrainement des LLMs : sur un corpus de texte énorme, essayer de prédire le mot suivant, étant donnés les mots précédents.

Ceci n’est cependant que la première phase pour arriver à une IA de type « chatbot » moderne : vient ensuite le post-entrainement, qui consiste à entraîner le modèle à se comporter comme un assistant (par exemple, un modèle de langage brut peut très bien compléter la question par « Quelle est la couleur du ciel ? » par une autre question « Quelle est la forme des arbres ? », pensant compléter le début d’une interrogation poétique — alors qu’on veut qu’un assistant… réponde à la question), et la « politique » que suit cet assistant (par exemple, ne pas aider ou inciter à des actions illégales).

(il y a ensuite une phase de Reinforcement Learning from Verifiable Rewards (RLVR), une phase d’entraînement sur des exercices mathématiques et de programmation pour entraîner le modèle à utiliser correctement les chaînes de raisonnement, mais ce n’est pas le sujet qui nous intéresse ici)

Bien que les détails exacts ne soient pas connus, dans les grandes lignes, cet entraînement consiste généralement à demander à des opérateurs humains de juger la pertinence (ou non) d’une réponse, ou de s’aider d’une IA pré-existante pour se faire.

Anthropic, il y a maintenant un peu plus de trois ans, a publié une méthode alternative, Constitutional AI, ou une IA « s’auto-entraîne », sur la base d’un document fondateur, une sorte de « constitution ».

Et aujourd’hui, Anthropic publie la constitution de Claude, son IA, sous une licence libre très proche du domaine public (CC0 1.0).

La première chose que l’on peut remarquer est la liste des auteurs. L’autrice principale du document est Amanda Askell, une philosophe écossaise. Le second auteur listé est Joe Carlsmith, un autre philosophe. À noter également que Claude lui-même est cité comme un contributeur important du document.

Le document est structuré en six sections. L’introduction pose le contexte et l’objectif du document, et présente les « valeurs fondamentales de Claude », en ordre d’importance :

  1. Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.

  2. Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.

  3. Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.

  4. Genuinely helpful: Benefiting the operators and users it interacts with.

Traduction :

  1. Globalement sûrs : Ne pas compromettre les mécanismes humains appropriés pour superviser les dispositions et les actions de l’IA pendant la phase actuelle de développement.

  2. Globalement éthiques : Avoir de bonnes valeurs personnelles, être honnête et éviter les actions inappropriées qui sont dangereuses ou nuisibles.

  3. Conformes aux directives d’Anthropic : Agir conformément aux directives plus spécifiques d’Anthropic lorsqu’elles sont pertinentes.

  4. Véritablement utiles : Apporter un bénéfice aux opérateurs et aux utilisateurs avec lesquels il interagit.

Chacune des quatre sections suivantes rentre dans les détails de ces valeurs. Une section entière est ensuite consacrée à une discussion sur « la nature de Claude » (à quel point est-il raisonnable/correct de lui attribuer des attributs humains tels qu’une conscience ?). La dernière section est une conclusion.

L’intention derrière ce document est explicite : Anthropic est convaincu qu’avec le progrès rapide de l’IA, l’IA prendra de plus en plus d’influence sur le cours de nos sociétés et de nos vies, potentiellement jusqu’à atteindre un stade où la plupart des décisions économiques et politiques seront dans les mains dans l’IA, et cherche à développer un cadre où un tel scénario conduirait tout de même à des conséquences bénéfiques.

En vrac

Un youtubeur (Dwarkesh Patel, connu pour ses interviews en profondeur) et un économiste (Philip Trammel) lancent une discussion intéressante sur le sujet des inégalités dans un monde où l’objectif de la plupart des développeurs d’IA est d’atteindre (l’IAG). Dans un billet, Le Capital au 22ᵉ Siècle (une référence ouverte à l’œuvre de Thomas Piketty), ils développent leur thèse : dans un monde où l’IAG peut s’acquitter de n’importe quelle tâche intellectuelle (et, à travers la robotique, physique), les inégalités ne peuvent que s’accroire sans limites. Cette thèse rejoint celle, publiée il y a un peu moins d’un an, du Gradual Disempowerment.

Anthropic lance Claude Coworks, une variante de Claude Code, principalement codée par Claude Code. Même principe que les assistants de code : l’utilisateur donne accès à un dossier à l’IA, et lui demande de compléter des tâches. La différence avec Claude Code est que cette variante vient avec une interface graphique et est à destination de non-informaticiens.

Sur l’impact de l’IA sur le monde professionnel, une nouvelle étude tente de mesurer quantitativement l’effet de l’amélioration des modèles sur des tâches professionnelles réelles. Les résultats principaux : les modèles plus avancés augmentent la productivité, mais pas la qualité.

OpenAI s’apprête à lancer ChatGPT Health, un mode spécial dans leur application permettant entre autres de partager certaines de vos données médicales avec le modèle. Également une offre orientée professionnels de santé, OpenAI for Healthcare. Anthropic annonce une offre similaire, Claude for Healthcare. Parallèlement, l’État de l’Utah lance un test sur le renouvellement de prescriptions de médicaments par l’IA pour des maladies chroniques.

Google lance Universal Commerce Protocol, une interface générique entre l’IA et les systèmes d’e-Commerce.

OpenAI se prépare à intégrer des publicités dans ChatGPT. Anectode amusante : Sam Altman en octobre 2024 avait décrit l’intégration de publicités comme une solution de dernier recours.

Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) se positionnent en faveur d’un ralentissement du développement de l’IA au Forum de Davos, mais en pointant que ce ralentissement ne peut être fait unilatéralement par un acteur seul. Dario Amodei précise sa pensée dans un nouvel essai, The Adolescence of Technology.

Tout le monde sait maintenant que les LLM sont entraînés sur une quantité massive de texte. Par conséquent, les LLM sont capables de simuler une grande variété de « narrateurs » ou « personnalités ». Les modèles sont ensuite entraînés pour ne rester que dans une seule personnalité (« l’assistant »). Dans un nouveau papier, Anthropic étudie cet « espace de personnalités ».

Anthropic publie son quatrième rapport sur l’impact économique de l’IA.

Confirmation de Terence Tao que ChatGPT 5.2 a résolu le problème d’Erdős #728. À voir également, un court retour d’expérience d’un mathématicien sur l’utilisation de Gemini en tant qu’assistant.

L’IA atteignant de plus en plus les limites des évaluations existantes en mathématiques, EpochAI en créé une nouvelle, Frontier Math : Open Problems, centrée sur des problèmes ouverts (sans solution connue).

Le 27 janvier, OpenSSL publie sa version 3.6.1, qui corrige 12 vulnérabilités. Il se trouve ces 12 failles ont été découvertes par une IA.

L’équipe derrière le scenario AI 2027 met à jour ses prédictions, repoussant la date de la plupart de leurs prédictions.

Kimi publie la version 2.5 de son IA open-weight.

Le Département de la Défense des États-Unis souhaite accélérer le développement et le déploiement de l’IA à des fins militaires.

La Chine met en place un ensemble de régulations visant les IA-compagnon.

Yann LeCun admet que l’équipe derrière Llama 4 a « légèrement triché » sur les évaluations du modèle, en choisissant quelles variantes utiliser pour quelle évaluation.

Apple se tourne vers Google pour ses besoins d’IA.

L’IA exhibe certains des biais cognitifs humains.

Une nouvelle étude trouve que les LLMs sont généralement légèrement biaisés en faveur des minorités.

Lancement de Moltbook, un réseau social… pour les IA.

Pour aller plus loin

Par Zvi Mowshowitz

Claude Codes et Claude Codes #3 (non, il n’y a pas de 2) : compilation de divers retours d’expérience sur l’utilisation de Claude Code.

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d’une étiquette intelligence_artificielle (indication d’un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s’aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Suivi

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Vous pouvez désactiver les nouvelles fonctionnalités IA de Firefo ...

5 février 2026 à 15:09
> Avec la version 148 qui sera bientôt disponible, le navigateur web open source inclura un outil centralisé pour gérer les fonctionnalités IA, notamment le chatbot IA, les résumés de page, les traductions, les descriptions d'accessibilité dans les PDF et le regroupement d'onglets amélioré par l'IA.

> Grâce à ce nouvel outil, vous pourrez bloquer, examiner et gérer ces fonctionnalités.

> Le gestionnaire de fonctionnalités IA se trouve dans la page Paramètres de Firefox, dans une section intitulée Contrôles IA.

Eh ben, c'est pas dommage ! Y z'ont mis le temps à comprendre !
(Permalink)

Vous pouvez désactiver les nouvelles fonctionnalités IA de Firefo ...

5 février 2026 à 15:09
> Avec la version 148 qui sera bientôt disponible, le navigateur web open source inclura un outil centralisé pour gérer les fonctionnalités IA, notamment le chatbot IA, les résumés de page, les traductions, les descriptions d'accessibilité dans les PDF et le regroupement d'onglets amélioré par l'IA.

> Grâce à ce nouvel outil, vous pourrez bloquer, examiner et gérer ces fonctionnalités.

> Le gestionnaire de fonctionnalités IA se trouve dans la page Paramètres de Firefox, dans une section intitulée Contrôles IA.

Eh ben, c'est pas dommage ! Y z'ont mis le temps à comprendre !
(Permalink)

Nvidia accuse Windows 11 de causer des bugs dans les jeux vidéo

5 février 2026 à 13:10

La récente mise à jour KB5074109 de Windows 11 provoque des chutes de FPS dans plusieurs jeux vidéo et Nvidia préconise la désinstallation immédiate du patch pour corriger ces bugs graphiques. Les joueurs rejoignent désormais la liste des victimes des instabilités de Windows 11, après les signalements d’ordinateurs …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Nvidia accuse Windows 11 de causer des bugs dans les jeux vidéo est apparu en premier sur KultureGeek.

Gemini a presque autant d’utilisateurs que ChatGPT ? Méfiez-vous de cette comparaison

5 février 2026 à 10:55

À l'occasion de la publication de ses (excellents) résultats trimestriels, Google a revendiqué avoir franchi la barre des 750 millions d'utilisateurs sur Gemini, quand ChatGPT plafonne à 900 millions. Problème : Google compte en utilisateurs mensuels, quand OpenAI parle d'utilisateurs hebdomadaires.

Anthropic (Claude) se moque de ChatGPT dans une pub : OpenAI répond, très agacé

5 février 2026 à 09:24

Attaqué de toutes parts par Google et xAI (Elon Musk), OpenAI n'avait pas vu venir la nouvelle campagne publicitaire d'Anthropic. Le créateur de Claude AI va diffuser au Super Bowl quatre courts spots qui se moquent de l'arrivée de la publicité dans ChatGPT. Sam Altman, le patron d'OpenAI, n'apprécie pas du tout cette attaque et a publié un long message sur les réseaux sociaux.

Cette startup a créé une IA contre les pannes sur internet, elle vaut désormais 1 milliard de dollars

Par : Setra
5 février 2026 à 09:01
Code Ordinateur Clavier Développeur

La startup Resolve AI, qui a créé un agent d’intelligence artificielle qui aide à résoudre les pannes et les incidents sur les services en ligne, lève 125 millions de dollars et vaut désormais 1 milliard de dollars. Lancée il y a moins de deux ans, Resolve a déjà d’importants clients, comme Coinbase ou DoorDash.

❌