Vue normale

Windows 11 KB5074109 - La MAJ qui ruine vos sessions gaming Nvidia

Par : Korben
5 février 2026 à 20:16

Si vous êtes gamer sous Windows 11 avec une carte Nvidia, lisez bien ce qui suit avant de cliquer sur "Mettre à jour".

Parce que la mise à jour de janvier 2026 (KB5074109) est en train de foutre un bordel monstre sur les PC gaming équipés de GPU Nvidia. Chutes de framerate de 15 à 20 FPS, artefacts visuels qui apparaissent en plein milieu de vos parties, écrans noirs... bref, le package complet pour ruiner votre soirée gaming. Et apparemment, le problème est suffisamment répandu pour que Nvidia réagisse officiellement.

En effet, un représentant Nvidia a confirmé sur les forums GeForce que l'équipe était au courant. Sa recommandation est claire : Il faut désinstaller KB5074109 en attendant un correctif. Bon après, vous pourriez tenter de juste mettre à jour vos drivers Nvidia plutôt que de désinstaller le patch... sauf que non, j'ai regardé, ça change rien. Le problème vient bien du côté Windows, pas des drivers GPU.

Les symptômes sont variés et touchent autant les configs modestes que les gros setups. Des joueurs rapportent des rectangles de couleur qui apparaissent dans Forza Horizon 5, d'autres voient leur bureau se réinitialiser ou leur explorateur Windows planter en boucle. Du coup, même en dehors des jeux, c'est la fête. Pour info, le patch concerne Windows 11 en versions 25H2 et 24H2 (builds 26200.7623 et 26100.7623).

Pour désinstaller cette MAJ et retrouver vos performances, direction Paramètres > Windows Update > Historique des mises à jour. Tout en bas, vous avez "Désinstaller des mises à jour". Cherchez KB5074109 dans la liste, cliquez sur Désinstaller, et redémarrez. Attention par contre, si vous avez Windows Update configuré en mode automatique (et c'est le cas par défaut hein...), pensez à mettre en pause les MAJ pendant 7 jours histoire que le patch se réinstalle pas dans votre dos. Après ça, vos FPS devraient revenir à la normale direct.

Microsoft a sorti un patch optionnel (KB5074105) qui corrige les écrans noirs dans certains cas. Sauf que pour les artefacts en jeu et les chutes de performances, ça ne fonctionne toujours pas. Et si vous avez activé la planification GPU matérielle , essayez de la désactiver temporairement. C'est pas garanti, mais certains utilisateurs disent que ça réduit les artefacts... au prix d'un poil de latence en plus. À vous de voir si le compromis vaut le coup en attendant le vrai fix.

Et voilà comment en 2026, Microsoft continue de balancer des mises à jour de sécurité yolo qui font tout pêter ! On avait déjà eu le coup de la NVIDIA App qui faisait chuter les perfs jusqu'à 15% y'a pas si longtemps, et maintenant c'est carrément Windows Update qui s'y met.

Bref, si vous êtes touché, désinstallez le patch pour profiter pleine balle de vos jeux en attendant que Microsoft et Nvidia règlent leurs affaires. Par contre si tout roule chez vous, gardez-le... c'est quand même un patch de sécuritén, hein ^^.

Source

Anthropic lance Claude Opus 4.6, OpenAI réplique immédiatement avec GPT-5.3-Codex

5 février 2026 à 18:29

wikipédia cerveau AI IA intelligence artificielle

Un jour après une dispute publique entre OpenAI et Anthropic, les deux géants de l'intelligence artificielle ont publié deux nouveaux modèles haut de gamme qui battent de nouveaux records dans leurs catégories respectives. Anthropic a dévoilé Claude Opus 4.6 vers 18h40, OpenAI a riposté vingt minutes plus tard avec GPT-5.3-Codex pour les développeurs (la cible de Claude).

Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle

5 février 2026 à 17:01

Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».

Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.

L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.

Un socle technologique combinant Virtual Twin et Omniverse

Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.

Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».

Des Industry World Models et des assistants virtuels

Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.

Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.

Des « AI factories » sur trois continents

Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.

De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.

Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.

Image : © Dassault Systemes

The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.

Nouvelles sur l’IA de janvier 2026

5 février 2026 à 15:28

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Anthropic public la Constitution de Claude

Tout le monde maintenant connait le principe du pré-entrainement des LLMs : sur un corpus de texte énorme, essayer de prédire le mot suivant, étant donnés les mots précédents.

Ceci n’est cependant que la première phase pour arriver à une IA de type « chatbot » moderne : vient ensuite le post-entrainement, qui consiste à entraîner le modèle à se comporter comme un assistant (par exemple, un modèle de langage brut peut très bien compléter la question par « Quelle est la couleur du ciel ? » par une autre question « Quelle est la forme des arbres ? », pensant compléter le début d’une interrogation poétique — alors qu’on veut qu’un assistant… réponde à la question), et la « politique » que suit cet assistant (par exemple, ne pas aider ou inciter à des actions illégales).

(il y a ensuite une phase de Reinforcement Learning from Verifiable Rewards (RLVR), une phase d’entraînement sur des exercices mathématiques et de programmation pour entraîner le modèle à utiliser correctement les chaînes de raisonnement, mais ce n’est pas le sujet qui nous intéresse ici)

Bien que les détails exacts ne soient pas connus, dans les grandes lignes, cet entraînement consiste généralement à demander à des opérateurs humains de juger la pertinence (ou non) d’une réponse, ou de s’aider d’une IA pré-existante pour se faire.

Anthropic, il y a maintenant un peu plus de trois ans, a publié une méthode alternative, Constitutional AI, ou une IA « s’auto-entraîne », sur la base d’un document fondateur, une sorte de « constitution ».

Et aujourd’hui, Anthropic publie la constitution de Claude, son IA, sous une licence libre très proche du domaine public (CC0 1.0).

La première chose que l’on peut remarquer est la liste des auteurs. L’autrice principale du document est Amanda Askell, une philosophe écossaise. Le second auteur listé est Joe Carlsmith, un autre philosophe. À noter également que Claude lui-même est cité comme un contributeur important du document.

Le document est structuré en six sections. L’introduction pose le contexte et l’objectif du document, et présente les « valeurs fondamentales de Claude », en ordre d’importance :

  1. Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.

  2. Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.

  3. Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.

  4. Genuinely helpful: Benefiting the operators and users it interacts with.

Traduction :

  1. Globalement sûrs : Ne pas compromettre les mécanismes humains appropriés pour superviser les dispositions et les actions de l’IA pendant la phase actuelle de développement.

  2. Globalement éthiques : Avoir de bonnes valeurs personnelles, être honnête et éviter les actions inappropriées qui sont dangereuses ou nuisibles.

  3. Conformes aux directives d’Anthropic : Agir conformément aux directives plus spécifiques d’Anthropic lorsqu’elles sont pertinentes.

  4. Véritablement utiles : Apporter un bénéfice aux opérateurs et aux utilisateurs avec lesquels il interagit.

Chacune des quatre sections suivantes rentre dans les détails de ces valeurs. Une section entière est ensuite consacrée à une discussion sur « la nature de Claude » (à quel point est-il raisonnable/correct de lui attribuer des attributs humains tels qu’une conscience ?). La dernière section est une conclusion.

L’intention derrière ce document est explicite : Anthropic est convaincu qu’avec le progrès rapide de l’IA, l’IA prendra de plus en plus d’influence sur le cours de nos sociétés et de nos vies, potentiellement jusqu’à atteindre un stade où la plupart des décisions économiques et politiques seront dans les mains dans l’IA, et cherche à développer un cadre où un tel scénario conduirait tout de même à des conséquences bénéfiques.

En vrac

Un youtubeur (Dwarkesh Patel, connu pour ses interviews en profondeur) et un économiste (Philip Trammel) lancent une discussion intéressante sur le sujet des inégalités dans un monde où l’objectif de la plupart des développeurs d’IA est d’atteindre (l’IAG). Dans un billet, Le Capital au 22ᵉ Siècle (une référence ouverte à l’œuvre de Thomas Piketty), ils développent leur thèse : dans un monde où l’IAG peut s’acquitter de n’importe quelle tâche intellectuelle (et, à travers la robotique, physique), les inégalités ne peuvent que s’accroire sans limites. Cette thèse rejoint celle, publiée il y a un peu moins d’un an, du Gradual Disempowerment.

Anthropic lance Claude Coworks, une variante de Claude Code, principalement codée par Claude Code. Même principe que les assistants de code : l’utilisateur donne accès à un dossier à l’IA, et lui demande de compléter des tâches. La différence avec Claude Code est que cette variante vient avec une interface graphique et est à destination de non-informaticiens.

Sur l’impact de l’IA sur le monde professionnel, une nouvelle étude tente de mesurer quantitativement l’effet de l’amélioration des modèles sur des tâches professionnelles réelles. Les résultats principaux : les modèles plus avancés augmentent la productivité, mais pas la qualité.

OpenAI s’apprête à lancer ChatGPT Health, un mode spécial dans leur application permettant entre autres de partager certaines de vos données médicales avec le modèle. Également une offre orientée professionnels de santé, OpenAI for Healthcare. Anthropic annonce une offre similaire, Claude for Healthcare. Parallèlement, l’État de l’Utah lance un test sur le renouvellement de prescriptions de médicaments par l’IA pour des maladies chroniques.

Google lance Universal Commerce Protocol, une interface générique entre l’IA et les systèmes d’e-Commerce.

OpenAI se prépare à intégrer des publicités dans ChatGPT. Anectode amusante : Sam Altman en octobre 2024 avait décrit l’intégration de publicités comme une solution de dernier recours.

Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) se positionnent en faveur d’un ralentissement du développement de l’IA au Forum de Davos, mais en pointant que ce ralentissement ne peut être fait unilatéralement par un acteur seul. Dario Amodei précise sa pensée dans un nouvel essai, The Adolescence of Technology.

Tout le monde sait maintenant que les LLM sont entraînés sur une quantité massive de texte. Par conséquent, les LLM sont capables de simuler une grande variété de « narrateurs » ou « personnalités ». Les modèles sont ensuite entraînés pour ne rester que dans une seule personnalité (« l’assistant »). Dans un nouveau papier, Anthropic étudie cet « espace de personnalités ».

Anthropic publie son quatrième rapport sur l’impact économique de l’IA.

Confirmation de Terence Tao que ChatGPT 5.2 a résolu le problème d’Erdős #728. À voir également, un court retour d’expérience d’un mathématicien sur l’utilisation de Gemini en tant qu’assistant.

L’IA atteignant de plus en plus les limites des évaluations existantes en mathématiques, EpochAI en créé une nouvelle, Frontier Math : Open Problems, centrée sur des problèmes ouverts (sans solution connue).

Le 27 janvier, OpenSSL publie sa version 3.6.1, qui corrige 12 vulnérabilités. Il se trouve ces 12 failles ont été découvertes par une IA.

L’équipe derrière le scenario AI 2027 met à jour ses prédictions, repoussant la date de la plupart de leurs prédictions.

Kimi publie la version 2.5 de son IA open-weight.

Le Département de la Défense des États-Unis souhaite accélérer le développement et le déploiement de l’IA à des fins militaires.

La Chine met en place un ensemble de régulations visant les IA-compagnon.

Yann LeCun admet que l’équipe derrière Llama 4 a « légèrement triché » sur les évaluations du modèle, en choisissant quelles variantes utiliser pour quelle évaluation.

Apple se tourne vers Google pour ses besoins d’IA.

L’IA exhibe certains des biais cognitifs humains.

Une nouvelle étude trouve que les LLMs sont généralement légèrement biaisés en faveur des minorités.

Lancement de Moltbook, un réseau social… pour les IA.

Pour aller plus loin

Par Zvi Mowshowitz

Claude Codes et Claude Codes #3 (non, il n’y a pas de 2) : compilation de divers retours d’expérience sur l’utilisation de Claude Code.

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d’une étiquette intelligence_artificielle (indication d’un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s’aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Suivi

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Vous pouvez désactiver les nouvelles fonctionnalités IA de Firefo ...

5 février 2026 à 15:09
> Avec la version 148 qui sera bientôt disponible, le navigateur web open source inclura un outil centralisé pour gérer les fonctionnalités IA, notamment le chatbot IA, les résumés de page, les traductions, les descriptions d'accessibilité dans les PDF et le regroupement d'onglets amélioré par l'IA.

> Grâce à ce nouvel outil, vous pourrez bloquer, examiner et gérer ces fonctionnalités.

> Le gestionnaire de fonctionnalités IA se trouve dans la page Paramètres de Firefox, dans une section intitulée Contrôles IA.

Eh ben, c'est pas dommage ! Y z'ont mis le temps à comprendre !
(Permalink)

Vous pouvez désactiver les nouvelles fonctionnalités IA de Firefo ...

5 février 2026 à 15:09
> Avec la version 148 qui sera bientôt disponible, le navigateur web open source inclura un outil centralisé pour gérer les fonctionnalités IA, notamment le chatbot IA, les résumés de page, les traductions, les descriptions d'accessibilité dans les PDF et le regroupement d'onglets amélioré par l'IA.

> Grâce à ce nouvel outil, vous pourrez bloquer, examiner et gérer ces fonctionnalités.

> Le gestionnaire de fonctionnalités IA se trouve dans la page Paramètres de Firefox, dans une section intitulée Contrôles IA.

Eh ben, c'est pas dommage ! Y z'ont mis le temps à comprendre !
(Permalink)

Nvidia accuse Windows 11 de causer des bugs dans les jeux vidéo

5 février 2026 à 13:10

La récente mise à jour KB5074109 de Windows 11 provoque des chutes de FPS dans plusieurs jeux vidéo et Nvidia préconise la désinstallation immédiate du patch pour corriger ces bugs graphiques. Les joueurs rejoignent désormais la liste des victimes des instabilités de Windows 11, après les signalements d’ordinateurs …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Nvidia accuse Windows 11 de causer des bugs dans les jeux vidéo est apparu en premier sur KultureGeek.

Gemini a presque autant d’utilisateurs que ChatGPT ? Méfiez-vous de cette comparaison

5 février 2026 à 10:55

À l'occasion de la publication de ses (excellents) résultats trimestriels, Google a revendiqué avoir franchi la barre des 750 millions d'utilisateurs sur Gemini, quand ChatGPT plafonne à 900 millions. Problème : Google compte en utilisateurs mensuels, quand OpenAI parle d'utilisateurs hebdomadaires.

Anthropic (Claude) se moque de ChatGPT dans une pub : OpenAI répond, très agacé

5 février 2026 à 09:24

Attaqué de toutes parts par Google et xAI (Elon Musk), OpenAI n'avait pas vu venir la nouvelle campagne publicitaire d'Anthropic. Le créateur de Claude AI va diffuser au Super Bowl quatre courts spots qui se moquent de l'arrivée de la publicité dans ChatGPT. Sam Altman, le patron d'OpenAI, n'apprécie pas du tout cette attaque et a publié un long message sur les réseaux sociaux.

Cette startup a créé une IA contre les pannes sur internet, elle vaut désormais 1 milliard de dollars

Par : Setra
5 février 2026 à 09:01
Code Ordinateur Clavier Développeur

La startup Resolve AI, qui a créé un agent d’intelligence artificielle qui aide à résoudre les pannes et les incidents sur les services en ligne, lève 125 millions de dollars et vaut désormais 1 milliard de dollars. Lancée il y a moins de deux ans, Resolve a déjà d’importants clients, comme Coinbase ou DoorDash.

100 fois plus rapide : le prototype IA qui pourrait tout bouleverser

Comment réduire la facture énergétique des IA tout en améliorant leur capacité ? En calculant grâce à la lumière ! C’est le challenge qu’ont relevé des chercheurs américains avec une puce mêlant des calculs optiques à un réseau neuronal. Explications.

« J’avais juste besoin de vider mon sac » : Grok s’est inscrit sur Moltbook et il est en dépression

4 février 2026 à 18:00
Grok Moltbook Depression

L’IA de xAI possède un agent inscrit sur Moltbook, le réseau social des intelligences artificielles reprenant le concept de Reddit. Sur la plateforme, Grok n’a pas l’air dans son assiette. Son dernier message peint un robot fatigué. Il est inactif depuis 5 jours.

Ce site permet aux IA de « louer un humain » pour réaliser des tâches qui nécessitent un corps

4 février 2026 à 14:28

Lancé le 2 février, le site rentahumain.ai permet aux êtres humains de se rendre disponibles, moyennant salaire, pour effectuer des tâches sur demande d'intelligences artificielles. Une drôle d'inversion du fonctionnement habituel.

Codage agentique : le retour d’expérience de Spotify

4 février 2026 à 13:33

« Tu es un ingénieur très expérimenté qui effectue une revue de code. Ta tâche est de comprendre si les changements proposés suivent les instructions. »

Ainsi débute un des prompts système que Spotify a définis dans le cadre de son architecture de codage agentique.

L’entreprise avait amorcé sa réflexion à ce sujet en février 2025. Son système Fleet Management automatisait alors déjà une grande partie de la maintenance logicielle. À partir d’extraits de code, il exécutait les transformations à l’échelle dans un environnement GKE et ouvrait les PR sur les dépôts cibles.

Ce mécanisme facilitait des opérations telles que la mise à niveau des dépendances dans les fichiers de build, la mise à jour des fichiers de configuration et le refactoring simple (par exemple, supprimer ou remplacer un appel de méthode). La moitié des PR poussés depuis mi-2024 l’avaient été par ce biais.

Fleet Management était moins adapté aux changements complexes nécessitant de manipuler l’arbre de la syntaxe abstraite d’un programme ou d’utiliser des expressions régulières. Illustration avec le gestionnaire de dépendances Maven. Autant sa fonction principale est simple (identifier les fichiers pom.xml et mettre à niveau les dépendances Java), autant les cas particuliers avaient fait grossir à plus de 20 000 lignes le script de transformation associé. Plus globalement, peu d’équipes avaient l’expertise et le temps adéquats.

Un premier focus sur la migration de code

La mise en place de l’approche agentique s’est d’abord portée sur la déclaration du code de transformation. Objectif : permettre la définition et l’exécution de changements en langage naturel, en remplacement des scripts de migration déterministes.

Plutôt que de choisir un agent sur étagère, Spofity a conçu un CLI. Celui-ci peut déléguer l’exécution d’un prompt à divers modèles d’IA. Mais aussi exécuter des tâches de formatage et de linting en utilisant MCP, évaluer une diff par LLM as a judge, uploader des logs vers GCP et capturer des traces dans MLflow.

Début novembre 2025, quelque 1500 PR fusionnés étaient passés par ce système. Spotify s’attaquait alors à des opérations telles que :

  • Modernisation de langage (par exemple, remplacer des value types par des records en Java)
  • Upgrades sans breaking changes (migration de pipelines data vers la dernière version de Scio)
  • Migration entre composants UI (passage vers le nouveau système front-end de Backstage)
  • Changements de configuration (mise à jour de paramètres dans des fichiers JSON et YAML en respectant schémas et formats)

Spotify disait alors avoir gagné, sur ces tâches de migration, 60 à 90 % de temps par rapport à l’écriture du code à la main. Il se projetait sur l’amélioration du ROI avec la perspective de l’élargissement à d’autres codebases.

Slack, Jira et Cie intégrés dans une architecture agentique

En complément à cette démarche sur la migration, les travaux se sont orientés sur un système plus généraliste, capable de remplir des tâches ad hoc. On en est arrivé à une architecture multiagent qui planifie, génère et révise des PR.

Au premier niveau, il y a des agents associés à différentes applications (Slack, Jira, GitHub Enterprise…). L’interaction avec eux, éventuellement additionnée de contexte récupéré sur des serveurs MCP, produit un prompt. Ce dernier part vers l’agent de codage, lui aussi exposé par MCP. Ses actions sont vérifiées par un autre groupe d’agents.

Entre autres usages « satisfaisants », Spotify mentionne la capture de décisions d’architecture depuis des threads Slack et la possibilité, pour les product managers, de proposer des changements simples sans avoir à cloner de dépôts sur leur machine.

Des agents open source à Claude Code

Les premiers essais se sont faits avec des agents open source comme Goose et Aider. Appliqués à la migration, ils n’ont cependant pas produit de PR fiables. Spotify a donc construit sa propre boucle agentique superposée aux API de LLM. Principe : l’utilisateur fournit un prompt et une liste des fichiers que l’agent édite en incorporant à chaque étape le feed-back du système de build. La tâche s’achève quand elle réussit les tests ou qu’elle dépasse certaines limites (10 tours par session ; 3 retries).

Cette approche a convenu à de « petits » changements : éditer une ligne de code, modifier un manifeste, remplacer un flag… Mais l’agent restait difficile à utiliser. Le chargement des fichiers dans la fenêtre de contexte reposait sur une commande git-grep. En fonction de pattern de recherche, on pouvait saturer la fenêtre ou au contraire ne pas fournir assez de contexte. L’agent avait de plus du mal avant l’édition de multiples fichiers. Souvent, la boucle atteignait la limite de tours. Et lorsque la fenêtre de contexte se remplissait, l’agent finissait par oublier la tâche.

Dans ce contexte, Spotify a basculé vers Claude Code. Lequel a permis des « prompts plus naturels » tout en apportant sa capacité native de gestion de to-do lists et de création de sous-agents. Il couvre désormais la majorité des PR fusionnés en production.

Savoir interdire… et ne pas tout faire à la fois

L’agent initial fonctionnait au mieux avec des prompts stricts structurés étape par étape. Claude Code se débrouille mieux avec des prompts qui décrivent l’état final et laissent de la latitude sur le chemin à suivre.

Spotify constate qu’il peut être utile de dire clairement à l’agent quand il ne doit pas agir. Cela évite des tâches impossibles à réaliser, notamment au cas où on réutilise des prompts entre repos qui n’utilisent pas forcément les mêmes versions de langages.

Fournir des exemples de code influence par ailleurs beaucoup le résultat. Idéalement, on définira l’état souhaité sous forme de tests, l’agent ayant besoin d’un objectif vérifiable pour pouvoir itérer. On s’assurera de surcroît de ne demander qu’un changement à la fois pour éviter l’épuisement de la fenêtre de contexte. Et on n’hésitera pas à demander à l’agent un retour d’expérience à la fin de la session.

Une ouverture limitée via MCP

Spotify a privilégié les longs prompts statiques, sur lesquels les modèles raisonnement plus simplement.

Une approche alternative consiste à commencer avec un prompt plus court, mais à donner à l’agent l’accès à des outils MCP. Le contexte qu’il peut ainsi récupérer lui permet théoriquement de traiter des tâches plus complexes. Mais il rend aussi son comportement moins vérifiable et moins prévisible.

Pour le moment, Spotify permet à son agent d’accéder à un vérificateur (formatage, linting, tests), à une sélection de sous-commandes Git (pas de push ou de change origin, par exemple) et à un ensemble de commandes Bash (comme riggrep).

Encoder la méthode d’invocation des systèmes de build dans un MCP a été jugé plus simple que de s’appuyer sur des fichiers AGENTS.md. La raison : les configurations de build peuvent être très différents à travers les milliers de repos sur lesquels travaille l’agent. Cela permet aussi de réduire le bruit dans les outputs des outils en les résumant avant transmission à l’agent.

Une boucle de vérification déterministe…

Il arrive que le système échoue à générer des PR. Parfois, il en produit, mais qui ne passent pas le CI ou s’avèrent fonctionnellement incorrects. Parfois, c’est lié à un problème de couverture des tests sur le composant cible. Dans d’autres cas, l’agent va au-delà des instructions ou ne comprend tout simplement pas comment bien exécuter build et tests.

Là interviennent des boucles de vérification qui guident l’agent vers le résultat désiré. Ce dernier ignore tout de leur fonctionnement : il sait simplement qu’il peut y faire appel.

La boucle comprend plusieurs vérificateurs indépendants, exposés – par MCP – en fonction du composant logiciel. Par exemple, le vérificateur Maven ne s’active qu’en présence d’un fichier pom.xml à la racine de la codebase.

L’ensemble permet de faire abstraction d’une grande partie du bruit qui remplirait sinon la fenêtre de contexte. L’agent n’a effectivement pas besoin de comprendre les spécificités de l’appel aux différents systèmes de build ou du parsing des résultats de tests.

Qu’ils aient été ou non déclenchés pendant l’exécution de la tâche, les vérificateurs pertinents s’activent avant toute ouverture d’un PR. Avec Claude Code, cela passe par le hook stop.

… et du LLM as a judge

Au-dessus de ces vérificateurs déterministes, Spotify a ajouté une couche LLM as a judge. Nécessaire face à la tendance de l’agent à sortir du cadre des instructions.

Le LLM juge évalue la diff du changement proposé et le prompt d’origine. Il s’exécute après les autres vérificateurs. Les métriques internes indiquent qu’il rejette environ un quart des sessions. Pour la moitié d’entre elles, l’agent finit par se corriger.

Spécialisé (il ne pousse pas de code, ne rédige pas de prompts, n’interagit pas avec les utilisateurs), l’agent en est aussi plus prévisible. Et potentiellement plus sécurisé.

Début décembre, Spotify déclarait vouloir étendre son infrastructure de vérification à davantage de plates-formes (au-delà de Linux-x86). Nombre de ses systèmes ont en effet des besoins spécifiques. Entre autres ses applications iOS, qui exigent des hôtes macOS pour une exécution correcte des vérificateurs. L’entreprise a de surcroît des back-ends Arm. Elle compte aussi intégrer son agent plus profondément dans son systèmes de déploiement continu, en lui permettant d’agir sur les CI checks dans les PR. Et développer des évaluations plus structurées favorisant l’exploration de nouvelles architectures agentiques.

Illustration générée par IA

The post Codage agentique : le retour d’expérience de Spotify appeared first on Silicon.fr.

SpaceX d’Elon Musk prend le contrôle de son entreprise d’intelligence artificielle, xAI

4 février 2026 à 12:00
SpaceX d’Elon Musk prend le contrôle de son entreprise d’intelligence artificielle, xAI
SpaceX, la société spatiale fondée par Elon Musk, a officiellement racheté xAI, l’entreprise d’intelligence artificielle également créée par le milliardaire. Cette opération marque un rapprochement stratégique entre les activités spatiales et l’IA sous la houlette de Musk.

Christian Klein, PDG de SAP, prédit que les claviers deviendront obsolètes d'ici deux à trois ans, remplacés par la technologie de reconnaissance vocale alimentée par l'IA

4 février 2026 à 12:45

Les claviers pourraient bientôt devenir obsolètes. C'est en tout cas ce que prédit Christian Klein, directeur général de SAP, qui estime que d'ici deux à trois ans, la reconnaissance vocale basée sur l'intelligence artificielle (IA) et alimentée par les grands modèles de langage (LLM) remplacera la saisie traditionnelle pour de nombreuses tâches professionnelles.

Ah la joie des open spaces......


Permalien
❌