Imaginez votre imprimante 3D refusant d’imprimer une pièce de rechange pour votre voiture parce qu’elle ressemble vaguement à un composant d’arme à feu. C’est la réalité potentielle que craignent certains défenseurs de l’open source alors que les États introduisent des lois visant à freiner les « armes fantômes » imprimées en 3D. Mais ces lois pourraient-elles jeter […]
Anthropic accélère la course à l’intelligence artificielle avec le lancement de Claude Opus 4.6. Présenté comme une mise à niveau directe de son prédécesseur, ce nouveau modèle d’IA promet de livrer des résultats d’une qualité quasi-finale dès le premier essai, réduisant drastiquement les allers-retours habituels. Claude Opus 4.6 …
Des chercheurs de l'université Texas A&M ont développé un nouveau matériau entièrement composé de métal qui possède les mêmes propriétés qu'un gel. Cette découverte pourrait faire progresser de façon spectaculaire le stockage de l’énergie.
Un jour après une dispute publique entre OpenAI et Anthropic, les deux géants de l'intelligence artificielle ont publié deux nouveaux modèles haut de gamme qui battent de nouveaux records dans leurs catégories respectives. Anthropic a dévoilé Claude Opus 4.6 vers 18h40, OpenAI a riposté vingt minutes plus tard avec GPT-5.3-Codex pour les développeurs (la cible de Claude).
La Chine a exécuté fin janvier 2026 11 membres du groupe Ming, lié à des centres de cyberescroquerie au Myanmar. Beijing dit coopérer activement avec Naypyidaw contre la fraude transfrontalière.
Anthropic annonce qu’il n’affichera pas de publicités sur Claude et se moque des publicités de ChatGPT. Sam Altman répond en accusant son concurrent d’être malhonnête et en qualifiant Claude de “produit coûteux pour les riches”.
(Visuel la porte d’eau du XIVème siècle, la petite voute sur la droite en bout de photo est un ajout des modifications de Vauban, mais plus l’accès d’origine)
Visuel chantier avec sur la gauche une fortification afin de diviser d’un côté le cours poursuivant sa route naturelle, de l’autre la voie d’eau pénétrant dans la cité, et au fond la rue Gambetta.
Nous étions restés sur une visite de chantier passionnante en novembre 2025, après un début des fouilles au mois de septembre, pour une fin mi-décembre. Cette période additionnelle de recherche a été très fructueuse. Alain Henton avait des hypothèses grâce aux nombreux chantiers précédents, mais les résultats sont au delà des attentes compte tenu de l’état de conservation.
« Tout le commerce de la cité passait par cette porte d’eau », Alain Henton
En effet, la suite de ces fouilles s’est concentrée par le dévoilement des remparts de Condé-sur-l’Escaut. La résultat est bluffant, notamment ceux érigés au XIVème siècle. « Bien sûr, nous partions d’une hypothèse de départ, mais elle a été confortée par la découverte d’objets (céramiques, faune,
Visuel une partie des remparts avec l’ancien emplacement d’une poterne, petite forte fortifiée, le trou sur le visuel, où les navigateurs devaient payer leur Droit de Passage pour accéder dans la cité.
bois, un peu de métal, et du cuir.Evidemment, nous devons analyser ces découvertes afin de dater précisément », explique le responsable de ce chantier, Alain Henton, un habitué du territoire entre Saint-Amand-les-Eaux et « mon 10ème chantier archéologique sur Condé », précise-t-il.
Ensuite, au détour de ces remparts, la découverte majeure est une porte d’eau du XIVème siècle où les embarcations chargées de produits (alimentaires ou pas) pénétraient dans la Seigneurie, et sa ville de Condé. On peut admirer la qualité de conservation des aménagements (pierres bleues de Tournai/visuel ci-dessous) de cette porte d’eau, un accès serré pour une seule embarcation afin de gérer le droit de passage, mais aussi toute attaque. Ensuite, la voie d’eau s’élargit pour un croisement possible des petites barques, ou petits bateaux, afin de glisser dans la commune.
Les bois trouvés sont, à ce stade, dans un état excellent de conservation. « Nous les emballons avec un plastique afin de préserver l’humidité », indique l’expert de l’INRAP Hauts de France https://www.inrap.fr/
« Un squelette dans son intégralité », Alain Henton
Autre découverte improbable, les fouilles ont permis de dévoiler un « squelette dans son intégralité. C’est rare. Bien sûr, la datation au Carbone 14 va nous situer la période, mais est-ce un ancien viking (camp devant Condé pendant 6 mois en 882/883) ou une victime des Vikings ? », se demande Alain Henton.
Squelette complet découvert sur ce site
Plus globalement, ces fouilles sur les abords de la rue Gambetta confirment mille ans d’histoire sur Condé, des berges carolingiennes au XXème siècle. A cet effet, Alain Henton assurera une conférence le 13 juin 2026, à 14H30, au sein de la Médiathèque de Condé-sur-l’Escaut.
Des milliers d’édiles se couperaient un bras pour découvrir 10% des richesses en sous-sol sur cette collectivité locale. Certes, le travail pour les vivants prend toujours le pas, mais les sources d’attractivités d’une commune sont tellement réduites dans le Nord de la France, sans la mer, sans la montagne… Pensez que le premier poste d’attractivité (mesuré) sur la commune d’Arras est (en terme de visiteurs, visites guidées payantes, séjours/nuitées, restauration, achats dans les commerces en ville…) le dévoilement des tunnels creusés pendant la 1ère guerre mondiale par les néo-zélandais. La commune l’a compris et investit de manière conséquente chaque année dans l’entretien, la poursuite des recherches de nouveaux tunnels, les manifestations commémoratives et les échanges internationaux. Pourtant, c’est peanuts, en terme de patrimoine, en comparaison du patrimoine existant sur Condé-sur-l’Escaut, à méditer !
Sur les flancs de l’Etna, des chercheurs de l’ETH Zurich ont testé un robot quadrupède capable d’analyser les émissions volcaniques au plus près des zones à risque, en toute autonomie.
Je scrollais sur mon téléphone tard la nuit dernière quand *BAM* – une fraise parlante a commencé à me donner des conseils boursiers. Absurde ? Peut-être. Mais j’ai regardé toute la vidéo, et il s’avère que des millions de personnes font de même. Maintenant, les créateurs utilisent l’IA pour générer ces Shorts et Reels viraux […]
Vous faites des sauvegardes régulières de vos données ? Non ?
Bon, je ne vais pas vous faire la morale, mais le jour où votre disque dur décidera de rendre l'âme ou que votre serveur VPS partira en fumée, vous allez vraiment regretter de ne pas avoir investi dix minutes dans un système de backup sérieux.
Alors, ouiiii, c'est vrai, on a souvent la flemme parce que c'est chiant à configurer. Entre les scripts bash qui plantent sans prévenir et les crontabs illisibles, y’a de quoi s'arracher les cheveux. C'est là qu'intervient Zerobyte, un projet open source qui veut réconcilier les allergiques du terminal avec la sécurité de leurs données.
Zerobyte est donc une plateforme d'automatisation de sauvegarde auto-hébergée qui vient poser une interface web moderne et ultra propre par-dessus le moteur Restic. Si vous avez déjà lu mon guide sur les
backups avec Restic
, vous savez que c'est du solide. Ça fait du chiffrement côté client, de la déduplication et de la compression. En gros, vos données sont blindées avant même de quitter votre machine et seules les modifs sont envoyées, ce qui est parfait pour ne pas exploser son forfait data ou son stockage cloud.
L'interface web permet surtout de tout piloter sans jamais toucher à une ligne de commande. Vous définissez vos "volumes" (ce qu'il faut sauver), vos "repositories" (où stocker tout ça) et vos "jobs" (quand lancer les opérations).
Pour les sources, l'outil est hyper flexible puisqu'il supporte aussi bien les dossiers locaux que les partages réseau via NFS, SMB, WebDAV ou SFTP et côté destination, c'est carrément Byzance puisque vous pouvez envoyer vos snapshots vers du S3 (AWS, MinIO, Wasabi), du Google Cloud, de l'Azure ou utiliser l'intégration rclone qui ouvre la porte à plus de 70 fournisseurs différents. C’est l’outil idéal pour mettre en place une véritable
stratégie 3-2-1
sans se prendre la tête.
Pour l'installation, pas de surprise, ça se passe via Docker Compose. C'est léger, ça s'isole bien et ça tourne en deux minutes. Un petit bémol quand même le projet est encore jeune donc ça peut encore bouger pas mal au niveau de l'architecture. Mais pour du monitoring et de la gestion simplifiée de snapshots Restic, c'est déjà redoutable. Vous pouvez explorer vos sauvegardes directement depuis le dashboard et restaurer un fichier précis en trois clics.
Et pour ne rien gâcher, le projet est sous licence libre, ce qui colle parfaitement à l'esprit qu'on aime ici !
Bref, si vous cherchez une solution pour centraliser la gestion de vos sauvegardes sans finir en PLS devant un terminal,
Zerobyte
mérite clairement que vous y jetiez un œil.
Attaqué de toutes parts par Google et xAI (Elon Musk), OpenAI n'avait pas vu venir la nouvelle campagne publicitaire d'Anthropic. Le créateur de Claude AI va diffuser au Super Bowl quatre courts spots qui se moquent de l'arrivée de la publicité dans ChatGPT. Sam Altman, le patron d'OpenAI, n'apprécie pas du tout cette attaque et a publié un long message sur les réseaux sociaux.
La startup Resolve AI, qui a créé un agent d’intelligence artificielle qui aide à résoudre les pannes et les incidents sur les services en ligne, lève 125 millions de dollars et vaut désormais 1 milliard de dollars. Lancée il y a moins de deux ans, Resolve a déjà d’importants clients, comme Coinbase ou DoorDash.
GitHub vient de franchir un cap symbolique — et très concret — dans la guerre de l’IA pour développeurs : Claude (Anthropic) et Codex (OpenAI) sont désormais utilisables directement dans GitHub, GitHub Mobile et Visual Studio Code, via une public preview réservée aux abonnés Copilot Pro+ et Copilot Enterprise. Derrière cette intégration, une ambition : Agent HQ, […]
Claude by Anthropic and OpenAI Codex (both in public preview) are now available for Copilot Pro+ and Copilot Enterprise users. In this video, we show you how...
Alors que ChatGPT teste la publicité sur la version gratuite sur l’abonnement ChatGPT Go, son concurrent Anthropic annonce que l’IA Claude n’affichera pas de pubs. En effet, pour cette startup, qui cible plus les professionnels que le grand public, cela serait incongru ou même inapproprié, vu la nature des discussions des utilisateurs avec son intelligence artificielle.
Europe, le satellite glacé de Jupiter, fascine depuis longtemps les scientifiques par son immense océan souterrain, potentiellement habitable. Mais une nouvelle analyse de la NASA vient bouleverser les hypothèses les plus optimistes : la croûte de glace qui recouvre cette étendue d’eau liquide serait beaucoup plus épaisse et …
Chercher à détruire un astéroïde, c'est comme essayer de briser un Nokia 3310 : il vaut mieux arriver bien armé, et savoir manier correctement notre arsenal. Dans le cas où il faudrait dégainer l'arme nucléaire, il ne faudra pas le faire n'importe comment.
Anthropic promet de ne jamais polluer son chatbot Claude avec de la publicité. Cette annonce stratégique intervient au moment précis où OpenAI a confirmé l’arrivée imminente de pubs dans ChatGPT, offrant un contraste entre les deux approches pour l’intelligence artificielle. Pour marteler ce positionnement différenciant, Anthropic dévoile une …
Lancé le 2 février, le site rentahumain.ai permet aux êtres humains de se rendre disponibles, moyennant salaire, pour effectuer des tâches sur demande d'intelligences artificielles. Une drôle d'inversion du fonctionnement habituel.
« Tu es un ingénieur très expérimenté qui effectue une revue de code. Ta tâche est de comprendre si les changements proposés suivent les instructions. »
Ainsi débute un des prompts système que Spotify a définis dans le cadre de son architecture de codage agentique.
L’entreprise avait amorcé sa réflexion à ce sujet en février 2025. Son système Fleet Management automatisait alors déjà une grande partie de la maintenance logicielle. À partir d’extraits de code, il exécutait les transformations à l’échelle dans un environnement GKE et ouvrait les PR sur les dépôts cibles.
Ce mécanisme facilitait des opérations telles que la mise à niveau des dépendances dans les fichiers de build, la mise à jour des fichiers de configuration et le refactoring simple (par exemple, supprimer ou remplacer un appel de méthode). La moitié des PR poussés depuis mi-2024 l’avaient été par ce biais.
Fleet Management était moins adapté aux changements complexes nécessitant de manipuler l’arbre de la syntaxe abstraite d’un programme ou d’utiliser des expressions régulières. Illustration avec le gestionnaire de dépendances Maven. Autant sa fonction principale est simple (identifier les fichiers pom.xml et mettre à niveau les dépendances Java), autant les cas particuliers avaient fait grossir à plus de 20 000 lignes le script de transformation associé. Plus globalement, peu d’équipes avaient l’expertise et le temps adéquats.
Un premier focus sur la migration de code
La mise en place de l’approche agentique s’est d’abord portée sur la déclaration du code de transformation. Objectif : permettre la définition et l’exécution de changements en langage naturel, en remplacement des scripts de migration déterministes.
Plutôt que de choisir un agent sur étagère, Spofity a conçu un CLI. Celui-ci peut déléguer l’exécution d’un prompt à divers modèles d’IA. Mais aussi exécuter des tâches de formatage et de linting en utilisant MCP, évaluer une diff par LLM as a judge, uploader des logs vers GCP et capturer des traces dans MLflow.
Début novembre 2025, quelque 1500 PR fusionnés étaient passés par ce système. Spotify s’attaquait alors à des opérations telles que :
Modernisation de langage (par exemple, remplacer des value types par des records en Java)
Upgrades sans breaking changes (migration de pipelines data vers la dernière version de Scio)
Migration entre composants UI (passage vers le nouveau système front-end de Backstage)
Changements de configuration (mise à jour de paramètres dans des fichiers JSON et YAML en respectant schémas et formats)
Spotify disait alors avoir gagné, sur ces tâches de migration, 60 à 90 % de temps par rapport à l’écriture du code à la main. Il se projetait sur l’amélioration du ROI avec la perspective de l’élargissement à d’autres codebases.
Slack, Jira et Cie intégrés dans une architecture agentique
En complément à cette démarche sur la migration, les travaux se sont orientés sur un système plus généraliste, capable de remplir des tâches ad hoc. On en est arrivé à une architecture multiagent qui planifie, génère et révise des PR.
Au premier niveau, il y a des agents associés à différentes applications (Slack, Jira, GitHub Enterprise…). L’interaction avec eux, éventuellement additionnée de contexte récupéré sur des serveurs MCP, produit un prompt. Ce dernier part vers l’agent de codage, lui aussi exposé par MCP. Ses actions sont vérifiées par un autre groupe d’agents.
Entre autres usages « satisfaisants », Spotify mentionne la capture de décisions d’architecture depuis des threads Slack et la possibilité, pour les product managers, de proposer des changements simples sans avoir à cloner de dépôts sur leur machine.
Des agents open source à Claude Code
Les premiers essais se sont faits avec des agents open source comme Goose et Aider. Appliqués à la migration, ils n’ont cependant pas produit de PR fiables. Spotify a donc construit sa propre boucle agentique superposée aux API de LLM. Principe : l’utilisateur fournit un prompt et une liste des fichiers que l’agent édite en incorporant à chaque étape le feed-back du système de build. La tâche s’achève quand elle réussit les tests ou qu’elle dépasse certaines limites (10 tours par session ; 3 retries).
Cette approche a convenu à de « petits » changements : éditer une ligne de code, modifier un manifeste, remplacer un flag… Mais l’agent restait difficile à utiliser. Le chargement des fichiers dans la fenêtre de contexte reposait sur une commande git-grep. En fonction de pattern de recherche, on pouvait saturer la fenêtre ou au contraire ne pas fournir assez de contexte. L’agent avait de plus du mal avant l’édition de multiples fichiers. Souvent, la boucle atteignait la limite de tours. Et lorsque la fenêtre de contexte se remplissait, l’agent finissait par oublier la tâche.
Dans ce contexte, Spotify a basculé vers Claude Code. Lequel a permis des « prompts plus naturels » tout en apportant sa capacité native de gestion de to-do lists et de création de sous-agents. Il couvre désormais la majorité des PR fusionnés en production.
Savoir interdire… et ne pas tout faire à la fois
L’agent initial fonctionnait au mieux avec des prompts stricts structurés étape par étape. Claude Code se débrouille mieux avec des prompts qui décrivent l’état final et laissent de la latitude sur le chemin à suivre.
Spotify constate qu’il peut être utile de dire clairement à l’agent quand il ne doit pas agir. Cela évite des tâches impossibles à réaliser, notamment au cas où on réutilise des prompts entre repos qui n’utilisent pas forcément les mêmes versions de langages.
Fournir des exemples de code influence par ailleurs beaucoup le résultat. Idéalement, on définira l’état souhaité sous forme de tests, l’agent ayant besoin d’un objectif vérifiable pour pouvoir itérer. On s’assurera de surcroît de ne demander qu’un changement à la fois pour éviter l’épuisement de la fenêtre de contexte. Et on n’hésitera pas à demander à l’agent un retour d’expérience à la fin de la session.
Une ouverture limitée via MCP
Spotify a privilégié les longs prompts statiques, sur lesquels les modèles raisonnement plus simplement.
Une approche alternative consiste à commencer avec un prompt plus court, mais à donner à l’agent l’accès à des outils MCP. Le contexte qu’il peut ainsi récupérer lui permet théoriquement de traiter des tâches plus complexes. Mais il rend aussi son comportement moins vérifiable et moins prévisible.
Pour le moment, Spotify permet à son agent d’accéder à un vérificateur (formatage, linting, tests), à une sélection de sous-commandes Git (pas de push ou de change origin, par exemple) et à un ensemble de commandes Bash (comme riggrep).
Encoder la méthode d’invocation des systèmes de build dans un MCP a été jugé plus simple que de s’appuyer sur des fichiers AGENTS.md. La raison : les configurations de build peuvent être très différents à travers les milliers de repos sur lesquels travaille l’agent. Cela permet aussi de réduire le bruit dans les outputs des outils en les résumant avant transmission à l’agent.
Une boucle de vérification déterministe…
Il arrive que le système échoue à générer des PR. Parfois, il en produit, mais qui ne passent pas le CI ou s’avèrent fonctionnellement incorrects. Parfois, c’est lié à un problème de couverture des tests sur le composant cible. Dans d’autres cas, l’agent va au-delà des instructions ou ne comprend tout simplement pas comment bien exécuter build et tests.
Là interviennent des boucles de vérification qui guident l’agent vers le résultat désiré. Ce dernier ignore tout de leur fonctionnement : il sait simplement qu’il peut y faire appel.
La boucle comprend plusieurs vérificateurs indépendants, exposés – par MCP – en fonction du composant logiciel. Par exemple, le vérificateur Maven ne s’active qu’en présence d’un fichier pom.xml à la racine de la codebase.
L’ensemble permet de faire abstraction d’une grande partie du bruit qui remplirait sinon la fenêtre de contexte. L’agent n’a effectivement pas besoin de comprendre les spécificités de l’appel aux différents systèmes de build ou du parsing des résultats de tests.
Qu’ils aient été ou non déclenchés pendant l’exécution de la tâche, les vérificateurs pertinents s’activent avant toute ouverture d’un PR. Avec Claude Code, cela passe par le hook stop.
… et du LLM as a judge
Au-dessus de ces vérificateurs déterministes, Spotify a ajouté une couche LLM as a judge. Nécessaire face à la tendance de l’agent à sortir du cadre des instructions.
Le LLM juge évalue la diff du changement proposé et le prompt d’origine. Il s’exécute après les autres vérificateurs. Les métriques internes indiquent qu’il rejette environ un quart des sessions. Pour la moitié d’entre elles, l’agent finit par se corriger.
Spécialisé (il ne pousse pas de code, ne rédige pas de prompts, n’interagit pas avec les utilisateurs), l’agent en est aussi plus prévisible. Et potentiellement plus sécurisé.
Début décembre, Spotify déclarait vouloir étendre son infrastructure de vérification à davantage de plates-formes (au-delà de Linux-x86). Nombre de ses systèmes ont en effet des besoins spécifiques. Entre autres ses applications iOS, qui exigent des hôtes macOS pour une exécution correcte des vérificateurs. L’entreprise a de surcroît des back-ends Arm. Elle compte aussi intégrer son agent plus profondément dans son systèmes de déploiement continu, en lui permettant d’agir sur les CI checks dans les PR. Et développer des évaluations plus structurées favorisant l’exploration de nouvelles architectures agentiques.
SNE Research publie les nouveaux chiffres sur le marché des batteries de voitures électriques et hybrides. CATL renforce sa position de numéro 1, tandis que BYD (qui fabrique ses propres batteries) affiche une forte croissance en Europe.