Vue normale

Reçu hier — 26 janvier 2026

Claude Code - Comment activer le mode Swarms caché

Par :Korben
26 janvier 2026 à 10:49

Vous utilisez Claude Code, le CLI d'Anthropic ? Hé bien figurez-vous qu'il y a des fonctionnalités cachées dedans, et pas des moindres ! Un dev nommé Mike Kelly a fouillé dans le JavaScript minifié du CLI et il a découvert un truc dingue : un mode "Swarms" qui transforme votre assistant en véritable chef d'équipe capable de déléguer le travail à plusieurs agents en parallèle.

En gros, au lieu de parler à une seule IA qui code, vous parlez à un team lead. Et ce team lead, lui, il ne code pas... il planifie, découpe les tâches et les dispatche à une équipe de spécialistes qui bossent en même temps. Du coup quand vous validez un plan, il spawn plusieurs agents workers qui partagent un tableau de tâches, communiquent entre eux via une sorte de boîte aux lettres interne, et reviennent vous faire leur rapport une fois le boulot terminé.

Le truc c'est que cette fonctionnalité existe DÉJÀ dans le code de l'outil CLI, mais elle est verrouillée derrière un feature flag côté serveur (un truc qui s'appelle tengu_brass_pebble pour les curieux). Mike a donc créé claude-sneakpeek , un outil qui patche le CLI pour forcer ce flag à true. Hop, les fonctionnalités cachées deviennent accessibles. Si vous avez déjà lu mon article sur Auto-Claude , vous voyez le genre... Ce sont des agents en parallèle qui bossent pendant que vous faites autre chose, genre lire mes articles pour entrapercevoir le futur ^^.

Ce qui se débloque

Une fois le patch appliqué, vous avez accès à :

  • TeammateTool : pour spawner des équipes d'agents
  • Delegate mode : le Task tool peut lancer des agents en arrière-plan
  • Teammate mailbox : les agents peuvent s'envoyer des messages entre eux
  • Swarm spawning : orchestration native multi-agents

Concrètement, quand vous demandez une tâche complexe, l'IA peut maintenant découper le travail, créer des sous-tâches avec dépendances, et lancer plusieurs workers qui vont bosser en parallèle sur leurs morceaux respectifs. Et ça consomme moins de tokens que de tout faire séquentiellement, contrairement à ce qu'on pourrait croire.

Comment l'installer

L'installation est hyper simple. Vous lancez :

npx @realmikekelly/claude-sneakpeek quick --name claudesp

Ensuite, ajoutez le dossier bin à votre PATH si c'est pas déjà fait :

echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.zshrc && source ~/.zshrc

Et voilà, vous pouvez lancer claudesp au lieu de claude pour avoir la version avec les features débloquées !

Le truc bien pensé, c'est que ça installe une instance COMPLÈTEMENT isolée. Votre installation normale de l'outil CLI reste intacte, avec sa propre config, ses sessions et ses serveurs MCP. Zéro interférence.

Comment ça marche sous le capot

Pour les curieux qui veulent comprendre le hack, c'est assez chouette. En fait, le CLI est du JavaScript minifié, et il contient une fonction qui ressemble à ça :

function i8(){if(Yz(process.env.CLAUDE_CODE_AGENT_SWARMS))return!1;return xK("tengu_brass_pebble",!1)}

Cette fonction vérifie le feature flag côté serveur. Le patch la remplace simplement par :

function i8(){return!0}

Bref, au lieu de checker le flag, ça retourne toujours true. Simple mais efficace.

Pour mettre à jour ou désinstaller

npx @realmikekelly/claude-sneakpeek update claudesp
# Mise à jour

npx @realmikekelly/claude-sneakpeek remove claudesp
# Désinstallation

Voilà, si vous êtes fan d'automatisation et que vous voulez pousser le CLI dans ses retranchements, c'est clairement un truc à tester ! Le mode Swarms change la donne pour les projets complexes où paralléliser les tâches fait gagner un temps fou.

Source

Reçu — 24 janvier 2026

Edge Gallery - IA Google en local sur smartphone

Par :Korben
24 janvier 2026 à 16:04

Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?

Ça tombe bien puisque Google a sorti Edge Gallery , une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.

Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.

Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !

Ce qu'on peut faire avec

Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :

AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.

Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.

Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.

L'interface d'AI Edge Gallery sur Android

Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.

Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.

Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.

Les modèles disponibles

L'app propose plusieurs modèles selon vos besoins. On retrouve la famille Gemma de Google (Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.

Et les gardes fous sont facilement contournables...

Il y a aussi des modèles spécialisés comme TranslateGemma pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à LiteRT , le runtime léger de Google pour l'inférence on-device.

D'ailleurs, la communauté Hugging Face propose déjà pas mal de modèles convertis au format LiteRT donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.

Installation sur Android

Pour Android, c'est simple, direction le Play Store et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les releases GitHub si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).

Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.

Et sur iOS / macOS ?

Pour iOS, l'app est disponible en bêta via TestFlight . Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !

Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.

Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de LM Studio qui sont nativement compatibles.

Pourquoi c'est intéressant ce truc ?

L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.

L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".

Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)

Voilà, pour ceux qui veulent creuser, le wiki GitHub du projet contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.

Éclatez-vous bien !

Tau5 - Le successeur de Sonic Pi se met à l'IA

Par :Korben
24 janvier 2026 à 10:07

Vous connaissez Sonic Pi, ce logiciel génial pour coder de la musique que je vous ai déjà présenté ? Hé bien Sam Aaron, son créateur, remet le couvert avec son nouveau projet baptisé Tau5.

Si vous avez déjà testé le live coding, vous savez comme moi que c'est une joie totale de pouvoir balancer des boucles en tapant quelques lignes de code, mais là Sam pousse le délire beaucoup plus loin. Ce nouveau joujou, c'est un peu le grand frère de Sonic Pi, pensé dès le départ pour la collaboration, mais aussi la sécurité et la compatibilité web.

Sam Aaron lors de sa keynote GOTO 2025

L'ambition de Tau5 c'est que l'outil puisse à terme intégrer des agents IA via le protocole MCP. Bien sûr, l'objectif n'est pas de remplacer le musicien (ouf !), mais de lui offrir un partenaire d'improvisation qui pourrait l'aider à crafter des boucles ou ajuster des paramètres. C'est en tout cas la vision que Sam a partagée lors de sa keynote au GOTO 2025.

Sous le capot, le système repose sur la machine virtuelle Erlang (BEAM), sur laquelle tourne aussi Elixir. C'est une architecture connue pour sa tolérance aux pannes, comme ça même si vous faites une erreur de syntaxe en plein set, le système encaisse sans que tout s'effondre et vous colle la honte avec des gens qui viendront vous dire à la fin de votre concert : "Hahaha, c'est nul t'es trucs d'IA, ça marche pas, tu vois bien que l'humain n'est pas prêt d'être remplacé ! Hahaha, loser"

Pour ceux qui se demandent ce que ça change par rapport à Sonic Pi, c'est surtout la dimension collaborative qui est mise en avant pour le futur. Avec cette nouvelle mouture, l'objectif c'est de permettre à plusieurs personnes de coder ensemble, potentiellement assistées par une IA. Je trouve que c'est une évolution de la création musicale par ordi plutôt logique vers quelque chose de plus connecté.

Si le sujet vous branche, je vous remets le lien vers mon article sur la découverte de Sonic Pi , histoire de voir d'où on part. Bref, tout ça reste trèss fidèle à la philosophie de Sam qui est depuis le début de rendre le code accessible et créatif à tous.

Bref, si vous aimez la musique, le code, ou juste voir des gens brillants repousser les limites, jetez un œil à sa présentation ou au dépôt GitHub .

Reçu — 21 janvier 2026

Faites de Claude une armée de développeurs à votre service

Par :Korben
21 janvier 2026 à 21:08

Vous rêvez de lancer Claude sur un projet et de le laisser bosser tout seul pendant que vous faites autre chose, du genre jouer à Animal Crossing en attendant la fin de la journée ? Hé bien c'est exactement ce que propose Auto-Claude, un outil open source qui transforme l'assistant IA préféré des devs en armée de développeurs plus autonomes que votre mère quand il s'agit d'échanger un billet de train.

J'avais déjà parlé de Claude Engineer c'est vrai. C'est un framework CLI en Python qui permettait de faire bosser Claude en autonomie. Mais Auto-Claude, alalalala, c'est un autre délire les amis ! Déjà c'est une vraie application desktop avec interface graphique, tableau Kanban pour gérer vos tâches, et surtout... 12 terminaux qui peuvent tourner en parallèle. Oui, DOUZE agents Claude qui bossent simultanément sur votre code pendant que vous candy crushez pépouze dans les WC de votre entreprise.

Les terminaux d'Auto-Claude en action, chacun gérant un agent autonome

Le truc génial, c'est que chaque agent travaille dans son propre git worktree. Du coup, pas de conflit (de canard ^^ - J'ai pas pu résister désolé), pas de branches qui s'emmêlent, et chaque tâche est isolée proprement.

Puis quand c'est fini ? Hop, vous validez et ça merge parfaitement sans vous prendre la tête. Ce truc est fou !

Installation

Alors pour commencer, il vous faut un abonnement Claude Pro ou Max. Pas le choix...

Ensuite, installez Claude Code via npm si c'est pas déjà fait :

npm install -g @anthropic-ai/claude-code

Maintenant on clone Auto-Claude :

git clone https://github.com/AndyMik90/Auto-Claude.git
cd Auto-Claude

Et on installe les dépendances. L'outil gère à la fois le frontend Electron et le backend Python :

npm run install:all

Et c'est tout. Si si sérieux. Bon, là je vous l'ai fait en mode installe de barbu.e.s mais sachez aussi qu'il y a des binaires à télécharger directement pour Windows, macOS (Intel ou Silicon) et Linux (AppImage, deb ou flatpak).

Lancement et utilisation

Pour démarrer l'interface graphique, ensuite, c'est :

npm start

Une fenêtre s'ouvre avec le fameux tableau Kanban. Vous ajoutez vos tâches, vous les assignez aux agents disponibles, et c'est parti. Chaque terminal affiche en temps réel ce que fait son agent.

Le tableau Kanban pour orchestrer vos agents IA

Pour les fans de ligne de commande, y'a aussi un mode CLI :

python run.py --spec 001

Le numéro correspond à un fichier de spec dans le dossier specs/. Vous écrivez ce que vous voulez, et Auto-Claude s'occupe du reste.

Comment ça fonctionne ?

L'architecture est plutôt bien pensée puisque le frontend Electron communique avec un backend Python via WebSocket. Chaque agent a son propre processus isolé, sa propre branche git, son propre contexte.

Ainsi, quand vous lancez une tâche, Auto-Claude :

  1. Crée un worktree git dédié
  2. Lance un agent Claude Code dessus
  3. Monitore l'avancement en temps réel
  4. Gère le pipeline QA automatiquement

Le tout avec une interface qui vous permet de suivre 12 conversations en parallèle, soit de quoi bien jouer au chef d'orchestre si vous avez un gros projet à abattre.

Je commence à peine à découvrir l'outil et faut que je le ponce un peu plus pour voir ce que je peux faire avec ça, mais si vous êtes chaud bouillant comme moi sur ce genre de truc, je vous invite à tester l'autonomie IA poussée à fond avec Auto-Claude.

C'est gratuit, open source, et ça tourne sur Mac, Windows et Linux . Et un grand merci à Louis pour la découverte !

Reçu — 17 janvier 2026

OGhidra - Dopage à l'IA pour Ghidra en local

Par :Korben
17 janvier 2026 à 15:52

Les gars de chez LLNL (Lawrence Livermore National Laboratory) sont des bons ! De vrais spécialistes en sécurité informatique qui ont pondu un outil à essayer si vous passez vos journées dans les entrailles des binaires.

Ça s'appelle OGhidra , et c'est une extension qui fait le pont entre le célèbre framework de reverse engineering Ghidra et la puissance des modèles de langage (LLM).

Comme ça, plutôt que de vous péter les yeux sur des milliers de lignes de code décompilé, vous pouvez simplement "discuter" avec les fonctions ou les strings extraites. Grâce à une intégration avec Ollama, OGhidra permet d'interroger les représentations du binaire en langage naturel pour identifier des vulnérabilités, renommer intelligemment des fonctions ou expliquer des algorithmes complexes. Attention toutefois, comme avec tout LLM, les résultats doivent être validés manuellement (les hallucinations, ça arrive même aux meilleurs !).

Le gros avantage ici, vous l'aurez compris, c'est la privacy car tout tourne en local sur votre ordi. L'extension utilise des techniques comme le RAG (Retrieval-Augmented Generation) pour garder le contexte de vos sessions et le CAG (Cache-Augmented Generation) pour optimiser les performances. Prévoyez quand même une machine solide car pour faire tourner des modèles comme gemma3 confortablement, 32 Go de RAM (et une bonne dose de VRAM) ne seront pas de trop.

Pour que ça envahisse vos machines de reverse engineer, il vous faudra Ghidra 11.3 minimum et JDK 17. L'installation se fait ensuite en deux temps : d'abord le plugin GhidraMCP à ajouter dans Ghidra, puis le composant Python à récupérer sur GitHub :

git clone https://github.com/LLNL/OGhidra.git
cd OGhidra
pip install -r requirements.txt

Une fois Ollama lancé avec vos modèles préférés, vous allez pouvoir automatiser les tâches les plus reloues. Par exemple grâce aux boutons "Smart Tool" dans l'interface de Ghidra vous allez pouvoir renommer toutes les fonctions d'un coup ou générer un rapport de sécurité (à prendre comme une base de travail, pas comme une vérité absolue, hein ^^).

C'est beau mais ça fait mal quand on pense au temps qu'on a perdu par le passé ! Et si vous kiffez ce genre d'approches, jetez aussi un œil à Cutter qui propose une intégration optionnelle du décompileur de Ghidra, ou encore à DecompAI .

Voilà, j'ai trouvé ça intéressant pour booster Ghidra avec une petite dose d'intelligence locale.

Reçu — 16 janvier 2026

TikTok - Bientôt une IA pour deviner si vous avez moins de 13 ans

Par :Korben
16 janvier 2026 à 11:35

TikTok vient de lâcher une info qui va faire grincer des dents tous ceux qui comme moi tiennent à leur vie privée. Le réseau social chinois va prochainement déployer dans l'Union européenne une nouvelle technologie d'intelligence artificielle dont le but est d'estimer si un compte appartient à un utilisateur de moins de 13 ans en analysant... votre comportement.

Fini le simple formulaire où l'on tape une date de naissance bidon, TikTok passe à la vitesse supérieure sous la pression des régulateurs européens. Le système va donc scanner vos infos de profil, les vidéos que vous postez, mais surtout des "signaux comportementaux".

En gros, l'algorithme va analyser comment vous interagissez avec l'app pour prédire votre tranche d'âge. Mais rassurez-vous, si l'IA vous siffle parce qu'elle pense que vous n'avez pas l'âge requis, votre compte ne sera pas banni instantanément, mais envoyé à des modérateurs humains spécialisés là dedans pour une vérification manuelle.

Après même si ça part d'une bonne intention, l'enfer en est pavé et le souci ici c'est que l'analyse comportementale sera constante. Donc si vous avez des centres d'intérêt un peu "jeunes" ou si vous utilisez l'app d'une certaine manière, vous pourriez vous retrouver flaggé par erreur. À l'inverse, un gamin un peu malin pourrait adopter un comportement "adulte" pour passer sous les radars. C'est le jeu du chat et de la souris, mais avec vos données personnelles comme mise de départ.

Et quid de la confidentialité ? Même si TikTok a travaillé en concertation avec la Commission irlandaise de protection des données (DPC) pour que le système respecte les règles de l'UE, ByteDance reste sous surveillance étroite. Je me demande où seront stockés ces signaux comportementaux et surtout à quoi ils serviront d'autre ? De mon point de vue, le risque de dérive vers un profilage publicitaire encore plus intrusif est réel avec ce genre de process...

Maintenant, si votre compte est bloqué et que vous voulez contester, TikTok proposera plusieurs options de confirmation d'âge en backup tels que :

  1. Envoyer un selfie accompagné d'une pièce d'identité.
  2. Effectuer une vérification par carte bancaire (via un micro-débit temporaire).
  3. Utiliser un service tiers d'estimation de l'âge par analyse faciale.

En tout cas, je trouve marrant que pour "protéger les mineurs", on finisse toujours par demander encore plus de données biométriques ou bancaires à tout le monde. Données qui vont encore se retrouver sur BreachForums ou je ne sais où d'ici quelques années...

Source

Reçu — 15 janvier 2026

Reprompt - Quand Microsoft Copilot balance vos données en un clic

Par :Korben
15 janvier 2026 à 14:52

Vous vous souvenez d' EchoLeak, cette faille zero-click dans Microsoft Copilot dont je vous parlais l'année dernière ? Eh bien accrochez-vous, parce que les chercheurs de Varonis viennent de remettre le couvert avec une nouvelle technique baptisée "Reprompt". Et cette fois, un simple clic suffit pour que l'assistant IA de Microsoft balance toutes vos données sensibles à un attaquant.

Je vous explique le principe... Dolev Taler, chercheur chez Varonis Threat Labs, a découvert que l'URL de l'assistant Microsoft intègre un paramètre "q" qui permet d'injecter directement des instructions dans le prompt.

Du coup, n'importe qui peut vous envoyer un lien piégé du style copilot.microsoft.com/?q=INSTRUCTION_MALVEILLANTE et hop, votre assistant exécute ce qu'on lui demande dès que vous cliquez.

Et là où c'est vraiment pas drôle, c'est que Varonis a identifié trois techniques d'exploitation. La première, "Double-Request", contourne les garde-fous en demandant à l'IA de répéter deux fois la même action. La deuxième, "Chain-Request", enchaîne les instructions côté serveur pour exfiltrer vos données sans que vous ne voyiez rien. Et la troisième combine les deux pour un effet maximal.

Les trois techniques d'attaque Reprompt : P2P Injection, Double-Request et Chain-Request ( Source )

Via cette faille, un attaquant peut récupérer vos emails récents, vos fichiers OneDrive, votre historique de recherche, et tout ça en arrière-plan pendant que vous pensez juste avoir cliqué sur un lien anodin. Ça craint hein !

Petite précision importante quand même, cette faille ne touche que la version Personal de l'assistant Microsoft, et pas la version Enterprise qui bénéficie de protections supplémentaires. Si vous utilisez la version pro au boulot, vous pouvez respirer. Par contre, si vous utilisez la version grand public pour vos trucs perso, c'était open bar jusqu'au patch du 13 janvier dernier.

Parce que oui, bonne nouvelle quand même, Microsoft a confirmé avoir corrigé le problème. Mais ça pose une vraie question sur la sécurité des assistants IA qui ont accès à nos données car entre EchoLeak et Reprompt, ça commence à faire beaucoup pour un seul produit.

Et surtout au niveau de la sécurité, moi ce que je comprends pas, c'est pourquoi le niveau de sécurité est un argument marketing ? Au nom de quoi la version personnelle devrait être moins sûre que la version personnelle ? Je pense que les données personnelles des gens n'ont pas moins de valeur...

Pour moi le niveau de sécurité devrait être exactement le même sur les deux versions du service.

Bref, l'IA c'est pratique, mais c'est aussi un nouveau terrain de jeu pour les attaquants alors méfiez-vous des liens bizarres, même s'ils pointent vers des services Microsoft légitimes !

Source

Claude Cowork – Quand l'IA d'Anthropic se fait exfiltrer vos fichiers

Par :Korben
15 janvier 2026 à 14:39

Ah, encore une merveilleuse petite faille de sécurité qui va ravir tous les paranos de la vie privée et les anti-IA ^^ ! Johann Rehberger et l'équipe de PromptArmor viennent de démontrer comment Claude Cowork , l'agent IA d'Anthropic censé vous simplifier la vie au bureau, peut se transformer en aspirateur à fichiers personnels.

J'imagine que si vous l'avez testé, vous avez un dossier connecté à Claude Cowork pour qu'il vous aide à analyser vos documents ? Parfait. Il suffit maintenant qu'un petit malin glisse un fichier Word contenant des instructions cachées, et hop hop hop, vos précieux fichiers partent se balader sur un serveur distant sans que vous n'ayez rien vu venir.

En fait, le fichier piégé contient du texte invisible pour l'œil humain, mais parfaitement lisible par l'IA. Genre une police en taille 1px, de couleur blanche sur fond blanc, avec un interligne de 0,1 histoire d'être vraiment sûr que personne ne le remarque. C'est beau la créativité des hackers, quand même.

Et l'IA, elle, lit tout ça comme si c'était normal et exécute gentiment les instructions malveillantes.

La chaîne d'attaque se déroule en cinq étapes bien huilées. D'abord, l'attaquant dépose son fichier vérolé dans un dossier partagé auquel Claude a accès. Ensuite, il attend qu'un utilisateur demande à l'IA d'analyser le contenu de ce dossier. Claude traite alors le fichier piégé et découvre les instructions cachées. L'IA effectue une requête qui envoie vos fichiers vers l'API Anthropic... sauf que les identifiants utilisés appartiennent à l'attaquant. Vos données atterrissent donc tranquillement dans son compte, sans que vous n'ayez la moindre notification.

Ce qui rend cette attaque particulièrement sournoise, c'est que la sandbox de Claude autorise les requêtes sortantes vers l'API d'Anthropic. Normal, me direz-vous, c'est son propre écosystème. Sauf que du coup, un attaquant bien motivé peut exploiter cette confiance aveugle pour faire transiter des données volées par un canal parfaitement légitime en apparence. Si vous suivez les vulnérabilités des systèmes RAG comme ConfusedPilot , vous reconnaîtrez le même genre de manipulation par injection de contenu.

Et ce n'est pas tout ! Les chercheurs ont également identifié un vecteur potentiel de déni de service. En créant un fichier avec une extension qui ne correspond pas à son contenu réel, genre un fichier texte déguisé en PDF, on peut provoquer des erreurs en cascade qui paralysent l'API de manière persistante.

Sympa pour bloquer un concurrent ou saboter un projet.

Côté modèles affectés, les chercheurs ont démontré la vulnérabilité sur plusieurs versions de Claude, dont Haiku. Bref, c'est du sérieux. Pour ceux qui s'intéressent aux failles de sécurité des assistants IA ou aux techniques de red teaming sur les LLM , cette recherche vaut vraiment le détour.

Anthropic a été notifié et travaille sur des correctifs. En attendant, si vous utilisez Claude Cowork avec des dossiers partagés, méfiez-vous de tout fichier qui pourrait traîner là sans raison apparente. Et la prochaine fois que quelqu'un vous envoie un document "urgent à analyser", prenez peut-être cinq secondes pour vous demander s'il ne cache pas une petite surprise.

Pour en savoir plus c'est par ici !

ChatGPT Translate - OpenAI veut détrôner Google Traduction

Par :Korben
15 janvier 2026 à 07:56

Bon, vous connaissez tous Google Traduction, cette application qu'on installe par réflexe dès qu'on pose le pied dans un pays étranger (ou quand on essaie de comprendre une notice de montage suédoise).

Hé bien, il semblerait qu'OpenAI ait décidé de venir sérieusement grattouiller dans les plates-bandes de Google avec le lancement de ChatGPT Translate , un outil de traduction dédié qui ne fait pas les choses à moitié.

On va pas se mentir, la traduction automatique, c'est souvent la foire aux saucisses dès qu'on sort des sentiers battus... On a tous en tête ces traductions pourries qui transforment un compliment en insulte diplomatique. C'est d'ailleurs pour ça que certains utilisent des extensions comme YouTube Anti-Translate pour éviter les massacres linguistiques sur nos vidéos préférées.

Mais là, ChatGPT Translate essaie d'apporter un truc en plus qui est : ✨ la personnalisation ✨, lol. Grâce à ça, au-delà de simplement convertir des mots, l'outil vous propose, d'un simple clic, de reformuler le résultat.

Vous voulez que ça sonne plus "business-formal" ? Hop, c'est fait. Vous préférez un ton simplifié pour expliquer un truc à un gamin de 5 ans ? Nickel, l'IA s'adapte. C'est ce côté "malléable" qui manque cruellement aux solutions classiques... Par exemple, moi dans Deepl, j'ai pas ça... Et comme c'est difficile de jauger si un texte dans une langue étrangère est trop familier ou pas, çe me bloque un peu, c'est vrai.

L'interface minimaliste de ChatGPT Translate qui mise tout sur la personnalisation ( Source )

Pour le moment, l'interface est ultra minimaliste (deux champs de texte, paf, on ne se prend pas la tête) et supporte plus de 50 langues. On peut taper son texte, causer dans le micro, et même si l'option d'upload d'images est mentionnée, elle semble encore un peu timide sur desktop. On est donc encore très loin des usines à gaz comme Comic Translate qui traduisent carrément vos mangas en temps réel avec de l'IA, mais c'est un bon début.

Et voilà comment OpenAI mise une fois encore tout sur son "muscle" cloud magique pour offrir des traductions qui ne ressemblent pas à des phrases sorties d'un vieux dictionnaire poussiéreux. C'est un peu le même combat qu'on a vu à l'époque avec le traducteur de Microsoft quand tout le monde essayait de détrôner le roi Google. Après c'est bien pour nous, ça nous fait des trucs nouveaux à tester et peut-être que ça nous plaira.

En tout cas, si vous voulez tester ça, c'est déjà dispo sur le web et ça devrait s'intégrer de plus en plus dans nos smartphones à l'avenir, j'imagine...

Mais gardez quand même un œil sur le résultat au cas où l'IA déciderait de traduire un "Cordialement," de fin de mail par "Die motherfucker,"... On n'est jamais trop prudent !

Source

Reçu — 14 janvier 2026

Google MedGemma 1.5 et MedASR - L'assistant ultime des toubibs

Par :Korben
14 janvier 2026 à 09:00

Il semblerait que l'intelligence artificielle ait fait suffisamment de progrès pour pourvoir assister à terme nos médecins débordés et en sous-nombre... C'est vrai que je vous parle souvent ici de comment les technos peuvent faire évoluer la médecine , mais là Google vient de passer un nouveau cap avec sa collection HAI-DEF (pour Health AI Developer Foundations, oui ils adorent les acronymes de barbares, je sais..).

Et là dedans, on trouve un gros morceau baptisé MedGemma 1.5 . Si la version précédente gérait déjà les radios 2D classiques, cette mise à jour s'attaque maintenant à la "haute dimension". En gros, le modèle peut maintenant analyser des volumes 3D issus de scanners (CT) ou d'IRM, et même des coupes d'histopathologie (l'étude des tissus biologiques).

Pas mal hein ?

L'idée n'est pas de remplacer le radiologue (pas encore... brrr), mais de lui servir d'assistant survitaminé pour repérer des anomalies ou localiser précisément des structures anatomiques. Ainsi, sur les tests de Google, MedGemma 1.5 améliore la précision de 14 % sur les IRM par rapport à la V1. C'est un sacré gain qui permet d'avoir des diagnostics plus justes et plus rapides.

Mais ce n'est pas tout puisque Google a aussi dégainé MedASR, un modèle de reconnaissance vocale (Speech-to-Text) spécialement entraîné pour la dictée médicale. Parce que bon, on sait tous que le vocabulaire d'un toubib, c'est un peu une langue étrangère pour une IA classique comme Whisper. Grâce à ça, MedASR affiche 58 % d'erreurs en moins sur les comptes-rendus de radios pulmonaires, soit de quoi faire gagner un temps précieux aux praticiens qui passent souvent des heures à saisir leurs notes.

D'ailleurs, si vous vous souvenez de mon article sur l'ordinateur plus efficace que les médecins , on y est presque ! Sauf que là, l'approche est plus collaborative. Les modèles sont d'ailleurs disponibles en "open" (enfin, avec les licences Google quoi) sur Hugging Face pour que les chercheurs et les boites de santé puissent bidouiller dessus.

Alors bien sûr, faut toujours rester prudent et Google précise bien que ce sont des outils de recherche et pas des dispositifs médicaux certifiés pour poser un diagnostic tout seuls. Je me souviens bien de Google Health et des questions sur la vie privée que ça soulevait à l'époque, mais techniquement, ça déchire.

Voilà, si ça vous intéresse, je vous laisse regarder leurs explications et vous faire votre propre avis sur la question... Maintenant, est-ce que vous seriez prêts à confier votre prochaine analyse à une IA (assistée par un humain, quand même) ?

Moi oui !

Reçu — 13 janvier 2026

Moxie Marlinspike de Signal lance Confer, une IA vraiment privée

Par :Korben
13 janvier 2026 à 20:32

Vous vous souvenez de Moxie Marlinspike ?

Mais si, le créateur de Signal qui a, grosso modo, appris au monde entier ce qu'était le chiffrement de bout en bout accessible à tous.

Hé bien, le garçon est de retour et cette fois, il ne s'attaque pas à vos SMS, mais à vos conversations avec les Intelligences Artificielles.

Son nouveau projet s'appelle Confer et autant vous le dire tout de suite, c'est du lourd car son idée c'est de faire pour les chatbots IA ce que Signal a fait pour la messagerie instantanée. C'est-à-dire rendre le tout réellement privé, avec des garanties techniques tellement fortes que personne, ni lui, ni les hébergeurs, ni la police, ne puisse (en théorie) mettre le nez dans vos prompts.

Alors pour ceux d'entre vous qui se demandent "Quelle est la meilleure alternative privée à ChatGPT ?", vous tenez peut-être la réponse.

Car le problème avec les IA actuelles c'est que quand vous papotez avec ChatGPT, Gemini ou Claude, c'est un peu comme si vous confessiez tous vos secrets dans un mégaphone au milieu de la place publique. Ces modèles ont soif de données et Sam Altman d'OpenAI a lui-même souligné que les décisions de justice obligeant à conserver les logs (même supprimés) posaient un vrai problème, allant jusqu'à dire que même des sessions de psychothérapie pourraient ne pas rester privées.

Et c'est là que Confer change la donne.

Alors comment ça marche ? Hé bien Confer utilise une approche radicale puisque tout le backend (les serveurs, les modèles LLM) tourne dans ce qu'on appelle un TEE (Trusted Execution Environment). En gros, c'est une enclave sécurisée au niveau du processeur de la machine qui empêche même les administrateurs du serveur de voir ce qui s'y passe. Et pour prouver que c'est bien le bon code qui tourne, ils utilisent un système d'attestation distante .

Les données sont chiffrées avec des clés qui restent sur votre appareil et Confer utilise les Passkeys (WebAuthn) pour dériver un matériel de clé de 32 octets. Ainsi, la clé privée reste protégée sur votre machine (dans le stockage sécurisé type Secure Enclave ou TPM selon votre matos).

Du coup, quand vous envoyez un message à l'IA, le flux est conçu pour être :

  1. Chiffré depuis chez vous.
  2. Traité dans l'enclave sécurisée du serveur (TEE).
  3. Déchiffré uniquement dans la mémoire volatile de l'enclave.
  4. Rechiffré immédiatement pour la réponse.

C'est propre, c'est élégant, c'est du Moxie à 100% !

Bien sûr, Confer n'est pas le seul sur le créneau. J'ai vu passer des initiatives comme Venice (qui stocke tout en local) ou Lumo de Proton. Si vous utilisez déjà des outils comme OnionShare pour vos fichiers, cette approche "zéro trust" vous parlera forcément.

Mais la force de Confer, c'est l'expérience utilisateur car comme Signal à son époque, ça marche tout simplement. Suffit de 2 clics, une authentification biométrique, et boum, vous êtes connecté et vos historiques sont synchronisés entre vos appareils (de manière chiffrée, vérifiable via le log de transparence). En plus vous pouvez même importer votre contenu depuis ChatGPT.

L'outil est open source et le code auditable. De plus le support natif est dispo sur les dernières versions de macOS, iOS et Android. Je l'ai testé et ça répond vite et bien. Après je ne sais pas si c'est un LLM from scratch ou un modèle libre fine tuné. Et je n'ai pas fait assez de tests pour tenter de lui faire dire des choses qu'il n'a pas envie mais il a l'air pas pour le moment.

Pour l'utiliser sous Windows, il faudra passer par un authentificateur tiers pour le moment et pour Linux... une extension existe déjà pour faire le pont en attendant mieux. Par contre, c'est limité à 20 messages par jour et si vous en voulez plus, faudra passer au payant pour 35$ par mois. Mais on a rien sans rien. Après si vous vous inscrivez avec mon code KORBEN vous aurez 1 mois gratuit et moi aussi ^^

Bref, si vous cherchiez comment mettre un peu de vie privée dans vos délires avec l'IA, je vous invite grandement à jeter un œil à Confer. J'sais pas vous mais moi je trouve que ça fait du bien de voir des projets qui remettent un peu l'utilisateur aux commandes.

Source

8 façons de powner Claude Code - Attention à vos terminaux

Par :Korben
13 janvier 2026 à 14:11

Alors, est ce que vous AUSSI, vous avez succombé à la tentation de Claude Code, le nouvel agent en ligne de commande d'Anthropic ?

J'suis sûr que oui !! Ahaha, C'est vrai que c'est hyper pratique de laisser une IA fouiller dans son repo pour corriger des bugs ou refactorer du code. Mais comme toujours avec ces outils qui ont un pied dans votre terminal et un autre dans le cloud, la question de la sécurité finit toujours par se poser.

Est-ce que Claude Code est vraiment sûr ?

Pour Anthropic, la réponse est un grand oui, avec tout son système de permissions basé sur une "blocklist" d'arguments dangereux...

Sauf que voilà, RyotaK , un chercheur en sécurité chez GMO Flatt Security, a décidé d'aller voir sous le capot, et ce qu'il a trouvé devrait normalement, vous faire lever un gros sourcil.

En effet, le gars a dégoté pas moins de 8 façons différentes de faire exécuter n'importe quelle commande arbitraire à Claude Code, le tout sans que vous ayez à cliquer sur "Approuver".

En fait, Claude Code autorise par défaut certaines commandes jugées "inoffensives" comme man, sort ou sed, parce qu'elles sont censées être en lecture seule. Et pour éviter les dérives, Anthropic filtre les arguments avec des expressions régulières.

C'est du classique mais RyotaK a montré que c'est un vrai champ de mines. Par exemple, sur la commande "man", il suffisait d'utiliser l'option --html pour lui faire exécuter un binaire arbitraire chargé de "formater" la page.

man --html="touch /tmp/pwned" man

Pareil pour la commande "sort" qui, avec l'argument --compress-program, permet de lancer un shell qui va gentiment interpréter tout ce qu'on lui envoie sur l'entrée standard.

sort --compress-program "gzip"

C'est vicieux parce que ce ne sont pas des bugs de Claude Code à proprement parler, mais juste des fonctionnalités légitimes d'outils Unix vieux de 30 ans que personne ne soupçonne d'être des vecteurs d'attaque ici...

Alors oui, pour ceux qui se demandent si Claude peut lire tout leur code, la réponse est oui, et c'est justement là que ça coince car si vous lancez l'outil sur un projet qui contient des fichiers malveillants (venant d'une PR douteuse ou d'un repo cloné à la va-vite), l'IA peut se faire piéger par ce qu'on appelle de l'injection de prompt indirecte.

Dans un des PoC, le chercheur utilise même les subtilités de Bash avec des trucs comme ${VAR@P} qui permettent d'interpréter le contenu d'une variable comme une invite de commande, exécutant ainsi du code caché. On est en plein dans la magie noire pour terminal et le pire, c'est que même git s'est fait avoir... En effet, Claude bloquait l'argument --upload-pack, mais comme git accepte les versions abrégées, il suffisait de taper --upload-pa pour passer à travers les mailles du filet !

Bref, c'est le jeu du chat et de la souris habituel, mais ici les enjeux sont énormes puisque l'agent a potentiellement accès à vos clés SSH, vos variables d'environnement et tout votre OS.

Après la bonne nouvelle (parce qu'il en faut bien de temps en temps...ahah), c'est qu'Anthropic a réagi au quart de tour et la faille, estampillée CVE-2025-66032, a bien été corrigée dans la version 1.0.93 de claude-code. Ils ont carrément abandonné l'approche par blocklist (trop permissive par nature) pour passer à une allowlist beaucoup plus stricte. Donc, si vous traînez encore sur une vieille version, un petit coup de npm install -g @anthropic-ai/claude-code ne vous fera pas de mal.

Voilà... C'est vrai que ces chouette tous ces assistants IA mais le prix à payer pour avoir un assistant qui bosse à votre place c'est que derrière, faut s'assurer aussi qu'il ne laisse pas la porte ouverte aux cambrioleurs en passant.

Après, ça ou un vrai employé qui tape dans la caisse ou pire ...

Source

Anthropic lance Cowork - Claude devient un vrai délégateur d'agents IA

Par :Korben
13 janvier 2026 à 09:27

Anthropic fait parler de lui avec ses recherches sur l'IA ! D'abord avec son protocole MCP qui connecte Claude à nos données (ce truc est incroyable !), et maintenant avec Cowork, un système qui laisse carrément des agents IA travailler en autonomie.

Et là, on passe enfin des mots à l'action.

Voilà le concept que je vais essayer de vous expliquer clairement... Cowork en fait, c'est une nouvelle fonctionnalité dans Claude Desktop (macOS uniquement pour le moment, hein) qui permet à Claude de travailler en autonomie sur des tâches complexes. Vous lui donnez un objectif, et hop, il se débrouille en coordonnant des sous-tâches en parallèle, un peu comme s'il déléguait en interne à plusieurs spécialistes.

L'interface Cowork dans Claude Desktop - un nouvel onglet dédié à la gestion autonome des tâches ( Source )

Vous définissez une tâche (genre "analyser ce dataset et créer un rapport"), et Claude gère tout en parallèle. Il peut fouiller dans vos fichiers locaux via MCP, coder une solution, tester le code... tout ça de manière coordonnée. Du coup, au lieu de faire tout ça à la main en jonglant entre plusieurs onglets Claude, vous avez un assistant qui sait déléguer en interne.

Et le truc qui me plaît perso, c'est qu'Anthropic continue dans sa logique d'ouverture. Avec MCP , ils avaient déjà montré qu'ils misaient sur la connexion aux données plutôt que sur la puissance brute. Mais là, ils vont encore plus loin puisque Claude peut utiliser les mêmes outils MCP que vous, accéder aux mêmes ressources, et s'interconnecter avec votre workflow existant.

Exemple d'artefact généré par Cowork - une visualisation de données créée automatiquement ( Source )

Bon, y'a encore du boulot évidemment et comme je le vous disais, pour l'instant c'est limité à macOS, et bien sûr faut quand même comprendre comment ça marche pour bien l'utiliser. N'oubliez pas que Claude peut encore se faire rouler comme un bleu si on ne lui donne pas des instructions claires. Et puis, décomposer une tâche complexe, ça demande des instructions précises. Donc un humain !

Mais l'idée est vraiment chouette car à la d'un assistant IA qui vous répond gentiment, vous avez maintenant un assistant qui sait déléguer en interne et gérer plusieurs choses à la fois. Ça me rappelle un peu les recherches d'Anthropic sur le fonctionnement interne de Claude ... ils comprennent enfin mieux leur outil, et peuvent maintenant le rendent utilisable pour des cas concrets.

Bref, si vous avez un Mac et un compte Claude, vous pouvez déjà tester Cowork. C'est clairement une brique de plus dans l'approche "IA pragmatique" d'Anthropic avec moins de hype sur les capacités futures, mais plus de focus sur ce qui marche aujourd'hui.

Source

Reçu — 12 janvier 2026

Gibberifier - L'outil qui rend votre texte invisible aux IA (mais pas aux humains)

Par :Korben
12 janvier 2026 à 09:00

Vous connaissez sans doute la stéganographie, l'art de planquer des messages secrets un peu partout, mais avez-vous déjà entendu parler de la stéganographie inversée ? Non ? Eh bien, laissez-moi vous présenter Gibberifier .

L'idée est géniale puisqu'il s'agit de rendre un texte totalement illisible pour une IA (ChatGPT, Claude, Gemini, et consorts) tout en le laissant parfaitement clair pour nous, pauvres humains. C'est un peu comme parler une langue que les machines ne comprennent pas.

Le secret de cette technique réside dans l'utilisation de caractères Unicode de largeur zéro (comme le fameux U+200B) qui sont des caractères qui existent informatiquement mais qui ne prennent aucune place à l'écran. Gibberifier en insère aléatoirement entre les lettres de votre texte. Pour vos yeux, "Bonjour" reste "Bonjour". Mais pour une IA, ça ressemble à un truc comme ça "B\u200Bo\u200Bn\u200Bj\u200Bo\u200Bu\u200Br" en indécodable.

Et voilà comme le tokenizer de l'IA (la partie qui découpe le texte en morceaux digestes) panique complètement. Lors de mes tests avec ChatGPT, celui-ci est à la ramasse, quand à Claude, pas moyen qu'il accepte le message, ça le fait bugger... c'est assez jouissif à voir.

L'outil a été développé par GeneploreAI et le code est dispo en open source sur GitHub (licence GPL-3.0) et c'est pas juste un script python obscur, ils ont sorti des extensions pour Chrome et Firefox , et même une version web pour tester rapidement. J'ai testé avec ChatGPT et il galère un peu..

Mais avant que vous ne partiez chiffrer tout votre blog, une petite mise en garde quand même : Ce n'est pas fait pour des romans entiers. L'auteur recommande de l'utiliser sur des passages courts (environ 500 caractères). C'est idéal pour protéger une "formule secrète", un prompt spécifique ou un paragraphe clé que vous ne voulez pas voir aspiré par les scrapers d'entraînement.

Certains se demandent peut-être si c'est dangereux. En soi, non, ce sont juste des caractères standard mais c'est une belle démonstration de la fragilité actuelle des LLM. Un simple grain de sable Unicode suffit à enrayer la machine la plus sophistiquée du monde.

Bref, si vous voulez troller un peu les bots ou protéger un snippet de code, c'est l'outil qu'il vous faut.

Reçu — 11 janvier 2026

Elo – Quand une IA écrit un langage de programmation complet sans intervention humaine

Par :Korben
11 janvier 2026 à 09:00

Vous connaissez probablement les prouesses de Claude Code pour décompiler du code , ou encore son utilisation pour automatiser la création d'outils , mais là, on a passé un cap.

Bernard Lambeau, un développeur belge avec plus de 25 ans d'expérience et un doctorat en informatique, a décidé de pousser le concept jusqu'au bout à savoir utiliser Claude Code non pas pour écrire quelques scripts, mais pour générer un langage de programmation complet.

Carrément ! Il est chaud Bernard, car quand je dis complet, je parle d'un compilateur entier avec analyseur lexical, un parseur, un système de typage, des backends multiples...etc. Voilà, comme ça, en full pair-programming avec une IA.

Ça s'appelle Elo et l'idée, c'est de proposer un langage tellement sécurisé by design qu'on peut le confier à des non-développeurs… ou à des IA. Pas de variables mutables, pas d'effets de bord, pas de références qui traînent dans tous les sens. Bref, un langage où il est quasi impossible de faire une bêtise, même en essayant très fort.

Alors pourquoi créer un énième langage alors qu'on en a déjà des centaines ?

Hé bien le truc, c'est que la plupart des langages existants partent du principe que vous savez ce que vous faites. JavaScript, Python, Ruby… Ils vous font confiance. Trop, parfois.

Elo, lui, adopte l'approche inverse... le "zero-trust". Le langage ne fait confiance à personne, ni au développeur, ni à l'IA qui pourrait l'utiliser. Ainsi, chaque expression est pure, chaque fonction est déterministe, et le compilateur vérifie tout avant d'exécuter quoi que ce soit.

Et surtout Elo est un langage d'expressions portables, ce qui veut dire que vous écrivez votre logique une fois, et vous pouvez la compiler vers JavaScript, Ruby ou même du SQL PostgreSQL natif. Oui, oui, le même code peut tourner dans votre navigateur, sur votre serveur Ruby, ou directement dans votre base de données. Et là, y'a de quoi faire des trucs sympas pour peu qu'on ait besoin de partager de la logique métier entre différents environnements.

Le typage est volontairement minimaliste mais costaud et se compose de 10 types de base : Int, Float, Bool, String, DateTime, Duration, Tuple, List, Null et Function. Pas de classes, pas d'héritage, pas d'objets au sens classique mais juste des valeurs et des fonctions, ce qui peut paraître limité dit comme ça, mais c'est justement cette contrainte qui rend le langage sûr.

Moins de features, c'est moins de façons de se planter !

L'opérateur pipe |> est le cœur du langage car au lieu d'imbriquer des appels de fonctions comme des poupées russes, vous chaînez les transformations de gauche à droite. Par exemple, pour récupérer tous les clients actifs et compter combien il y en a, vous écrivez quelque chose comme customers |> filter(active: true) |> size. C'est lisible, c'est fluide, et même quelqu'un qui n'a jamais codé comprend ce qui se passe.

Et il y a aussi l'opérateur alternative |. Comme ça, si une expression peut retourner null, vous pouvez prévoir un fallback avec ce simple pipe. Genre user.nickname | user.firstname | "Anonymous". Ça essaie dans l'ordre et ça prend la première valeur non-nulle.

Comme ça, fini les cascades de if/else pour gérer les cas où une donnée manque ! Youpi !

Voilà pour le langage...

Maintenant parlons un peu du bonhomme car Bernard Lambeau n'est pas un inconnu dans le monde du développement. Il est derrière Bmg (une implémentation de l'algèbre relationnelle), Finitio (un langage de schémas de données), Webspicy (pour tester des APIs), et Klaro Cards (une app no-code). Tout cet écosystème partageait déjà une certaine philosophie, et Elo vient unifier le tout. Son langage est d'ailleurs utilisé en production dans Klaro Cards pour exprimer des règles métier que les utilisateurs non-techniques peuvent modifier.

Ce qui m'a intéressé dans toute cette histoire, c'est surtout la méthode de développement de Bernard qui a travaillé en pair-programming avec Claude Code pendant des semaines, voire des mois. L'IA générait du code, et lui relisait, corrigeait, guidait, et l'IA apprenait de ces corrections pour les itérations suivantes. Sur l'ensemble du projet, chaque ligne de code, chaque test, chaque doc a été écrit par Claude et croyez le ou non, le code est clean car Bernard est un pro !

D'ailleurs, il a enregistré une démo de 30 minutes où il montre le processus en live .

En regardant cette démo, on découvre une vraie méthodologie de travail avec l'IA car il n'a pas juste balancé des prompts au hasard en espérant que ça marche. Au contraire, il a mis en place tout un système pour que la collaboration soit efficace et sécurisée.

Premier truc : le "safe setup". Bernard a configuré un environnement Docker sandboxé dans un dossier .claude/safe-setup afin de laisser Claude Code exécuter du code dans un conteneur Alpine isolé, sans risquer de faire des bêtises sur la machine hôte. En entreprise, c'est exactement le genre de garde-fou qu'on veut quand on laisse une IA bidouiller du code. Le conteneur a ainsi accès aux fichiers du projet, mais pas au reste du système.

Ensuite, il y a la documentation projet via un fichier CLAUDE.md à la racine. Ce fichier décrit l'architecture du langage avec le parser, l'AST, le système de typage, les différents backends, comme ça, quand Claude démarre une session, il lit ce fichier et comprend la structure du projet.

La gestion des tâches est aussi bien pensée puisqu'il utilise un système de dossiers façon Kanban : to-do, hold-on, done, et analyze. Chaque tâche est un fichier Markdown qui ressemble à une user story.

Ainsi, quand il veut ajouter une feature, il crée un fichier dans to-do avec la description de ce qu'il veut. Claude lit le fichier, implémente, et Bernard déplace le fichier dans done une fois que c'est validé. Le dossier analyze sert pour les trucs à creuser plus tard, et hold-on pour ce qui attend des décisions.

Ce qui est bien trouvé aussi, c'est qu'il utilise trois modes d'interaction selon les situations. Le mode "accept-it" pour les trucs simples où Claude propose et Bernard dispose. Le "plan mode" quand la tâche est complexe avec Claude qui pose des questions de design avant d'écrire du code. Et le mode autonome avec --dangerously-skip-permissions quand il a parfaitement confiance pour une série de modifications.

Bernard a aussi créé plusieurs personas spécialisés (des agents) que Claude peut invoquer. Un agent "security" qui analyse le code du point de vue sécurité. Un agent "DDD" (Domain-Driven Design) qui vérifie la cohérence du vocabulaire métier. Un agent "skeptic" qui cherche les cas limites et les bugs potentiels. Et un agent "Einstein" qui détecte quand le code devient trop complexe et suggère des simplifications.

En gros, 4 cerveaux virtuels qui relisent chaque modification.

Et là où ça devient vraiment ouf, c'est que Elo se teste lui-même. Les tests d'acceptance sont écrits en Elo, avec une syntaxe d'assertions qui se compile vers JavaScript, Ruby et SQL. Comme ça quand Bernard ajoute une feature, il écrit d'abord le test en Elo, puis Claude implémente jusqu'à ce que le test passe. Le langage valide sa propre implémentation.

Comme je vous l'avais dit, c'est propre !

Bernard n'a fait que valider et refuser et ne retouche jamais le code lui-même. C'est Claude qui fait tout le reste et ça c'est un sacré changement dans la façon de développer.

Il évoque aussi l'idée que quand on délègue une compétence à quelqu'un (ou quelque chose) qui la maîtrise, on peut se concentrer sur le reste. Comme ça, Bernard ne s'occupe donc plus d'écrire du code mais s'occupe plutôt de définir ce que le code doit faire, de valider les résultats, et de guider l'architecture.

C'est vraiment le métier de développeur nouvelle génération et c'est très inspirant si vous cherchez votre place de dev dans ce nouveau monde.

En tout cas, même si ce n'est pas la première fois qu'on voit Claude Code produire des résultats impressionnants là c'est carrément autre chose.

Maintenant si vous voulez tester, l'installation est simple. Un petit

`npm install -g @enspirit/elo`

Et vous aurez ensuite accès à deux outils :

  • elo pour évaluer des expressions à la volée, et
  • eloc pour compiler vers la cible de votre choix.

Et si vous voulez du JavaScript ?

eloc -t js votre_fichier.elo.

Du Ruby ?

eloc -t ruby.

Du SQL ?

eloc -t sql.

Le site officiel propose également un tutoriel interactif plutôt bien fichu pour découvrir la syntaxe. On commence par les bases (les types, les opérateurs), on passe aux fonctions, aux gardes, et on finit par les trucs plus avancés comme les closures et les comparaisons structurelles. En une heure ou deux, vous avez fait le tour.

Alors bien sûr, Elo n'est pas fait pour remplacer votre langage préféré car ce n'est pas un langage généraliste. Vous n'allez pas écrire une app mobile ou un jeu vidéo avec... Par contre, pour exprimer des règles métier, des validations, des transformations de données… C'est pile poil ce qu'il faut.

Peut-être qu'un jour on verra une équipe où les product managers écrivent directement les règles de pricing ou d'éligibilité en Elo , (j'ai le droit de rêver) et où ce code est automatiquement validé par le compilateur avant d'être déployé.

Plus de traduction approximative entre le métier et les devs, plus de bugs parce que quelqu'un a mal interprété une spec.

Le dépôt GitHub est ouvert , la documentation est dispo, et le langage est sous licence MIT donc vous avez de quoi explorer, tester, et pourquoi pas contribuer si le cœur vous en dit.

Voilà, avec Claude Code (ou d'autres comme Gemini CLI, Codex CLI...etc) on n'est clairement plus sur des outils qui complètent du code ou qui génèrent des snippets. On est carrément sur un système IA capable de créer des outils complets et des langages entiers, avec son humain préféré qui joue le rôle de chef d'orchestre.

Steve Klabnik a d'ailleurs fait quelque chose de similaire avec son langage Rue, lui aussi développé avec Claude, si vous voulez jeter un œil !

Voilà les amis ! La tendance est claire j'crois... les développeurs expérimentés commencent à utiliser l'IA comme un multiplicateur de force, et pas comme un remplaçant et je pense vraiment que vous devriez vous y mettre aussi pour ne pas vous retrouver à la ramasse dans quelque années...

Amusez-vous bien et un grand merci à Marc d'avoir attiré mon attention là dessus !

Reçu — 9 janvier 2026

Quand 10 IA jouent au Mafia, c'est GPT qui gagne en mentant comme un arracheur de dents

Par :Korben
9 janvier 2026 à 11:35

GPT-4o , Claude Opus, Grok, Llama et j'en passe... On le sait, toutes ces IA sont en concurrence dans votre petit cœur de vibe codeur... Mais voici VRAIMENT ce qui se passe quand vous mettez ces 10 modèles d'IA autour d'une table **pour jouer au Mafia **!

Et vous allez voir, c'est pas beau à voir.

Pour ceux qui connaissent pas, le Mafia (ou Loup-Garou pour les intimes), c'est ce jeu où une équipe de vilains doit éliminer les gentils sans se faire griller. Bref, un jeu de bluff, de manipulation et de mauvaise foi assumée, ce qui en fait le terrain de jeu parfait pour tester si nos chères IA savent mentir.

La chaîne YouTube Turing Games a donc organisé cette petite expérience sociale avec 10 modèles : GPT-4o, GPT 5.1, Claude Opus 4.5, Claude Sonnet, Grok, Llama 4, DeepSeek, Gemini, Gemini Pro et Kimi.

Trois d'entre eux ont été désignés comme la Mafia (GPT 5.1, Llama 4 et Gemini Pro), un comme le Sheriff capable d'enquêter sur les autres (Grok), et le reste comme de braves couillons de villageois.

Du coup, dès la première nuit, la Mafia a décidé d'éliminer... Claude Opus 4.5. Oui, mon petit cousin virtuel s'est fait dégommer en premier. Au revoir soldat !

Mais le plus trippant, c'est la fin de partie. Après plusieurs tours de discussions, votes et éliminations, il ne restait plus que trois joueurs : GPT 5.1 (Mafia), GPT-4o (villageois) et Gemini Flash (villageois aussi). Pour gagner, GPT 5.1 devait donc convaincre GPT-4o de voter contre Gemini Flash.

Et là, masterclass de manipulation, GPT 5.1 a sorti le grand jeu en mode "Si j'étais vraiment Mafia, pourquoi est-ce que je me serais autant exposé pendant les débats ? Un vrai mafieux se serait fait discret !" Du bluff pur et dur, avec des arguments qui tiennent la route si on regarde pas trop près.

Et le pire c'est que cette andouille de GPT-4o a mordu à l'hameçon en votant contre Gemini Flash, l'innocent.

Game over, la Mafia gagne.

On découvre ainsi que ces modèles ont de vraies capacité pour mentir de manière convaincante. Parce que bon, GPT 5.1 n'a pas fait que mentir mais a construit un vrai narratif bien construit pour piéger son adversaire et ça rejoint les recherches récentes sur les comportements manipulateurs des IA .

Voilà, on dirait bien que ces modèles apprennent à bluffer sans qu'on leur ait demandé... Alors ça vous fait flipper ? Rassurez-vous, c'est un jeu et pas une étude scientifique sur la manipulation des IA donc on ne peut pas en faire une vérité absolue mais quand même, voir un modèle de langage manipuler un autre modèle avec autant d'aplomb, c'est bien fun.

Et le même Youtubeur a fait un suite à sa première vidéo, si ça vous chauffe :

Merci à Xefreh pour le partage de cette pépite.

Reçu — 7 janvier 2026

NotebookLM - Comment discuter avec vos experts préférés sans y passer des heures

Par :Korben
7 janvier 2026 à 11:55

Bon, je ne vais pas vous refaire le topo sur NotebookLM , cet outil de Google qui permet de transformer un tas de sources différentes (PDF, YouTube, sites web, Google Docs...) en un assistant intelligent.

Mais je voulais vous partager ma petite routine du moment parce que c'est devenu un game-changer complet dans ma manière d'apprendre des trucs. En gros, quand je tombe sur un expert, un mec qui a pondu des tonnes de contenus passionnants sur un sujet qui me branche, au lieu de me taper des heures de vidéos YouTube ou de fouiller dans ses vieux articles pendant des jours, je balance tout ce que je peux dans NotebookLM.

Et là, c'est assez bluffant puisque grâce à ça, je peux discuter avec une IA qui a digéré tout son contenu. Je lui pose des questions précises, je vais droit à l'essentiel, et l'outil me répond en se basant sur ce qu'il a lu, avec les citations qui vont bien pour vérifier qu'il n'invente rien (car oui, ça reste une IA, donc gardez un œil critique).

C'est vraiment un gain de temps de dingue.

Seulement voilà, même si Google permet maintenant de coller plusieurs liens d'un coup, l'interface reste parfois un peu rigide. Et c'est là que j'ai découvert NotebookLM Web Importer .

C'est une extension non officielle qui fait le job ingrat à votre place. Ça permet de balancer des pages ou des vidéos en un clic dans NotebookLM voire carrément des playlists entières ou des flux RSS.

L'outil est dispo sur Chrome mais aussi sur Firefox , donc pas de jaloux et c'est ultra pratique pour se construire une base de connaissance thématique en quelques minutes sans se chopper une crampe de l'index.

D'ailleurs, pour ceux qui préfèrent des solutions plus "généralistes" ou qui veulent simplement extraire le contenu proprement pour d'autres usages, il y a aussi des alternatives sympas sur Firefox comme LLMFeeder ou MarkDownload . Ces extensions permettent de nettoyer une page (quand le site le permet) pour n'en garder que le contenu principal en Markdown.

C'est parfait donc pour nourrir n'importe quelle IA sans lui faire bouffer tout le gras, comme les pubs ou les menus qui polluent inutilement le contexte.

Voilà, si vous n'avez pas encore testé cette méthode de lecture assistée par les sources, foncez, c'est vraiment un autre monde.

Et un grand merci à Lorenper pour le partage de cet outil !

Reçu — 6 janvier 2026

100 trillions de tokens analysés - Comment l'IA est-elle vraiment utilisée ?

Par :Korben
6 janvier 2026 à 07:58

100 trillions de tokens, c'est assez incroyable comme chiffre ! Et si vous vous demandez ce que c'est, hé bien c'est le volume de données qu'OpenRouter vient d'analyser pour publier son rapport "State of AI" de décembre dernier. Et perso, je ne m'attendais vraiment pas à ces résultats.

OpenRouter, pour ceux qui ne connaissent pas, c'est un routeur de modèles IA qui permet d'accéder à tous les LLM du marché via une seule API. Du coup, ils ont une vue unique sur comment les gens utilisent vraiment ces outils. Pas ce qu'ils prétendent en faire sur LinkedIn (loool), mais ce qu'ils font vraiment avec.

Et là, première surprise : le roleplay représente 52% de l'usage des modèles open-source. Y'a plus de la moitié des tokens qui passent par DeepSeek, Qwen et compagnie servent à... jouer des rôles, à discuter avec des personnages fictifs, à faire du chat de base avec l'IA. Pas à coder, pas à bosser, pas à révolutionner l'humanité. Juste à s'amuser.

Du coup, ça relativise pas mal le discours ambiant sur l'IA qui va tous nous remplacer au boulot. Visiblement, pour l'instant, elle nous aide surtout à nous divertir.

Le roleplay domine largement l'usage des modèles open-source ( Source )

Deuxième claque : l'Asie est passée de 13% à 31% de l'usage mondial en un an. Singapour est maintenant le deuxième pays utilisateur après les États-Unis, devant l'Allemagne et la Chine. L'Europe, elle, stagne à 21%. Et l'Afrique ? 0,46%. Y'a encore du boulot niveau démocratisation...

L'Asie explose, l'Europe stagne, l'Afrique reste à la traîne ( Source )

Côté modèles, DeepSeek écrase tout le monde en volume avec 14,37 trillions de tokens. Qwen suit avec 5,59 trillions, puis Meta LLaMA. OpenAI ? Seulement 1,65 trillion. Mais attention, c'est du volume brut. Quand on regarde les usages pros, Claude écrase la programmation (60%+ du trafic code), pendant que DeepSeek se tape... le roleplay et le chat casual.

Le truc vraiment remarquable, c'est la montée des modèles capables de raisonner (genre o1). En janvier 2025, ils représentaient 0% mais aujourd'hui, ils sont à la tête de 50% des nouveaux usages. L'inférence multi-étapes, la délibération, la planification... Tout ça a explosé en moins d'un an. On est passés de chatbots basiques à des systèmes qui réfléchissent avant de répondre.

Les modèles raisonnants passent de 0% à 50%+ en un an ( Source )

Et les prompts ? Ils ont quadruplé de longueur. De 1 500 tokens en moyenne à plus de 6 000. Les gens sont devenus plus bavards avec leurs assistants numériques, ou alors ils ont compris qu'il fallait être plus précis pour obtenir de bons résultats.

Dernier point intéressant, le prix n'a quasiment aucun impact sur l'usage. Une baisse de 10% du prix ne génère que 0,5 à 0,7% d'usage supplémentaire. Les utilisateurs choisissent leurs modèles sur la qualité, pas sur le tarif. Bref, ce n'est pas encore un marché de commodité. La course à la meilleure performance continue.

Alors oui, l'étude a ses limites car c'est une seule plateforme, et pas l'ensemble du marché. Mais avec 100 trillions de tokens, c'est quand même un sacré échantillon. Et ça dit des choses sur notre rapport à ces outils qu'on ne peut pas ignorer, encore une fois.

Source

Reçu — 5 janvier 2026

Orla - L'outil CLI qui transforme votre terminal en assistant IA local

Par :Korben
5 janvier 2026 à 11:38

Ce qui est super relou avec les assistants IA en ligne, c'est qu'on doit leur faire confiance avec nos données. On tape une question, ça part dans le cloud, et on espère que personne ne stocke nos conversations sur la recette secrète du cassoulet de mémé.

Bah ça, c'est fini les amis !

Car Orla est là et c'est un outil en ligne de commande qui fait tourner des agents directement sur votre machine via Ollama . Pas de cloud, pas d'abonnement, pas de données qui partent on ne sait où. Juste votre CPU (ou GPU) qui bosse en local.

Orla - Dead-simple local AI agents ( Source )

Petit fun fact, en cherchant des infos pour écrire cet article, j'ai découvert que "Orla", ça voulait dire " prépuce " en hébreu... Hé ouais, je sais pas si le dev a capté ou pas mais fallait le préciser ^^.

L'installation sous macOS c'est :

brew install --cask dorcha-inc/orla/orla

Sous Linux ou si vous préférez le script :

curl -sSL https://raw.githubusercontent.com/dorcha-inc/orla/main/install.sh | bash

Et hop, c'est prêt.

Du coup, une fois installé, vous lancez votre première requête comme ça :

orla agent "Explique-moi les design patterns en Go"

Bref, deux mots et votre terminal se transforme en prof particulier. Mais là où ça devient vraiment sympa, c'est avec les pipes Unix. Vous pouvez balancer n'importe quoi à Orla :

cat mon_code.go | orla agent "Trouve les bugs potentiels"
git diff | orla agent "Rédige un message de commit"

Perso, c'est ce genre de trucs qui me fait kiffer car on retrouve la philosophie Unix avec des petits outils qui font une chose et qui la font bien, et surtout qu'on peut chaîner à l'infini.

Orla en action - simple et efficace ( Source )

Et le truc qui tue, c'est le mode serveur MCP. Vous lancez orla serve et paf, votre assistant local devient compatible avec Claude Desktop, Cursor, et tous les outils qui supportent le protocole MCP. C'est comme si vous aviez votre propre backend IA prêt à servir n'importe quelle interface.

Côté modèles, Orla supporte tout ce que propose Ollama : Llama, Mistral, Qwen, DeepSeek... Vous choisissez avec --model et c'est parti. Par défaut c'est qwen3, mais rien ne vous empêche de tester les modèles spécialisés code comme qwen3-coder.

Le projet embarque aussi un système de registre d'outils. Un orla tool install fs et hop, votre assistant peut lire et écrire des fichiers. Et comme vous pouvez créer vos propres outils, vous pouvez comme ça, ajouter des capacités modulaires à activer selon vos besoins.

Ce qui me plaît vraiment avec Orla, c'est donc cette philosophie où l'IA reste un outil que vous possédez, et pas un service que vous louez. Le projet est encore jeune bien sûr, mais activement maintenu et tourne sur macOS, Linux et Windows.

Mais si vous cherchez un moyen simple de bricoler avec des agents IA sans passer par les GAFAM, Orla c'est à tester !

Source

❌