Vue normale

Reçu hier — 11 janvier 2026

Elo – Quand une IA écrit un langage de programmation complet sans intervention humaine

Par :Korben
11 janvier 2026 à 09:00

Vous connaissez probablement les prouesses de Claude Code pour décompiler du code , ou encore son utilisation pour automatiser la création d'outils , mais là, on a passé un cap.

Bernard Lambeau, un développeur belge avec plus de 25 ans d'expérience et un doctorat en informatique, a décidé de pousser le concept jusqu'au bout à savoir utiliser Claude Code non pas pour écrire quelques scripts, mais pour générer un langage de programmation complet.

Carrément ! Il est chaud Bernard, car quand je dis complet, je parle d'un compilateur entier avec analyseur lexical, un parseur, un système de typage, des backends multiples...etc. Voilà, comme ça, en full pair-programming avec une IA.

Ça s'appelle Elo et l'idée, c'est de proposer un langage tellement sécurisé by design qu'on peut le confier à des non-développeurs… ou à des IA. Pas de variables mutables, pas d'effets de bord, pas de références qui traînent dans tous les sens. Bref, un langage où il est quasi impossible de faire une bêtise, même en essayant très fort.

Alors pourquoi créer un énième langage alors qu'on en a déjà des centaines ?

Hé bien le truc, c'est que la plupart des langages existants partent du principe que vous savez ce que vous faites. JavaScript, Python, Ruby… Ils vous font confiance. Trop, parfois.

Elo, lui, adopte l'approche inverse... le "zero-trust". Le langage ne fait confiance à personne, ni au développeur, ni à l'IA qui pourrait l'utiliser. Ainsi, chaque expression est pure, chaque fonction est déterministe, et le compilateur vérifie tout avant d'exécuter quoi que ce soit.

Et surtout Elo est un langage d'expressions portables, ce qui veut dire que vous écrivez votre logique une fois, et vous pouvez la compiler vers JavaScript, Ruby ou même du SQL PostgreSQL natif. Oui, oui, le même code peut tourner dans votre navigateur, sur votre serveur Ruby, ou directement dans votre base de données. Et là, y'a de quoi faire des trucs sympas pour peu qu'on ait besoin de partager de la logique métier entre différents environnements.

Le typage est volontairement minimaliste mais costaud et se compose de 10 types de base : Int, Float, Bool, String, DateTime, Duration, Tuple, List, Null et Function. Pas de classes, pas d'héritage, pas d'objets au sens classique mais juste des valeurs et des fonctions, ce qui peut paraître limité dit comme ça, mais c'est justement cette contrainte qui rend le langage sûr.

Moins de features, c'est moins de façons de se planter !

L'opérateur pipe |> est le cœur du langage car au lieu d'imbriquer des appels de fonctions comme des poupées russes, vous chaînez les transformations de gauche à droite. Par exemple, pour récupérer tous les clients actifs et compter combien il y en a, vous écrivez quelque chose comme customers |> filter(active: true) |> size. C'est lisible, c'est fluide, et même quelqu'un qui n'a jamais codé comprend ce qui se passe.

Et il y a aussi l'opérateur alternative |. Comme ça, si une expression peut retourner null, vous pouvez prévoir un fallback avec ce simple pipe. Genre user.nickname | user.firstname | "Anonymous". Ça essaie dans l'ordre et ça prend la première valeur non-nulle.

Comme ça, fini les cascades de if/else pour gérer les cas où une donnée manque ! Youpi !

Voilà pour le langage...

Maintenant parlons un peu du bonhomme car Bernard Lambeau n'est pas un inconnu dans le monde du développement. Il est derrière Bmg (une implémentation de l'algèbre relationnelle), Finitio (un langage de schémas de données), Webspicy (pour tester des APIs), et Klaro Cards (une app no-code). Tout cet écosystème partageait déjà une certaine philosophie, et Elo vient unifier le tout. Son langage est d'ailleurs utilisé en production dans Klaro Cards pour exprimer des règles métier que les utilisateurs non-techniques peuvent modifier.

Ce qui m'a intéressé dans toute cette histoire, c'est surtout la méthode de développement de Bernard qui a travaillé en pair-programming avec Claude Code pendant des semaines, voire des mois. L'IA générait du code, et lui relisait, corrigeait, guidait, et l'IA apprenait de ces corrections pour les itérations suivantes. Sur l'ensemble du projet, chaque ligne de code, chaque test, chaque doc a été écrit par Claude et croyez le ou non, le code est clean car Bernard est un pro !

D'ailleurs, il a enregistré une démo de 30 minutes où il montre le processus en live .

En regardant cette démo, on découvre une vraie méthodologie de travail avec l'IA car il n'a pas juste balancé des prompts au hasard en espérant que ça marche. Au contraire, il a mis en place tout un système pour que la collaboration soit efficace et sécurisée.

Premier truc : le "safe setup". Bernard a configuré un environnement Docker sandboxé dans un dossier .claude/safe-setup afin de laisser Claude Code exécuter du code dans un conteneur Alpine isolé, sans risquer de faire des bêtises sur la machine hôte. En entreprise, c'est exactement le genre de garde-fou qu'on veut quand on laisse une IA bidouiller du code. Le conteneur a ainsi accès aux fichiers du projet, mais pas au reste du système.

Ensuite, il y a la documentation projet via un fichier CLAUDE.md à la racine. Ce fichier décrit l'architecture du langage avec le parser, l'AST, le système de typage, les différents backends, comme ça, quand Claude démarre une session, il lit ce fichier et comprend la structure du projet.

La gestion des tâches est aussi bien pensée puisqu'il utilise un système de dossiers façon Kanban : to-do, hold-on, done, et analyze. Chaque tâche est un fichier Markdown qui ressemble à une user story.

Ainsi, quand il veut ajouter une feature, il crée un fichier dans to-do avec la description de ce qu'il veut. Claude lit le fichier, implémente, et Bernard déplace le fichier dans done une fois que c'est validé. Le dossier analyze sert pour les trucs à creuser plus tard, et hold-on pour ce qui attend des décisions.

Ce qui est bien trouvé aussi, c'est qu'il utilise trois modes d'interaction selon les situations. Le mode "accept-it" pour les trucs simples où Claude propose et Bernard dispose. Le "plan mode" quand la tâche est complexe avec Claude qui pose des questions de design avant d'écrire du code. Et le mode autonome avec --dangerously-skip-permissions quand il a parfaitement confiance pour une série de modifications.

Bernard a aussi créé plusieurs personas spécialisés (des agents) que Claude peut invoquer. Un agent "security" qui analyse le code du point de vue sécurité. Un agent "DDD" (Domain-Driven Design) qui vérifie la cohérence du vocabulaire métier. Un agent "skeptic" qui cherche les cas limites et les bugs potentiels. Et un agent "Einstein" qui détecte quand le code devient trop complexe et suggère des simplifications.

En gros, 4 cerveaux virtuels qui relisent chaque modification.

Et là où ça devient vraiment ouf, c'est que Elo se teste lui-même. Les tests d'acceptance sont écrits en Elo, avec une syntaxe d'assertions qui se compile vers JavaScript, Ruby et SQL. Comme ça quand Bernard ajoute une feature, il écrit d'abord le test en Elo, puis Claude implémente jusqu'à ce que le test passe. Le langage valide sa propre implémentation.

Comme je vous l'avais dit, c'est propre !

Bernard n'a fait que valider et refuser et ne retouche jamais le code lui-même. C'est Claude qui fait tout le reste et ça c'est un sacré changement dans la façon de développer.

Il évoque aussi l'idée que quand on délègue une compétence à quelqu'un (ou quelque chose) qui la maîtrise, on peut se concentrer sur le reste. Comme ça, Bernard ne s'occupe donc plus d'écrire du code mais s'occupe plutôt de définir ce que le code doit faire, de valider les résultats, et de guider l'architecture.

C'est vraiment le métier de développeur nouvelle génération et c'est très inspirant si vous cherchez votre place de dev dans ce nouveau monde.

En tout cas, même si ce n'est pas la première fois qu'on voit Claude Code produire des résultats impressionnants là c'est carrément autre chose.

Maintenant si vous voulez tester, l'installation est simple. Un petit

`npm install -g @enspirit/elo`

Et vous aurez ensuite accès à deux outils :

  • elo pour évaluer des expressions à la volée, et
  • eloc pour compiler vers la cible de votre choix.

Et si vous voulez du JavaScript ?

eloc -t js votre_fichier.elo.

Du Ruby ?

eloc -t ruby.

Du SQL ?

eloc -t sql.

Le site officiel propose également un tutoriel interactif plutôt bien fichu pour découvrir la syntaxe. On commence par les bases (les types, les opérateurs), on passe aux fonctions, aux gardes, et on finit par les trucs plus avancés comme les closures et les comparaisons structurelles. En une heure ou deux, vous avez fait le tour.

Alors bien sûr, Elo n'est pas fait pour remplacer votre langage préféré car ce n'est pas un langage généraliste. Vous n'allez pas écrire une app mobile ou un jeu vidéo avec... Par contre, pour exprimer des règles métier, des validations, des transformations de données… C'est pile poil ce qu'il faut.

Peut-être qu'un jour on verra une équipe où les product managers écrivent directement les règles de pricing ou d'éligibilité en Elo , (j'ai le droit de rêver) et où ce code est automatiquement validé par le compilateur avant d'être déployé.

Plus de traduction approximative entre le métier et les devs, plus de bugs parce que quelqu'un a mal interprété une spec.

Le dépôt GitHub est ouvert , la documentation est dispo, et le langage est sous licence MIT donc vous avez de quoi explorer, tester, et pourquoi pas contribuer si le cœur vous en dit.

Voilà, avec Claude Code (ou d'autres comme Gemini CLI, Codex CLI...etc) on n'est clairement plus sur des outils qui complètent du code ou qui génèrent des snippets. On est carrément sur un système IA capable de créer des outils complets et des langages entiers, avec son humain préféré qui joue le rôle de chef d'orchestre.

Steve Klabnik a d'ailleurs fait quelque chose de similaire avec son langage Rue, lui aussi développé avec Claude, si vous voulez jeter un œil !

Voilà les amis ! La tendance est claire j'crois... les développeurs expérimentés commencent à utiliser l'IA comme un multiplicateur de force, et pas comme un remplaçant et je pense vraiment que vous devriez vous y mettre aussi pour ne pas vous retrouver à la ramasse dans quelque années...

Amusez-vous bien et un grand merci à Marc d'avoir attiré mon attention là dessus !

Reçu — 10 janvier 2026

Je répète encore une fois (ce n'est pas comme... - Florian Candelieri | Facebook

10 janvier 2026 à 20:11

5.1.2026, Florian:

Je répète encore une fois (ce n'est pas comme si je le répétais encore et encore depuis bientôt 12 ans ;)). Cesser d'utiliser toutes formes de monnaie ou d'argent, c'est cesser instantanément de nourrir et entretenir toutes formes d'impérialisme, de jeux de pouvoir et de domination 🙂 ❤
Allez je vous aime ❤
Paix et Amour ❤
#postcapitalism
#postcapitalisme
#PostCroissance
#societedufutur


Moi:
ah ben non... moi j'ai expérimenter plein de forme de monnaie !!! 😛
"toutes formes" C'est pas un peu excessif ??
.. mais c'est vrai que dans le jeu de la monnaie, c'est le jeu du "don dans une communauté de confiance" qui est le plus efficace et le plus joyeux des systèmes économiques !


Florian:

dès que tu utilises un objet quel qu'il soit qui peut être accaparé par un autre être humain (dans un jeu compétitif) c'est problématique pour moi... Si la notion de non-propriété est intégré comme règle de base, là je suis d'accord 😉


Moi: "qui 'peut' être accaparé " ... mais TOUT "peut" être accaparé !
C'est fou cette peur !

Ce n'est pas par ce que c'est une possibilité qq part que ça va être fait !
Là c'est radical ta façon de penser ! Tu t'interdis tout un pan de réalité, juste par ce que tu as peur d'une potentielle dérive !

Il y a là quelque chose à travailler, à méditer... il y a quelque chose à pacifier en toi ! (vu que tu prône "Paix et amour")
Imagine qu'on peut utiliser une régulation, un taux de retour à l'équilibre comme dans le 4ème jeu du jeu de la monnaie.
Dans les lois de la physique, il y a l'entropie, qui tend vers l'équilibre, limite les excès.

Dans la philosophie des grecs anciens, c'est la notion d'hybris qui est importante: "use de tout, n'abuse de rien". Ce n'est pas un "bête" interdit.

Toi qui es un planteur d'arbres, tu peux faire l'exercice de méditer à te mettre à la place d'un arbre.

L'arbre est un grand capitaliste. Sa ressource préférée c'est le CO2. Il fait tout pour capter le CO2.
A partir de l'air ambiant il "cristalise" le carbone du CO2 pour construire une structure qui le fait grandir, occuper de l'espace et être toujours plus efficace. Il s'accapare de l'espace.

Un arbre organise et optimise la captation d'un maximum d'énergie. L'énergie que je dis être "la monnaie de l'univers".

L'arbre capitalise de l'énergie. Il conçoit des capteurs d'énergie solaire avec les feuilles.
Puis dans nos contrées glacées, quand il perd ses feuilles l'hiver, il va stocker cette énergie sous forme de sucre concentré dans les racines. Il y a des gigantesques flux de sève pour gérer ces stocks.

L'arbre va aussi capitaliser l'eau. Au passage il la filtre atome par atome. Il recrée les molécules d'eau.

Mais l'arbre seul sait qu'il y a une limite à son expansion. Il ne peut pas grandir à l'infini. (pas sous forme d'un individu seul.. )

Là il va se reproduire. Il crée des fruits. Sans avoir capitalisé un maximum d'énergie, un maximum de carbone et de l'eau. Il ne peut pas fournir de fruit....

Quand on est un bon capitaliste, un bon accapareur de ressources, on peut être un bon redistributeur de ressources.
Et on peut être un bon créateur d'ecosystème favorisant le vivant. (une définition de la permaculture non ?)

Car oui, l'arbre ne fait pas qu'un seul fruit, mais de nombreux... il devient forêt !
Il crée un environnement qui favorise la VIE.
L'abondance de fruits qu'il offre va nourrir de nombreux autres organismes.

La symbiose avec les champignons va transporter des flux d'eau dans toute la forêt. Tout comme l'évapotranspiration des feuilles crée ce qu'on appelle des rivières volantes. C'est ainsi que l'eau de mer est acheminée à des milliers de km au coeur des grandes forêts continentales. (donc ne surtout pas déboiser les côtes !)

L'arbre est un capitaliste, un accapareur de ressources. Mais c'est au service de la création de ressources qui ont encore plus de valeur, qu'il partage avec plaisir. L'arbre est un créateur de valeur, un créateur de richesses, un créateur de vie.

Il me semble que l'arbre est en compétition pour capter la lumière du soleil, pour capter le CO2...
Mais ensuite il est aussi en coopération pour réguler, pour transporter, pour partager, pour offrir nombre de ressources indispensables à la vie.

La forêt grandit en favorisant la VIE. De fait, elle s'accapare le territoire...
La forêt augmente le nombre de ressources disponibles à tout un ecosystème qui n'existerai pas sans un plan d'accaparement des ressources.

Ainsi le "post-capitalisme" repose sur du capitalisme. L'univers se déploie depuis toujours sous forme d'holarchie. Transcender et inclure. Refuser d'inclure le capitalisme, c'est refuser d'être capable de le transcender.

Un fois que tu seras en paix avec le capitalisme, tu pourras vraiment le transcender.
A méditer.


Je ne suis pas sûr que ce soit moi qui ait peur Mathieu, mais bon 😉 Tout peut être accaparé car nous l'avons autorisé,validé en tant que société humaine (L' occident de ces quatre derniers siècles y a joué un rôle prépondérant) et ensuite diffusé comme seule représentation valable du progrès (Darwin mal interprété, John Locke, les lumières, l'universalisme etc...) Nous pourrions inverser la logique, c'est à dire partir du principe (une loi ou une constitution) qui abolit toute forme de propriété (l'être humain n'est pas propriétaire, maître ou dominateur de la nature ou de quoi que ce soit d'autre). À partir de là, nous pourrions imaginer une nouvelle société non-compétitive, La Coopération et le partage comme principe fondamental... Et t'inquiètes tout comme dans notre société profondément structurée sur une vision hobbesienne/compétitive, il y a de la coopération.Dans cette nouvelle société ayant comme principe fondateur la paix et la coopération, il y aura de la compétition (t'inquiètes tu pourras encore t'amuser à être en compétition avec qui tu veux, elle sera juste illégale ;)). C'est juste actualiser et aligner les structures de notre société sur les nouvelles découvertes scientifiques qui démontrent que la Coopération prime sur la compétition dans la Nature 😉 La Paix et l'Amour prime sur la haine et la guerre.... ❤ Notre société repose actuellement sur une vision principalement compétitive (héritée des représentations "lois du plus fort" "lois de la jungle" des archéologues, anthropologues, ethnologues des siècles passés, c'est vieillot tout ça ;))

Et dans tout ce que tu décris concernant les arbres et la forêt, il n'y a pas de capitalisme... Il n'y a qu'Intelligence au service de la Vie ❤

Ne pas être propriétaire ne veut pas dire "ne pas utiliser" ou "ne pas être en symbiose avec", il s'agit justement de remettre l'être humain "en symbiose avec", "en relation avec" ....

Dans tes paroles "potentielle dérive", pour toi aujourd'hui, est-ce à dire qu'il n'y a pas de problèmes? de dérives? d'hubris généralisé? 🙂

autre élément qui va nourrir notre méditation : jusqu'à 4 millions de colis par JOUR en Suisse (période de 🎄), un jour normal dans l'année entre 700'000 et 900'000 colis et c'est grâce à toutes ces personnes qui servent la "Vie" en se l'accaparant (parce que c'est autorisé et valorisé dans notre société) que nous pouvons nourrir majestueusement les décharges à ciel ouvert des quatre coins du monde.... La situation est trop grave pour ne pas être radical ❤


moi:
Aah voilà une jolie suite de commentaires. Je ne sais pas si c'est la meilleure forme de communication. Mais je peux déjà partager mon ressenti face à ces commentaires:
là tu me fait un état du monde. Mais moi c'est pas ce qui m'intéresse. C'était pas le but de mon commentaire. Ce qui m'intéresse c'est l'état de Florian. Est-ce que Florian est en paix avec l'état du monde ou pas ?? (on dirait pas...)

Que pense vraiment Florian quand je lis "dès que tu utilises un objet quel qu'il soit qui peut être accaparé par un autre être humain (dans un jeu compétitif) c'est problématique pour moi... "

Il y a plusieurs interprétations possibles à ton texte, donc je marche sur des oeufs. Mais ce que j'ai ressentis, c'est le "c'est problématique pour moi". Est-ce que tu parles vraiment "pour moi" ou est ce une forme rhétorique pour dire en substance "pour moi, donc de mon point de vue, c'est problématique pour le monde".

C'est des perspectives différentes. En fait peu importe ce que ça voulait vraiment dire, ici ça a provoqué en moi un intérêt de savoir "quelle est la tache aveugle de Florian ?" quelles sont les croyances (limitantes) de Florian ?

Ici j'ai l'impression que prononcer le terme de "capitalisme" c'est un tabou...

"dans tout ce que tu décris concernant les arbres et la forêt, il n'y a pas de capitalisme... Il n'y a qu'Intelligence au service de la Vie"

J'ai l'impression que la compétition est très très chargée de connotation très lourde...

"nous pourrions imaginer une nouvelle société non-compétitive"

"t'inquiètes tu pourras encore t'amuser à être en compétition avec qui tu veux, elle sera juste illégale "

Quand j'observe la nature, je ne vois pas de parti pris, de bien ou de mal. Je vois surtout des stratégies mixtes.

En effet.. Hobbes, la loi de la jungle, la compétition.. le darwinisme social... comme vision du monde unique, pour moi c'est dépassé.
Mais basculer d'un extrême à l'autre aussi... c'est dépassé !
.... le bouquin de Pablo Servigne s'appelle "l'entraide l'autre loi de la jungle"
→"L'autre"... pas "On avait tout faux c'est la coopération qui domine".
Il y a les deux. Compétition ET coopération.
Je milite pour le "ET" et pas l'opposition des "OU" (exclusif)

Pour toi qu prône en permanence "Paix et amour"... J'espère que tu es aussi en paix et amour avec la compétition et avec le capitalisme ?

C'est ici que j'avais envie de questionner... d'inviter à la méditation !
T'as l'air en pleine compétition entre des mots et des concepts....
Ils sont pas tous égaux ?
Si t'aime pas la compétition c'est peut être tu perds trop souvent ? Pourtant il me semble que t'es dans le camps des gagnants non ?

"les nouvelles découvertes scientifiques qui démontrent que la Coopération prime sur la compétition dans la Nature"
→ Donc tu me dis que la coopération a gagné la compétition de la meilleure stratégie ?

C'est le perdant qui veut interdire la compétition pour éviter de perdre, pas le gagnant !
Ça m'étonne que tu veuilles la rendre illégale !

Construire un monde neuf avec des névroses ne me sembles pas très sain... J'aimerai voir des gens en paix pour construire un monde de paix.
Es-tu en paix ?

(je reviendrai plus tard sur les notions de "propriété" et du "droit".. lois constitution... y'a déjà beaucoup ici !)


Permalien

Mailspring - L'alternative open source à Outlook qui ne vole pas vos mots de passe

Par :Korben
10 janvier 2026 à 09:00

Bon, si vous faites partie de ceux qui ont la boule au ventre en lançant le nouveau Outlook de Microsoft, j'ai une petite trouvaille pour vous. En fait, vous ne le savez pas encore mais vos identifiants IMAP partent en vacances sur les serveurs de Redmond. Ouais, Heise Online a levé le lièvre y'a quelques temps maintenant et ça fait pas plaisir. Un peu comme quand Apple avait ses petits soucis avec OCSP , mais en plus brutal.

On va pas se mentir, Thunderbird c'est le patron. C'est libre, c'est robuste, c'est la référence pour chiffrer ses mails . Mais bon... faut avouer qu'il a parfois une tronche à avoir connu Windows 98 (même si ça s'améliore, je vous vois venir les puristes !). Du coup, si vous cherchez un truc qui a de la gueule sans vendre votre âme, jetez un œil à Mailspring.

L'interface est propre, non ? ( Source )

Mailspring, c'est un client mail open source (GPLv3) qui tourne sur Mac, Windows et Linux. Pour la petite histoire, c'est le successeur spirituel de Nylas Mail. Le développeur, Ben Gotow, a repris le bébé et a fait un gros ménage. Le moteur de synchro qui bouffait de la RAM comme un ogre ? Hop, réécrit en C++ (ça s'appelle Mailsync maintenant), du coup ça tourne nickel, c'est fluide et ça pompe pas toute votre batterie.

L'interface est super propre, codée en TypeScript avec Electron et React. Et là je vous entends : "Electron ? Pffff, ça va ramer !". Hé bien non les amis, et c'est justement grâce à ce fameux moteur C++. C'est ça qui est cool. En plus, tout se passe en local sur votre machine. Pas de cloud intermédiaire qui vient renifler vos mails pour vous cibler de pubs.

  • Gestion multi-comptes (IMAP, Gmail, Office 365, iCloud...)
  • Boîte de réception unifiée (le bonheur)
  • Recherche ultra rapide (vraiment)
  • Traduction intégrée
  • Signatures personnalisées

La recherche qui trouve tout en 2 secondes ( Source )

Y'a aussi une version Pro à 8 dollars par mois avec des trucs comme l'envoi différé ou les rappels, mais franchement, pour 99% des gens, la version gratuite suffira laaarge.

Voilà, si vous cherchez une alternative sexy à Outlook qui respecte votre vie privée, Mailspring est une option béton. C'est dispo en téléchargement sur leur site ou via vos gestionnaires de paquets préférés.

Source

Reçu — 9 janvier 2026

Le NO FAKES Act veut réguler les deepfakes, mais c'est surtout l'open source qui va trinquer

Par :Korben
9 janvier 2026 à 14:36

Après le DMCA, après la DADVSI , après SOPA, après PIPA, après EARN IT... voici le NO FAKES Act ! Bref, un nouveau projet de loi américain pondu par des gens qui visiblement n'ont jamais lancé un git clone de leur vie.

Le texte ( S.1367, 119e Congrès , introduit en avril 2025) part d'une intention louable qui est de protéger les gens contre les deepfakes non consentis. Vous savez, ces vidéos truquées où votre tête se retrouve sur un corps qui n'est pas le vôtre, de préférence à poil...

Mais comme toujours, l'enfer est pavé de bonnes intentions et la méthode choisie va potentiellement atomiser tout l'écosystème de l'IA open source.

En fait, une large partie des services qui hébergent du contenu généré par les utilisateurs devront mettre en place une logique de notice-and-staydown basée sur du "digital fingerprinting" afin de pouvoir retirer le contenu signalé et empêcher que les mêmes œuvres réapparaissent après notification. De quoi faire pleurer donc n'importe quel admin sys qui a déjà dû gérer un serveur de modération.

Et là où ça se corse c'est que contrairement au DMCA et ses exceptions , ce texte ne prévoit pas de véritable mécanisme de contre-notification façon DMCA. Quelqu'un signale votre contenu comme étant un deepfake ? Hop, c'est retiré. Vous pensez que c'est une erreur ? La seule voie prévue pour espérer une remise en ligne passe par une action en justice (sous 14 jours) contre l'expéditeur de la notification. Alors direction le tribunal fédéral, les amis...

Et les coûts de conformité estimés par la CCIA donnent le vertige car en moyenne, ça devrait tourner à environ 1,64 million de dollars la première année pour une simple startup. Et je ne parle même pas des projets open source qui distribuent des modèles d'IA générative... Comment Stable Diffusion ou Whisper pourraient-ils implémenter du fingerprinting sur des modèles que n'importe qui peut télécharger et faire tourner localement ? Mystère et boule de gomme !

Le truc bien moche, c'est que le texte prévoit des dommages et intérêts pouvant grimper jusqu'à 750 000 dollars par œuvre pour les plateformes non conformes. Autrement dit, si une plateforme ne réagit pas correctement après notification, elle peut devenir bien plus exposée à ce que font ses utilisateurs avec des outils d'IA... Voilà donc de quoi sérieusement refroidir les ardeurs de quiconque voudrait partager un petit modèle open weights.

Dans un autre style, ça me rappelle l'affaire youtube-dl où le DMCA avait été utilisé pour faire retirer un outil open source de GitHub sauf que là, on passe à l'échelle supérieure.

Voilà donc encore un lance-flammes législatif imaginé pour tuer une mouche et malheureusement, l'open source risque d'être le dommage collatéral de ce texte mal calibré.

Voilà les amis... l'avenir de l'IA ouverte pourrait bien se jouer dans les mois qui viennent aux US, et ça, ça va faire mal.

Source

SHM - La télémétrie qui respecte vos utilisateurs

Par :Korben
9 janvier 2026 à 08:00

Si vous développez un logiciel open source auto-hébergé, vous connaissez sûrement ce dilemme qui est de comment savoir si votre projet est réellement utilisé sans devenir l'affreux Big Brother que vous combattez ? Soit vous ne mesurez rien et vous codez dans le vide, soit vous collez du Google Analytics ou assimilé et vous trahissez l'esprit même du self-hosting.

Benjamin Touchard (que certains d'entre vous connaissent peut-être via son projet Ackify ) a décidé de résoudre ce problème avec SHM, pour Self-Hosted Metrics . Son idée c'est de proposer une télémétrie respectueuse de la vie privée, où chaque instance génère sa propre identité cryptographique dès le premier démarrage.

Concrètement, quand vous intégrez le SDK dans votre application (dispo en Go et Node.js 22+), chaque installation génère une paire de clés Ed25519, un peu comme quand vous générez vos clés SSH pour la première fois. Tous les échanges avec votre serveur SHM sont ensuite signés cryptographiquement, ce qui garantit l'intégrité des requêtes et leur origine. L'instance a une identité persistante (pseudonyme), mais ça n'identifie pas l'utilisateur final.

Côté données collectées, ensuite c'est vous qui décidez. Votre app envoie périodiquement un JSON avec les métriques que vous avez définies, et le dashboard s'adapte dynamiquement. Y'a pas de schéma imposé, pas de PII (données personnellement identifiables) et par défaut, le SDK collecte aussi des infos système (OS, CPU, RAM), mais c'est désactivable.

Pour ceux qui veulent héberger le bouzin, c'est du Docker classique... Vous créez un fichier compose.yml, vous configurez le DSN PostgreSQL, vous récupérez les migrations SQL, et hop un docker compose up -d. Le dashboard est alors accessible par défaut sur le port 8080 et affiche automatiquement vos métriques métier, la distribution des versions, le nombre d'instances actives, etc.

Et pour les utilisateurs finaux qui ne veulent vraiment pas participer, un simple DO_NOT_TRACK=true dans les variables d'environnement désactive complètement la télémétrie.

Le code du serveur est sous licence AGPL (les SDKs ont leur propre licence, vérifiez sur le dépôt) et y'a aussi des badges SVG à coller dans vos pages README pour afficher fièrement le nombre d'instances de votre app qui tournent.

Bref, si vous distribuez un logiciel auto-hébergé et que vous voulez savoir combien d'instances sont actives sans compromettre la vie privée des utilisateurs, c'est le top !

Merci à Benjamin pour le partage !

En libérant le code de ses enceintes, Bose prouve que l’abandon logiciel n’est pas une fatalité

9 janvier 2026 à 07:52

Alors que les enceintes Bose SoundTouch devaient perdre leurs fonctionnalités « intelligentes » le 18 février prochain, Bose fait marche arrière et offre à ses clients un accès inédit au cœur de son système pour garder ses appareils en ligne.
 [Lire la suite]

Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !

Reçu — 8 janvier 2026

Quake Brutalist Jam III - 77 maps gratuites qui envoient du béton

Par :Korben
8 janvier 2026 à 13:22

Quake, le FPS de 1996, vous connaissez forcément. Et si vous êtes du genre à traîner sur les forums de modding, vous savez que la communauté autour de la légende d'id Software refuse obstinément de mourir. Du coup, quand un projet rassemble des dizaines de mappeurs durant un an pour pondre 77 excellentes maps, ça mérite qu'on en parle !

Quake Brutalist Jam III vient de sortir et le résultat est dingue car ce n'est pas un simple pack de cartes, mais d'une vraie conversion totale du jeu avec un arsenal entièrement redessiné, de nouveaux monstres et une refonte visuelle complète du bestiaire original. Bref, c'est un nouveau jeu qui tourne sur le moteur du shooter culte.

L'ambiance béton brut de Quake Brutalist Jam III ( Source )

Le projet a été cuisiné à feu doux pendant plus d'un an par Makkon et Fairweather, les deux co-directeurs. Et en octobre 2025, ils ont lâché leur mod en work-in-progress à la communauté qui s'est ensuite déchaînée pendant 7 semaines pour créer les 77 maps que vous pouvez télécharger aujourd'hui. Et pas qu'un peu déchaînée vu la quantité de contenu !

Côté gameplay, y'a de quoi faire puisque le nouvel arsenal embarque un Rebar Gun, un Invoker et un Flak Gun qui viennent remplacer ou compléter les armes classiques. Les ennemis aussi ont eu droit à du neuf avec les Rocket Soldiers (fodder longue portée bien énervant), les Swarmers et Sploders (petits monstres de mêlée parfaits pour les embuscades), et l'Amalgam... un gros monolithe de béton volant fait de bouches (si si). D'ailleurs, le powerup Vampirism transforme les kills en orbes de vie façon Doom 2016, ce qui encourage à rusher comme un bourrin pour survivre. Les amateurs de DOOM Retro vont adorer.

Et le plus beau c'est que c'est 100% gratuit et vous n'avez même pas besoin de posséder le jeu original ! L'équipe propose une version standalone qui embarque LibreQuake et le moteur Ironwail. Vous téléchargez, vous lancez, vous jouez. Pour ceux qui se demandent quel autre jeu a débuté comme un mod de son FPS original... Team Fortress par exemple ! La tradition du modding qui engendre des légendes continue...

Par contre attention, le mod a été conçu spécifiquement pour Ironwail (version 0.8.1 minimum). Si vous essayez avec le Quake Remaster officiel ou d'autres source ports, attendez-vous à des problèmes. C'est un peu comme la communauté de SimCity 4 qui maintient son jeu vivant depuis 22 ans avec des mods maison... les passionnés ont leurs outils préférés !

Bref, si ça vous chauffe de découvrir ce que des fans peuvent créer quand on leur laisse le temps, c'est téléchargeable sur Slipseer .

Avec 77 maps à explorer, vous avez de quoi vous occuper less week-ends.

Source

Bose libère l'API de ses enceintes SoundTouch avant leur fin de vie

Par :Korben
8 janvier 2026 à 12:58

Si comme moi vous avez une enceinte Bose SoundTouch qui traîne chez vous, vous avez peut-être appris que la bestiole allait bientôt perdre son cerveau "cloud". Bose a en effet annoncé la fin du support pour le 6 mai 2026, et de ce que j'ai compris, ça veut dire que votre enceinte va se transformer en brique connectée qui ne se connecte plus à grand chose.

Sauf que non !

Bose a fait un truc plutôt cool puisqu'ils ont publié la documentation complète de l'API locale de leurs enceintes . Du coup, même quand les serveurs Bose fermeront boutique, vous pourrez continuer à bidouiller votre enceinte en local.

Perso, j'ai une petite SoundTouch 10 qui fait bien le boulot depuis des années, donc cette nouvelle me fait plutôt plaisir ! L'API tourne sur deux ports : le 8090 pour les commandes REST classiques (volume, presets, now_playing...) et le 8080 en WebSocket pour les notifications en temps réel. Le protocole s'appelle "gabbo", et avec ça, y'a de quoi faire le ménage dans vos automatisations.

Un petit curl http://votre-enceinte:8090/volume et vous récupérez le niveau sonore. Un autre sur /presets et vous avez vos stations favorites. Et comme la découverte se fait en SSDP ou MDNS, ça s'intègrera nickel avec n'importe quel système domotique.

Et visiblement la communauté n'a pas attendu pour s'y mettre puisqu'il y a déjà plus d'une centaine de projets sur GitHub qui exploitent cette API. Le plus abouti c'est probablement SoundTouchPlus pour Home Assistant, qui permet de contrôler toute la famille d'enceintes depuis votre dashboard.

Après ce qui va disparaître avec le cloud, c'est surtout les presets synchronisés et le streaming direct depuis l'app Bose. Mais le Bluetooth, l'AirPlay, Spotify Connect et le multiroom resteront fonctionnels et avec l'API locale, vous pouvez recréer vos presets en dur. Ouf !

C'est un peu le même délire que ce qui s'est passé avec les thermostats Nest ... quand le fabricant lâche l'affaire, c'est la communauté qui prend le relais sauf qu'ici, Bose joue le jeu en documentant proprement leur API avant de couper les serveurs. Et ça, c'est suffisamment rare pour être souligné !

Voilà... Si vous avez des SoundTouch, allez jeter un œil à l'API avant mai, histoire de préparer votre migration vers du 100% local.

Source

Contrib.FYI – Le site qui vous aide à contribuer à l'Open Source

Par :Korben
8 janvier 2026 à 08:58

Vous avez envie de contribuer à l'Open Source, et c'est tout à votre honneur. Alors vous vous dites "Allez, ce week-end, je plie ma première Pull Request". Et là, c'est le drame. Vous arrivez sur GitHub, vous tapez trois mots-clés, et vous vous retrouvez noyé sous des milliers d'issues datant de 2014, des projets abandonnés ou des tâches qui demandent un doctorat en physique quantique.

Décourageant un peu non ?

Parce qu'on connaît tous cette sensation de tourner en rond en cherchant le fameux ticket "Good First Issue" qui ne soit pas juste "corriger une faute de frappe dans le README", j'ai décidé aujourd'hui, de vous aider ! Grâce notamment à une véritable boussole dans cette jungle open source, nommée Contrib.FYI .

L'interface épurée pour trouver votre prochaine mission ( Source )

Ce site c'est un moteur de recherche ultra-minimaliste qui agrège les tâches étiquetées "Help Wanted" et "Good First Issue" à travers tout l'écosystème GitHub.

Développé par un certain k-dash, ça se présente comme un tableau de bord où vous pouvez filtrer les opportunités, et c'est beaucoup plus agréable que la recherche native de GitHub qui est aussi accueillante qu'une administration française un lundi matin.

Vous avez même une fonctionnalité "My Picks" pour mettre de côté les tickets qui vous tapent dans l’œil, histoire de ne pas les perdre si vous devez aller promener le chien entre temps. Une autre feature sympa, c'est l'historique "Recently Viewed" qui permet de retrouver une issue après qu'on ait fermé un onglet par erreur.

Alors oui, des agrégateurs comme ça, il en existe d'autres. Je pense évidemment à GoodFirstIssue.dev ou CodeTriage mais Contrib.FYI a ce petit côté outil fait par un dev pour des devs qui ne cherche pas à vous vendre une formation ou à vous faire rejoindre une newsletter.

Du coup, maintenant vous n'avez plus d'excuse pour ne pas mettre les mains dans le cambouis. Que vous soyez un vétéran du code qui veut juste dépanner sur du Rust ou un débutant qui veut comprendre comment fonctionne une PR, y'a de quoi faire !

Et si vous cherchez d'autres outils pour pimper votre expérience GitHub, je vous avais déjà parlé de Git-Who pour analyser vos contributions ou encore de GitHub2File pour donner du contexte à vos IA préférées. Allez jeter un oeil, ça vous plaira peut-être !

Reçu — 7 janvier 2026

ContainerNursery - Mettez vos conteneurs Docker en veille et réveillez-les sur demande

Par :Korben
7 janvier 2026 à 14:18

Voilà un outil qui va faire plaisir aux possesseurs de homelabs qui surveillent leur consommation de ressources comme le lait sur le feu !

Car si vous êtes comme moi, vous avez probablement une ribambelle de conteneurs qui tournent H24 sur votre bécane. Et je vous raconte pas tous ceux qui tournent alors que je m'en sers qu'une fois par an... breeeef...

Car même si un processus en "idle" ne consomme pas forcément grand-chose, c'est quand même un peu moisi de laisser tourner des services pour rien, non ? (oui, j'ai une âme d'écologiste de la ressource système). D'ailleurs si vous cherchez une solution d' authentification légère pour vos conteneurs Docker , y'a des solutions qui vont dans le même sens.

C'est là qu'intervient ContainerNursery , un petit utilitaire écrit en Node.js qui se comporte comme un reverse proxy intelligent qui va tout simplement stopper vos instances Docker quand aucune requête HTTP ou connexion WebSocket n'est détectée pendant un certain temps, et les redémarrer d'un coup de baguette magique dès qu'une nouvelle requête pointe le bout de son nez.

Pour ceux qui se demandent s'il est possible de mettre en pause un conteneur proprement, sachez que ContainerNursery va plus loin que le simple docker pause. Il arrête carrément le conteneur pour libérer la RAM et éviter les réveils CPU inutiles. Et il ne fait pas ça à la sauvage puisqu'il vérifie par exemple s'il n'y a pas de connexions WebSocket actives proxifiées avant de tout couper.

Hé oui, quand on n'est pas un connard, on évite de déconnecter un utilisateur en plein milieu de sa session.

D'ailleurs, pour ne pas faire fuir vos visiteurs pendant que le conteneur sort de sa sieste, l'outil affiche une page de chargement sympa qui se rafraîchit toute seule dès que votre serveur est prêt à envoyer la sauce.

Côté bidouille, on reste sur du classique. Tout se règle dans un fichier config.yml.

En plus des domaines et des noms de conteneurs, vous devrez spécifier le proxyHost et le proxyPort pour que l'aiguillage se fasse correctement. Vous définissez ensuite le timeout au bout duquel tout le monde doit aller au dodo. Vous pouvez même lui dire de ne pas couper si l'utilisation moyenne du CPU dépasse un certain seuil (exprimé en pourcentage de 0 à 100 × le nombre de cœurs), histoire de ne pas flinguer un calcul lourd en cours. Si vous avez besoin de gérer plusieurs services, Nginx Proxy Manager peut compléter parfaitement cette solution.

Pour le lancer, rien de plus simple :

docker run \
 --name='ContainerNursery' \
 -v /var/run/docker.sock:/var/run/docker.sock \
 -v /mnt/ContainerNursery/config:/usr/src/app/config \
 ghcr.io/itsecholot/containernursery:latest

Petit rappel de sécurité quand même... Essayez de placer un autre reverse proxy (genre Nginx ou Traefik) devant ContainerNursery pour gérer le HTTPS proprement, car ce dernier écoute en HTTP par défaut.

Quant au gain sur votre facture d'électricité, il dépendra évidemment de la charge réelle évitée, mais sur une grosse machine avec des dizaines de services, ça finit par compter.

Bref, c'est le genre de petit outil qui ne paie pas de mine mais qui permet de gagner pas mal de temps et surtout d'optimiser ses ressources sans se prendre la tête. On garde bien sûr la vieille carabine de pépé sous le lit pour les urgences, mais pour le reste, on laisse ContainerNursery gérer la crèche.

Un grand merci à Mickaël pour l'info !

Multi Theft Auto ressuscite sur GitHub après l'échec juridique de Take-Two

Par :Korben
7 janvier 2026 à 12:34

Et voici que voilà que voici le grand retour de Multi Theft Auto sur GitHub !!!

Vous vous souvenez peut-être de ce mod légendaire qui a permis à des millions de joueurs de transformer GTA San Andreas en véritable MMO de quartier depuis février 2003. C'est quand même, un projet open source qui a survécu à plus de 20 ans de cohabitation plus ou moins paisible avec Rockstar et sa maison mère Take-Two Interactive.

Le multijoueur de MTA San Andreas en action

Sauf que voilà, en décembre 2025, Take-Two a décidé de sortir l'artillerie lourde en balançant un DMCA sur le dépôt GitHub, prétextant que le code source de MTA contenait du "code source divulgué" de leurs précieux jeux. Une accusation assez débile quand on sait que le projet fonctionne par injection de code dans le jeu original, n'en déplaise aux juristes de Take-Two qui semblent avoir du mal avec les nuances techniques.

Du coup, l'équipe de MTA n'a pas tremblé et a déposé une contre-notification le 22 décembre dernier. Cela à permis à GitHub de laisser 10 à 14 jours ouvrés à l'accusateur pour engager une action en justice et passé ce délai, le repo devait revenir en ligne automatiquement.

Sans surprise, Take-Two n'a jamais donné suite. Le dépôt est donc de retour avec ses centaines de contributeurs qui peuvent enfin respirer, et bien sûr c'est toujours sous licence GPL-3.0, histoire de rappeler que le code appartient à la communauté.

C'est quand même moche ces géants qui tentent d'écraser les projets de préservation alors que ces derniers ne font que maintenir vivante une partie de notre patrimoine gaming, lâchement abandonné par leurs éditeurs.

Allez, une victoire de plus pour les moddeurs, ça fait du bien !

Source

Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi

Aujourd’hui, je vous propose de découvrir Pimmich, un cadre photo connecté open source basé sur Raspberry Pi, pensé pour afficher vos souvenirs sans cloud ni abonnement, en restant 100% local. Avec les récents changements côté Google Photos, beaucoup d’entre vous ont dû revoir leurs habitudes… et Aurélien a eu le bon réflexe : s’appuyer sur […]

Cet article Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

CrossPaste - Le presse-papier universel qui se synchronise entre toutes vos machines

Par :Korben
7 janvier 2026 à 08:00

Vous connaissez ce moment relou où vous copiez un truc sur votre PC et vous vous retrouvez comme un idiot devant votre Mac parce que le presse-papier ne suit pas ? Hé bien y'a une solution open source qui règle ce problème, et elle s'appelle CrossPaste .

Vous installez l'app sur tous vos appareils (Windows, macOS, Linux) et hop, tout ce que vous copiez sur l'un se retrouve automatiquement disponible sur les autres. Du texte, des images, des URLs, du HTML, du RTF, des fichiers... Tout y passe. Et le truc cool c'est que ça fonctionne sur votre réseau local en mode "LAN-only serverless", donc vos données ne transitent pas par un serveur central quelque part dans le cloud de Donald Duck, euh Trump.

Car oui, la sécurité c'est pas en option avec CrossPaste. Toutes les données sont chiffrées de bout en bout avec un système de chiffrement asymétrique. Du coup, même si quelqu'un sniffe votre réseau local (votre voisin super haxxor par exemple), il ne verra que du charabia incompréhensible. Et comme y'a pas de serveur central, y'a rien à pirater côté infrastructure non plus.

L'interface est unifiée sur toutes les plateformes grâce à Compose Multiplatform (c'est du Kotlin sous le capot pour les curieux) et vous avez un historique de tout ce que vous avez copié, avec une gestion automatique du stockage pour pas que ça finisse par bouffer tout votre disque dur. Pratique pour retrouver ce lien que vous aviez copié y'a 3 jours et que vous avez oublié de sauvegarder quelque part...

Le projet est sous licence AGPL-3.0, donc c'est du vrai open source avec le code disponible sur GitHub. Si vous êtes du genre à vouloir bidouiller ou simplement vérifier qu'il n'y a pas de cochonneries planquées dedans, vous pouvez compiler vous-même. Y'a juste besoin de Gradle et d'un ./gradlew app:run pour compiler et lancer le tout.

Bref, si vous jonglez entre plusieurs machines au quotidien et que vous en avez marre de vous envoyer des trucs par email ou par Slack juste pour les avoir sur un autre ordi, CrossPaste ça va vous faire économiser pas mal de temps et d'énergie. Et en plus c'est gratuit \o/

Merci à Lorenper pour l'info !

Source

Reçu — 6 janvier 2026

Web-Check - Radiographiez n'importe quel site en un clic

Par :Korben
6 janvier 2026 à 16:58

Vous vous êtes déjà demandé ce que cache vraiment un site web ? Genre, au-delà de sa jolie façade ? Hé bien je vous présente Web-Check , un scanner OSINT qui va déshabiller n'importe quel domaine pour vous montrer tout ce qui se passe sous le capot.

Je vous ai déjà parlé d'OSINT.rocks qui centralise pas mal d'outils d'investigation. Et bien là, c'est un peu le même délire mais orienté analyse de sites web. Vous balancez une URL et hop, le projet vous ressort un rapport complet avec tout ce qu'il y a à savoir : certificat SSL, enregistrements DNS, en-têtes HTTP, géolocalisation du serveur, ports ouverts, stack technique utilisée... Bref, une vraie radio du site.

Ce qui est cool avec cette boîte à outils, c'est qu'elle ne se contente pas de gratter la surface puisque ça effectue plus de 30 types d'analyses différentes ! Vous voulez savoir si un site utilise un WAF (Web Application Firewall) ? Vérifier la configuration email (SPF, DKIM, DMARC) ? Voir l'historique du domaine via la Wayback Machine ? Tout est possible ! Et même les Core Web Vitals pour les obsédés de la performance !

Pour l'installer, c'est ultra simple. Si vous êtes team Docker (et vous devriez l'être), une seule commande suffit :

docker run -p 3000:3000 lissy93/web-check

Et vous avez votre instance perso qui tourne sur localhost:3000. Pas besoin de galérer avec des dépendances ou de configurer quoi que ce soit. Du coup, vous pouvez scanner vos propres sites sans que vos requêtes passent par un service tiers.

Pratique pour les paranos de la vie privée !

Le projet tourne sous TypeScript avec Astro en front, et tout le code est disponible sur GitHub sous licence MIT. Ça veut dire que vous pouvez le modifier, l'héberger où vous voulez, et même contribuer si le coeur vous en dit.

La partie détection de stack technique me plait beaucoup. C'est un peu comme ce que fait SSH-Audit pour les serveurs , sauf que l'outil identifie automatiquement les frameworks, CMS, bibliothèques JavaScript et autres composants utilisés par un site. Super utile donc pour les pentesters qui veulent mapper rapidement une cible, ou simplement pour les curieux qui se demandent "tiens, c'est quoi cette techno qu'ils utilisent ?".

Vous avez aussi une démo en ligne sur web-check.xyz si vous voulez tester avant d'installer quoi que ce soit. Mais bon, pour une utilisation régulière, je vous conseille vraiment l'instance locale. C'est plus rapide et vous gardez le contrôle sur vos données.

Voilà, si vous bossez dans la sécu, si vous êtes journaliste d'investigation, ou si vous êtes juste curieux de savoir ce que racontent les sites que vous visitez, ce scanner OSINT devrait rejoindre votre boîte à outils.

Allez jeter un œil, et vous me remercierez je pense !

Dembrandt - Aspirez le design system de n'importe quel site en une commande

Par :Korben
6 janvier 2026 à 08:30

Vous bossez sur un projet et vous vous dites "Tiens, le site de [insérez ici une grosse boîte] a un design plutôt bien foutu, j'aimerais bien voir comment ils ont structuré leurs css".

Hé bien y'a un outil pour ça, et il s'appelle Dembrandt .

Dembrandt en action

En gros, c'est un petit outil en ligne de commande qui va analyser n'importe quelle URL et en extraire tout le design system : les couleurs (primaires, secondaires, variables CSS), la typographie (familles, tailles, graisses), les espacements, les bordures, les ombres et même les patterns de composants UI.

Le truc s'installe en une ligne avec npm (npm install -g dembrandt) et après vous avez juste à taper dembrandt stripe.com par exemple. En moins d'une seconde, l'outil va alors faire un rendu de la page avec Playwright, analyser le DOM, détecter les styles et vous ressort tout ça bien structuré avec des scores de confiance pour chaque couleur.

Ce que j'aime bien, c'est que ça exporte directement en JSON ou au format W3C Design Tokens si vous voulez l'utiliser avec Style Dictionary. Pratique pour alimenter votre propre design system ou pour documenter celui d'un client qui n'a jamais pris le temps de le faire... (il en faut)

Y'a aussi quelques options sympas comme --dark-mode pour extraire la palette sombre, --mobile pour simuler un viewport iPhone, ou --browser=firefox si le site que vous voulez analyser a des protections Cloudflare qui bloquent Chromium.

Bon, ça marche pas sur les sites qui utilisent Canvas ou WebGL pour le rendu, et faut pas s'attendre à des miracles sur les SPA qui chargent tout en async. Mais pour la majorité des sites, c'est vraiment efficace.

Le projet est open source sous licence MIT, donc vous pouvez l'auditer, le forker, le modifier comme bon vous semble. Et niveau légalité, analyser du HTML/CSS public pour de la veille concurrentielle ou de la documentation, c'est considéré comme du fair use dans la plupart des juridictions, donc vous êtes good !

Bref, si vous faites du design system, de l'audit UX ou juste de la veille sur ce que font les autres, c'est un outil à garder sous le coude.

Merci à Lorenper pour le partage !

NVIDIA libère Rubin et Alpamayo - Quand l'IA passe la seconde (au sens propre)

Par :Korben
6 janvier 2026 à 08:03

Après Blackwell, après les GPU qui chauffent comme des radiateurs nucléaires, après les promesses de révolution IA à chaque keynote, voici Rubin ! Et cette fois, NVIDIA ne se contente pas de balancer une nouvelle puce, mais lâchent carrément un modèle open source pour la conduite autonome.

Rubin, c'est donc la nouvelle architecture qui succède à Blackwell. Mais attention, on ne parle pas d'une simple évolution. C'est un système à 6 puces qui travaillent de concert : le GPU Rubin évidemment, mais aussi le CPU Vera avec ses 88 cœurs Olympus, le NVLink 6 qui balance du 3,6 To/s par GPU, et toute une armada de DPU et de switches réseau. Le tout crache 50 pétaflops en NVFP4 et divise par 10 le coût d'inférence par token par rapport à Blackwell. Pour entraîner des modèles MoE, vous aurez besoin de 4 fois moins de GPU. Pas mal pour faire baisser la facture électrique.

Mais le truc qui m'a vraiment excité les neurones, c'est Alpamayo. NVIDIA appelle ça le "moment ChatGPT de l'IA physique" et pour une fois, j'crois pas que ce soit juste du marketing. Alpamayo 1, c'est un modèle vision-langage-action de 10 milliards de paramètres qui fait de la conduite autonome avec du raisonnement en chaîne. Concrètement, au lieu de juste détecter des obstacles et calculer une trajectoire, le truc réfléchit. Il décompose les situations complexes en sous-problèmes et peut même expliquer pourquoi il prend telle ou telle décision.

Et NVIDIA balance tout ça en open source sur Hugging Face OKLM. Les poids du modèle, AlpaSim (leur framework de simulation), et plus de 1700 heures de données de conduite. De quoi permettre aux développeurs de créer leurs propres variantes optimisées. Côté constructeurs, la Mercedes-Benz CLA sera d'ailleurs la première caisse à embarquer NVIDIA DRIVE AV dès le premier trimestre 2026 aux États-Unis.

Les produits basés sur Rubin débarqueront ensuite chez les partenaires cloud (AWS, Google, Azure, Oracle...) au second semestre 2026. Jensen Huang a rappelé que 10 000 milliards de dollars d'infrastructure informatique sont en train de basculer vers ce nouveau paradigme. Bref, on verra si les promesses tiennent la route, mais une chose est sûre, ça va être intéressant de voir ce que la communauté va faire avec un modèle de conduite autonome open source entre les mains. Et si le sujet vous branche, jetez un œil à mon chouchou, OpenPilot , le projet de Geohot qui fait ça depuis quelques années sur des voitures lambda.

Source

GNOME et Firefox veulent tuer le copier-coller au clic molette

Par :Korben
6 janvier 2026 à 07:45

Bon, si vous êtes un vieux de la vieille sous Linux, j'ai une nouvelle qui va vous faire verser une petite larme ! GNOME et Firefox envisagent tous les deux de désactiver la possibilité de coller avec le clic milieu par défaut. Vous savez, ce truc où vous sélectionnez du texte, puis un coup de clic molette et hop, c'est collé ailleurs sans passer par Ctrl+C/Ctrl+V.

Jordan Petridis, développeur chez GNOME, vient de soumettre une merge request pour désactiver cette fonctionnalité dans les paramètres par défaut. D'après lui ce serait un véritable désastre... Des mots forts pour une fonctionnalité que beaucoup adorent mais faut dire que le mec n'a pas tort car avec les trackpads modernes et les souris à molette cliquable un peu sensibles, on finit souvent par coller des trucs sans faire exprès.

Du coup, c'est quoi exactement ce "primary paste" ? Hé bien c'est une spécificité historique de X11, le système de fenêtrage qui fait tourner les bureaux Linux depuis des lustres. Quand vous sélectionnez du texte, il est automatiquement copié dans un buffer séparé (le "PRIMARY selection"), différent du presse-papier classique . Et le clic du milieu colle ce buffer directement. C'est comme avoir deux presse-papiers en parallèle, c'est pratique mais ça peut foutre le bordel si vous cliquez au mauvais moment.

Et Firefox n'est pas en reste puisqu'une révision chez Mozilla propose exactement la même chose à savoir désactiver le collage au clic molette par défaut. Les arguments sont similaires... surtout que les utilisateurs qui découvrent cette fonctionnalité par accident (coucou les Windowsiens) ne comprennent pas d'où sort le texte qui vient de s'afficher dans leur barre de recherche. Perso, j'avoue que ça m'est arrivé de coller des trucs gênants dans un chat parce que j'avais cliqué sur la molette sans faire gaffe ^^.

La bonne nouvelle, c'est que ça reste réactivable pour ceux qui y tiennent. Sous GNOME, il suffira de taper :

gsettings set org.gnome.desktop.interface gtk-enable-primary-paste true

Bref, c'est un peu la fin d'une époque. Avec l'arrivée de Wayland qui remplace progressivement X11 (et les solutions pour faire cohabiter les deux ), ces vieilles conventions Unix passent à la trappe. Les nouveaux utilisateurs Linux n'auront probablement jamais connu ce confort du triple clic + clic molette pour copier-coller une ligne entière. C'était pourtant bien pratique ! Mais bon, c'est vrai que ça pouvait aussi poser des problèmes de sécurité quand on collait accidentellement un mot de passe dans le mauvais champ.

Adieu l'artiste !

Source

Reçu — 5 janvier 2026

Meshtastic - Le réseau mesh radio qui fonctionne même quand tout s'effondre

Par :Korben
5 janvier 2026 à 14:06

Vous vous souvenez de Byzantium , ce projet de réseau mesh sur Raspberry Pi pour communiquer quand tout est coupé ? Bah y'a mieux maintenant. Et ça coûte 25 balles.

Meshtastic , c'est un protocole open source qui transforme de petits modules radio LoRa en nœuds d'un réseau maillé complètement décentralisé. Pas besoin d'internet ni de carte SIM. Et la licence radio, on s'en balec'. Ce sont juste des ondes qui rebondissent de relais en relais pour faire passer vos messages chiffrés.

Du coup, comment ça marche ?

Hé bien d'abord vous achetez un petit boîtier sur Amazon (entre 25 et 40 dollars, ou même 10 si vous êtes patient avec la livraison depuis la Chine). Vous installez l'app sur votre smartphone, vous connectez le module en Bluetooth, et hop, vous pouvez envoyer des messages à n'importe qui dans le réseau. Plus y'a de nœuds, plus la portée augmente puisque chaque appareil relaie les communications aux autres.

Et là, vous allez me dire "ouais mais c'est un gadget de survivaliste parano". Sauf que non. L'ouragan Helene qui a ravagé la Caroline du Nord a prouvé que c'était loin d'être un délire. Quand les antennes relais sont tombées, quand internet a disparu, les gens équipés de ces petits modules radio ont pu continuer à communiquer, à demander de l'aide, à coordonner les secours. Bref, le genre de truc qui peut sauver des vies.

Du coup, y'a toute une communauté de bricoleurs qui s'est mise à fabriquer des nœuds DIY pour mailler leur quartier. Y'en a même qui ont transformé une lampe solaire de jardin en relais autonome. Vous savez, les machins à 3 euros chez Action. Bah vous virez la LED, vous collez un module LoRa alimenté par le petit panneau solaire, et vous avez un répéteur qui coûte 30-40 dollars et qui fonctionne tout seul. Certains ont même monté des répéteurs communautaires sur des points en hauteur avec des panneaux solaires plus costauds pour environ 100 dollars.

Le T-Echo de Lilygo, un module compact avec écran e-ink ( Source )

Pour ceux qui veulent un truc plus fini, y'a également le Lillygo T-Echo avec son écran e-ink qui affiche les messages même en plein soleil. Et si vous voulez taper sans téléphone, le T-Deck a carrément un petit clavier intégré.

Le T-Deck avec son clavier intégré, pour les vrais ( Source )

Perso, ce qui me plaît dans ce protocole, c'est qu'il remet la communication entre les mains des gens. Pas de serveur central, pas d'entreprise qui peut couper le robinet, pas de gouvernement qui peut tracer vos échanges. C'est le genre d'infrastructure que les pionniers d'internet auraient adoré. Un réseau qui appartient à ceux qui le construisent, nœud par nœud.

Alors est-ce que ça va remplacer votre forfait mobile ?

Bah non mais quand la prochaine tempête aura mis à terre les infrastructures de votre coin, vous serez peut-être content d'avoir un petit boîtier LoRa chargé dans un tiroir.

Source

Seanime - Le media server qui comprend vraiment les otakus

Par :Korben
5 janvier 2026 à 12:58

Vous en avez marre de configurer Plex pendant 3 heures pour qu'il reconnaisse enfin que "Shingeki no Kyojin S4 Part 2 Final" c'est bien "L'Attaque des Titans" ? Et même Jellyfin ou Kyoo galèrent avec les noms de fichiers japonais ? Alors laissez-moi vous présenter Seanime , un media server qui parle couramment le weeb .

L'outil est développé en Go et TypeScript par 5rahim, et contrairement aux mastodontes généralistes, lui se concentre sur une seule mission : streamer vos séries japonaises et lire vos mangas sans prise de tête. Le truc cool, c'est qu'il s'intègre directement avec AniList . Du coup, tout ce que vous regardez se synchronise automatiquement avec votre profil. Plus besoin de faire le tracking à la main comme un sauvage.

Côté acquisition de contenu, la bestiole gère les clients torrent (qBittorrent, Transmission) mais aussi les seedbox comme TorBox ou Real-Debrid. Vous cherchez un épisode, il fouille les trackers, lance le téléchargement, et hop, c'est dans votre bibliothèque. Le tout avec un scanner intelligent qui comprend les noms de fichiers même quand ils ressemblent à du code Morse.

Et pour les puristes du manga, un lecteur intégré permet de dévorer vos chapitres directement depuis l'interface. Et si vous avez des potes otakus, les watch parties permettent de mater ensemble à distance avec synchronisation de la lecture. De quoi organiser des soirées visionnage sans être dans la même pièce, ce qui est pratique parce que vos potes sentent tous des dessous de bras.

Perso, ce qui me plaît bien dans ce projet, c'est qu'il assume son positionnement. Au lieu de faire un énième clone de Plex/Jellyfin qui fait tout moyennement, Seanime fait un seul truc mais le fait bien : Gérer le contenu japonais.

Le transcodage FFmpeg est là pour les appareils capricieux, le mode hors-ligne permet de télécharger sur mobile, et un système d'extensions JavaScript laisse la communauté ajouter des fonctionnalités.

L'installation propose aussi Seanime Denshi , une app desktop complète avec serveur embarqué, ou simplement le mode serveur web pour ceux qui préfèrent accéder via navigateur. Ça tourne sur Windows, macOS et Linux et le projet est open source sous GPL-3.0.

Voilà, si vous êtes du genre à avoir une collection d'animes qui ferait rougir un data center, c'est peut-être le compagnon qu'il vous faut !

Source

Reçu — 4 janvier 2026

Serflings - Le remake de The Settlers 1 qui va vous replonger en 1993

Par :Korben
4 janvier 2026 à 08:00

Vous vous souvenez de The Settlers sur Amiga, ce jeu où vous passiez des heures à regarder vos petits bonhommes transporter du bois, de la pierre et du blé sur des chemins tortueux pendant que votre économie tournait toute seule comme une machine bien huilée ? Ouais, ce jeu-là. Celui qui a ruiné vos week-ends en 1993.

Eh bien un développeur du nom de nicymike a décidé de recréer tout ça from scratch. Serflings , c'est donc un remake complet de The Settlers 1 (aussi connu sous le nom de Serf City: Life is Feudal) codé entièrement en Java. Et quand je dis complet, c'est vraiment complet puisqu'on y retrouve toutes les missions originales avec leurs mots de passe, le mode multijoueur en 1 contre 1 en LAN, et même le support des sauvegardes du jeu original.

Serflings en action ( Source )

Le projet est en développement actif depuis un moment et la version 2.2.0 est sortie fin novembre 2025. Parmi les features qui font plaisir il y a le support des hautes résolutions avec zoom (fini le 320×200 qui pique les yeux), un système de construction de routes intelligent avec preview en temps réel, et la possibilité de jouer sur Windows, macOS ou Linux.

Bon, un truc à savoir quand même, vous aurez besoin des fichiers graphiques originaux pour faire tourner le bouzin, à savoir les fameux SPAE.PA (version anglaise) ou SPAD.PA (version allemande).

C'est parce que les assets appartiennent toujours à Ubisoft, donc nicymike ne peut pas les distribuer avec son remake. Donc si vous avez encore vos disquettes Amiga qui traînent quelque part, c'est le moment de ressortir l'émulateur, sinon, The Settlers History Edition est toujours dispo sur Ubisoft Connect. Y'a pas de petits profits...

Ce que j'aime bien dans ce projet, c'est qu'il ne cherche pas à refaire la roue. C'est vraiment le même gameplay de gestion logistique qui faisait le charme de l'original. Vous construisez des routes, vous placez vos bâtiments, vous optimisez vos flux de ressources, et vous regardez vos petits sujets courir dans tous les sens comme des fourmis sous coke, pendant que votre royaume s'étend. Et 30 ans plus tard, c'est toujours aussi addictif.

Pour ceux qui veulent tester, il vous faudra Java 17 minimum (pour la version 2.x). Vous téléchargez le JAR, vous balancez vos fichiers graphiques dans le bon dossier, et hop c'est parti pour des heures de nostalgie.

Voilà, si vous avez la nostalgie des jeux de gestion des années 90 où on prenait le temps de construire quelque chose de beau au lieu de rusher des objectifs, Serflings mérite clairement le détour.

❌