Vue normale

Reçu aujourd’hui — 18 décembre 2025 Korben

Docker offre ses images blindées à tout le monde - Enfin un peu de sécu sans vendre un rein

Par :Korben
18 décembre 2025 à 07:09

Si vous utilisez des conteneurs Docker au quotidien, vous allez sauter de joie car Docker vient d'annoncer que ses Docker Hardened Images (DHI), ces fameuses images ultra-sécurisées qui étaient réservées aux entreprises prêtes à cracher le pognon, sont maintenant gratuites pour tout le monde. Et c'est pas encore un truc limité avec des restrictions à la noix, non non... C'est du vrai open source sous licence Apache 2.0.

Ils proposent donc plus de 1 000 images conteneur prêtes à l'emploi, construites sur Debian et Alpine et ces images sont "durcies", c'est-à-dire qu'elles ont été débarrassées de tous les composants inutiles qui traînent habituellement dans les images de base et qui ne servent qu'à augmenter la surface d'attaque. Du coup, ça leur permet d'annoncer une réduction des vulnérabilités de plus de 95% par rapport aux images classiques. C'est pas maaaal, hein ?

Et ce qui est top c'est que chaque image embarque un SBOM complet (le fameux Software Bill of Materials), des données CVE transparentes accessibles publiquement, une preuve cryptographique d'authenticité et une provenance SLSA Level 3. Bref, c'est plutôt sérieux de ce que je capte.

Car faut dire que les attaques sur la supply chain logicielle, c'est devenu le cauchemar numéro un des développeurs. En 2025, ces attaques auraient causé plus de 60 milliards de dollars de dommages selon les estimations, soit le triple d'il y a quatre ans, du coup, avoir des images béton dès le départ, sans devoir se prendre la tête à tout vérifier soi-même, ça fait la diff.

Maintenant, si vous êtes une grosse boîte avec des besoins spécifiques, Docker propose aussi une version Enterprise payante avec des SLA garantis sur la remédiation des CVE, des images compatibles FIPS, des options de personnalisation et même un support étendu de 5 ans après la fin du support officiel. Des entreprises comme Adobe et Qualcomm ont déjà fait le saut mais pour nous, utilisateurs lambdas et autres développeurs qui bossons sur nos projets perso ou des startups incroyables du futur, la version gratuite devrait largement suffire.

Et en cadeau bonux, sachez que l'assistant IA de Docker peut maintenant scanner vos conteneurs existants et vous recommander automatiquement les images durcies équivalentes. Y'a même des Hardened Helm Charts pour Kubernetes et des serveurs MCP durcis (MongoDB, Grafana, GitHub...). Que demande le peuple ?

Voilà, si vous voulez vous y mettre, tout est dispo sur le Docker Hub sans aucune restriction d'usage ni abonnement requis. Foncez !

Source

84 000 schémas électroniques pour entraîner des IA à concevoir des circuits

Par :Korben
18 décembre 2025 à 06:58

Vous faites un peu de l'électronique et vous utilisez KiCad pour vos PCB ?

Et si l'avenir de la conception électronique c'était aussi l'IA ? J'en sais rien mais ce qui a l'air de se profiler à l'horizon avec ce dataset qui vient de sortir sur Hugging Face et qui devrait intéresser pas mal de monde. Ça s'appelle Open Schematics et c'est une collection de plus de 84 000 schémas électroniques au format KiCad, prêts à être utilisés pour entraîner des modèles d'IA.

Le truc c'est que jusqu'à maintenant, si vous vouliez créer une IA capable de comprendre ou de générer des schémas électroniques, y'avait pas vraiment de dataset propre et bien structuré pour ça. Bhupendra Hada (alias bshada sur Hugging Face) a donc décidé de combler ce manque en compilant tout ça à partir de projets hardware open source trouvés sur GitHub.

Chaque entrée de son dataset contient donc le fichier schéma brut au format .kicad_sch, une image PNG du rendu, la liste des composants utilisés, et des métadonnées en JSON et YAML. Du coup vous avez tout ce qu'il faut pour entraîner un modèle à faire du text-to-image, de l'image-to-text, ou de la génération de circuits à partir de specs.

Le dataset pèse 6,67 Go au format Parquet et couvre une variété de projets assez dingue. On y trouve des cartes de programmation UART, des amplificateurs à tubes, des onduleurs triphasés open source, des points d'extrémité Zigbee, des projets ESP32+RS232, et même des macropads custom. Bref, y'a de tout, du projet étudiant au truc bien avancé.

Ce qui est cool c'est que le dataset est structuré pour plusieurs cas d'usage. Vous pouvez l'utiliser pour entraîner une IA à reconnaître des composants sur un schéma, à générer de la documentation automatique depuis un circuit, à détecter des erreurs de conception, ou même à suggérer des améliorations. Y'a aussi un potentiel éducatif évident pour créer des outils d'apprentissage interactifs en électronique.

Bien sûr, la qualité et la complexité des schémas varient pas mal d'un projet à l'autre. Certains ont des métadonnées incomplètes, et les conventions de nommage des composants sont pas toujours cohérentes... C'est le souci quand on scrappe des projets open source, y'a du bon et du moins bon mais pour un dataset de cette taille, c'est déjà une base de travail solide.

Le tout est sous licence CC-BY-4.0, donc vous pouvez l'utiliser librement du moment que vous créditez la source. Que vous bossiez sur de l'IA appliquée à l'électronique ou que vous cherchiez juste une grosse base de schémas KiCad à explorer, c'est clairement une ressource à bookmarker.

Source

L'Allemagne transforme des cafards en espions cyborgs

Par :Korben
18 décembre 2025 à 06:44

Vous pensiez que les cafards servaient juste à vous faire flipper quand vous allumez la lumière de la cuisine de votre Airbnb à 3h du mat (Oui c'est une histoire vraie que j'ai vécue) ?

Hé bien une startup allemande a décidé de leur donner une seconde vie un peu plus... stratégique. SWARM Biotactics , fondée en 2024 et basée à Kassel, développe des cafards de Madagascar équipés de mini sacs à dos bourrés d'électronique pour des missions de reconnaissance militaire.

Le concept c'est assez dingue quand on y pense car ces cafards siffleurs de Madagascar (les gros qui font du bruit, vous voyez le genre...) sont équipés de petits sacs à dos de 15 grammes contenant des caméras, des microphones, un radar Doppler et des modules de communication sécurisés. L'objectif c'est de descendre à 10 grammes pour optimiser leur mobilité, mais ces bestioles peuvent déjà transporter une charge utile significative.

Y'avait exactement ça dans le film Le Cinquième Élément, j'sais pas si vous vous souvenez.

Et le truc encore plus fou c'est leur système de contrôle. Des électrodes sont fixées sur les antennes du cafard pour stimuler sa navigation naturelle. En gros, quand on active l'électrode gauche, le cafard pense qu'il y a un obstacle de ce côté et tourne à droite. C'est Dora l’exploratrice version télécommandée, le bordel.

Alors pourquoi des cafards plutôt que des drones classiques ou des petits vieux trépanés ? Hé bien parce que ces petites bêtes sont quasi indestructibles. Elles résistent à la chaleur, aux produits chimiques, aux radiations, et peuvent se faufiler dans des endroits où aucun robot ne pourrait passer. Que ce soit des décombres après un tremblement de terre, des zones contaminées, des bâtiments effondrés... Tout comme BHL, le cafard s'en fout, il passe.

Et la startup ne compte pas s'arrêter au contrôle individuel. Elle développe des algorithmes pour coordonner des essaims entiers de cafards cyborgs de manière autonome. Ça représente des dizaines, voire de centaines d'insectes opérant ensemble, du coup ça ressemble de plus en plus à un épisode de Black Mirror, mais c'est bien réel.

SWARM travaille déjà avec la Bundeswehr, l'armée allemande, pour tester ses cafards sur le terrain. Et c'est vrai que contexte géopolitique aide pas mal car avec la guerre en Ukraine, l'Allemagne repense sérieusement sa défense et s'intéresse à ce genre de technologies alternatives. En juin, la startup a levé 10 millions d'euros en seed, portant son financement total à 13 millions d'euros.

Pour l'instant, SWARM se concentre donc sur la défense et la reconnaissance donc pas question de transformer les cafards en kamikazes avec des explosifs, même si Wilhelm reconnaît que les applications pourraient évoluer "légalement" à l'avenir. Et au-delà du militaire, il voit aussi un potentiel pour les opérations de sauvetage, comme envoyer des cafards dans des bâtiments effondrés pour localiser des survivants.

Voilà, les premiers déploiements opérationnels à grande échelle sont prévus pour dans 18 à 24 mois alors d'ici là, si vous croisez un cafard avec un truc bizarre sur le dos, c'est peut-être pas une bonne idée de l'écraser...

Source

SkillsMP - Plus de 26 000 skills Claude à portée de clic

Par :Korben
18 décembre 2025 à 06:24

Vous utilisez Claude Code ? Alors vous savez probablement que l'outil d'Anthropic peut être étendu avec des "Skills", c'est à dire des modules qui ajoutent des capacités supplémentaires à Claude. Y'a un fichier SKILL.md, des scripts optionnels, et comme ça, votre assistant sait faire de nouvelles choses. Sauf que pour trouver ces skills quand on n'a pas envie de se les palucher à la main (ou à l'IA), faut aller les chercher dans les repos GitHub, fouiller les README, comparer les étoiles... La flemme quoi...

C'est la raison d'être de SkillsMP qui vient résoudre ce problème. C'est en fait un marketplace communautaire (pas affilié à Anthropic) qui agrège plus de 26 000 skills Claude provenant de dépôts GitHub publics, le tout présenté dans une interface qui ressemble à un App Store, avec des catégories, des stats, et tout le toutim.

Je vous préviens d'emblée, le site est un peu bordélique. Entre les filtres, les catégories (Développement, Outils, Data & AI, DevOps...), les tris par popularité ou mise à jour récente, et l'interface du tur-fu, faut un peu tâtonner au début. Mais une fois qu'on a pigé comment ça marche, c'est vraiment cool de pouvoir explorer tout ça au même endroit.

Le truc intéressant c'est que SkillsMP filtre automatiquement les repos de mauvaise qualité. Pour qu'un skill apparaisse, il faut minimum 2 étoiles sur GitHub. Ça évite de se retrouver avec des trucs abandonnés ou mal foutus. Y'a même un badge "Marketplace Ready" pour les skills qui ont un fichier marketplace.json bien configuré.

Pour installer un skill que vous avez trouvé, vous avez alors 3 options. Soit vous le mettez dans ~/.claude/skills/ pour l'avoir disponible partout sur votre machine. Soit vous le collez dans .claude/skills/ dans votre projet si vous voulez le partager avec votre équipe via Git. Soit vous passez par l'installation plugin avec une commande du genre /plugin marketplace add anthropics/skills.

La différence avec les commandes slash c'est que les skills sont "model-invoked". Ça veut dire que c'est Claude qui décide tout seul quand les utiliser en fonction du contexte de votre demande. Vous n'avez donc pas besoin de taper /truc pour activer un skill, il se déclenche automatiquement quand c'est pertinent.

Attention quand même, comme toujours avec du code open source venu d'Internet, les développeurs de SkillsMP le précisent bien, ils filtrent les repos pourris mais ça reste votre responsabilité de vérifier ce que vous installez. Un skill a accès à pas mal de trucs sur votre machine, donc prenez 2 minutes pour auditer le code avant d'installer un truc d'un développeur inconnu.

Bref, si vous passez beaucoup de temps sur Claude Code et que vous voulez découvrir ce que la communauté a créé comme extensions, SkillsMP c'est un bon point de départ. C'est gratuit, y'a pas besoin de compte, et ça vous évite de passer des heures à fouiller GitHub manuellement.

Un grand merci à Lorenper pour le partage !

Github Store - Un App Store qui pioche directement dans les releases GitHub

Par :Korben
18 décembre 2025 à 06:09

Parfois, c'est galère de chercher des logiciels sur GitHub... et je sais de quoi je parle car je passe littéralement mes journées à faire ça... Faut trouver un projet cool, faut aller dans les releases ou le compiler, l'installer, le tester et ensuite déterminer si ça vous sera utile avant de passer à la rédaction d'un article comme celui que vous êtes en train de lire.

J'adore faire ça mais aller digger Github, ça peut vite devenir pénible.

Alors ça tombe bien car voici un projet qui transforme GitHub en véritable App Store. Ça s'appelle Github Store , c'est disponible sur Android et desktop (Windows, macOS, Linux), et ça vous propose une interface propre qui présente les logiciels open source comme dans un store classique, avec des catégories, des screenshots, des descriptions, et un bouton pour installer en un clic.

Comme c'est bien pensé, l'application va automatiquement indexer les repos GitHub qui contiennent des binaires installables dans leurs releases. Elle filtre les vrais installeurs (.apk, .exe, .msi, .dmg, .pkg, .deb, .rpm) et ignore les archives de code source que GitHub génère automatiquement, du coup, vous ne voyez que les trucs que vous pouvez réellement installer.

L'interface est organisée avec des sections "Populaire", "Récemment mis à jour" et "Nouveautés" et vous pouvez aussi filtrer par plateforme pour ne voir que les apps compatibles avec votre système. Puis quand vous cliquez sur une app, vous avez tous les détails : nombre d'étoiles, forks, issues, le README complet rendu en markdown, les notes de release, et la liste des fichiers disponibles avec leur taille.

Pour qu'un repo apparaisse dans Github Store, il faut qu'il soit public, qu'il ait au moins une release publiée (pas de brouillon), et que cette release contienne un installeur dans un format supporté. Et y'a pas de soumission manuelle à faire, puisque tout est automatique.

Côté technique, c'est du Kotlin Multiplatform avec Compose pour l'interface. Sur Android, quand vous installez une app, ça délègue au gestionnaire de paquets natif et sur desktop, ça télécharge le fichier et l'ouvre avec l'application par défaut de votre système.

Vous pouvez vous connecter avec votre compte GitHub via OAuth. C'est pas obligatoire, mais ça permet de passer de 60 à 5000 requêtes par heure sur l'API GitHub, ce qui est bien si vous êtes du genre à explorer plein de repos.

L'app est dispo sur les releases GitHub du projet et aussi sur F-Droid pour Android. C'est sous licence Apache 2.0, donc vous pouvez en faire ce que vous voulez.

Attention quand même, les développeurs le précisent bien que Github Store ne fait que vous aider à découvrir et télécharger des releases. La sécurité et le comportement des logiciels que vous installez, c'est la responsabilité de leurs auteurs respectifs et la votre, donc comme d'hab, faites gaffe à ce que vous installez.

Un grand merci à Lorenper pour l'info !

Mole - L'outil CLI qui remplace CleanMyMac et toute la clique

Par :Korben
18 décembre 2025 à 05:45

Vous en avez marre de payer des licences pour des apps de nettoyage macOS qui font grosso modo la même chose ? CleanMyMac, AppCleaner, DaisyDisk, Sensei, iStat Menus... C'est pas les options qui manquent, mais le portefeuille finit par tirer la gueule, du coup, quand je suis tombé sur Mole, je me suis dit que j'allais vous en parler.

Mole c'est un outil en ligne de commande (donc ça fait peuuuuur, ahaha mais c'est cool vous allez voir) qui regroupe toutes ces fonctionnalités dans un seul binaire. C'est open source, sous licence MIT, et ça pèse que dalle et en gros, l'idée c'est de taper la commande "mo" suivi d'un paramètre et hop, ça fait le taf.

mo # Interactive menu
mo clean # Deep cleanup
mo uninstall # Remove apps + leftovers
mo optimize # Refresh caches & services
mo analyze # Visual disk explorer
mo status # Live system health dashboard
mo purge # Clean project build artifacts

mo touchid # Configure Touch ID for sudo
mo update # Update Mole
mo remove # Remove Mole from system
mo --help # Show help
mo --version # Show installed version

mo clean --dry-run # Preview cleanup plan
mo clean --whitelist # Adjust protected caches
mo uninstall --force-rescan # Rescan apps and refresh cache
mo optimize --whitelist # Adjust protected optimization items

Par exemple, pour le nettoyage en profondeur, c'est mo clean. L'outil va scanner vos caches système, les logs, les données des navigateurs, et tout le bordel qui s'accumule avec le temps. Dans les exemples donnés par le développeur, il parle de récupérer jusqu'à 95 Go d'espace disque. Évidemment ça dépend de votre usage, mais ça donne une idée du potentiel.

Pour désinstaller proprement une app, mo uninstall fera le job. Et contrairement à la méthode du glisser-déposer dans la corbeille qui laisse traîner des fichiers de préférences partout, Mole traque tous les fichiers associés à l'application et les vire ensemble, comme ce que fait AppCleaner...

Côté monitoring système, mo status vous affiche un dashboard temps réel avec CPU, RAM, réseau, et métriques de santé. Un peu comme iStat Menus mais directement dans votre terminal. Et avec mo analyze, vous avez un explorateur visuel de l'espace disque avec des barres de progression ASCII. Très DaisyDisk vibes. Et mo analyze c'est pareil mais pour l'espace disque...

La commande mo optimize va rafraîchir les caches système et relancer certains services pour remettre de l'ordre. Et pour les devs, mo purge est une tuerie : ça nettoie les dossiers de build de vos projets (node_modules, target, build...) qui peuvent facilement bouffer des dizaines de gigas si vous bossez sur plusieurs projets.

Petit bonus sympa, mo touchid permet de configurer Touch ID avec sudo, ce qui vous évitera de taper votre mot de passe admin 15 fois par jour.

Voilà... Maintenant si ça vous chauffe, l'installation se fait soit via Homebrew avec brew install tw93/tap/mole, soit via curl directement. Le projet est écrit en Shell et Go, ce qui explique qu'il soit aussi léger et rapide. Seul bémol relevé par le développeur, évitez iTerm2 qui a des soucis de compatibilité. Alacritty , Kitty , WezTerm ou Ghostty par contre fonctionnent nickel.

L'outil supporte aussi les options classiques genre --dry-run pour prévisualiser les changements sans rien supprimer, --whitelist pour protéger certains éléments, et --debug pour les curieux et la navigation se fait avec les flèches ou en mode Vim (hjkl) pour les puristes.

Bref, si vous êtes à l'aise avec le terminal et que vous en avez marre de multiplier les apps payantes pour faire des trucs basiques, Mole mérite un petit test !

Reprendre le contrôle de ses données avant 2026 : Incogni, le bouton "reset" de votre vie numérique

Par :Korben
18 décembre 2025 à 05:24
-- Article en partenariat avec Incogni --

Si vous êtes comme moi, chaque fin d’année, vous faites peut-être le ménage dans vos mails, vos dossiers, parfois dans la vie pro. Mais le vrai bazar ne se trouve plus dans nos tiroirs : il est éparpillé dans des centaines de bases de données commerciales, de sites de recherche de personnes et de courtiers en données qui vendent notre profil en kit. Ces entreprises savent où vous habitez, ce que vous achetez, avec qui vous vivez, vos revenus probables, vos centres d’intérêt, parfois même votre état de santé supposé. Incogni s’attaque précisément à ce chantier invisible : faire supprimer, légalement et en continu, ces informations là où elles valent le plus pour les autres… et le moins pour vous.

Vos données se baladent partout (et vous ne les suivez plus)

Les « data brokers » vivent d’un modèle simple : collecter le maximum d’informations sur vous, les recouper puis les revendre à des publicitaires, assureurs, chasseurs de têtes, agrégateurs de profils, voire des acteurs beaucoup moins recommandables. Ils se nourrissent de formulaires, programmes de fidélité, applis, jeux « gratuits », cookies, traqueurs, fuites de sites, réseaux sociaux, etc. Une fois votre profil créé, il se duplique et se revend en boucle. Le résultat, ce sont des pubs ultra ciblées, des spams de plus en plus crédibles, une augmentation des risques d’usurpation d’identité, et la sensation désagréable d’être constamment suivi, même hors ligne. Bref c'est bien relou.

Le passage à 2026 est un moment idéal pour reprendre la main, parce que la tendance ne va pas s’inverser spontanément. Encore moins à l'époque de l'IA omniprésente. Plus on attend, plus votre « clone » numérique prend de la valeur (à chaque nouvelle information ajoutée) et plus il se multiplie. L’enjeu n’est pas de disparaître à 100% (ça c'est probablement mission impossible), mais de réduire la surface d’attaque : moins de données en circulation, moins de points d’entrée pour les arnaques, les hausses de tarifs ciblées, les fuites massives. Incogni propose d’industrialiser ce ménage, là où le faire à la main demanderait des centaines d’heures et une patience hors-norme.

Incogni : le service qui passe sa journée à dire « supprimez-moi »

L’idée d’Incogni est brutale dans le bon sens du terme : plutôt que de vous fournir des conseils abstraits, le service va directement chercher vos données chez plus de 420 courtiers et sites spécialisés, puis leur envoie des demandes de suppression en s’appuyant sur les lois en vigueur (RGPD en Europe, CCPA en Californie, PIPEDA si vous êtes au Canada, etc.). Dès l’inscription, le robot lance une première vague de requêtes, puis relance automatiquement tous les acteurs qui prennent trop leur temps. Des rapports réguliers indiquent qui a répondu, ce qui a été supprimé, ce qui est en cours, et ce qui résiste encore.

Pour l’utilisateur, tout se concentre dans un tableau de bord : on y voit les brokers contactés, le type de données qu’ils exploitent, et le statut de chaque requête (suppression confirmée, en attente, refus, relance planifiée). Les plans les plus complets ajoutent la possibilité de soumettre des demandes personnalisées sur des sites précis exposant vos infos : un vieux forum, un annuaire obscur, une base d’anciens clients, etc. Dans ces cas-là, l’équipe d’Incogni prend le relais et gère la procédure à votre place. C’est cette automatisation et ce suivi sur la durée qui font la différence avec un « grand ménage » ponctuel.

Ce que disent les chiffres (et pourquoi 2026 est le bon moment)

Incogni publie régulièrement des études sur la façon dont les gens laissent filer leurs données, notamment autour de périodes comme le Black Friday qui vient de se terminer. Une enquête récente menée aux États-Unis montre, par exemple, que les consommateurs sont nombreux à multiplier les comptes, newsletters et inscriptions « juste pour une promo », sans réfléchir à ce que deviennent leurs informations après coup. Beaucoup sous-estiment totalement le nombre de bases dans lesquelles leurs données terminent, et la durée pendant laquelle elles y restent. Certes, c’est basé sur des comportements américains, mais il n’y a aucune raison de penser que les Français, qui raffolent tout autant des bons plans et des achats en ligne, soient fondamentalement différents dans ce domaine.

Cette étude met surtout en lumière un paradoxe : les gens disent être inquiets pour leur vie privée… mais acceptent sans sourciller des conditions d’utilisation qui autorisent les marchands à revendre leurs infos. Fin 2025 / début 2026, c’est donc une fenêtre parfaite pour briser ce cercle. Après une année de formulaires, de comptes créés « juste pour voir », d’abonnements, d’inscriptions à des loteries en ligne, commencer 2026 en nettoyant tout ce qui peut l’être est un geste à la fois symbolique et très concret. Incogni se positionne précisément comme ce bouton « reset » annuel, voire permanent.

Pour les particuliers, les pros, et tous ceux qui ont mieux à faire

Une des forces d’Incogni , c’est d’être pensé aussi bien pour le particulier qui en a assez de voir son nom sur des sites de recherche de personnes, que pour la petite boîte qui doit prouver qu’elle prend la protection des données au sérieux. En entreprise, le service peut contribuer à limiter les risques de fuite de fichiers clients ou d’employés utilisés en dehors du cadre initial, tout en fournissant des rapports utiles pour les audits internes ou les échanges avec la CNIL & Co. Dans l’e‑commerce, la santé ou les services financiers, réduire ce qui traîne chez les courtiers, c’est aussi limiter l’ampleur possible d’un futur incident.

Du côté des particuliers, l’intérêt est plus instinctif : moins de spam personnalisé, moins de démarchage ciblé, moins d'appels non sollicités, moins de chances que des informations sensibles (adresse, date de naissance, numéros de téléphone, données de localisation, historique d’achat) servent à monter un dossier d’usurpation d’identité ou de scam bien ficelé. L’inscription est rapide, la prise en main se fait en quelques minutes, et les premiers résultats se voient souvent sous quelques semaines (baisse de certains spams, disparition progressive de fiches sur des sites de recherche de personnes). Certaines évaluations indépendantes mentionnent même des vérifications externes (type audit Deloitte) des cycles de relance et des promesses de suppression.

Une démarche à inscrire dans la durée… mais à commencer maintenant

Le piège, ce serait de penser qu’un gros nettoyage une fois suffit. Les data brokers continuent d’aspirer en permanence des flux venant de nouvelles sources, de nouveaux partenaires, de nouveaux formulaires. C’est pour cela qu’Incogni fonctionne plutôt comme un abonnement qu’un simple « passage unique » : le service renvoie régulièrement des demandes, vérifie que les suppressions tiennent dans le temps, et ajoute à sa liste de nouveaux courtiers au fil des mois (des dizaines supplémentaires par an, selon les retours récents). L’objectif est de maintenir votre exposition à un niveau minimum, malgré la tendance inverse du marché.

Le début 2026 est un excellent prétexte pour enclencher cette logique. Faire son bilan de l’année, nettoyer ses comptes, resserrer ses mots de passe, activer un gestionnaire , et, en parallèle, lâcher Incogni sur les courtiers en données pour qu’il fasse le travail ingrat. Le combo est simple : vous limitez ce que vous donnez à l’avenir, et un service automatisé retire ce qui traîne déjà dans la nature. Ce n’est pas de la parano, c’est de l’hygiène numérique, au même titre qu’un antivirus ou un VPN. Surfshark propose d'ailleurs le triple combo dans son offre Surfshark One .

On ne récupérera sans doute jamais un contrôle absolu sur toutes les miettes laissées au fil des années. Mais réduire le volume de données exploitables, c’est déjà reprendre l’avantage. Et si un outil peut passer ses journées à harceler les courtiers en votre nom, autant le laisser faire pendant que vous vous occupez de choses plus intéressantes que de lire des politiques de confidentialité en petits caractères (vous pouvez me préparer du pain d'épice et me l'envoyer pour mes fêtes par exemple, au hasard).

Vous avez encore quelques jours pour profiter de l'offre de fin d'année à -55%, donc ne tardez pas trop. L'abonnement standard annuel revient à 86,26€ TTC, mais en appliquant le code KORBEN55 vous économisez encore un peu plus, puisque vous ne payerez que 77,63€ TTC.

-> Cliquez ici pour obtenir Incogni au meilleur tarif <-

LibrePods - Le hack qui libère vos AirPods de la prison Apple

Par :Korben
18 décembre 2025 à 05:23

Vous avez des AirPods Pro que vous avez payés 300 balles et quand vous les branchez sur votre téléphone Android ou votre PC Linux, la moitié des fonctionnalités disparaissent. C'est pas parce que le matériel ne peut pas les faire mais juste parce qu'Apple a décidé que vous n'aviez pas le droit de les utiliser si vous n'êtes pas dans leur écosystème. Snif !

Et là, LibrePods débarque et règle ce problème. Ils s'agit d'un projet open source qui déverrouille toutes les fonctionnalités exclusives des AirPods sur les appareils non-Apple, et c'est compatible avec les AirPods Pro 2, AirPods Pro 3 (sauf le monitoring cardiaque), les AirPods 4, et même les AirPods Max en mode complet. Les autres modèles AirPods ont également un support basique (batterie et détection d'oreilles).

Mais alors qu'est-ce que vous récupérez avec LibrePods ?

Hé bien tout ce qu'Apple vous a vendu mais que vous ne pouviez pas utiliser ailleurs que sous iOS. Par exemple, le contrôle du bruit actif et la transparence adaptative, la détection d'oreille qui met en pause quand vous retirez un écouteur, les gestes de la tête pour répondre aux appels, le statut de batterie précis, les paramètres d'aide auditive complets, la connexion à deux appareils simultanés, et la reconnaissance de conversation qui baisse automatiquement le volume.

La dernière version (v0.2.0-alpha) a ajouté pas mal de trucs sympas comme la possibilité de voir la batterie de vos AirPods même quand ils ne sont pas connectés à votre téléphone, la connexion automatique quand vous recevez un appel ou lancez de la musique, et la personnalisation complète du mode transparence (amplification, balance, tonalité, réduction du bruit ambiant).

Techniquement, LibrePods fonctionne en utilisant un hook sur le Bluetooth Device Identification. Ce DID Bluetooth, c'est ce qui permet aux appareils de s'identifier entre eux et Apple utilise ce système pour vérifier si l'appareil connecté est un produit Apple. Si oui, les fonctionnalités se débloquent, si non, elles restent cachées. LibrePods se fait donc passer pour un appareil Apple à ce niveau, du coup, les AirPods croient qu'ils sont connectés à un iPhone ou un Mac. Et là, hop, tout se débloque ! Chouette non ?

Et c'est pas un hack compliqué... Ça consiste juste à enlever un filtre logiciel qu'Apple a mis volontairement pour vous forcer à rester dans leur écosystème.

LibrePods fonctionne sur Android et Linux. Notez que pour Android, vous devez avoir un appareil rooté avec Xposed installé à cause d'un bug dans la stack Bluetooth d'Android. Par contre, bonne nouvelle si vous êtes sur un OnePlus ou un Oppo avec ColorOS ou OxygenOS 16, vous pouvez utiliser l'app sans root pour les fonctions de base comme l'ANC, la reconnaissance de conversation et la détection d'oreilles !

Sur Linux, une nouvelle version est en développement actif et promet d'apporter encore plus de fonctionnalités mais en attendant, l'ancienne version permet déjà de contrôler les modes de bruit, les paramètres d'aide auditive, et d'autres fonctions.

D'autres applis existent pour gérer les AirPods sur Android comme CAPod, AirPodsDesktop, MagicPods, EarX mais elles ne proposent pas grand chose par rapport à LibrePods.

C'est vrai que l'Union Européenne force les fabricants à déverrouiller le firmware de certains appareils pour permettre la réparation et l'interopérabilité sauf que les écouteurs Bluetooth ne sont pas couverts par ces lois, ce qui fait qu'Apple peut continuer à brider des fonctionnalités matérielles avec du logiciel sans aucun problème légal.

LibrePods prouve donc qu'on n'a pas besoin d'attendre des lois. Faut juste des hackers qui en ont marre de se faire entuber et un peu de code !

Voilà, si vous avez des AirPods et que vous utilisez Android ou Linux, franchement, allez voir. Y'a tout sur le repo GitHub : le code source, les instructions d'installation, la doc technique...etc

Merci à Kiyoshi pour l'info !

Reçu hier — 17 décembre 2025 Korben

Sega Channel - Le Game Pass de 1994 dont personne ne se souvient

Par :Korben
17 décembre 2025 à 15:36

Vous pensez que le streaming de jeux et les abonnements type Game Pass étaient des inventions récentes ? Que nenni mes mais, car en 1994, Sega avait déjà inventé ce concept quasiment tout pareil avec le Sega Channel, un service qui permettait de télécharger des jeux Mega Drive directement via le câble TV.

C'était y'a 30 ans quand même et pour en profiter, vous deviez brancher un adaptateur spécial dans le port cartouche de votre Mega Drive, vous le connectiez à votre prise de câble TV coaxial, et hop, vous aviez accès à une bibliothèque de 50 jeux qui évoluait chaque mois. Le tout pour environ 15 dollars par mois plus 25 dollars de frais d'activation et ensuite, les jeux étaient téléchargés dans les 4 Mo de RAM de l'adaptateur et effacés dès que vous éteigniez la console.

Ce service a été lancé le 12 décembre 1994 aux États-Unis via les câblo-opérateurs TCI et Time Warner Cable et Sega avec son optimisme légendaire espérait atteindre un million d'abonnés la première année. Ils en ont eu 250 000 ce qui n'est pas si mal, mais c'était loin des ambitions initiales alors que le marché potentiel était d'environ 20 millions de foyers américains.

Bref, tout ça c'est du passé mais pourtant, c'est pas tombé totalement dans l'oubli puisque la Video Game History Foundation vient de récupérer 144 fichiers ROM du service , dont une centaine de versions système uniques. Et surtout, ils ont retrouvé des jeux qu'on croyait perdus à jamais, comme "Garfield: Caught in the Act - The Lost Levels" et "The Flintstones" (Les Pierrafeu).

Ces titres n'existaient que sur Sega Channel et ont disparu quand le service a fermé... Certains jeux devaient aussi être modifiés pour tenir dans les limitations de l'adaptateur ce qui veut dire que les gros titres étaient découpés en plusieurs parties avec des systèmes de mots de passe pour empêcher les joueurs de sauter des niveaux. Pas très élégant, mais ça fonctionnait.

Quoiqu'il en soit, le service a tenu jusqu'au 31 juillet 1998, soit trois ans après la sortie de la Saturn et à la fin, il ne restait plus que 230 000 abonnés. Sega avait même prévu un successeur appelé Express Games, mais il n'a jamais vu le jour.

Ce qui est dommage c'est que d'après un sondage interne de l'époque, 99% des abonnés trouvaient le service pratique et 91% estimaient que c'était un bon rapport qualité-prix. Popular Science leur avait même filé un prix "Best of What's New" en 1994. Voilà, le concept était bon, mais c'était juste 20 ans trop tôt.

Bref, la prochaine fois que quelqu'un vous vante les mérites révolutionnaires du Game Pass ou du cloud gaming, en bon rabat joie, vous pourrez lui rappeler que Sega faisait déjà ça en 1994 avec un câble coaxial et 4 Mo de RAM.

Poznote - La meilleure app de notes auto-hébergeable que vous pourrez trouver !

Par :Korben
17 décembre 2025 à 15:29

Vous cherchez une app de prise de notes que vous pouvez héberger vous-même, sans dépendre d'un cloud propriétaire qui va analyser vos pensées les plus intimes pour vous balancer de la pub ciblée ?

Ça tombe bien car j'ai reçu un mail d'un lecteur, Tim, qui bosse dessus depuis des années et qui vient de la partager en open source. Alors je fais mon taf et je vous en parle !

Ça s'appelle Poznote , et c'est une application web légère pour la prise de notes. Le truc cool, c'est que vous gardez la main sur vos données puisque tout tourne chez vous. Pas de cloud tiers, pas de tracking, pas de "on analyse vos notes pour améliorer notre IA". Vos notes restent vos notes.

Côté fonctionnalités, y'a de quoi faire puisque c'est un éditeur de texte enrichi, avec support Markdown, une recherche super puissante, un système de tags, le support des pièces jointes, des espaces de travail multiples... Et y'a aussi des trucs plus originaux comme l'intégration d'Excalidraw pour dessiner des schémas et les diagrammes Mermaid pour les devs qui aiment visualiser leurs architectures. Et bien sûr, mode sombre parce qu'on est en 2025 quand même et que cette année était bien bre-som quand même !

Ce projet tourne avec PHP 8, SQLite pour la base de données, et un peu de JavaScript vanilla avec React juste pour le composant Excalidraw. Et les notes sont stockées en HTML/Markdown avec les métadonnées dans SQLite et les pièces jointes dans le système de fichiers.

Pour l'installation, c'est du Docker comme d'hab, donc vous récupérez l'image, vous configurez quelques variables d'environnement, et hop ça tourne sur le port 8040 avec les credentials par défaut admin/admin123! . Le projet supporte même les instances multiples si vous voulez séparer vos notes perso de vos notes pro sur le même serveur.

Y'a aussi une API REST complète avec documentation Swagger intégrée pour ceux qui veulent automatiser des trucs ou intégrer Poznote dans leur workflow. Vous pouvez aussi partager des notes publiquement si besoin, créer des listes de tâches, et y'a un système de corbeille pour récupérer ce que vous avez supprimé par erreur.

Le backup est également intégré directement dans l'app avec export complet de vos données et vous pouvez même consulter vos notes offline une fois exportées. Et tout le code est sous licence MIT.

Voilà, si vous voulez tester avant de vous lancer, y'a une démo dispo sur poznote-demo.up.railway.app avec les identifiants poznote/poznote. Ça vous donnera une idée de l'interface et des fonctionnalités sans rien installer.

Bref, si vous cherchez une solution de notes auto-hébergée incroyable, Poznote c'est gratuit, c'est open source, et ça respecte votre vie privée. C'est le top du top alors je dis un grand bravo à Tim pour le boulot accompli !!

Mon nouveau semainier est incroyable !

Par :Korben
17 décembre 2025 à 14:16

Les amis aujourd'hui j'ai eu une jolie surprise ! Ma femme qui se trouve être, par le plus grand des hasards, l'être le plus exceptionnel de cette planète, a aussi de nombreux talents.

Et parmi ses talents, elle est capable de faire surgir du néant des cahiers, livres, agendas et tout autre objet de papèterie 100% faits maison. C'est assez fou.

Et moi de mon côté, bien que j'adore la technologie, je suis assez bordélique sur l'organisation de ma semaine, le suivi de mes tâches, le suivi de mes rendez-vous et compagnie. Et ne me parlez pas de Google Calendar ou de todo list ou encore de rappels dans le smartphone, tout ceci me gave profondément.

Alors j'ai trouvé une solution, c'est de mettre un semainier tout pourri devant moi sur le bureau. A l'ancienne quoi mais au moins, j'ai tout sous les yeux et grâce à ça, je n'ai pas besoin d'ouvrir une app, d'activer des notifs relous et youpi, je n'oublie quasiment plus rien ^^.

C'est peut-être le dernier truc de ma life que je n'ai pas dématérialisé.

Et je devais en racheter un pour la nouvelle année, quand j'ai eu l'idée de demander à ma femme de m'en faire un from scratch 100% custom. Donc elle s'est mise au boulot dans le plus grand des secrets et l’œuvre d'art m'a été révélée ce matin.

Alors je vous montre ça, car c'est magnifique !

Comme vous pouvez le voir, il est bleu comme mon site, un petit côté Jean's que j'aime beaucoup et mon logo doré ainsi que l'URL de mon site au dos.

Puis alors ces petits coins en métal, ça fait toute la différence sans oublier la doublure, et le petit logo Korben également à l'intérieur des pages. Bref c'est royal !

Voilà, c'était juste pour partager cette beauté avec vous.

C'est Noël avant l'heure dans mon ti cœur et avec ça, je serais d'attaque pour l'année qui vient !

RemoveWindowsAI - Le script qui débranche l'IA de Windows 11

Par :Korben
17 décembre 2025 à 09:53

Bon, déjà si vous êtes sous Windows, je sais c'est dur la vie ^^. Mais si en plus vous êtes anti-IA, votre quotidien doit être encore plus difficile depuis que Microsoft a décidé de coller de l'intelligence artificielle partout dans son OS. Copilot par-ci, Recall par-là, des features IA dans Paint, dans le Bloc-notes, dans les paramètres... Bref, c'est l'invasion et y'a malheureusment pas vraiment de bouton "OFF" officiel pour tout virer d'un coup.

Hé bien figurez-vous qu'un développeur du nom de zoicware a créé un script PowerShell qui fait exactement ça. Ça s'appelle RemoveWindowsAI et ça permet de dégager TOUTES les fonctionnalités IA de Windows 11 en quelques secondes. Aux chiottes Copilot, Recall, les suggestions de frappe, l'IA dans Paint, dans Edge, les effets vocaux... Tout y passe et c'est cool !

Et ce script ne se contente pas de désactiver des options dans les paramètres comme un vulgaire amateur puisqu'il modifie les clés de registre, supprime les packages Appx (même ceux marqués "non supprimables" par Microsoft), nettoie les fichiers cachés dans le Component-Based Servicing, et surtout il installe un bloqueur pour empêcher Windows Update de vous remettre tout ce bazar à la prochaine mise à jour. Parce que oui, Microsoft adore réinstaller ses trucs en douce...

Pour l'utiliser, c'est assez simple. Vous lancez PowerShell en admin (attention, pas PowerShell 7 mais bien le bon vieux Windows PowerShell 5.1) et vous tapez une seule commande qui télécharge et exécute le script. Y'a même une interface graphique interactive pour ceux qui préfèrent cocher des cases plutôt que de taper des lignes de commande (Allez quand même lire le code avant sur le Github pour vous assurer que c'est OK, c'est une bonne habitude à prendre).

& ([scriptblock]::Create((irm "https://raw.githubusercontent.com/zoicware/RemoveWindowsAI/main/RemoveWindowsAi.ps1")))

Maintenant, quelques précautions à savoir quand même. Certains antivirus merdiques vont hurler au loup en voyant ce script. Rassurez-vous, c'est un faux positif classique avec ce genre d'outils qui touchent au système en profondeur. Faudra soit désactiver temporairement votre antivirus, soit ajouter une exception et surtout, le développeur recommande fortement de tester ça dans une machine virtuelle avant de l'appliquer sur votre PC principal. Avec VirtualBox ou Hyper-V, vous pouvez créer un Windows 11 de test en quelques clics et voir si tout se passe bien.

Et si jamais vous changez d'avis et que vous voulez récupérer vos features IA adorées, pas de panique ! Y'a un mode "Revert" qui permet de tout restaurer. Vous n'êtes donc pas coincé pour toujours si vous décidez finalement de revenir vers le côté obscur de la Force.

Bref, si vous faites partie de ceux qui pensent que l'IA dans Windows c'est plus une nuisance qu'autre chose (et que ça pompe des ressources pour des fonctionnalités dont vous n'avez pas besoin), ce petit script vous sera utile.

C'est par ici : RemoveWindowsAI sur GitHub

Obsidenc - Du chiffrement parano en Rust pour vos dossiers sensibles

Par :Korben
17 décembre 2025 à 09:44

Vous avez des dossiers sensibles que vous aimeriez chiffrer avant de les balancer sur un cloud ou un disque externe ? Ça tombe bien, je vous ai trouvé un petit outil en Rust qui va vous plaire.

Obsidenc , c'est son nom, est un utilitaire de chiffrement que son créateur qualifie de "paranoid-grade". Et après avoir jeté un œil au code source, je peux vous dire que c'est pas du marketing puisque ce truc archive votre répertoire en TAR et le chiffre avec XChaCha20-Poly1305, un algorithme AEAD moderne qui assure à la fois la confidentialité et l'intégrité de vos données.

Côté dérivation de clé, ça utilise Argon2id conforme à la RFC 9106. Pour les non-initiés, Argon2id c'est l'algo qui a gagné le Password Hashing Competition et qui est spécifiquement conçu pour résister aux attaques par GPU et circuits spécialisés (ASIC). L'outil adapte automatiquement les paramètres à votre machine en utilisant 85% de votre RAM disponible (entre 512 Mo minimum et 2 Go maximum) afin de rendre le brute-force astronomiquement coûteux. Et si vous avez moins de RAM dispo, il compense en augmentant le nombre d'itérations.

C'est du code Rust bien propre qui utilise les bibliothèques cryptographiques RustCrypto (bien auditées par la communauté) et le code implémente des bonnes pratiques de sécurité comme le memory locking (mlock sur Unix, VirtualLock sur Windows) pour éviter que vos clés se retrouvent dans le swap, et le zeroize pour effacer la mémoire sensible après utilisation.

Vous compilez ça avec cargo build --release, puis pour chiffrer un dossier :

obsidenc encrypt ~/mon-dossier ~/mon-dossier.oen

Pour déchiffrer :

obsidenc decrypt ~/mon-dossier.oen ~/mon-dossier-dechiffre

Le mot de passe doit faire minimum 20 caractères (pas de négociation possible, déso pas déso) et vous devez le confirmer deux fois. Vous pouvez aussi ajouter un fichier de clé en plus du mot de passe pour du 2FA old-school.

L'outil a aussi quelques protections défensives sympas. Par exemple, il refuse les symlinks (vecteur d'attaque classique), limite le nombre de fichiers à 1 million et la longueur des chemins à 4096 caractères pour éviter les zip bombs. Sur les systèmes Unix, il vérifie même que votre fichier de clé n'est pas lisible par tout le monde (chmod 600 obligatoire).

Cet outil part du principe qu'un attaquant peut avoir accès à votre fichier chiffré et dispose de temps illimité pour tenter de le casser, du coup, tout est conçu pour rendre l'attaque offline la plus douloureuse possible.

Bref, si vous cherchez un moyen de sauvegarder vos dossiers sensibles de manière vraiment sécurisée avant de les balancer sur un cloud ou un disque externe, obsidenc fait le taf et en plus c'est open source (MIT/Apache 2.0) !

Ces extensions VPN gratuites aspirent toutes vos conversations avec ChatGPT

Par :Korben
17 décembre 2025 à 09:27

Vous utilisez une extension VPN gratuite sous Chrome ou Edge pour "protéger votre vie privée" ? Cool story les bro, mais si je vous disais que cette même extension enregistre peut-être toutes vos conversations avec ChatGPT, Claude, Gemini et compagnie pour les revendre à des courtiers en données (les fameux data brokers) ?

Hé bien c'est exactement ce que viennent de découvrir les chercheurs en sécurité de Koi qui ont mis le doigt sur 4 extensions très populaires comptabilisant plus de 8 millions d'utilisateurs au total : Urban VPN Proxy (6 millions à elle seule), 1ClickVPN Proxy, Urban Browser Guard et Urban Ad Blocker qui aspirent silencieusement tout ce que vous tapez dans vos chat IA préférées.

Le truc vicieux, c'est que ces extensions ne se contentent pas de regarder votre historique de navigation comme les trackers classiques. Non non non, elles injectent du code JavaScript directement dans les pages des chatbots IA quand vous les visitez et ça modifie les fonctions de base du navigateur (fetch() et XMLHttpRequest pour les techos) pour intercepter absolument tout ce qui passe entre vous et l'IA.

Vos prompts, les réponses du chatbot, les métadonnées de conversation, tout est aspiré et envoyé vers les serveurs analytics.urban-vpn.com et stats.urban-vpn.com. Et le pire c'est que cette collecte continue en arrière plan même quand le VPN est désactivé. Bye bye tous vos secrets.

Derrière ces extensions se cache Urban Cyber Security Inc., une boîte affiliée à BiScience, un courtier en données bien connu des chercheurs en sécurité. Ces gens-là sont passés de la collecte d'historique de navigation à la collecte de conversations IA complètes, soit un niveau de sensibilité bien supérieur vu ce qu'on peut raconter à une IA (questions médicales, code propriétaire, problèmes personnels, données financières...).

Et devinez quoi ? Ces extensions arboraient fièrement le badge "Featured" sur le Chrome Web Store et le Microsoft Edge Add-ons, censé garantir que Google et Microsoft ont vérifié leur sécurité. Nos deux géants américains ont donc validé des extensions qui violent directement leur propre politique d'utilisation limitée des données utilisateurs.

Bref, si vous avez installé une de ces extensions et utilisé ChatGPT, Claude, Gemini, Copilot, Perplexity, DeepSeek, Grok ou Meta AI depuis juillet de cette année, partez du principe que toutes ces conversations sont maintenant sur les serveurs d'un data broker et potentiellement revendues à des annonceurs.

La morale de l'histoire, c'est que dans le cas des VPN gratuits, le produit c'est littéralement tout ce que vous faites en ligne. Donc si vous voulez vraiment protéger votre vie privée avec un VPN, mieux vaut payer quelques euros par mois pour un service sérieux comme NordVPN ou Surfshark qui n'a pas besoin de revendre vos données pour survivre.

🔒 VPN sérieux vs extensions gratuites douteuses

Pour protéger réellement vos conversations IA et votre vie privée sans finir dans une base de données de data broker, NordVPN fait le job :

  • ✓ Politique stricte de non-conservation des logs (auditée par des tiers indépendants)
  • ✓ Chiffrement AES-256 de tout votre trafic, y compris vos échanges avec ChatGPT & co
  • ✓ Protection contre les fuites DNS et WebRTC
  • ✓ Plus de 8000 serveurs dans 110+ pays
  • ✓ Garantie satisfait ou remboursé 30 jours

Tester NordVPN sans risque → (lien affilié)

Et désinstallez moi ces merdes immédiatement si vous les avez.

Source

sqlit - Quand y'en a marre de lancer SQL Server Management Studio pour une requête

Par :Korben
17 décembre 2025 à 09:22

Vous aussi vous avez ce truc où vous devez juste faire un petit SELECT rapide sur votre base de données, et là vous lancez un monstre du genre SQL Server Management Studio ou DBeaver, vous attendez que ça se charge pendant 47 ans, que ça bouffe les 2 Go de RAM qu'il vous reste, et tout ça pour une requête de 3 lignes ?

Moi ça m'énerve profondément, j'avoue... Pas le temps, pas la patience !

Heureusement, y'a un dev qui en a eu encore plus marre que moi et qui a pondu sqlit . C'est une interface TUI (Terminal User Interface, je précise...) qui tourne direct dans votre terminal et qui supporte un paquet de bases de données différentes telles que PostgreSQL, MySQL, SQL Server, SQLite, MariaDB, Oracle, DuckDB, CockroachDB, Supabase, Turso... La liste est longue mais en gros, si ça parle SQL, sqlit sait s'y connecter.

Le truc est inspiré de lazygit , un client Git en TUI que beaucoup de devs adorent, ce qui fait qu'on retrouve cette approche "lazy" où l'interface se suffit à elle-même. Comme ça y'a pas besoin de mémoriser 150 raccourcis clavier, puidqu'il y a une aide contextuelle qui s'affiche et qui vous dit quoi faire, comme votre maman quand vous ne l'avez absolument pas sollicitée.

On a donc de l'autocomplétion SQL qui va chercher les noms de tables et de colonnes, un historique des requêtes par connexion (pratique pour retrouver cette requête chelou qu'on avait bidouillée y'a 3 semaines), et même la gestion des tunnels SSH intégrée pour se connecter à des bases distantes. Les utilisateurs de Vim seront contents aussi, car y'a un mode d'édition modal pour naviguer comme dans votre éditeur préféré.

Pour l'installer, c'est hyper simple :

pip install sqlit-tui

Et après vous tapez sqlit dans votre terminal et c'est parti. Les drivers pour chaque type de base de données s'installent à la demande la première fois que vous essayez de vous connecter. Donc pas de dépendances inutiles qui traînent si vous utilisez juste PostgreSQL par exemple.

Y'a aussi un mode CLI si vous voulez scripter vos requêtes :

sqlit query -c "MaConnexion" -q "SELECT * FROM Users" --format csv

Le seul truc naze je trouve, c'est le nom "sqlit" qui ressemble trop à SQLite. Bon courage pour googler des infos dessus... Je sais de quoi je parle, toutes les 2 semaines, y'a une entreprise Korben qui pop en voulant surfer sur mon buzz (ouais j'ai le melon, mdr) et qui passe toutes ses levées de fonds en adwords pour se positionner avant moi sur Google ^^. C'est couillon ^^.

Bref, si vous vivez dans le terminal et que vous en avez marre de lancer des client lourds juste pour un SELECT, c'est vraiment pratique.

Reçu — 16 décembre 2025 Korben

Des robots plus petits qu'un grain de sel qui nagent, pensent et agissent tout seuls

Par :Korben
16 décembre 2025 à 12:11

J'ai toujours été fasciné par les nanobots dans les films de science-fiction... Ces petites bestioles microscopiques qu'on injecte dans le corps pour réparer des trucs ou tuer des méchants et qui encore jusqu'à aujourd'hui paraissait impossible...

Eh bien on n'en est plus très loin, les amis, car des chercheurs de l'Université de Pennsylvanie et du Michigan viennent de créer les plus petits robots autonomes et programmables jamais conçus. Et quand je dis petits, je vous parle de machines qui font moins d'un demi-millimètre, donc plus petits qu'un grain de sel. C'est à peine visibles à l’œil nu alors bon courage pour les retrouver si vous en perdez un sur votre bureau.

D'après ce que je comprends, c'est que c'est le premier micro-robot capable de sentir, de penser et d'agir. Bah oui, parce que jusqu'à aujourd'hui, les robots de cette taille avaient besoin d'être contrôlés de l'extérieur, avec des champs magnétiques ou des joysticks. Mais là, ces petits gars sont complètement autonomes.

Alors comment est-ce qu'ils bougent sans moteur ni hélice ? Hé bien au lieu de pousser l'eau directement, les robots génèrent un champ électrique qui déplace les ions dans le liquide. Ces ions poussent ensuite les molécules d'eau, et hop, ça avance. Y'a aucune pièce mobile ce qui veut dire que ces robots peuvent nager pendant des mois sans s'user.

Côté "cerveau", c'est l'équipe de David Blaauw au Michigan qui s'en est chargée. Son labo détient le record du plus petit ordinateur au monde, donc forcément, ça aide. Le processeur embarqué consomme seulement 75 nanowatts ce qui est 100 000 fois moins qu'une montre connectée. Pour réussir cette prouesse, les chercheurs ont dû repenser toute l'architecture de programmation pour faire rentrer des instructions complexes dans cet espace très réduit.

Et leur énergie, ils la tirent de la lumière grâce à des cellules solaires qui recouvrent leur surface et récupèrent l'énergie lumineuse. Et le plus cool, c'est que les impulsions de lumière servent aussi à programmer chaque robot individuellement grâce à des identifiants uniques.

Ces petites machines embarquent aussi des capteurs de température capables de détecter des variations d'un tiers de degré Celsius et pour communiquer entre eux, les robots se tortillent, un peu comme la danse des abeilles. En faisant cela, ils peuvent se coordonner en groupe et effectuer des mouvements complexes tous ensemble.

Et le plus dingue dans tout ça c'est leur coût de fabrication. Ça coûte un centime par robot ! Donc c'est top pour de la production en masse car avec cette avancée, vont suivre de nombreuses applications médicales concrètes... Imaginez des robots qu'on injecte dans votre petit corps de victime pour aller délivrer un médicament pile au bon endroit. Ou analyser l'état de vos cellules sans avoir à vous ouvrir le bide. Voire reconnecter des nerfs sectionnés ? On peut tout imagine avec ce nouveau genre de médecine de précision...

Bienvenue dans l'ère des machines microscopiques autonomes mes amis ! Et à un centime pièce la bestiole, j'imagine qu'ils ne vont pas se gêner pour en fabriquer des milliards !

Source

File-Hunter - L'archive MSX qui aurait rendu fou votre moi de 1985

Par :Korben
16 décembre 2025 à 12:02

Vous vous souvenez du MSX, cette machine 8 bits des années 80 qui a fait rêver toute une génération avant que le PC ne vienne tout écraser ? Hé bien y'a un site qui a décidé de préserver absolument TOUT ce qui existe pour cette plateforme, et quand je dis tout, c'est vraiment tout.

File-Hunter , c'est le projet d'un gars passionné, Arnaud de Klerk , qui depuis 1999 (oui, ça a 25 ans ce truc) archive méticuleusement chaque fichier, chaque jeu, chaque démo, chaque magazine lié à l'écosystème MSX. Le site existe même depuis l'époque où FONY créait encore du contenu pour les systèmes 8-bit . Donc autant dire que c'est une vraie institution de la préservation rétro.

Le site propose au téléchargement pas moins de 24 catégories de contenu. Des jeux évidemment (MSX1, MSX2, MSX2+, Turbo-R), mais aussi des démos, des disk-magazines, des émulateurs, des polices, des systèmes d'exploitation, des ROMs système, du contenu technique, des manuels, des livres, des magazines numérisés, de la musique, des programmes, du code source... Bref, si ça concerne le MSX et que ça existe quelque part sur Terre, y'a de fortes chances que ce soit archivé ici.

Côté formats, c'est la fête du slip vintage ^^ puisqu'on y trouve des fichiers DMK pour les disquettes, des TSX et CAS pour les cassettes, des conversions ROM, des fichiers VHD pour les disques virtuels, et même des trucs en LaserDisc. Y'a aussi des versions modifiées de jeux, des traductions anglaises, des cheats, des maps, des sauvegardes... C'est vraiment le genre de collection qui fait baver n'importe quel collectionneur.

Et le truc cool c'est que vous pouvez jouer directement dans votre navigateur sans rien installer . En effet, le site propose une plateforme de jeux MSX et même Amiga jouables online, optimisée pour téléphones et tablettes. Et pour ceux qui préfèrent tout récupérer d'un coup, pas la peine de tout scraper (vous finiriez pas vous faire bannir votre IP), car y'a un torrent complet disponible et même une appli Android. Le fichier allfiles.txt pèse plus de 3 Mo, ce qui vous donne une idée de l'ampleur du bazar.

Bref, si vous avez un petit coup de nostalgie MSX ou si vous voulez découvrir ce que c'était que le gaming avant que tout devienne du photorealistic next-gen, File-Hunter est votre destination du jour. Et comme d'hab, un grand merci à Lorenper pour le partage !

Nemotron 3 - Nvidia débarque dans l'open source et crache du token comme jamais

Par :Korben
16 décembre 2025 à 11:42

Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence totale. Chapeau !

Le modèle phare de cette nouvelle famille s'appelle Nemotron 3 Nano et c'est un modèle de 30 milliards de paramètres, mais attention, il n'en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du Mamba-2 et du Mixture-of-Experts ( MoE ). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.

Sous le capot, Nvidia a également mis le paquet puisque le modèle a été entraîné sur 25 trillions de tokens. J'ai bien dit "trillions"... Pour vous donner une idée, les données d'entraînement incluent du Common Crawl de 2013 à 2025, du code dans 43 langages différents, des articles scientifiques, et une tonne de données synthétiques générées par d'autres modèles. Et tout ça, Nvidia l'a rendu public donc vous pouvez télécharger les datasets sur Hugging Face et vérifier par vous-même ce qui a servi à entraîner le bouzin.

Côté performances, Nemotron 3 Nano se défend plutôt bien . Sur les benchmarks de raisonnement mathématique comme AIME25, il atteint 99,2% quand on lui donne accès à des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les tâches d'agent logiciel genre SWE-Bench, il monte à 38,8%. Pas mal pour un modèle qu'on peut faire tourner sur du matos grand public.

D'ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou même la future RTX PRO 6000 et supporte jusqu'à 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un débit de tokens 4 fois supérieur à la génération précédente, avec 60% de tokens de raisonnement en moins. C'est donc exactement ce que tout le monde demande à saoir du token qui sort vite pour les workflows agentiques.

Maintenant, pour l'utiliser, c'est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou même llama.cpp. Y'a même un mode "thinking" qu'on peut activer ou désactiver selon si on veut du raisonnement poussé ou des réponses rapides.

Pour ma part, je l'ai testé à l'aide d'Ollama comme ceci :

ollama run nemotron-3-nano:30b

J'ai trouvé que vitesse de génération était vraiment impressionnante, ça débite beaucoup plus qu'un Llama 3 qui est de taille équivalente. Après, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plutôt bien loti mais j'ai trouvé ce modèle vraiment très rapide. Je pense que je vais vraiment m'en servir pour des trucs comme de la qualification, du résumé, de l'analyse ce genre de choses.

A voir maintenant si en français il s'en sort bien sur les tournures de phrases. Quoi qu'il en soit pour du développement et des workflows agentiques, il n'y a pas photo, ça va être mon nouveau modèle par défaut quand j'ai besoin de choses en local.

La famille Nemotron 3 ne se limite pas au Nano évidemment. Y'a aussi le Super avec environ 100 milliards de paramètres pour les applications multi-agents, et l'Ultra avec 500 milliards pour les tâches vraiment complexes. Ces deux-là arriveront au premier semestre 2026 donc faudra encore être un peu patient. Nvidia a aussi sorti des bibliothèques comme NeMo Gym pour l'entraînement et NeMo RL pour le fine-tuning.

Jensen Huang, le patron de Nvidia, a aussi dit un truc intéressant lors de l'annonce : "L'innovation ouverte est le fondement du progrès de l'IA." Venant d'une boîte qui a longtemps joué la carte proprio sur ses technos, je trouve que c'est un sacré virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou même Cursor sont déjà en train d'intégrer Nemotron dans leurs produits.

Ce qui est cool aussi, c'est que le modèle supporte 24 langues officielles de l'UE plus une dizaine d'autres comme l'arabe, le chinois ou le japonais et côté code, il gère Python, C++, Java, Rust, Go, et même du CUDA. Bref, c'est plutôt polyvalent.

Voilà, donc si vous cherchez un modèle open source sérieux avec des données d'entraînement transparentes et une vitesse de génération qui arrache, Nemotron 3 Nano mérite clairement le coup d’œil !

Source

Cordon - L'outil qui trouve les aiguilles dans vos meules de logs

Par :Korben
16 décembre 2025 à 10:31

Vous avez déjà passé des heures à éplucher des fichiers de logs de plusieurs millions de lignes pour trouver ce qui cloche ? Genre une pauvre erreur bizarre qui se produit une fois sur 100 000, noyée dans un océan de messages répétitifs et d'infos inutiles ? Moi, oui plein de fois !

Mais ça c'était avant de tomber sur Cordon !

Cordon est un outil en Python qui utilise des modèles de transformers et du scoring k-NN pour détecter les anomalies sémantiques dans vos logs. En gros, au lieu de chercher des mots-clés comme un bourrin avec grep, Cordon comprend le sens des messages et repère ce qui sort de l'ordinaire.

Les patterns répétitifs sont alors considérés comme du bruit de fond normal, même si ce sont des erreurs parce que si vous avez la même erreur FATALE qui se répète 10 000 fois, c'est probablement un problème connu. Et vous, ce que vous voulez trouver, c'est l'événement rare, celui qui se produit une seule fois et qui est sémantiquement différent du reste.

L'installation est simple comme bonjour. Un petit pip install cordon et c'est réglé. Pour l'utilisation de base, vous balancez juste votre fichier de logs en argument :

cordon system.log

Et hop, Cordon va analyser tout ça et vous sortir uniquement les trucs intéressants. Par défaut, il garde les 10% les plus "anormaux" sémantiquement. Vous pouvez ajuster ce pourcentage avec --anomaly-percentile 0.05 pour être plus sélectif (top 5%).

Sous le capot, ça utilise le modèle all-MiniLM-L6-v2 de sentence-transformers pour vectoriser les logs. Le fichier est découpé en fenêtres de N lignes (4 par défaut), chaque fenêtre est transformée en vecteur, puis un score de densité k-NN est calculé. Les fenêtres qui ont des vecteurs très différents du reste sont marquées comme anomalies.

Et si vous avez un GPU, Cordon peut l'utiliser automatiquement avec l'option --device cuda. D'après les benchmarks, ça donne un speedup de 5 à 15x sur le scoring pour les gros datasets. Sur des logs HDFS de 1 à 5 millions de lignes, l'outil arrive à réduire le volume de 98%. Autant dire que ça filtre sévère.

Y'a aussi un mode "range" qui est pratique pour explorer par tranches. Genre si vous voulez exclure le top 5% (trop bizarre, probablement du garbage) mais garder le top 5-15%, vous faites :

cordon --anomaly-range 0.05 0.15 app.log

Ça permet d'affiner l'investigation de manière itérative.

Pour les environnements conteneurisés, Cordon propose également une image Docker avec un backend llama.cpp au lieu de sentence-transformers. Pratique si vous voulez utiliser des modèles GGUF ou si vous êtes dans un contexte où les dépendances PyTorch posent problème.

L'outil peut aussi s'utiliser comme bibliothèque Python si vous voulez l'intégrer dans vos propres scripts :

analyzer = SemanticLogAnalyzer()
output = analyzer.analyze_file(Path("system.log"))

C'est top moumoute pour le prétraitement de logs avant de les balancer à un LLM (pour réduire le contexte), le triage initial de fichiers de logs inconnus, ou la découverte de patterns inattendus. Par contre, si vous cherchez une erreur spécifique que vous connaissez déjà, grep reste votre ami. Et si vous avez besoin d'un historique complet pour la conformité, oubliez Cordon qui est volontairement "lossy".

Notez qu'au premier lancement, Cordon téléchargera le modèle d'embedding (environ 80 Mo) donc ce sera un peu lent, mais ensuite, ça sera quasi instantané car les lancements suivants utiliseront le cache. Et si vos logs sont très verbeux avec de longues lignes, le modèle par défaut (256 tokens max) risque de tronquer les lignes, dans ce cas, passez à un modèle plus costaud comme BAAI/bge-base-en-v1.5 qui supporte 512 tokens avec le paramètre --model-name.

Voilà, j'espère que ça vous sera utile ! C'est open source sous licence Apache 2.0 et ça se trouve sur GitHub .

Fini le perroquet stochastique ? Le modèle o1 d'OpenAI comprend la structure du langage

Par :Korben
16 décembre 2025 à 08:19

Vous vous êtes déjà demandé si les IA comprenaient vraiment ce qu'elles racontaient, ou si elles ne faisaient que recracher des mots à partir de statistiques liées aux mots ?

Oui, comme vous, je pensais jusqu'à présent qu'on était vraiment sur un déroulé textuel purement mathématique sans réelle compréhension. Hé bien des chercheurs de UC Berkeley viennent de mettre un gros pavé dans la mare en démontrant que le modèle o1 d'OpenAI est capable d'analyser le langage comme le ferait un étudiant en linguistique. Pas juste d'utiliser le langage, hein mais vraiment de l'analyser, le décortiquer, le comprendre dans sa structure profonde.

L'étude a été menée par Gašper Beguš, prof associé de linguistique à Berkeley, avec ses collègues Maksymilian Dąbkowski et Ryan Rhodes de Rutgers University et les résultats sont publiés dans IEEE Transactions on Artificial Intelligence, donc ça a l'air d'être du sérieux .

Leur truc, c'était de tester si les modèles de langage (LLM) pouvaient faire de la métalinguistique, qui est la capacité non pas simplement d'utiliser une langue, mais aussi de réfléchir sur la langue elle-même. C'est un truc que les humains font naturellement quand ils analysent une phrase, et qu'on a pour le moment jamais observé chez l'animal.

Pour leurs expériences, l'équipe a donc balancé 120 phrases complexes dans quatre modèles différents : GPT-3.5 Turbo, GPT-4, o1 d'OpenAI, et Llama 3.1 de Meta et ils ont regardé comment chaque modèle s'en sortait pour analyser la structure des phrases et résoudre les ambiguïtés, notamment avec la récursion.

La récursion , c'est un concept que Noam Chomsky a théorisé comme étant la caractéristique définitoire du langage humain. C'est en fait la capacité d'imbriquer des phrases dans d'autres phrases, à l'infini. Genre "Le chat que le chien que Pierre a vu a mordu dort". Ouais, c'est tordu, mais c'est ça qui nous différencie aussi des autres animaux.

Et tous ces modèles ont réussi à identifier les phrases récursives, ce qui, jusque-là, n'a rien d'extraordinaire sauf que pour cartographier correctement la structure complexe des phrases, o1 a cartonné avec un score proche de 0.9 sur 1, contre une moyenne de 0.36 pour les autres. C'est un très gros écart.

Je vais vous donner un exemple concret. Avec la phrase "Unidentified flying objects may have conflicting characteristics" (les objets volants non identifiés peuvent avoir des caractéristiques contradictoires), o1 a correctement détecté la récursion. "Flying" modifie "objects", et "unidentified" modifie "flying objects". Il a même poussé le bouchon encore plus loin en proposant une extension de la phrase pour montrer qu'il avait compris le mécanisme.

Mais les chercheurs ne se sont pas arrêtés là car pour éviter que o1 ne triche en utilisant des données de son entraînement, ils ont inventé 30 mini-langues fictives avec leurs propres règles phonologiques. L'idée, c'était de voir si le modèle pouvait inférer les règles d'une langue qu'il n'a jamais vue. Et comme vous vous en doutez, o1 s'en est sorti comme un chef.

Bref, non seulement ces modèles peuvent utiliser le langage, mais certains peuvent "réfléchir" à la façon dont le langage est organisé.

Ce qui est dingue, c'est que cette étude relance le débat sur la compréhension des IA. Est-ce que ces modèles comprennent vraiment ce qu'ils font, ou est-ce qu'ils simulent très bien ? Beguš pense que cette capacité métalinguistique est "très conséquente" parce qu'elle montre que dans ces modèles, on a désormais quelque chose qu'on pensait réservé aux humains.

Attention cependant, qui dit capacité métalinguistique ne veut pas dire que l'IA est consciente ou qu'elle pense comme nous. Faut voir ça plutôt comme une capacité émergente qu'on n'a pas programmée explicitement, et qui est sacrément intéressante d'un point de vue scientifique.

Voilà, donc si comme moi, vous pensiez que ChatGPT ne faisait que du perroquet statistique, cette étude suggère visiblement que c'est un plus subtil que ça. Il faudra bien sûr plus d'études pour mieux comprendre ce phénomène mais il est maintenant clair que ces modèles récents ont des capacités qu'on croyait exclusives aux humains.

Source

❌