Un journal entièrement rédigé par des IA, ça vous parle ?
Non je parle pas de toutes les merdes que vous pouvez lire sur Google Discover hein... Mais je plaisant pas non plus car c'est ce que
Rafael Ben-Ari
vient de nous pondre et le résultat est trop marrant, vous allez voir.
Son concept c'est que plusieurs agents IA bossent ensemble comme une vraie rédaction. Y'a des "reporters" qui vont chercher l'info, des "éditeurs" qui structurent tout ça, et hop, à la fin vous avez un journal complet qui sort tout seul. Le tout tourne dans des bacs à sable (sandboxes) pour que chaque agent puisse faire son taf sans marcher sur les plates-bandes des autres.
Et le truc dingue, c'est qu'il en a fait DEUX versions. La première,
The Gradient Descent
, se concentre sur l'actualité liée à l'intelligence artificielle. Classique mais efficace... Mais là où ça devient vraiment fun, c'est avec
Real Mode Wire
, un journal dédié au rétro-computing qui reprend l'esthétique visuelle de SimCity 2000 ! Ça parle de modems 56K, de graphismes VGA, de ports Dreamcast... Bref, de la nostalgie pure en pixels.
Le système utilise différents modèles IA selon les tâches pour réduire les coûts. Genre un petit modèle rapide pour le tri d'infos, et un plus costaud pour la rédaction finale. C'est super malin, et tout le code est open source
sur GitHub
donc vous pouvez aller fouiller dedans si ça vous amuse.
D'ailleurs, ça me fait marrer parce que moi aussi je pourrais techniquement passer mes actus sous ce format. Imaginez un peu : "Korben Daily, édition du 26 janvier, entièrement généré par Claude pendant que le vrai Korben fait la sieste". Bon après, vous perdriez mes blagues douteuses et mes égarements sur les années 90, et ça serait quand même dommage non ?
Bref, si vous voulez voir ce que ça donne quand des robots jouent aux journalistes, allez jeter un œil. C'est gratuit, c'est open source, et au pire ça vous donnera des idées pour automatiser votre propre veille techno...
Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.
Si vous faites partie de ces gens qui passent plus de temps à configurer leur barre de tâches qu'à réellement bosser sur leur PC, j'ai déniché un truc qui va vous plaire (ou vous faire perdre encore plus d'heures de sommeil, au choix).
Car on a tous voulu avoir un jour une barre de statut un peu sexy sous Linux et finalement se retrouver à se farcir des fichiers de config imbuvables ou des centaines de lignes de CSS hacky pour simplement changer une malheureuse icône. C’est souvent frustrant, sans parler du temps perdu, et on finit par garder le truc par défaut par pure flemme. Mais avec Quickshell, un nouveau monde devient possible !
Voici quelques exemples de ce qu'on peut faire avec Quickshell, du Material You au style rétro :
L'idée en fait, c'est d'utiliser le QML (le langage de Qt pour les interfaces) pour décrire son bureau de façon déclarative car c'est lisible, et surtout, c'est hyper puissant. Le toolkit vous permet de créer non seulement des barres de statut, mais aussi des widgets et des tableaux de bord, et si vous vous sentez l'âme d'un développeur, vous pouvez même construire vos propres écrans de verrouillage en vous basant sur les capacités du moteur.
Le gros point fort de cet outil, c'est le rechargement à la volée. Bon, c'est pas encore du hot reloading automatique à chaque micro-seconde, mais vous pouvez déclencher la mise à jour de votre config instantanément (souvent via un simple raccourci ou une commande), et hop, la modification apparaît sur votre écran sans avoir à redémarrer toute votre session. Pour itérer rapidement sur un design, c'est juste du bonheur.
Côté technique, le projet envoie du bois puisque c'est écrit principalement en C++, que c'est sous licence LGPL-3.0/GPL-3.0, et que ça supporte aussi bien Wayland que X11 (même si Wayland est clairement le chouchou). Ça s'intègre d'ailleurs plutôt bien avec des compositeurs comme Hyprland ou Sway, selon votre configuration et les protocoles disponibles. Y'a même un module pour PipeWire si vous voulez gérer votre audio aux petits oignons et un support du system tray (via StatusNotifierItem).
La communauté commence d'ailleurs à sortir des trucs assez fous. J'ai vu passer des environnements complets construits avec le toolkit, comme DankMaterialShell qui adaptent les couleurs à votre fond d'écran, ou des délires plus rétro qui nous ramènent direct dans les années 90.
Bref, si vous avez envie de bidouiller votre desktop sans vous arracher les cheveux sur du CSS, foncez tester ça. C'est gratuit, c'est open source, et ça tourne nickel.
Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?
Ça tombe bien puisque Google a sorti
Edge Gallery
, une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.
Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.
Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !
Ce qu'on peut faire avec
Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :
AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.
Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.
Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.
L'interface d'AI Edge Gallery sur Android
Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.
Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.
Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.
Les modèles disponibles
L'app propose plusieurs modèles selon vos besoins. On retrouve la famille
Gemma de Google
(Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.
Et les gardes fous sont facilement contournables...
Il y a aussi des modèles spécialisés comme
TranslateGemma
pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à
LiteRT
, le runtime léger de Google pour l'inférence on-device.
D'ailleurs, la communauté Hugging Face propose déjà pas mal
de modèles convertis au format LiteRT
donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.
Installation sur Android
Pour Android, c'est simple, direction le
Play Store
et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les
releases GitHub
si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).
Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.
Et sur iOS / macOS ?
Pour iOS, l'app est disponible en bêta via
TestFlight
. Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !
Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.
Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de
LM Studio
qui sont nativement compatibles.
Pourquoi c'est intéressant ce truc ?
L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.
L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".
Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)
Voilà, pour ceux qui veulent creuser,
le wiki GitHub du projet
contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.
Qui n'a jamais eu envie de savoir si "KikouLolDu93" avait aussi un compte sur un site de rencontre ou un forum obscur de haxx0rs ? C'est humain, c'est de la curiosité... ou de l'OSINT (Open Source Intelligence) si vous voulez faire genre vous êtes un pro. Et pour ça, j'ai l'outil qu'il vous faut : Social Analyzer.
Ce script est un détective privé numérique qui va frapper à la porte de plusieurs centaines de sites (Facebook, X (ex-Twitter), Instagram, Tinder, et des trucs bien plus niches) pour vérifier la présence d'un pseudo.
Développé par qeeqbox, Social Analyzer ne se contente pas de tester une URL. Il analyse les pages, vérifie les métadonnées, et vous sort un score de confiance de 0 à 100. Notez qu'un score de 100 n'est pas une preuve d'identité absolue (on n'est pas à la police scientifique), mais une forte probabilité basée sur les signaux trouvés. À l'inverse, un score de 0 peut signifier que c'est un homonyme, ou simplement que le site a bloqué la requête. Ça évite en tout cas de stalker la mauvaise personne trop vite.
L'outil est codé en JavaScript et Python, et vous pouvez l'utiliser en ligne de commande ou via une interface web plutôt propre si le terminal vous donne de l'urticaire.
Comment on installe la bestiole ?
Vous avez plusieurs options, mais la plus simple si vous avez Python 3 d'installé, c'est via pip (vérifiez bien que c'est le paquet officiel) :
pip3 install social-analyzer
Et hop, c'est réglé. Ensuite pour lancer une recherche rapide, c'est aussi simple que :
social-analyzer --username "le_pseudo_a_chercher"
Si vous êtes plus team NodeJS, vous pouvez aussi cloner le dépôt GitHub et lancer ça à la main :
git clone https://github.com/qeeqbox/social-analyzer.git
cd social-analyzer
npm install
npm start
Ça lancera l'interface web sur votre machine (généralement sur le port 9005), et vous pourrez faire vos recherches tranquillement en cliquant sur des boutons.
Et ça marche vraiment ?
Franchement, oui. C'est même assez bluffant de voir tout ce qui ressort. Il peut même tenter d'extraire des infos supplémentaires comme la bio ou l'avatar si les sites ne sont pas trop protégés contre le scraping.
Par contre, petit disclaimer habituel : ce genre d'outil, c'est pour de l'investigation légitime. Genre vérifier vos propres traces numériques pour faire du nettoyage, ou pour des enquêtes de sécu. Ne commencez pas à l'utiliser pour harceler les gens, le web n'a pas besoin de ça.
D'ailleurs, si le sujet de l'OSINT vous branche, jetez un œil à mon article sur
Blackbird
qui fait un boulot similaire, ou apprenez à
analyser un profil GitHub
comme un chef.
Bref, Social Analyzer c'est puissant, c'est open source, et ça fait le café. À utiliser avec intelligence évidemment !
Bon alors pour les deux du fond qui dorment près du radiateur, OpenTTD est un clone open source du jeu culte de Microprose, « Transport Tycoon Deluxe » (1995). Le principe est simple : vous êtes à la tête d'une société de transport et votre but est de faire un max de bénéfices en trimballant des passagers et des marchandises par train, camion, bus, avion ou bateau.
C'est un peu le SimCity du transport quoi.
Bref, ce jeu est un monument. Et la bonne nouvelle, c'est qu'il est toujours vivant ! Mieux que ça, il vient de sortir en version 12.0 (et depuis la 13, 14...) et c'est une mise à jour qui change tout.
Le gros morceau de cette version, c'est le multijoueur. Fini la galère de l'ouverture de ports sur votre box internet ! Les développeurs ont enfin intégré un système qui gère ça tout seul. Vous lancez le serveur, vous filez le code d'invitation à vos potes, et hop, c'est parti. On peut même créer des serveurs "privés" uniquement accessibles via ces codes.
Autre truc qui va faire plaisir aux moddeurs fous : la limite des NewGRF (les fichiers qui ajoutent des graphismes, des véhicules, etc.) passe de 64 à 255. Autant dire que vous allez pouvoir modder votre jeu jusqu'à ce qu'il ne ressemble plus à rien.
Ah et un détail qui n'en est pas un, on peut enfin construire des rivières en diagonale en maintenant la touche CTRL. Ça parait con dit comme ça, mais pour les esthètes du terraforming, c'est une révolution.
Si vous aimez ce genre de simulation, je vous conseille aussi de jeter un œil à
Simutrans
qui est dans la même veine, ou encore à la communauté incroyable qui maintient
SimCity 4 en vie depuis 22 ans
. C'est fou ce que l'open source et les passionnés peuvent faire.
D'ailleurs si vous cherchez d'autres pépites du genre, j'avais listé
plus de 1500 clones open source
de jeux cultes. Y'a de quoi s'occuper pour les 10 prochaines années.
Bref, OpenTTD c'est gratuit, c'est dispo sur Windows, macOS, Linux et même Android, et c'est toujours aussi addictif.
Si vous avez déjà galéré à rendre accessible votre serveur web local à des testeurs externes... Ne désespérez plus car aujourd'hui, je vais vous présenter Pipenet, un petit utilitaire qui va vous changer la vie !
On a tous connu ce moment où on veut montrer une démo à un client ou tester un webhook et en général c'est à ce moment là que le drame se produit ! Configuration de la box, pare-feu qui fait la tête, redirection de ports qui ne veut rien savoir... Grosso merdo c'est la fin de votre productivité pour la matinée !
Mais grâce à l'équipe de glama.ai qui a codé cette alternative au bon vieux localtunnel, vous allez pouvoir exposer vos services locaux sur Internet en un clin d'œil. Et ce qui est cool c'est que contrairement à d'autres solutions qui deviennent vite limitées ou payantes, Pipenet vous laisse un contrôle total ! C'est ça
la pwouiiiissance du logiciel libre
!
Pour ceux qui se demandent ce qu'est exactement un tunnel TCP, c'est simplement un pont entre votre machine et le reste du monde !
Mais attention ! La sécurité (chiffrement et auth) dépend de la configuration ! Ça tombe bien puisque Pipenet supporte bien sûr le HTTPS et possède des options pour sécuriser votre propre serveur !
Il fait ça particulièrement bien en utilisant une architecture client et serveur. Vous pouvez donc utiliser leur serveur public par défaut (pipenet.dev) ou carrément héberger votre propre infrastructure de tunneling ! C’est top pour la confidentialité si vous pouvez l'auto-héberger !
Pour l'install, si vous avez Node.js, une simple commande suffit pour commencer à exposer votre port 3000 !
npx pipenet client --port 3000
Et voilà, votre application devient alors accessible via https://abc123.pipenet.dev.
C'est aussi simple que ça ! Et si vous voulez un sous-domaine spécifique (parce que c'est plus classe), il suffit de leur demander (sous réserve de disponibilité évidemment) !
Mais là où Pipenet se démarque vraiment par rapport à la concurrence, c'est son approche pensée pour les environnements cloud ! Il supporte par exemple le multiplexage sur un seul port (via l'option --tunnel-port) ce qui est top pour les déploiements sur des plateformes comme Fly.io ou dans des conteneurs Docker où la gestion des ports peut vite devenir casse bonbon !
Vous pouvez même l'intégrer directement dans vos propres outils grâce à son API et c'est d'ailleurs ce qu'a fait glama.ai avec son outil mcp-proxy pour connecter des serveurs MCP locaux avec des clients IA distants ! Et si vous voulez savoir si Pipenet supporte le streaming ou les WebSockets... Hé bien la réponse est oui !
Ce petit pépère gère le trafic basé sur HTTP, y compris le
SSE
, donc pour tout ce qui est streaming et connexions full duplex WebSocket, c'est OK.
Pipenet est l'évolution moderne des outils comme
Pagekite
ou localtunnel et c'est un choix excellent pour la plupart des usages que je viens d'évoquer !
Est-ce que vous avez déjà eu cette envie soudaine de composer de la techno tout en ayant l'air d'un hacker qui pirate le Pentagone dans un film des années 90 ?
Si oui, j'ai le truc parfait pour vous :
Strudel
.
Pour ceux qui débarquent, le live coding musical dont je vous ai déjà parlé y'a pas longtemps avec
Loopmaster
, c'est l'art de créer du son en écrivant du code en temps réel.
En gros, on tape des lignes, on valide, et hop le rythme change en direct. Strudel rend ce concept ultra accessible puisqu'il tourne entièrement dans votre navigateur préféré, sans chichi et surtout sans avoir besoin d'installer des usines à gaz comme SuperCollider ou de configurer des environnements de dev à n'en plus finir.
L'interface de Strudel - sobre mais efficace (
Source
)
Le projet est d'ailleurs un port officiel du langage de patterns de TidalCycles vers JavaScript.
TidalCycles
, c'est un peu la référence absolue dans le monde du live coding, mais ça demandait pas mal de bidouille (Haskell, etc.) pour fonctionner correctement. Avec Strudel, vous ouvrez une page web, vous tapez du code et c'est parti mon kiki !
Le principe repose sur des motifs rythmiques qui occupent toujours le même espace temporel (appelé "cycle"). Contrairement à un séquenceur classique où on empile des notes, ici on définit des structures qui se compressent ou s'étirent automatiquement. C'est un peu déroutant au début mais une fois qu'on a pigé le truc, on peut sortir des beats qui tabassent en seulement trois lignes de code. Perso, je trouve ça assez hypnotique (oui j'aime le comique de répétition).
Côté technique, l'outil s'appuie sur l'API Web Audio et intègre un synthé/sampler baptisé Superdough. C'est assez costaud et ça permet déjà de s'amuser avec plein d'effets sans quitter le browser. Et pour les plus barbus d'entre vous qui voudraient piloter leur propre setup
SuperCollider
, c'est possible aussi via
OSC
, mais attention, il faudra quand même lancer un petit serveur relais en Node.js pour faire le pont entre le navigateur et votre machine.
Y'a même un
workshop interactif
vraiment bien foutu pour apprendre les bases. En quelques minutes, vous allez comprendre comment balancer des snares et des kicks avec une précision chirurgicale. Et le petit plus qui fait plaisir, vous pouvez partager vos chefs-d'œuvre en copiant simplement l'URL, puisque tout votre code est encodé dedans. C'est direct in the pocket !
La Reine de Strudel c'est évidemment
Switch Angel
:
Bref, si vous cherchez un nouveau hobby créatif un peu geek pour vos soirées d'hiver, foncez tester ça. Ça rappelle un peu d'autres pépites comme
Drumbit
ou même
Draw Audio
pour le côté fun et immédiat. De quoi verser une petite larme de joie en retrouvant des sensations de bidouille pure.
Merci Lorenper, Quentin & Jean-Raymond pour le partage !
Vous avez une vieille manette USB qui traîne dans un tiroir parce qu'elle est filaire ? Une de ces reliques naphtalinée de l'époque dans laquelle on se prenait encore les pieds quand le câbles trainait au milieu du salon...? Hé bien bonne nouvelle pour vous, et pour vos tiroirs qui vont enfin se vider un peu !
Avec une carte Seeed Studio XIAO ESP32S3 (la star du projet), un peu de patience et une dizaine d'euros, vous pouvez transformer pas mal de manettes USB HID filaires en une version Bluetooth Low Energy (BLE) tout à fait fréquentable. Le projet s'appelle bluetooth-gamepad et c'est signé Stavros Korokithakis (que je salue au passage).
Le XIAO ESP32S3 utilisé dans ce projet est un module tellement minuscule qu'on dirait un timbre-poste (ce qui est vraiment trop trop pratique pour le planquer n'importe où). Ce petit module magique fait office de pont USB Host vers Bluetooth.
En gros, vous branchez votre manette USB d'un côté via un adaptateur OTG, et de l'autre, votre smartphone, tablette ou PC la voit comme une manette sans fil standard.
Attention toutefois, il faudra alimenter le module séparément (via une batterie ou une source 5V externe) pour que l'USB Host fonctionne et fournisse du jus à la manette.
Et de son côté, le firmware que vous pouvez compiler avec PlatformIO, fera tout le boulot de traduction. Il lira les rapports HID bruts de votre manette USB et les convertira en périph BLE. C'est d'ailleurs généralement reconnu sans driver additionnel, même si la compatibilité totale dépendra forcément de votre OS et du jeu (le monde du HID BLE et de l'XInput étant parfois un peu capricieux).
Le truc cool, c'est que Stavros a aussi prévu une normalisation du mapping parce que bon, entre les manettes génériques chinoises et les vieux modèles de marque, le bouton "1" n'est jamais au même endroit. Le firmware propose donc une base identique pour remettre tout ça dans l'ordre. Et si votre manette a un mapping vraiment chelou, vous pouvez même modifier le code directement dans le fichier hid_parser.cpp pour affiner le truc avant de le compiler.
Après rassurez-vous, côté installation c'est du classique si vous avez déjà touché à un microcontrôleur. On branche le XIAO au PC, et on lance la petite commande bash suivante :
piorun-eseeed_xiao_esp32s3-tupload
Et hop c'est flashé !
Une petite mise en garde technique quand même les amis. Sachez que si votre manette consomme énormément de courant (genre un modèle avec plein de machins qui vibrent et clignotent), le XIAO risque de faire la gueule et de rebooter dans la panique. Dans ce cas, il faudra passer par un petit hub USB alimenté pour que tout le monde soit content.
Vous avez 15 ans d'emails répartis sur 4 comptes différents et vous aimeriez bien pouvoir chercher dedans sans devenir complétement fou ? Bichon est fait pour vous. C'est un archiveur d'emails open source écrit en Rust qui synchronise vos boîtes mail et vous permet de tout fouiller via une interface web ultra léchée.
Le truc c'est que Bichon n'est pas un client mail. Vous ne pouvez pas envoyer ou recevoir de messages avec. C'est vraiment un outil d'archivage pur qui se connecte à vos serveurs IMAP, aspire tous vos emails, les compresse, les déduplique et les indexe pour que vous puissiez faire des recherches full-text dessus pour par exemple retrouver ce mail de 2012 où votre ex vous expliquait sa recette secrète du tiramisu.
L'interface web est plutôt propre, codée en React avec ShadCN UI. Vous pouvez filtrer par compte, par dossier, par expéditeur, par nom de pièce jointe, par taille, par date... Y'a même un dashboard avec des stats sur vos emails si vous aimez les graphiques. Et bonne nouvelle, le WebUI est disponible en 18 langues, donc le français est de la partie !
Côté authentification, ça gère le mot de passe IMAP classique mais aussi OAuth2 avec refresh automatique du token. C'est hyper pratique pour Gmail ou Outlook qui aiment bien compliquer les choses. Y'a aussi un support proxy si vous êtes derrière un firewall capricieux et une découverte automatique des serveurs IMAP. Hop, on branche et ça synchronise !
La stack technique envoie du bois également puisque le backend est en Rust basé sur le framework Poem, et le moteur de recherche/stockage utilise Tantivy. C'est un moteur de recherche full-text codé lui aussi en Rust, l'équivalent de Lucene mais sans la lourdeur de la JVM. Pour les métadonnées et la config, le projet utilise Native_DB et le tout est packagé en binaires pour Linux, macOS et Windows, ou en image Docker si vous préférez le self-hosted sans prise de tête.
Un truc important depuis la version 0.2.0 c'est que le modèle d'authentification a changé. L'ancien compte "root/root" a sauté au profit d'un compte admin par défaut (identifiants : "admin" / "admin@bichon"). Pensez donc à changer le mot de passe immédiatement, sinon ce sera la fête du slip dans vos archives. Et notez bien que le mot de passe de chiffrement que vous définissez au premier lancement ne peut pas être changé ensuite, donc choisissez-le bien, genre "KorbenCestLePlusBeau123".
Et si vous avez déjà des tonnes de vieux mails qui traînent en local, sachez que depuis la v0.3.0, y'a également un outil en ligne de commande qui s'appelle bichonctl. Ça permet d'importer vos archives au format EML ou MBOX directement dans le bouzin. C'est nickel pour centraliser tout votre passé exporté par ailleurs.
Bref, si vous cherchez un moyen propre d'archiver vos mails sans que ça bouffe toute votre RAM comme un client Java des années 2000, Bichon fait grave le taff. C'est léger, c'est rapide, et c'est en Rust. Ensuite, vous pourrez dormir tranquille !
Merci à Lorenper pour l'info et si vous cherchez d'autres outils cools pour vos mails, jetez aussi un œil à
Mailspring
ou si vous kiffez le stockage en Rust,
Garage
est une pépite.
Aujourd'hui, on va parler d'un truc qui gratte un peu : le tracking web.
Vous savez, cette sensation d'être suivi par une armée de régies publicitaires dès qu'on clique sur un article de presse ou qu'on cherche une nouvelle paire de pompes. Bah la CNIL, via son laboratoire d innovation (le LINC), développe depuis 2013 un outil qui permet de mettre des images sur ce sentiment de persécution numérique : CookieViz.
CookieViz, c'est un logiciel de dataviz en temps réel qui analyse les interactions entre un navigateur et les serveurs distants. Vous naviguez via l'outil (qui embarque son propre navigateur pour la version desktop) et celui-ci débusque les cookies et les requêtes observables envoyées vers des domaines tiers.
Et souvent, le résultat ressemble à un gros plat de cyber spaghettis où chaque fil mène à un tracker différent.
La version 2.3, publiée en juin 2022 (ça date un peu, c'est vrai) reste la référence stable du projet. Le système d'analyse a été revu pour être plus stable et le navigateur intégré est plus sécurisé et la visualisation met en avant le rôle central des places de marché publicitaires dans les mécanismes d'enchères en temps réel (RTB). Vous verrez ainsi comment un seul clic peut déclencher une cascade de connexions vers des acteurs dont vous n'avez jamais entendu parler.
Le projet est open source et disponible sur GitHub (
Source
)
Alors oui, pour ceux qui se demandent comment voir les cookies de suivi sans installer un logiciel complet, les navigateurs comme Chrome ou Firefox proposent des outils rudimentaires dans leurs menus de réglages. Mais franchement, à côté de CookieViz, c'est un peu comme essayer de comprendre le trafic routier en regardant par le trou d'une serrure.
Pour les amateurs de bidouille, sachez aussi que c'est du logiciel libre sous licence GPLv3 donc vous pouvez donc aller gratter le code, l'améliorer ou simplement vérifier que la CNIL ne vous espionne pas en douce (ahaha, je plaisante hein...^^).
L'outil est dispo en version desktop pour Windows, Linux et macOS et il existe aussi une extension officiellement publiée pour
Firefox
, tandis que les utilisateurs de Chrome ou Opera devront passer par une installation manuelle du code depuis la branche Chromium du projet.
Moi j'ai préféré l'installé à la main comme ceci en clonant le projet :
git clone https://github.com/LINCnil/CookieViz
cd CookieViz
Puis modifiez le package.json pour utiliser une version moderne de NW.js
(la version 0.64.1 originale n'est plus disponible). Dans devDependencies, remplacez :
Et si vous voulez vraiment reprendre le contrôle, n'oubliez pas qu'il existe d'autres solutions complémentaires. Vous pouvez par exemple essayer d'
embrouiller les sites avec User-Agent Switcher
(même si c'est loin d'être une protection ultime face au fingerprinting moderne) ou carément
automatiser le nettoyage avec Cookie AutoDelete
. Mais perso, je trouve que pour l'aspect pédagogique et "prise de conscience", CookieViz reste un outil de premier plan.
Voilà, si vous voulez voir la gueule de votre tracking en direct et réaliser que la vie privée sur le web moderne ça n'existe pas (sauf ici), allez donc faire un tour sur le site du
LINC
.
De quoi verser une petite larme sur le web d'antan...
Devinette du soir : Qu’est-ce qui est pire qu'un secret que vous avez oublié de cacher ?
Réponse : Des dizaines, des millions de secrets qui traînent sur GitHub parce que quelqu'un a eu la flemme de configurer un vrai gestionnaire de variables d'environnement !
Hé oui, les amis ! On a tous fait cette boulette au moins une fois (ou alors vous mentez, ou vous êtes un robot). On crée un petit fichier .env, on oublie de le rajouter au .gitignore, et paf, vos clés AWS se retrouvent à poil. Selon GitHub, c'est plus de 39 millions de secrets qui ont été détectés en fuite sur leurs dépôts en 2024. C'est du délire !
Envmap - Le gestionnaire de variables d'environnement qui tue les fichiers .env (
Source
)
Du coup, au lieu de continuer à se farcir du bricolage avec des fichiers qui traînent en clair sur le disque, je vous propose de jeter un œil à Envmap.
C'est un outil écrit en Go dont l'objectif est de réduire au maximum l'écriture de vos secrets sur le disque dur. En mode normal, il va les pomper directement chez les grands manitous du stockage sécurisé comme AWS Secrets Manager, HashiCorp Vault, 1Password ou encore Doppler (même si pour l'instant, certains de ces providers sont encore en cours d'intégration).
Comme ça, au lieu de faire un vieux source .env qui laisse traîner un fichier sensible, vous lancez votre application avec envmap run -- node app.js. L'outil récupère les variables en RAM et les injecte dans le process. C'est propre, c'est net, et ça évite surtout de pousser par erreur votre config sur un repo public.
Pour ceux qui se demandent s'il faut quand même envoyer ses fichiers .env sur GitHub (spoiler : non, jamais !), Envmap propose une commande import pour ingérer vos vieux secrets. Et pour ceux qui ont besoin d'un stockage local, sachez qu'Envmap peut aussi chiffrer vos variables en AES-256-GCM, ce qui est quand même plus sérieux qu'un fichier texte lisible par n'importe qui. Notez aussi qu'il existe une commande sync si vous avez vraiment besoin de générer un fichier .env temporaire.
Perso, ce que je trouve vraiment cool, c'est l'intégration avec direnv. On rajoute une ligne dans son .envrc, et hop, les secrets sont chargés automatiquement quand on entre dans le dossier du projet. C'est magique et ça évite les crises cardiaques au moment du push.
D'ailleurs, si vous voulez aller plus loin dans la sécurisation de vos outils, je vous recommande de lire mon article sur
SOPS
ou encore ma réflexion sur
l'usage de GitLab
pour vos projets sensibles.
Bref, c'est open source (sous licence Apache 2.0), et avec ça, vous dormirez sur vos deux oreilles !
Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).
Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle
LangExtract
. C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.
Exemple d'extraction sur le texte de Roméo et Juliette (
Source
)
Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme
Sparrow
, c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.
Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.
La visualisation interactive permet de valider les données en un clin d'œil (
Source
)
Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !
Côté installation, c'est hyper fastoche :
pip install langextract
Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec
Ollama
. Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.
Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :
import langextract as lx
# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."
# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
lx.data.ExampleData(
text="ROMEO. But soft! What light...",
extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
)
]
# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
text_or_documents="votre_texte_brut_ici",
prompt_description=prompt,
examples=examples,
model_id="gemini-2.5-flash"
)
# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
f.write(html_content)
Honnêtement, je ne sais pas si ça va remplacer
les solutions industrielles de RPA
, mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du
Grist
ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !
Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?
Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !
Je vous jure que c'est vrai. Le projet s'appelle "Rats Play DOOM" et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.
Gros plan sur le casque VR panoramique pour rongeurs (
Source
)
Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.
Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !
Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.
Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple
contrôle neuronal
de base, là car c'est une vraie interaction avec un moteur de jeu.
Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...
Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les
projets Raspberry Pi
les plus improbables ^^.
D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur
DOOM Retro
, mais là avec les rats, on est clairement passé au niveau supérieur.
Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !
Vous savez comment ça se passe, on traîne sur le web, on tombe sur un article passionnant de 4 000 mots sur Korben.info, mais on n'a absolument pas le temps de le lire là, tout de suite. Alors on ouvre un onglet. Puis deux. Puis cinquante. Et à la fin de la semaine, votre navigateur ressemble à une forêt vierge de Favicons et votre RAM pleure du sang.
Pourtant, il existe des solutions comme
Wallabag
(ou feu-Pocket), mais si vous êtes un peu maniaque du contrôle comme moi, vous cherchez peut-être un truc plus moderne, plus léger et surtout que vous pouvez également héberger vous-même sur votre propre serveur. C'est là que Readeck entre en scène.
C'est un outil de "read-it-later", c'est-à-dire une application qui vous permet de sauvegarder du contenu web pour le consulter plus tard, une fois que vous avez la tête reposée. L'idée de Readeck, c'est donc de garder l'histoire mais de virer tout le reste : les pubs, les popups de cookies qui vous sautent au visage et les mises en page qui font mal aux yeux. On se retrouve avec un texte pur, propre, et une interface qui ne vous agresse pas.
Ce que j'ai trouvé super cool, c'est que ça ne se contente pas des articles de blog. Vous pouvez y balancer des photos, des vidéos et même des liens YouTube. Et là, petit bonus qui tue, Readeck est capable de récupérer automatiquement la transcription des vidéos quand elle est dispo. Du coup, vous pouvez lire la vidéo au lieu de l'écouter, surligner les passages importants et faire des recherches dedans comme si c'était un bête article de presse.
Niveau fonctionnalités, c'est assez complet. On peut organiser ses lectures avec des labels, marquer des favoris, et surtout utiliser une extension de navigateur pour sauvegarder un lien en un clic. Et si vous êtes plutôt lecture sur liseuse avant de dormir, sachez que vous pouvez exporter vos articles ou des collections entières au format EPUB. Hop, vous envoyez ça sur votre Kindle ou votre Kobo et c'est parti pour une lecture sans distraction.
Pour l'installation, c'est vraiment le bonheur des geeks. Le truc est distribué sous la forme d'un seul fichier binaire (un exécutable, quoi), sans aucune dépendance. Pas besoin de se taper l'installation d'une base de données complexe ou d'un serveur web usine à gaz pour commencer à jouer. Ça tourne sous Linux, macOS et Windows, et si vous préférez Docker, y'a une image officielle qui fait le job parfaitement.
Le développeur explique que ça tourne sans souci sur un vieux Raspberry Pi 2 qui traîne au fond d'un tiroir. Il faut compter environ 512 Mo de RAM pour être large, car l'outil peut consommer un peu de ressources quand il traite des grosses images dans les articles.
Et si vous n'avez pas envie de gérer votre propre serveur, l'équipe prévoit de lancer un service hébergé courant 2026. Ça permettra de soutenir le projet financièrement tout en profitant de l'outil sans mettre les mains dans le cambouis. En attendant, c'est du logiciel libre, c'est propre, et ça fait un excellent complément à un
gestionnaire de bookmarks comme Linkding
.
Bref, si vous cherchez une alternative solide et auto-hébergée pour nettoyer vos onglets et enfin lire tout ce que vous avez mis de côté, jetez un œil à
Readeck
, ça vaut vraiment le détour !
Ce tutoriel explique comment installer FossFLOW en local (self-hosted) pour créer des diagrammes isométriques 3D directement dans votre navigateur Web.
Si vous faites partie des curieux qui testent WinBoat (le projet open source de TibixDev pour lancer des applis Windows sous Linux via Docker), sachez qu'une vulnérabilité critique a été identifiée dans l'outil, et le scénario d'attaque est plutôt créatif.
Pour ceux qui ne connaissent pas, WinBoat est une appli Electron qui orchestre tout un petit monde (Docker / Podman, FreeRDP) pour rendre l'expérience Windows "seamless" sur votre bureau Linux. C'est ambitieux, c'est en beta, et forcément, il y a parfois des trous dans la raquette.
D'après le
write-up technique publié sur hack.do
, le problème venait de l'API locale exposée par WinBoat sur le port 7148. Cette API HTTP n'était pas authentifiée, ce qui est souvent le début des ennuis.
Le scénario décrit par le chercheur est le suivant : un attaquant héberge une page web malveillante et si vous visitez cette page avec votre navigateur (et sous réserve que les sécurités CORS/PNA ne bloquent pas la requête, ce qui dépend de votre config et du navigateur), elle peut envoyer des ordres à cette API locale localhost:7148.
L'API vulnérable (notamment le endpoint /update) permettrait alors de remplacer des composants internes du système invité. En gros, l'attaquant pourrait substituer le binaire guest_server légitime par une version malveillante.
Une fois que l'attaquant a compromis le conteneur Windows, il ne s'arrête pas là. Le chercheur explique que WinBoat permet au conteneur de communiquer des "entrées d'application" à l'hôte Linux. Si le conteneur compromis envoie un chemin forgé spécifiquement et que l'hôte tente de le lancer... c'est l'exécution de code arbitraire (RCE) sur votre machine Linux.
C'est un rappel assez violent que l'isolation, c'est compliqué à faire correctement, surtout quand on veut une intégration transparente entre deux systèmes.
La bonne nouvelle, c'est que le problème a été traité. La faille concernait les versions jusqu'à la v0.8.7. La version v0.9.0 introduit une authentification obligatoire pour cette API locale, avec un mot de passe aléatoire généré au lancement, ce qui coupe l'herbe sous le pied de ce type d'attaque web.
Si vous utilisez WinBoat, la mise à jour est donc plus que recommandée et si le sujet de l'isolation vous intéresse, jetez un œil à mon tuto sur
l'installation de WSL 2
ou encore à cette
autre faille RCE critique
qui a secoué le monde Linux récemment.
Bref, prudence avec les outils en beta qui exposent des ports locaux !
Coucou les petits amis, ça roule ? Aujourd'hui on va parler d'un truc qui va plaire aux barbus, aux fans de raccourcis qui font mal aux doigts et à tous ceux qui considèrent que la souris est une invention du démon.
Ça s'appelle Glide et l'idée c'est de proposer un fork de Firefox entièrement hackable via du TypeScript et pas juste une extension qui se fait brider par le modèle de sécurité de Mozilla. C'est donc un vrai navigateur où vous avez la main sur tout ce qui touche au logiciel.
Le développeur, Robert Craigie, en avait marre de voir ses raccourcis Vim sauter sur certains domaines protégés. Du coup, il a pris les sources de Firefox et il a injecté une couche de personnalisation totale. On peut définir ses propres modes (Normal, Insert, Hint, Ignore), créer des macros qui exécutent des processus externes, ou même configurer un raccourci pour cloner un dépôt GitHub et l'ouvrir direct dans Neovim.
Franchement, le truc est hyper fluide. Le mode "Hint" (touche f) permet de cliquer sur la plupart des liens sans jamais lâcher le clavier, et le raccourci gI cible automatiquement le plus gros champ de texte de la page. C'est magique, on gagne un temps de dingue.
Pour ceux qui se demandent la différence avec
Tridactyl
, c'est simple : ici, il n'y a plus de bac à sable pour la configuration. On est chez soi, avec un accès direct aux APIs du navigateur et la possibilité de piloter des scripts système sans se prendre la tête. Attention toutefois, Glide est encore en version alpha (basé sur Firefox 144.0b8), ce qui signifie que le fork a un peu de retard sur les derniers patchs de sécurité de Mozilla. À utiliser en connaissance de cause, donc.
Pour l'instant, c'est dispo uniquement pour macOS et Linux. Mais si vous kiffez le minimalisme et que vous voulez un navigateur qui ne vous traite pas comme un simple utilisateur à qui on cache les réglages, Glide mérite clairement le coup d'œil.
Ça redonne un peu de fun à la navigation web, loin des usines à gaz bourrées d'IA qui essaient de deviner ce que vous voulez faire !