Vous vous êtes déjà demandé ce que cache vraiment un site web ? Genre, au-delà de sa jolie façade ? Hé bien je vous présente
Web-Check
, un scanner OSINT qui va déshabiller n'importe quel domaine pour vous montrer tout ce qui se passe sous le capot.
Je vous ai déjà parlé
d'OSINT.rocks
qui centralise pas mal d'outils d'investigation. Et bien là, c'est un peu le même délire mais orienté analyse de sites web. Vous balancez une URL et hop, le projet vous ressort un rapport complet avec tout ce qu'il y a à savoir : certificat SSL, enregistrements DNS, en-têtes HTTP, géolocalisation du serveur, ports ouverts, stack technique utilisée... Bref, une vraie radio du site.
Ce qui est cool avec cette boîte à outils, c'est qu'elle ne se contente pas de gratter la surface puisque ça effectue plus de 30 types d'analyses différentes ! Vous voulez savoir si un site utilise un WAF (Web Application Firewall) ? Vérifier la configuration email (SPF, DKIM, DMARC) ? Voir l'historique du domaine via la Wayback Machine ? Tout est possible ! Et même les Core Web Vitals pour les obsédés de la performance !
Pour l'installer, c'est ultra simple. Si vous êtes team Docker (et vous devriez l'être), une seule commande suffit :
docker run -p 3000:3000 lissy93/web-check
Et vous avez votre instance perso qui tourne sur localhost:3000. Pas besoin de galérer avec des dépendances ou de configurer quoi que ce soit. Du coup, vous pouvez scanner vos propres sites sans que vos requêtes passent par un service tiers.
Pratique pour les paranos de la vie privée !
Le projet tourne sous TypeScript avec Astro en front, et tout le code est disponible sur GitHub sous licence MIT. Ça veut dire que vous pouvez le modifier, l'héberger où vous voulez, et même contribuer si le coeur vous en dit.
La partie détection de stack technique me plait beaucoup. C'est un peu comme ce que fait
SSH-Audit pour les serveurs
, sauf que l'outil identifie automatiquement les frameworks, CMS, bibliothèques JavaScript et autres composants utilisés par un site. Super utile donc pour les pentesters qui veulent mapper rapidement une cible, ou simplement pour les curieux qui se demandent "tiens, c'est quoi cette techno qu'ils utilisent ?".
Vous avez aussi une démo en ligne sur
web-check.xyz
si vous voulez tester avant d'installer quoi que ce soit. Mais bon, pour une utilisation régulière, je vous conseille vraiment l'instance locale. C'est plus rapide et vous gardez le contrôle sur vos données.
Voilà, si vous bossez dans la sécu, si vous êtes journaliste d'investigation, ou si vous êtes juste curieux de savoir ce que racontent les sites que vous visitez, ce scanner OSINT devrait rejoindre votre boîte à outils.
Allez jeter un œil, et vous me remercierez je pense !
Vous bossez sur un projet et vous vous dites "Tiens, le site de [insérez ici une grosse boîte] a un design plutôt bien foutu, j'aimerais bien voir comment ils ont structuré leurs css".
Hé bien y'a un outil pour ça, et il s'appelle Dembrandt.
Dembrandt en action
En gros, c'est un petit outil en ligne de commande qui va analyser n'importe quelle URL et en extraire tout le design system : les couleurs (primaires, secondaires, variables CSS), la typographie (familles, tailles, graisses), les espacements, les bordures, les ombres et même les patterns de composants UI.
Le truc s'installe en une ligne avec npm (npm install -g dembrandt) et après vous avez juste à taper dembrandt stripe.com par exemple. En moins d'une seconde, l'outil va alors faire un rendu de la page avec Playwright, analyser le DOM, détecter les styles et vous ressort tout ça bien structuré avec des scores de confiance pour chaque couleur.
Ce que j'aime bien, c'est que ça exporte directement en JSON ou au format W3C Design Tokens si vous voulez l'utiliser avec Style Dictionary. Pratique pour alimenter votre propre design system ou pour documenter celui d'un client qui n'a jamais pris le temps de le faire... (il en faut)
Y'a aussi quelques options sympas comme --dark-mode pour extraire la palette sombre, --mobile pour simuler un viewport iPhone, ou --browser=firefox si le site que vous voulez analyser a des protections Cloudflare qui bloquent Chromium.
Bon, ça marche pas sur les sites qui utilisent Canvas ou WebGL pour le rendu, et faut pas s'attendre à des miracles
sur les SPA
qui chargent tout en async. Mais pour la majorité des sites, c'est vraiment efficace.
Le projet est open source sous licence MIT, donc vous pouvez l'auditer, le forker, le modifier comme bon vous semble. Et niveau légalité, analyser du HTML/CSS public pour de la veille concurrentielle ou de la documentation, c'est considéré comme du fair use dans la plupart des juridictions, donc vous êtes good !
Bref, si vous faites du design system, de l'audit UX ou juste de la veille sur ce que font les autres, c'est un outil à garder sous le coude.
Après Blackwell, après les GPU qui chauffent comme des radiateurs nucléaires, après les promesses de révolution IA à chaque keynote, voici Rubin ! Et cette fois, NVIDIA ne se contente pas de balancer une nouvelle puce, mais lâchent carrément un modèle open source pour la conduite autonome.
Rubin, c'est donc la nouvelle architecture qui succède à Blackwell. Mais attention, on ne parle pas d'une simple évolution. C'est un système à 6 puces qui travaillent de concert : le GPU Rubin évidemment, mais aussi le CPU Vera avec ses 88 cœurs Olympus, le NVLink 6 qui balance du 3,6 To/s par GPU, et toute une armada de DPU et de switches réseau. Le tout crache 50 pétaflops en NVFP4 et divise par 10 le coût d'inférence par token par rapport à Blackwell. Pour entraîner des modèles MoE, vous aurez besoin de 4 fois moins de GPU. Pas mal pour faire baisser la facture électrique.
Mais le truc qui m'a vraiment excité les neurones, c'est Alpamayo. NVIDIA appelle ça le "moment ChatGPT de l'IA physique" et pour une fois, j'crois pas que ce soit juste du marketing. Alpamayo 1, c'est un modèle vision-langage-action de 10 milliards de paramètres qui fait de la conduite autonome avec du raisonnement en chaîne. Concrètement, au lieu de juste détecter des obstacles et calculer une trajectoire, le truc réfléchit. Il décompose les situations complexes en sous-problèmes et peut même expliquer pourquoi il prend telle ou telle décision.
Et NVIDIA balance tout ça en open source sur Hugging Face OKLM. Les poids du modèle, AlpaSim (leur framework de simulation), et plus de 1700 heures de données de conduite. De quoi permettre aux développeurs de créer leurs propres variantes optimisées. Côté constructeurs, la Mercedes-Benz CLA sera d'ailleurs la première caisse à embarquer NVIDIA DRIVE AV dès le premier trimestre 2026 aux États-Unis.
Les produits basés sur Rubin débarqueront ensuite chez les partenaires cloud (AWS, Google, Azure, Oracle...) au second semestre 2026. Jensen Huang a rappelé que 10 000 milliards de dollars d'infrastructure informatique sont en train de basculer vers ce nouveau paradigme. Bref, on verra si les promesses tiennent la route, mais une chose est sûre, ça va être intéressant de voir ce que la communauté va faire avec un modèle de conduite autonome open source entre les mains. Et si le sujet vous branche, jetez un œil à mon chouchou,
OpenPilot
, le projet de Geohot qui fait ça depuis quelques années sur des voitures lambda.
Bon, si vous êtes un vieux de la vieille sous Linux, j'ai une nouvelle qui va vous faire verser une petite larme ! GNOME et Firefox envisagent tous les deux de désactiver la possibilité de coller avec le clic milieu par défaut. Vous savez, ce truc où vous sélectionnez du texte, puis un coup de clic molette et hop, c'est collé ailleurs sans passer par Ctrl+C/Ctrl+V.
Jordan Petridis, développeur chez GNOME, vient de soumettre une merge request pour désactiver cette fonctionnalité dans les paramètres par défaut. D'après lui ce serait un véritable désastre... Des mots forts pour une fonctionnalité que beaucoup adorent mais faut dire que le mec n'a pas tort car avec les trackpads modernes et les souris à molette cliquable un peu sensibles, on finit souvent par coller des trucs sans faire exprès.
Du coup, c'est quoi exactement ce "primary paste" ? Hé bien c'est une spécificité historique de X11, le système de fenêtrage qui fait tourner les bureaux Linux depuis des lustres. Quand vous sélectionnez du texte, il est automatiquement copié dans un buffer séparé (le "PRIMARY selection"), différent du
presse-papier classique
. Et le clic du milieu colle ce buffer directement. C'est comme avoir deux presse-papiers en parallèle, c'est pratique mais ça peut foutre le bordel si vous cliquez au mauvais moment.
Et Firefox n'est pas en reste puisqu'une révision chez Mozilla propose exactement la même chose à savoir désactiver le collage au clic molette par défaut. Les arguments sont similaires... surtout que les utilisateurs qui découvrent cette fonctionnalité par accident (coucou les Windowsiens) ne comprennent pas d'où sort le texte qui vient de s'afficher dans leur barre de recherche. Perso, j'avoue que ça m'est arrivé de coller des trucs gênants dans un chat parce que j'avais cliqué sur la molette sans faire gaffe ^^.
La bonne nouvelle, c'est que ça reste réactivable pour ceux qui y tiennent. Sous GNOME, il suffira de taper :
gsettings set org.gnome.desktop.interface gtk-enable-primary-paste true
Bref, c'est un peu la fin d'une époque. Avec l'arrivée de Wayland qui remplace progressivement X11 (et
les solutions pour faire cohabiter les deux
), ces vieilles conventions Unix passent à la trappe. Les nouveaux utilisateurs Linux n'auront probablement jamais connu ce confort du triple clic + clic molette pour copier-coller une ligne entière. C'était pourtant bien pratique ! Mais bon, c'est vrai que ça pouvait aussi poser des problèmes de sécurité quand on collait accidentellement un mot de passe dans le mauvais champ.
Vous vous souvenez de
Byzantium
, ce projet de réseau mesh sur Raspberry Pi pour communiquer quand tout est coupé ? Bah y'a mieux maintenant. Et ça coûte 25 balles.
Meshtastic
, c'est un protocole open source qui transforme de petits modules radio LoRa en nœuds d'un réseau maillé complètement décentralisé. Pas besoin d'internet ni de carte SIM. Et la licence radio, on s'en balec'. Ce sont juste des ondes qui rebondissent de relais en relais pour faire passer vos messages chiffrés.
Du coup, comment ça marche ?
Hé bien d'abord vous achetez un petit boîtier sur Amazon (entre 25 et 40 dollars, ou même 10 si vous êtes patient avec la livraison depuis la Chine). Vous installez l'app sur votre smartphone, vous connectez le module en Bluetooth, et hop, vous pouvez envoyer des messages à n'importe qui dans le réseau. Plus y'a de nœuds, plus la portée augmente puisque chaque appareil relaie les communications aux autres.
Et là, vous allez me dire "ouais mais c'est un gadget de survivaliste parano". Sauf que non. L'ouragan Helene qui a ravagé la Caroline du Nord a prouvé que c'était loin d'être un délire. Quand les antennes relais sont tombées, quand internet a disparu, les gens équipés de ces petits modules radio ont pu continuer à communiquer, à demander de l'aide, à coordonner les secours. Bref, le genre de truc qui peut sauver des vies.
Du coup, y'a toute une communauté de bricoleurs qui s'est mise à fabriquer des nœuds DIY pour mailler leur quartier. Y'en a même qui ont transformé une lampe solaire de jardin en relais autonome. Vous savez, les machins à 3 euros chez Action. Bah vous virez la LED, vous collez un module LoRa alimenté par le petit panneau solaire, et vous avez un répéteur qui coûte 30-40 dollars et qui fonctionne tout seul. Certains ont même monté des répéteurs communautaires sur des points en hauteur avec des panneaux solaires plus costauds pour environ 100 dollars.
Le T-Echo de Lilygo, un module compact avec écran e-ink (
Source
)
Pour ceux qui veulent un truc plus fini, y'a également le Lillygo T-Echo avec son écran e-ink qui affiche les messages même en plein soleil. Et si vous voulez taper sans téléphone, le T-Deck a carrément un petit clavier intégré.
Le T-Deck avec son clavier intégré, pour les vrais (
Source
)
Perso, ce qui me plaît dans ce protocole, c'est qu'il remet la communication entre les mains des gens. Pas de serveur central, pas d'entreprise qui peut couper le robinet, pas de gouvernement qui peut tracer vos échanges. C'est le genre d'infrastructure que les pionniers d'internet auraient adoré. Un réseau qui appartient à ceux qui le construisent, nœud par nœud.
Alors est-ce que ça va remplacer votre forfait mobile ?
Bah non mais quand la prochaine tempête aura mis à terre les infrastructures de votre coin, vous serez peut-être content d'avoir un petit boîtier LoRa chargé dans un tiroir.
Vous en avez marre de configurer Plex pendant 3 heures pour qu'il reconnaisse enfin que "Shingeki no Kyojin S4 Part 2 Final" c'est bien "L'Attaque des Titans" ? Et même
Jellyfin
ou
Kyoo
galèrent avec les noms de fichiers japonais ? Alors laissez-moi vous présenter
Seanime
, un media server qui parle couramment le
weeb
.
L'outil est développé en Go et TypeScript par 5rahim, et contrairement aux mastodontes généralistes, lui se concentre sur une seule mission : streamer vos séries japonaises et lire vos mangas sans prise de tête. Le truc cool, c'est qu'il s'intègre directement avec
AniList
. Du coup, tout ce que vous regardez se synchronise automatiquement avec votre profil. Plus besoin de faire le tracking à la main comme un sauvage.
Côté acquisition de contenu, la bestiole gère les clients torrent (qBittorrent, Transmission) mais aussi les seedbox comme TorBox ou Real-Debrid. Vous cherchez un épisode, il fouille les trackers, lance le téléchargement, et hop, c'est dans votre bibliothèque. Le tout avec un scanner intelligent qui comprend les noms de fichiers même quand ils ressemblent à du code Morse.
Et pour les puristes du manga, un lecteur intégré permet de dévorer vos chapitres directement depuis l'interface. Et si vous avez des potes otakus, les watch parties permettent de mater ensemble à distance avec synchronisation de la lecture. De quoi organiser des soirées visionnage sans être dans la même pièce, ce qui est pratique parce que vos potes sentent tous des dessous de bras.
Perso, ce qui me plaît bien dans ce projet, c'est qu'il assume son positionnement. Au lieu de faire un énième clone de Plex/Jellyfin qui fait tout moyennement, Seanime fait un seul truc mais le fait bien : Gérer le contenu japonais.
Le transcodage FFmpeg est là pour les appareils capricieux, le mode hors-ligne permet de télécharger sur mobile, et un système d'extensions JavaScript laisse la communauté ajouter des fonctionnalités.
L'installation propose aussi
Seanime Denshi
, une app desktop complète avec serveur embarqué, ou simplement le mode serveur web pour ceux qui préfèrent accéder via navigateur. Ça tourne sur Windows, macOS et Linux et le projet est open source sous GPL-3.0.
Voilà, si vous êtes du genre à avoir une collection d'animes qui ferait rougir un data center, c'est peut-être le compagnon qu'il vous faut !
Vous vous souvenez de The Settlers sur Amiga, ce jeu où vous passiez des heures à regarder vos petits bonhommes transporter du bois, de la pierre et du blé sur des chemins tortueux pendant que votre économie tournait toute seule comme une machine bien huilée ? Ouais, ce jeu-là. Celui qui a ruiné vos week-ends en 1993.
Eh bien un développeur du nom de nicymike a décidé de recréer tout ça from scratch. Serflings, c'est donc un remake complet de The Settlers 1 (aussi connu sous le nom de Serf City: Life is Feudal) codé entièrement en Java. Et quand je dis complet, c'est vraiment complet puisqu'on y retrouve toutes les missions originales avec leurs mots de passe, le mode multijoueur en 1 contre 1 en LAN, et même le support des sauvegardes du jeu original.
Le projet est en développement actif depuis un moment et la version 2.2.0 est sortie fin novembre 2025. Parmi les features qui font plaisir il y a le support des hautes résolutions avec zoom (fini le 320×200 qui pique les yeux), un système de construction de routes intelligent avec preview en temps réel, et la possibilité de jouer sur Windows, macOS ou Linux.
Bon, un truc à savoir quand même, vous aurez besoin des fichiers graphiques originaux pour faire tourner le bouzin, à savoir les fameux SPAE.PA (version anglaise) ou SPAD.PA (version allemande).
C'est parce que les assets appartiennent toujours à Ubisoft, donc nicymike ne peut pas les distribuer avec son remake. Donc si vous avez encore vos disquettes Amiga qui traînent quelque part, c'est le moment de ressortir l'émulateur, sinon, The Settlers History Edition est toujours dispo sur Ubisoft Connect. Y'a pas de petits profits...
Ce que j'aime bien dans ce projet, c'est qu'il ne cherche pas à refaire la roue. C'est vraiment le même gameplay de gestion logistique qui faisait le charme de l'original. Vous construisez des routes, vous placez vos bâtiments, vous optimisez vos flux de ressources, et vous regardez vos petits sujets courir dans tous les sens comme des fourmis sous coke, pendant que votre royaume s'étend. Et 30 ans plus tard, c'est toujours aussi addictif.
Pour ceux qui veulent tester, il vous faudra Java 17 minimum (pour la version 2.x). Vous téléchargez le JAR, vous balancez vos fichiers graphiques dans le bon dossier, et hop c'est parti pour des heures de nostalgie.
Voilà, si vous avez la nostalgie des jeux de gestion des années 90 où on prenait le temps de construire quelque chose de beau au lieu de rusher des objectifs, Serflings mérite clairement le détour.
Découvrez comment installer n8n facilement : méthodes d'installation, comparatif des hébergeurs (Hostinger, HostMyServers), configuration et cas d'usage concrets pour automatiser vos workflows.
Découvrez comment installer n8n facilement : méthodes d'installation, comparatif des hébergeurs (Hostinger, HostMyServers), configuration et cas d'usage concrets pour automatiser vos workflows.
Vous développez une app et vous devez intégrer des paiements ? Alors vous connaissez sûrement l'enfer des webhooks... Ces petits événements asynchrones qu'il faut capter, parser, dont il faut vérifier la signature, stocker dans votre base, sans oublier de prier pour qu'il n'y ait pas eu de doublon ou de perte entre temps. Bref, le genre de truc qui transforme un samedi après-midi en séance de débogage intensive.
Flowglad
c'est une plateforme de paiement open source qui promet d'en finir avec cette galère. Son idée c'est qu'au lieu de synchroniser votre base avec Stripe via des webhooks fragiles, vous interrogez directement Flowglad qui devient votre source de vérité unique pour tout ce qui touche à la facturation.
Du coup, plus besoin de maintenir une table subscriptions en local ni de gérer les cas où un webhook arrive deux fois ou pas du tout. Vous appelez getBilling() côté serveur ou useBilling() côté React, et vous avez l'état de l'abonnement en temps réel. C'est stateless, y'a moins de code à maintenir, et surtout moins de bugs bizarroïdes à traquer à 3h du mat.
Côté fonctionnalités, ça couvre les abonnements classiques, le billing à l'usage avec des tiers de volume, les crédits, la gestion des relances automatiques quand un paiement échoue, la génération de factures... Le SDK gère tout ça avec des hooks React et des fonctions backend en TypeScript. Et comme c'est conçu pour s'intégrer dans votre système d'auth existant, vous utilisez vos propres identifiants utilisateurs, pas ceux de Flowglad.
Dans Flowglad, y'a également le support MCP (Model Context Protocol) qui permet aux agents de code comme Claude Code d'accéder à la documentation et de configurer toute l'intégration. On vit vraiment une époque formidable les amis ^^
Niveau tarifs, c'est du freemium. Le billing/usage, c'est 0,65 % après 1000 $ / mois de volume et pour les transactions Stripe classiques, c'est les frais habituels (2.9% + 0.30$). Sinon, pas de frais mensuels fixes, vous payez à l'usage.
Le projet est soutenu par Y Combinator et tout le code est dispo sur GitHub. Sous le capot c'est du Next.js, tRPC, Drizzle ORM et TypeScript. Pour installer, c'est soit bun add @flowglad/nextjs pour les projets Next.js, soit @flowglad/react + @flowglad/express pour les autres stacks.
Bref, si vous en avez marre de vous battre avec les webhooks de Stripe et que vous cherchez une solution plus propre pour gérer vos abonnements, ça vaut le coup d'y jeter un œil...
C'est exactement le concept derrière
Aurora OS.js
, un projet open source complètement barré qui simule un système d'exploitation complet dans votre navigateur... avec des mécaniques de jeu de hacking intégrées.
Le truc, c'est que ce n'est pas juste une démo technique. Aurora OS.js embarque un vrai système de fichiers virtuel avec stockage persistant, un terminal avec des commandes type Linux (ls, cd, cat, mkdir...), un gestionnaire de fenêtres, un bloc-notes avec coloration syntaxique, et toute une architecture modulaire pour les applications. Bref, ça ressemble à un vrai OS, ça se comporte comme un vrai OS, mais ça tourne dans un onglet de votre navigateur.
Côté technique, les développeurs n'ont pas fait dans la demi-mesure. C'est à base de React 19, Electron 39, TypeScript 5, Tailwind CSS v4, et des animations fluides grâce à Framer Motion. Et le tout nécessite Node.js 24 minimum, ce qui montre qu'on est clairement sur des technos de pointe.
Le projet suit une roadmap en trois étapes. La version actuelle (v0.7.7) se concentre sur les fondations et l'utilisabilité. La v1.x apportera le gameplay solo de hacking. Et la v2.x ? Du multijoueur persistant où vous pourrez hacker d'autres joueurs. Ça va être trop incrrrr !
Si vous aimez
les expériences dans le navigateur
ou
les projets qui repoussent les limites du web
, Aurora OS.js mérite clairement un coup d'œil. Y'a une démo live sur GitHub Pages pour tester directement (user: guest / mdp: guest). Et comme c'est sous licence AGPL-3.0, vous pouvez fouiller le code et même contribuer si le cœur vous en dit.
Si vous avez une clé USB RTL-SDR qui traîne dans un tiroir et que vous vous demandez ce que vous pourriez bien en faire, j'ai peut-être trouvé le projet qui va vous occuper pendant quelques soirées.
Ça s'appelle Intercept, et c'est un dashboard web qui regroupe les outils de réception radio les plus courants dans une seule interface. Comme ça, au lieu de jongler entre multimon-ng pour décoder les pagers, rtl_433 pour les capteurs météo, dump1090 pour tracker les avions... vous avez tout ça dans une seule interface Flask accessible directement sur votre navigateur.
L'installation se fait via pip après un clone du repo, et certaines fonctions nécessitent des privilèges élevés (sudo) pour accéder aux interfaces réseau :
git clone https://github.com/smittix/intercept.git
cd intercept
pip install -r requirements.txt
Et pour le lancer :
sudo python3 intercept.py
Le truc tourne en local sur le port 5050 et agrège les données de six modules différents. Côté signaux, on peut décoder les protocoles POCSAG et FLEX (les pagers qu'utilisent encore certains services d'urgence, notamment aux États-Unis et au Royaume-Uni), surveiller la bande 433MHz où communiquent les stations météo et divers capteurs IoT. Pour le tracking, y'a un module ADS-B qui affiche les avions sur une carte OpenStreetMap avec leur trace historique, et un autre pour les satellites qui prédit les prochains passages au-dessus de votre position.
Là où ça devient plus... disons "sensible", c'est avec les modules WiFi et Bluetooth. Le premier peut passer votre carte en mode monitor pour analyser les réseaux environnants et, si un client se reconnecte au bon moment, capturer des handshakes WPA. Le second scanne les appareils Bluetooth à portée. Évidemment, selon les lois de votre pays, ce genre d'analyse peut être encadré voire interdit sur des équipements tiers donc renseignez vous bien avant d'aller en prison bêtement. Le projet affiche d'ailleurs un gros disclaimer au lancement.
Techniquement, c'est du Python avec Flask pour le backend, Leaflet.js pour les cartes, et des Server-Sent Events pour le streaming en temps réel. L'interface propose un thème sombre ou clair, des alertes sonores configurables, et l'export des données en CSV ou JSON. Y'a même des raccourcis clavier pour les power users.
Pour faire tourner le bazar, il vous faut un dongle
RTL-SDR compatible
(les modèles à base de RTL2832U font l'affaire), une carte WiFi supportant le mode monitor si vous voulez cette fonction, et les dépendances habituelles : rtl-sdr, multimon-ng, rtl_433, dump1090, aircrack-ng pour le WiFi et BlueZ pour le Bluetooth.
Le projet est sous licence MIT, développé par smittix avec l'aide de quelques contributeurs. Ça me rappelle un peu l'époque où on bidouillait avec les
femtocells pour intercepter les communications
, sauf qu'ici c'est packagé proprement et ça ne nécessite pas de souder quoi que ce soit.
Si vous cherchez un projet pour apprendre les bases de l'intelligence des signaux radio ou juste pour voir ce qui se passe dans les ondes autour de vous, c'est un excellent point de départ. Par contre, je vous recommande vraiment de lire les lois de votre pays sur l'interception des communications avant de brancher quoi que ce soit...
RyuU12358 n'est pas un personnage de manga cyberpunk... Non, c'est un développeur japonais qui a eu une idée toute bête. Il s'est demandé si on pouvait VOIR la structure des formules Excel au lieu de les lire comme on lirait un roman écrit en russe ?
Parce que bon, les formules de tableur imbriquées, c'est le cauchemar de pas mal de monde. Vous savez, ce genre de truc : =IF(AND(SUMIF(A:A,B2,C:C)>100,VLOOKUP(D2,E:F,2,FALSE)="OK"),CONCATENATE(G2," - ",H2),"Erreur").
Et encore, j'ai pris un exemple gentil.
Demo Frockly : une formule Excel décomposée en blocs (
Source
)
Le problème, comme le souligne très justement le créateur, c'est pas que ces formules sont complexes. C'est que leur structure est planquée à l'intérieur d'une seule ligne de texte, du coup, à chaque fois qu'on doit les modifier, on repart de zéro pour comprendre comment tout s'imbrique.
Rien que d'y penser, ça me donne la flemme...
Mais c'est là qu'intervient
Frockly
, un éditeur web qui transforme vos formules en blocs visuels façon Scratch qu'on peut manipuler comme des Lego. Vous collez votre formule monstrueuse, et hop, elle se décompose en morceaux logiques reliés entre eux. Ça ressemble un peu à
Flyde pour la programmation visuelle
, mais adapté au monde des tableurs.
L'outil propose plusieurs modes de visualisation comme replier certaines parties pour avoir une vue d'ensemble, zoomer sur un noeud précis, ou remonter à la racine pour comprendre la hiérarchie.
Et le truc cool, c'est qu'on peut aussi construire ses formules de A à Z en assemblant des blocs. Plus besoin de compter les parenthèses comme un comptable sous pression. On connecte les fonctions entre elles, et Frockly génère la formule textuelle qu'on peut ensuite copier-coller dans Excel ou un autre tableur.
Y'a même un système de formules nommées (internes à Frockly) pour réutiliser des morceaux de logique, et un import expérimental de fichiers xlsx qui fonctionne côté client. Bon, on est sur une version 0.5, donc faut pas s'attendre à un truc parfaitement stable non plus...
Notez quand même que Frockly ne remplace pas Excel. C'est un outil qui tourne entièrement dans votre navigateur (pas d'upload serveur), ne calcule rien, ne modifie pas vos fichiers, et ne prétend surtout pas être un tableur. C'est en réalité un espace de travail intermédiaire pour comprendre et refactorer, point barre. L'idée c'est d'organiser vos formules ici, puis de retourner dans votre tableur avec une version plus claire.
Le tout est développé en TypeScript, tourne dans le navigateur, et le code est disponible sur GitHub. Bref, si vous avez déjà pesté devant une formule Excel incompréhensible héritée d'un collègue qui a quitté la boite il y a 3 ans, ce petit outil pourrait bien vous sauver quelques heures de migraine.
Vous bossez dans un open space et vous avez envie de papoter avec vos collègues sans que tout le monde entende votre conversation ? Ou alors vous êtes étudiant sur un campus et vous voulez lancer un petit chat éphémère avec les gens autour de vous ?
Ça tombe bien,
ipchat.org
a une approche assez sympa pour ça.
En fait, ce site regroupe automatiquement tous les utilisateurs qui partagent la même adresse IP publique (celle vue par le serveur). En gros, si vous êtes au bureau derrière le même routeur, vous devriez vous retrouver dans le même salon. Pas besoin de créer de compte ni de lien d'invitation, vous débarquez sur le site, vous choisissez un pseudo (ou vous laissez le générateur aléatoire s'en charger) et hop, vous pouvez commencer à causer.
Côté technique, ça utilise du
Server-Sent Events
pour le temps réel et une API REST derrière. Les messages sont conservés 24 heures avant de disparaître côté applicatif même si évidemment, ça n'empêche pas le serveur de loguer des trucs de son côté, hein. On n'en sait rien.
Après si je vous en parle, c'est parce que je trouve le concept plutôt sympa. C'est un peu le retour aux sources des chats IRC d'antan, version ultra-simplifiée ou de ce bon vieux Net Send... Y'a un côté nostalgique et en même temps pratique. Si vous voulez organiser un apéro improvisé avec les collègues sans spammer le Slack officiel y'a qu'à balancer l'URL et tout le monde se retrouve dans le même chat sans rien installer.
Après c'est pas hyper sécurisé comme concept parce que vous l'aurez compris, toute personne qui rejoint le même salon (même IP publique) peut lire les messages. Donc évitez d'y balancer des trucs confidentiels ou des ragots sur votre chef (enfin... sauf si vous êtes sûr qu'il n'est pas connecté de gros con ^^). Et petit détail, si vous utilisez un VPN ou si votre FAI fait du
CGNAT
, vous pourriez vous retrouver avec des inconnus dans votre salon. Encore des rencontres charnelles en perspective !
Bref, encore un petit outil marrant pour animer vos pauses café.
Et si je vous disais qu'un robot humanoïde, un vrai, avec contrôle de force sur tout le corps et des articulations dignes des gros modèles, ça tient maintenant dans un sac à dos ? Vous ne me croiriez pas et pourtant, je viens de découvrir sur
Reddit
cette vidéo où AGIBOT présente le QUESTER1 (ou Q1 pour les intimes), un petit bonhomme de 80 centimètres qui a de quoi faire réfléchir pas mal de monde dans l'industrie...
Bon, je vous vois venir... "Encore un robot jouet chinois". Sauf que non. Le truc qui change tout ici, c'est la technologie QDD (Quasi Direct Drive) qu'ils ont réussi à miniaturiser jusqu'à obtenir des articulations plus petites qu'un œuf. Et pas des articulations au rabais, hein mais d'un contrôle de force complet et de réactivité haute performance, c'est à dire le même niveau que les grands humanoïdes qui font 1m70.
En septembre dernier on découvrait que
certains robots Unitree présentaient des failles Bluetooth
. Avec du code fermé c'est pas surprenant alors qu'ici AGIBOT fait le choix inverse en ouvrant volontairement son SDK et son HDK. Le code, les interfaces, les modules d'extension... tout est accessible. Même les composants structurels externes sont open source, ce qui veut dire que vous pouvez imprimer en 3D vos propres coques et donner à votre Q1 l'apparence que vous voulez. Tête interchangeable incluse ! Le délire !
Mais pourquoi faire si petit ?
Bah justement, c'est là que ça devient fort car en théorie, réduire les dimensions de moitié divise le poids par 8 (les joies de la physique en 3D). Du coup, le robot encaisse mieux les chutes, les erreurs coûtent moins cher, et l'itération est beaucoup plus rapide pour les développeurs. Pour la recherche et l'éducation, c'est donc le format idéal puisqu'il tient dans un grand sac à dos.
Côté fonctionnalités, le Q1 n'est pas qu'une plateforme de dev puisqu'il intègre une IA personnalisée qui lui permet de répondre à des questions, d'enseigner l'anglais avec une prononciation correcte (et une patience infinie, contrairement à votre ancien prof de lycée), ou même de danser avec plus de précision que vous.
C'est le futur qui débarque et le plus cool c'est qu'à l'avenir, ils vont proposer une plateforme no-code qui permettra de créer des comportements facilement. Pour les makers, les chercheurs et les étudiants en robotique, c'est donc potentiellement une belle porte d'entrée vers l'humanoïde à taille humaine... enfin presque.
Ceux qui ont déjà essayé de faire de la musique sous Linux savent de quoi je parle. Configurer JACK, gérer les latences ALSA, prier pour que le plugin VST fonctionne... C'était un peu l'enfer, non ? Perso, j'ai abandonné plusieurs fois avant que
PipeWire
vienne tout simplifier.
Du coup, quand je suis tombé sur
LinuxDAW.org
, j'ai eu un petit moment d'émotion. C'est un catalogue visuel et bien foutu qui répertorie plein de plugins audio disponibles sous Linux : VST2, VST3, CLAP, LV2, standalone, et même des modules VCV Rack. Le site a été créé par fractalf (le code est sur
Codeberg
) qui explique l'avoir créé simplement parce qu'aucun des sites existants ne répondait vraiment à ses besoins quand il a switché vers Linux.
Et ce qui me plaît ici, c'est que ce n'est pas un site puriste open source. Y'a du FOSS bien sûr (et un filtre dédié pour les trouver), mais aussi les plugins commerciaux de u-he, Toneboosters, Kazrog et compagnie. Parce que oui, de plus en plus d'éditeurs supportent Linux nativement maintenant.
Après c'est vrai qu'en cochant le filtre FOSS, on voit nettement la différence de qualité d'interface avec les plugins payants. Vous le savez car je m'en plains souvent, mais niveau design, les projets libres ont encore du chemin à faire... Mais bon, ça reste fonctionnel et gratuit, donc on va pas cracher dessus.
Bref, si vous êtes musicien et que vous envisagez de passer sous Linux (ou si vous y êtes déjà et que vous cherchez des outils), LinuxDAW.org c'est exactement ce qu'il vous faut. Y'a plus qu'à digger tout ça ! Et si ça vous amuse, vous pouvez même contribuer en ajoutant des plugins qui manqueraient au catalogue.
Vous utilisez Google Maps pour vos balades ou vos trajets en bagnole, comme tout le monde. Sauf que vous savez aussi bien que moi ce que ça implique... Google qui sait où vous êtes, où vous allez, à quelle heure vous bougez, et combien de temps vous passez chez votre nouvelle voisine (pas assez longtemps à son goût).
Mais bonne nouvelle les amis, y'a une alternative qui existe depuis un moment et qui mérite vraiment qu'on s'y intéresse. Ça s'appelle
Organic Maps
et c'est exactement ce que son nom suggère : des cartes propres, sans pesticides publicitaires ni tracking chimique.
Le principe est simple. Vous téléchargez les cartes des régions qui vous intéressent, et ensuite vous pouvez naviguer en mode 100% offline. Pas besoin de réseau, pas de connexion data qui se vide à l'étranger, rien. Votre téléphone devient un vrai GPS autonome, comme au bon vieux temps des Tomtom, mais en mieux.
Côté vie privée, c'est le jour et la nuit avec les apps classiques. Zéro pub, zéro tracking et surtout l'app a été vérifiée par Exodus Privacy Project et TrackerControl, donc c'est pas juste du blabla marketing. Même pas besoin de créer un compte pour l'utiliser, vous installez et hop c'est parti.
Pour les randonneurs et cyclistes, c'est là que ça devient vraiment sympa puisqu'Organic Maps affiche les courbes de niveau, les profils d'élévation, les sentiers de rando et les pistes cyclables. Y'a même un mode navigation turn-by-turn avec guidage vocal, et depuis 2024 le support Android Auto est dispo pour l'utiliser en voiture.
Les cartes viennent d'OpenStreetMap, donc c'est collaboratif et parfois plus à jour que ce qu'on trouve chez Google, surtout pour les petits chemins et les POI un peu obscurs. Perso, j'ai déjà trouvé des trucs sur OSM qui n'existaient même pas sur Maps, genre des fontaines d'eau potable en pleine montagne ou des refuges paumés.
L'app est dispo sur
iOS
,
Android
(y compris sur
F-Droid
pour les allergiques au Play Store), et même sur Linux en
Flatpak
. C'est open source sous licence Apache 2.0, donc vous pouvez aller fouiller le code si ça vous chante. Le projet est financé par des dons et des fondations comme NLnet, et pas par la revente de vos données de localisation.
Après la recherche est moins puissante que Google Maps, ce qui est normal vu qu'ils ont pas des milliards à claquer en IA. Et les infos de trafic en temps réel, bah y'en a pas. Mais pour de la rando, du vélo, ou même des trajets quotidiens quand on connaît un peu le coin, c'est largement suffisant.
Bref, si vous en avez marre de sentir le regard de Google dans votre dos à chaque déplacement, ou si vous voulez juste une app GPS qui marche sans réseau, foncez sur Organic Maps. C'est gratuit, et ça fait le taf !
J'arrête pas de lire en ce moment des articles sur des Américains de moins de 25 ans qui découvrent les cassettes audio et qui nous en font des tartines en mode "c'est trop génial". Ils sont mignons car biberonnés à Stranger Things, ils deviennent nostalgiques de cette époque des années 80 qu'ils n'ont pas connu. Je comprends, c’était cool mais moi j'ai connu et je peux vous dire que la cassette audio, ça vaut pas un bon vieux FLAC en termes de qualité audio.
Après Spotify même s'il propose du lossless depuis peu, c'est pas non plus le top parce que bah faut payer l'abonnement et puis la musique ne nous appartient pas vraiment. Alors peut-être que, finalement, la voie de la sagesse, c'est celle qui consiste à se faire une collection de FLAC comme on le faisait à l'époque avec nos vieux MP3.
Et c'est pour ça qu'aujourd'hui je vous parle de HiFidelity qui va probablement vous faire plaisir.
C'est un lecteur audio pour macOS, totalement gratuit et open source, pensé pour les audiophiles qui en ont marre des usines à gaz bardées de trackers et d'abonnements. Le truc fonctionne 100% hors ligne, ne collecte aucune donnée, et utilise la bibliothèque BASS (celle qu'on retrouve dans plein de players pro) pour une lecture bit-perfect. Ça veut dire que vos fichiers audio sont lus tels quels, sans conversion ni dégradation.
Côté formats, c'est la totale : FLAC, WAV, AIFF, APE, MP3, AAC, OGG, OPUS, M4A... bref tout ce qui traîne dans une bibliothèque musicale bien fournie. Et pour les puristes, y'a même un mode "Hog" qui prend le contrôle exclusif de votre périphérique audio. En gros aucune autre app ne viendra polluer votre écoute avec ses petits bips de notifications.
L'interface est propre, avec navigation par artistes, albums, genres, et une recherche super réactive grâce à SQLite
FTS5
, recommandations automatiques... Ah et le mini-player flottant est vraiment bien foutu pour bosser avec sa musique sans encombrer l'écran.
Perso, ce qui me plaît, c'est l'approche "local first" et avoir un lecteur qui fait juste... lire de la musique, ça fait du bien. Y'a même la synchro des paroles en temps réel via lrclib et un égaliseur multiband pour ceux qui aiment tripatouiller les fréquences.
Pour l'installer c'est simple... soit via Homebrew avec
Soit en téléchargeant directement depuis
GitHub
. Faut macOS 14 minimum par contre.
Bref, si vous cherchez un lecteur audio qui respecte vos oreilles ET votre vie privée,
HiFidelity
mérite clairement le coup d'oeil. Merci à Lorenper pour la découverte !
Bon, faut qu'on parle un peu du moteur de recherche de mon site. Ceux qui l'ont déjà utilisé savent de quoi je parle : c'était pas terrible. Enfin, « pas terrible » j'suis gentil. C'est un espèce d'overlay avec des résultats certes fiables mais c'était vraiment pas pratique.
Et en plus de ça, comme j'ai un site statique généré avec Hugo, je passais par Algolia pour la recherche. Si vous ne connaissez pas, Algolia c'est un service cloud qui indexe votre contenu et vous fournit une API de recherche ultra-rapide. Sur le papier c'est génial et dans la pratique aussi d'ailleurs sauf que voilà, ça coûte des sous. Et mon site rencontre un franc succès ces derniers temps (merci à vous !), donc j'ai de plus en plus de visiteurs, donc de plus en plus de recherches, donc une facture Algolia qui grimpe gentiment chaque mois.
Du coup je me suis dit : « Et si je trouvais une solution de recherche pour sites statiques ? » Parce que oui, ça existe et c'est comme ça que j'ai découvert Pagefind.
Pagefind c'est donc un moteur de recherche statique open source développé par CloudCannon qui fonctionne comme ceci : Au moment du build de votre site, Pagefind parcourt tout votre HTML généré et crée un index de recherche qu'on peut interroger avec un peu de JS. Y'a donc plus d'API, et tout se fait localement sur le navigateur des internautes.
Bref, ça avait l'air très cool alors évidemment, je me suis lancé dans l'aventure et comme j'aime bien me compliquer la vie, j'ai décidé de pas juste intégrer Pagefind tel quel. Non non. J'ai voulu recréer l'interface du Google de 1998 parce que à quoi bon avoir son propre site web si on peut pas s'amuser un peu ^^.
Laissez-moi donc vous raconter cette aventure.
Le problème avec Algolia
Leur service est excellent, je dis pas le contraire, la recherche est rapide, les résultats sont pertinents, l'API est bien foutue mais voilà, y'a le modèle de pricing puisque Algolia facture au nombre de requêtes de recherche.
Plus les gens cherchent sur votre site, plus vous payez et quand vous avez un site qui fait plusieurs millions de pages vues par mois, bah... ça chiffre vite. En gros je dépasse très vite les 10 000 recherches offertes chaque semaine et ensuite ça chiffre. C'est pas la mort, mais c'est un coût récurrent débile pour un truc qui pourrait être gratuit.
En plus de ça, y'a la dépendance à un service externe. Si Algolia tombe, ma recherche tombe. Et si Algolia change ses prix, je vais devoir subir. Même chose si Algolia décide de modifier son API... il faudra que j'adapte mon code. Bref, c'est le cloud dans toute sa splendeur... C'est pratique mais on n'est jamais vraiment chez nous.
Pagefind à la rescousse
Pagefind résout donc tous ces problèmes d'un coup. C'est un outil en ligne de commande qui s'exécute après votre générateur de site statique (Hugo dans mon cas, mais ça marche avec Jekyll, Eleventy, Astro, ou n'importe quoi d'autre).
Concrètement, vous lancez :
npx pagefind --site public
Et Pagefind va :
Scanner tous vos fichiers HTML dans le dossier public/
Extraire le contenu textuel (en ignorant la nav, le footer, les pubs si vous lui dites)
Créer un index de recherche optimisé
Générer des fichiers JavaScript pour interroger cet index côté client
Et le résultat c'est un dossier pagefind/ qui contient tout ce qu'il faut. Ensuite; à vous de servir ces fichiers statiquement avec le reste de votre site, et la magie pourra opérer !
L'index pour mes 18 000 articles fait environ 1,5 Go. Ça peut paraître beaucoup, mais Pagefind est malin car il découpe l'index en fragments et ne charge que ce qui est nécessaire pour la recherche en cours. Du coup en pratique, une recherche typique télécharge quelques centaines de Ko, et pas plus.
L'intégration technique
Pour intégrer
Pagefind
dans mon workflow Hugo, j'ai donc été cherché le binaire, je l'ai mis sur mon serveur et je l'ai appelé dans un cron comme ça, je rafraichi l'index de recherche 1 fois par jour (et pas à chaque génération du site).
L'astuce ici c'est d'indexer uniquement les div ayant la class data-pagefind-body='true' et d'exclure les éléments qui ne font pas partie du contenu éditorial afin de ne pas indexer ce qui se trouve dans le header, les natives, le footer...etc.
Côté JavaScript, Pagefind utilise les imports ES6 dynamiques. Ça veut dire que le moteur de recherche n'est chargé que quand l'utilisateur lance effectivement une recherche :
C'est bien fichu parce que search.results retourne immédiatement les références des résultats, mais le contenu réel (titre, extrait, URL) n'est chargé que quand vous appelez result.data(). Du coup vous pouvez implémenter une pagination propre sans télécharger les données de milliers de résultats d'un coup.
Le délire rétro - Recréer Google 1998
Maintenant que j'avais un moteur de recherche fonctionnel, fallait l'habiller. Et c'est là que j'ai eu cette idée un peu débile : Pourquoi pas recréer l'interface du Google de 1998 ?
Pour les plus jeunes qui lisent ça, Google en 1998 c'était une page blanche avec un logo, un champ de recherche, et deux boutons : « Google Search » et « I'm Feeling Lucky« . Pas de suggestions, pas de carrousels, pas de pubs... Juste un champs de recherche. C'était la belle époque !
J'ai donc créé une page de recherche avec deux vues distinctes. La page d'accueil avec le logo centré et le champ de recherche au milieu, exactement comme le Google originel.
Et la page de résultats avec le logo en petit en haut à gauche et les résultats en dessous.
Pour le code CSS, j'ai voulu être fidèle à l'époque. Times New Roman comme police par défaut, les liens en bleu souligné qui deviennent violet une fois visités. Et surtout, les boutons avec l'effet 3D des interfaces Windows 95 :
.search-button:active { border-style: inset; }
Ce border: outset et border-style: inset au clic, c'est exactement ce qui donnait cet effet de bouton en relief qu'on avait partout dans les années 90. Pour moi, ça fait toute la différence pour l'authenticité. Même le logo, je l'ai volontairement « dégradé » pour qu'il soit de la même qualité que le logo Google d'origine.
La pagination « Koooooorben »
Vous vous souvenez de la pagination de Google avec « Goooooogle » en bas de page ? Le nombre de « o » correspondait au nombre de pages de résultats. J'ai fait pareil, mais avec « Koooooorben ».
let logo = 'K'; for (let i = 0; i < oCount; i++)
{
logo += o;
} logo += 'rben'; }
Plus il y a de résultats, plus il y a de « o ». C'est complètement inutile mais ça me fait marrer à chaque fois que je le vois.
Le bouton « J'ai de la chance »
Ah, le fameux « I'm Feeling Lucky » de Google, j'ai voulu l'implémenter comme à l'époque ! Si vous tapez une recherche et cliquez sur « J'ai de la chance », vous êtes envoyé sur le premier résultat. Classique. Mais si vous cliquez sur le bouton avec le champ vide sur la home de la recherche, vous êtes envoyé sur un article aléatoire parmi les +18 000 du site.
Pour ça, j'ai utilisé une astuce : le sitemap. Mon Hugo génère un fichier sitemap.xml qui contient toutes les URLs du site et je peux aller piocher dedans en JS :
Un seul fetch, un peu de parsing XML natif, et hop c'est le grand retour de la fonctionnalité « article aléatoire » qui vous manquait, je le sais !
Tri et nombre de résultats
Je vous ai aussi mis une listbox qui vous permet d'afficher 10, 25 ou 50 résultats ainsi qu'un tri par pertinence ou data. Et ça aussi Pagefind sait parfaitement le navigateur.
Mode sombre et accessibilité
Même si l'interface est rétro, j'ai quand même ajouté quelques fonctionnalités modernes. Le mode sombre respecte les préférences système, et j'ai intégré la police OpenDyslexic pour les personnes dyslexiques.
Le truc important c'est de charger ces préférences avant le rendu de la page pour éviter le fameux flash. J'ai donc un petit script qui lit les préférences dans le localStorage et applique les classes CSS immédiatement :
function() {
if (localStorage.getItem('theme') === 'dark') {
document.documentElement.classList.add('dark-mode');
}
if (localStorage.getItem('dyslexic-font') === 'true') {
document.documentElement.classList.add('dyslexic-mode');
}
});
Gestion de l'historique navigateur
Un détail qui peut sembler anodin mais qui est super important pour l'expérience utilisateur c'est la gestion du bouton retour du navigateur.
Quand vous faites une recherche, l'URL change selon votre requête du genre /recherche/?q=linux&p=2. Du coup si vous partagez cette URL à un collègue, la personne arrivera directement sur les résultats de recherche. Et si vous utilisez le bouton retour, vous reviendrez alors à la recherche précédente.
Et si vous ne trouvez pas votre bonheur dans mes +18 000 articles (ce qui serait quand même étonnant ^^), j'ai ajouté des liens pour relancer la même recherche sur Google, DuckDuckGo, Qwant, Brave et Ecosia. Bref, un petit service bonus pour mes visiteurs, exactement comme le proposait Google à l'époque.
Le bilan - Algolia vs Pagefind
Après 1 semaine d'utilisation, voici donc mon verdict ! Côté portefeuille d'abord, Algolia me coûtait entre 60 et +100 euros par mois et maintenant pour Pagefind, c'est zéro euros ! Et les performances sont également au rendez-vous. Algolia c'était rapide et bien là, ça l'est encore plus. Seul compromis à noter, l'index Algolia se mettait à jour en temps réel, alors que Pagefind nécessite une reconstruction au moment du build.
La conclusion
Voilà, j'ai maintenant une recherche qui marche vraiment bien, qui me coûte 0€ par mois, et qui a un look rétro qui va en surprendre plus d'un...
Alors est-ce que c'était nécessaire de passer autant de temps sur le design rétro ? Hé bien absolument pas. Mais est-ce que ça valait le coup ?
Franchement, oui !! C'est mon site, je fais ce que je veux, et si ça peut faire sourire quelques visiteurs nostalgiques des débuts du web, c'est du bonus.
D'ailleurs un grand merci aux Patreons
qui me soutiennent car sans eux, je n'aurais pas pu passer mon dimanche là dessus ^^
Et puis surtout, ça m'a permis de découvrir Pagefind qui est vraiment un excellent outil. Donc si vous avez un site statique (ou n'importe quel type de contenu textuel) et que vous cherchez une solution de recherche gratuite et performante, je vous le recommande chaudement. La documentation est claire, l'intégration est simple, et le résultat est top !
J'sais pas si vous vous rappelez mais quand on jouait à nos jeux préférés sur un de ces vieux écrans CRT, l'image était nette ! Une clarté de mouvement quasi parfaite, avec très peu de traînées... C'était chouette ! Hé bien y'a un dev qui a décidé de recréer ça sur nos écrans modernes avec un outil open source qui s'appelle
ShaderBeam
.
En fait, le souci de nos LCD et autres OLED, c'est que chaque pixel reste allumé pendant toute la durée d'une frame (c'est ce qu'on appelle le
sample-and-hold
). Alors que sur un CRT, le faisceau d'électrons balayait l'écran ligne par ligne, donc chaque pixel ne s'allumait qu'une fraction de seconde. C'est ça qui donnait cette sensation de netteté en mouvement. C'est précisément ce comportement que ShaderBeam tente de reproduire via un shader GPU.
Le projet vient de sortir en version 0.1 beta et c'est développé par Mausimus, le même gars qui a créé
ShaderGlass
(un overlay pour appliquer des shaders sur Windows). Et son nouveau bébé utilise la technologie de simulation CRT de
Blur Busters
, développée par Mark Rejhon et Timothy Lottes.
Si vous testez, vous verrez, les résultats peuvent être assez bluffants selon votre config. Sur un écran 120Hz, vous pouvez réduire le flou de mouvement jusqu'à 50% pour du contenu 60fps. À 240Hz, on peut monter à 75% de réduction. Et si vous avez un monstre à 480Hz, c'est jusqu'à 87,5% de blur en moins. Autant dire que ça peut commencer à se rapprocher de l'expérience CRT d'antan.
Le gros avantage par rapport au Black Frame Insertion classique (le BFI que proposent certains écrans), c'est que ShaderBeam peut flicker moins selon les réglages. Au lieu d'alterner brutalement entre image et noir, le shader simule la phosphorescence qui s'estompe progressivement. Résultat, ça peut être plus agréable pour les yeux sur du contenu 60fps.
Par contre, y'a quelques contraintes. Déjà vous avez besoin d'un écran qui monte au minimum à 100Hz, et 240Hz ou plus c'est vraiment l'idéal. Ensuite, le dev recommande d'utiliser un deuxième GPU (votre iGPU intégré fait l'affaire) pour faire tourner ShaderBeam pendant que votre carte graphique principale gère le jeu. Ça peut aider à éviter les problèmes de désync dans la plupart des jeux.
Pour l'installer, ensuite c'est assez simple. Vous téléchargez le zip depuis GitHub, vous lancez l'exe, et l'overlay se met par-dessus vos jeux en fullscreen. Y'a des raccourcis clavier pour afficher l'interface de config (Ctrl+Shift+B), et vous pouvez ajuster plein de paramètres selon votre écran et vos préférences. Attention, il est recommandé de désactiver HAGS, VRR et HDR pour de meilleurs résultats.
Bon, c'est encore une beta, donc attendez-vous à quelques bugs et attention si vous êtes photosensible car ça peut créer des flashs rapides. Mais pour les nostalgiques du CRT qui veulent retrouver cette clarté de mouvement sur leurs écrans modernes, c'est vraiment un projet à suivre. D'ailleurs,
Blur Busters propose une démo interactive
si vous voulez voir le principe en action avant de télécharger.