Vue lecture

Firefox AI Window - L'IA qui vous respecte

Je viens à l’instant de m’inscrire sur la liste d’attente de Firefox AI Window . Il s’agit d’une nouvelle fonctionnalité IA pour Firefox qui tournera en local, respectera la vie privée, et nous laissera choisir notre modèle. Je suis assez hypé par le truc mais je vous avoue que les commentaires sur le forum Mozilla Connect sont… comment dire… assez révélateurs.

En effet, il y a une écrasante majorité de réactions négatives. Alors c’est pas contre l’implémentation technique, ni contre l’approche privacy-first de Mozilla. Non, c’est essentiellement contre le simple fait que le mot “IA” existe au sein de Firefox. Certains utilisateurs réclament même un bouton géant “No AI” visible depuis l’espace, pour désactiver une fonctionnalité qui est déjà désactivée par défaut. Ces mecs ont de la fièvre je pense…

Le truc qui m’agace en fait, dans ces réactions teubées, c’est qu’elles passent complètement à côté de l’enjeu stratégique. Chrome intègre Gemini de façon de plus en plus invasive, Edge a Copilot, Arc a son Browse for Me, Perplexity et OpenAI lancent leurs navigateurs IA… Alors si ce bon vieux Firefox reste immobile au sujet de l’IA pendant que tout le monde avance, je vous rassure, il ne deviendra jamais “le dernier bastion de la pureté” qui fait mouiller les anti-IA.

Non, il deviendra juste obsolète.

Réveillez-vous les gars, Mozilla propose exactement ce que les libristes demandent depuis toujours ! Un respect de la vie privée, un contrôle utilisateur total, de la transparence, un fonctionnement en local, des petits modèles, du code libre…etc.

Mais bon parce que c’est de l’IA, ça devient l’ennemi. Faudrait quand même être sacrément con pour saborder la SEULE implémentation IA grand public qui respecte réellement ces principes de liberté et de respect de la vie privée.

Plutôt que de gueuler sur Mozilla, je vous invite plutôt à vous poser cette question : Est ce que vous préférez une IA locale optionnelle dans Firefox, ou une IA obligatoire cloud-only dans Chrome qui aura au final capté 95% du marché parce que Firefox sera mort de n’avoir rien fait ?

Parce que si Firefox disparaît, on perdra le dernier navigateur grand public capable de proposer une alternative respectueuse pour notre vie privée et ça perso, ça m’inquiète.

Nos champions anti-IA n’ont, pour la plupart, même pas remarqué que Firefox proposait déjà des fonctionnalités IA locales depuis le début cette année . Je pense au tab grouping automatique avec suggestions de titres, à la traduction de pages instantanée sans envoyer le contenu hors de votre machine, à la génération d’alt-text pour des images accessibles sans faire de compromis sur la vie privée… Tout ça tourne déjà en local chez vous et pas grand monde ne s’en plaint.

Je pense que c’est parce que Mozilla ne communique pas dessus en mettant des paillettes “AI-powered” partout. Ils font juste leur taf. C’est un peu comme quand je parle d’une super application cross-platform… Suffit que j’écrive que c’est fait en Electron et y’en a qui tombent dans le coma direct. Et cela peu importe que l’app soit folle ou pas. Bref, c’est ridicule.

AI Window sera donc une troisième fenêtre de navigation (en plus des fenêtres classiques et privées), avec un assistant et un chatbot intégré. Mozilla présente ça comme, je cite, “un compagnon de confiance qui améliore votre navigation et vous guide vers le web plus large”, par opposition aux navigateurs IA qui vous enferment dans une boucle conversationnelle pour à terme, je pense vous vendre des trucs et conserver votre attention et vos données perso.

Grâce à Mozilla, vous pourrez choisir votre modèle IA et tout sera “opt-in” comme on dit. Ça veut dire que tout sera en option et rien ne sera activé par défaut. Vous pourrez choisir de l’activer ou non ! Que demande le peuple ? C’est merveilleux non ?

Faut dire que Mozilla a clairement appris de ses erreurs puisqu’ils ne forcent rien, ne pré-activent rien mais construisent tranquillement le meilleur navigateur possible, à la vue de tous (le code est libre, open source et chacun peut contribuer et donner son avis). Après, même comme ça, même en jouant la transparence absolue, ça ne plaira jamais à une certaine petite caste de barbus aveuglés par des idées pré-digérées faciles à comprendre. Tant pis pour eux !

Maintenant, le vrai enjeu pour moi, c’est pas ça, c’est surtout l’ouverture aux développeurs. J’espère vraiment que ces fonctionnalités IA seront accessibles via une API pour les extensions Firefox. Si c’est le cas, on va pouvoir créer des extensions qui s’appuient sur l’IA locale de Mozilla, sans avoir à ajouter un modèle de 500 MB ou à envoyer les données utilisateur dans le cloud. Et ça, j’avoue ce serait trop cool car ça ouvrirait l’écosystème des extensions Firefox à tout un tas de nouvelles extensions “intelligentes” qui respectent la vie privée.

Voilà… je sais que le changement c’est dur les gars, et que ça hérisse les poils de cul de certains pas bien sevrés mais l’IA de Mozilla va apporter des choses intéressantes dans le navigateur, que ça vous plaise ou non. Et si Mozilla ne se met pas à la page, Firefox prendra encore plus la poussière et finira par être délaissé. Et au final, on aura tout perdu et y’aura même plus d’IA qui respecte la vie privée et qui soit accessible au grand public gratuitement.

Voilà… Soyez pas cons. En tout cas, pour ma part, j’ai hâte de tester AI Window quand ça sortira !

Source

  •  

ScribeOCR - Corrigez vos erreurs d'OCR directement dans le navigateur (en local)

Y’a plein d’images et de scans en PDF sur le net ou sur votre disque dur, qui sont difficilement exploitable / indexables parce que la reconnaissance de caractères n’a pas bien fonctionné. L’OCR automatique a par exemple transformé un mot-clé en charabia et c’est illisible. Du coup, ce passage est perdu dans les limbes et impossible de le retrouver avec une simple recherche textuelle. C’est moche.

Faut dire que le problème est réel car quand on numérise des millions de livres avec un OCR à 90% de précision, ça a l’air génial, sauf que les 10% d’erreurs ne sont pas aléatoires. C’est toujours les mêmes confusions qui reviennent : “A” qui devient “H”, “C” qui devient “G”, “22” qui se transforme en “55”. Et pour les documents historiques avec des polices anciennes, c’est encore pire.

Heureusement, il existe un outil gratuit et open source qui tourne dans votre navigateur et qui va vous permettre de corriger ces milliers d’erreurs OCR sans envoyer vos docs sur les serveurs de Google, Microsoft ou je ne sais quoi d’autre. Cela s’appelle ScribeOCR et vous allez l’adorer !

Pourquoi ? Hé bien parce que c’est un éditeur d’OCR open-source qui tourne à 100% dans votre navigateur, donc aucune donnée n’est envoyée sur le net et parce qu’il est capable de corriger toutes les erreurs efficacement ! L’interface affiche le texte OCRisé par-dessus l’image source, comme ça, vous voyez immédiatement où sont les problèmes et vous corrigez tout ça en série.

Et surtout ScribeOCR génère une police custom pour chaque document. Ça vous laisse garder l’apparence originale du doc, tout en ayant un texte parfaitement indexable pour des recherches par exemple. Vous obtenez ainsi un PDF qui ressemble au document d’origine mais où chaque mot est cliquable et cherchable. Bref, c’est super pratique si vous numérisez des archives ou des vieux bouquins.

L’outil supporte plusieurs moteurs OCR dont Tesseract LSTM et Legacy et vous pouvez ajuster les paramètres de reconnaissance selon le type de document : vitesse, qualité, langue…etc. Y’a même des options avancées pour le debug et l’optimisation des polices.

L’outil permet donc de créer des PDF recherchables à partir de scans (c’est le cas classique) mais également de corriger des données OCR existantes, y compris les fichiers HOCR de Tesseract. Et pour numériser complètement des documents ou livres anciens, l’interface de correction vous aidera à faire de l’excellent travail !

Le projet est open-source (licence AGPL-3.0) , ce qui veut dire que vous pouvez l’auto-héberger si vous voulez. Ainsi, pour l’installer en local, c’est très simple :

git clone --recursive https://github.com/scribeocr/scribeocr.git
cd scribeocr
npm i
npx http-server

Mais si vous voulez juste tester, y’a une démo sur scribeocr.com . Vous uploadez votre fichier, vous choisissez votre langue et votre moteur OCR, et hop c’est parti mon kiki.

Et pour les sorties, vous avez le choix : PDF, DOCX, HTML et d’autres formats. Vous pouvez même ajuster les paramètres d’export selon vos besoins. Auto-rotation, optimisation de police, tout est configurable !

Bref, au final ScribeOCR répare ces angles morts bien relou de la numérisation massive de documents sans que vous ayez à sacrifier votre vie privée !

Et ça c’est cool !

  •  

jIRCii - Le client IRC qui méprise vos envie de modernité

L’IRC c’est un classique pour les anciens du net comme moi et même si ça n’a pas techniquement disparu, c’est quand même plus comme avant. Discord, Slack, et compagnie c’est rigolo mais quand même moins roots qu’un bon vieux mIRC par exemple, qui continue d’être maintenu encore aujourd’hui (une nouvelle version est même sortie y’a 2 jours).

Mais il existe également un autre client IRC plus récent, qui assume fièrement son look des années 90 et qui vient de sortir en version 0.9 en juillet dernier. Et il a été créé par Raphaël Mudge, le mec qui a développé Cobalt Strike, l’un des outils de pentest offensif les plus balèzes du marché.

jIRCii est donc un client IRC écrit en Java pour MacOS X, Windows et Linux, développé par Raphael Mudge qui a décidé de snober volontairement Discord, Slack, et tous ces trucs avec des bulles colorées et des GIFs animés de chats. jIRCii tente ainsi de maintenir la culture IRC des années 90, avec un look de terminal Windows, sans fioritures, comme si, je cite : “mIRC et ircii avaient eu un enfant et que BitchX était le vrai père de cet enfant”. Tout un programme.

Et surtout, jIRCii est entièrement scriptable. Et pas avec du Python ou du JavaScript… Plutôt avec Sleep, un langage Perl-like que Mudge a créé lui-même. Y’a même une lib de scripts communautaires dispo ici pour ceux qui veulent. Cela vous permettra par exemple de chiffrer vos messages, d’afficher dans le canal le MP3 que vous êtes en train d’écouter, de jeter des dés pour votre partie de JdR, de faire des recherches Google, ou encore de pouvoir vous connecter automatiquement à différents serveurs avec différents nicknames.

L’IRC redevient ainsi une plateforme programmable comme à l’époque, notamment avec mIRC avec ses scripts .mrc (vous vous souvenez ?). Voilà, si ça vous chauffe parce que vous trainez encore sur IRC, sachez que jIRCii embarque toutes les fonctionnalités qu’on attend d’un client IRC moderne comme :

  • Liste de notification (savoir quand vos contacts se connectent)
  • Complétion automatique (auto-complétion des pseudonymes)
  • Transferts de fichiers DCC (envoi de fichiers direct de pair à pair)
  • Support CTCP (Client-to-Client Protocol pour les commandes étendues)
  • Connexions SSL aux serveurs (connexions chiffrées aux serveurs IRC)
  • Plus de 70 alias intégrés pour automatiser les commandes les plus courantes

Et en plus, 2 thèmes visuels sont proposés. Le thème par défaut avec son look de terminal classique et le thème Analog IRC qui est une variante visuelle du précédent. Et vous pouvez ajouter aussi ceux de la communauté (ou développer le votre)

Bref, vous l’aurez compris, IRC n’est pas mort. Il n’est juste plus dans le vent même si pas mal de communautés tournent encore dessus, et en 2025, jIRCii offre une alternative sympa à WeeChat (TUI pur), HexChat (GTK), ou KVIrc (Qt).

Le site de jIRCii c’est ici !

  •  

Xbox Full Screen Experience Tool - Pour libérer le mode console de Windows 11

Faut bien le reconnaitre, Microsoft a créé un super mode gaming dans son Windows 11. Une interface console pure avec un contrôle à la manette nickel, pas trop de consommation de RAM, une autonomie batterie boostée, un démarrage plus rapide et j’en passe !!

Ils ont fait un truc vraiment bien puis, comme d’hab ils l’ont verrouillé et réservé à une petite liste d’appareils certifiés. Bah oui, pourquoi améliorer l’expérience gaming de 100% de leurs clients quand on peut la réserver à seulement 2% d’entre eux ? lool

Heureusement, Xbox Full Screen Experience Tool règle ce problème en un clic. C’est un petit outil GUI développé par 8bit2qubit qui déverrouille le mode Xbox Full Screen Experience caché de Windows 11. Desktop, laptop, consoles portables, peu importe…

Le Xbox Full Screen Experience, c’est donc ce mode gaming officiel de Microsoft pour les consoles portables comme les ROG Ally qui propose une interface plein écran pensée d’abord pour jouer. Une fois qu’il est actif, vous bootez direct sur un dashboard qui ressemble à celui d’une Xbox et vos jeux sont tous là, avec tous vos stores intégrés (Xbox, Steam, GOG, Epic, Battle.net, EA), et bien sûr, vous naviguez à la manette sans jamais toucher un clavier !

C’est le pied ! Surtout que ce mode améliore les performances, réduit la consommation mémoire, et optimise la batterie. Bref, de gros avantages qui feraient du bien à TOUS les PC gaming, mais non, faut une certification obligatoire et tout le tralala… Enfin, jusqu’à maintenant ^^ héhé !

Cet outil permet donc de contourner cette absurdité. Il détecte votre type de machine (desktop, laptop, console portable), vérifie votre build Windows 11, et active les bons flags système. Développé en C# avec .NET 8, il utilise ViVeLib pour manipuler les feature flags de Windows et PhysPanelLib pour gérer les infos d’affichage.

Il propose également deux modes d’activation. Le mode recommandé (PhysPanelCS) fonctionne directement et le mode alternatif (PhysPanelDrv) installe un driver kernel léger si le premier ne suffit pas. Notez que sur certaines configs, ce mode nécessite de désactiver temporairement le Secure Boot. Pas parce que c’est dangereux, rassurez-vous mais parce que Microsoft a tellement verrouillé sa propre fonctionnalité qu’il faut un driver kernel juste pour la débloquer.

Voilà, d’après les tests, ce mode Xbox Full Screen Experience libère environ 2 GB de RAM en stoppant des processus Windows inutiles en mode gaming et sur un ordi portable, comme je vous le disais, ça booste l’autonomie. Puis sur un desktop, ça laisse plus de ressources pour vos jeux ! Bref, dans les deux cas, vous êtes gagnants !

Voilà, si ça vous chauffe, c’est à découvrir ici !

Et un grand merci à Lorenper pour le partage !

  •  

P2P Media Loader - Le retour discret de BitTorrent dans votre navigateur

BitTorrent c’était le diable dans les années 2000. Y’a eu des procès, des fermetures de trackers, et une guerre totale contre le piratage . Mais ça reste quand même une belle techno, notamment pour certaines plateformes de streaming un peu niche et solutions d’entreprise qui s’en servent discrètement afin d’économiser des millions en frais de CDN.

Car oui, avec le P2P, c’est vous qui payez la bande passante (en partie) ^^.

P2P Media Loader , c’est son nom est donc une lib JavaScript open source qui utilise WebRTC pour faire du streaming vidéo peer-to-peer directement dans votre browser. Vous regardez une vidéo, votre navigateur se connecte à d’autres viewers et vous échangez des segments vidéo entre vous. En gros, c’est comme BitTorrent, mais en version HTML5.

P2P Media Loader est donc la solution parfait pour réduire les coûts de bande passante des plateformes de streaming. Et tout ça de manière totalement transparente !

Techniquement, ça repose donc sur WebRTC et des trackers (comme BitTorrent) qui permettent aux navigateurs de se trouver entre eux ( y’a une démo ici ). Le projet utilise le protocole de signalisation de WebTorrent, ce qui veut dire que vous pouvez utiliser des trackers publics pour débuter, ou installer votre propre tracker si vous voulez gérer des gros volumes.

Et là, ça devient vraiment intéressant niveau scalabilité car avec un petit VPS à 3,50 €/mois et le tracker wt-tracker , vous pouvez gérer jusqu’à 20 000 viewers en simultané. Et si vous passez sur Aquatic (un tracker écrit en Rust), un serveur dédié 8 cœurs à 10-30€/mois peut tenir une charge de 100 000 viewers en simultané. Et si vous êtes vraiment radin (coucou les Auvergnats), Oracle Cloud offre un tier gratuit avec 4 cœurs ARM et 24 Go de RAM qui peut gérer des pics jusqu’à 100k peers sans rien débourser.

Et pour aller au-delà du million de viewers, il faudra passer sur du sharding (découpage en plusieurs trackers) avec différentes stratégies… Soit par contenu, soit par région géographique, soit par hash… Bref, des techniques classiques de distribution de charge, mais appliquées au P2P.

Le truc cool, je trouve c’est que ça fonctionne aussi bien pour du live que pour de la VOD, et même sur les apps mobiles iOS et Android. D’ailleurs, des projets comme PeerTube l’utilisent déjà pour réduire leurs coûts d’hébergement.

Bref, votre browser devient un mini-CDN en tout discrétion et ça permet aux personnes qui montent des infras de streaming, d’économiser de la thune.

Merci à Letsar pour le partage !

  •  

P2P Live Share - Pour coder à plusieurs sans donner son âme à Microsoft

Vous connaissez Live Share de Microsoft ? C’est un truc génial dans VS Code qui permet de coder à plusieurs en temps réel, de partager des terminaux, de debug ensemble. Sauf qu’il y a un petit détail relou : il faut un compte Microsoft ou GitHub. Et comme par hasard, toutes vos sessions doivent passer par les serveurs de Redmond.

Sympa donc pour la télémétrie.

Heureusement, P2P Live Share fait exactement la même chose, mais en peer-to-peer. Pas besoin de vous créer un compte, ça ne transite par aucun serveur intermédiaire, et surtout Microsoft ne mate pas votre code. Vous donnez simplement l’URL de la session à votre pote, il la colle dans son VS Code, et vous êtes connectés en direct, en P2P les amis, grâce à WebRTC !

Et l’extension fait tout ce qu’on attend d’un outil de collaboration à savoir du partage de code en temps réel, une synchronisation des curseurs, des terminaux partagés, du port forwarding, et même un chat intégré.

Une fois installé, quand vous lancez une session, P2P Live Share génère une URL unique avec un ID de room. Vous envoyez cette URL à votre collègue, il clique sur “Join”, et hop, vous êtes connectés en WebRTC direct.

D’ailleurs, selon la doc officielle , l’extension utilise plusieurs serveurs de signaling pour garantir la connexion : BitTorrent, Firebase, IPFS, Nostr comme ça, si l’un tombe, les autres prennent le relais. C’est du vrai décentralisé et vous pouvez même partager des ports, comme avec avec Live Share classique.

Comme ça, vous lancez un serveur web local sur le port 3000, et votre collègue peut y accéder directement depuis son navigateur. C’est super pratique pour tester une app en développement sans déployer quoi que ce soit.

Le terminal partagé fonctionne aussi très bien ! Vous ouvrez un shell, et votre pote peut taper des commandes dedans en temps réel. Bon, niveau sécurité, faut faire confiance à la personne en face mais c’est le même principe qu’avec Live Share.

Ce projet est open source sous licence MIT , donc vraiment libre et tout est chiffré de bout en bout. Alors oui, c’est moins mature que Live Share et forcément, il y aura des bugs mais au moins, vous ne filez pas votre code à Microsoft !

A découvrir ici !

  •  

ByteBot - L'agent IA qui prend le contrôle de votre ordi (mais dans Docker, faut pas déconner)

Vous saviez que Claude d’Anthropic avait lancé sa fonction Computer Use et OpenAI son Operator ? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.

Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.

Je vous ai fait une vidéo tuto dessus ! Et c’est grâce aux Patreons qui me soutiennent, alors merci à eux !

Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.

Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.

Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.

git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992

Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.

L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.

Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.

Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^

Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.

Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.

from bytebot import ByteBotClient

client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)

Et pour la sécurité, ByteBot implémente plusieurs garde-fous . Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.

Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.

Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.

Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.

Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.

Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la documentation complète ici , et le code source sur GitHub .

  •  

Quand le hasard fait mieux les choses !

En 1971, un psychiatre américain a écrit un roman culte sur un mec qui prenait toutes ses décisions en lançant un dé… Carrière, mariage, déménagement, tout passait par les six faces du hasard. La BBC l’a classé parmi les 50 livres les plus influents du 20e siècle et en 45 ans, il a vendu plus de 2 millions d’exemplaires. Ce livre c’est L’Homme-Dé (lien affilié) ou en anglais, The Dice Man de Luke Rhinehart et il a fait des petits car aujourd’hui, des tas de gens ont adopté le “dice living”. Moi j’ai découvert ça y’a quelques années grâce notamment à ce documentaire sur M6 diffusé dans l’émission 66 Minutes où on voyait des français appliquer ce genre de principes à leur vie quotidienne.

Alors évidemment, vivre 100% en suivant l’ordre d’un dé, ça finit rarement bien. Le roman de Rhinehart explore autant cette liberté enivrante que les conséquences destructrices de ce mode de vie mais vous savez j’aime le concret alors j’ai cherché ce que la science pouvait dire là dessus. Et j’ai trouvé des chercheurs de l’Université de Chicago qui se sont posés la bonne question : Est-ce que le hasard rend vraiment plus heureux ?

Ces derniers ont fait une étude avec des milliers de gens qui devaient prendre une décision majeure via pile ou face, puis suivre ou pas le résultat. Et la conclusion, c’est que ceux qui ont fait un changement majeur décidé par le hasard étaient significativement plus heureux que ceux qui sont restés bloqué dans un statu quo.

En fait, le résultat de la pièce ou du dé, on s’en fout au final. Ce qui compte vraiment, c’est surtout votre réaction qui suit. Si vous êtes déçu que ça tombe sur “pile”, vous savez instantanément ce que vous vouliez vraiment. Le hasard devient un révélateur de vos préférences cachées, et pas un décideur.

Le psychologue Albert Bandura, une figure majeure de la psychologie cognitive, a même admis que toute sa carrière avait été façonnée par le hasard. Le choix d’un cours décidé par un horaire aléatoire, la rencontre de sa femme sur un parcours de golf par pur accident…etc. Le hasard a construit sa vie sans qu’il ait besoin de lancer le moindre dé.

Vivre selon le hasard, ça pose un problème pratique. Il faut lancer un dé 50 fois par jour pour savoir quel café commander, quelle série regarder, quel dessert choisir…etc… c’est épuisant. Et ridicule socialement, il faut bien le dire.

C’est pourquoi, Nishan Devaiah a résolu ça avec une bonne vieille app qui s’appelle Luck by Chance . C’est sans pub, sans tracking, et dedans, y’a plein d’outils pour vous permettre de déléguer vos micro-décisions quotidiennes au Dieu du hasard.

Dans cette app, vous avez donc un pile ou face classique, du lancer de dé standard ou personnalisé (vous définissez le nombre de faces), un générateur de nombres aléatoires avec plage min/max, un outil “Oui / Non / Peut-être” qui fera plaisir aux normands. Et également une roue personnalisable où vous entrez vos propres options, une Magic 8 Ball pour les questions existentielles, un sélecteur d’émojis et de couleurs. Et même un “Qui commence ?” pour les soirées jeux.

Y’a TROP DE TRUCS dedans, je peux pas tout vous détailler donc le mieux pour vous c’est de l’installer et de la tester ! Et puis ça vous sera utile, je pense, non pas pour les décisions qui vont façonner votre vie mais plutôt pour les petits trucs qui vous cassent les couilles, genre quel t-shirt choisir ou quoi manger ce soir. D’ailleurs, des études en psychologie cognitive ont montré qu’on a tous un quota quotidien de “bonnes décisions” limité. Plus vous prenez des décisions banales, moins vous avez de jus mental pour les décisions importantes !

C’est pour ça que Zuckerberg porte le même t-shirt noir tous les jours, c’est pour ça qu’Obama ne choisissait que des costumes bleus ou gris et c’est pour ça que Donald Trump utilise qu’une dizaine d’adjectifs. C’est moins dur de choisir comme ça !

Luck by Chance automatise donc ce principe. Vous externalisez vos décisions insignifiantes au hasard pour préserver votre énergie mentale pour ce qui compte, par exemple, me suivre en live sur Twitch ! Et surtout, en faisant ça, vous désactiverez votre biais de contrôle, ce qui vous forcera à essayer des trucs que vous n’auriez jamais choisis consciemment.

Je vous laisse deviner ma question…

Par exemple, si la roue magique vous dit “pizza hawaïenne” alors que vous détestez l’ananas sur la pizza, bah vous fermez votre gueule et vous testez comme le ferait un vrai adulte et en plus, vous vous rendrez compte que c’est vachement bon !

Maintenant, à vous de jouer ! Lancez l’appli, et faites un pile ou face pour savoir si vous devez ou non me soutenir sur Patreon !

Merci à Lorenper pour la découverte !

  •  

LeechBlock - L'extension qui vous sauve de la procrastination

650 milliards de dollars, c’est ce que coûte la procrastination aux entreprises américaines chaque année selon les dernières études sur la productivité . En gros, on passe en moyenne 2 heures par jour à glander sur des sites qui n’ont rien à voir avec le boulot. Et je suis le premier concerné, surtout quand YouTube décide de me proposer une vidéo de 3 heures sur l’histoire complète des processeurs alors que j’ai un article urgent à finir et que je dois avancer dans Cyberpunk 2077 !

Heureusement, c’est là qu’intervient LeechBlock NG , une extension gratuite qui fait exactement ce que son nom suggère : elle bloque toutes ces sangsues virtuelles qui aspirent votre temps. Et contrairement à ce que vous pourriez penser, ce n’est pas juste un bête bloqueur de sites… Non non, c’est bien plus que ça, vous allez voir !

L’extension vous permet de configurer jusqu’à 30 ensembles de sites ou de mots clés différents, chacun avec ses propres règles. Vous pouvez par exemple bloquer X, et Mastodon de 9h à 17h en semaine, limiter Reddit à 10 minutes par heure, et interdire complètement YouTube après 22h pour éviter de tomber dans le trou noir des vidéos recommandées avant de dormir.

Ce que j’aime bien aussi c’est la possibilité d’utiliser des wildcards. Comme ça, au lieu de bloquer juste facebook.com, vous pouvez bloquer *.facebook.com pour couvrir toutes les sous-domaines. Pareil pour les sites de streaming avec *.netflix.com, *.youtube.com, etc. Et si vous avez besoin d’accéder à une page spécifique pour le travail, vous pouvez créer des exceptions. Par exemple, bloquer tout YouTube sauf les chaînes tech dont vous avez vraiment besoin.

La fonction “Lockdown” est aussi cool que brutale car ça boque instantanément tous vos sites configurés pendant une durée déterminée. C’est parfait quand vous sentez que votre volonté commence à faiblir et que l’envie de juste vérifier vite fait ce que partagent vos potes nazincels sur X.com devient irrésistible.

Il est aussi possible de recevoir un avertissement avant tout blocage pour que vous sachiez que le moment fatidique approche.

Et pour les plus malins qui pensent pouvoir contourner le système en désinstallant l’extension, LeechBlock propose une protection par mot de passe. Mettez un mot de passe aléatoire et donnez le à un collègue ou un ami et comme ça, vous serez bloqué pour de vrai. Sinon, vous pouvez aussi configurer un mot de passe de 32, 64 ou 128 caractères aléatoires que l’app vous obligera à recopier lettre par lettre pour accéder aux options. C’est bien relou, mais efficace !

LeechBlock reste à ce jour l’option gratuite la plus complète du marché. Y’a aussi StayFocusd sur Chrome a une interface plus jolie, mais LeechBlock offre beaucoup plus de flexibilité niveau configuration.

L’extension fonctionne sur Firefox, Chrome, Edge et tous les navigateurs basés sur Chromium comme Brave, Opera ou Vivaldi. Et surtout, son code est open source et dispo sur GitHub !!

Voilà, LeechBlock ne va pas changer votre vie du jour au lendemain, mais c’est un bon premier pas pour reprendre le contrôle de votre temps passé en ligne. Et vu que c’est gratuit et open source, vous n’avez vraiment aucune excuse pour ne pas essayer !

  •  

Compléter la Source de Contamination dans ARC Raiders : Un Guide

La quête Source de Contamination dans ARC Raiders vous plonge dans une enquête captivante chargée de découvrir les coupables qui polluent l’approvisionnement en eau de Speranza. Cette mission enrichit non seulement votre expérience de jeu, mais offre également des récompenses cruciales qui renforcent votre progression. Après avoir reçu la quête de Celeste, vous constaterez que […]

Le post Compléter la Source de Contamination dans ARC Raiders : Un Guide est apparu en premier sur Moyens I/O.

  •  

NoLongerEvil - Un nouveau souffle pour les thermostats NEST

Vous vous souvenez quand Google avait pour devise “Don’t Be Evil” ?

Hé bien, ils ont tellement bafoué sur leurs valeurs qu’un hacker vient de sortir un firmware appelé “No Longer Evil” pour ressusciter les thermostats Nest que Google vient également d’assassiner froidement.

En effet, le 25 octobre dernier, Google a coupé le support technique de ses thermostats Nest Gen 1 et Gen 2. Plus d’app, plus de contrôle à distance et plus d’intégrations smart home… Les thermostats continuent de chauffer selon les presets enregistrés, mais tout le reste est mort. Du coup, Google vous propose gentiment d’upgrader vers la Gen 4 à 149,99 dollars au lieu de 279 euros… Presque 50% de réduc, comme c’est généreux !

Cody Kociemba , le développeur derrière le projet collaboratif Hack/House, a décidé que non et c’est pour cela qu’il a lancé NoLongerEvil , un firmware custom qui redonne vie aux Gen 1 et 2.

Ce firmware modifié intercepte la couche de communication du thermostat comme ça, au lieu de parler aux serveurs Google, il redirige tout le trafic vers un serveur qui héberge une réplique de l’API Nest, développée par reverse engineering. Votre thermostat croit donc toujours qu’il cause avec Google, mais en réalité il parle à nolongerevil.com . Et vous, vous retrouvez le contrôle à distance, les réglages fins, et tout et tout sans Google dans la boucle.

L’installation passe par le bootloader OMAP en mode DFU. Vous flashez trois composants : x-load.bin (first-stage bootloader), u-boot.bin (second-stage bootloader), et uImage (kernel Linux). Vous aurez donc besoin d’un ordi Linux ou macOS, d’un câble USB, et d’au moins 50% de batterie sur le thermostat. Windows marche théoriquement avec MingW ou CygWin, mais les retours sont mitigés pour le moment…

Le mec a même reçu 15 000 balles de la part de la FULU Foundation qui “crowdfunde” des récompenses pour les développeurs qui libèrent des appareils proprios. Bien joué !

Et l’intégration Home Assistant est prévue dans son projet. Le firmware backend et l’API server seront d’ailleurs open sourcés bientôt donc chacun pourra aussi héberger son serveur. Kociemba prévient quand même que son projet est hyper expérimental donc ne flashez pas un thermostat qui serait critique pour votre chauffage parce que si ça foire, vous allez vous les geler cet hiver ^^.

En tout cas, maintenant les propriétaires de Nest Gen 1 ou 2 ont maintenant le choix de garder leur matos pleinement fonctionnel ! Et ça c’est cool !

Source

  •  

Reins - Un Ollama sur mobile sans faire tourner Ollama sur mobile

Vous voulez utiliser Ollama sur votre iPhone ou Android pour lancer vos petits LLM en local ? Ce serait super cool non ? Bah j’ai une mauvaise nouvelle pour vous… votre smartphone n’a pas assez de mémoire vive pour faire ça…

Le problème est simple… les LLM bouffent un max de RAM. Par exemple, un LLaMA 7B, c’est dans les 12 GB de RAM. Et même quantifié en int4 pour gagner de la place, vous tombez à environ 3,5 GB. Et ça, c’est juste le modèle hein… Faut y ajouter le contexte, l’OS, les autres apps, et votre smartphone à 8 GB de RAM commence à suer de la raie.

Google a bien sûr sorti Gemini Nano pour Android, leur petit LLM optimisé pour mobile mais c’est compatible avec une poignée de smartphone car il faut un NPU dédié, assez de RAM, et une architecture très récente. Les autres, vous irez vous faire voir…

Du coup, une solution “pragmatique”, c’est de laisser votre Mac, votre PC, ou un petit serveur faire tourner Ollama chez vous, et d’utiliser votre smartphone comme simple client pour vous y connecter à distance. Vous gardez vos données locales, vous profitez de toute la puissance des modèles lourds, et votre iPhone ne chauffe pas comme un radiateur.

Et pour ça, il existe tout un tas d’apps mobiles qui font office de client Ollama. Des apps comme Enchanted sur iOS, My Ollama , Heat , et même les solutions cross-platform comme Ollamb codé en Flutter. Et aujourd’hui, je vous parle de Reins , une app développée par Ibrahim Cetin qui se démarque par des fonctionnalités que j’ai trouvées bien pensées.

Les fonctionnalités sont conçues pour des cas d’usage du monde réel. Vous pouvez ainsi définir un prompt system différent par conversation ce qui est pratique si vous avez un chat pour le code, un pour l’écriture, un pour la traduction et j’en passe… Vous éditez et régénérez les prompts à la volée et vous pouvez changer de modèle en cours de conversation sans tout perdre.

Reins supporte également l’envoi d’images, ce qui est utile si vous utilisez un modèle vision comme LLaVA. Vous pouvez aussi tweaker les paramètres avancés tels que la température, seed, taille du contexte, tokens max…etc. Et le streaming fonctionne en temps réel, comme ça pas besoin d’attendre une réponse complète avant de la voir.

Bien sûr, la question de la sécurité se pose. Il faut quand même exposer votre serveur Ollama sur Internet pour y accéder de l’extérieur donc pensez HTTPS obligatoire, tunnel ngrok temporaire si vous testez, VPN Tailscale ou Wireguard si vous voulez du permanent et sécurisé. Bref, les précautions classiques.

Vous pouvez télécharger Reins sur l’App Store, en APK ou récupérer les builds macOS/Linux sur GitHub .

Merci à Lorenper pour l’info.

  •  

Bash-screensavers - Des économiseurs d'écran pour votre terminal

Un économiseur d’écran, je pense que tout le monde voit ce que c’est.

Bon c’était très utile à l’époque des vieux écrans CRT pour éviter qu’ils ne gardent une trace fantôme à cause d’une image statique, mais aujourd’hui sur nos écrans modernes c’est devenu complétement inutile. Toutefois on continue à les utiliser parce que c’est joli et sympa.

Et bien bash-screensavers c’est pareil. Ce projet transforme non pas votre écran, mais juste votre terminal en feu d’artifice ASCII, en matrice, ou en simulation de vie cellulaire. C’est tout aussi joli et sympa même si bien sûr faire tourner ces screensavers comme ça consomme probablement plus d’énergie CPU que de laisser votre terminal en pause avec du texte statique.

Bash-screensavers propose donc 11 thèmes différents … Il y a l’alpha qui affiche des pixels colorés aléatoires, le bouncing avec son “O” qui rebondit façon Pong, le classique matrix qui simule la pluie de code vert des films Wachowski, pipes qui génère un labyrinthe de tuyaux infini, fireworks qui lance des feux d’artifice ASCII, life qui implémente le jeu de la vie de Conway, rain pour une pluie apaisante, speaky qui parle de façon dramatique, stars qui affiche un champ d’étoiles scintillantes, tunnel qui vous fait voler dans un tunnel digital, et vibe pour tout ce qui est simulation de vibe coding.

L’installation est également hyper simple :

git clone https://github.com/attogram/bash-screensavers.git
cd bash-screensavers
./screensaver.sh

Vous arrivez alors sur un menu interactif qui vous propose de choisir parmi les 11 screensavers. Ou vous pouvez lancer directement un screensaver spécifique avec ./screensaver.sh matrix, ou un random avec ./screensaver.sh -r. Ctrl+C pour sortir.

Chaque screensaver est en réalité un script bash autonome placé dans le dossier gallery/. Par exemple, gallery/matrix/matrix.sh contient tout le code pour recréer l’effet Matrix et quand vous regardez le code, vous réalisez que c’est de l’interprété ligne par ligne un peu nul, pas super optimisé, avec des boucles while true, des sleep 0.05 pour ralentir l’animation, et des appels à tput cup pour positionner le curseur à chaque frame.

Tenez, prenons bouncing. Le script doit calculer la position du “O”, détecter les collisions avec les bords du terminal, inverser la vélocité, effacer l’ancienne position, afficher la nouvelle, attendre un peu, et recommencer. Ça consomme du CPU pour un effet visuel qu’on pourrait obtenir en CSS avec 5 lignes de code et zero conso de CPU dès le premier rendu. Mais bon, c’est du script bash alors c’est trop cooool !

Quoiqu’il en soit, mon préféré c’est life. C’est le Jeu de la Vie de Conway où vous avez une grille de cellules, et chaque cellule peut être vivante ou morte. ET à chaque génération, vous appliquez ces règles : une cellule vivante avec 2 ou 3 voisins vivants survit, sinon elle meurt. Et une cellule morte avec exactement 3 voisins vivants redevient vivante. Implémenter ça en bash, ça veut donc dire parcourir une matrice 2D, compter les voisins pour chaque cellule, stocker l’état suivant, et redessiner le tout.

Le vrai but de bash-screensavers, vous l’aurez compris, ce n’est donc pas de protéger votre écran. Ça on s’en fout. Non, le vrai but, c’est de signaler à vos collègues les boulzors que : “Je travaille, ne touchez pas à mon terminal”. Hé oui, la nature humaine est mal faites car si quelqu’un voit un terminal avec du texte statique, il peut penser que la session est abandonnée alors que s’il voit un terminal avec des pipes ASCII qui poussent en temps réel, il sait que quelqu’un a lancé ça volontairement.

Le projet inclut même une section Not Ready For Primetime avec des screensavers expérimentaux qui ne sont pas encore assez bien pour figurer dans la galerie principale. Et tout le monde peut apporter sa petite contribution.

Merci à Lorenper pour l’info.

  •  

Dead Domain Discovery DNS - Une veille mortuaire pour les domaines

Vous naviguez sur le web en mode pépouze comme tous les jours… Et comme tous les jours, votre navigateur charge des scripts, des CSS, des cookies, des images, parfois des iframes. Et malheureusement, certains de ces trucs viennent de domaines qui n’existent plus. Vous ne vous en rendez pas compte et votre navigateur non plus. Mais Dead Domain Discovery DNS le sait, lui. Et il va vous le dire.

Dead Domain Discovery DNS , c’est un outil créé par Lauritz Holtmann , un chercheur en sécurité allemand et c’est un DNS forwarder UDP super léger codé en Python qui écoute sur le port 53 de votre ordinateur et note tous les domaines qui ne répondent plus. Ce n’est donc pas un scanner actif mais plutôt un observateur passif qui regarde passer les requêtes DNS et repère les morts.

Vous configurez Dead Domain Discovery comme votre serveur DNS primaire comme ça, toutes vos requêtes DNS passent par lui. Il forward ensuite ça vers un resolver upstream, genre Google DNS ou Cloudflare. Si un domaine ne résout pas, il réessaye sur un resolver secondaire mais si le secondaire échoue aussi, il marque alors le domaine comme “potentiellement mort” puis toutes les 15 secondes, il vous envoie un message contenant les nouveaux domaines HS découverts.

Les notifications partent sur Telegram, par email, ou via un webhook selon ce que vous voulez. Rassurez-vous, y’aura pas de fausse alerte à répétition puisqu’un domaine notifié une fois ne l’est plus pendant un certain temps.

L’intérêt pour les chercheurs en sécurité, c’est que les domaines morts sont une surface d’attaque intéressante. Un domaine expire, quelqu’un d’autre le réenregistre mais comme les enregistrements DNS qui pointaient vers l’ancien propriétaire existent toujours, ça ouvre des portes pour mettre en place des sous-domaines, des CNAME, charger des scripts externes autorisés…etc car tout continue de pointer vers le domaine mort. Ça permet de contrôler une partie du trafic autorisé.

Cette attaque est connue et s’appelle le subdomain takeover ou domain hijacking. Par exemple en 2024, l’attaque Sitting Ducks a mis plus d’un million de domaines à risque , exploitée par des cybercriminels russes. Et début 2025, des domaines expirés ont permis de contrôler plus de 4000 backdoors sur des systèmes gouvernementaux, académiques et privés. La campagne SubdoMailing a même utilisé plus de 8000 domaines légitimes pour envoyer des emails de phishing, en exploitant leur réputation pour contourner les filtres anti-spam. Donc autant vous dire que c’est un vrai problème…

Dead Domain Discovery vous aide donc à trouver ces domaines avant qu’un attaquant ne le fasse. Ensuite, si le domaine est réenregistrable, vous avez 2 options. Soit vous le réenregistrez vous-même pour sécuriser votre infrastructure, soit vous signalez le problème au propriétaire du site qui référence ce domaine HS.

L’infra recommandée par Lauritz pour faire tourner Dead Domain Discovery est un Raspberry Pi configuré comme DNS primaire de votre réseau. Faible conso, c’est toujours allumé, et ça permet de tout surveiller en continu. Mais vous pouvez aussi le déployer sur un VPS si vous voulez monitorer un réseau distant.

Notez que les notifications Telegram nécessitent un bot API token et un chat ID. L’email passe par du SMTP classique et les webhooks acceptent des headers personnalisés, ce qui est pratique si vous voulez intégrer ça dans votre système de monitoring existant.

L’outil dispose aussi d’une extension Chrome qui fais la même chose et scanne les pages web pour iframes, scripts et autres styles externes, puis vérifie si leurs domaines résolvent. Même auteur, même principe, mais côté navigateur. L’extension utilise l’API Google DNS pour vérifier les domaines et ne communique aucune donnée à son auteur. Vous scannez, vous voyez les morts au combat, et ensuite, vous pouvez agir.

Bref, vous l’aurez compris, Dead Domain Discovery ne vous protègera pas directement mais vous dira juste quels cadavres traînent dans votre réseau.

À vous ensuite de les enterrer comme il se doit.

  •  

Networking Toolbox - La boite à outil open source de l'admin réseau

Vous êtes admin réseau et vous en avez marre de jongler entre différents outils pour calculer un masque de sous-réseau, vérifier un enregistrement DNS, ou tester une config DHCP ?

Ça tombe bien puisque Networking Toolbox débarque avec tous les outils réseau dont vous avez besoin dans une seule interface plutôt propre et carrée.

Le projet est développé par Alicia Sykes , une développeuse qui a déjà pas mal de projets open-source à son actif et son idée c’est de regrouper plus d’une centaine d’utilitaires réseau au même endroit, sans dépendances tierces, sans tracking, et avec une interface qui fonctionne aussi bien sur desktop que sur mobile.

Le site propose des outils dans cinq grandes catégories. Du calcul de sous-réseaux, avec des calculateurs IPv4 et IPv6, de la planification VLSM, des outils CIDR pour convertir des masques ou générer des plages IP. Ensuite, les diagnostics réseau : lookups DNS, vérifications TLS, tests de connectivité, analyses HTTP et email. Vous avez aussi des générateurs pour DHCP et DNS, avec création d’enregistrements, validation DNSSEC, et configuration de zones complètes. Et bien sûr, tout un tas d’utilitaires divers pour convertir, valider, et manipuler des données réseau.

Ce qui est pratique, c’est que vous pouvez bookmark n’importe quel outil avec un clic droit. Ça le rend accessible offline et l’épingle en haut de votre page d’accueil. Si vous utilisez souvent les mêmes choses, ça évite de naviguer dans les menus à chaque fois. L’interface supporte ausis plusieurs langues, plusieurs thèmes visuels, et se contrôle entièrement au clavier.

Niveau techno, c’est du Svelte avec TypeScript, compilé en SvelteKit. Les calculs se font côté client, donc pas de latence serveur et le code est publié sous licence MIT. Vous pouvez donc le déployer sur votre propre infrastructure si vous ne voulez pas utiliser l’instance publique.

3 options principales s’offrent à vous : un conteneur Docker qui se lance avec une ligne de commande, un déploiement sur des plateformes cloud comme Vercel ou Netlify, ou un build statique que vous hébergez où vous voulez.

Pour Docker, c’est hyper fastoche. Vous tapez

docker run -p 3000:3000 lissy93/networking-toolbox

et l’interface est alors accessible sur localhost:3000. Si vous préférez compiler depuis les sources, le repo est ici sur Codeberg . Vous le clonez, vous installez les dépendances avec yarn, et vous lancez le serveur de dev avec yarn dev. Le projet se compile en build statique, en build Node.js, ou avec des adaptateurs pour GitHub Pages et autres hébergeurs statiques…

Le plus intéressant, c’est que Networking Toolbox propose aussi une API gratuite, sans clé, sans restrictions CORS. Si vous développez vos propres outils ou scripts d’automatisation réseau, vous pouvez interroger l’API directement sans config particulière pour par exemple, convertir un masque, valider une plage IP, ou générer un enregistrement DNS programmatiquement !

Voilà, si vous administrez des réseaux ou si vous étudiez les infras, testez-le. Je pense que vous gagnerez du temps et vous arrêterez de chercher “subnet calculator” sur Google toutes les cinq minutes.

Merci à Lorenper et Letsar pour l’info !

  •  

EuroLLM - Le LLM européen qui tourne sur votre laptop

Faire tourner un modèle de langage européen sur votre machine sans avoir besoin d’un serveur surpuissant branché sur une centrale nucléaire, c’est maintenant possible, les amis ! Hé oui, EuroLLM vient de prouver qu’on pouvait faire tourner un modèle à 9 milliards de paramètres dans un peu moins de 6 GB de RAM sur un simple laptop.

Une seule commande Ollama , et c’est parti mon kiki !!!

Bien sûr, il est encore loin des gros modèles proprio comme GPT-5 mais c’est le enfin le premier LLM européen que VOUS pouvez faire tourner en local. C’est respectueux de votre vie privée, des droits d’auteurs et c’est gratuit !

Un projet 100% européen

EuroLLM, c’est en réalité une coalition de labos européens : Instituto Superior Técnico (Lisbonne), University of Edinburgh , Université Paris-Saclay , Unbabel , et d’autres et c’est financé par Horizon Europe et l’ EuroHPC , et ce modèle supporte les 24 langues officielles de l’UE, plus 11 langues supplémentaires (arabe, chinois, hindi, japonais, coréen, russe, turc…).

EuroLLM-9B , le modèle de base, a été entraîné sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 à Barcelone (400 GPUs Nvidia H100) et l’architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.

Mais il existe d’autres versions comme EuroLLM-1.7B pour smartphones et bientôt EuroLLM-22B pour plus de puissance, ainsi qu’une version vision-language (EuroVLM-9B) et un modèle Mixture-of-Experts (EuroMoE-2.6B).

Et surtout c’est sous licence Apache 2.0. Donc l’usage commercial est autorisé, vous pouvez le fine-tuner sur vos données, et les modifications sont libres, sans redevance à payer. Ce n’est pas la première fois qu’il y a des LLM européens mais ils étaient soit sous licence trop restrictives ou un peu trop lourd pour être utilisé localement par les gens normaux comme vous et moi.

Maintenant comment l’installer ?

La méthode la plus simple, c’est via Ollama :

ollama run hf.co/bartowski/EuroLLM-9B-Instruct-GGUF

Ollama télécharge le modèle en version GGUF (format optimisé CPU/GPU), et vous pouvez commencer à discuter. Il existe aussi une version pré-packagée alibayram/erurollm-9b-instruct (attention, erurollm avec un “u”), quantized en Q4_K_M pour réduire la taille à 5,6 GB.

Si vous préférez Python et Hugging Face Transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "utter-project/EuroLLM-9B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("Explique-moi ce qu'est un LLM en français simple", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0]))

Une fois téléchargé, le modèle reste en cache local. Vous pouvez alors l’utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne même sur des Raspberry Pi :

ollama run cas/eurollm-1.7b-instruct-q8

Alors pourquoi c’est important ?

EuroLLM ouvre l’IA européenne à des cas d’usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d’OpenAI… ce serait tout livrer aux américains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le modèle sur son ordi portable. Même un chercheur qui manipule des données médicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.

C’est cool quand même que l’Europe nous file un modèle gratuit qu’on peut installer chez soi et utiliser sans limite. Après c’est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d’utilisation réels tels que des résumés, de la traduction, des questions-réponses simples, de la génération de code basique.

La roadmap prévoit d’ajouter de la vision et de la voix aux modèles. D’ailleurs, comme je vous le disais, EuroVLM-9B est déjà en preview sur Hugging Face , ce qui ouvre la voie à de l’OCR multilingue, de l’analyse de documents visuels, ou encore à la création d’assistants vocaux dans n’importe quelle langue…

Voilà j’ai trouvé ça cool à tester et un grand merci à Letsar pour le partage !

  •  

SARCASM - Ce robot résout un Rubik's Cube en vous insultant

En mai de cette année, des étudiants de Purdue ont battu le record du monde du robot résolveur de Rubik’s Cube grâce à leur machine, Purdubik’s Cube qui a torché un cube en 0.103 secondes !! Plus rapide que moi mais surtout plus rapide qu’un clin d’œil !

Et pendant ce temps, un autre passionné de Rubik’s Cube, Vindar , bossait tranquillement sur SARCASM , un autre robot qui résout aussi des Rubik’s Cubes, sauf que lui, il prend son temps ! Et surtout, il vous clashe pendant qu’il le fait. Il a une voix, des animations, un système d’humeur, et une personnalité de collègue insupportable ! Il est lent, il est sarcastique, il est inutilement compliqué, et c’est exactement pour ça qu’il est génial, vous allez voir !

SARCASM, ça veut dire Slightly Annoying Rubik’s Cube Automatic Solving Machine . Déjà rien que le nom c’est tout un programme. Et ce robot n’a qu’un seul objectif : résoudre des cubes en étant légèrement casse couilles. Pas hyper rapide, pas hyper efficace, juste chiant ce qu’il faut.

Le projet a démarré pendant COVID, quand tout le monde était enfermé chez soi à chercher des trucs à faire. Certains comme moi ont fait de la brioche, d’autres ont regardé Netflix en boucle et Vindar, lui, s’est dit qu’il allait créer un robot qui insulte les gens. Et nous voilà, 5 ans avec un robot qui vanne. Oui, Vindar est du genre persévérant !

Techniquement, SARCASM est un concentré de tech aussi cool qu’absurde. Le cerveau, c’est un Teensy 4.1, un microcontrôleur ARM Cortex-M7 qui tourne à 600 MHz. Pour la vision, il a utilisé une ESP32-CAM qui capture l’état du cubeet un écran ILI9341 pour afficher une tête avec des animations lip-sync. Des moteurs pas à pas (je crois que c’est comme ça qu’on dit ^^) et des servos pour manipuler le cube, des capteurs de position, un chouette éclairage RGBW, deux batteries 18650 Li-ion avec un port de charge USB-C et il a calé tout ça dans un boîtier imprimé en 3D avec un PCB custom.

Mais le logiciel les amis, c’est là que ça devient vraiment foufou car y’a du text-to-speech avec espeak-ng, des graphiques 2D et 3D custom, des animations qui bougent en temps réel et même comme je vous le disais, un système de dialogues basé sur l’humeur du robot, avec randomisation pour que chaque interaction soit différente.

Evidemment, SARCASM dispose aussi d’un algorithme de résolution du cube avec du décodage JPEG en temps réel pour la reconnaissance des couleurs, du multithreading avec gestion d’interruptions, bref, tout ce qu’il faut pour résoudre des Rubik’s Cube et créer une personnalité à cette machine.

Le robot détecte même quand vous vous foirez en manipulant le cube, juste pour pouvoir vous clasher dessus. Chaque détail technique sert un seul objectif qui est de rendre cette machine “vivante”.

Pour faire tenir tout ça, Vindar a dû modifier le noyau du Teensy. Parce que oui, même avec 600 MHz et un ARM Cortex-M7, il fallait optimiser pour que tout rentre dans la RAM et il a mis tout son code en open-source, sous licence GPL-3.0. Après, comme le précise le dev, son code est incomplet et bordélique mais bon, ça fonctionne…

Et surtout, le robot est autonome. Vous posez un cube standard dessus, il le scanne, il calcule, il résout, tout ça offline sans API ou service de cloud.

Le projet a été présenté en détails sur le forum PJRC , la communauté autour des cartes Teensy et les retours sont unanimement positifs ! Puis au moment, celui-là on s’en souviendra !

Merci à Lorenper pour le partage de cette découverte !

  •  

SendMe - Pour partager des fichiers en P2P comme au bon vieux temps

Vous avez besoin de partager un gros fichier avec un pote au travers d’Internet ? Bon, y’a WeTransfer et ce genre de choses mais ça reste limité en taille de fichier et c’est stocké on ne sait où… Après vous pouvez tenter scp en priant pour qu’il n’ait pas 15 couches de NAT, mais bon galère quoi…

Bienvenue dans sur le nouvel Internet, où le peer-to-peer est mort et enterré sous des tonnes de NAT, de pare-feu et de FAI qui bloquent tout. Du coup, on a tous abandonné le P2P pour le cloud et on upload nos fichiers comme des cons, lentement, parfois en payant, au lieu de balancer la sauce en direct.

Heureusement, y’a SendMe qui vient nous rappeler qu’Internet peut fonctionner autrement. C’est un outil de transfert de fichiers qui connecte deux machines directement, sans serveur intermédiaire. Vous lancez sendme send ~/mes_photos, ça génère un ticket unique, vous envoyez ce ticket à votre destinataire, il tape sendme receive blobQmFoo..., et c’est parti mon kiki pour un transfert direct à l’ancienne, device-to-device.

Pas de compte, pas de limite, que dalle à configurer, juste deux machines qui se parlent directement, comme au bon vieux temps !

Le truc cool, c’est que SendMe utilise Iroh , un protocole P2P qui contourne tous les problèmes de NAT et compagnie puisqu’il fonctionne avec un système de “dial by public key” où chaque endpoint a une clé publique unique de 256 bits. Et ensuite, vous vous connectez en utilisant cette clé plutôt qu’une adresse IP.

Quand vous générez un ticket avec SendMe, ce ticket contient la clé publique de votre machine que le destinataire utilise pour se connecter chez vous. Peu importe que vous soyez derrière un NAT, que votre adresse IP change, ou que vous n’ayez aucune idée de ce qu’est un port forwarding. Iroh gère le NAT hole punching automatiquement, et si vraiment la connexion directe est impossible, il passe par un serveur relai en fallback.

Iroh, c’est du QUIC pur jus, un protocole de transport moderne dont je vous ai déjà parlé, qui apporte pas mal de trucs cools comme du chiffrement, de l’authentification par défaut (TLS 1.3), du multiplexage de streams, pas de head-of-line blocking, et connexion en zéro round-trip. Du coup, une fois connecté, les transferts peuvent saturer une connexion 8 Gbps sans problème !

Les fichiers sont ainsi streamés avec vérification Blake3, donc vous êtes sûr de l’intégrité des données et si le transfert est interrompu, pas de problème, il reprend là où il s’était arrêté. Et comme tout passe en chiffrement de bout en bout via QUIC, personne ne peut voir ce qui transite dans les tutubes de votre Internet.

L’installation sur Unix/Linux/macOS, un petit curl et hop, c’est plié :

curl -fsSL https://iroh.computer/sendme.sh | sh

Sur Windows:

iwr https://www.iroh.computer/sendme.ps1 -useb | iex

Vous vous retrouvez avec un binaire sendme prêt à l’emploi.

Maintenant, si vous préférez une interface graphique plutôt que la ligne de commande, il existe aussi AltSendme , une application desktop cross-platform qui utilise le même protocole Iroh. L’app est développée en Rust avec Tauri pour le backend et React + TypeScript pour le frontend et le gros avantage, c’est qu’elle est compatible avec SendMe CLI. Vous pouvez donc générer un ticket avec l’interface graphique et quelqu’un peut le recevoir en ligne de commande, ou vice-versa.

AltSendme ajoute également une couche d’interface utilisateur sympa tout en gardant toute la puissance technique d’Iroh… Même chiffrement de bout en bout (QUIC + TLS 1.3), même NAT hole punching, même vérification Blake3, mêmes téléchargements résumables. C’est dispo sous Windows, macOS (Intel et Apple Silicon), et Linux (deb et AppImage) et comme d’hab, le projet est open-source sous licence AGPL-3.0.

En février dernier, les dev ont ajouté le support navigateur via WebAssembly, ce qui signifie qu’à terme, vous pourrez faire du P2P directement depuis votre navigateur. Ils bossent aussi sur QUIC Multipath, une extension qui permet d’utiliser plusieurs chemins réseau simultanément pour encore plus de performance et de résilience.

L’idée derrière Iroh, c’est donc de redonner aux internautes le contrôle de leurs réseaux plutôt que de tout centraliser comme des teubés sous crack sur des serveurs Amazon, Google ou Microsoft. Ce protocole permet ainsi aux machines de se parler directement, comme Internet était censé fonctionner à l’origine.

SendMe et AltSendme ne sont que deux applications construites sur Iroh et ce protocole lui-même offre d’autres modules comme iroh-blobs (pour le transfert de fichiers verified) et iroh-gossip (pour la communication en temps réel). Vous pourriez donc construire du streaming vidéo avec priorisation de streams, du networking de jeux, de la communication temps réel, ou n’importe quelle app qui a besoin de connexions directes rapides et sécurisées entre devices, avec ce truc.

Merci à Lorenper pour le partage de cette découverte.

  •  

Silverbullet - Le wiki markdown dans lequel vous pouvez tout coder en LUA

En ce magnifique mardi matin, moi et mon mal de crâne, nous avons découvert un truc assez cool qui est un genre de wiki personnel en markdown, comme Obsidian ou Notion, mais avec un super pouvoir qui est que vous pouvez y écrire du code qui s’exécute directement dans vos notes !! Hé oui, du vrai code ! Pas des plugins, pas des extensions, mais du code Lua intégré dans votre texte comme si vos notes étaient devenues un environnement de dev à part entière.

Ça s’appelle SilverBullet , c’est open source (licence MIT), et franchement, si vous avez déjà bidouillé des configs Neovim ou des scripts Redis, vous allez kiffer car c’est beaucoup plus simple ^^.

Ça ressemble à n’importe quel wiki markdown moderne. Vous écrivez vos notes en local, elles sont stockées en fichiers statiques .md, vous avez des liens bidirectionnels pour connecter vos idées, et l’interface est optimisée avec des raccourcis clavier. C’est évidemment une Progressive Web App qui fonctionne 100% hors ligne ( comme expliqué sur leur site ), et vous gardez le contrôle total sur vos données, puisque tout est auto-hébergé sur votre machine ou votre serveur.

Ainsi, avec le scripting Lua intégré, vous pouvez littéralement taper ${10 + 2} dans une note et le résultat s’affichera en temps réel : 12 (vous l’aviez les matheux ?? ^^). Et si vous voulez une liste de vos 5 dernières pages modifiées qui se met à jour automatiquement, suffit d’écrire un petit bout de Lua, et hop, votre wiki devient “vivant”.

Alors oui, je sais ce que vous allez me dire, Obsidian a Dataview, Logseq a ses requêtes en Datalog…etc donc c’est pareil non ?

Et bien pas vraiment parce que Dataview ça vous demande quand même d’apprendre un DSL (Domain Specific Language) avec une syntaxe bizarroïde et de vous palucher les 50 pages de doc. Logseq quand à lui vous balance du Datalog sans trop d’explications. Alors que SilverBullet, lui, vous laisse écrire du Lua. Et le Lua, c’est simple, c’est dispo partout (Neovim, Redis, les addons World of Warcraft, OSB, etc.), c’est documenté, et c’est fait pour être embarqué dans des applications.

Si vous êtes data scientist, vous connaissez sûrement les Jupyter Notebooks qui sont markdown avec du code Python exécutable dedans. Hé bien SilverBullet fait exactement la même chose, mais pour vos notes personnelles. Vos notes ne sont plus des fichiers inertes, mais deviennent des mini-programmes qui peuvent calculer, générer du contenu, réagir à des événements…etc

Tenez par exemple, vous pouvez définir une fonction custom directement dans une page :

-- Additionner deux nombres
function adder(a, b)
 return a + b
end

Et ensuite l’utiliser n’importe où dans votre wiki avec la syntaxe ${adder(5, 7)}. Vous pouvez créer des commandes personnalisées qui apparaissent aussi dans la palette de commandes (Ctrl+K ou Cmd+K) :

command.define {
 name = "Insérer signature",
 run = function()
 local date = os.date("%Y-%m-%d")
 editor.insertAtCursor("---\nÉcrit le " .. date, false, true)
 end
}

Ou même des slash commands comme dans Notion, mais que vous codez vous-même :

slashCommand.define {
 name = "todo",
 run = function()
 editor.insertAtCursor("- [ ] |^|", false, true)
 end
}

Tapez /todo dans votre éditeur, et boum, ça insère une checkbox markdown avec le curseur au bon endroit. Vous voulez un compteur de mots qui s’affiche à chaque sauvegarde ? Un event listener comme ceci suffit :

event.listen {
 name = "page:save",
 run = function(e)
 local content = editor.getText()
 local word_count = select(2, content:gsub("%S+", ""))
 editor.flashNotification("Nombre de mots : " .. word_count)
 end
}

SilverBullet est développé en TypeScript (frontend avec Preact et CodeMirror 6) et Go (backend) et la doc officielle est disponible ici .

Même si ça fait bientôt 3 ans que c’est en dev, c’est encore un peu jeune et il y a d’ailleurs quelques limitations à connaître. Par exemple, y’a pas de gestion d’upload d’images pour l’instant (vous devez linker des images externes ou les placer manuellement dans le dossier), et comme c’est récent, l’écosystème de plugins n’est pas aussi fourni qu’Obsidian. Mais bon, quand vous pouvez coder vos propres fonctionnalités en Lua directement dans vos notes, la notion de “plugin” devient un peu inutile.

Alors plutôt que de vous expliquer encore pendant 10 paragraphes comment ça fonctionne, voici comment l’installer et tester vous-même.

Téléchargez d’abord le binaire qui correspond à votre OS (macOS, Linux, Windows) en cliquant ici .

Pour macOS et Linux , ouvrez votre terminal et tapez :

chmod +x silverbullet
mkdir mes-notes
./silverbullet mes-notes

Pour Windows, créez un dossier mes-notes, puis lancez dans PowerShell :

.\silverbullet.exe mes-notes

Le serveur démarre alors sur le port 3000 par défaut. Ouvrez votre navigateur sur http://localhost:3000 et vous y êtes. Vous pouvez aussi l’installer en Progressive Web App (PWA) pour l’utiliser comme une vraie application desktop, même hors ligne.

Et si vous préférez Docker, c’est encore plus simple :

docker run -p 3000:3000 -v ~/mes-notes:/space ghcr.io/silverbulletmd/silverbullet

Ça fonctionne sur Intel et ARM (Raspberry Pi, Apple Silicon), donc vous pouvez l’héberger sur à peu près n’importe quoi.

Voilà, donc si vous voulez une note qui génère automatiquement un journal de vos tâches incomplètes, une page d’accueil qui affiche vos stats d’écriture du mois ou encore un système de tags auto-généré avec des filtres dynamiques, tout est possible ! Et tout ça en écrivant du Lua directement dans le navigateur, sans plugins chelous.

Une fois que vous aurez goûté à ça, vous verrez que revenir à des notes statiques sera trèèèès compliqué.

Merci à friendly_0day pour m’avoir fait découvrir SilverBullet !

  •