Alors là, on touche au sublime les amis ! Parce que si vous pensiez avoir tout vu en matière de boot insolite, genre clé USB, PXE, disquette 5 pouces 1/4... Pffff, vous n'êtes qu'une bande de petits joueurs.
Jozef Bogin,
ce bidouilleur de génie
, que dis-je, ce GOAT, a réussi à faire booter un IBM PC (le modèle 5150, une légende !!) directement depuis... un disque vinyle. Oui, un bon vieux 45 tours.
Regardez-moi ça comme c'est beau :
Pour réussir ce tour de force, il a gravé une image disque de 64 Ko (contenant un noyau FreeDOS minimal) sous forme de signal audio analogique sur le disque. Grâce à une ROM personnalisée (une puce 2364 insérée dans le socket d'extension du BIOS) qui remplace le code de boot habituel, le PC récupère le son via son interface cassette. Les routines du BIOS se chargent ensuite de la démodulation du signal pour charger le tout en RAM. C'est un peu comme
émuler une disquette avec une clé USB
, mais en version hardcore analogique.
Techniquement, c'est un boulot de dingue. Il a dû adapter l'égalisation audio pour compenser la
courbe RIAA
du vinyle, gérer les niveaux au millimètre et coder ce fameux bootloader spécifique pour que la magie opère.
Perso, je trouve ça assez poétique et le son n'est pas sans rappeler celui de nos bons vieux modem 56k. Bref, si vous avez une platine et un PC IBM 5150 qui traînent, vous savez ce qu'il vous reste à faire.
Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?
Ça tombe bien puisque Google a sorti
Edge Gallery
, une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.
Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.
Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !
Ce qu'on peut faire avec
Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :
AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.
Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.
Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.
L'interface d'AI Edge Gallery sur Android
Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.
Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.
Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.
Les modèles disponibles
L'app propose plusieurs modèles selon vos besoins. On retrouve la famille
Gemma de Google
(Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.
Et les gardes fous sont facilement contournables...
Il y a aussi des modèles spécialisés comme
TranslateGemma
pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à
LiteRT
, le runtime léger de Google pour l'inférence on-device.
D'ailleurs, la communauté Hugging Face propose déjà pas mal
de modèles convertis au format LiteRT
donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.
Installation sur Android
Pour Android, c'est simple, direction le
Play Store
et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les
releases GitHub
si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).
Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.
Et sur iOS / macOS ?
Pour iOS, l'app est disponible en bêta via
TestFlight
. Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !
Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.
Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de
LM Studio
qui sont nativement compatibles.
Pourquoi c'est intéressant ce truc ?
L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.
L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".
Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)
Voilà, pour ceux qui veulent creuser,
le wiki GitHub du projet
contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.
Si vous pensiez que votre Wii ne servait plus qu'à caler un meuble ou à prendre la poussière au fond du placard, détrompez-vous, car cette dernière vient de retrouver une utilité totalement inutile donc indispensable : Commander des pizzas.
Un rétro-gamer du nom de Pete de la chaine Retro Game Attic a réussi l'exploit de se faire livrer une Domino's Pizza en passant commande directement depuis sa console de 2006. Et ça c'est pas grâce à Nintendo puisque la société japonaise a d'abord coupé les serveurs WiiConnect24 en 2013, puis le service Demae-Can (la chaîne de livraison) a cessé de fonctionner en 2017.
Mais c'était sans compter sur la communauté homebrew qui visiblement avait faim !!
Des projets comme RiiConnect24 avaient déjà ramené la Météo et les Infos mais ici, c'est l'équipe de
WiiLink
qui s'est attaquée au morceau en ressuscitant le "Demae Channel", cette chaîne de livraison qui n'était sortie qu'au Japon.
Du coup, grâce à leur boulot acharné, la chaîne est de nouveau utilisable, bien que limitée pour l'instant à Domino's US et Canada uniquement. Pete a fait la démo en vidéo, et franchement, l'interface a super bien vieilli. On choisit sa garniture, on valide, et hop, la commande part au restaurant.
Le seul hic, c'est que le paiement en ligne n'est pas supporté. Il faudra donc régler le livreur à l'arrivée et surtout, il ne semble pas y avoir d'option pour les codes promo. Mais bon, commander sa 4 fromages supplément St Nectaire avec une Wiimote, ça n'a pas de prix.
C'est quand même beau de voir des projets comme WiiLink qui continuent de maintenir en vie cette vieille console. J'aurais bien rebranché la mienne pour tenter de la brancher avec une Pizzeria à côté de chez moi parce que j'ai la daaaallle, mais malheureusement, je l'ai revendue y'a des années.
L'autre jour, je m'amusais à regarder ce qu'une petite application Android que j'avais installée
envoyait comme infos à ses serveurs
, et j'ai encore galéré avec une tripotée d'outils différents. Entre ADB pour récupérer le fichier, Apktool pour le désassembler, Jadx pour lire le code et les scripts de signature à rallonge, y'a de quoi se taper la tête contre les murs. On est en 2026, et le reverse engineering Android ressemble encore parfois à de la spéléologie sans lumière dans une grotte remplie de goudron.
Puis c'est là que je suis tombé sur apk.sh, et ça m'a sauvé ma soirée. C'est un script Bash tout simple, mais qui joue le petit chef d'orchestre pour automatiser toutes les tâches les plus chiantes : le pull, le décodage, la reconstruction, le patching et le renommage d'APK. Ça vous mâche le travail sur toute la partie technique pour que vous n'ayez plus qu'à faire un petit adb install à la fin... et voilà ! (Sans les "Trenti anni di qualità", évidemment ^^)
Le truc cool, c'est qu'il ne se contente pas de faire du "pull" et du "decode". Il gère également nativement l'injection de
gadgets Frida
pour faire de l'instrumentation dynamique, et ça, c'est vraiment le pied pour ceux qui veulent voir ce qui se passe en mémoire sans s'arracher les cheveux. Il peut même patcher automatiquement la configuration de sécurité réseau pour vous permettre d'intercepter le trafic HTTPS plus facilement. Par contre attention, si l'appli utilise du certificate pinning bien costaud, ça servira à QUE DALLE.
Si vous avez déjà essayé de
décompiler un APK et de le recompiler
, vous savez que la moindre erreur de signature ou d'alignement et c'est le drame. Ici, l'outil s'occupe de tout avec apksigner et zipalign de manière transparente. Et pour les plus barbus d'entre vous, il permet même de modifier directement le bytecode DEX via les fichiers smali pour éviter les bugs de décompilation Java qui font parfois pleurer un admin sys.
Pas besoin d'être root pour la plupart des fonctions, et il gère même les fameux bundles (AAB) que Google Play impose désormais et qui se transforment en "split APKs" une fois sur votre téléphone. En gros, vous faites un pull pour récupérer et fusionner tout ça en un seul APK, puis un decode pour obtenir un dossier tout prêt à être exploré.
C'est typiquement le genre d'outil que j'aurais aimé avoir à l'époque où je vous parlais d'Androguard pour
analyser des malwares Android
. On gagne un temps de fou malade et on peut se concentrer sur ce qui nous intéresse vraiment dans la vie, c'est à dire le fromage à raclette et la sieste comprendre comment ces applis nous pompent nos données ou juste changer la couleur d'un bouton pour le plaisir (ou des trucs qui vous enverront en zonzon ^^).
Bref, si vous aimez mettre les mains dans le cambouis Android, allez jeter un œil à ce projet pour vos prochaines sessions de reverse.
Si vous bidouillez un peu avec des modèles CoreML sur votre Mac Silicon, vous savez que c'est vite la croix et la misère comme je dis souvent... Car dès qu'il s'agit de tester un truc rapide, faut ouvrir Xcode, pisser du Swift, ou se battre avec des scripts Python... Bref, l'usine à gaz juste pour vérifier une prédiction vite fait.
Hé bien bonne nouvelle les amis, un petit outil en ligne de commande vient de sortir pour nous éviter de trop galérer.
Ça s'appelle coreml-cli et comme son nom l'indique, c'est une interface pour inspecter et lancer vos modèles depuis le terminal. L'objectif c'est de pouvoir manipuler vos fichiers .mlmodel sans jamais avoir besoin de lancer l'IDE d'Apple.
Si vous êtes chaud bouillant, ça s'installe hyper facilement via Homebrew :
brew tap schappim/coreml-cli
brew install coreml-cli
Et une fois que c'est là, vous pouvez TOUT faire. Genre vous voulez voir ce qu'il y a dans un modèle ? Hop, un petit coreml inspect MobileNetV2.mlmodel et vous avez toute la structure, les entrées et les sorties qui s'affichent.
Et pour lancer des prédictions, c'est également très simple plus simple. Par exemple, avec le modèle MobileNet qui détecte les objets présents dans une image, vous lui donnez une image, et avec l'option --json, il vous sort le résultat proprement.
Et pour ceux qui veulent automatiser des traitements, le mode "batch" permet de traiter tout un dossier d'images d'un coup. C'est quand même plus rapide que de le faire à la main un par un, comme le ferait un ingé de Perpignan nourri aux graines de chia.
Le développeur a même intégré un outil de benchmark pour mesurer la latence. Ça vous permet de lancer des tests sur le CPU, le GPU ou le fameux Neural Engine d'Apple pour comparer les perfs. C'est le top pour optimiser vos apps avant de les déployer.
Du coup, si vous bossez avec de l'IA locale sur Mac, un peu comme ce qu'on a déjà testé par le passé avec
MocoLlamma
ou
sur de gros clusters Mac Studio
comme ce furieux, ce petit binaire risque de vite devenir indispensable dans vos scripts CI/CD.
Vous connaissez Sonic Pi, ce logiciel génial pour coder de la musique que je vous ai déjà présenté ? Hé bien Sam Aaron, son créateur, remet le couvert avec son nouveau projet baptisé Tau5.
Si vous avez déjà testé le live coding, vous savez comme moi que c'est une joie totale de pouvoir balancer des boucles en tapant quelques lignes de code, mais là Sam pousse le délire beaucoup plus loin. Ce nouveau joujou, c'est un peu le grand frère de Sonic Pi, pensé dès le départ pour la collaboration, mais aussi la sécurité et la compatibilité web.
Sam Aaron lors de sa keynote GOTO 2025
L'ambition de Tau5 c'est que l'outil puisse à terme intégrer des agents IA via le protocole MCP. Bien sûr, l'objectif n'est pas de remplacer le musicien (ouf !), mais de lui offrir un partenaire d'improvisation qui pourrait l'aider à crafter des boucles ou ajuster des paramètres. C'est en tout cas la vision que Sam a partagée lors de sa keynote au GOTO 2025.
Sous le capot, le système repose sur la machine virtuelle Erlang (BEAM), sur laquelle tourne aussi Elixir. C'est une architecture connue pour sa tolérance aux pannes, comme ça même si vous faites une erreur de syntaxe en plein set, le système encaisse sans que tout s'effondre et vous colle la honte avec des gens qui viendront vous dire à la fin de votre concert : "Hahaha, c'est nul t'es trucs d'IA, ça marche pas, tu vois bien que l'humain n'est pas prêt d'être remplacé ! Hahaha, loser"
Pour ceux qui se demandent ce que ça change par rapport à Sonic Pi, c'est surtout la dimension collaborative qui est mise en avant pour le futur. Avec cette nouvelle mouture, l'objectif c'est de permettre à plusieurs personnes de coder ensemble, potentiellement assistées par une IA. Je trouve que c'est une évolution de la création musicale par ordi plutôt logique vers quelque chose de plus connecté.
Si le sujet vous branche, je vous remets le lien vers mon article sur
la découverte de Sonic Pi
, histoire de voir d'où on part. Bref, tout ça reste trèss fidèle à la philosophie de Sam qui est depuis le début de rendre le code accessible et créatif à tous.
Bref, si vous aimez la musique, le code, ou juste voir des gens brillants repousser les limites, jetez un œil
à sa présentation
ou
au dépôt GitHub
.
Qui n'a jamais eu envie de savoir si "KikouLolDu93" avait aussi un compte sur un site de rencontre ou un forum obscur de haxx0rs ? C'est humain, c'est de la curiosité... ou de l'OSINT (Open Source Intelligence) si vous voulez faire genre vous êtes un pro. Et pour ça, j'ai l'outil qu'il vous faut : Social Analyzer.
Ce script est un détective privé numérique qui va frapper à la porte de plusieurs centaines de sites (Facebook, X (ex-Twitter), Instagram, Tinder, et des trucs bien plus niches) pour vérifier la présence d'un pseudo.
Développé par qeeqbox, Social Analyzer ne se contente pas de tester une URL. Il analyse les pages, vérifie les métadonnées, et vous sort un score de confiance de 0 à 100. Notez qu'un score de 100 n'est pas une preuve d'identité absolue (on n'est pas à la police scientifique), mais une forte probabilité basée sur les signaux trouvés. À l'inverse, un score de 0 peut signifier que c'est un homonyme, ou simplement que le site a bloqué la requête. Ça évite en tout cas de stalker la mauvaise personne trop vite.
L'outil est codé en JavaScript et Python, et vous pouvez l'utiliser en ligne de commande ou via une interface web plutôt propre si le terminal vous donne de l'urticaire.
Comment on installe la bestiole ?
Vous avez plusieurs options, mais la plus simple si vous avez Python 3 d'installé, c'est via pip (vérifiez bien que c'est le paquet officiel) :
pip3 install social-analyzer
Et hop, c'est réglé. Ensuite pour lancer une recherche rapide, c'est aussi simple que :
social-analyzer --username "le_pseudo_a_chercher"
Si vous êtes plus team NodeJS, vous pouvez aussi cloner le dépôt GitHub et lancer ça à la main :
git clone https://github.com/qeeqbox/social-analyzer.git
cd social-analyzer
npm install
npm start
Ça lancera l'interface web sur votre machine (généralement sur le port 9005), et vous pourrez faire vos recherches tranquillement en cliquant sur des boutons.
Et ça marche vraiment ?
Franchement, oui. C'est même assez bluffant de voir tout ce qui ressort. Il peut même tenter d'extraire des infos supplémentaires comme la bio ou l'avatar si les sites ne sont pas trop protégés contre le scraping.
Par contre, petit disclaimer habituel : ce genre d'outil, c'est pour de l'investigation légitime. Genre vérifier vos propres traces numériques pour faire du nettoyage, ou pour des enquêtes de sécu. Ne commencez pas à l'utiliser pour harceler les gens, le web n'a pas besoin de ça.
D'ailleurs, si le sujet de l'OSINT vous branche, jetez un œil à mon article sur
Blackbird
qui fait un boulot similaire, ou apprenez à
analyser un profil GitHub
comme un chef.
Bref, Social Analyzer c'est puissant, c'est open source, et ça fait le café. À utiliser avec intelligence évidemment !
Vous utilisez Claude Code et vous passez votre temps à copier-coller vos logs de terminal pour lui donner du contexte ? Du genre, vous lancez une commande, ça se plante comme une merde, et là faut expliquer à l'IA ce qui s'est passé en faisant des screenshots ou du copier-coller à la main.
C'est vite relou mais heureusement, c'est totalement le problème que résout
Wake
, un petit outil en Rust qui enregistre automatiquement tout ce qui se passe dans votre terminal et le donne en offrande sacrée à Claude Code via le protocole MCP. Du coup, plus besoin de jouer les secrétaires IA, puisque Claudo Code, euuh Claude Code peut interroger votre historique de commandes avec les sorties et le contexte git quand il en a besoin.
Au début, vous lancez wake shell et hop, vous êtes dans une session enregistrée. Ensuite toutes vos commandes, leurs sorties, et même les infos de votre repo git, tout est capturé et stocké localement dans une base SQLite bien planquée dans ~/.wake/. Puis quand vous posez une question à Claude Code, il peut aller piocher dans cet historique pour comprendre ce que vous avez fait.
L'installation se fait en une seule ligne (allez lire le script comme d'hab, hein) :
curl -sSf https://raw.githubusercontent.com/joemckenney/wake/main/install.sh | sh
Après faut ajouter l'init dans votre .zshrc ou .bashrc :
eval "$(wake init zsh)"
Et pour brancher ça sur Claude Code :
claude mcp add --transport stdio --scope user wake-mcp -- wake-mcp
Côté commandes, y'a wake log pour voir l'historique récent, wake search "machin truc" pour fouiller dedans, wake dump pour exporter en markdown et wake annotate "note" si vous voulez ajouter des petites marqueurs pour vous y retrouver plus tard. Le stockage reste en local sur votre machine, et les sorties sont limitées à 1 Mo par commande pour éviter de saturer la base.
Donc si vous êtes le genre de gaillard.e sans peur à
laisser Claude piloter votre terminal
ou à utiliser
plusieurs agents en parallèle
, c'est le genre d'outil qui peut vraiment vous faire gagner du temps car là où avant fallait tout expliquer à l'IA, maintenant elle voit directement ce que vous avez fait et pourquoi ça a merdé.
Le projet vient de sortir en v0.1.0, donc c'est encore tout frais. Ça supporte zsh et bash pour le moment. Par contre, fish c'est pas encore au programme.
Vous passez vos journées dans un terminal et vous avez craqué pour
Ghostty
? Sauf que voilà... éditer un fichier de config à la main, c'est un peu comme remplir et payer sa déclaration d'impôts. On sait qu'on peut le faire, mais on préférerait que quelqu'un d'autre s'en charge.
Du coup, un développeur de la communauté a eu la bonne idée de créer Ghostty Config, une interface web qui permet de configurer son terminal sans toucher à un seul fichier texte. Vous sélectionnez vos options dans des menus déroulants, vous cochez des cases, et hop, ça génère la config toute seule.
Le truc cool c'est que l'outil couvre pas mal de terrain : les polices (avec un playground pour tester en direct), les couleurs, les raccourcis clavier, les curseurs, la transparence... Et des presets communautaires sont prévus pour ceux qui ont la flemme de tout paramétrer à la main.
Une fois que vous êtes content du résultat, vous exportez le fichier de config et vous le collez dans votre dossier Ghostty. L'inverse marche aussi, vous pouvez importer votre config existante pour la modifier visuellement. Pratique si vous avez déjà passé des heures à peaufiner votre setup et que vous voulez juste ajuster deux ou trois trucs.
Bref, si vous voulez profiter de Ghostty sans vous farcir la doc des 200+ options de configuration,
c'est par là que ça se passe
.
Microsoft vient de confirmer qu'ils filent les clés de chiffrement BitLocker au FBI quand celui-ci débarque avec un mandat. Et même si on s'en doutait fooort, c'est
la première fois
qu'on a la preuve que ça arrive vraiment.
L'affaire s'est passée à Guam (une île américaine dans le Pacifique), où des agents fédéraux enquêtaient sur une histoire de fraude. Ils avaient besoin d'accéder aux ordis de suspects, sauf que les disques étaient chiffrés avec
l'outil BitLocker
, le chiffrement intégré à Windows. Du coup, ni une ni deux, le FBI a envoyé un mandat à Microsoft pour récupérer les clés de récupération stockées dans le cloud.
Et Microsoft a dit oui, bien sûr, voilà les clés, servez-vous, c'est cadeau !
Le truc, c'est que par défaut, quand vous activez BitLocker sur un PC avec un compte Microsoft, Windows envoie automatiquement une copie de votre clé de récupération sur les serveurs de Redmond. C'est présenté comme une fonctionnalité pratique, genre "au cas où vous oubliez votre mot de passe". Sauf que du coup, Microsoft a accès à vos clés.
Et si Microsoft a accès, le gouvernement aussi.
Côté Apple, c'est une autre histoire. J'sais pas si vous vous souvenez de l'affaire de
San Bernardino
en 2016 mais le FBI avait demandé à Apple de créer un firmware spécial pour désactiver les protections anti-bruteforce de l'iPhone d'un terroriste. Tim Cook avait dit non. Pas parce qu'Apple ne pouvait pas techniquement le faire, mais parce que créer cet outil aurait ouvert une brèche pour tout le monde.
Microsoft, eux, ont fait le choix inverse. Leur architecture
permet explicitement
de conserver une copie des clés côté serveur. Alors oui, c'est pratique si vous perdez votre mot de passe, mais c'est aussi une porte d'entrée pour quiconque a un mandat... ou autre chose.
Microsoft dit recevoir environ 20 requêtes par an pour des clés BitLocker, et qu'ils ne peuvent pas toujours y répondre, genre quand l'utilisateur n'a pas activé la sauvegarde cloud.
On s'en serait douté...
Bref, si vous utilisez BitLocker et que vous tenez vraiment à ce que vos données restent privées, désactivez la sauvegarde automatique de la clé sur le compte Microsoft.
Concrètement, pour cela vous avez deux options : utiliser un compte local au lieu d'un compte Microsoft (la clé ne sera jamais envoyée dans le cloud), ou si vous êtes sur Windows Pro/Enterprise, passer par les stratégies de groupe (gpedit.msc → Configuration ordinateur → Modèles d'administration → Composants Windows → Chiffrement de lecteur BitLocker) pour forcer la sauvegarde locale uniquement.
Autrement, vous pouvez aussi simplement sauvegarder votre clé sur une clé USB ou l'imprimer. C'est moins pratique, mais au moins elle reste chez vous.
Pendant qu’on s’écharpe en Europe sur comment réglementer l'IA, la Corée du Sud vient de siffler la fin de la récré chez elle. Nos amis Coréen viennent en effet de pondre leur première loi qui encadre l’intelligence artificielle (l’AI Act coréen, pour les intimes) et ce qu'on peut dire, c’est que leur approche est très très différente de la nôtre, vous allez voir.
En fait, chez nous, avec l’AI Act européen, on régule principalement par le "risque d’usage". Cela veut dire que si vous faites un outil pour du recrutement, de la santé ou du maintien de l’ordre, hop, vous tombez dans la catégorie "haut risque", et cela peu importe que votre IA tourne sur un Raspberry Pi ou un supercalculateur.
Alors oui l’UE a aussi ses seuils de calcul (les fameux
10^25 FLOPs
) pour identifier les modèles à "risque systémique", mais la base reste quand même l’usage. Les Coréens, eux, ont décidé de se simplifier la tâche en plaçant le curseur presque exclusivement sur ce qu’il y a sous le capot.
Leur critère magique c'est la puissance de calcul cumulée lors de l’entraînement. Et c'est cela qui leur permet de définir ce qu’ils appellent la "high-performance AI" (ou Frontier AI). Pour les devs, c’est un changement complet car si vous codez un petit outil IA bien foutu mais léger, vous aurez une paix royale. Vous esquiverez une paperasse infinie ou de la mise en conformité bloquante si votre projet ne dépasse pas les seuils techniques fixés par le MSIT (le ministère coréen de la science et des TIC).
Et c’est d’ailleurs ce qui rend leur approche très orientée innovation. Le gouvernement coréen a d'ailleurs été très clair : le but n’est pas de bloquer le développement mais de poser un cadre de confiance. Ils ont même prévu une période de grâce d’au moins un an sans aucune sanction administrative le temps que tout le monde s’adapte. Et même après ça, on est loin du climat carcéral car il n'y a pas de sanctions pénales prévues dans cette loi, mais juste des ordres de correction et des amendes plafonnées à 30 millions de won (environ 21 000 euros) si vous ignorez les injonctions.
J’avoue, j’ai dû relire trois fois le texte pour piger la subtilité, mais le diable se cache dans les FLOPS. Parce qu'au moment où j'écris cet article, il n'y a actuellement aucune entreprise en Corée qui dépasse les seuils de puissance de calcul qui rentrent dans le cadre de leur loi. Même
Naver, leur géant de la Tech local est loin de ça
. C’est dire si la marge est grande.
Après côté transparence, c’est plus classique mais efficace car tout contenu généré par IA qui pourrait être confondu avec la réalité (les deepfakes, pour faire court) doit être clairement indiqué. C’est le minimum syndical aujourd’hui, vous allez me dire, mais là encore, ils ont eu le nez creux en excluant les usages personnels ou non commerciaux du cadre réglementaire, histoire de ne pas fliquer le moindre mème rigolo.
Voilà... alors on va voir qui de la méthode "compteur de tours" ou "check-list de risques" gagne la course, mais bon j'ai ma petite idée. En Europe, on a tendance à vouloir tout border par secteur, alors qu’en Corée, visiblement, ils préfèrent économiser du temps et de l'énergie en surveillant uniquement les gros muscles et en laissant les petits grandir sans les emmerder.
Et même si je ne connais pas du tout l'écosystème tech coréen, force est de constater que leur vision a l'air sacrément plus pragmatique pour l’écosystème tech que la notre.
Un modèle text-to-video open source, gratuit et capable de tourner ailleurs que sur un supercalculateur de la NASA ?
J'avoue, j'ai cru au fake en découvrant le truc, surtout quand on voit la puissance de feu qu'il faut chez OpenAI (Sora) ou Google (Veo) pour sortir le moindre clip de 3 secondes. Mais BON, parfois, il suffit de deux frères motivés pour bousculer un peu les géants de l'IA.
Et c'est 2 frères, ce sont Sahil et Manu Chopra, qui depuis l'automne 2022 bosse avec acharnement sur leur modèle de génération de vidéos baptisé Linum.
Leur histoire est assez dingue et c'est pour ça que je vous la raconte aujourd'hui. En fait, au début, ils ont fait comme tout le monde. C'est à dire qu'ils ont essayé de bidouiller Stable Diffusion XL pour lui faire cracher de la vidéo. Ils ont fini par mettre au point une extension un peu "hacky" basé sur un modèle image, sauf que ça ne marchait pas très bien.
Enfin si, ça sortait des GIFs d'une seconde en 180p pour Discord mais pas vraiment de quoi faire trembler Hollywood et
Matthew McConaughey
(lol). Le problème, c'est que les VAE (les encodeurs d'images) ne comprennent rien au temps qui passe, alors ils traitent chaque frame indépendamment et ça donne cet effet de scintillement insupportable qu'on retrouve dans pas mal de générateurs vidéo libre ou open source.
Du coup, ils ont pris une décision radicale. Tout foutre à la poubelle et repartir de zéro !
Ils ont donc passé deux longues années à batir Linum v2 "from scratch". Cela veut dire qu'il ont du trouver les données, entraîner des modèles de vision pour filtrer le dataset, mettre manuellement des légendes sur des milliers de vidéos, gérer les clusters de GPU... et j'en passe !
Et à la clé de tout ce travail, ils ont fini par obtenir un modèle de 2 milliards de paramètres (ce qui est minuscule pour de la vidéo, je tiens à le dire) capable de générer des clips de 2 à 5 secondes en 720p !
Et le plus beau c'est que c'est sous licence Apache 2.0 donc en open source.
Pour réussir cette prouesse, ils n'ont pas eu d'autre choix que d'être malins.
Par exemple, ils ont choisi d'utiliser le VAE de Wan 2.1 (qui gère très bien la compression temporelle) pour ne pas réinventer la roue sur cette partie. Leur vision en fait, c'est de voir ces modèles comme des "moteurs de rendu inversés". Au lieu de placer des polygones et des lumières comme dans Blender, vous décrivez la scène et le modèle fait le reste.
Linum est un modèle encore jeune et la physique est parfois aux fraises puis ça manque de son mais pour une équipe de deux personnes face à des boîtes qui ont des milliards de budget, le résultat est plutôt pas mal. Faut saluer le taf !
Donc si vous avez une machine qui tient la route (ou un bon cloud) et quelques compétences techniques, sachez que les poids sont disponibles sur
Hugging Face si ça vous chauffe
.
On croirait encore lire le scénario d'un nouveau Terminator, mais pour une fois, ce n'est pas de la science-fiction. Tenez vous bien, il y a actuellement ne résistance souterraine qui est réellement en train de s'organiser pour lutter contre les géants de l'IA.
Leur nom de code : "Poison Fountain".
Je suis tombé sur
cet article de Craig Smith chez Forbes
que je vous invite à lire et qui détaille ce mouvement d'un nouveau genre. Alors pour le moment, ça tient plus du manifeste un peu énervé que du logiciel de résistance clé en main, mais l'intention est claire. Ce que veut faire Poison Fountain c'est "miner" le web avec des données piégées pour que les prochaines générations d'IA s'intoxiquent en les ingérant.
Leur méthode repose sur des outils comme
Nightshade
, dont je vous ai déjà parlé, avec lequel vous prenez une image, disons une vache et l'outil modifie les pixels de façon invisible pour l'œil humain, de sorte que l'IA l'interprète ça comme... un camion. Alors que nous, avec nos petits yeux nous voyons toujours Marguerite.
Ainsi, si un modèle avale trop de ces données corrompues, il ne devient pas juste moins performant, mais commence également à faire des associations délirantes. C'est le principe du data poisoning et si Poison Fountain parvient à encourager massivement cette pratique, les crawlers d'OpenAI ou Google vont avoir des sueurs froides.
Bon, il ne faut pas s'emballer non plus car nettoyer un dataset contaminé est un enfer technique (il faut parfois tout réentraîner), mais les ingénieurs en face ont de la ressource. Ils finiront probablement par filtrer plus agressivement ou par se rabattre sur des données certifiées et sous licence. C'est plus cher, c'est moins frais, mais c'est la parade logique.
En tout cas, c'est le genre de dérive que craignait
Geoffrey Hinton
en quittant Google sauf que la perte de contrôle n'est pas accidentelle mais provoquée volontairement par des artistes et des activistes.
Alors est-ce du cyber-vandalisme comme l'a été le DDoS à une époque, ou est-ce de la légitime défense ?
Le débat est lancé, tout comme la guérilla de la data !
Bon alors pour les deux du fond qui dorment près du radiateur, OpenTTD est un clone open source du jeu culte de Microprose, « Transport Tycoon Deluxe » (1995). Le principe est simple : vous êtes à la tête d'une société de transport et votre but est de faire un max de bénéfices en trimballant des passagers et des marchandises par train, camion, bus, avion ou bateau.
C'est un peu le SimCity du transport quoi.
Bref, ce jeu est un monument. Et la bonne nouvelle, c'est qu'il est toujours vivant ! Mieux que ça, il vient de sortir en version 12.0 (et depuis la 13, 14...) et c'est une mise à jour qui change tout.
Le gros morceau de cette version, c'est le multijoueur. Fini la galère de l'ouverture de ports sur votre box internet ! Les développeurs ont enfin intégré un système qui gère ça tout seul. Vous lancez le serveur, vous filez le code d'invitation à vos potes, et hop, c'est parti. On peut même créer des serveurs "privés" uniquement accessibles via ces codes.
Autre truc qui va faire plaisir aux moddeurs fous : la limite des NewGRF (les fichiers qui ajoutent des graphismes, des véhicules, etc.) passe de 64 à 255. Autant dire que vous allez pouvoir modder votre jeu jusqu'à ce qu'il ne ressemble plus à rien.
Ah et un détail qui n'en est pas un, on peut enfin construire des rivières en diagonale en maintenant la touche CTRL. Ça parait con dit comme ça, mais pour les esthètes du terraforming, c'est une révolution.
Si vous aimez ce genre de simulation, je vous conseille aussi de jeter un œil à
Simutrans
qui est dans la même veine, ou encore à la communauté incroyable qui maintient
SimCity 4 en vie depuis 22 ans
. C'est fou ce que l'open source et les passionnés peuvent faire.
D'ailleurs si vous cherchez d'autres pépites du genre, j'avais listé
plus de 1500 clones open source
de jeux cultes. Y'a de quoi s'occuper pour les 10 prochaines années.
Bref, OpenTTD c'est gratuit, c'est dispo sur Windows, macOS, Linux et même Android, et c'est toujours aussi addictif.
Vous pensiez avoir tout vu avec les manipulations d'images ? Les générateurs de mèmes, les filtres rigolos, tout ça... Bon, on rigole bien entre potes. Sauf que là, c'est la Maison Blanche qui s'y met et tristement c'est pas pour faire du "lol".
Je vous explique le délire. Jeudi dernier, l'administration Trump a voulu crâner sur les réseaux sociaux. Ils ont annoncé l'arrestation de plusieurs manifestants qui avaient perturbé un office religieux dimanche dernier à Cities Church (St. Paul). Ils protestaient contre un pasteur, David Easterwood, qui serait également le directeur par intérim de l'antenne locale de l'agence fédérale U.S. Immigration and Customs Enforcement (ICE).
Jusque-là, de la politique classique. Mais là où ça dérape sévère, c'est quand ils ont balancé la photo de l'une des personnes arrêtées. La dame en question s'appelle Nekima Levy Armstrong et c'est pas n'importe qui. Avocate des droits civils, ancienne présidente du chapitre de Minneapolis de la NAACP. Elle est une figure très respectée. Sur la photo originale de son arrestation, elle a un visage neutre. Digne.
Sauf que la Maison Blanche a trouvé ça trop "calme" sans doute. Alors ils ont diffusé une version de la photo manipulée numériquement pour la transformer complètement.
Résultat, sur l'image postée par le compte officiel @WhiteHouse, on voit Nekima Levy Armstrong en train de sangloter à chaudes larmes. Genre gros bébé qui chiale. Et c'est là que le venin se diffuse car ce n'est pas juste une modification esthétique.
C'est carrément une manipulation symbolique dégueulasse !
A gauche la photo IA, à droitela VRAIE photo
En faisant ça, ils activent un vieux levier bien rance : le stéréotype de la "Sapphire" ou de la "
Angry Black Woman
". C'est un genre d'hyperbole qui trouve ses racines dans les représentations caricaturales du XIXe siècle (les fameux minstrel shows) avant d'être codifié au XXe siècle.
L'idée c'est de présenter les femmes noires comme des êtres intrinsèquement hystériques, incapables de se contrôler, qui hurlent et chouinent pour un rien. C'est une technique de déshumanisation pure et simple. La Maison Blanche a transformé une opposante politique digne en caricature pleurnicharde pour lui ôter toute crédibilité.
Et quand les journalistes ont demandé des comptes, le service de presse de la Maison Blanche a renvoyé vers un post sur X de Kaelan Dorr (directeur adjoint de la communication) dont la réponse est glaciale : "L'application de la loi continuera. Les mèmes continueront." Hop. Circulez, y'a rien à voir. C'est assumé. Ils manipulent l'information, déforment la réalité pour servir un discours politique, et ils appellent ça un "mème".
Putain, que ces gens sont à vomir.
Le fond de l'histoire maintenant, c'est que ces gens demandaient justice pour Renee Good, une mère de famille abattue par un agent de l'ICE le 7 janvier dernier. L'administration invoque la légitime défense, mais des vidéos et des analyses contestent fermement cette version. Ce sont des vies brisées, des tragédies réelles et en face, on a un gouvernement qui s'amuse avec des outils IA pour transformer la douleur et la dignité en "blague" raciste.
Y'a vraiment de quoi se taper la tête contre les murs. Ça me rappelle un peu les dérives qu'on voit avec
les IA qui manipulent les émotions
pour du business ou de la politique. Cette technologie devrait faire avancer la science et booster la productivité mais pour l'instant, dans les mains de certains, ça sert surtout à industrialiser la haine et à maquiller le mensonge. Comme le dit souvent Mikko Hyppönen,
si c'est intelligent, c'est vulnérable
et là c'est pas de l'IoT, mais notre perception de la réalité déjà bien fragilisée depuis quelques années, qui est visée.
Voilà... quand la technologie sert à fabriquer de la désinformation d'État, il est grand temps, je pense, de se réveiller. Donc restez aux aguets les amis, parce que les fascistes, eux la vérité, ils s'en tamponnent le coquillard.
Imaginez un monde sans Google, sans Facebook, où pour se connecter, il faut débrancher le téléphone et écouter la symphonie stridente d'un modem 56k. Nous sommes en 1992... Quelque part à Helsinki, dans une cave mal ventilée, un ingénieur finlandais s'apprête à lancer un petit script Perl qui va faire trembler la planète entière. Johan Helsingius, ou "Julf" pour les intimes, vient de créer le premier grand service d'anonymat du Web : anon.penet.fi.
J'ai toujours eu une fascination pour ces pionniers qui ont bâti le Web avec trois bouts de ficelle et Julf est l'archétype du héros cypherpunk. Ce type, qui a étudié la musique avant de devenir un pilier du réseau, a notamment fondé EUnet Finlande, le premier FAI commercial du pays. Et tenez-vous bien, c'est lui qui a aussi aidé à tirer les premiers câbles pour connecter l'Union Soviétique à Internet. Rien que ça !
En 1992, alors qu'il traîne sur les newsgroups Usenet (l'ancêtre de Reddit ^^), une discussion éclate : doit-on obligatoirement signer ses messages de son vrai nom ? Pour Julf, c'est un "non" ferme et définitive, alors plutôt que de débattre pendant des heures, il fait ce que tout bon hacker fait et il code une solution. Il lance son serveur en octobre 1992 et c'est ce qu'on appelle un "remailer de type 0".
Concrètement, vous envoyez un mail à "pingouin@anon.penet.fi", le serveur efface votre nom et votre IP, vous attribue un pseudo genre "an1234" et transfère le message. Et voilà, le tour est joué !
Et la vraie révolution, c'est surtout que ça marchait dans les deux sens... Ainsi, si on répondait à "an1234", le serveur renvoyait le courrier dans votre vraie boîte. C'était la première fois qu'on pouvait avoir une conversation suivie tout en restant un fantôme.
Le genre de bécane qui faisait tourner le monde en 93
Le succès de son service a été immédiat et assez violent. En quelques mois, le petit serveur gérait plus de 10 000 messages par jour. Et au moment de sa fermeture, on comptait pas moins de 700 000 comptes enregistrés. C'est énorme pour l'époque ! On y trouvait des gens qui voulaient juste discuter tranquillement, mais aussi des victimes de violences conjugales, des groupes de soutien et des lanceurs d'alerte.
Perso, je trouve ça dingue quand on y repense. Et c'est là que les emmerdes arrivent car parmi les utilisateurs les plus actifs, on trouvait les critiques de l'Église de Scientologie. En 1995, la secte contre-attaque avec l'affaire "Miss Blood". Ils affirment qu'un utilisateur (identifié sous le pseudo "-AB-") a volé des fichiers secrets. Ils mettent alors Interpol et la police finlandaise dans la boucle et les flics débarquent chez Julf le geek juste parce qu'une secte américaine a fait son petit caprice.
Car oui, le système de Julf avait une faille mortelle : c'était un système centralisé. Pour que ça marche, le serveur devait garder une table de correspondance entre les vrais mails et les pseudos donc s'il donnait la base, il grillait 700 000 personnes. Julf a tenu bon et a négocié comme un chef, acceptant de ne révéler qu'une seule identité pour sauver toutes les autres. Mais la leçon était apprise : l'anonymat centralisé ne peut pas résister à la pression légale.
Comme si ça ne suffisait pas, la presse s'en est mêlée avec un article délirant de The Observer accusant le service d'héberger 90% de la pédopornographie mondiale. C'était techniquement impossible car le serveur avait une limite de 16 Ko par message, pile de quoi bloquer les images binaires de l'époque mais le mal était fait.
Alors le 30 août 1996, Julf annonce la fermeture. Le service s'arrête définitivement en septembre, laissant un vide immense mais pavant la voie aux outils modernes comme Tor. D'ailleurs, si vous voulez creuser le sujet, j'avais publié
un guide pour créer votre relais Tor
ou encore comment utiliser
Tor avec Thunderbird
.
Et aujourd'hui, Julf continue de bosser dans la tech, mais son héritage le plus fort reste ces trois années folles. Alors la prochaine fois que vous utilisez un VPN ou Signal, ayez une petite pensée pour l'homme qui, seul avec son 486 dans une cave finlandaise, a offert un masque à des centaines de milliers de visages juste par principe.
Développer une application pour Windows quand on n'utilise pas Visual Studio, c'est un peu comme essayer de monter un meuble Conforama sans la notice et avec des outils en plastique.
Faut jongler avec les SDK, se battre avec des manifestes XML (l'enfer sur Terre ces trucs), générer des certificats dans tous les sens... Bref, c'est souvent la croix et la bannière. Et Microsoft, dans sa grande bonté (si si, ça arrive), s'est dit qu'il était temps d'arrêter de torturer les développeurs.
Du coup, ils viennent d'annoncer en petite pompe la sortie en preview publique de winapp, un nouveau CLI open source conçu pour simplifier tout ce bazar.
Avouez que vous avez lu Winamp ? Ahahah, hé bien non !
Avec ce truc, que vous soyez un développeur Web à fond dans Electron, un vétéran du C++ qui vit dans CMake, ou que vous bossiez en Rust ou Dart, cet outil va grave vous mâcher le travail.
Exit la configuration manuelle de l'environnement qui prend trois plombes, notamment grâce à la commande winapp init.
Cet outil s'occupe de tout, c'est fou : il télécharge les SDK nécessaires, génère les projections (C++/WinRT pour commencer) et configure votre projet. Hop, c'est réglé. Je trouve ça quand même plus sympa que de se taper toutes les étapes à la main avec le risque de se foirer tous les deux clics.
Mais là où c'est vraiment cool, c'est pour le débogage.
Vous savez ces API modernes de Windows telles que les notifications ou les fonctions IA qui nécessitent que votre application ait une "identité de paquet" (ça me rappelle une blague de Bigard, tiens..) ? Hé bien avant, pour tester ça, il fallait empaqueter et installer l'application complète. C'était une perte de temps monumentale.
Mais maintenant, avec winapp create-debug-identity, vous injectez cette identité directement dans votre exécutable. Ça vous permet de continuer à coder et de déboguer votre code spaghetti normalement, sans casser votre boucle de développement. Rien que pour ça, ça vaut le détour !
Bienvenue au XXIe siècle les dev M$ !
L'outil gère aussi la création des manifestes et des certificats de développement. Plus besoin de chialer durant des heures devant un fichier appxmanifest.xml invalide. Vous pouvez même générer un certificat auto-signé en une commande pour tester vos paquets localement.
Et pour les amis qui font de l'Electron, Microsoft a pensé à vous avec un paquet npm dédié.
npm install --save-dev @microsoft/winappcli
Ça permet d'intégrer des fonctionnalités natives ou de l'IA directement dans votre app Electron, et de lancer le tout avec un simple npm start qui gère l'identité du paquet via winapp node add-electron-debug-identity. C'est propre, hein ?
Maintenant, pour installer la bête sur votre machine, un petit coup de WinGet :
winget install microsoft.winappcli
Et vous m'en direz des nouvelles. Alors bien sûr, c'est encore en preview ET c'est dev par Microsoft, donc il y a sûrement des petits bugs qui traînent, mais l'intention est là et ça fait plaisir de les voir s'ouvrir un peu plus aux workflows qui sortent de leur écosystème fermé habituel.
Vous pensiez que votre imprimante de bureau était juste un objet d'un autre temps qui enchaine des bourrages papier toute la journée et vous réclame de l'encre hors de prix comme un enfant qui attend sa têtée ? Ben va falloir revoir vos priorités niveau paranoïa, parce que c'est bien plus que ça !
Une enquête du Washington Post vient en effet de révéler comment le FBI a identifié un de leurs lanceurs d'alerte grâce aux logs d'impression de son employeur. Aurelio Luis Perez-Lugones, spécialiste IT pour un sous-traitant du gouvernement américain, aurait fait des captures d'écran de documents classifiés dans un SCIF (ces salles ultra-sécurisées où même votre téléphone n'entre pas), puis les aurait collés dans Word avant de les imprimer.
Et comment ils l'ont su ?
Hé bien il semblerait que les logs d'impression de sa boîte aient joué un rôle clé dans l'enquête, en complément des caméras de vidéosurveillance, bien sûr.
Car oui, ces systèmes ne se contentent pas de noter "Jean-Michel a imprimé 47 pages le 15 janvier". Non, ils peuvent stocker le contenu intégral des documents, les métadonnées, l'heure exacte, le poste de travail utilisé...etc. En gros, votre patron sait exactement ce que vous avez imprimé, et depuis combien de temps vous essayez de photocopier votre CV en douce.
Mais le plus flippant dans cette histoire, c'est que ça ne s'arrête pas aux logs réseau puisque même votre imprimante perso à la maison, elle-même, peut vous balancer, et cela depuis des décennies...
Vous avez déjà entendu parler des
révélations d'Edward Snowden
sur la surveillance de masse ? Ben là, c'est pareil, mais en version papier.
En effet, depuis les années 80, la plupart des imprimantes laser couleur intègrent un système de traçage appelé Machine Identification Code (MIC). Grâce à ce système, chaque page que vous imprimez contient une grille quasi-invisible de points jaunes d'environ 0,1 millimètre, espacés d'un millimètre. Ces points encodent le numéro de série de votre machine et la date/heure d'impression, ce qui fait que n'importe quel document imprimé peut être relié à une imprimante spécifique.
C'est discret, faut de bons yeux.
Le Chaos Computer Club et l'EFF
ont documenté ce système depuis des années
et l'EFF maintient même une liste des fabricants qui utilisent ces mouchards (spoiler : la plupart des grandes marques y sont).
Comment vérifier si votre imprimante vous espionne
Première étape : imprimez une page avec du contenu coloré sur fond blanc. Ensuite, examinez-la sous une lumière bleue ou un microscope et là vous verrez probablement une grille de points jaunes, à peine détectables à l'œil nu.
Pour les plus techniques d'entre vous, l'outil
DEDA
(Dot Evidence Documentation and Analysis) développé par l'Université Technique de Dresde permet d'analyser et même d'anonymiser ces traces.
Comment auditer les logs d'impression en entreprise
Si vous êtes admin réseau ou simplement curieux de savoir ce que votre boîte enregistre, voici où chercher :
Sur Windows Server, direction la console de gestion d'impression. Les logs sont généralement dans l'Observateur d'événements sous "Applications et services" > "Microsoft" > "Windows" > "PrintService". Activez les logs "Operational" si ce n'est pas déjà fait.
Sur les imprimantes réseau, accédez à l'interface web d'administration (généralement l'IP de l'imprimante dans un navigateur). Cherchez une section "Logs", "Journal" ou "Historique des travaux". Certains modèles HP Enterprise ou Xerox stockent des semaines entières de données.
Sur les serveurs d'impression centralisés type PaperCut ou Equitrac, c'est la fête car ces solutions peuvent stocker énormément de données, du nom d'utilisateur jusqu'au contenu OCR des documents scannés si des modules ou intégrations spécifiques ont été activés.
Comment limiter ces traces
Pour les points jaunes, DEDA propose un mode d'anonymisation qui ajoute du bruit dans le pattern. C'est pas parfait, mais ça complique sérieusement le traçage !
Après pour les logs réseau, c'est plus compliqué... En entreprise, vous n'avez généralement pas le contrôle. Par contre, si c'est chez vous, désactivez simplement la journalisation dans les paramètres de votre imprimante et évitez les services cloud des fabricants.
Ah et une dernière chose : si vous imprimez des documents sensibles mes petits lanceurs d'alertes préférés, privilégiez une imprimante laser noir et blanc d'occasion payée en cash. Les modèles monochromes n'ont pas les fameux points jaunes, et une machine sans historique réseau, c'est une machine qui ne parle pas.
Encore une fois c'est difficile de lutter contre cette surveillance généralisée, mais au moins maintenant vous savez que votre imprimante n'est pas qu'un simple périphérique !
C'est potentiellement le meilleur indic de votre bureau !
Ah ils sont chaud bouillants les développeurs en ce moment ! Surtout quand je tombe sur une pépite comme textarea, je me dis que la recherche des choses simples façon Herta a encore de beaux jours devant elle.
J'sais pas si on peut le qualifier d'éditeur le plus minimaliste du monde mais c'est sûr qu'il n'y a pas de chichi ni de menus à rallonge dedans... Cet outil vit côté client dans votre navigateur et sa particularité c'est qu'il peut stocker ce que vous écrivez directement dans le "hash" (#) de l'URL. En gros, vous tapez votre prose, et hop, l'adresse dans votre barre de navigation s'allonge au fur et à mesure, contenant toutes vos données compressées.
Vos notes resteront au chaud dans votre localStorage (soumis aux quotas habituels de votre navigateur) ainsi que dans cette fameuse URL que vous pouvez copier-coller pour partager votre texte. Textarea utilise l'algorithme deflate pour compresser vos données, ce qui lui permet de maximiser ce qu'on peut faire tenir dans une URL avant de venir heurter la limite de longueur du navigateur.
L'interface de textarea.my - difficile de faire plus épuré (
Source
)
Si vous avez déjà goûté à d'autres éditeurs "Distraction-Free", vous savez à quel point c'est reposant pour l'esprit de ne pas avoir 50 boutons qui clignotent partout. Et comme ici, on est sur du pur Markdown, vous pouvez même bidouiller le style de votre document en modifiant l'élément `` via les DevTools. Et si vous maîtrisez la syntaxe, sachez que l'outil gère même quelques paramètres de style directement dans l'URL. C'est pas piqué des vers !
Le truc marrant dans cet éditeur c'est son /qr qui lorsque vous l'ajoutez à la fin de l'URL vous permet d'avoir un joli QR Code de votre note. Comme ça y'a plus qu'à le scanner et hop, vous avez le document. Pratique pour transférer une note sur votre mobile sans vous embêter avec un service de synchro quelconque.
Voilà, je vous laisse essayer ça, et vous m'en direz des nouvelles. C'est dispo en open source
sur GitHub en cliquant ici
.
Si vous avez déjà galéré à rendre accessible votre serveur web local à des testeurs externes... Ne désespérez plus car aujourd'hui, je vais vous présenter Pipenet, un petit utilitaire qui va vous changer la vie !
On a tous connu ce moment où on veut montrer une démo à un client ou tester un webhook et en général c'est à ce moment là que le drame se produit ! Configuration de la box, pare-feu qui fait la tête, redirection de ports qui ne veut rien savoir... Grosso merdo c'est la fin de votre productivité pour la matinée !
Mais grâce à l'équipe de glama.ai qui a codé cette alternative au bon vieux localtunnel, vous allez pouvoir exposer vos services locaux sur Internet en un clin d'œil. Et ce qui est cool c'est que contrairement à d'autres solutions qui deviennent vite limitées ou payantes, Pipenet vous laisse un contrôle total ! C'est ça
la pwouiiiissance du logiciel libre
!
Pour ceux qui se demandent ce qu'est exactement un tunnel TCP, c'est simplement un pont entre votre machine et le reste du monde !
Mais attention ! La sécurité (chiffrement et auth) dépend de la configuration ! Ça tombe bien puisque Pipenet supporte bien sûr le HTTPS et possède des options pour sécuriser votre propre serveur !
Il fait ça particulièrement bien en utilisant une architecture client et serveur. Vous pouvez donc utiliser leur serveur public par défaut (pipenet.dev) ou carrément héberger votre propre infrastructure de tunneling ! C’est top pour la confidentialité si vous pouvez l'auto-héberger !
Pour l'install, si vous avez Node.js, une simple commande suffit pour commencer à exposer votre port 3000 !
npx pipenet client --port 3000
Et voilà, votre application devient alors accessible via https://abc123.pipenet.dev.
C'est aussi simple que ça ! Et si vous voulez un sous-domaine spécifique (parce que c'est plus classe), il suffit de leur demander (sous réserve de disponibilité évidemment) !
Mais là où Pipenet se démarque vraiment par rapport à la concurrence, c'est son approche pensée pour les environnements cloud ! Il supporte par exemple le multiplexage sur un seul port (via l'option --tunnel-port) ce qui est top pour les déploiements sur des plateformes comme Fly.io ou dans des conteneurs Docker où la gestion des ports peut vite devenir casse bonbon !
Vous pouvez même l'intégrer directement dans vos propres outils grâce à son API et c'est d'ailleurs ce qu'a fait glama.ai avec son outil mcp-proxy pour connecter des serveurs MCP locaux avec des clients IA distants ! Et si vous voulez savoir si Pipenet supporte le streaming ou les WebSockets... Hé bien la réponse est oui !
Ce petit pépère gère le trafic basé sur HTTP, y compris le
SSE
, donc pour tout ce qui est streaming et connexions full duplex WebSocket, c'est OK.
Pipenet est l'évolution moderne des outils comme
Pagekite
ou localtunnel et c'est un choix excellent pour la plupart des usages que je viens d'évoquer !