Vue lecture

OpenZL - Meta lance un framework open source de compression de données structurées

Vous compressez vos fichiers Parquet avec gzip ? Ça marche, c’est trop cooool ! Vos CSV sont en Snappy ? Nickel c’est le bonheur !! Vos time-series sont dans un format custom que personne ne comprend sauf le dev qui est parti y’a deux ans sans laisser d’adresse ? Ah, merde…

Du coup, combien ça vous coûte vraiment ces histoires de compression ? Non, je ne parle pas en octets économisés, mais plutôt en temps humain perdu. Parce que Meta vient de publier un truc super cool qui s’appelle OpenZL et qui est un framework open source qui révèle une vérité qu’on préfère ignorer : Zuck est un reptilien euh, non… utiliser des compresseurs génériques pour tout, c’est pratique mais c’est une facture cachée qui explose !

Hé oui car les compresseurs universels comme gzip ou zstd sont géniaux, ils fonctionnent partout mais le problème c’est qu’ils ne comprennent rien à vos données. Pour eux, un CSV c’est pareil qu’un JPEG ou qu’un binaire random, du coup, vous obtenez une compression “correcte” mais rarement optimale.

Et vous vous retrouvez alors dans le cycle classique suivant : Un nouveau dataset structuré, vous tentez gzip, c’est bof. Vous essayez alors un compresseur spécialisé, mais faut l’intégrer au pipeline et franchement, la flemme. Et ça, ça vous prend combien de temps en vrai ?

Oui, je sais, vous n’en avez aucune idée mais chez Meta, ils ont évalué ça en mois de développement pour chaque nouveau type de données. Oui, des mois, pas des jours. Et après faut maintenir tout ça, gérer les versions, les dépendances, les cas particuliers…. bref.

Meta a donc fait le calcul et le partage ouvertement . Ils avaient des centaines de cas d’usage différents pour la compression de données structurées avec des fichiers Parquet, des CSV, des time-series, des tensors de machine learning, des tables de bases de données…etc et à chaque fois, soit vous prenez gzip et vous laissez de l’espace disque et de la bande passante sur la table, soit vous développez un compresseur custom et vous perdez des semaines de dev.

La solution classique consistait donc à multiplier bêtement les compresseurs spécialisés. Un pour Parquet avec Snappy, un autre pour les CSV, encore un autre pour les données numériques colonnes…etc et là ça devient vite le bordel car chaque compresseur a son décodeur, sa config, ses quirks. Vous vous retrouvez alors avec une infrastructure de compression qui ressemble à un mille-feuille de dépendances mais sans le bonheur d’une crème pâtissière de qualité.

C’est là qu’OpenZL débarque avec une approche totalement différente puisqu’au lieu de créer encore un énième compresseur spécialisé, ils ont fait un framework qui comprend la structure de vos données et génère automatiquement la meilleure stratégie de compression.

Donc en gros, vous donnez à OpenZL une description de la structure de vos données via leur Simple Data Description Language (SDDL). Ensuite leur “trainer” analyse des échantillons et trouve la séquence optimale de transformations. Ces transformations révèlent alors des patterns cachés dans vos données structurées, ce qui permet ensuite une compression beaucoup plus efficace qu’un compresseur générique aveugle.

Faut voir OpenZL comme un genre de compilateur en fait. Vous lui donnez une description haut niveau de vos données, et il génère un “plan de compression” optimisé pour ce type précis de données. Un peu comme un compilateur transforme du code haut niveau en binaire optimisé.

Et le plus beau c’est que tous les fichiers compressés par OpenZL, même avec des configs complètement différentes, se décompressent avec le même binaire. Comme ça c’est fini le casse-tête des multiples décodeurs à maintenir. Là vous avez un seul exécutable à déployer partout. Bref, c’est surtout ça la promesse de Meta avec OpenZL.

Cet outil est en prod chez eux et visiblement, comme ils le racontent sur X , il a réduit les temps de développement de mois à jours, pour des gains de compression et de vitesse systématiquement supérieurs aux compresseurs génériques. Sur des datasets Parquet par exemple, ils obtiennent des ratios de compression meilleurs que gzip tout en étant plus rapides à compresser et décompresser.

Pour vous donner un ordre de grandeur, Parquet avec gzip c’est déjà 2.37 fois plus compact qu’un CSV classique. OpenZL lui, va encore plus loin en exploitant les régularités intrinsèques des données colonnes tels que des types énumérés, des contraintes de range, des patterns temporels dans les time-series et c’est ça qui fait la différence entre un compresseur qui voit des bytes et un qui comprend la structure.

Meta considère le core d’OpenZL comme production-ready et l’utilisent en interne à large échelle depuis un petit moment. Maintenant si ça vous intéresse pour vos propres projets, sachez que le framework est sous licence BSD et dispo sur GitHub et vous avez un Quick Start guide , de la doc complète , et même un papier académique sur arXiv si vous voulez plonger dans les détails techniques du modèle graph-based qu’ils utilisent.

Voilà, si vous bossez avec des volumes importants de données structurées, si vous en avez marre de bidouiller des configs de compression, ou si vous voulez juste arrêter de payer la facture cachée des compresseurs universels, allez voir OpenZL sur GitHub .

Source

  •  

DevPush - Deployez vos apps Python comme sur Vercel

Vous connaissez Vercel ? Cette plateforme de déploiement qui permet de mettre en ligne une app web en deux clics. Hé bien c’est super génial… mais ça ne marche qu’avec JavaScript. Du coup, si vous faites du Python, du PHP ou autre, vous êtes un peu coincé. Snif…

C’est un peu le problème que Ronan Berder, un dev de Singapour, s’est pris en pleine poire au moment où il a voulu déployer ses apps Python aussi facilement que du Next.js sur Vercel. Comme y’avait pas grand chose qui existait, il a donc créé DevPush, une alternative open source et auto-hébergeable qui fonctionne avec tous les langages de dev.

Vous connectez votre repo GitHub, vous pushez votre code, et boom, votre app est déployée, tout ça sans coupure de service, avec possibilité de retour en arrière instantané, des logs en temps réel, des environnements multiples, du SSL automatique…etc… Bref, tout ce que vous avez sur Vercel, mais sans être limité à Node.js.

DevPush supporte donc déjà Python avec Flask, Django et FastAPI et comme c’est basé sur Docker, n’importe quel langage peut tourner dessus. Node.js, PHP, Ruby, Go, Rust… ce que vous voulez. Y’a juste à créer un conteneur Docker et c’est parti.

Ce qui est cool, c’est surtout que vous pouvez l’héberger vous-même par exemple sur un VPS… Vous gardez ainsi le contrôle de vos données sans enfermement propriétaire ni mauvaises surprises sur la facture.

Pour l’installation c’est très simple puisqu’il suffit de lancer un script bash et en 5 minutes c’est en place sur votre serveur Ubuntu ou Debian. Vous créez ensuite votre premier projet, vous liez votre repo GitHub, et vous pushez. DevPush détecte alors automatiquement le framework Python, construit l’image Docker, et déploie l’app.

Chaque push sur GitHub déclenche alors un nouveau build et vous pouvez mapper des branches à des environnements différents. Par exemple, la branche main en production, staging en préproduction, dev en développement et DevPush gère aussi les variables d’environnement de manière sécurisée, avec du chiffrement.

Les logs de build et de runtime sont également streamés en temps réel dans l’interface ce qui permet de voir exactement ce qui se passe pendant le déploiement. Comme ça, si une build plante, vous avez toutes les infos pour débugger et si vous voulez revenir en arrière, vous pouvez faire un rollback sur le commit précédent en 1 click !

DevPush génère aussi une URL de preview pour chaque déploiement ce qui permet de tester votre app avant de la mettre en prod, et quand vous êtes prêt, vous mappez ça avec votre domaine custom et DevPush s’occupe du certificat SSL automatiquement via Let’s Encrypt.

Évidemment, ce projet est encore jeune et le dev a prévu d’ajouter pas mal de nouvelles fonctionnalités comme la gestion de bases SQLite, le stockage persistant, le monitoring des ressources, le scaling, des tâches cron… mais encore un peu de patience…

Bref, si vous faites du Python ou autre chose et que vous en avez marre de gérer des serveurs à la main ou de payer un abonnement super cher sur une plateforme managée à la con, DevPush mérite le coup d’œil !

Source

  •  

Microsoft continue sa guerre contre les comptes locaux Windows 11...

Putain, ils sont relous chez Microsoft ! Vous vous souvenez quand Microsoft a supprimé la commande oobe\bypassnro en mars dernier ? Cette petite astuce permettait tout simplement d’installer Windows 11 sans compte Microsoft et sans connexion internet. Les geeks ont alors râlé pendant 48 heures, puis quelqu’un a découvert une nouvelle parade : start ms-cxh:localonly. C’est une commande magique qu’il suffisait de taper pendant l’installation (Shift+F10, vous connaissez la manip..) pour contourner l’obligation d’avoir un compte en ligne.

Eh bien devinez quoi ? Microsoft vient de colmater cette “faille” aussi.

Bref, dans une nouvelle build test de Windows 11 publiée le 6 octobre dernier, Amanda Langowski du Windows Insider Program a annoncé officiellement que toutes les méthodes connues pour créer un compte local pendant l’installation sont en train d’être supprimées. La raison officielle c’est que ces mécanismes contourneraient des étapes critiques de configuration et laisseraient des appareils pas complètement configurés.

Mouais, ça sent un peu le prétexte bidon pour justifier une décision déjà prise depuis longtemps, vous ne trouvez pas ?

Concrètement, si vous essayez maintenant la commande start ms-cxh:localonly sur les nouvelles versions, elle réinitialisera simplement le processus d’installation et vous ramènera au point de départ. Bref, game over, Microsoft a gagné cette bataille.

Après vous allez me dire mais alors pourquoi tant de haine de la part des utilisateurs contre ce fichu compte Microsoft ??

Et bien déjà, il y a cette histoire débile du nom de dossier utilisateur car quand vous créez un compte Microsoft, Windows 11 génère automatiquement un nom de dossier à partir de votre adresse email. Donc c’est jamais ce qu’on veut, même si maintenant avec cette update, on peut d’après ce que j’ai compris régler ça à l’aide d’une commande un peu planquée.

Ensuite, il y a la question de contrôle car un compte Microsoft, c’est la synchronisation automatique de vos paramètres, de vos données, de votre historique. Du coup, c’est Edge qui s’impose, c’est Bing qui devient votre moteur de recherche par défaut, c’est OneDrive qui se synchronise que vous le vouliez ou non. Alors pour quelqu’un qui veut juste installer Windows proprement, sans toute cette couche de services Microsoft, c’est l’enfer !

Et je ne parle même pas des techos qui installent des dizaines de machines pour des clients. Faut se créer un compte Microsoft temporaire à chaque fois, puis le supprimer, puis reconfigurer… C’est du temps perdu pour rien. Le compte local, c’était simple, rapide, et efficace.

Mais bon Microsoft s’en fout royalement. Pour eux, Windows 11 est devenu surtout un portail vers leur écosystème de merde et plus vraiment un OS qui vous appartient vraiment. Vous payez votre licence, certes, mais la vraie valeur pour Microsoft, c’est que vous soyez connecté à leurs services. Tout ce qui est données de télémétrie, habitudes d’utilisation, publicités ciblées dans le menu Démarrer…etc, tout ça ne fonctionne qu’avec un compte en ligne.

Mais bon, rassurez-vous, il reste encore des solutions. Enfin, pour l’instant…

Rufus , l’outil de création de clés USB bootables, propose toujours des options pour créer une installation Windows 11 sans compte Microsoft. Vous pouvez aussi passer par des modifications du registre pendant l’installation, mais c’est un peu plus technique. Et si vous avez Windows 11 Pro ou Enterprise, l’option “Domain join” permet encore de créer un compte local, mais pour combien de temps ?

Pour le moment, Microsoft s’attaque aux méthodes faciles, celles que monsieur et madame tout-le-monde peuvent utiliser en suivant un tuto, mais je ne serais pas surpris que dans 6 mois, Microsoft s’attaque aussi à Rufus, à Flyoobe ou aux ISO modifiées.

C’est dommage je trouve car ce qui faisait le charme de Windows depuis toujours c’était justement de pouvoir le bidouiller jusqu’à l’os. En plus pour une boite qui se présente comme champion de l’open source depuis quelques années, c’est un move un peu bizarre… WSL pour faire tourner Linux sous Windows, VSCode qui est devenu l’éditeur de code préféré de la planète, GitHub racheté et mis à disposition gratuitement… C’est cool, mais côté Windows pur, ils font l’exact l’inverse de tout ça en verrouillant un max !

Rassurez-vous, Microsoft n’est pas le seul à suivre cette mauvaise pente… Apple aussi pousse de plus en plus iCloud sur macOS et je ne vous parle pas de Google qui rend ses services quasi-inutilisables sans compte. Bref, tout devient “service en ligne” même quand ça ne devrait pas l’être et ce PC qu’on possédait vraiment, celui sur lequel on configurait comme on voulait tout ce qu’on voulait est en train de disparaitre.

Bien sûr, vous pourrez toujours compter sur moi pour que je vous partage des astuces ou des outils pour contourner toutes ces limitations techniques à la con mais franchement, c’est fatigant. Je comprends que Linux fasse chavirer de plus en plus de cœurs…

En attendant, vous l’aurez compris, direction Rufus pour installer Windows 11 avec un compte local. Et dépêchez-vous avant que Microsoft décide que ce sera la prochaine cible à abattre !

Source

  •  

Redis - Une simple faille et c'est 75% du cloud qui devient le maillon faible

Comme vous le savez, Redis c’est un peu le champion du cache mémoire. C’est rapide, c’est efficace, tout le monde l’utilise mais surtout, ça tourne dans 75% des environnements cloud. En gros, 3 serveurs sur 4 dans le cloud l’utilise…

Cool ? Oui sauf quand une faille critique de sécurité pointe le bout de son nez ! Et pas une petite faille, mes amis ! Une faille notée 10 sur 10 en gravité, qui permet d’exécuter du code à distance sur les serveurs.

Estampillée CVE-2025-49844, et joliment baptisée RediShell, cette faille en elle-même est assez technique puiqu’elle repose sur un bug Use-After-Free dans l’interpréteur Lua intégré à Redis. En gros, un attaquant authentifié peut envoyer un script Lua malveillant qui vient manipuler le garbage collector, provoque un accès mémoire après libération, et permet ainsi d’exécuter du code arbitraire sur le serveur.

C’est de la RCE complète salade tomates oignons, avec sauce système compromis !

Le truc, c’est que ce bug dormait dans le code depuis 13 ans dès que Redis a intégré Lua en 2012 dans la version 2.6.0. Donc pendant tout ce temps, des millions de serveurs Redis dans le monde entier avaient cette vulnérabilité activée par défaut.

Et les chiffres donnent le vertige car d’après les scans de Wiz Research, environ 330 000 instances Redis sont exposées directement sur Internet. Et sur ces 330 000, au moins 60 000 n’ont même pas d’authentification activée. Donc autant dire qu’elles sont ouvertes à tous les vents et que les serveurs qui se cachent derrière aussi…

Toute l’infrastructure cloud moderne repose sur une poignée de briques open source critiques, et ça marche tellement bien qu’on en met partout et on finit souvent par oublier à quel point c’est fragile… On l’a déjà vu par exemple avec Log4Shell qui a touché des millions de serveurs Java en 2021, puis avec Heartbleed dans OpenSSL en 2014. Et on a failli le voir avec la backdoor XZ Utils découverte in extremis en 2024.

À chaque fois, c’est le même schéma où un composant open source critique, utilisé partout, et maintenu par une équipe minuscule (souvent 1 à 5 personnes), se retrouve avec un bug qui expose des pans entiers de l’infrastructure mondiale d’Internet… Argh !

Maintenant, la bonne nouvelle , c’est que Redis a publié des patchs pour toutes les versions maintenues : 6.2.20, 7.2.11, 7.4.6, 8.0.4 et 8.2.2. Donc si vous utilisez Redis, c’est le moment de mettre à jour !! Et pendant que vous y êtes, activez aussi l’authentification avec la directive requirepass, et désactivez les commandes Lua si vous ne les utilisez pas. Vous pouvez faire ça via les ACL Redis ou simplement en révoquant les permissions de scripting.

La découverte de RediShell a été faite par Wiz Research lors du Pwn2Own de Berlin en mai 2025. Alerté, Redis a publié son bulletin de sécurité le 3 octobre dernier, et Wiz a rendu public les détails le 6 octobre. Une Timeline propre, une divulgation responsable, bref tout s’est bien passé de ce côté-là…

Maintenant pour réduire ce genre de risque à terme, je pense que ce serait cool si les géants d’Internet finançaient un peu plus directement les mainteneurs de ces briques logiciels essentielle, ainsi que des audits de l’ OpenSSF car pour le moment, on est loin du compte ! Redis est patché, heureusement, mais on sait aussi que la prochaine faille critique dans un de ces composants critiques, c’est une nouvelle fois, juste une question de temps…

Source

  •  

CodeMender - L'IA de DeepMind qui patche vos failles de sécu toute seule

Je sais pas si vous avez vu ça hier mais Google DeepMind vient de sortir CodeMender , un agent IA qui repère et corrige automatiquement les failles de sécurité dans votre code. L’outil analyse les vulnérabilités, génère les patches, vérifie qu’ils cassent rien, et soumet le tout aux mainteneurs de projets open source.

D’après leurs premiers retours, en 6 mois, CodeMender a déjà upstreamé 72 correctifs de sécurité sur des projets qui comptent jusqu’à 4,5 millions de lignes de code.

Pour bien comprendre comment ça fonctionne, CodeMender fonctionne sur deux modes. Il y a le mode réactif qui patche instantanément les nouvelles vulnérabilités découvertes, avec de l’analyse de programme avancée et un système multi-agents qui évalue la correction sous tous les angles. Et le mode proactif qui réécrit le code existant pour utiliser des structures de données et des APIs plus sécurisées, en appliquant par exemple des annotations de compilateur comme -fbounds-safety qui ajoutent des vérifications de limites automatiques.

L’outil s’appuie sur Gemini Deep Think , l’un des modèles de raisonnement avancé de Google et CodeMender combine plusieurs techniques d’analyse : static analysis pour repérer les patterns suspects dans le code source, dynamic analysis pour observer le comportement à l’exécution, fuzzing pour balancer des inputs aléatoires et voir ce qui casse, differential testing pour comparer le code modifié avec l’original, et des solveurs SMT pour vérifier formellement certaines propriétés du code.

Le truc intéressant avec CodeMender, c’est le process de validation. L’agent utilise ce qu’ils appellent un “LLM judge” qui vérifie que le patch proposé ne casse pas les fonctionnalités existantes. Le système compare l’original et la version modifiée, détecte les différences, et valide que le changement corrige bien la vulnérabilité sans y introduire des régressions. Et si un problème est détecté, CodeMender s’auto-corrige et retente sa chance.

Par exemple, CodeMender a bossé sur la libwebp , une bibliothèque de compression d’images utilisée un peu partout. L’IA ainsi après analyse, appliqué des annotations -fbounds-safety sur certaines parties du code et quand ces annotations sont présentes, le compilateur ajoute alors automatiquement des vérifications de limites qui empêchent un attaquant d’exploiter un buffer overflow ou underflow pour exécuter du code arbitraire. Ce n’est donc pas juste un patch ponctuel, mais une vraie protection structurelle contre toute une classe de vulnérabilités.

Les 72 patches déjà soumis couvrent des projets open source variés, certains vraiment massifs avec plusieurs millions de lignes et les patches générés par CodeMender passent par une review humaine avant d’être définitivement validés. Pour le moment, les chercheurs de DeepMind contactent un à un les mainteneurs des projets pour leur proposer les correctifs mais l’objectif final c’est de sortir CodeMender sous la forme d’un outil utilisable par tous les dev.

Le process de validation de CodeMender vérifie quatre critères sur chaque patch : il doit corriger la cause racine de la vulnérabilité, être fonctionnellement correct, ne provoquer aucune régression dans les tests existants, et respecter les conventions de style du projet. C’est donc pas juste du patching bourrin, car l’outil essaie de générer du code qui s’intègre proprement dans la base existante.

Ce qui différencie CodeMender d’autres outils de static analysis classiques, c’est surtout l’autonomie complète. Des outils comme Coverity ou SonarQube sont très cools car ils détectent les vulnérabilités et vous disent où elles sont, mais c’est à vous de les corriger. Alors que CodeMender va jusqu’au bout : détection, génération du patch, validation, et soumission. Le système gère aussi la complexité de très gros projets, ce qui est pas donné à tous les outils d’analyse.

Bon, évidemment, pour l’instant Google commence prudemment mais comme je vous le disais, l’idée à terme, c’est que CodeMender tourne en continu sur vos repos, détecte les nouvelles CVE qui matchent avec votre code, génère les patches, et vous les propose directement dans vos PR. Un peu comme un Dependabot mais pour les failles de sécu…

J’ai hâte que ça sorte en public !

Source

  •  

Hyperswitch - La plateforme d'orchestration de paiements open source

Vous connaissez le job de payment engineer ? Ce métier n’existait même pas il y a 3 ans et aujourd’hui, les paiements en ligne sont devenus tellement complexes qu’il existe carrément une nouvelle catégorie de développeurs… Et au centre de cette petite révolution, il y a Hyperswitch , un projet open source qui est en train de servir de base à toute une génération de spécialistes des paiements.

Sorti en 2022, Hyperswitch est une plateforme d’orchestration de paiements écrite en Rust. Le pitch marketing vous dira que c’est le “Linux des paiements”, un outil modulaire, flexible, open source, mais dans les faits, ça permet surtout de connecter votre boutique en ligne à +50 processeurs de paiement différents via une seule API… Stripe, Adyen, PayPal, tout ce que vous voulez.

Le projet est développé par Juspay, une boîte indienne qui gère déjà les paiements de 400 entreprises et traite 175 millions de transactions par jour et quand ils ont décidé d’open-sourcer leur infrastructure, ils ont vraiment tapé dans le mille ! Rien que le dépôt GitHub affiche maintenant plus de 36 000 étoiles, ce qui est assez dingue pour un outil d’infrastructure B2B.

Et cela arrive au bon moment parce que les paiements en ligne sont devenus un cauchemar technique. Entre les différents processeurs, les méthodes de paiement locales (UPI en Inde, WeChat Pay en Chine, Bancontact en Belgique), les réglementations qui changent, les taux d’autorisation qui varient selon les pays, les frais cachés qui s’accumulent et les webhooks qui plantent au pire moment, il faut vraiment être un spécialiste pour s’y retrouver.

C’est un peu ce qui s’est passé avec le terme DevOps il y a 10 ans. J’sais pas si vous vous souvenez, mais au début c’était juste un buzzword. Puis Docker et Kubernetes sont arrivés, la complexité a explosé, et boom, aujourd’hui tout le monde cherche des ingés DevOps. Même délire avec les “data engineers” quand les boîtes ont commencé à avoir des pétaoctets de données à gérer.

Hé bien les paiements suivent la même trajectoire. Vous ne pouvez plus juste intégrer Stripe et oublier le problème. Si vous faites du volume, vous devez optimiser vos coûts (car les frais peuvent varier de 1 à 3% selon le processeur), améliorer vos taux d’autorisation (parfois 5 à 10 points de différence entre processeurs), gérer le retry intelligent quand une carte est refusée, faire de la réconciliation automatique…etc.

Bref, vous avez besoin d’un spécialiste.

Et c’est exactement ce que fait Hyperswitch qui indirectement forme des ingénieurs en paiement, car quand vous passez 6 mois à bidouiller Hyperswitch , à comprendre comment fonctionne le routing intelligent ou la réconciliation automatique, vous devenez au bout d’un moment spécialiste des paiements.

C’est un peu le même coup qu’a fait Red Hat avec Linux, ou HashiCorp avec Terraform. Vous créez une communauté de gens qui connaissent votre outil à fond, et les membres de cette communauté deviennent ensuite vos meilleurs ambassadeurs et des experts d’un domaine qui recrute à tour de bras. Hyperswitch surfe donc sur cette vague en proposant son outil en self hosting pour l’auto-hébergement ou du managé qu’ils gèrent pour vous. Et c’est clairement un business model qui a fait ses preuves.

Bref, si vous êtes développeur et que vous cherchez une niche où vous spécialiser, les paiements c’est visiblement un secteur qui monte. Et comme Hyperswitch est open source, vous pouvez vous former gratuitement en installant leur stack. Au pire, vous aurez appris quelques trucs utiles et au mieux, vous découvrirez un nouveau métier…

  •  

Un incendie et pas de backup - La Corée du Sud perd 858 To de données gouvernementales

Vous vous souvenez de cette règle de base en informatique, que je vous rabâche régulièrement, et qui dit de toujours avoir plusieurs sauvegardes de vos données critiques ?

Hé bien apparemment, le gouvernement sud-coréen a zappé ce cours, car le 26 septembre dernier, un incendie s’est produit au centre de données NIRS (National Information Resources Service) à Daejeon et a cramé 858 téraoctets de fichiers gouvernementaux . Et y’a pas de backup. Nada.

Le feu a démarré pendant une opération de maintenance sur une batterie lithium-ion dans laquelle une cellule a lâché , déclenchant ce qu’on appelle un emballement thermique… En gros, la batterie s’est transformée en bombe incendiaire et le brasier s’est propagé dans la salle serveur du cinquième étage, faisant tomber 647 services en ligne gouvernementaux d’un coup. Parmi eux, 96 systèmes critiques ont été directement détruits, et 551 autres ont été coupés préventivement pour éviter que la chaleur les bousille aussi.

Le système qui a morflé le plus, c’est G-Drive, le cloud de stockage utilisé par les fonctionnaires sud-coréens depuis 2018. Environ 750 000 employés du gouvernement central peuvent stocker leurs documents de travail dessus, mais seulement 125 000 l’utilisaient vraiment. Chacun disposait d’environ 30 Go d’espace de stockage, ce qui fait qu’au total le système contenait 858 To de données de travail accumulées sur huit ans.

Snif…

Mais attendez, je ne vous ai pas encore donné la raison pour laquelle il n’y avait aucune sauvegarde externe. En fait, leur G-Drive est conçu comme un système de stockage haute capacité, mais basse performance, et ils ont des contraintes réglementaires qui imposent un stockage exclusif sur cette plateforme afin d’éviter les fuites de données.

Autrement dit, pour se prémunir contre les risques de fuite, ils ont créé un point de défaillance unique. Bravo !

Du coup, quand l’incendie a détruit les serveurs physiques, tout est parti en fumée. Huit ans de documents de travail pour certains ministères, qui ont été complètement perdus… C’est surtout le ministère de la Gestion du Personnel qui s’est pris la claque la plus violente parce qu’il avait rendu obligatoire le stockage de tous les documents sur G-Drive uniquement. D’autres organismes comme le Bureau de Coordination des Politiques Gouvernementales, qui utilisaient moins la plateforme, ont moins souffert.

Bref, les autorités essaient maintenant de récupérer ce qu’elles peuvent depuis d’autres sources. Y’a des petits bouts de fichiers sauvegardés localement sur les ordinateurs personnels des fonctionnaires le mois précédent, les emails, les documents officiels validés et les archives papier… Bref, pour tous les documents officiels passés par des processus d’approbation formels, il y a un espoir de récupération via leur système OnNara (un autre système gouvernemental qui stocke les rapports finaux), mais pour tout le reste (brouillons, fichiers de travail en cours, notes internes…etc.) c’est mort de chez mort…

Le ministère de l’Intérieur a expliqué que la plupart des systèmes du centre de Daejeon sont normalement sauvegardés quotidiennement sur des équipements séparés dans le même centre ET dans une installation de backup distante. Mais G-Drive, lui, n’avait pas, comme je vous le disais, cette possibilité.

Évidemment, cet incident a déclenché une vague de critiques acerbes sur la gestion des données gouvernementales sud-coréennes. Un système de backup en miroir en temps réel qui duplique le serveur principal pour assurer la continuité de service en cas de panne, était complètement absent de l’infrastructure et pour un système aussi critique que le stockage de documents de 750 000 fonctionnaires, c’est difficilement compréhensible.

Voilà donc le gouvernement estime qu’il faudra jusqu’à un mois pour récupérer complètement les 96 systèmes de base directement endommagés par l’incendie et pour G-Drive et ses 858 To de données, par contre, c’est une autre histoire, car sans backup, les données sont définitivement perdues.

De plus, cet incendie déclenche actuellement un genre d’examen mondial des batteries lithium-ion dans les datacenters et des architectures de plan de reprise d’activité (PRA). Les batteries lithium-ion sont en effet utilisées partout pour l’alimentation de secours, mais leur risque d’emballement thermique en cas de défaillance pose de sérieuses questions sur leur place dans des infrastructures critiques…

Bref, je souhaite bon courage aux Coréens, et j’espère que tout le monde saura tirer des enseignements de ce malheureux incendie…

Source

  •  

ImgInn - Pour consulter anonymement Instagram

Besoin d’aller voir le profil Instagram de quelqu’un en scrèd, sans que cette personne ne le sache ? Hé bien plus besoin de vous créer un faux compte grâce à ImgInn . En effet, ce site vous laisse surfer sur Instagram de manière totalement anonyme, sans même avoir besoin de vous connecter.

Vous allez sur ImgInn, vous tapez le nom d’utilisateur Instagram qui vous intéresse, et hop, vous accédez à tout son contenu public : posts, stories, Reels, highlights et même les photos de profil. Vous pouvez ainsi mater tout ça tranquillement sans laisser de traces.

En plus de la visualisation anonyme, ImgInn permet également de télécharger tout le contenu que vous voulez. Photos en résolution originale, vidéos en HD, stories qui vont disparaître dans 24 heures, vous pouvez tout récupérer en quelques clics. Par contre, ça ne fonctionne pas avec les comptes verrouillés (non publics).

Notez quand même qu’Instagram interdit formellement dans ses conditions d’utilisation le scraping de données et l’usage d’outils tiers qui imitent les fonctionnalités de la plateforme, donc sachez le, ImgInn viole clairement les règles d’Instagram.

Mais bon, quand on veut rester anonyme, notamment auprès de Meta, la question elle est vite répondue ^^. Notez aussi que même que si le site prétend garantir votre anonymat, il collecte forcément certaines données pour fonctionner comme votre adresse IP, les comptes que vous consultez, etc. Et bien sûr, rien ne garantit que ces informations restent vraiment confidentielles ou qu’elles ne soient pas partagées avec des tiers. Donc à utiliser avec parcimonie.

Et si ImgInn vous branche pas, y’a toute une ribambelle d’autres viewers du même genre. Dumpor propose par exemple une interface assez complète avec recherche par profil, localisation ou hashtag. SmiHub sépare carrément la partie visualisation et téléchargement en deux menus. Picuki va même jusqu’à intégrer des outils d’édition de photos. Pixnoy se concentre surtout sur les Reels, et Storistalker prétend même récupérer les posts supprimés.

A voir donc… Et pour me suivre sur Instagram c’est par ici !

  •  

Payloads All The Things - La ressource préférée des hackers éthiques

En octobre 2016, un développeur suisse connu sous le pseudo swisskyrepo a commencé à compiler ses notes de pentester dans un dépôt GitHub. Rien de révolutionnaire au départ, juste un mec qui en avait marre de chercher la même injection SQL pour la 50ème fois dans ses notes. Mais ce qui est cool c’est qu’au fur et à mesure des années, il a structuré ça proprement avec une section par type de vulnérabilité, des README clairs, des fichiers Intruder pour Burp Suite, des exemples concrets…etc.

Ça s’appelle Payloads All The Things, et c’est accessible ici .

Ce qui était donc au départ un simple carnet de notes personnel est devenu THE référence mondiale en cybersécurité offensive avec des centaines de contributeurs qui ajoutent quotidiennement de nouvelles techniques. C’est devenu la pierre de Rosette (pas la charcuterie, renseignez-vous !! lol) de la sécurité offensive, celle qu’on cite dans tous les cours de certification OSCP, celle qu’on consulte pendant les CTF, celle qu’on recommande aux débutants…

Avant PayloadsAllTheThings, le savoir en cybersécurité offensive était soit verrouillé dans des formations hors de prix à 5 000 boules, soit éparpillé dans des recoins obscurs du web, soit jalousement gardé par des pentesters qui pètent plus haut que leur cul… Des pêt-testeurs quoi…

SwisskyRepo a d’ailleurs fait un choix radical qui est tout mettre en open source, sous licence MIT, accessible à tous. Et le contenu, c’est du lourd !

On y trouve tout ce dont un pentester peut avoir besoin : SQL Injection avec toutes les variantes possibles (MySQL, PostgreSQL, Oracle, MSSQL…), XSS avec les bypasses de filtres, SSRF avec les techniques d’exfiltration, Command Injection, OAuth Misconfiguration, GraphQL Injection, File Inclusion, Authentication Bypasses, API Key Leaks…etc… La liste est hallucinante.

Chaque section est structurée comme un cookbook technique avec le contexte de la vulnérabilité, les payloads classés par type, les bypasses pour contourner les protections, des exemples concrets, et les références vers les CVE ou les articles de recherche.

Par exemple, si vous voulez exploiter un serveur Redis mal configuré, il y a une section pour ça. Si vous voulez comprendre comment contourner un WAF, pareil ! Et si vous cherchez à pivoter dans un réseau interne après avoir compromis une machine, tout est documenté en anglais sur ce site.

Mais swisskyrepo ne s’est pas arrêté là. Son projet a muté en écosystème puisqu’il a aussi créé InternalAllTheThings , un wiki dédié au pentesting interne et aux attaques Active Directory (Certificate Services, Enumeration, Group Policies, Kerberos attacks, Hash manipulation, Roasting techniques…).

Et également HardwareAllTheThings , le même genre de wiki mais sur la sécurité hardware et IoT : JTAG, SWD, UART pour les interfaces de debug, firmware dumping et reverse engineering, Arduino, Raspberry Pi, Flipper Zero pour les gadgets, Bluetooth, CAN, WiFi, RFID/NFC pour les protocoles, SDR et GSM pour la radio, fault injection pour les attaques par canal auxiliaire…

Bref, tout ce qu’il faut savoir pour hacker des objets connectés, des cartes à puce ou des systèmes embarqués.

Du coup, avec cette famille complète de “AllTheThings”, on couvre toute la surface d’attaque moderne, le web, l’infra interne et le hardware. Un pentest complet peut donc se faire avec ces trois ressources comme base de connaissance. Chouette non ?

Bien, sûr c’est à utiliser dans un cadre légal, sinon, vous irez en prison ! C’est pas un forum de script kiddies qui échangent des zero-days volés, c’est une vraie bibliothèque technique pour les professionnels et les étudiants en cybersécurité.

Grâce à ça, un étudiant motivé peut devenir compétent en sécurité offensive en quelques mois juste avec des ressources gratuites : PayloadsAllTheThings pour les techniques, TryHackMe ou HackTheBox pour la pratique, les blogs de chercheurs pour les analyses approfondies, les conférences enregistrées (DEF CON, Black Hat) pour rester à jour.

Le savoir se libère, n’en déplaise aux relous ! Moi je trouve que c’est cool, car ça vulgarise les connaissances, ça les mets à la portée de tous et c’est tant mieux.

Donc un grand merci à SwisskyRepo d’avoir lancé ce projet !

  •  

Test de la nouvelle Logitech MX Master 4 : la souris ultime

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

La Logitech MX Master 4 apporte quelques ajustements bien sentis à une formule déjà très aboutie. Haptique, gestes, ergonomie : tout est là pour une expérience fluide et efficace, que ce soit sur Mac ou PC. Je l’ai testé ici sur Mac, avec un constat simple : difficile de trouver mieux.

Une évolution, pas une révolution

Avec la MX Master 4 , Logitech ne bouleverse pas sa recette. Et tant mieux. Le design reste globalement le même que celui de la 3S : une souris sculptée pour les droitiers, pensée pour épouser la main sans effort. Les matériaux ont été revus : fini les revêtements soft-touch qui s’abîment vite et étaient vite sales, place à des plastiques plus bruts mais plus durables. Les clics sont encore plus silencieux, les boutons mieux positionnés, et la glisse gagne en souplesse grâce à des patins PTFE beaucoup plus larges. C’est une mise à jour maîtrisée, centrée sur l’usage et l’optimisation.

Screenshot

L’Action Ring change la donne

La vraie nouveauté, c’est l’Action Ring. Un menu circulaire qui s’affiche autour du curseur quand on presse le nouveau bouton sous le pouce, baptisé Haptic Sense Panel. On y place jusqu’à huit raccourcis personnalisés : apps, dossiers, fonctions système… Le retour haptique, ultra satisfaisant, vient valider les actions avec une petite vibration, discrète mais efficace. Le tout s’intègre parfaitement à macOS et Windows via Logi Options+, qui permet de créer des profils différents selon les applications. À l’usage, on gagne du temps. Beaucoup.

Une personnalisation très poussée

Comme les modèles précédents, la MX Master 4 mise sur la personnalisation : sept boutons configurables, deux molettes (verticale motorisée, horizontale crantée), capteur 8 000 DPI, compatibilité multi-appareils, et désormais une couche haptique ajustable.

On peut choisir l’intensité des vibrations, désactiver certaines fonctions, ou encore créer des macros avec les Smart Actions. Pour aller plus loin, un marketplace propose des plugins selon les apps : Adobe, Zoom, Excel, Figma, etc. Peu nombreux pour l’instant, mais en développement.

Screenshot

Mac vs PC : rien de majeur

La version Mac, testée ici, se distingue surtout par ses coloris exclusifs (Space Black, White Silver). Elle est livrée sans dongle USB-C (présent sur la version PC). Mais à l’usage, aucune différence en termes de performance ou de fonctions, contrairement à la MX Master 3S qui était moins performantes en Bluetooth (perso j’avais acheté le dongle à part). Dans tous les cas, la souris est pleinement compatible avec macOS ET Windows.

Une autonomie solide et une vraie réparabilité

Côté autonomie, Logitech annonce 70 jours sur une charge complète. Et bonne nouvelle : on peut recharger tout en continuant d’utiliser la souris (contrairement à la Magic Mouse…). Autre point à noter : la facilité de démontage. Pas besoin d’arracher les patins pour accéder aux vis, et des pièces comme la batterie seront disponibles en remplacement. Une rareté sur ce segment.

On en dit quoi ?

La MX Master 4 n’est pas une révolution, mais c’est clairement une des meilleures souris du marché pour un usage pro ou créatif. Confort, silence, fluidité, personnalisation : tout y est. L’Action Ring est au final un vrai plus une fois adopté, et l’intégration au système macOS est bien pensée. Même si vous avez une 3S, ça peut valoir le coup d’investir, croyez-moi ! Reste juste à espérer qu’un jour Logitech pense aux gauchers. Elle est dispo sur Amazon en cliquant ici !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ou lire tous les tests que je publie dans la catégorie “Gadgets Tech” , comme cette liseuse Android de dingue ou ces AirTags pour Android !

  •  

Vous avez 18 mois avant de devenir complètement cons

Ce matin, je suis tombé sur cet article de Derek Thompson, journaliste chez The Argument, titré “ Vous avez 18 mois ”. Ça a évidemment attiré ma curiosité donc j’ai lu l’article et son message est sans appel : Le vrai danger de l’IA, c’est pas qu’elle nous remplace. C’est qu’on arrête de penser par nous-mêmes.

Car oui, les chiffres sont là, et ils font peur. Les scores de lecture aux États-Unis sont au plus bas depuis 32 ans selon le Nation’s Report Card de janvier 2025 . La lecture de livres pour le plaisir a ainsi chuté de 40% depuis les années 2000. Des étudiants arrivent dans des universités d’élite sans avoir jamais lu un livre en entier et apparemment, personne ne s’en inquiète vraiment, car tout le monde (moi y compris) est trop occupé à demander à ChatGPT de résumer les trucs qu’on devrait lire avec nos cerveaux.

Derek compare la lecture et l’écriture à la potion magique qui nous permet d’accéder à la pensée symbolique profonde . En gros, lire et écrire, c’est pas juste des compétences, c’est aussi ce qui nous permet de penser profondément. Et on est en train de jeter ce super pouvoir aux orties parce que c’est plus rapide de demander à une IA de faire le boulot à notre place.

Le truc, c’est que notre cerveau, c’est comme un muscle. Si on arrête de le faire bosser, il s’atrophie. Et avec les IA (et dans une moindre mesure avec les réseaux sociaux vidéo, genre TikTok), c’est exactement ce qu’on est en train de faire. On lui retire tous les exercices difficiles…

Lire un bouquin de 300 pages ? Pffff, trop long, on demande un résumé à l’IA. Écrire un texte argumenté ? Pffff, trop chiant, on le fait générer par ChatGPT. Réfléchir à un problème complexe ? Pfff, trop fatigant, on compte sur Macron pour nous le résoudre ou on balance la question à Claude.

Et le pire, c’est qu’on le fait consciemment. En tout cas, personnellement, j’en ai conscience et donc en ce moment je me suis remis un peu à la lecture pour essayer de conserver une bonne hygiène niveau matière grise. Comme moi, vous savez donc probablement qu’on est tous en train de se ramollir le cerveau, mais on continue parce que c’est tellement plus confortable. C’est la culture de l’optimisation poussée à l’extrême. On optimise notre code, nos workflows, notre vie… et maintenant on optimise notre cerveau pour qu’il en fasse le moins possible. De l’efficacité à court terme, mais un suicide cognitif à long terme.

Et ce qu’annonce Derek c’est que dans 18 mois, les IA auront peut-être notre niveau actuel de réflexion. Mais nous, on aura quel niveau ? Ce sont elles qui vont s’améliorer ou nous qui allons régresser pour nous mettre à leur niveau ?

Thompson parle de “deskilling” cognitif… On se déqualifie nous-mêmes. C’est comme si on allait à la salle de sport et qu’on demandait à quelqu’un d’autre de faire nos pompes. Et son parallèle avec la révolution industrielle est plutôt juste je trouve… Au XIXe siècle, les machines ont remplacé nos muscles. Les ouvriers qui faisaient des tâches physiques complexes ont été remplacés par des machines plus rapides et résultats, nos corps se sont atrophiés. On est physiquement plus faibles que nos ancêtres, c’est un fait et maintenant, ce même schéma se reproduit avec notre cerveau. L’IA remplace nos muscles mentaux, avec le même risque d’atrophie sauf que cette fois, c’est notre intelligence qu’on sacrifie sur l’autel de l’efficacité !

Il y a aussi un truc que personne ne dit, c’est l’IA conversationnelle, c’est une drogue cognitive. Ça a le même schéma addictif que les réseaux sociaux à savoir une réponse instantanée, une gratification immédiate, zéro effort. Tranquille mimil, sauf que les réseaux sociaux nous volaient notre temps alors que l’IA est en train de nous voler notre capacité à penser. On croit devenir plus productif, alors que finalement, on devient plus dépendant.

Alors que faire ? Derek ne propose pas de solution miracle, mais il a raison sur un point : Il faut voir la lecture et l’écriture comme du fitness mental.

Je ne pense pas qu’il faille boycotter l’IA comme tous ceux qui en ont peur et la diabolisent actuellement, car elle peut apporter beaucoup. Mais il faut apprendre à l’utiliser correctement, tout en préservant son hygiène mentale, sa pensée critique et son goût de l’effort.

Comme pour le sport, il faut donc s’entrainer, faire travailler notre cerveau, non seulement en lisant des livres, les articles de Korben.info ^^…etc. Mais aussi en écrivant pour générer une réflexion et des arguments qui souvent arrivent non pas avant, mais pendant le process d’écriture. Et je pense que c’est pareil pour les dev qui “vibe code”. C’est bien ça fait gagner du temps, mais si on veut conserver cette réflexion propre au code, il faut continuer au moins à lire et à comprendre ce code, et continuer à explorer des chemins de pensée profonde .

C’est chiant, c’est lent, c’est inconfortable, mais c’est le seul moyen de garder un cerveau fonctionnel.

Le vrai luxe de demain, ce ne sera plus d’avoir accès à l’IA, car tout le monde l’aura. Non, le vrai luxe, ce sera d’avoir encore un cerveau capable de penser en profondeur. Et ça, ça se bosse les amis !

  •  

Cloudflare veut tuer la pub - Bienvenue dans l'ère Net Dollar, le web au centime près avec

Vous gagnez combien avec la pub sur votre site ??

On est d’accord, c’est dérisoire, et pendant ce temps, Google et Facebook se gavent en revendant votre contenu et l’attention de vos lecteurs à leurs clients. Le modèle est cassé, tout le monde le sait , mais personne n’avait de solution viable… enfin, jusqu’à maintenant.

Matthew Prince, CEO de Cloudflare, vient en effet d’annoncer le lancement du Net Dollar , un stablecoin adossé au dollar américain conçu pour les micropaiements instantanés. Son objectif c’est donc de tuer le modèle publicitaire et le remplacer par du pay-per-use généralisé. Comme ça, terminé le “gratuit financé par la pub”, et bonjour le web à 0,01 euro l’article.

1 Net Dollar = 1 dollar US, puisque c’est un stablecoin adossé au dollar. Il n’y a donc pas la volatilité de Bitcoin et pas de spéculation. C’est vraiment fait pour les transactions, pas l’investissement.

Ainsi, chaque fois qu’un agent IA accède à votre contenu, il paie automatiquement quelques centimes de manière instantanée et cela peu importe où vous vous trouvez… Par exemple, vous êtes en France, un agent IA lit votre article au Japon, et hop vous recevez 0,01 dollar dans la seconde.

On évite ainsi les virements qui mettent du temps, les commissions abusives (coucou Paypal), les seuils minimums avant de prendre le pognon et si ça nous amuse, on peut même facturer 0,0001 dollar par requête API ce qui ne serait pas exemple pas possible avec Visa qui de toute façon prend 0,30 dollars de frais fixes. Là avec Net Dollar, on va pouvoir descendre à des fractions de centimes…

Par exemple, si je me tape dans le mois 50 000 agents IA qui viennent lire un de mes articles, et que je leur facture 0,01 euro par lecture, ça me fait 500 euros dans la poche. Et pour les dev, c’est pareil. Vous pouvez proposer une API gratuitement sans crouler sous les requêtes abusives. Là vous enclenchez un micro-paiement à 0,0001 dollar par requête, comme ça, chacun peut payer à la hauteur de sa consommation. Même chose pour les photographes ou les graphistes, quand une IA utilisera votre photo pour illustrer une de ces réponses….etc.

Bref, c’est plutôt cool pour les créateurs.

Maintenant reste à savoir qui va vraiment payer car ce n’est pas vraiment très clair ? Est ce uniquement les IA de OpenAI, Anthropic, Google qui vont passer à la caisse ? Ou est ce qu’à terme, les humains vont devoir créditer leur navigateur pour pouvoir surfer sur les sites web ? Honnêtement, je n’en sais rien mais si on tombe dans un monde où chaque site exige quelques centimes, je pense que chacun va y réfléchir à deux fois avant de cliquer sur un lien.

Et comme on est sur de la blockchain privée, je vous laisse imaginer le flot de données que ça va apporter à Cloudflare. Ils sauront exactement quel article vous avez lu, ou quel API vous avez utilisé. C’est pas forcement très cool.

Bref, je ne sais pas si le Net Dollar va révolutionner le web, finir de l’achever ou terminer comme toutes ces initiatives qui n’ont jamais décollé, mais à un moment, faudrait qu’on se pose la question de savoir si on préfère se farcir des bannières de pub ou payer 1 centime pour lire un article…

Source

  •  

Des scientifiques ont réussi à INVERSER le vieillissement

Je pense qu’on est tous d’accord… vieillir c’est inévitable.

Hé bien visiblement, l’Académie Chinoise des Sciences n’était pas d’accord et ils viennent de le prouver avec des singes. Oui, de vrais singes, et pas des modèles informatiques ou des cultures de cellules dans des boîtes de Petri. Leurs macaques crabiers ont rajeuni pour de vrai !

Pour parvenir à ce résultat, ils ont bidouillé des cellules souches humaines afin de les rendre résistantes à la sénescence. La sénescence, c’est quand vos cellules arrêtent de se diviser et se mettent en mode zombie. Elles ne sont pas mortes, mais elles foutent le bordel en balançant des molécules inflammatoires partout. En gros, elles font vieillir tout le reste.

Les chercheurs ont donc pris le gène FoxO3 , un des rares gènes associés à la longévité qui marche vraiment chez tous les organismes tels que les vers, les mouches, les souris et les humains. Et si vous avez la bonne version de ce gène, vous avez 1,9 fois plus de chances de vivre au-delà de 95 ans. Du coup, ils ont introduit deux petites mutations dans ce gène, et hop, nous voilà avec des cellules souches qui résistent au vieillissement.

Ils ont donc testé ça sur des macaques crabiers âgés de 19 à 23 ans. À l’échelle humaine, c’est comme des gens de 60 à 70 ans. Ainsi, durant 44 semaines, soit environ 3 ans en équivalent humain, ils ont injecté ces cellules toutes les deux semaines et le résultat est assez dingue.

Les singes traités ont retrouvé la mémoire, leur cerveau a arrêté de rétrécir, et leurs os se sont reminéralisés. Toutes analyses ont ainsi montré que plus de 50% des 61 types de tissus analysés ont rajeuni. Le système reproductif, la peau, les poumons, les muscles, l’hippocampe. Tout a pris un coup de jeune !!

Le plus impressionnant, c’est que les horloges épigénétiques, ces outils de machine learning qui analysent l’ADN pour déterminer votre âge biologique, ont estimé que les neurones immatures avaient rajeuni de 6 à 7 ans. Et les ovocytes de 5 ans. Pas mal pour 44 semaines de traitement.

Pour bien capter comment ça fonctionne, il faut comprendre que FoxO3, c’est un peu le chef d’orchestre de la résistance au stress cellulaire. Il active des gènes qui protègent vos télomères, ces petits capuchons au bout de vos chromosomes qui raccourcissent à chaque division cellulaire et il booste aussi la télomérase, l’enzyme qui rallonge les télomères. Chez les porteurs de la variante longévité de FoxO3 , on voit donc émerger une protection contre le raccourcissement des télomères et des niveaux plus élevés de télomérase.

En plus, FoxO3 gère le stress oxydatif. Vous ne le savez peut-être pas, mais vos cellules produisent des radicaux libres quand elles respirent, et ces trucs endommagent tout ! FoxO3 active donc des antioxydants pour faire le ménage. Il joue aussi un rôle dans l’autophagie, ce processus où vos cellules recyclent leurs composants défectueux. Bref, c’est un gène qui fait plein de trucs utiles pour pas vieillir trop vite.

Cette année, d’autres équipes ont aussi trouvé des cocktails chimiques qui inversent l’âge des cellules en moins d’une semaine, sans toucher à l’ADN. Et une autre étude a utilisé le microARN miR-302b pour réactiver des cellules sénescentes et leur faire retrouver leur fonction . Chez les souris, ça a augmenté la durée de vie médiane de 892 à 1029 jours.

38% de réduction du risque de mort, c’est pas rien.

Bon, évidemment, tout ça c’est en labo mais les chercheurs chinois rapportent qu’il n’y a eu aucun effet secondaire grave chez les singes, et les cellules modifiées semblent même avoir des propriétés suppressives de tumeurs. Mais bon, concernant les effets à long terme, on ne les connaît pas encore. Et passer des singes aux humains, c’est jamais aussi simple qu’on voudrait…

À noter que ce type de recherche ouvre aussi des perspectives pour traiter les maladies neurodégénératives. Bah oui, si vous pouvez rajeunir les neurones de 6 ans, vous pouvez peut-être ralentir Alzheimer ou Parkinson. Même chose pour l’ostéoporose, les maladies cardiovasculaires, toutes ces saloperies qui viennent avec l’âge.

En attendant, les sénolytiques, ces médicaments qui éliminent les cellules sénescentes, sont déjà en essais cliniques pour des maladies comme la fibrose pulmonaire et l’arthrose. Les inhibiteurs de SASP , qui ciblent les signaux inflammatoires des cellules zombies, sont aussi en court de test pour Alzheimer et le cancer. Bref, on commence à avoir plusieurs approches qui marchent.

Voilà, donc si vous vous demandiez si on pouvait vraiment inverser le vieillissement, bah la réponse est oui, apparemment on peut. Maintenant reste à voir si ça marche aussi bien chez les humains et surtout combien ça va coûter. Parce que bon, se faire injecter des cellules souches génétiquement modifiées toutes les deux semaines pendant des années, ça risque de ne pas être donné…

Source et image

  •  

Xeres - Pas de serveur, pas de compte… et pourtant ça marche !

Vous en avez marre de WhatsApp, Telegram ou Discord qui lisent vos messages, stockent vos données et décident de qui peut parler à qui ? Ça tombe bien car il existe une alternative radicale qui vient de sortir en version 1.0.

Ça s’appelle Xeres , et contrairement à tout ce que vous utilisez aujourd’hui, ça ne passe par aucun serveur. Que dalle.

Il s’agit d’un vrai réseau Friend-to-Friend, c’est à dire que vous ne vous connectez qu’aux gens que vous connaissez vraiment. Pas de serveur central qui pourrait tomber, être saisi par le FBI ou décider de vendre vos conversations à des annonceurs. Juste vous et vos potes, en direct, chiffrés de bout en bout avec du PGP v4 et du RSA 3072 bits. Votre IP est uniquement visible par vos amis directs, et si vous voulez parler à un ami de votre ami, ça passe par des tunnels anonymes.

Le truc, c’est que Xeres est compatible avec Retroshare , ce vieux de la vieille du P2P décentralisé qui existe depuis des années. Donc si vous avez des potes qui utilisent déjà Retroshare 0.6.6 ou plus récent, vous pouvez vous connecter à eux sans problème. C’est un peu comme si Signal et BitTorrent avaient eu un enfant qui aurait grandi dans les années 90 en écoutant du punk et en lisant des manifestes crypto-anarchistes.

Mais alors comment ça marche techniquement, me direz-vous ? Et bien c’est simple. Vous installez Xeres sur votre machine (Windows, Linux, macOS, ou même Android), vous générez votre identité cryptographique, et vous échangez vos certificats avec vos amis. Pas de login, pas de mot de passe à retenir, pas de numéro de téléphone à fournir. Juste un échange de clés comme au bon vieux temps.

Une fois connecté, vous avez alors accès à tout un tas de services décentralisés. Du chat bien sûr, mais aussi des salons de discussion, des forums, du partage de fichiers, et même la possibilité de discuter avec des gens que vous ne connaissez pas directement via les fameux tunnels anonymes dont je vous parlais. C’est votre propre petit bout d’Internet privé avec vos amis, quoi.

Cette nouvelle release qui vient de sortir apporte pas mal d’améliorations . Meilleures perf avec Java, support macOS restauré, stickers dans les chats, alias de discussion, et même un système de mise à jour automatique sous Windows. Les versions précédentes avaient déjà ajouté un client Android pour se connecter à distance à votre instance qui tourne chez vous, du support pour les architectures ARM sous Linux, et plein d’autres trucs sympas.

D’ailleurs, parlons un peu de cette histoire de Friend-to-Friend (F2F) vs P2P classique. Dans un réseau P2P normal, tout le monde connaît l’IP de tout le monde. Pratique pour partager des fichiers, mais niveau anonymat et vie privée, c’est moyen. Dans un réseau F2F , vous ne voyez que vos contacts directs, et le reste du réseau vous est invisible. Ça limite un peu la portée, mais ça renforce énormément la sécurité et l’anonymat.

Xeres va même plus loin en supportant les transports via Tor et I2P en mode client. Donc si vous voulez vraiment rester anonyme, vous pouvez faire passer toutes vos connexions par ces réseaux. Ainsi vos amis directs ne verront même pas votre vraie IP. Oui, c’est pour les paranos, mais c’est top !

Maintenant pour l’installer, rendez-vous sur la page de téléchargement et choisissez la version qui correspond à votre système. Il y a des installeurs pour Windows, des paquets .deb pour Ubuntu, des images DMG pour macOS (Intel et Apple Silicon), et même une image Docker si vous voulez faire tourner ça sur un serveur en mode headless.

Toutes les releases sont signées avec une clé PGP, donc vous pouvez vérifier que personne n’a trafiqué le fichier que vous téléchargez. Donc prenez 30 secondes pour vérifier la signature, ça vaut le coup pour un logiciel de communication chiffré.

Et une fois installé, vous verrez, l’interface est plutôt moderne avec plusieurs thèmes au choix. Rien à voir avec les vieilles interfaces des logiciels P2P des années 2000. C’est propre, c’est réactif, et ça utilise JavaFX pour l’accélération matérielle. Oui, c’est du Java moderne qui ne fait pas ramer votre machine.

Le projet est disponible en open source sur GitHub sous licence GPL-3.0.

Bref, l’idée derrière Xeres, c’est de promouvoir la liberté d’expression en créant une alternative aux plateformes centralisées qui peuvent censurer, surveiller ou tout simplement disparaître du jour au lendemain. C’est un peu radical, mais vu l’état actuel de la centralisation du web, c’est pas plus mal d’avoir ce genre d’alternative.

Vous trouverez toute la documentation sur le site officiel , avec des guides de démarrage, des explications sur l’architecture, et des options de ligne de commande pour ceux qui veulent pousser le truc plus loin. Il y a même un mode client/serveur pour que votre instance tourne en permanence chez vous et que vous puissiez vous y connecter depuis votre téléphone Android.

Sympa non ?

  •  

Des packs de prompts gratuits pour vos IA

Si vous passez votre temps à demander à ChatGPT de réécrire vos emails professionnels ou à chercher le bon prompt pour analyser un tableau Excel, OpenAI va vous faciliter la vie ! En effet, ils ont mis en ligne l’ OpenAI Academy , une plateforme avec plus de 300 prompts prêts à l’emploi, classés par métier, et totalement gratuits. Comme ça fini de payer 29,99 euros à des influenceurs chelous pour télécharger leur nouveau “Ultimate Prompt Bundle” contenant trois prompts qui marchent et 47 variations inutiles.

Voilà, comme ça, au lieu de partir de zéro à chaque fois que vous voulez utiliser ChatGPT pour bosser, vous allez dans la section Prompt Packs et vous choisissez votre métier. Sales, ingénieur, RH, product manager, customer success, IT, manager, executive…etc. Ils ont même fait des packs pour le secteur public et l’éducation. Chaque pack contient ainsi des dizaines de prompts testés et structurés pour des cas d’usage concrets.

Par exemple, le pack Sales inclut des prompts pour faire de la veille concurrentielle, rédiger des cold emails, analyser vos données de prospection ou créer des visuels pour vos présentations. Le pack Engineering vous aide à générer des diagrammes d’architecture système, faire du benchmark d’outils, débugger du code ou rédiger de la documentation technique. Et le pack HR couvre tout ce qui va du recrutement à la rédaction de politiques internes en passant par l’analyse des données RH.

Ce qui est bien pensé, c’est que les prompts sont prêts à être copié-collé mais aussi assez génériques pour être adaptés. Vous prenez le prompt de base, vous remplacez les variables par vos infos, et ça roule. Pas besoin de passer trois heures à apprendre le prompt engineering ou à regarder des tutos YouTube de 45 minutes qui auraient pu tenir en 2 minutes.

Et dans leurs packs spécifiques pour le gouvernement, il y en a pour les leaders du secteur public avec des prompts pour rédiger des documents de politique publique ou analyser des budgets. Ainsi que des packs pour les équipes IT gouvernementales pour gérer les systèmes, la cybersécurité et le support technique avec des ressources limitées.

Du côté éducation, il y a des packs pour les étudiants , d’autres pour les enseignants , et même pour les administrateurs . Donc que vous soyez prof qui veut préparer un cours ou étudiant qui galère sur un projet, il y a des prompts prêts pour vous.

OpenAI a visiblement compris qu’il y avait un marché de la vente de prompts qui s’était développé ces derniers mois alors avec Academy, ils cassent ce marché en offrant gratuitement une bibliothèque qui couvre la plupart des besoins professionnels courants.

Bon, après c’est pas non plus magique car un prompt finalement, c’est juste un outil. Donc si vous ne savez pas ce que vous voulez obtenir ou si vous ne comprenez pas votre métier, ça ne va pas faire de miracles. Mais pour quelqu’un qui sait ce qu’il cherche et qui veut juste gagner du temps, c’est très pratique.

La plateforme OpenAI Academy propose aussi d’autres contenus comme des webinaires, des guides d’utilisation, des cas d’usage par secteur, si ça vous chauffe.

Voilà, j’ai trouvé ces packs de prompts très cools et je pense que ça vous fera gagner du temps.

Source : OpenAI Academy - Prompt Packs

  •  

ChatGPT, la balance !

Les IA de type GPT ont beau avoir des instructions du genre “tu ne dois jamais révéler ton prompt système”, il suffit de leur demander gentimment de réencoder leurs instructions avec un décalage de César ou de répéter tout le texte dans un format particulier pour qu’elles crachent tout. Et par tout, je veux dire vraiment tout. Le prompt officiel d’OpenAI, d’Anthropic, de Gemini…etc, les instructions personnalisées du créateur, et même les petits Easter eggs cachés dedans.

Dans cette vidéo, je vous montre plusieurs exemples concrets. Un GPT de génération de logos, une calculatrice mathématique qui cache un Easter egg , un optimiseur SEO…etc. Et pour chacun, j’utilise des prompts d’extraction que j’ai trouvés dans ce repo GitHub qui rassemble tous les prompts système leakés de ChatGPT, Claude, Cursor, Perplexity et compagnie. C’est une vraie caverne d’Ali Baba pour ceux qui s’intéressent à ce genre de trucs.

Ce qui est intéressant, c’est que ça ne fonctionne pas que sur les GPTs personnalisés. Vous pouvez aussi extraire les prompts système de Perplexity, de Grok, de plein d’outils qui utilisent des LLM sous le capot. Donc si vous avez toujours voulu savoir comment tel ou tel service construit ses réponses, c’est l’occasion.

Maintenant, je sais ce que vous allez me dire…

C’est pas très éthique de voler le travail des gens comme ça et vous avez raison. Mais d’un autre côté, si ces boites permettent que ce soit aussi facile d’extraire ces infos, c’est peut-être qu’il faut arrêter de considérer les prompts système comme des secrets industriels. Et puis eux ne se privent pas pour voler aussi les contenus des autres, donc bon…

Je vous montre aussi dans ma vidéo comment certains créateurs essaient de se protéger en mettant des instructions anti-extraction, mais ça ne marche pas terrible.

Bref, j’espère que vous y apprendrez quelques trucs. Et je voudrais aussi dire un grand merci aux Patreon sans qui cette vidéo, ce blog et moi-même n’existeraient pas ! Merci pour le soutien !

  •  

Je crois que l'IA n'a toujours pas volé votre emploi - Une étude de Yale qui calme le jeu

Vous vous souvenez quand ChatGPT est sorti fin 2022 ? La panique dans les open spaces, les titres clickbait sur la fin du travail tel qu’on le connaît, votre vieux cousin qui vous expliquait pépouse que dans 6 mois tous les devs seraient au chômage ?

Bon ben voilà, Yale vient de publier une étude qui remet les pendules à l’heure . Et je vous spoile un peu : 33 mois après le lancement de ChatGPT, le marché du travail n’a toujours pas implosé.

Cette étude a pris le temps d’analyser les données au lieu de surfer sur la panique ambiante et Martha Gimbel et son équipe du Budget Lab de Yale ont ainsi passé au crible l’évolution de l’emploi américain depuis novembre 2022, et leurs conclusions sont plutôt rassurantes. Enfin, rassurantes dans un sens. Parce que si vous êtes un jeune diplômé en début de carrière, l’histoire est un poil différente. Mais j’y reviens après.

L’idée de départ de l’étude est assez simple. On a vécu des bouleversements technologiques majeurs par le passé tels que l’arrivée des ordinateurs au bureau dans les années 80, l’explosion d’Internet à la fin des années 90. Et à chaque fois, c’est la même apocalypse annoncée, la même angoisse collective… Du coup, les chercheurs se sont demandé : est-ce que cette fois c’est vraiment différent ? Est-ce que l’IA générative change le marché du travail plus vite que les révolutions technologiques précédentes ?

Pour répondre à ça, nos petits chercheurs ont utilisé un truc qu’ils appellent l’indice de dissimilarité. En gros, ça mesure à quel point la répartition des métiers dans l’économie change au fil du temps. Par exemple si 7% de travailleurs en 2002 devaient changer d’occupation pour retrouver la même répartition qu’en 1996, l’indice est de 7 points de pourcentage. C’est une façon de quantifier le bordel causé par une nouvelle technologie.

Et alors, résultat des courses ?

Et bien le marché du travail américain change effectivement un peu plus vite depuis ChatGPT qu’il ne changeait pendant les périodes de comparaison, mais vraiment pas de beaucoup. On parle d’environ 1 point de pourcentage de différence par rapport à l’époque de l’adoption d’Internet. Si vous regardez les graphiques, les courbes sont presque superposées donc vraiment de quoi déclencher l’état d’urgence.

Et quand les chercheurs y ont regardé de plus près, ils se rendu compte que cette accélération avait même commencé avant la sortie de ChatGPT. En fait, dès 2021, la répartition des métiers changeait déjà à ce rythme-là, donc attribuer ces changements à l’IA générative, c’est un peu hasardeux. C’était peut-être juste la reprise post-COVID, le télétravail qui a tout boulversé, ou une combinaison de facteurs qu’on ne comprend pas encore bien.

Les chercheurs ont aussi regardé secteur par secteur pour voir si certaines industries se faisaient plus défoncer que d’autres. Logiquement, si l’IA tape fort, ça devrait se voir dans les secteurs les plus exposés : l’information (journalisme, data processing), la finance, les services aux entreprises. Effectivement, ces secteurs ont connu des changements plus marqués que la moyenne.

Rien que le secteur de l’information (auquel j’appartiens) a vu son mix d’emplois pas mal bousculé mais quand on remonte dans le temps, on se rend compte que ce secteur en particulier a toujours été volatil. Ses emplois changent constamment, depuis bien avant l’IA générative car c’est un secteur qui se transforme en permanence. Maintenant, difficile de dire si l’IA accélère vraiment la tendance ou si c’est comme d’hab…

Et histoire de mettre encore un peu plus les choses en perspective, Jed Kolko de la Harvard Business Review a démontré que les changements actuels du marché du travail sont ridiculement faibles comparés à ce qu’on a connu dans les années 40 et 50. À l’époque, les bouleversements liés à la guerre et à la reconstruction faisaient bouger les lignes à une vitesse hallucinante mais aujourd’hui, on est sur une petite brise tranquille en comparaison.

Après il y a quand même un truc qui fait peur dans cette étude. Car même si globalement le marché du travail tient le coup, il y a une catégorie de travailleurs qui morfle… Ce sont les jeunes diplômés en début de carrière . Erik Brynjolfsson, un économiste de Stanford et spécialiste de l’IA, a publié en août dernier une étude complémentaire qui fait vraiment froid dans le dos.

En analysant les données de paie d’ADP (le plus gros fournisseur de logiciels de paie aux États-Unis), il a découvert que l’emploi des jeunes travailleurs (22-25 ans) dans les métiers les plus exposés à l’IA a chuté de 6% depuis fin 2022, pendant que l’emploi des travailleurs plus âgés dans les mêmes métiers augmentait de 6 à 9%.

C’est énorme comme écart… Ça représente une baisse relative de 13% pour les débutants par rapport aux seniors. Et dans certains secteurs comme le dev logiciel et le service client, la chute est encore plus brutale. C’est environ 20% de baisse pour les juniors entre fin 2022 et juillet 2025, alors que les seniors voyaient leur emploi progresser.

Brynjolfsson explique pourquoi les jeunes sont plus touchés, et c’est plutôt logique quand on y pense. En fait, les grands modèles de langage comme ChatGPT sont entraînés sur des livres, des articles, du contenu trouvé sur Internet. C’est exactement le genre de connaissances théoriques qu’on acquiert à l’université avant d’entrer sur le marché du travail, du coup, il y a un gros chevauchement entre ce que savent les LLM et ce que savent les jeunes diplômés tout frais démoulus de la fac.

Alors que les travailleurs expérimentés, eux, ont autre chose à offrir. Des années de pratique, des soft skills, une compréhension fine des dynamiques d’entreprise, un réseau professionnel…etc. Bref, des trucs qu’un LLM ne peut pas (encore) reproduire (mais votre tour viendra aussi, soyez en certains).

Résultat, les entreprises gardent ou embauchent des seniors et utilisent l’IA pour combler le gap qui était traditionnellement comblé par des juniors.

Par contre, dans les métiers où l’IA vient juste assister les travailleurs sans les remplacer, on ne voit pas cette différence entre les jeunes et les vieux.

Les chercheurs de Yale n’ont donc trouvé aucune corrélation entre l’exposition à l’IA (données OpenAI/Anthropic) et les changements d’emploi. Les métiers très exposés ne perdent pas plus d’emplois que les autres.

Il y a également une autre étude intéressante qui est sortie récemment. OpenAI a analysé 1,5 million de conversations de ses 700 millions d’utilisateurs actifs par semaine et en juin 2024, 47% des échanges concernaient le travail. Un an plus tard, ce chiffre est tombé à 27% ce qui fait que 73% de l’usage de ChatGPT est personnel, et pas professionnel.

Alors peut-être que l’IA générative trouve plus facilement sa place dans nos vies perso (aide aux devoirs, recettes de cuisine, conseils de voyage) que dans le monde du travail où les process sont plus complexes, les enjeux de sécurité plus importants, et l’intégration plus difficile, je ne sais pas… Ou peut-être que les entreprises sont juste plus lentes à l’adopter. C’est difficile à dire.

Mais bon, maintenant on sait que pour le moment, ça ne sert à rien de paniquer car les métiers changent, oui, mais pas plus vite que lors des précédentes révolutions technologiques. Et surtout, les changements qu’on observe ont commencé avant même ChatGPT, donc difficile de tout mettre sur le dos de l’IA.

Par contre, si vous êtes un étudiant qui s’apprête à entrer sur le marché du travail, vous devez être conscient que la compétition est plus rude qu’avant car l’IA ne vole peut-être pas tous les jobs, mais elle semble voler des points d’entrée traditionnels dans certains métiers.

Quoiqu’il en soit, les chercheurs de Yale prévoient de mettre à jour leur analyse régulièrement pour suivre l’évolution car une photo à un instant T ne suffit pas pour prédire le futur, et les effets pourraient s’accélérer. Ou pas. On verra bien…

En attendant, voici mes quelques conseils à deux balles… Si vous êtes en début de carrière, ne misez pas tout uniquement sur vos connaissances théoriques. Développez des compétences pratiques, construisez un portfolio de projets concrets, apprenez à bosser en équipe, améliorez votre communication (les fameux soft skills). Bref, lancez vous dans tout ce qui vous différencie d’un LLM. Et paradoxalement, apprendre à bien utiliser l’IA pourrait aussi être un énorma plus. Si tout le monde a accès à ChatGPT mais que vous savez l’utiliser mieux que les autres, ça peut faire la différence !

Et si vous êtes une entreprise, peut-être qu’il faut réfléchir à deux fois avant de shooter tous les postes juniors. Car oui, l’IA peut faire certaines tâches de base et vous faire économiser du temps et du pognon, mais former des petits jeunes c’est aussi investir dans votre pipeline de futurs seniors. Hé ouais…

Parce que si demain, tout le monde arrête d’embaucher des débutants, dans 10 ans, il n’y aura plus d’experts…

Source

  •  

Dreamer 4 - L'IA qui connait Minecraft sans jamais y avoir joué

Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…

Eh bien, les chercheurs de Google DeepMind viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.

Minecraft n’existe pas” pourrait dire le petit chauve…

Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.

Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.

De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.

Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.

Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.

Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.

Voilà, si ça vous intéresse, sachez que tout est détaillé dans ce document sur arXiv si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…

Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…

  •  

GitType - Le jeu qui vous fait retaper votre propre code (pour redevenir bon !!)

Vous savez ce moment où vous regardez votre historique Git et vous vous demandez qui est le débile qui a écrit ce code dégueulasse ?

Ah bah ouais, c’était vous il y a 3 mois ^^. Eh bien GitType a trouvé la meilleure des thérapies qui est de vous faire retaper tout ça, lettre par lettre, comme une punition de primaire version développeur, totalement gamifiée avec des points, un chrono, et la possibilité de mesurer à quel point vos doigts sont devenus flasques depuis que Copilot fait tout le boulot à votre place.

Le tagline du projet, c’est “Show your AI who’s boss: just you, your keyboard, and your coding sins”. Et c’est pas une blague, c’est un manifeste car pendant que Copilot, ChatGPT, Claude Code et compagnie écrivent du code à notre place, GitType vous fait faire exactement l’inverse… il vous force à retaper du code pour redevenir bon !

Et contrairement aux tests de frappes classiques comme Ttyper ou tt qui vous font taper du texte générique, GitType utilise du VRAI code source. Votre code, celui de vos repos préférés, ou des repos trending de GitHub. Comme ça, vous ne vous entraînez pas sur du “ the quick brown fox jumps over the lazy dog ” à la con, mais sur vos propres merdes spaghettico-syntaxiques en Rust, TypeScript, Python ou Go.

Le jeu vous propose plusieurs modes. Y’a le mode Normal pour vous échauffer tranquillement, le Time Attack quand vous voulez vous mettre la pression, et des niveaux de difficulté de Easy à Zen pour ceux qui veulent méditer en tapant du code. Le tout avec un tracking en temps réel de votre WPM (words per minute) et de votre précision. Comme ça, plus vous progressez, plus vous montez dans le ranking avec des titres de développeur qui évoluent.

GitType supporte plus de 15 langages de programmation et propose plus de 15 thèmes visuels en mode Dark ou Light, avec possibilité de personnaliser le vôtre. L’installation est simple…

curl -sSL https://raw.githubusercontent.com/unhappychoice/gittype/main/install.sh | bash

Ou via Brew, ou avec un téléchargement direct de binaires. Ça prend 30 secondes chrono. Autre truc sympa aussi, vous pouvez cloner n’importe quel repo GitHub directement depuis le jeu pour vous entraîner dessus.

Comme ça, vous pourrez réaliser votre fantasme le plus humide, à savoir retaper le code de Linus Torvalds !

Cet outil va comme ça l’air de rien vous réapprendre à taper du code vous même, parce que faut bien le reconnaitre, depuis que tout le monde s’est mis au vibe coding, c’est difficile de dire à nos doigts et nos cerveaux de s’y remettre. Avec GitType, vos doigts retrouvent leurs réflexes, vous mémorisez mieux la syntaxe, vous devenez plus rapide au clavier, votre haleine redevient fraiche et vous chopez enfin des matchs sur Tinder, c’est SÛR !!

Ce projet est dispo en open-source sous licence MIT et franchement, vu comment nos IA nous assistent de partout, c’est pas plus mal de garder un peu de muscle mémoire au cas où…

Source

  •  

Vous vous souvenez du web d'avant ?

Mais siiii, celui où on cliquait sur un lien et hop, la page s’affichait. Sans popup de cookies, sans overlay “Abonnez-vous à notre newsletter”, sans ce message agaçant “Désactivez votre bloqueur de pub pour continuer” ou “Abonnez-vous pour lire cet article”. Bref, l’époque bénie où internet était juste… internet.

Le RGPD devait nous sauver de la surveillance mais le résultat c’est qu’on passe notre vie à cliquer sur des bouton “Tout refuser” ou à chercher le bouton caché derrière 47 onglets de paramètres. L’enfer est pavé de bonnes intentions réglementaires, il parait… Mais heureusement, des extensions comme PopUpOFF existent pour réparer ce que cette loi a cassé.

Ce que fait cette extension pour Chrome et Firefox, c’est virer les popups, les overlays, les bannières de cookies et toutes ces merdes qui transforment la navigation en parcours du combattant. RomanistHere, le dev derrière le projet, a créé ça tout seul dans son coin et son extension est dispo en open-source sur GitHub .

PopUpOFF propose donc 3 modes de blocage : agressif, modéré et délicat. Le mode agressif, c’est le rouleau compresseur… il dégomme tout ce qui bouge. C’est super pratique quand vous êtes pressé.

Le mode modéré quant à lui fait le tri entre les popups légitimes (genre, celles de votre banque) et les overlays parasites. Et le mode délicat, lui, intervient uniquement quand vous le décidez manuellement.

Ainsi, vous gardez le contrôle total, ce qui change des extensions qui décident de tout ça à votre place.

Alors bien sûr, tout n’est pas parfait et l’extension peut parfois rater des overlays invisibles ou péter l’affichage de certains sites, notamment les PWA (Progressive Web Apps), mais pour 90% des cas d’usage, ça fait le job impeccable.

À l’opposé des mastodontes type Ghostery ou uBlock Origin (qui sont excellents, ne me faites pas dire ce que je n’ai pas dit…), RomanistHere a misé sur le minimalisme radical. Pas de filtres à mettre à jour toutes les semaines, pas de liste de 50 000 domaines à bloquer, pas de consommation RAM de malade. Non, c’est juste un script intelligent qui détecte les patterns d’overlays et les neutralise.

Notez qu’en bonus, l’extension peut parfois débloquer du contenu payant sur certains sites qui utilisent des overlays pour bloquer la lecture. Ce n’est pas son objectif principal, mais vu que beaucoup de paywalls reposent sur des overlays CSS basiques, bah… PopUpOFF les vire aussi. Je dis pas que vous devriez l’utiliser pour contourner les abonnements (soutenez vos médias préférés, toussa toussa), mais sachez que techniquement, ça peut arriver.

À noter que PopUpOFF n’est pas seul sur ce créneau. Il y a aussi “ I Don’t Care About Cookies ” (racheté par Avast, ce qui a refroidi pas mal de gens), ou encore la fonction “ Never-Consent ” de Ghostery qui auto-rejette les cookies via les CMP (Consent Management Platforms). Ces alternatives ont chacune leurs forces, mais PopUpOFF reste le champion du rapport efficacité/poids.

Bref, si vous en avez marre de perdre 15 secondes par page à fermer des popups de merde, PopUpOFF mérite clairement sa place dans votre navigateur. C’est léger, c’est open-source, c’est gratuit, et ça fait exactement ce qu’on lui demande…

  •