Vue normale

Reçu — 29 novembre 2025

La montre Pebble est de retour - Mais ça part en vrille

Par :Korben
29 novembre 2025 à 06:06

Je ne suis pas très montre. Je n’en porte pas, je n’en possède pas… Ce temps qui passe c’est l’angoisse mais je me souviens très bien des montres Pebble qui avec leur écran e-ink tenaient des semaines sur une charge et qui ont carrément démocratisé le concept de smartwatch grand public dès 2012.

Hé bien good news, le fondateur Eric Migicovsky a décidé de les ressusciter sauf que c’est en train de tourner au vinaigre avec les bénévoles qui ont maintenu l’écosystème durant 9 ans.

Pour ceux qui ont raté tout le feuilleton, après la faillite de Pebble en 2016 et le rachat par Fitbit (puis Google), une communauté de passionnés appelée Rebble s’est formée pour sauver les meubles. Ils ont récupéré les données de l’App Store, monté une infrastructure de serveurs, financé des développements… Bref, ils ont maintenu en vie un écosystème que tout le monde avait abandonné.

Puis en janvier 2025, Google a ouvert le code source de PebbleOS et Migicovsky a sauté sur l’occasion et a lancé sa boîte Core Devices en mars pour vendre de nouvelles montres Pebble : La Pebble 2 Duo à 149$ et la Pebble Time 2 à 225$. D’ailleurs, 70% des premières unités ont déjà été livrées. Bref, jusque là, tout va bien.

Sauf que Rebble accuse maintenant Core Devices de piller leur travail sans compensation. Selon ce qu’ils racontent leur blog , Migicovsky aurait “scrapé leurs serveurs” le jour même où il devait les rencontrer pour discuter partenariat. Rebble affirme avoir investi des centaines de milliers de dollars pour maintenir l’App Store et les services backend… et Core voudrait un accès illimité à tout ça pour potentiellement créer un App Store concurrent propriétaire.

La bibliothèque mobile libpebble3 utilisée par l’app Core Devices s’appuie notamment sur du code que Rebble a financé via son programme de subventions. Et c’est pareil pour le portage Bluetooth open source vers PebbleOS puisque c’est Rebble qui a payé les devs. Et bien sûr quand ils demandent un engagement écrit que Core ne créera pas un store concurrent… C’est silence radio.

Migicovsky a ensuite répondu sur son blog perso histoire de se justifier. Il nie tout vol et affirme que 90% du code de libpebble3 a été écrit par Core Devices, et pas par la communauté. Et pour le scraping, il explique qu’il construisait juste une petite webapp pour afficher ses watchfaces préférées et que ça n’a rien téléchargé de substantiel.

Et il contre-attaque en accusant Rebble de vouloir créer un pré-carré bien verrouillé emprisonnant les 13 000 et quelques applications que des développeurs indépendants ont créées. Rebble revendiquerait 100% des données de l’App Store alors qu’ils ne sont que l’hébergeur…

Alors qui croire ? Difficile à dire mais la bonne nouvelle c’est que Core Devices a ouvert les schémas électriques et mécaniques de la Pebble 2 Duo sur GitHub et bientôt, l’installation d’apps se fera via un système de feeds multiples, un peu comme les gestionnaires de paquets open source. Chacun pourra alors choisir son store.

Reste à savoir si les deux camps arriveront à s’entendre puisque Rebble a apparemment fait marche arrière sur certaines revendications, notamment sur la propriété du contenu hébergé. Mais le climat de confiance est sérieusement entamé et pour la communauté qui a bossé durement et gratos pendant 9 ans pour sauver tout écosystème… c’est sûr que ça fait mal de voir le fondateur original débarquer et se servir OKLM.

Après pour ceux d’entre vous qui ont une Pebble ou qui lorgnent sur les nouvelles, surveillez le subreddit r/pebble et le Discord Rebble car c’est là que tout ça se passe.

Source

Reçu — 27 novembre 2025

Comment cacher 🤔󠄻󠅟󠅢󠅒󠅕󠅞󠄞󠅙󠅞󠅖󠅟󠄐󠅓󠄗󠅕󠅣󠅤󠄐󠅠󠅢󠅕󠅣󠅡󠅥󠅕󠄐󠅑󠅥󠅣󠅣󠅙󠄐󠅒󠅙󠅕󠅞󠄐󠅡󠅥󠅕󠄐󠅜󠅕󠄐󠅖󠅢󠅟󠅝󠅑󠅗󠅕󠄐󠅖󠅟󠅞󠅔󠅥 un message dans un simple EMOJI ??

Par :Korben
27 novembre 2025 à 12:13

Vous voyez cet emoji ? 😎󠄺󠄗󠅑󠅙󠄐󠅠󠅑󠅣󠄐󠅥󠅞󠄐󠅠󠅕󠅥󠄐󠅜󠅕󠄐󠅝󠅕󠅙󠅜󠅜󠅕󠅥󠅢󠅣󠄐󠅣󠅙󠅤󠅕󠄐󠅔󠅥󠄐󠅝󠅟󠅞󠅔󠅕󠄐󠄯 Hé bien, il contient peut-être un message secret que vous ne pouvez pas voir.

Non je ne suis pas devenu fou, c’est de la stéganographie Unicode et c’est le sujet de ma dernière vidéo.

L’idée c’est de planquer du texte invisible à l’intérieur de n’importe quel caractère grâce aux sélecteurs de variation Unicode. Ces petits caractères invisibles se glissent après un emoji et peuvent encoder un message complet. À l’oeil nu, vous voyez juste un smiley. Mais en réalité, y’a peut-être tout un paragraphe caché dedans.

Dans cette vidéo, je vous montre donc comment utiliser l’outil open source de Paul Butler pour encoder et décoder vos propres messages. On teste aussi si ChatGPT arrive à lire ces messages cachés et je vous explique les applications concrètes comme le watermarking de contenu ou l’envoi de messages discrets.

C’est une technique à la fois fun et utile à connaître, que ce soit pour protéger vos créations ou juste pour impressionner vos potes geeks.

J’ai tout expliqué en 13 minutes, accessible même si vous n’y connaissez rien en Unicode. Et un grand merci à mes soutiens sur Patreon sans qui rien ne serait possible !

Un système de fichiers compressé grâce à un LLM

Par :Korben
27 novembre 2025 à 12:02

Vous connaissez peut-être FUSE (Filesystem in Userspace), ce truc qui permet de créer des systèmes de fichiers custom sans toucher au noyau Linux. C’est grâce à lui notamment qu’on peut monter un Google Drive, un bucket S3 ou même un dossier distant via SSH comme un simple répertoire local.

Hé bien, Rohan Gupta a poussé ce concept jusqu’à l’absurde en créant LLMfuse, un système de fichiers où toutes les opérations sont gérées par un modèle de langage fine-tuné.

Ainsi, quand vous faites un ls, un chmod ou un cat sur ce filesystem, c’est un LLM qui répond et chaque opération FUSE devient une requête au modèle. Pour parvenir à ces fins, le développeur a entraîné un Qwen3-4B sur environ 15 000 paires prompt/completion générées à partir de simulations d’opérations filesystem. Le modèle a alors appris à lire le contenu des fichiers, modifier les métadonnées, et même à représenter l’arborescence complète en XML.

Bon, dit comme ça, ça ressemble à une expérience de savant fou un peu conne… Mais y’a un truc vraiment intéressant qui découle de tout ça. En effet, l’auteur a découvert que la combinaison du codage arithmétique avec son modèle fine-tuné permettait d’atteindre des taux de compression délirants. Sur un fichier texte classique, il obtient par exemple une compression 22 fois meilleure que gzip. Et pour une arborescence de fichiers représentée en XML, c’est environ 8 fois mieux que squashfs.

Alors comment c’est possible cette magie noire ? Bah ça remonte au théorème de Shannon de 1948 sur l’entropie où plus un modèle prédit bien les données, moins il faut de bits pour les encoder. Un LLM fine-tuné sur un type de données spécifique devient alors un compresseur hyper efficace pour ces données.

L’auteur est le premier à admettre que c’est une expérimentation, donc, pas de quoi vous emballer non plus… Après si vous souhaitez l’utiliser, vous avez besoin d’un GPU, que l’intégralité du système de fichiers tienne dans la fenêtre de contexte du modèle, et ça ne marche vraiment bien que sur des données textuelles. Pour vos vidéos 4K ou votre bibliothèque de jeux Steam, on repassera… snif…

D’ailleurs, le fait que lipsum.txt (le classique Lorem Ipsum) soit surreprésenté dans les données d’entraînement des LLM aide beaucoup à gonfler les chiffres de compression mais même sur d’autres types de textes “normaux” qui ressemblent à ce qu’on trouve sur Internet, les gains restent entre 5x et 20x par rapport à gzip.

Le code source est disponible sous licence MIT, avec notamment un utilitaire CLI appelé llmencode que vous pouvez tester en local si vous avez une bonne carte graphique sous la main.

Amusez-vous bien !

Source

South Park en Super Panavision 70

Par :Korben
27 novembre 2025 à 06:17

Le concept ici c’est de prendre la série animée trash de Trey Parker et Matt Stone et de la transformer en film d’époque grâce à l’IA. Ça commence donc de manière assez réaliste avec les personnages principaux en version live-action rétro avec une petite voix off à l’ancienne… puis ça part complètement en vrille quand on arrive à Mr. Garrison, Satan et Mr. Hankey (mon préféré).

Et pour ceux qui se demandent, le Super Panavision 70 c’était le format cinéma panoramique haute résolution utilisé pour les grandes productions hollywoodiennes dans les années 50-70 pour Ben-Hur, 2001 l’Odyssée de l’espace, ce genre de trucs épiques.

Maintenant, appliquez ça à South Park et ses personnages bien trash et vous aurez quelque chose de très sympa ! La chaîne Abandoned Films qui a produit ce clip s’est spécialisée dans ce genre de contenus rétro générés par IA donc si vous aimez, vous pouvez aller voir le reste de leur contenu.

C’est le genre de trucs qu’on regarde à 2h du mat’ (ou à 7h du mat comme moi) en se demandant comment on est arrivé là dans sa vie ^^.

La Chine va peut-être interdire les poignées de porte rétractables des voitures

Par :Korben
27 novembre 2025 à 06:05

Vous voyez ces poignées de porte toutes lisses qui s’escamotent dans la carrosserie pour faire genre “je suis une voiture du futur” ? C’est ce qu’il y a sur les Tesla et sur les Ioniq 5 . Hé bien la Chine en a marre de ce design qui privilégie le look au détriment de la sécurité, et a décidé d’agir !

En effet, les régulateurs chinois planchent sur une interdiction pure et simple des poignées entièrement rétractables dès juillet 2027. L’idée c’est d’imposer un système de secours mécanique sur toutes les bagnoles, parce que oui, quand votre voiture électrique prend feu et que le système électronique tombe en rade… Bah bonne chance pour sortir mes petites merguez !

Le problème n’est pas nouveau, mais les drames s’accumulent. Plusieurs passagers de Tesla sont morts brûlés vifs après des accidents parce que les portes refusaient de s’ouvrir et en novembre 2024, cinq personnes sont décédées dans un Model S au Wisconsin après avoir percuté un arbre… Les témoins ont entendu leurs cris durant 5 minutes. Horrible ! Et dernièrement, en Californie, trois ados sont morts carbonisés dans un Cybertruck la veille de Thanksgiving. Les poignées électroniques avaient cramé avec le reste.

Heureusement, le NHTSA (le régulateur américain) a enfin ouvert les yeux et demande des comptes à Tesla avant le 10 décembre. L’enquête qui visait 174 000 Model Y s’étend maintenant à d’autres modèles, ce qui est parfaitement normal et rassurant vu qu’ils ont déjà recensé au moins 9 cas de personnes coincées à l’intérieur pendant que des passants tentaient de casser les vitres pour les sortir.

Et le pire dans cette technologie de poignées du tur-fu, c’est que le gain aérodynamique est ridicule. Selon les ingénieurs , une réduction de 0,01 du coefficient de traînée, ça économise à peine 0,6 kWh pour 100 km… Soit que dalle. En plus, le surpoids des moteurs et mécanismes (7-8 kg) annule quasiment ce maigre bénéfice. Voilà, tout ça pour pouvoir dire que sa caisse fait 0,23 au lieu de 0,24 de Cx (C’est le coefficient de traînée aérodynamique).

Franz von Holzhausen, le designer en chef de Tesla, a admis à Bloomberg qu’ils bossent sur un redesign pour rendre les poignées “plus intuitives pour les occupants en situation de panique”. Youpi !

La bonne nouvelle c’est que les poignées semi-rétractables resteraient autorisées en Chine , du moment qu’elles ont un backup mécanique. Volkswagen a toujours opté pour ce compromis, et Audi propose désormais un câble rouge de secours qui se déploie automatiquement en cas de crash. Comme quoi, c’était pas si compliqué.

Voilà… On n’est encore sûr de rien mais si la Chine passe cette loi, y’a de grandes chances que ça impacte les designs mondiaux… Pas le choix quand on veut vendre sur le plus gros marché automobile de la planète. Mais quoiqu’il en soit, je trouvais que c’était une bonne nouvelle pour la sécurité de tout le monde !

Source

Reçu — 24 novembre 2025

Evo 2 – L'IA qui écrit de l'ADN fonctionnel

Par :Korben
24 novembre 2025 à 14:25

Vous pensiez que les IA génératives se contentaient de pondre des images de chats à 6 pattes façon Ghibli et des textes pompés sur Wikipédia ? Hé bien, je vais vous décevoir car des chercheurs de l’Arc Institute, Stanford, NVIDIA, UC Berkeley et d’autres viennent de pousser le concept beaucoup, beaucoup plus loin…

En effet, ils ont créé Evo 2, le plus grand modèle d’IA pour la biologie jamais rendu public, capable de lire, comprendre et même écrire de l’ADN fonctionnel. Et cerise sur le gâteau, une étude publiée cette semaine dans Nature démontre qu’on peut utiliser cette technologie pour créer des protéines totalement nouvelles qui n’ont jamais existé dans la nature… et qui fonctionnent vraiment !

Le projet Evo 2 fonctionne comme un LLM classique, sauf qu’au lieu de lui faire bouffer du texte, on lui a fait avaler 9,3 trillions de nucléotides (les fameux A, T, G, C qui composent l’ADN) provenant de plus de 128 000 génomes couvrant tous les domaines du vivant : bactéries, archées, virus, mais aussi humains, plantes et autres eucaryotes.

Leur modèle existe en deux versions : 7 milliards et 40 milliards de paramètres (comparable aux gros LLM actuels) mais sa vraie force, c’est sa fenêtre de contexte d’un million de paires de bases, soit 8 fois plus que son prédécesseur Evo 1. Pour vous donner une idée, c’est suffisant pour analyser un chromosome entier de levure ou un génome bactérien complet en une seule passe.

Pour entraîner ce monstre, il a fallu mobiliser plus de 2 000 GPU NVIDIA H100 pendant plusieurs mois sur le cloud DGX, soit environ 150 fois plus de puissance de calcul qu’AlphaFold. L’architecture utilisée, baptisée StripedHyena 2 , permet un entraînement 3 fois plus rapide que les transformers classiques sur les longues séquences et petit fun fact, Greg Brockman, cofondateur d’OpenAI, a participé au développement de cette architecture pendant son année sabbatique.

L’une des applications les plus impressionnantes d’Evo 2, c’est sa capacité à prédire si une mutation génétique risque de causer une maladie, et ce, sans aucun entraînement spécifique. Les chercheurs ont testé le modèle sur le gène BRCA1, connu pour son lien avec le cancer du sein. Résultat, Evo 2 a prédit avec plus de 90% de précision quelles mutations étaient pathogènes et lesquelles étaient bénignes.

Mieux encore, Evo 2 est actuellement le seul modèle capable de prédire l’effet des mutations dans les régions non-codantes de l’ADN (les fameuses parties qu’on pensait “inutiles” et qu’on appelait autrefois “ADN poubelle”). Pour les variants codants, il est second meilleur, mais pour les variants non-codants, il est carrément le top du top of the pop !

Et pour prouver que le modèle ne fait pas que régurgiter ses données d’entraînement, l’équipe lui a demandé d’annoter le génome du mammouth laineux, une espèce qui n’était évidemment pas dans son dataset. Et le modèle a correctement identifié la structure exons-introns du génome de ce pachyderme (aujourd’hui disparu parce que j’ai mangé le dernier), démontrant qu’il a vraiment “compris” les règles fondamentales du vivant.

Mais là où ça devient vraiment dingue, c’est ce concept de “design sémantique”. En effet, dans les génomes bactériens, les gènes qui travaillent ensemble sont souvent positionnés côte à côte, du coup, si on donne à l’IA le contexte génomique d’une fonction particulière, elle peut générer de nouveaux gènes ayant des fonctions similaires.

En gros, on prompte l’IA avec de l’ADN au lieu de texte, et comme un bon LLM qui complète vos phrases, Evo complète… vos génomes.

Pour tester cette approche, les chercheurs ont d’abord généré une toxine bactérienne basée sur une toxine connue. Ils ont ensuite utilisé cette toxine comme “prompt” pour demander à l’IA de créer des antitoxines correspondantes. Sur 10 propositions, la moitié ont réussi à neutraliser partiellement la toxine, et deux d’entre elles l’ont complètement désactivée avec 95-100% de survie cellulaire.

Et ces antitoxines n’avaient que 21 à 27% de similarité avec les protéines existantes, donc autant dire qu’Evo a inventé quelque chose de quasi-nouveau ! Et ce n’est pas du bricolage aléatoire puisque l’analyse montre que ces protéines seraient l’équivalent d’un assemblage de 15 à 20 morceaux de protéines différentes, recombinés de façon inédite.

Et ce qui est encore plus impressionnant, c’est que certaines de ces antitoxines générées fonctionnent contre plusieurs toxines différentes utilisant des mécanismes d’action distincts. L’une d’elles neutralise trois toxines naturelles, alors que l’antitoxine naturelle équivalente ne fonctionne que contre sa toxine d’origine. L’IA aurait donc identifié une compatibilité fonctionnelle plus large que ce qu’on observe dans la nature !

Les chercheurs ont aussi testé des systèmes où l’antitoxine est un ARN plutôt qu’une protéine. Là encore, le modèle a généré une antitoxine fonctionnelle avec 88% de survie, tout en conservant les caractéristiques structurelles essentielles malgré une séquence divergente.

Mais surtout, l’équipe a généré une toxine qui ne ressemble à absolument rien de connu. Aucune similarité de séquence, aucune similarité structurale, même avec les méthodes de détection les plus sensibles. Pour reconstituer tous les acides aminés de cette protéine, il faudrait recombiner des fragments de plus de 40 protéines différentes, ce qui ressemble plus à une protéine Frankenstein créée de toutes pièces qu’à une variation évolutive.

Et histoire de pousser l’idée encore plus loin, l’équipe s’est attaquée aux anti-CRISPR. Ce sont des protéines utilisées par les phages pour désactiver le système immunitaire bactérien, qui sont parmi les plus évolutives qui existent, avec une diversité de séquences et de mécanismes absolument folle.

Et 17% des protéines générées ont montré une activité anti-CRISPR mesurable, soit un taux de succès remarquable. Parmi les candidates qui fonctionnent, certaines n’ont aucune similarité de séquence détectable avec les protéines connues, et même leurs structures prédites ne ressemblent à rien dans les bases de données. Ce sont littéralement des protéines nouvelles qui font le job !

Mais Evo 2 ne s’arrête pas à la génération de protéines individuelles. Le modèle peut maintenant créer des séquences génomiques complètes de plusieurs centaines de milliers de paires de bases. L’équipe a testé trois niveaux de complexité :

  • Génomes mitochondriaux : à partir d’un fragment de 3 kb d’ADN mitochondrial humain, Evo 2 a généré des génomes complets de 16 000 bases avec le bon nombre de gènes codants, d’ARNt et d’ARNr. Les protéines générées ont été validées par AlphaFold 3 et correspondent à des complexes fonctionnels de la chaîne respiratoire.
  • Génomes bactériens : en partant de Mycoplasma genitalium (le génome bactérien minimal), le modèle a produit des séquences de 600 kb où près de 70% des gènes prédits correspondent à des domaines protéiques connus.
  • Chromosomes de levure : Evo 2 a généré 330 kb d’ADN eucaryote avec des introns, des promoteurs, des ARNt correctement positionnés, le tout ressemblant aux vrais gènes de levure.

Les chercheurs ont même encodé des messages en code Morse (“EVO2”, “LO”) dans les profils d’accessibilité de la chromatine des séquences générées, démontrant qu’on peut “programmer” l’épigénome avec ce modèle.

On nage en pleine science-fiction, mais ça fonctionne !

Pour finir en beauté, l’équipe a lâché Evo sur 1,7 million de gènes bactériens et viraux comme prompts, générant 120 milliards de paires de bases d’ADN synthétique. Cette base de données, baptisée SynGenome , est accessible gratuitement et permet de rechercher des séquences par fonction, domaine protéique, espèce ou terme Gene Ontology.

On y trouve notamment des protéines chimériques avec des fusions de domaines jamais observées dans la nature. Ces combinaisons pourraient représenter des innovations fonctionnelles à explorer pour la biologie synthétique.

Et le plus beau dans tout ça c’est que tout est open source. Les modèles (7B et 40B paramètres) sont disponibles sur Hugging Face , le code d’entraînement et d’inférence est sur GitHub , et le dataset OpenGenome2 est téléchargeable. Vous pouvez même tester Evo 2 directement dans votre navigateur via l’ API hébergée par NVIDIA ou l’interface Evo Designer.

Pour ceux qui veulent aller plus loin, NVIDIA propose aussi des tutoriels de fine-tuning via son framework BioNeMo , et une collaboration avec le labo Goodfire a produit un outil d’interprétabilité pour visualiser ce que le modèle “voit” dans les séquences génomiques.

Bien sûr, la génération autorégressive peut produire des séquences répétitives ou des “hallucinations” biologiques (des gènes réalistes mais non fonctionnels), et c’est pourquoi ce design sémantique nécessite des filtres et des validations expérimentales. De plus, cette approche est limitée aux fonctions encodées par les relations contextuelles dans les génomes prokaryotes, ce qui exclut de nombreuses applications eucaryotes… pour l’instant.

Un des génomes bactériens générés était d’ailleurs incomplet et ne fonctionnerait probablement pas si on le synthétisait et l’insérait dans une vraie bactérie. Mais l’équipe travaille déjà avec des experts en synthèse et assemblage d’ADN de l’Université du Maryland pour tester expérimentalement ces génomes générés.

Bref, on n’en est pas encore à créer des enzymes qui digèrent le plastique sur commande, mais le fait qu’une IA puisse générer des protéines fonctionnelles à partir de rien, juste en apprenant les patterns de l’évolution… c’est quand même complètement dingue. Et avec un taux de succès allant de 17 à 50% sur seulement quelques dizaines de variants testés, le design sémantique surpasse déjà de nombreuses méthodes classiques de conception de protéines.

Quoiqu’il en soit, la biologie générative vient de franchir un cap, et j’ai hâte de voir ce que les biologistes vont en faire !

Source

Reçu — 21 novembre 2025

Memo - Le robot qui ne juge pas à quel point vous êtes crado

Par :Korben
21 novembre 2025 à 11:00

Et encore un robot qui plie du linge !!!

C’est comme si votre belle-mère avait emménagé chez vous, sauf que celui-là ne vous fera pas de remarques sur votre façon d’organiser le frigo ^^. La startup Sunday vient en effet, de présenter Memo, un robot domestique qui promet de vous libérer des tâches ménagères. En tout cas, avec ce truc, plus besoin de faire des gosses… Mais siii, vous savez ces mini prisonniers que vous utilisez pour vider et remplir vos lave vaisselles et que des cinglés veulent sacrifier afin de donner un sens à leur vie.

Blague à part, Memo est développé par Tony Zhao et Cheng Chi, deux diplômés de Stanford qui ont bossé chez Tesla, DeepMind, Waymo, Meta et Neuralink, s’inscrivant dans la lignée de ces autres robots domestiques innovants . L’équipe compte maintenant 25 ingénieurs et chercheurs et ce robot a été pensé différemment des autres machines du genre.

Au lieu de s’entraîner dans des simulations industrielles ou des labos aseptisés, Memo a appris en observant de vrais humains faire leurs corvées dans plus de 500 foyers réels. Et sa techno clé, c’est le gant breveté “Skill Capture Glove”.

Des volontaires ont porté ce gant pendant qu’ils faisaient leur ménage, et le système a capturé leurs mouvements. Comment ils plient le linge, comment ils rangent les chaussures dans l’entrée, comment ils chargent le lave-vaisselle, comment ils se… euh, pardon, je m’égare. Bref, Sunday a envoyé plus de 2 000 gants à ces “Memory Developers” et a collecté environ 10 millions d’enregistrements de tâches domestiques réelles. D’après eux, c’est l’une des plus grosses bases de données spécialisées pour robots domestiques qui existe !

L’idée de départ c’est que la plupart des robots domestiques sont des adaptations de machines industrielles. Ils fonctionnent bien dans des environnements structurés pour l’occasion, mais ils plantent lamentablement dès qu’ils se retrouvent face au chaos d’une vraie maison. Des chaussettes qui traînent n’importe où, des assiettes empilées n’importe comment, un chat qui passe devant eux au mauvais moment et c’est la catastrophe !

Du coup, grâce à ces millions d’exemples de situations domestiques authentiques, Memo peut gérer ce qu’ils appellent les “tâches à horizon long”. Ce sont des actions en plusieurs étapes où il faut prendre des décisions selon le contexte comme débarrasser une table, remplir et vider un lave-vaisselle, plier du linge, ranger les chaussures qui trainent dans l’entrée, et même préparer un espresso.

Bon après faudra pas lui demander de gérer un ado en crise existentielle qui n’a plus de Wifi, mais c’est déjà pas si mal.

Côté design, comme vous pouvez le voir, Memo ne ressemble pas du tout aux robots humanoïdes qui font des saltos sur scène. Il a une base roulante au lieu de jambes, ce qui lui permet de rester stable même si le courant se coupe. Donc pas de risque qu’il vous tombe dessus pendant votre sieste.

Son torse peut également monter et descendre pour atteindre des objets à différentes hauteurs et visuellement, il a vraiment un air rétrofuturiste assez mignon avec son corps blanc brillant, ses deux bras super longs, et un visage de cartoon avec des grands yeux en boutons… Ah et vous pouvez même lui mettre différentes casquettes de couleur pour lui donner un look west coast.

Ça me rappelle un peu Baymax dans Big Hero 6. Son corps est également recouvert de silicone souple, ce qui le rend plus dodu et rassurant qu’un robot humanoïde classique froid avec son look de T-1000.

La sécurité a été également bien pensée, d’après ce qu’ils expliquent. Memo est en effet conçu pour être “safe” en présence d’enfants. Si un gamin le pousse ou lui rentre dedans, il ne va pas riposter en lui mettant un coup de savate comme Nawell. Et sa stabilité passive fait qu’il ne peut pas tomber brutalement même en cas de coupure de courant, contrairement à un père de famille bourré et violent.

Et concernant la vie privée, Sunday insiste sur le fait que leur méthode d’apprentissage est respectueuse puisque le robot n’a pas besoin de vous filmer en permanence pour apprendre, vu qu’il utilise les données collectées via le fameux gant et sa bibliothèque de compétences en expansion permanente.

Voilà, le programme de bêta-test “ Founding Families ” a ouvert le 19 novembre et ils vont sélectionner 50 familles qui recevront des exemplaires numérotés de Memo avec un support rapproché de l’équipe. JE ME PORTE VOLONTAIRE POUR TESTER CE TRUC !! Et ensuite, le produit final sera commercialisé au plus tôt fin 2026 avec un prix de départ estimé autour de 20 000 dollars. Ouais, c’est pas donné, mais bon, si vous calculez le coût “d’élevage” d’un enfant jusqu’à ce qu’il soit capable de plier une chaussette correctement, vous vous rendrez compte que c’est peut-être pas si cher ^^.

Source

Reçu — 19 novembre 2025

Le créateur de Mastodon se casse de sa propre plateforme (et je le comprends)

Par :Korben
19 novembre 2025 à 22:20

Hé bien voilà, c’est officiel ! Eugen Rochko, le créateur de Mastodon, quitte son poste de CEO avec un chèque d’un million d’euros et un soupir aussi profond que la Fosse des Mariannes. Et franchement, on peut pas lui en vouloir.

Dans son annonce, Rochko explique que “les deux dernières années ont été particulièrement difficiles” et que sa santé mentale et physique en a pris un coup. Il mentionne notamment une interaction “particulièrement difficile” avec un utilisateur l’été dernier qui l’a vraiment poussé à reconsidérer son rôle.

Quand le mec qui a créé un réseau social se barre de ce même réseau social à cause de la toxicité de ses utilisateurs, je pense qu’on peut officiellement déclarer le web social complétement mort.

Ça confirme totalement mon choix de m’être cassé de ces trous à merde parce que de ce que je lis dans cet article et de ma propre expérience, Mastodon ne vaut finalement pas mieux que X ou Facebook en matière de faune toxique. C’est dommage parce qu’à la base, l’idée du Fediverse c’était justement d’échapper à ça. Mais bon, mettez des humains ensemble sur Internet et attendez cinq minutes, vous obtiendrez invariablement un zoo où les animaux se lancent leurs excréments à la figure.

Pour rappel, Mastodon avait connu son heure de gloire après le rachat de Twitter par Elon Musk, atteignant un pic de 2,5 millions d’utilisateurs mensuels actifs. Mais aujourd’hui, ils ne sont plus qu’environ 750 000. C’est quand même une chute de 70% ! J’ai l’impression que les gens sont partis aussi vite qu’ils étaient venus, probablement fatigués de se faire engueuler parce que “insérez ici n’importe quoi pourvu que ça permette de beugler publiquement”.

Matthew Hodgson, le fondateur de Matrix / Element, résume également la situation en expliquant que les utilisateurs de ces plateformes décentralisées attendent qu’elles les “sauvent du paysage dystopique insupportable” des réseaux sociaux centralisés, sauf que spoiler alert, le problème ce n’est pas uniquement les plateformes… ce sont aussi les gens dessus. Vous pouvez décentraliser tant que vous voulez, si les utilisateurs sont des connards toxiques ou des victimes du syndrome de Stockholm accros à leur dose quotidienne de drama, ça ne changera rien.

Rochko va donc passer à un rôle consultatif le temps d’une transition de deux à trois mois et c’est le conseil d’administration de Mastodon, qui inclut Biz Stone (co-fondateur de Twitter, ça ne s’invente pas..), qui supervisera la suite. Je leur souhaite bon courage pour trouver quelqu’un d’assez maso pour reprendre le flambeau ^^.

Alors c’est vrai qu’échanger avec des gens normaux sans se faire agresser pour rien, ça me manque parfois, c’est vrai. Mais heureusement, j’ai mon Discord rempli de gens cools et mon Patreon qui est le temple de la bienveillance. Ce sont des endroits où on peut encore discuter sans qu’un random débarque pour m’expliquer que je suis un monstre pour avoir écrit tel ou tel article ou parce que j’ai mis de l’ananas sur ma pizza.

Et c’est normal car y’a pas de cour devant laquelle se faire mousser pour faire grimper son klout ^^.

M’enfin, bon courage à Eugen Rochko… je pense qu’il a fait le bon choix et avec son million d’euros, il va pouvoir s’offrir une belle thérapie et peut-être même des vacances dans un endroit sans WiFi. Le web social a certes été tué par les algorithmes mais surtout par ses propres utilisateurs qui ont complétement vrillés (les autres sont partis).

Sur ce, je retourne sur mes réseaux chillax et je vous souhaite une excellente soirée !

Source

Reçu — 17 novembre 2025

Zniko - Pour prendre du plaisir avec une seule main

Par :Korben
17 novembre 2025 à 09:30

Ce matin sur mon live Twitch , Zniko Boc a débarqué pour me montrer un truc qu’il a fabriqué ! Il s’agit d’une manette de jeu pour jouer avec… une seule main !

Car Zniko est aphasique depuis un accident vasculaire cérébral (AVC). Il a du mal à parler, à lire et à écrire et il n’a aucune sensation du côté droit. Du coup, pour continuer à jouer aux jeux vidéo, il a cherché des solutions. Il a testé toutes les manettes adaptatives du commerce, du Xbox Adaptive Controller de Microsoft à 90 euros. au Sony Access. Bref, tous les trucs qui existent sur le marché et aucun ne lui a convenu vraiment.

Pas mal de problèmes d’accessibilité aux touches, de la latence, un ergonomie pas folle… Et quand vous êtes dans cette situation et que vous dépensez 90 balles pour un truc qui ne résout pas votre problème, ça énerve !

Alors Zniko a fait ce que font les makers quand les solutions du commerce sont pourries : il a construit la sienne ! Il a modélisé sa propre manette, trouvé les composants nécessaires, et adapté un logiciel.

Et ça fonctionne !!

La manette de Zniko permet de jouer de la main gauche ou de la main droite sur PC, Xbox One, Nintendo Switch et PlayStation. Soit 4 plateformes différentes avec le même hardware. Elle peut se fixer sur un bureau ou un plateau. Ou alors vous la sanglez autour de votre cuisse, et vous jouez comme ça, OKLM.

Le mec a testé sa manette sur un paquet de jeux : Minecraft, Mario Kart 8 Deluxe, Super Mario Bros Wonder, Metroid Dread, Metroid Prime 1, Risk of Rain 2, Zelda Breath of the Wild, Super Mario Odyssey, Monster Hunter Rise…etc et ça marche du feu de dieu !

Après y’a quand même quelques limitations notamment pour les jeux de tir où vous devez viser librement, c’est plus compliqué. Risk of Rain 2 sans sélection automatique des ennemis, c’est la galère. Par contre, Metroid Prime 1 avec le lock-on, ça passe nickel. Et les triggers analogiques genre accélérateur progressif, la manette Zniko peut pas le faire soit c’est à fond, soit c’est rien. Mais pour la majorité des jeux, ça fonctionne très bien !

Le truc dingue, c’est comment il a monté ça car Zniko a mobilisé toute sa famille. Son père, ancien électricien, a fait les soudures sur la première version. Sa femme, sa fille et son fils l’ont aidé pour les vis et les trous parce que visser et percer avec une seule main fonctionnelle, c’est pas évident !

Et côté technique, Zniko a utilisé le logiciel open source GP-2040 . C’est un firmware qui transforme n’importe quel microcontrôleur en manette universelle.

Bref, c’est un super projet collaboratif finalement avec une famille soudée, et une communauté maker qui participe pour au final aider le plus grand nombre car Zniko vend maintenant sa manette sur Etsy. Vous pouvez donc l’acheter déjà assemblée, ou en kit avec les pièces détachées si vous voulez la monter vous-même. Main gauche ou main droite, au choix comme je vous le disais. Il propose aussi des tutoriels complets de montage pour ceux qui veulent se lancer !!

Le but de Zniko, c’est pas de devenir riche (Il a tord quand même ^^) mais c’est de rendre sa solution accessible à d’autres personnes dans son cas ! Et c’est pour ça que j’écris cet article aujourd’hui , c’est pour le soutenir et vous faire découvrir sa super manette parce qu’il y en a peut-être parmi vous qui en ont besoin. Voilà, son site c’est sites.google.com/view/zniko Et vous y trouverez toutes les infos.

Bref, je tire mon chapeau à Zniko et je souhaite un immense succès à sa magnifique manette.

Reçu — 16 novembre 2025

Une bataille après l'autre

Par :Korben
16 novembre 2025 à 15:23

Ce week-end, j’ai vu le film “Une bataille après l’autre” sans rien en attendre de spécial, c’est vrai. Juste parce qu’en général, j’aime bien ce que propose Leonardo DiCaprio… et 2 heures et demie plus tard, j’étais scotché !

L’histoire suit un ancien révolutionnaire, Bob Ferguson, qui vit planqué avec sa fille après avoir tout laissé tomber. Sauf que son passé le rattrape quand un militaire corrompu qu’il a humilié des années plus tôt refait surface. Et là, Bob doit replonger dans son ancienne vie pour sauver sa fille. Ce film parle de résistance et de gens normaux qui se battent contre un État surpuissant, dans une société qui n’est pas en guerre mais où l’appareil d’État écrase tout sur son passage.

Ça résonne hyper fort avec ce qui se passe en ce moment aux États-Unis avec ces histoires horribles de déportations avec ICE, les familles séparées, tout ça… Le film montre donc des résistants amateurs, qui refusent d’abandonner malgré l’usure du combat et surtout, l’État en face qui ne se lasse jamais et n’abandonne jamais.

Leonardo DiCaprio, comme toujours, est juste parfait dans son rôle. J’adore cet acteur depuis toujours, mais là il livre une performance dingue. Il joue donc cet ex-révolutionnaire fatigué, paranoïaque, qui vit la moitié du temps totalement défoncé pour oublier toute cette merde… Mais quand vient le moment de se bouger, il ne fait pas semblant. C’est une seconde nature chez lui et DiCaprio arrive à montrer cette usure, cette fatigue, tout en gardant cette détermination du type qui ne lâche rien et qui a toujours gardé cette flamme de résistance en lui.

Et puis Sean Penn… OMG… Il y joue le colonel Steven Lockjaw, un militaire complètement taré qui a développé une obsession malsaine pour Bob et sa femme après avoir été humilié. Penn fait vraiment flipper en vieux suprémaciste qui a toutes ses entrées au niveau de l’État. Il est terrifiant de réalisme car c’est un type dangereux avec du pouvoir et ses copains les tarés, ne sont pas mieux.

Le film est réalisé par Paul Thomas Anderson, le mec derrière “There Will Be Blood” et “Licorice Pizza” et il s’attaque ici à un budget énorme, entre 110 et 140 millions de dollars rien que pour ce film. Et ça se voit puisque les scènes d’action sont dingues ! Mais ce qui m’a marqué surtout, c’est l’ambiance. Car Anderson crée une tension permanente avec cette sensation que l’État peut tout écraser à tout moment, et que les résistants sont toujours en danger.

L’histoire est inspirée du roman “ Vineland ” de Thomas Pynchon (lien affilié). Et je ne sais pas si c’est basé sur une histoire vraie ou pas (j’crois pas) mais l’histoire est folle et le casting excellent. Au-delà de DiCaprio et Penn, on a aussi Benicio del Toro, Regina Hall, Teyana Taylor… Tout le monde est au top !

Ce qui m’a plu dans ce film, c’est ce côté amateur de la résistance qui s’organise intelligemment avec des gens normaux, et pas des guerriers entraînés, qui font ce qu’ils peuvent avec leurs moyens limités. Et l’État en face, qui est une machine de guerre totale ayant tout : l’argent, les armes, la légalité. Les résistants, eux, ont juste leur conviction et ils s’y tiennent malgré la violence et le temps qui passe. J’ai eu l’impression de voir de l’eau couler… c’est une résistance fluide, naturelle, humaine…

Voilà, vous l’aurez compris, ça m’a vraiment plu ! Bref, je vous recommande d’aller voir “Une bataille après l’autre” !

Batman Dark Age - Et si Batman oubliait d'être Batman ?

Par :Korben
16 novembre 2025 à 14:45
– Article en partenariat avec Urban Comics –

Urban Comics vient sortir Batman Dark Age (lien affilié), et ça me fait plaisir de vous en parler car vous connaissez mon amour pour Batman ! C’est mon seul vrai héros préféré depuis toujours car il a ce côté sombre, cette souffrance, cette humanité que j’adore et qui le met tellement au dessus des autres, et surtout, il n’a aucun super pouvoir ! (Mais un gros paquet de pognon c’est vrai…).

Et ce qui est cool avec cet album, c’est que les auteurs sont partis de ce constant simple : Et si Batman perdait la mémoire ?

On est donc en 2030 et Bruce Wayne est vieux, grabataire, et enfermé dans une maison de retraite. Du coup, pour ne pas tout oublier, il se raccroche à ses souvenirs. Notamment cette nuit de 1957 où tout a basculé, quand ses parents se sont fait descendre, avec un changement majeur par rapport à l’origine classique, c’est que lui n’était pas là. Le bouquin suit alors ses débuts de justicier, son adolescence en colère, l’armée, le rôle important d’Alfred et de Lucius Fox et toute la construction du mythe Batman mais vue depuis le regard d’un vieux bonhomme.

C’est un angle que je trouve vraiment dingue parce qu’on connaît tous l’origine de Batman par cœur, ais là, Russell la revisite totalement en la faisant passer par le prisme de la vieillesse et de la mémoire qui flanche où Batman oublie d’être Batman.

Le scénario est signé Mark Russell (lien affilié) qui a été nominé pour le prix Eisner du meilleur scénariste en 2023. Il a déjà bossé sur Superman Space Age avec les mêmes dessinateurs, une série nominée aux Eisner également. D’ailleurs Batman Dark Age partage le même univers temporel que Superman Space Age, où les événements historiques réels coexistent avec les super-héros DC. On est dans les années 60, en pleine Guerre Froide, mouvement des droits civiques, conquête spatiale…etc et petit Batman grandit dans ce contexte explosif.

Et visuellement, c’est Mike Allred qui gère les dessins, avec sa femme Laura Allred aux couleurs. Si vous connaissez pas le style Allred, imaginez du pop art années 60 qui rencontre Jack Kirby . Des lignes épurées, du dynamisme, des couleurs pétantes… Mike Allred (lien affilié), c’est surtout le mec derrière Madman, iZombie, X-Statix et son style colle parfaitement à cette époque charnière des années 60 où Batman évolue dans cette histoire.

Et là, le fait de passer par la mémoire d’un Bruce Wayne sénile ajoute une couche de mélancolie et d’urgence car il doit se souvenir avant qu’il ne soit trop tard. Le bouquin fait 264 pages et est vendu 25 euros chez Urban Comics dans la collection DC Black Label, qui regroupe les œuvres DC les plus matures et d’un bloc. Batman Dark Age compile en effet les 6 numéros de la série sortie en 2024 aux États-Unis.

Bref, j’ai passé un super bon moment avec cette lecture. Pour ceux qui aiment Batman autant que moi, c’est vraiment le cadeau de Noël idéal. Vous en aurez pour votre argent vu l’épaisseur du bouquin et la qualité du récit et je trouve que Russell et Allred forment un duo très créatif !

D’ailleurs, ce Batman Dark Age fait partie d’une trilogie que Russell et les Allred sont en train de créer chez DC. Après Superman Space Age sorti en début d’année et ce Batman Dark Age (liens affiliés), ils bossent également sur un Wonder Woman qui complétera le tout. Donc si comme moi, vous aimez voir vos héros revisités avec beaucoup d’intelligence et de style, je pense que vous allez vous régaler.

Découvrez Batman Dark Age chez Urban Comics .

Reçu — 14 novembre 2025

Firefox AI Window - L'IA qui vous respecte

Par :Korben
14 novembre 2025 à 06:29

Édit du 18 novembre : Je me suis pris quelques insultes d’anti- suite à cet article. Sans surprise, des attaques ad-hominem sans argument comme d’hab. Par contre, si j’édite ce post, c’est pour vous dire que Anil Dash, qui est assez connu dans le monde de la tech, pense plus ou moins pareil que moi au sujet de l’IA dans Firefox. Donc ça me rassure un petit peu parce que j’avais vraiment l’impression d’être tout seul… Son article est disponible ici. *

Je viens à l’instant de m’inscrire sur la liste d’attente de Firefox AI Window . Il s’agit d’une nouvelle fonctionnalité IA pour Firefox qui tournera en local, respectera la vie privée, et nous laissera choisir notre modèle. Je suis assez hypé par le truc mais je vous avoue que les commentaires sur le forum Mozilla Connect sont… comment dire… assez révélateurs.

En effet, il y a une écrasante majorité de réactions négatives. Alors c’est pas contre l’implémentation technique, ni contre l’approche privacy-first de Mozilla. Non, c’est essentiellement contre le simple fait que le mot “IA” existe au sein de Firefox. Certains utilisateurs réclament même un bouton géant “No AI” visible depuis l’espace, pour désactiver une fonctionnalité qui est déjà désactivée par défaut. Ces mecs ont de la fièvre je pense…

Le truc qui m’agace en fait, dans ces réactions teubées, c’est qu’elles passent complètement à côté de l’enjeu stratégique. Chrome intègre Gemini de façon de plus en plus invasive, Edge a Copilot, Arc a son Browse for Me, Perplexity et OpenAI lancent leurs navigateurs IA… Alors si ce bon vieux Firefox reste immobile au sujet de l’IA pendant que tout le monde avance, je vous rassure, il ne deviendra jamais “le dernier bastion de la pureté” qui fait mouiller les anti-IA.

Non, il deviendra juste obsolète.

Réveillez-vous les gars, Mozilla propose exactement ce que les libristes demandent depuis toujours ! Un respect de la vie privée, un contrôle utilisateur total, de la transparence, un fonctionnement en local, des petits modèles, du code libre…etc.

Mais bon parce que c’est de l’IA, ça devient l’ennemi. Faudrait quand même être sacrément con pour saborder la SEULE implémentation IA grand public qui respecte réellement ces principes de liberté et de respect de la vie privée.

Plutôt que de gueuler sur Mozilla, je vous invite plutôt à vous poser cette question : Est ce que vous préférez une IA locale optionnelle dans Firefox, ou une IA obligatoire cloud-only dans Chrome qui aura au final capté 95% du marché parce que Firefox sera mort de n’avoir rien fait ?

Parce que si Firefox disparaît, on perdra le dernier navigateur grand public capable de proposer une alternative respectueuse pour notre vie privée et ça perso, ça m’inquiète.

Nos champions anti-IA n’ont, pour la plupart, même pas remarqué que Firefox proposait déjà des fonctionnalités IA locales depuis le début cette année . Je pense au tab grouping automatique avec suggestions de titres, à la traduction de pages instantanée sans envoyer le contenu hors de votre machine, à la génération d’alt-text pour des images accessibles sans faire de compromis sur la vie privée… Tout ça tourne déjà en local chez vous et pas grand monde ne s’en plaint.

Je pense que c’est parce que Mozilla ne communique pas dessus en mettant des paillettes “AI-powered” partout. Ils font juste leur taf. C’est un peu comme quand je parle d’une super application cross-platform… Suffit que j’écrive que c’est fait en Electron et y’en a qui tombent dans le coma direct. Et cela peu importe que l’app soit folle ou pas. Bref, c’est ridicule.

AI Window sera donc une troisième fenêtre de navigation (en plus des fenêtres classiques et privées), avec un assistant et un chatbot intégré. Mozilla présente ça comme, je cite, “un compagnon de confiance qui améliore votre navigation et vous guide vers le web plus large”, par opposition aux navigateurs IA qui vous enferment dans une boucle conversationnelle pour à terme, je pense vous vendre des trucs et conserver votre attention et vos données perso.

Grâce à Mozilla, vous pourrez choisir votre modèle IA et tout sera “opt-in” comme on dit. Ça veut dire que tout sera en option et rien ne sera activé par défaut. Vous pourrez choisir de l’activer ou non ! Que demande le peuple ? C’est merveilleux non ?

Faut dire que Mozilla a clairement appris de ses erreurs puisqu’ils ne forcent rien, ne pré-activent rien mais construisent tranquillement le meilleur navigateur possible, à la vue de tous (le code est libre, open source et chacun peut contribuer et donner son avis). Après, même comme ça, même en jouant la transparence absolue, ça ne plaira jamais à une certaine petite caste de barbus aveuglés par des idées pré-digérées faciles à comprendre. Tant pis pour eux !

Maintenant, le vrai enjeu pour moi, c’est pas ça, c’est surtout l’ouverture aux développeurs. J’espère vraiment que ces fonctionnalités IA seront accessibles via une API pour les extensions Firefox. Si c’est le cas, on va pouvoir créer des extensions qui s’appuient sur l’IA locale de Mozilla, sans avoir à ajouter un modèle de 500 MB ou à envoyer les données utilisateur dans le cloud. Et ça, j’avoue ce serait trop cool car ça ouvrirait l’écosystème des extensions Firefox à tout un tas de nouvelles extensions “intelligentes” qui respectent la vie privée.

Voilà… je sais que le changement c’est dur les gars, et que ça hérisse les poils de cul de certains pas bien sevrés mais l’IA de Mozilla va apporter des choses intéressantes dans le navigateur, que ça vous plaise ou non. Et si Mozilla ne se met pas à la page, Firefox prendra encore plus la poussière et finira par être délaissé. Et au final, on aura tout perdu et y’aura même plus d’IA qui respecte la vie privée et qui soit accessible au grand public gratuitement.

Voilà… Soyez pas cons. En tout cas, pour ma part, j’ai hâte de tester AI Window quand ça sortira !

Source

Reçu — 12 novembre 2025

ByteBot - L'agent IA qui prend le contrôle de votre ordi (mais dans Docker, faut pas déconner)

Par :Korben
12 novembre 2025 à 15:42

Vous saviez que Claude d’Anthropic avait lancé sa fonction Computer Use et OpenAI son Operator ? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.

Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.

Je vous ai fait une vidéo tuto dessus ! Et c’est grâce aux Patreons qui me soutiennent, alors merci à eux !

Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.

Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.

Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.

git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992

Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.

L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.

Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.

Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^

Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.

Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.

from bytebot import ByteBotClient

client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)

Et pour la sécurité, ByteBot implémente plusieurs garde-fous . Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.

Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.

Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.

Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.

Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.

Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la documentation complète ici , et le code source sur GitHub .

Reçu — 3 novembre 2025

L'apocalypse arrive et ça va bien se passer

Par :Korben
3 novembre 2025 à 11:33

En général, quand on parle de fin du monde, c’est soit du blabla philosophique autour d’une bière, soit c’est Bruce Willis qui sauve l’humanité avec une perceuse. Mais cette fois, on va aller un peu plus loin que ça… Car une équipe de chercheurs a trouvé le moyen d’observer pour de vrai comment les gens se comportent quand ils savent que tout va disparaître.

Pour cela, ils ont utilisé le MMORPG ArcheAge. C’est moins spectaculaire qu’un astéroïde géant ou qu’une guerre thermonucléaire, mais les données sont meilleures !

Ah Reum Kang de l’Université de Buffalo et ses collègues ont pour cela analysé 270 millions d’enregistrements de comportements durant la 4ème bêta fermée du jeu ArcheAge en 2011 et 2012. Le principe c’est qu’à la fin de la bêta fermée, tous les personnages sont supprimés, toute progression est perdue, tous les objets virtuels disparaissent… Vous avez passé 11 semaines à construire votre empire virtuel, à farmer vos légendaires, à monter votre guilde au top… Et pouf, tout disparait et y’a pas de Ctrl+Z possible. Désolé.

Pour les 81 000 joueurs testeurs, c’était comme vivre dans un monde avec une date d’expiration connue à l’avance. Et contrairement aux études philosophiques classiques basées sur des sondages et des suppositions, là on avait des données brutes, précises, et massives sur ce que les gens font vraiment.

Les chercheurs se sont appuyés sur ce qu’ils appellent le mapping principle. L’idée c’est que les joueurs agissent en ligne comme dans la vraie vie. Bon, c’est vrai que perdre son avatar n’est pas exactement comme perdre sa vie (quoique, allez expliquer ça à un joueur qui vient de perdre son level 50 avec full stuff épique, ok les boomers ? ^^). Mais quand vous avez investi 300 heures à bâtir votre royaume virtuel, la claque psychologique reste bien réelle. C’est un peu comme effacer votre disque dur sans backup, mais avec plus de dragons et de sortilèges.

Et les résultats sont plutôt encourageant pour notre prochaine fin du monde. En effet, y’a pas eu de chaos généralisé. On aurait pu croire que tout le monde allait se transformer en psychopathe, tuer son voisin, piller les maisons virtuelles et foutre le feu à tout ce qui bouge. Mais non. La plupart des joueurs n’ont pas vraiment changé leur comportement… Même en sachant que demain tout disparaissait, ils ont continué à jouer normalement.

C’est presque décevant, non ?

Alors vous allez me dire “Moi je suis pas comme ça, si mon serveur WoW ferme demain je vais tout péter ! J’suis un déglingo, un fou dans ma tête !!”. Mouais. Les stats sont contre vous les amis. Vous allez probablement juste continuer à farmer vos objets rares et à spammer le chat de guilde comme d’habitude.

Par contre c’est vrai, quelques marginaux ont bien pété les plombs. Les chercheurs ont détecté une hausse du PK (player killing, c’est quand vous tuez un autre joueur de votre propre camp, ce qui est considéré comme un meurtre dans le jeu…) mais ça a concerné seulement 334 joueurs sur 81 000. Donc pas vraiment American nightmare…

Ceux qui on abandonné le navire en cours de route, genre 3 semaines avant l’apocalypse, sont ceux qui sont devenus les plus toxiques pour la communauté. Ceux qui sont restés jusqu’au bout par contre, ont gardé une forme de loyauté envers la communauté, même quand ils savent que tout va disparaître. C’est assez révélateur sur l’attachement social.

Par exemple, en analysant les chats du jeu, les chercheurs ont mesuré ce qu’ils appellent le valence score. C’est un indicateur de positivité dans le langage et devinez quoi ? Hé bien au lieu de devenir déprimants ou agressifs, les échanges dans les canaux sociaux sont devenus légèrement plus joyeux à l’approche de la fin. Les joueurs ont augmenté leurs interactions… plus de messages échangés, plus de groupes formés pour des quêtes. Un peu comme si, face à l’apocalypse, les gens se rapprochaient au lieu de s’éloigner.

Mais alors, est-ce qu’on continue à se battre pour s’améliorer quand on sait que demain tout s’efface ?

Martin Luther aurait dit “Même si je savais que le monde disparaît demain, je planterais quand même mon pommier”. Et bien les joueurs d’ArcheAge, eux, n’ont pas planté de pommiers et encore moins mangé de la compote… Non, l’étude montre en réalité une grosse baisse des activités de progression. Il y a eu moins de quêtes complétées, moins de montées de niveau, moins de changements de compétences. Les joueurs ont carrément abandonné tout ce qui concerne l’amélioration de leur personnage.

Bah oui pourquoi s’emmerder à farmer de l’XP pendant 8 heures si demain votre magnifique niveau 50 redevient niveau 0 ?

Par contre, ils n’ont pas arrêté de jouer pour autant. Ils ont juste changé leurs priorités. Plus de construction de maisons (parce que bon, une maison virtuelle qui va être détruite dans 3 jours, autant la construire et en profiter maintenant), plus de crafting d’items, plus d’interactions sociales. Bref, des activités qui apportent une satisfaction immédiate plutôt qu’un bénéfice à long terme.

Alors posez-vous la question. Est ce que vous êtes plutôt team “je reste jusqu’au dernier screenshot avec ma guilde” ou de la team “je me barre 2 semaines avant insultant tout le monde” ?

Parce que statistiquement, si vous êtes du genre à ragequit, vous avez 78% de chances de devenir un serial killer virtuel avant de partir. Les scientifiques l’ont prouvé, bon courage pour votre karma de merde ^^.

Bon après, il faut quand même relativiser car ArcheAge n’est qu’un jeu vidéo, et pas la vraie vie. Les chercheurs le reconnaissent eux-mêmes, personne ne meurt pour de vrai à la fin de la bêta (heureusement quand même ^^) mais cette recherche a des implications concrètes.

Pour les développeurs de jeux, ça aide à comprendre quels comportements peuvent servir de signaux d’alerte pour détecter les joueurs qui vont quitter le jeu. Si quelqu’un commence à supprimer ses personnages et à PK à tour de bras, c’est probablement qu’il est sur le départ ! Pour les chercheurs en sciences sociales, c’est également une mine d’or. Avoir accès à 270 millions de décisions humaines dans un contexte de fin annoncée, avec des règles du jeu parfaitement contrôlées et connues, c’est le genre de dataset dont on ne peut que rêver dans les études traditionnelles.

Et pour nous, simples mortels ?

Et bien ça confirme quelque chose d’assez réconfortant. Face à la fin du monde, la plupart des gens ne deviennent pas des monstres. Ils se rapprochent des autres, renforcent leurs liens sociaux, et arrêtent juste de se projeter dans un futur qui n’existe plus.

Donc si demain on vous annonce que la vraie apocalypse arrive (pas celle du jeu vidéo hein, la vraie avec les robots tueurs de Trump, les zombies de Poutine ou l’astéroïde piloté par des aliens dont parlent les complotistes en ce moment), vous n’allez probablement pas piller le supermarché du coin mais plutôt appeler vos potes pour une dernière soirée pizza-bière.

Source

Hackez votre mémoire en modifiant votre visage

Par :Korben
3 novembre 2025 à 09:46

Utkarsh Gupta, chercheur à l’Anglia Ruskin University de Cambridge, vient de publier une étude dans Scientific Reports de Nature qui va vous faire halluciner. Pour retrouver vos souvenirs d’enfance, il suffit de hacker votre propre visage ! Hé oui, on peut littéralement débloquer sa mémoire avec un simple filtre photo de vous plus jeune.

Car votre cerveau garde vos souvenirs d’enfance derrière une porte verrouillée dont votre visage d’enfant est la clé !

Le principe est simple… vous prenez 50 adultes, vous leur montrez leur propre visage en live sur un écran, mais modifié par un filtre pour ressembler à leur tête de gamin. Ce genre de filtres bébé qui traînent sur Snapchat et Instagram…

Et là, résultat de malade : ceux qui ont vu leur visage d’enfant se sont souvenus de beaucoup plus de détails de leur enfance que ceux qui voyaient leur visage d’adulte. Vraiment beaucoup plus !

Cette technique s’appelle l’enfacement illusion. C’est une illusion cognitive où votre cerveau se fait avoir. Il pense que le visage qu’il voit sur l’écran, c’est le vôtre, comme si vous vous regardiez dans un miroir. D’habitude, l’enfacement illusion sert aux neuroscientifiques pour étudier la plasticité de la représentation de soi mais là, les chercheurs l’ont détournée pour créer une sorte de machine à remonter le temps low-tech.

Votre mémoire est comme un trousseau de clés où chaque visage que vous avez eu dans votre vie correspond à une clé différente. Avec votre tête d’adulte, vous n’avez accès qu’aux souvenirs récents, c’est à dire les titres qui passent en boucle sur votre playlist mentale. Mais avec votre visage d’enfant, vous accédez aux deep cuts, aux morceaux oubliés tout au fond de votre disque dur cérébral.

Une sorte de reverse engineering de la mémoire, si vous voulez.

L’enfacement illusion fonctionne grâce à une stimulation multisensorielle synchrone. Concrètement, vous voyez des touches tactiles sur le visage à l’écran en même temps que vous sentez ces touches sur votre propre visage. Votre cerveau fait alors la connexion et se dit : “Ok, ce visage là-bas, c’est moi”. C’est exactement le même mécanisme que l’illusion de la main en caoutchouc, vous savez, quand on arrive à vous faire croire qu’une fausse main posée sur une table est la vôtre.

Du coup, qui êtes-vous vraiment ? Votre tête actuelle ? Toutes vos tronches du passé ? Ou la somme de toutes ces versions ?

Si vous voulez tester ça vous même, trouvez un bon filtre et suivez ce tuto de Utkarsh :

Cette méthode pourrait beaucoup aider dans tout ce qui est travail thérapeutique ou pour aider les victimes de traumatismes à accéder à des souvenirs enfouis. Et si vous savez coder une application mobile, vous pouvez même devenir très riche en proposant la première app qui débloque vos souvenirs d’enfance ;-)))

Bon, il y a quand même un truc à garder en tête c’est que cette technique ouvre des portes, mais il faut faire attention à ce qui se cache derrière. La recherche a montré par exemple que des enfants exposés à de la réalité virtuelle pouvaient développer de faux souvenirs… Donc manipuler la perception corporelle pour accéder aux souvenirs, c’est très puissant, mais ça demande quand même un peu de précautions.

Je sais pas si vous allez essayer mais si ça marche, faites moi un mail, je suis vraiment curieux.

Source

Reçu — 24 octobre 2025

Vaccin COVID - Une turbo bonne nouvelle pour le traitement du cancer

Par :Korben
24 octobre 2025 à 08:04

Vous vous souvenez des débats enflammés sur les vaccins COVID et de ces théories complotistes de “turbo cancer” qui circulaient partout sur les réseaux sociaux ? Bon c’est un peu has been maintenant mais c’était cette fausse idée que les vaccins mRNA provoqueraient des cancers fulgurants…

Et bien accrochez-vous, parce que des chercheurs très sérieux viennent de découvrir EXACTEMENT l’inverse. Vous allez voir, c’est drôle !

Des oncologues de l’Université du Texas et de l’Université de Floride ont analysé les dossiers de plus de 1000 patients atteints de cancers du poumon ou de mélanomes avancés et ils ont remarqué un truc bizarre : les patients qui avaient reçu un vaccin mRNA contre la COVID dans les 100 jours suivant le début de leur immunothérapie vivaient beaucoup plus longtemps que les autres. Genre, 2 fois plus longtemps.

Concrètement, la survie médiane passe de 20 mois sans vaccin à 37 mois avec vaccin et au bout de 3 ans, 56% des patients vaccinés sont toujours en vie, contre seulement 31% chez les non-vaccinés.

Bon alors, comment c’est possible ? Hé bien pour comprendre, faut faire un détour rapide par l’immunothérapie. En effet, depuis une dizaine d’années, on traite certains cancers avec des médicaments qui ne ciblent pas la tumeur directement mais débloquent en réalité le système immunitaire.

Le truc, c’est que les cellules cancéreuses sont malignes (sans mauvais jeu de mots..) puisqu’elles utilisent une protéine appelée PD-L1 pour littéralement désactiver les lymphocytes T, les fameux soldats de notre système immunitaire. Les inhibiteurs de checkpoint comme le pembrolizumab ou le nivolumab empêchent alors cette désactivation et le système immunitaire peut enfin faire son boulot et attaquer la tumeur.

Sauf que ça ne marche pas sur tous les cancers. Il y a ce qu’on appelle les tumeurs “chaudes” et les tumeurs “froides”. Les chaudes ont été repérées par le système immunitaire et ont été infiltrées par des cellules immunitaires. Les froides, par contre, sont invisibles. Aucune cellule immunitaire autour, aucune réaction. Et pour ces tumeurs froides, l’immunothérapie classique ne sert à rien et c’est un cauchemar à combattre.

De leur côté, les vaccins mRNA COVID agissent comme une alarme incendie pour le système immunitaire. Quand vous recevez votre dose de Pfizer ou Moderna, votre corps produit un tsunami d’interféron de type I. C’est une molécule de signal qui met tout le système immunitaire en alerte rouge : Les cellules présentatrices d’antigènes se réveillent, les lymphocytes T se multiplient, et tout le monde passe en mode combat !

Et cette activation généralisée, elle ne se limite pas au virus COVID puisque le système immunitaire en profite pour scanner TOUT ce qui traîne, y compris les cellules cancéreuses qui jusque-là passaient inaperçues. Les tumeurs froides deviennent alors chaudes et se mettent à exprimer du PD-L1 pour tenter de se protéger. Et c’est justement à ce moment-là que les inhibiteurs de checkpoint entrent en jeu et bloquent cette défense.

Les chercheurs ont donc testé ça sur des modèles animaux pour comprendre le mécanisme exact et ont confirmé que le vaccin seul ne suffit pas. Il faut la combinaison vaccin mRNA + immunothérapie pour obtenir l’effet maximal. L’un réveille le système immunitaire, l’autre maintient l’attaque active contre la tumeur.

Le plus fou dans cette histoire, c’est que personne ne cherchait cet effet. Élias Sayour, l’un des chercheurs principaux à l’origine de cette découverte, bossait déjà sur des vaccins mRNA anti-cancer personnalisés depuis 2016 et avait remarqué que les molécules d’ARN messager pouvaient entraîner le système immunitaire même sans cibler des antigènes tumoraux spécifiques. Mais de là à imaginer que les vaccins COVID développés en urgence pour une pandémie auraient ce pouvoir contre le cancer, personne ne l’avait anticipé.

D’ailleurs, il y a eu quelques cas rapportés dans la littérature médicale de patients dont les tumeurs ont spontanément régressé après une vaccination COVID et à l’époque, tout le monde trouvait ça anecdotique… peut-être des coïncidences. Mais avec cette étude portant sur plus de 1000 patients et contrôlant 39 variables différentes (stade du cancer, traitements antérieurs, comorbidités, etc.), c’est difficile de parler de hasard.

Cinq fois plus de chances d’être en vie trois ans après le diagnostic, juste en ajoutant un vaccin qu’on a déjà sous la main et qui a été administré à des milliards de personnes, c’est pas rien.

Maintenant, avant de crier au miracle, quelques précisions importantes quand même. Cette étude est observationnelle, et ce n’est pas un essai clinique randomisé. Ça veut dire que les chercheurs ont analysé des données existantes, et n’ont pas assigné aléatoirement les patients à un groupe ou l’autre. Il pourrait donc y avoir des biais cachés. Par exemple, les patients qui ont choisi de se faire vacciner pendant leur traitement cancer sont peut-être aussi ceux qui suivent mieux leurs protocoles de soin en général ?

Mais les chercheurs ont anticipé cette critique et ont utilisé des techniques statistiques avancées pour éliminer un maximum de facteurs confondants et même avec ça, le signal reste fort. Assez fort en tout cas pour justifier de passer à l’étape d’un vrai essai clinique prospectif.

L’équipe lance donc un essai à grande échelle sur des patients atteints de cancer du poumon, avec 2 groupes : un qui reçoit l’immunothérapie standard, l’autre qui reçoit immunothérapie + vaccin mRNA COVID. Si les résultats confirment ce qu’ils ont observé, on pourrait alors voir les protocoles de traitement évoluer très rapidement.

Et contrairement aux vaccins anti-cancer personnalisés qui nécessitent d’analyser la tumeur de chaque patient pour créer un vaccin sur mesure (c’est cher et complexe…), les vaccins COVID eux sont déjà produits en masse, approuvés, dispo partout, et relativement peu chers.

On savait que non seulement ces vaccins COVID ne causaient pas de cancer mais découvrir qu’en plus ils pourraient bien devenir un outil standard pour TRAITER le cancer, c’est turbo-marrant je trouve… La science nous réserve toujours des surprises, et c’est pour ça qu’elle me passionne !

Si ça vous dit, l’étude a été publiée dans Nature, et vous pouvez la lire en intégralité ici si vous voulez rentrer dans les détails statistiques et biologiques.

Reçu — 23 octobre 2025

Quantum Echoes - Fini le bullshit, l'informatique quantique devient enfin vérifiable !

Par :Korben
23 octobre 2025 à 09:48

Pendant 30 ans, les experts en informatique quantique vous demandaient de les croire sur parole du genre “Mon ordi quantique est 13 000 fois plus rapides que ton PC Windows XP…”. Mais bon, ils sont rigolo car c’était impossible à vérifier ce genre de conneries… M’enfin ça c’était jusqu’à présent car Google vient d’annoncer Quantum Echoes , et on va enfin savoir grâce à ce truc, ce que l’informatique quantique a vraiment dans le ventre.

Depuis 2019 et la fameuse “suprématie quantique” de Google , on était en fait coincé dans un paradoxe de confiance assez drôle. Google nous disait “regardez, on a résolu un problème qui prendrait 10 milliards de milliards d’années à un supercalculateur”. Bon ok, j’veux bien les croire mais comment on vérifie ? Bah justement, on pouvait pas ! C’est un peu comme les promesses des gouvernements, ça n’engage que les gros teubés qui y croient ^^.

Heureusement grâce à Quantum Echoes, c’est la fin de cette ère du “Faites-nous confiance” car pour la première fois dans l’histoire de l’informatique quantique, un algorithme peut être vérifié de manière reproductible . Vous lancez le calcul sur la puce Willow de Google, vous obtenez un résultat. Vous relancez, vous obtenez le même. Votre pote avec un ordi quantique similaire lance le même truc, et il obtient le même résultat. Ça semble basique, mais pour le quantique, c’est incroyable !!

Willow, la puce quantique de Google

L’algorithme en question s’appelle OTOC (Out-Of-Time-Order Correlator), et il fonctionne comme un écho ultra-sophistiqué. Vous envoyez un signal dans le système quantique, vous perturbez un qubit, puis vous inversez précisément l’évolution du signal pour écouter l’écho qui revient. Cet écho quantique se fait également amplifier par interférence constructive, un phénomène où les ondes quantiques s’additionnent et deviennent plus fortes. Du coup, ça permet d’obtenir une mesure d’une précision hallucinante.

En partenariat avec l’Université de Californie à Berkeley, Google a testé ça sur deux molécules, une de 15 atomes et une autre de 28 atomes et les résultats obtenus sur leur ordinateur quantique correspondaient exactement à ceux de la RMN (Résonance Magnétique Nucléaire) traditionnelle. Sauf que Quantum Echoes va 13 000 fois plus vite qu’un supercalculateur classique pour ce type de calcul.

En gros, ce qui aurait pris 3 ans sur une machine classique prend 2 heures sur un Willow.

Cette vitesse, c’est impressionnant mais ce qui change la donne dans cette annonce, c’est cette notion de vérifiabilité ! Bref, c’est fini le bullshit, maintenant la structure de systèmes quantiques (des molécules aux aimants en passant par les trous noirs) sera vérifiable et comparable.

Et les applications concrètes sont déjà plutôt bien identifiées : Découverte de médicaments, pour comprendre comment les molécules se lient à leurs cibles, la science des matériaux, pour caractériser la structure moléculaire de nouveaux polymères ou les composants de batteries, la fusion nucléaire…etc tout ce qui nécessite de modéliser des phénomènes quantiques avec une précision extrême !

Google compare ça à un “quantum-scope”, capable de mesurer des phénomènes naturels auparavant inobservables un peu comme l’ont été le télescope et le microscope qui nous ont donné accès à de nouveaux mondes invisibles. Le Quantum Echoes nous donne un accès ce monde quantique sauf que cette fois, on pourra vérifier que la réalité est identique à celle annoncée par les scientifiques.

Source

Reçu — 22 octobre 2025

Des icônes datant de l'époque de Windows 95 sont encore présentes dans Windows 11

Par :Korben
22 octobre 2025 à 07:37

Vous vous souvenez de Windows 95 et de ses icônes ? A cette époque, moi je passais des heures à explorer chaque fichier .dll et .exe pour y découvrir des trésors cachés ( Resource Hacker qui se souvient ?).

Et bien tenez-vous bien, il y en a une bien nostalgique qui existe toujours dans Windows 11. Elle s’appelle pifmgr.dll, elle pèse 36 Ko, et elle a été créée “juste pour rire” il y a 30 ans.

Raymond Chen, un ingénieur Microsoft légendaire qui tient le blog The Old New Thing depuis des années, vient de raconter l’histoire de ce fichier qui refuse de crever et c’est une histoire assez marrante parce qu’elle dit beaucoup sur la façon dont Microsoft gère son propre bordel historique !

À l’origine, pifmgr.dll a été créée pour Windows 95 et son job officiel c’était de gérer les fichiers PIF, c’est-à-dire les Program Information Files qui décrivaient comment lancer une session MS-DOS virtuelle pour faire tourner vos vieux programmes DOS sous Windows. Je m’en souviens bien car à cette époque pour lancer certains jeux DOS sous Windows, il fallait configurer manuellement la mémoire étendue et la mémoire conventionnelle afin que ça démarre correctement…

Mais Raymond Chen, ce coquin, a décidé de planquer dedans une petite collection d’icônes 16 couleurs totalement inutiles. Des fenêtres, des balles, des trompettes, des chapeaux de magicien, des blocs de jeu avec des lettres, des nuages. Je suis sûr que ça va vous rappeler des souvenirs !! C’est le genre de trucs qu’on mettait sur nos raccourcis foireux quand on voulait customiser notre bureau Windows avec des icônes qui claquaient ^^.

Y’a même une pomme croquée du côté gauche… Ça ne vous rappelle rien ? C’est le genre de petite vanne passive-agressive que les développeurs Microsoft aimaient mettre partout dans les années 90.

Les nuages aussi, c’est pas un hasard. C’était le thème visuel de Windows 95. Vous vous souvenez du ciel bleu avec les nuages blancs qui s’affichait au démarrage ? Bah voilà, ils ont mis des icônes de nuages dans pifmgr.dll pour rester dans le mood.

Bref, aucune utilité pratique à tout ça, mais juste du fun. Et aujourd’hui, 30 ans plus tard (ouin ! on est vieux.), cette dll existe toujours dans Windows 11.

Et pas parce que Microsoft a voulu préserver l’histoire ou rendre hommage aux pionniers de Windows 95, non, la vraie raison, c’est que Microsoft a la flemme de la virer . Supprimer un fichier comme ça, ça coûte plus cher en tests et en compatibilité plutôt que de le laisser traîner.

Car oui, quelque part dans le monde, il y a forcément un script d’entreprise qui référence cette dll, ou un vieux raccourci qui pointe vers une de ces icônes. Et si Microsoft supprime le fichier, ben ça va péter quelque part, et ça va générer des tickets de support.

Donc Microsoft préfère garder ce petit fichier de 36 Ko qui ne fait de mal à personne. En plus, c’est tellement léger que ça ne vaut même pas le coup d’en discuter. Du coup, pifmgr.dll continue sa petite vie tranquille, planquée dans les profondeurs de Windows 11, comme une capsule temporelle des années 90 que personne n’a demandée mais que tout le monde garde par pure flemme.

Marrant non ?

Donc si vous voulez voir ces icônes de vos propres yeux, vous pouvez aller chercher pifmgr.dll dans votre installation Windows car elle est toujours là, avec ses 16 couleurs et ses gros pixels.

Merci à Lorenper pour ce partage qui m’a fait replonger dans mes souvenirs de Windows 95 !

Source

Reçu — 15 octobre 2025

Ce tissu intelligent transforme votre pull en assistant vocal

Par :Korben
15 octobre 2025 à 08:56

Ce petit choc désagréable quand on touche une poignée de porte en hiver, ce crépitement énervant quand on enlève un pull, ou encore ce moment où nos cheveux se dressent tout seuls comme si on venait de toucher une bobine Tesla… Vous l’aurez compris, je déteste l’électricité statique !

Et pourtant, des chercheurs de l’université de Suzhou en Chine viennent de transformer ce phénomène naturel relou en un truc plutôt cool ! En effet, ils ont eu l’idée contre-intuitive de l’amplifier et de l’utiliser.

Et le résultat de leurs recherches, c’est la mise au point d’un tissu intelligent baptisé A-Textile qui transforme votre voix en commandes pour l’IA. Pas de microphone, pas de batterie mais juste du tissu et de l’électricité statique !

En effet, quand vous parlez, l’air vibre et ces vibrations font bouger légèrement les fibres du tissu. Et quand des fibres se frottent les unes aux autres, elles génèrent de minuscules charges électrostatiques. C’est ce qu’on appelle l’effet triboélectrique , c’est à dire le même phénomène qui vous mets une châtaigne en hiver quand vous ouvrez votre voiture.

Sauf qu’ici, au lieu de vous électrocuter bêtement, ces charges sont captées, amplifiées et transformées en signal électrique exploitable. Et ce signal, une IA le lit et le comprend avec une précision de 97,5% d’après l’équipe de Suzhou , et cela peu importe si l’environnement est bruyant ou pas.

Dans le futur, on pourra donc peut-être chuchoter un truc à son pull pour que la clim ou la lumière s’allume. Nos vêtements vont devenir une IHM de plus (Interface Homme Machine) et pour que ça marche, les scientifiques ont conçu une structure multicouche assez élégante. La surface du tissu est recouverte d’un composite fait de nanofleurs de sulfure d’étain en 3D (SnS2, pour les intimes) intégrées dans du caoutchouc de silicone. En dessous, il y a une couche de textile carbonisé à base de graphite qui accumule les charges.

Cette combinaison permet ainsi d’atteindre une tension de sortie de 21 volts et une sensibilité de 1,2 volt par pascal. Pour vous donner une idée, c’est plus puissant que le coup de jus que vous prenez en touchant une poignée de porte. Mais cette fois, c’est utile car le tissu est alors capable de capter les fréquences entre 80 et 900 Hz, ce qui couvre largement la voix humaine. Même un chuchotement ça passe et comme c’est flexible, lavable et qu’on peut le coudre dans une chemise, une veste ou un uniforme de travail, ça devient portable au quotidien.

Les chercheurs ont donc testé le truc dans des scénarios concrets. Ils ont connecté A-Textile à ChatGPT et posé des questions complexes genre “Quelle est la météo aujourd’hui ?” ou “C’est quoi le metaverse ?”. Ils ont même contrôlé des appareils domotiques (allumer/éteindre une lampe, un climatiseur) juste avec la voix et ont demandé à Google Maps de calculer un itinéraire. Ils ont même réussi à générer des recettes de cocktails.

Et tout ça sans toucher un smartphone ni porter d’écouteurs. Juste en parlant normalement à leurs fringues, un peu comme quand vous discutiez avec une chaussette enfilée sur votre main quand vous étiez petit.

Après en bon rabats joie, vous allez me dire : “Ouais mais on a déjà des assistants vocaux partout”. C’est vrai, sauf que là, c’est pas un objet de plus à acheter, à recharger, à synchroniser avec vos autres gadgets. C’est intégré dans ce que vous portez déjà, comme ça au lieu d’ajouter des couches de technologie, on en retire, on simplifie. L’interface disparaît et il ne reste plus que vous et vos vêtements qui comprennent ce que vous dites.

Je me demande si ça va fonctionner pour les gens qui passent leur journée en slip comme certains d’entre vous, mais en tout cas, ça ouvre des perspectives énormes notamment pour les personnes handicapées qui galèrent avec les interfaces tactiles ou vocales classiques. Ou encore pour les gens qui bossent dans des environnements dangereux où sortir un téléphone peut être risqué.

Puis pour ceux qui veulent juste arrêter de jongler entre quinze appareils différents pour faire un truc aussi simple que régler le chauffage ou allumer la TV c’est chouette non ?

Voilà, donc la prochaine fois que vous prendrez un coup de jus en enlevant votre pull, dites vous que bientôt ça vous permettra de commander un Uber Eats ou de lancer Netflix ^^

Source

Reçu — 14 octobre 2025

À cause de l'IA, vous ne pourrez bientôt plus vous fier à vos souvenirs

Par :Korben
14 octobre 2025 à 13:10

Cette année, avec Nano Banana, ChatGPT, Sora, Seedream et j’en passe, on est quand même passé de “Je cherche une image sur le net” à “Tiens, et si je demandais à Google (ou un autre) de créer l’image que je cherche…”. Comme ça, on ne perd plus de temps à en regarder plein pour trouver la meilleure, et surtout on ne se pose plus la question de est-ce que c’est une image sous copyright ? Ou une image mise en ligne sur un site Creative Commons dont la licence libre sera retirée dans quelques années par un cabinet d’avocat véreux spécialisé dans le copyright trolling… et qui viendra ensuite vous réclamer du pognon .

Et tout ce délire de génération d’images ne risque pas de s’arranger, notamment avec Nano Banana (c’est le petit nom de Gemini 2.5 Flash Image, le modèle de génération d’images de Google) que Google vient d’intégrer dans certains de ses services. En effet, très bientôt vous allez pouvoir modifier, remixer, transformer des images directement depuis la recherche Google (AI Mode), Lens, ou directement vos photos !

Vous prenez une photo avec Lens, ensuite, hop, vous ajoutez un petit prompt texte, et l’IA transformera l’image selon vos désirs. Vous pouvez aussi chercher un truc dans Google Search, puis modifier visuellement le résultat à la volée si ça vous amuse.

Vous allez par exemple chercher un canapé bleu marine sur Google Images, tomber sur la photo de vos rêves sauf que le canapé est rouge brique et hop, l’application le passera en bleu marine directement dans les résultats de recherche. Vous pouvez même mixer deux images pour créer quelque chose de nouveau…

C’est chouette techniquement mais philosophiquement, c’est un délire car la frontière entre le réel et le généré va devenir encore plus floue. On va très vite perdre la notion de ce qui existe vraiment car chaque image pourra être un remix à la demande et au final personne ne saura plus ce qui vient d’un vrai appareil photo ou d’un algo.

C’est une nouvelle réalité qui arrive, où le faux et le vrai se mélangent, faisant disparaitre nos repères.

Au niveau de Google Photos, c’est encore plus inquiétant car on va pouvoir fusionner des images perso, créer des collages, ajouter des éléments de certaines photos dans d’autres photos…etc. On va donc pouvoir se créer des souvenirs qui n’ont jamais existé. Votre gamin n’était pas là pour la photo de famille ? Hop, on le rajoute. Un coucher de soleil moyen-bof sur une photo de vacances ? Hop, on le rend épique.

Nos enfants vont donc grandir avec des albums photo mi-réels mi-générés par IA et au bout de quelques années, plus personne ne se souviendra de si c’était vrai ou pas.

Bref, comme je le disais, technologiquement, c’est impressionnant mais on se demande quand même où se trouve la limite entre retouche créative et falsification de notre mémoire ?

J’en sais quelque chose, la mémoire humaine est déjà très fragile. Elle se réécrit à chaque souvenir et même à chaque évocation d’un souvenir…. Alors si en plus on lui file des photos modifiées pour coller à une réalité qu’on fantasme, j’imagine qu’on va tous finir par croire à des événements qui n’ont jamais eu lieu, surtout si ce sont des modifications subtiles, crédibles.

Bref, ces nouveautés liées à Nano Banana sont déployées uniquement aux États-Unis et en Inde pour le moment, ce qui vous laisse un peu de temps pour réfléchir à tout ça et vous préparer à sauter ou pas dans ce délire de réécriture de vos propres souvenirs.

A vous de voir !

Source

❌