Vue lecture

Maîtriser les innovations dans ARC Raiders : Un guide étape par étape

La dernière quête dans ARC Raiders, intitulée Groundbreaking, fait partie de la mise à jour passionnante Cold Snap. Si vous êtes prêt à plonger dans ce nouveau défi, vous allez être ravi—ce n’est pas seulement amusant mais aussi relativement simple à compléter. Les tâches peuvent toutes être réalisées sur la carte Blue Gate, et il […]

Le post Maîtriser les innovations dans ARC Raiders : Un guide étape par étape est apparu en premier sur Moyens I/O.

  •  

La Chine ouvre sa première station-service de l'espace (et personne n'était au courant)

Pendant que vous faisiez le plein à 1,80 € le litre, la Chine faisait pareil… mais à 36 000 kilomètres d’altitude. Les satellites Shijian-21 et Shijian-25 viennent en effet de se séparer après plusieurs mois de câlin orbital, marquant ce qui semble être le premier ravitaillement en carburant réussi en orbite géostationnaire. Une première mondiale dont Pékin n’a quasiment rien dit officiellement…

Cette belle histoire commence en janvier 2025 quand Shijian-25 décolle de Xichang à bord d’une Long March 3B. Sa mission officielle est la suivante “Vérification de technologies de ravitaillement et d’extension de vie des satellites”. Le 2 juillet, il s’amarre à son copain Shijian-21, un autre satellite lancé en 2021 qui avait déjà fait parler de lui en tractant un vieux satellite Beidou hors service vers un “cimetière orbital” en 2022. Cette manœuvre avait malheureusement vidé ses réservoirs… et c’est pile ce qu’il fallait pour tester le ravitaillement !

Les deux satellites sont restés accouplés pendant des mois, tellement proches qu’ils étaient impossibles à distinguer depuis le sol, puis le 29 novembre, a eu lieu leur séparation.

Entre temps, ils ont effectué ce qu’un ancien officiel du Space Command américain appelle “La plus grande manoeuvre jamais réalisée en orbite géostationnaire” c’est à dire un changement de vitesse de plus de 330 mètres par seconde. Quand on sait que chaque manœuvre en GEO coûte une fortune en carburant, ça donne une idée de la quantité de propergol transférée.

Oh mon Dieu une image générée par IA, quelle horreur, enfer et damnation ! 🤪

Et ce qui est ouf c’est que la Chine n’a rien communiqué à ce sujet. Aucune déclaration officielle n’a été faite depuis le lancement de Shijian-25 et les seules infos qu’on a viennent d’observations optiques et de tracking radar réalisés par des passionnés et des agences occidentales. Cette opacité met les Américains sur les nerfs, et ça aussi on le sait car pendant toute l’opération, deux satellites de surveillance US (USA 270 et USA 271) se sont positionnés de chaque côté des satellites chinois pour admirer le spectacle. Sympa l’ambiance !

Parce que oui, cette technologie a des applications militaires évidentes et l’orbite géostationnaire héberge les satellites de communication, de météo, d’observation… et surtout d’alerte antimissile. Alors pouvoir ravitailler un satellite signifie aussi pouvoir s’en approcher, le manipuler, voire le neutraliser.

Côté civil, c’est aussi une révolution potentielle puisqu’un satellite géostationnaire coûte des centaines de millions de dollars et sa durée de vie est souvent limitée par son carburant, pas par son électronique. Du coup, pouvoir le ravitailler permettrait d’étendre sa mission de plusieurs années, voire décennies. La Chine pourrait même développer un réseau de stations-service orbitales qui transformerait complètement l’économie spatiale.

Les États-Unis et d’autres pays travaillent sur des technologies similaires, mais la Chine vient donc de prendre une sacrée longueur d’avance. Et le fait qu’elle l’ait fait dans un silence quasi-total en dit long sur sa stratégie qui est de montrer ses capacités techniques sans les revendiquer, en laissant les autres spéculer…

Source

  •  

Un système de fichiers compressé grâce à un LLM

Vous connaissez peut-être FUSE (Filesystem in Userspace), ce truc qui permet de créer des systèmes de fichiers custom sans toucher au noyau Linux. C’est grâce à lui notamment qu’on peut monter un Google Drive, un bucket S3 ou même un dossier distant via SSH comme un simple répertoire local.

Hé bien, Rohan Gupta a poussé ce concept jusqu’à l’absurde en créant LLMfuse, un système de fichiers où toutes les opérations sont gérées par un modèle de langage fine-tuné.

Ainsi, quand vous faites un ls, un chmod ou un cat sur ce filesystem, c’est un LLM qui répond et chaque opération FUSE devient une requête au modèle. Pour parvenir à ces fins, le développeur a entraîné un Qwen3-4B sur environ 15 000 paires prompt/completion générées à partir de simulations d’opérations filesystem. Le modèle a alors appris à lire le contenu des fichiers, modifier les métadonnées, et même à représenter l’arborescence complète en XML.

Bon, dit comme ça, ça ressemble à une expérience de savant fou un peu conne… Mais y’a un truc vraiment intéressant qui découle de tout ça. En effet, l’auteur a découvert que la combinaison du codage arithmétique avec son modèle fine-tuné permettait d’atteindre des taux de compression délirants. Sur un fichier texte classique, il obtient par exemple une compression 22 fois meilleure que gzip. Et pour une arborescence de fichiers représentée en XML, c’est environ 8 fois mieux que squashfs.

Alors comment c’est possible cette magie noire ? Bah ça remonte au théorème de Shannon de 1948 sur l’entropie où plus un modèle prédit bien les données, moins il faut de bits pour les encoder. Un LLM fine-tuné sur un type de données spécifique devient alors un compresseur hyper efficace pour ces données.

L’auteur est le premier à admettre que c’est une expérimentation, donc, pas de quoi vous emballer non plus… Après si vous souhaitez l’utiliser, vous avez besoin d’un GPU, que l’intégralité du système de fichiers tienne dans la fenêtre de contexte du modèle, et ça ne marche vraiment bien que sur des données textuelles. Pour vos vidéos 4K ou votre bibliothèque de jeux Steam, on repassera… snif…

D’ailleurs, le fait que lipsum.txt (le classique Lorem Ipsum) soit surreprésenté dans les données d’entraînement des LLM aide beaucoup à gonfler les chiffres de compression mais même sur d’autres types de textes “normaux” qui ressemblent à ce qu’on trouve sur Internet, les gains restent entre 5x et 20x par rapport à gzip.

Le code source est disponible sous licence MIT, avec notamment un utilitaire CLI appelé llmencode que vous pouvez tester en local si vous avez une bonne carte graphique sous la main.

Amusez-vous bien !

Source

  •  

La Chine va peut-être interdire les poignées de porte rétractables des voitures

Vous voyez ces poignées de porte toutes lisses qui s’escamotent dans la carrosserie pour faire genre “je suis une voiture du futur” ? C’est ce qu’il y a sur les Tesla et sur les Ioniq 5 . Hé bien la Chine en a marre de ce design qui privilégie le look au détriment de la sécurité, et a décidé d’agir !

En effet, les régulateurs chinois planchent sur une interdiction pure et simple des poignées entièrement rétractables dès juillet 2027. L’idée c’est d’imposer un système de secours mécanique sur toutes les bagnoles, parce que oui, quand votre voiture électrique prend feu et que le système électronique tombe en rade… Bah bonne chance pour sortir mes petites merguez !

Le problème n’est pas nouveau, mais les drames s’accumulent. Plusieurs passagers de Tesla sont morts brûlés vifs après des accidents parce que les portes refusaient de s’ouvrir et en novembre 2024, cinq personnes sont décédées dans un Model S au Wisconsin après avoir percuté un arbre… Les témoins ont entendu leurs cris durant 5 minutes. Horrible ! Et dernièrement, en Californie, trois ados sont morts carbonisés dans un Cybertruck la veille de Thanksgiving. Les poignées électroniques avaient cramé avec le reste.

Heureusement, le NHTSA (le régulateur américain) a enfin ouvert les yeux et demande des comptes à Tesla avant le 10 décembre. L’enquête qui visait 174 000 Model Y s’étend maintenant à d’autres modèles, ce qui est parfaitement normal et rassurant vu qu’ils ont déjà recensé au moins 9 cas de personnes coincées à l’intérieur pendant que des passants tentaient de casser les vitres pour les sortir.

Et le pire dans cette technologie de poignées du tur-fu, c’est que le gain aérodynamique est ridicule. Selon les ingénieurs , une réduction de 0,01 du coefficient de traînée, ça économise à peine 0,6 kWh pour 100 km… Soit que dalle. En plus, le surpoids des moteurs et mécanismes (7-8 kg) annule quasiment ce maigre bénéfice. Voilà, tout ça pour pouvoir dire que sa caisse fait 0,23 au lieu de 0,24 de Cx (C’est le coefficient de traînée aérodynamique).

Franz von Holzhausen, le designer en chef de Tesla, a admis à Bloomberg qu’ils bossent sur un redesign pour rendre les poignées “plus intuitives pour les occupants en situation de panique”. Youpi !

La bonne nouvelle c’est que les poignées semi-rétractables resteraient autorisées en Chine , du moment qu’elles ont un backup mécanique. Volkswagen a toujours opté pour ce compromis, et Audi propose désormais un câble rouge de secours qui se déploie automatiquement en cas de crash. Comme quoi, c’était pas si compliqué.

Voilà… On n’est encore sûr de rien mais si la Chine passe cette loi, y’a de grandes chances que ça impacte les designs mondiaux… Pas le choix quand on veut vendre sur le plus gros marché automobile de la planète. Mais quoiqu’il en soit, je trouvais que c’était une bonne nouvelle pour la sécurité de tout le monde !

Source

  •  

Evo 2 – L'IA qui écrit de l'ADN fonctionnel

Vous pensiez que les IA génératives se contentaient de pondre des images de chats à 6 pattes façon Ghibli et des textes pompés sur Wikipédia ? Hé bien, je vais vous décevoir car des chercheurs de l’Arc Institute, Stanford, NVIDIA, UC Berkeley et d’autres viennent de pousser le concept beaucoup, beaucoup plus loin…

En effet, ils ont créé Evo 2, le plus grand modèle d’IA pour la biologie jamais rendu public, capable de lire, comprendre et même écrire de l’ADN fonctionnel. Et cerise sur le gâteau, une étude publiée cette semaine dans Nature démontre qu’on peut utiliser cette technologie pour créer des protéines totalement nouvelles qui n’ont jamais existé dans la nature… et qui fonctionnent vraiment !

Le projet Evo 2 fonctionne comme un LLM classique, sauf qu’au lieu de lui faire bouffer du texte, on lui a fait avaler 9,3 trillions de nucléotides (les fameux A, T, G, C qui composent l’ADN) provenant de plus de 128 000 génomes couvrant tous les domaines du vivant : bactéries, archées, virus, mais aussi humains, plantes et autres eucaryotes.

Leur modèle existe en deux versions : 7 milliards et 40 milliards de paramètres (comparable aux gros LLM actuels) mais sa vraie force, c’est sa fenêtre de contexte d’un million de paires de bases, soit 8 fois plus que son prédécesseur Evo 1. Pour vous donner une idée, c’est suffisant pour analyser un chromosome entier de levure ou un génome bactérien complet en une seule passe.

Pour entraîner ce monstre, il a fallu mobiliser plus de 2 000 GPU NVIDIA H100 pendant plusieurs mois sur le cloud DGX, soit environ 150 fois plus de puissance de calcul qu’AlphaFold. L’architecture utilisée, baptisée StripedHyena 2 , permet un entraînement 3 fois plus rapide que les transformers classiques sur les longues séquences et petit fun fact, Greg Brockman, cofondateur d’OpenAI, a participé au développement de cette architecture pendant son année sabbatique.

L’une des applications les plus impressionnantes d’Evo 2, c’est sa capacité à prédire si une mutation génétique risque de causer une maladie, et ce, sans aucun entraînement spécifique. Les chercheurs ont testé le modèle sur le gène BRCA1, connu pour son lien avec le cancer du sein. Résultat, Evo 2 a prédit avec plus de 90% de précision quelles mutations étaient pathogènes et lesquelles étaient bénignes.

Mieux encore, Evo 2 est actuellement le seul modèle capable de prédire l’effet des mutations dans les régions non-codantes de l’ADN (les fameuses parties qu’on pensait “inutiles” et qu’on appelait autrefois “ADN poubelle”). Pour les variants codants, il est second meilleur, mais pour les variants non-codants, il est carrément le top du top of the pop !

Et pour prouver que le modèle ne fait pas que régurgiter ses données d’entraînement, l’équipe lui a demandé d’annoter le génome du mammouth laineux, une espèce qui n’était évidemment pas dans son dataset. Et le modèle a correctement identifié la structure exons-introns du génome de ce pachyderme (aujourd’hui disparu parce que j’ai mangé le dernier), démontrant qu’il a vraiment “compris” les règles fondamentales du vivant.

Mais là où ça devient vraiment dingue, c’est ce concept de “design sémantique”. En effet, dans les génomes bactériens, les gènes qui travaillent ensemble sont souvent positionnés côte à côte, du coup, si on donne à l’IA le contexte génomique d’une fonction particulière, elle peut générer de nouveaux gènes ayant des fonctions similaires.

En gros, on prompte l’IA avec de l’ADN au lieu de texte, et comme un bon LLM qui complète vos phrases, Evo complète… vos génomes.

Pour tester cette approche, les chercheurs ont d’abord généré une toxine bactérienne basée sur une toxine connue. Ils ont ensuite utilisé cette toxine comme “prompt” pour demander à l’IA de créer des antitoxines correspondantes. Sur 10 propositions, la moitié ont réussi à neutraliser partiellement la toxine, et deux d’entre elles l’ont complètement désactivée avec 95-100% de survie cellulaire.

Et ces antitoxines n’avaient que 21 à 27% de similarité avec les protéines existantes, donc autant dire qu’Evo a inventé quelque chose de quasi-nouveau ! Et ce n’est pas du bricolage aléatoire puisque l’analyse montre que ces protéines seraient l’équivalent d’un assemblage de 15 à 20 morceaux de protéines différentes, recombinés de façon inédite.

Et ce qui est encore plus impressionnant, c’est que certaines de ces antitoxines générées fonctionnent contre plusieurs toxines différentes utilisant des mécanismes d’action distincts. L’une d’elles neutralise trois toxines naturelles, alors que l’antitoxine naturelle équivalente ne fonctionne que contre sa toxine d’origine. L’IA aurait donc identifié une compatibilité fonctionnelle plus large que ce qu’on observe dans la nature !

Les chercheurs ont aussi testé des systèmes où l’antitoxine est un ARN plutôt qu’une protéine. Là encore, le modèle a généré une antitoxine fonctionnelle avec 88% de survie, tout en conservant les caractéristiques structurelles essentielles malgré une séquence divergente.

Mais surtout, l’équipe a généré une toxine qui ne ressemble à absolument rien de connu. Aucune similarité de séquence, aucune similarité structurale, même avec les méthodes de détection les plus sensibles. Pour reconstituer tous les acides aminés de cette protéine, il faudrait recombiner des fragments de plus de 40 protéines différentes, ce qui ressemble plus à une protéine Frankenstein créée de toutes pièces qu’à une variation évolutive.

Et histoire de pousser l’idée encore plus loin, l’équipe s’est attaquée aux anti-CRISPR. Ce sont des protéines utilisées par les phages pour désactiver le système immunitaire bactérien, qui sont parmi les plus évolutives qui existent, avec une diversité de séquences et de mécanismes absolument folle.

Et 17% des protéines générées ont montré une activité anti-CRISPR mesurable, soit un taux de succès remarquable. Parmi les candidates qui fonctionnent, certaines n’ont aucune similarité de séquence détectable avec les protéines connues, et même leurs structures prédites ne ressemblent à rien dans les bases de données. Ce sont littéralement des protéines nouvelles qui font le job !

Mais Evo 2 ne s’arrête pas à la génération de protéines individuelles. Le modèle peut maintenant créer des séquences génomiques complètes de plusieurs centaines de milliers de paires de bases. L’équipe a testé trois niveaux de complexité :

  • Génomes mitochondriaux : à partir d’un fragment de 3 kb d’ADN mitochondrial humain, Evo 2 a généré des génomes complets de 16 000 bases avec le bon nombre de gènes codants, d’ARNt et d’ARNr. Les protéines générées ont été validées par AlphaFold 3 et correspondent à des complexes fonctionnels de la chaîne respiratoire.
  • Génomes bactériens : en partant de Mycoplasma genitalium (le génome bactérien minimal), le modèle a produit des séquences de 600 kb où près de 70% des gènes prédits correspondent à des domaines protéiques connus.
  • Chromosomes de levure : Evo 2 a généré 330 kb d’ADN eucaryote avec des introns, des promoteurs, des ARNt correctement positionnés, le tout ressemblant aux vrais gènes de levure.

Les chercheurs ont même encodé des messages en code Morse (“EVO2”, “LO”) dans les profils d’accessibilité de la chromatine des séquences générées, démontrant qu’on peut “programmer” l’épigénome avec ce modèle.

On nage en pleine science-fiction, mais ça fonctionne !

Pour finir en beauté, l’équipe a lâché Evo sur 1,7 million de gènes bactériens et viraux comme prompts, générant 120 milliards de paires de bases d’ADN synthétique. Cette base de données, baptisée SynGenome , est accessible gratuitement et permet de rechercher des séquences par fonction, domaine protéique, espèce ou terme Gene Ontology.

On y trouve notamment des protéines chimériques avec des fusions de domaines jamais observées dans la nature. Ces combinaisons pourraient représenter des innovations fonctionnelles à explorer pour la biologie synthétique.

Et le plus beau dans tout ça c’est que tout est open source. Les modèles (7B et 40B paramètres) sont disponibles sur Hugging Face , le code d’entraînement et d’inférence est sur GitHub , et le dataset OpenGenome2 est téléchargeable. Vous pouvez même tester Evo 2 directement dans votre navigateur via l’ API hébergée par NVIDIA ou l’interface Evo Designer.

Pour ceux qui veulent aller plus loin, NVIDIA propose aussi des tutoriels de fine-tuning via son framework BioNeMo , et une collaboration avec le labo Goodfire a produit un outil d’interprétabilité pour visualiser ce que le modèle “voit” dans les séquences génomiques.

Bien sûr, la génération autorégressive peut produire des séquences répétitives ou des “hallucinations” biologiques (des gènes réalistes mais non fonctionnels), et c’est pourquoi ce design sémantique nécessite des filtres et des validations expérimentales. De plus, cette approche est limitée aux fonctions encodées par les relations contextuelles dans les génomes prokaryotes, ce qui exclut de nombreuses applications eucaryotes… pour l’instant.

Un des génomes bactériens générés était d’ailleurs incomplet et ne fonctionnerait probablement pas si on le synthétisait et l’insérait dans une vraie bactérie. Mais l’équipe travaille déjà avec des experts en synthèse et assemblage d’ADN de l’Université du Maryland pour tester expérimentalement ces génomes générés.

Bref, on n’en est pas encore à créer des enzymes qui digèrent le plastique sur commande, mais le fait qu’une IA puisse générer des protéines fonctionnelles à partir de rien, juste en apprenant les patterns de l’évolution… c’est quand même complètement dingue. Et avec un taux de succès allant de 17 à 50% sur seulement quelques dizaines de variants testés, le design sémantique surpasse déjà de nombreuses méthodes classiques de conception de protéines.

Quoiqu’il en soit, la biologie générative vient de franchir un cap, et j’ai hâte de voir ce que les biologistes vont en faire !

Source

  •  

Memo - Le robot qui ne juge pas à quel point vous êtes crado

Et encore un robot qui plie du linge !!!

C’est comme si votre belle-mère avait emménagé chez vous, sauf que celui-là ne vous fera pas de remarques sur votre façon d’organiser le frigo ^^. La startup Sunday vient en effet, de présenter Memo, un robot domestique qui promet de vous libérer des tâches ménagères. En tout cas, avec ce truc, plus besoin de faire des gosses… Mais siii, vous savez ces mini prisonniers que vous utilisez pour vider et remplir vos lave vaisselles et que des cinglés veulent sacrifier afin de donner un sens à leur vie.

Blague à part, Memo est développé par Tony Zhao et Cheng Chi, deux diplômés de Stanford qui ont bossé chez Tesla, DeepMind, Waymo, Meta et Neuralink, s’inscrivant dans la lignée de ces autres robots domestiques innovants . L’équipe compte maintenant 25 ingénieurs et chercheurs et ce robot a été pensé différemment des autres machines du genre.

Au lieu de s’entraîner dans des simulations industrielles ou des labos aseptisés, Memo a appris en observant de vrais humains faire leurs corvées dans plus de 500 foyers réels. Et sa techno clé, c’est le gant breveté “Skill Capture Glove”.

Des volontaires ont porté ce gant pendant qu’ils faisaient leur ménage, et le système a capturé leurs mouvements. Comment ils plient le linge, comment ils rangent les chaussures dans l’entrée, comment ils chargent le lave-vaisselle, comment ils se… euh, pardon, je m’égare. Bref, Sunday a envoyé plus de 2 000 gants à ces “Memory Developers” et a collecté environ 10 millions d’enregistrements de tâches domestiques réelles. D’après eux, c’est l’une des plus grosses bases de données spécialisées pour robots domestiques qui existe !

L’idée de départ c’est que la plupart des robots domestiques sont des adaptations de machines industrielles. Ils fonctionnent bien dans des environnements structurés pour l’occasion, mais ils plantent lamentablement dès qu’ils se retrouvent face au chaos d’une vraie maison. Des chaussettes qui traînent n’importe où, des assiettes empilées n’importe comment, un chat qui passe devant eux au mauvais moment et c’est la catastrophe !

Du coup, grâce à ces millions d’exemples de situations domestiques authentiques, Memo peut gérer ce qu’ils appellent les “tâches à horizon long”. Ce sont des actions en plusieurs étapes où il faut prendre des décisions selon le contexte comme débarrasser une table, remplir et vider un lave-vaisselle, plier du linge, ranger les chaussures qui trainent dans l’entrée, et même préparer un espresso.

Bon après faudra pas lui demander de gérer un ado en crise existentielle qui n’a plus de Wifi, mais c’est déjà pas si mal.

Côté design, comme vous pouvez le voir, Memo ne ressemble pas du tout aux robots humanoïdes qui font des saltos sur scène. Il a une base roulante au lieu de jambes, ce qui lui permet de rester stable même si le courant se coupe. Donc pas de risque qu’il vous tombe dessus pendant votre sieste.

Son torse peut également monter et descendre pour atteindre des objets à différentes hauteurs et visuellement, il a vraiment un air rétrofuturiste assez mignon avec son corps blanc brillant, ses deux bras super longs, et un visage de cartoon avec des grands yeux en boutons… Ah et vous pouvez même lui mettre différentes casquettes de couleur pour lui donner un look west coast.

Ça me rappelle un peu Baymax dans Big Hero 6. Son corps est également recouvert de silicone souple, ce qui le rend plus dodu et rassurant qu’un robot humanoïde classique froid avec son look de T-1000.

La sécurité a été également bien pensée, d’après ce qu’ils expliquent. Memo est en effet conçu pour être “safe” en présence d’enfants. Si un gamin le pousse ou lui rentre dedans, il ne va pas riposter en lui mettant un coup de savate comme Nawell. Et sa stabilité passive fait qu’il ne peut pas tomber brutalement même en cas de coupure de courant, contrairement à un père de famille bourré et violent.

Et concernant la vie privée, Sunday insiste sur le fait que leur méthode d’apprentissage est respectueuse puisque le robot n’a pas besoin de vous filmer en permanence pour apprendre, vu qu’il utilise les données collectées via le fameux gant et sa bibliothèque de compétences en expansion permanente.

Voilà, le programme de bêta-test “ Founding Families ” a ouvert le 19 novembre et ils vont sélectionner 50 familles qui recevront des exemplaires numérotés de Memo avec un support rapproché de l’équipe. JE ME PORTE VOLONTAIRE POUR TESTER CE TRUC !! Et ensuite, le produit final sera commercialisé au plus tôt fin 2026 avec un prix de départ estimé autour de 20 000 dollars. Ouais, c’est pas donné, mais bon, si vous calculez le coût “d’élevage” d’un enfant jusqu’à ce qu’il soit capable de plier une chaussette correctement, vous vous rendrez compte que c’est peut-être pas si cher ^^.

Source

  •  

Zniko - Pour prendre du plaisir avec une seule main

Ce matin sur mon live Twitch , Zniko Boc a débarqué pour me montrer un truc qu’il a fabriqué ! Il s’agit d’une manette de jeu pour jouer avec… une seule main !

Car Zniko est aphasique depuis un accident vasculaire cérébral (AVC). Il a du mal à parler, à lire et à écrire et il n’a aucune sensation du côté droit. Du coup, pour continuer à jouer aux jeux vidéo, il a cherché des solutions. Il a testé toutes les manettes adaptatives du commerce, du Xbox Adaptive Controller de Microsoft à 90 euros. au Sony Access. Bref, tous les trucs qui existent sur le marché et aucun ne lui a convenu vraiment.

Pas mal de problèmes d’accessibilité aux touches, de la latence, un ergonomie pas folle… Et quand vous êtes dans cette situation et que vous dépensez 90 balles pour un truc qui ne résout pas votre problème, ça énerve !

Alors Zniko a fait ce que font les makers quand les solutions du commerce sont pourries : il a construit la sienne ! Il a modélisé sa propre manette, trouvé les composants nécessaires, et adapté un logiciel.

Et ça fonctionne !!

La manette de Zniko permet de jouer de la main gauche ou de la main droite sur PC, Xbox One, Nintendo Switch et PlayStation. Soit 4 plateformes différentes avec le même hardware. Elle peut se fixer sur un bureau ou un plateau. Ou alors vous la sanglez autour de votre cuisse, et vous jouez comme ça, OKLM.

Le mec a testé sa manette sur un paquet de jeux : Minecraft, Mario Kart 8 Deluxe, Super Mario Bros Wonder, Metroid Dread, Metroid Prime 1, Risk of Rain 2, Zelda Breath of the Wild, Super Mario Odyssey, Monster Hunter Rise…etc et ça marche du feu de dieu !

Après y’a quand même quelques limitations notamment pour les jeux de tir où vous devez viser librement, c’est plus compliqué. Risk of Rain 2 sans sélection automatique des ennemis, c’est la galère. Par contre, Metroid Prime 1 avec le lock-on, ça passe nickel. Et les triggers analogiques genre accélérateur progressif, la manette Zniko peut pas le faire soit c’est à fond, soit c’est rien. Mais pour la majorité des jeux, ça fonctionne très bien !

Le truc dingue, c’est comment il a monté ça car Zniko a mobilisé toute sa famille. Son père, ancien électricien, a fait les soudures sur la première version. Sa femme, sa fille et son fils l’ont aidé pour les vis et les trous parce que visser et percer avec une seule main fonctionnelle, c’est pas évident !

Et côté technique, Zniko a utilisé le logiciel open source GP-2040 . C’est un firmware qui transforme n’importe quel microcontrôleur en manette universelle.

Bref, c’est un super projet collaboratif finalement avec une famille soudée, et une communauté maker qui participe pour au final aider le plus grand nombre car Zniko vend maintenant sa manette sur Etsy. Vous pouvez donc l’acheter déjà assemblée, ou en kit avec les pièces détachées si vous voulez la monter vous-même. Main gauche ou main droite, au choix comme je vous le disais. Il propose aussi des tutoriels complets de montage pour ceux qui veulent se lancer !!

Le but de Zniko, c’est pas de devenir riche (Il a tord quand même ^^) mais c’est de rendre sa solution accessible à d’autres personnes dans son cas ! Et c’est pour ça que j’écris cet article aujourd’hui , c’est pour le soutenir et vous faire découvrir sa super manette parce qu’il y en a peut-être parmi vous qui en ont besoin. Voilà, son site c’est sites.google.com/view/zniko Et vous y trouverez toutes les infos.

Bref, je tire mon chapeau à Zniko et je souhaite un immense succès à sa magnifique manette.

  •  

Une bataille après l'autre

Ce week-end, j’ai vu le film “Une bataille après l’autre” sans rien en attendre de spécial, c’est vrai. Juste parce qu’en général, j’aime bien ce que propose Leonardo DiCaprio… et 2 heures et demie plus tard, j’étais scotché !

L’histoire suit un ancien révolutionnaire, Bob Ferguson, qui vit planqué avec sa fille après avoir tout laissé tomber. Sauf que son passé le rattrape quand un militaire corrompu qu’il a humilié des années plus tôt refait surface. Et là, Bob doit replonger dans son ancienne vie pour sauver sa fille. Ce film parle de résistance et de gens normaux qui se battent contre un État surpuissant, dans une société qui n’est pas en guerre mais où l’appareil d’État écrase tout sur son passage.

Ça résonne hyper fort avec ce qui se passe en ce moment aux États-Unis avec ces histoires horribles de déportations avec ICE, les familles séparées, tout ça… Le film montre donc des résistants amateurs, qui refusent d’abandonner malgré l’usure du combat et surtout, l’État en face qui ne se lasse jamais et n’abandonne jamais.

Leonardo DiCaprio, comme toujours, est juste parfait dans son rôle. J’adore cet acteur depuis toujours, mais là il livre une performance dingue. Il joue donc cet ex-révolutionnaire fatigué, paranoïaque, qui vit la moitié du temps totalement défoncé pour oublier toute cette merde… Mais quand vient le moment de se bouger, il ne fait pas semblant. C’est une seconde nature chez lui et DiCaprio arrive à montrer cette usure, cette fatigue, tout en gardant cette détermination du type qui ne lâche rien et qui a toujours gardé cette flamme de résistance en lui.

Et puis Sean Penn… OMG… Il y joue le colonel Steven Lockjaw, un militaire complètement taré qui a développé une obsession malsaine pour Bob et sa femme après avoir été humilié. Penn fait vraiment flipper en vieux suprémaciste qui a toutes ses entrées au niveau de l’État. Il est terrifiant de réalisme car c’est un type dangereux avec du pouvoir et ses copains les tarés, ne sont pas mieux.

Le film est réalisé par Paul Thomas Anderson, le mec derrière “There Will Be Blood” et “Licorice Pizza” et il s’attaque ici à un budget énorme, entre 110 et 140 millions de dollars rien que pour ce film. Et ça se voit puisque les scènes d’action sont dingues ! Mais ce qui m’a marqué surtout, c’est l’ambiance. Car Anderson crée une tension permanente avec cette sensation que l’État peut tout écraser à tout moment, et que les résistants sont toujours en danger.

L’histoire est inspirée du roman “ Vineland ” de Thomas Pynchon (lien affilié). Et je ne sais pas si c’est basé sur une histoire vraie ou pas (j’crois pas) mais l’histoire est folle et le casting excellent. Au-delà de DiCaprio et Penn, on a aussi Benicio del Toro, Regina Hall, Teyana Taylor… Tout le monde est au top !

Ce qui m’a plu dans ce film, c’est ce côté amateur de la résistance qui s’organise intelligemment avec des gens normaux, et pas des guerriers entraînés, qui font ce qu’ils peuvent avec leurs moyens limités. Et l’État en face, qui est une machine de guerre totale ayant tout : l’argent, les armes, la légalité. Les résistants, eux, ont juste leur conviction et ils s’y tiennent malgré la violence et le temps qui passe. J’ai eu l’impression de voir de l’eau couler… c’est une résistance fluide, naturelle, humaine…

Voilà, vous l’aurez compris, ça m’a vraiment plu ! Bref, je vous recommande d’aller voir “Une bataille après l’autre” !

  •  

Batman Dark Age - Et si Batman oubliait d'être Batman ?

– Article en partenariat avec Urban Comics –

Urban Comics vient sortir Batman Dark Age (lien affilié), et ça me fait plaisir de vous en parler car vous connaissez mon amour pour Batman ! C’est mon seul vrai héros préféré depuis toujours car il a ce côté sombre, cette souffrance, cette humanité que j’adore et qui le met tellement au dessus des autres, et surtout, il n’a aucun super pouvoir ! (Mais un gros paquet de pognon c’est vrai…).

Et ce qui est cool avec cet album, c’est que les auteurs sont partis de ce constant simple : Et si Batman perdait la mémoire ?

On est donc en 2030 et Bruce Wayne est vieux, grabataire, et enfermé dans une maison de retraite. Du coup, pour ne pas tout oublier, il se raccroche à ses souvenirs. Notamment cette nuit de 1957 où tout a basculé, quand ses parents se sont fait descendre, avec un changement majeur par rapport à l’origine classique, c’est que lui n’était pas là. Le bouquin suit alors ses débuts de justicier, son adolescence en colère, l’armée, le rôle important d’Alfred et de Lucius Fox et toute la construction du mythe Batman mais vue depuis le regard d’un vieux bonhomme.

C’est un angle que je trouve vraiment dingue parce qu’on connaît tous l’origine de Batman par cœur, ais là, Russell la revisite totalement en la faisant passer par le prisme de la vieillesse et de la mémoire qui flanche où Batman oublie d’être Batman.

Le scénario est signé Mark Russell (lien affilié) qui a été nominé pour le prix Eisner du meilleur scénariste en 2023. Il a déjà bossé sur Superman Space Age avec les mêmes dessinateurs, une série nominée aux Eisner également. D’ailleurs Batman Dark Age partage le même univers temporel que Superman Space Age, où les événements historiques réels coexistent avec les super-héros DC. On est dans les années 60, en pleine Guerre Froide, mouvement des droits civiques, conquête spatiale…etc et petit Batman grandit dans ce contexte explosif.

Et visuellement, c’est Mike Allred qui gère les dessins, avec sa femme Laura Allred aux couleurs. Si vous connaissez pas le style Allred, imaginez du pop art années 60 qui rencontre Jack Kirby . Des lignes épurées, du dynamisme, des couleurs pétantes… Mike Allred (lien affilié), c’est surtout le mec derrière Madman, iZombie, X-Statix et son style colle parfaitement à cette époque charnière des années 60 où Batman évolue dans cette histoire.

Et là, le fait de passer par la mémoire d’un Bruce Wayne sénile ajoute une couche de mélancolie et d’urgence car il doit se souvenir avant qu’il ne soit trop tard. Le bouquin fait 264 pages et est vendu 25 euros chez Urban Comics dans la collection DC Black Label, qui regroupe les œuvres DC les plus matures et d’un bloc. Batman Dark Age compile en effet les 6 numéros de la série sortie en 2024 aux États-Unis.

Bref, j’ai passé un super bon moment avec cette lecture. Pour ceux qui aiment Batman autant que moi, c’est vraiment le cadeau de Noël idéal. Vous en aurez pour votre argent vu l’épaisseur du bouquin et la qualité du récit et je trouve que Russell et Allred forment un duo très créatif !

D’ailleurs, ce Batman Dark Age fait partie d’une trilogie que Russell et les Allred sont en train de créer chez DC. Après Superman Space Age sorti en début d’année et ce Batman Dark Age (liens affiliés), ils bossent également sur un Wonder Woman qui complétera le tout. Donc si comme moi, vous aimez voir vos héros revisités avec beaucoup d’intelligence et de style, je pense que vous allez vous régaler.

Découvrez Batman Dark Age chez Urban Comics .

  •  

Firefox AI Window - L'IA qui vous respecte

Édit du 18 novembre : Je me suis pris quelques insultes d’anti- suite à cet article. Sans surprise, des attaques ad-hominem sans argument comme d’hab. Par contre, si j’édite ce post, c’est pour vous dire que Anil Dash, qui est assez connu dans le monde de la tech, pense plus ou moins pareil que moi au sujet de l’IA dans Firefox. Donc ça me rassure un petit peu parce que j’avais vraiment l’impression d’être tout seul… Son article est disponible ici. *

Je viens à l’instant de m’inscrire sur la liste d’attente de Firefox AI Window . Il s’agit d’une nouvelle fonctionnalité IA pour Firefox qui tournera en local, respectera la vie privée, et nous laissera choisir notre modèle. Je suis assez hypé par le truc mais je vous avoue que les commentaires sur le forum Mozilla Connect sont… comment dire… assez révélateurs.

En effet, il y a une écrasante majorité de réactions négatives. Alors c’est pas contre l’implémentation technique, ni contre l’approche privacy-first de Mozilla. Non, c’est essentiellement contre le simple fait que le mot “IA” existe au sein de Firefox. Certains utilisateurs réclament même un bouton géant “No AI” visible depuis l’espace, pour désactiver une fonctionnalité qui est déjà désactivée par défaut. Ces mecs ont de la fièvre je pense…

Le truc qui m’agace en fait, dans ces réactions teubées, c’est qu’elles passent complètement à côté de l’enjeu stratégique. Chrome intègre Gemini de façon de plus en plus invasive, Edge a Copilot, Arc a son Browse for Me, Perplexity et OpenAI lancent leurs navigateurs IA… Alors si ce bon vieux Firefox reste immobile au sujet de l’IA pendant que tout le monde avance, je vous rassure, il ne deviendra jamais “le dernier bastion de la pureté” qui fait mouiller les anti-IA.

Non, il deviendra juste obsolète.

Réveillez-vous les gars, Mozilla propose exactement ce que les libristes demandent depuis toujours ! Un respect de la vie privée, un contrôle utilisateur total, de la transparence, un fonctionnement en local, des petits modèles, du code libre…etc.

Mais bon parce que c’est de l’IA, ça devient l’ennemi. Faudrait quand même être sacrément con pour saborder la SEULE implémentation IA grand public qui respecte réellement ces principes de liberté et de respect de la vie privée.

Plutôt que de gueuler sur Mozilla, je vous invite plutôt à vous poser cette question : Est ce que vous préférez une IA locale optionnelle dans Firefox, ou une IA obligatoire cloud-only dans Chrome qui aura au final capté 95% du marché parce que Firefox sera mort de n’avoir rien fait ?

Parce que si Firefox disparaît, on perdra le dernier navigateur grand public capable de proposer une alternative respectueuse pour notre vie privée et ça perso, ça m’inquiète.

Nos champions anti-IA n’ont, pour la plupart, même pas remarqué que Firefox proposait déjà des fonctionnalités IA locales depuis le début cette année . Je pense au tab grouping automatique avec suggestions de titres, à la traduction de pages instantanée sans envoyer le contenu hors de votre machine, à la génération d’alt-text pour des images accessibles sans faire de compromis sur la vie privée… Tout ça tourne déjà en local chez vous et pas grand monde ne s’en plaint.

Je pense que c’est parce que Mozilla ne communique pas dessus en mettant des paillettes “AI-powered” partout. Ils font juste leur taf. C’est un peu comme quand je parle d’une super application cross-platform… Suffit que j’écrive que c’est fait en Electron et y’en a qui tombent dans le coma direct. Et cela peu importe que l’app soit folle ou pas. Bref, c’est ridicule.

AI Window sera donc une troisième fenêtre de navigation (en plus des fenêtres classiques et privées), avec un assistant et un chatbot intégré. Mozilla présente ça comme, je cite, “un compagnon de confiance qui améliore votre navigation et vous guide vers le web plus large”, par opposition aux navigateurs IA qui vous enferment dans une boucle conversationnelle pour à terme, je pense vous vendre des trucs et conserver votre attention et vos données perso.

Grâce à Mozilla, vous pourrez choisir votre modèle IA et tout sera “opt-in” comme on dit. Ça veut dire que tout sera en option et rien ne sera activé par défaut. Vous pourrez choisir de l’activer ou non ! Que demande le peuple ? C’est merveilleux non ?

Faut dire que Mozilla a clairement appris de ses erreurs puisqu’ils ne forcent rien, ne pré-activent rien mais construisent tranquillement le meilleur navigateur possible, à la vue de tous (le code est libre, open source et chacun peut contribuer et donner son avis). Après, même comme ça, même en jouant la transparence absolue, ça ne plaira jamais à une certaine petite caste de barbus aveuglés par des idées pré-digérées faciles à comprendre. Tant pis pour eux !

Maintenant, le vrai enjeu pour moi, c’est pas ça, c’est surtout l’ouverture aux développeurs. J’espère vraiment que ces fonctionnalités IA seront accessibles via une API pour les extensions Firefox. Si c’est le cas, on va pouvoir créer des extensions qui s’appuient sur l’IA locale de Mozilla, sans avoir à ajouter un modèle de 500 MB ou à envoyer les données utilisateur dans le cloud. Et ça, j’avoue ce serait trop cool car ça ouvrirait l’écosystème des extensions Firefox à tout un tas de nouvelles extensions “intelligentes” qui respectent la vie privée.

Voilà… je sais que le changement c’est dur les gars, et que ça hérisse les poils de cul de certains pas bien sevrés mais l’IA de Mozilla va apporter des choses intéressantes dans le navigateur, que ça vous plaise ou non. Et si Mozilla ne se met pas à la page, Firefox prendra encore plus la poussière et finira par être délaissé. Et au final, on aura tout perdu et y’aura même plus d’IA qui respecte la vie privée et qui soit accessible au grand public gratuitement.

Voilà… Soyez pas cons. En tout cas, pour ma part, j’ai hâte de tester AI Window quand ça sortira !

Source

  •  

ByteBot - L'agent IA qui prend le contrôle de votre ordi (mais dans Docker, faut pas déconner)

Vous saviez que Claude d’Anthropic avait lancé sa fonction Computer Use et OpenAI son Operator ? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.

Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.

Je vous ai fait une vidéo tuto dessus ! Et c’est grâce aux Patreons qui me soutiennent, alors merci à eux !

Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.

Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.

Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.

git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992

Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.

L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.

Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.

Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^

Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.

Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.

from bytebot import ByteBotClient

client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)

Et pour la sécurité, ByteBot implémente plusieurs garde-fous . Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.

Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.

Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.

Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.

Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.

Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la documentation complète ici , et le code source sur GitHub .

  •  

Hackez votre mémoire en modifiant votre visage

Utkarsh Gupta, chercheur à l’Anglia Ruskin University de Cambridge, vient de publier une étude dans Scientific Reports de Nature qui va vous faire halluciner. Pour retrouver vos souvenirs d’enfance, il suffit de hacker votre propre visage ! Hé oui, on peut littéralement débloquer sa mémoire avec un simple filtre photo de vous plus jeune.

Car votre cerveau garde vos souvenirs d’enfance derrière une porte verrouillée dont votre visage d’enfant est la clé !

Le principe est simple… vous prenez 50 adultes, vous leur montrez leur propre visage en live sur un écran, mais modifié par un filtre pour ressembler à leur tête de gamin. Ce genre de filtres bébé qui traînent sur Snapchat et Instagram…

Et là, résultat de malade : ceux qui ont vu leur visage d’enfant se sont souvenus de beaucoup plus de détails de leur enfance que ceux qui voyaient leur visage d’adulte. Vraiment beaucoup plus !

Cette technique s’appelle l’enfacement illusion. C’est une illusion cognitive où votre cerveau se fait avoir. Il pense que le visage qu’il voit sur l’écran, c’est le vôtre, comme si vous vous regardiez dans un miroir. D’habitude, l’enfacement illusion sert aux neuroscientifiques pour étudier la plasticité de la représentation de soi mais là, les chercheurs l’ont détournée pour créer une sorte de machine à remonter le temps low-tech.

Votre mémoire est comme un trousseau de clés où chaque visage que vous avez eu dans votre vie correspond à une clé différente. Avec votre tête d’adulte, vous n’avez accès qu’aux souvenirs récents, c’est à dire les titres qui passent en boucle sur votre playlist mentale. Mais avec votre visage d’enfant, vous accédez aux deep cuts, aux morceaux oubliés tout au fond de votre disque dur cérébral.

Une sorte de reverse engineering de la mémoire, si vous voulez.

L’enfacement illusion fonctionne grâce à une stimulation multisensorielle synchrone. Concrètement, vous voyez des touches tactiles sur le visage à l’écran en même temps que vous sentez ces touches sur votre propre visage. Votre cerveau fait alors la connexion et se dit : “Ok, ce visage là-bas, c’est moi”. C’est exactement le même mécanisme que l’illusion de la main en caoutchouc, vous savez, quand on arrive à vous faire croire qu’une fausse main posée sur une table est la vôtre.

Du coup, qui êtes-vous vraiment ? Votre tête actuelle ? Toutes vos tronches du passé ? Ou la somme de toutes ces versions ?

Si vous voulez tester ça vous même, trouvez un bon filtre et suivez ce tuto de Utkarsh :

Cette méthode pourrait beaucoup aider dans tout ce qui est travail thérapeutique ou pour aider les victimes de traumatismes à accéder à des souvenirs enfouis. Et si vous savez coder une application mobile, vous pouvez même devenir très riche en proposant la première app qui débloque vos souvenirs d’enfance ;-)))

Bon, il y a quand même un truc à garder en tête c’est que cette technique ouvre des portes, mais il faut faire attention à ce qui se cache derrière. La recherche a montré par exemple que des enfants exposés à de la réalité virtuelle pouvaient développer de faux souvenirs… Donc manipuler la perception corporelle pour accéder aux souvenirs, c’est très puissant, mais ça demande quand même un peu de précautions.

Je sais pas si vous allez essayer mais si ça marche, faites moi un mail, je suis vraiment curieux.

Source

  •  
❌