Vue normale

Jeux vidéo et violence - Spoiler, c'est du pipeau

Par : Korben
7 février 2026 à 18:46

Les jeux vidéo rendent violent. Sérieusement ? En fucking 2026, y'a encore des gens pour sortir ça à table le dimanche ou piiiire en public sur le net ?

Aaaaannnh, c'est la honte quand même de dire ça, prem deug. C'est un peu comme ceux qui pensaient que le rock rendait sataniste ou que la BD poussait au crime dans les années 50. À chaque génération, les mêmes paniques… et à chaque fois, la science finit par leur donner tort, ce qui nous permet de nous foutre de leur gueule.

Alors parce que pour battre l'obscurantisme, y'a rien de mieux que de la science, des preuves, des choses tangibles et vraies, je vais vous en donner un peu pour votre argent…

Tenez, en 2019, une équipe d'Oxford (Przybylski et Weinstein, pour les curieux) a suivi 1004 adolescents britanniques pour mesurer l'impact des jeux violents sur leur comportement. Résultat… aucun lien. Ouais, que dalle, et c'était pas un petit sondage BFMTV ou je sais pas quoi, hein… Non, c'est l'une des études les plus rigoureuses sur le sujet, avec des données croisées entre les ados ET leurs parents.

En 2018, des chercheurs du Max Planck Institute à Berlin ont également fait jouer 90 adultes à GTA V pendant deux mois . Tous les jours, 30 minutes minimum sur la version PC. Ensuite, passage au scanner IRM. Aucune modification du comportement, aucune hausse d'agressivité. Rien du tout !

Et c'est pas fini. En 2022, Johannes et son équipe ont suivi 2580 joueurs d'Apex Legends et Outriders avec des données télémétriques Steam et Xbox Live (pas du déclaratif, de la vraie data serveur). Même résultat. Y'a waloooo !

Hé mais j'ai encore mieux les amis puisqu'une étude portant sur une durée de 10 ANS (!!!) publiée dans Cyberpsychology a suivi des gamins qui ont grandi avec GTA. De 10 à 20 ans, avec des questionnaires annuels ! Résultat, y'a pas plus de violence, pas plus de dépression, pas plus d'anxiété. En fait, les groupes ne diffèrent même pas sur les comportements prosociaux. Y'a eu un seul cas de figure où on observait un léger effet, c'est les gamins qui cumulaient jeux violents ET problèmes familiaux préexistants. Sauf que là, c'est le contexte familial le problème, pas la manette. Ce serait bien plus efficace de faire des lois pour interdire les familles de merde, en fait !

Du coup, si la science dit NON, alors pourquoi ce débat pour décérébrés continue ?

Le problème c'est qu'à une époque lointaine que seuls les profs de théâtre auraient pu connaitre, certaines méta-analyses (coucou Anderson et Bushman) trouvaient des corrélations minuscules entre les jeux vidéo et la violence… Genre r = 0,11, ce qui en gros signifie que les JV n'expliqueraient que 2 % du comportement violent d'une personne… Donc autant dire quasiment rien. C'est moins que l'effet de la météo sur votre humeur !!

Et surtout, d'autres chercheurs ont démontré un peu plus tard que ces résultats étaient biaisés . En gros, on publiait les études qui trouvaient un effet et on planquait celles qui trouvaient rien. C'est un cas particulier typique du biais de publication (et y'en avait un sacré paquet des études planquées).

D'ailleurs, même l'APA , la plus grande association de psychologie au monde, a revu sa position en 2020. Leur conclusion : pas de preuve suffisante d'un lien causal. Bon bah quand la plus grosse autorité en psycho vous dit que c'est du vent… normalement, on remballe.

Après, attention, hein, ça veut pas dire que laisser un gosse de 8 ans jouer à GTA Online 12 h par jour c'est une super idée. À la base, la classification PEGI 18 existe pour une raison. Sauf que là, c'est une question d'éducation et de contrôle parental… mais pas de violence virtuelle qui "contaminerait" le cerveau. Et ça, aucune étude sérieuse ne le conteste.

Et si vous voulez des chiffres qui parlent, en voilà. J'ai pas les chiffres en France, mais depuis les années 90, la violence juvénile aux USA a chuté de +80 % selon le Bureau of Justice Statistics. Pendant ce temps, GTA V a dépassé les 200 millions d'exemplaires vendus depuis sa sortie en septembre 2013. Call of Duty, toutes versions confondues depuis CoD 4 en 2007, c'est plus de 400 millions de copies.

Donc NORMALEMENT si les jeux rendaient violent, on devrait nager dans le sang h24, là non ?

Ah et j'oubliais… Le cas du Japon est encore plus parlant. C'est LE pays du gaming, premier marché de la planète par habitant… et un taux d'homicides de 0,2 pour 100 000 habitants en 2023 . Aux USA, c'est plus de 5 . VINGT-CINQ fois plus. Cherchez l'erreur. (Tips : y'en a pas, sauf si on considère que les Japonais sont secrètement immunisés contre les pixels violents.)

Une étude menée par Przybylski sur Animal Crossing a même montré que jouer pouvait être bénéfique pour le moral. Et le NIH a découvert en 2022 que les enfants qui jouent plus de 3 h par jour ont de meilleures performances cognitives que les autres (oui oui, vous avez bien lu). Du coup, non seulement les jeux vidéo ne rendent pas violents mais en plus, ils vous rendent plus malins. C'est diiiingue !

Allez, hop, un dernier clou dans le cercueil et après je vous laisse.

En 2011, la Cour suprême des États-Unis, c'est-à le plus haut tribunal de ce pays de fous, a examiné la question de savoir si les jeux vidéo violents représentaient un vrai danger . Verdict, par 7 voix contre 2, les juges ont conclu que non car les preuves scientifiques étaient insuffisantes pour établir un lien entre jeux vidéo et violence. C'est même le juge Scalia, pourtant connu pour ses positions ultraconservatrices, qui a rédigé la décision. Quand même, hein les gars !!! Autrement dit, même la justice américaine a fini par dire stop aux marchands de peur.

Et le CNRS le confirme , au cas où y'aurait encore des sceptiques.

Alors la prochaine fois qu'un tocard vous sortira le couplet "nia nia nia les jeux vidéo rendent nos enfants violents, nia nia nia", vous aurez une vision claire concernant le vide abyssal de ses connaissances sur ce sujet. Et dites-vous que si ça balance des conneries aussi grosses que ça et aussi débunkées que ça, mais putain qu'est-ce que ça doit être sur les autres sujets… Argh !

Perso, moi ce qui va finir par me rendre violent un jour, c'est la connerie humaine.

WeekInPapers - Pour suivre la recherche en informatique sans se noyer

Par : Korben
7 février 2026 à 09:07

Vous avez déjà essayé de suivre ce qui se passe dans la recherche en informatique ? Moi oui, et c'est l'enfer. Chaque semaine, des centaines de nouveaux papiers débarquent sur arXiv . Et entre le machine learning, la vision par ordinateur, la crypto, le NLP et tout le reste, y'a de quoi perdre la tête. Et puis bon, lire des abstracts de 500 mots bourrés de jargon technique, c'est pas vraiment ce qu'on fait pour se détendre le dimanche...

Du coup ça tombe bien puisque WeekInPapers tente de résoudre ce problème. Le concept est simple : chaque semaine, le site liste tous les papiers publiés sur arXiv dans le domaine de l'informatique, avec des résumés générés par IA et un glossaire des termes techniques. L'idée, c'est de rendre la recherche accessible aux gens comme moi qui n'ont pas un doctorat en deep learning.

Le site couvre une trentaine de catégories différentes : Machine learning, vision par ordinateur, intelligence artificielle, traitement du langage naturel, robotique, cryptographie, architecture hardware, graphisme, interaction homme-machine... Bref, à peu près tous les domaines de l'informatique.

Cette semaine par exemple, y'avait plus de 300 papiers listés. Rien que ça...

L'interface est plutôt bien foutue puisque vous avez une sidebar avec des filtres pour sélectionner les catégories qui vous intéressent. Et chaque papier apparaît sous forme de tuile cliquable avec le titre, la date, les tags de catégorie et l'identifiant arXiv. Vous survolez une tuile et hop, l'abstract s'affiche. Et si vous cliquez, vous avez les détails complets.

Ce qui est cool, c'est que les papiers sont souvent taggés dans plusieurs domaines. Du coup, un article sur les réseaux de neurones pour la génération vidéo apparaîtra à la fois dans machine learning et dans vision par ordinateur. C'est chouette pour ne pas louper des trucs qui chevauchent plusieurs disciplines.

Ce projet a été créé par Matthew Oxley et moi, ce que je préfère, ce sont les résumés générés par un LLM qui permettent d'avoir une idée rapide de ce que raconte un papier sans se taper 15 pages de formules mathématiques. Après, si un truc vous intéresse vraiment, rien ne vous empêche d'aller lire le papier original, évidemment.

Voilà, pour les chercheurs, les étudiants ou juste les curieux qui veulent rester au courant des dernières avancées, c'est une ressource plutôt pratique. En tout cas, plus pratique que de faire du doom-scrolling sur X en espérant tomber sur un thread intéressant.

AstroClick - Le système solaire en voxel dans votre navigateur

Par : Korben
6 février 2026 à 07:24

AstroClick, c'est un simulateur interactif du système solaire en 3D, 100% gratuit et open source, qui tourne dans le navigateur. Ce projet a été développé par Charlie, un lecteur du blog (merci !), et perso je trouve que ça mérite un petit coup de projecteur.

AstroClick, le système solaire en cubes

Quand vous débarquez sur le site, vous avez le Soleil au centre avec toutes les planètes qui gravitent autour en temps réel. Vous pouvez donc zoomer, dézoomer, tourner autour... et même accélérer le temps pour voir les orbites défiler plus vite. Le rendu est en voxel (oui, des petits cubes), ce qui donne un côté Minecraft spatial pas dégueu du tout.

Et c'est pas juste joli puisque chaque planète est cliquable et vous donne des infos astronomiques réelles. On retrouve aussi l'ISS, Hubble et même le télescope James Webb dans le lot. Vous pouvez même basculer entre une vue simplifiée (pour que ce soit lisible) et une vue à l'échelle réelle des distances... et là vous comprendrez VRAIMENT à quel point l'espace c'est grand. Genre, IMMENSE 😱.

La navigation dans AstroClick, plutôt fluide

Côté technique, c'est du React Three Fiber avec Next.js 14, le tout sous licence MIT sur GitHub ( github.com/sartilas/AstroClick si vous voulez fouiller le code). Les textures viennent de la NASA, y'a même de l'audio ambiant pour l'immersion. Hop, vous activez le son et vous vous la jouez Thomas Pesquet depuis votre canapé. L'appli est traduite en 6 langues (français, anglais, espagnol, russe, chinois et hindi) donc tout le monde peut en profiter.

Si vous avez des gamins curieux ou si vous êtes vous-même un peu geek de l'espace, c'est un super outil pédagogique, je trouve. Attention par contre, sur mobile c'est pas ouf... le WebGL rame un peu sur les petits écrans (sauf si vous avez un flagship récent), mais sur un PC ça envoie par contre. Pas d'abonnement, pas de tracking, juste de la science accessible en un clic. Si vous avez envie de explorer le système solaire dans votre navigateur , c'est le genre de projet qu'on ne voit pas assez.

Bref, merci Charlie pour le taf. Allez voir AstroClick et amusez-vous bien !

Neocities - Bing blackliste 1,5 million de sites et s'en tape

Par : Korben
5 février 2026 à 21:13

Je vous en parlais y'a pas longtemps, Neocities c'est cette plateforme qui fait revivre l'esprit GeoCities avec ses sites web persos pleins de GIFs qui clignotent et de fonds étoilés. Eh ben les galères continuent pour eux... et ça pique.

Car Bing a décidé de bloquer purement et simplement les 1,5 million de sites hébergés sur leur service. C'est le domaine ENTIER neocities.org qui a été viré de l'index du moteur de recherche de Microsoft et du coup, tous les sous-domaines des utilisateurs avec, en fait. D'ailleurs, c'est pas la première fois puisqu'un blocage similaire avait déjà eu lieu l'été dernier, soi-disant résolu après un contact avec Microsoft.

Kyle Drake, le fondateur, a vu son trafic Bing passer d'environ 500 000 visiteurs par jour à... zéro. Et en cherchant "Neocities" sur Bing, y'a juste un site copycat qui apparait en bonne place. D'ailleurs c'est possiblement du phishing donc gaffe à vous !

Après avoir découvert de ce qu'il se passe, Drake tente de contacter Microsoft pour régler ça. Il soumet alors une douzaine de tickets via les Bing Webmaster Tools. Sauf que derrière, y'a personne. Enfin si, y'a un chatbot IA qui répond en boucle sans rien résoudre. Le mec a même essayé d'acheter de la pub Bing juste pour avoir un être humain au bout du fil. QUE DALLE !

C'est quand Ars Technica a contacté Microsoft que ça a (un peu) bougé. En 24 heures, hop, la page d'accueil est réapparue dans les résultats de recherche. Sauf que les sous-domaines des utilisateurs, eux, sont toujours bloqués pour la plupart. Microsoft a juste dit que "certains sites violaient leurs règles", sans dire lesquels. Et bien sûr, ils refusent de discuter directement avec la plateforme...

Bing ne pèse que ~4,5% du marché mondial. Mais c'est le moteur par défaut de Windows, et surtout, plein d'autres moteurs (dont DuckDuckGo) s'appuient en bonne partie sur l'index Bing en coulisses. Du coup, c'est pas juste un problème Bing, c'est tout un pan du web qui perd l'accès à ces sites.

Le fondateur le dit lui-même , c'est "un des derniers bastions du contenu humain" sur le web. Pas d'IA slop ni de contenu généré pour gratter du référencement. Neocities, ce sont juste des gens qui font des sites persos chelous, des fanpages, de l'art...etc bref c'est totalement le genre de truc qu'un moteur de recherche devrait mettre en avant à une époque où tout est noyé sous de la bouillie synthétique. Mais bon...

Heureusement que Google continue d'indexer les sites Neocities normalement... ^^

Source

C'est prouvé : Le vibe coding va tuer l'open source

Par : Korben
3 février 2026 à 14:29

Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...

En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.

Et les chiffres font mal !

Tailwind CSS, par exemple. J'ai regardé les stats npm de tailwindcss sur npmtrends.com... les téléchargements hebdo dépassent les 44 millions en janvier 2026, c'est du jamais vu. Sauf que les visites sur tailwindcss.com ont plongé d'environ 40%.

Côté revenus, c'est encore pire, puisque ça a chuté d'à peu près 80%. Adam Wathan, le créateur de Tailwind, en parlait début 2026 et ça avait l'air de bien le déprimer.

Pendant ce temps, Stack Overflow a perdu un quart de son activité depuis fin 2022 avec l'arrivée de ChatGPT. Bah oui, plus besoin de poser des questions quand l'IA vous mâche le travail.

En fait, l'IA utilise MASSIVEMENT l'open source pour générer du code. Elle s'appuie dessus, elle recommande les packages, elle les intègre automatiquement. Mais elle ne renvoie personne vers les sites des projets. C'est un peu comme si Spotify jouait vos morceaux sans jamais afficher le nom de l'artiste... et sans le payer non plus !

D'ailleurs, les auteurs du papier font exactement cette analogie. Ils proposent un modèle "Spotify pour l'open source" où les plateformes d'IA (OpenAI, Anthropic, GitHub) partageraient leurs revenus d'abonnement avec les mainteneurs en fonction de l'utilisation réelle des packages. Leur calcul montre que sociétés d'IA devraient contribuer au minimum à hauteur 84% de ce que les utilisateurs classiques apportent, sinon c'est la spirale de la mort pour les projets.

Perso, ça me rappelle la fameuse lettre de Bill Gates en 1976 qui gueulait déjà que personne ne voulait payer pour le logiciel. Cinquante ans plus tard, on en est toujours au même point, sauf que maintenant c'est l'IA qui fait le travail de sape. Et comme le disait Linus Torvalds récemment , le vibe coding c'est "horrible, horrible" pour la maintenance du code. Pas juste parce que le code généré est souvent bancal, mais parce que ça coupe le lien entre le dev et l'écosystème qui le nourrit.

Après, attention, ça veut pas dire que TOUS les projets open source vont crever du jour au lendemain. Ceux qui ont des contrats enterprise genre Red Hat ou du support payant à la Elastic s'en sortent... pour l'instant. Pareil pour les gros projets type Linux ou Kubernetes qui sont soutenus par des fondations. Le problème, c'est surtout les petits projets maintenus par une ou deux personnes qui vivaient de la visibilité. Vous savez, le mec qui maintient un package npm avec 2 millions de téléchargements hebdo depuis son appart, sans sponsor... ben lui, il est dans la panade. Sauf si le mec a un Patreon bien rempli ou un contrat de consulting à côté, mais ça c'est l'exception, pas la règle.

Et n'allez pas croire que les GitHub Sponsors suffisent... j'ai galéré à trouver ne serait-ce qu'un seul projet avec plus de 500$/mois via ce système.

Le plus flippant dans tout ça, c'est que même si l'IA rend chaque dev individuellement plus productif, le résultat net peut être carrément NÉGATIF pour tout le monde. Moins de projets open source viables, moins de diversité, moins d'innovation à la base. Et ces auteurs le démontrent mathématiquement avec leur modèle à deux canaux (productivité vs diversion de la demande).

Et sachez le, même dans le scénario le plus optimiste où les plateformes d'IA payeraient leur part, si ce ratio tombe en dessous de 84%... c'est foutu. Le modèle diverge et les projets meurent quand même.

Bref, si les plateformes d'IA ne trouvent pas un moyen de rémunérer l'open source qu'elles exploitent, on court droit vers un appauvrissement massif de l'écosystème open source.

Source

Une IA déterre 1400 objets inconnus dans les archives de Hubble

Par : Korben
28 janvier 2026 à 14:42

Hubble qui bosse comme un petit fifou depuis 35 ans (il a été lancé en 1990, ça ne nous rajeunit pas !) et dont on pensait avoir fait le tour du proprio, a visiblement encore un sacré paquet de trucs à nous apprendre, notamment dans ses archives au sol.

Faut quand même savoir que depuis toutes ces années, il a pris une quantité astronomique (c'est le cas de le dire, roh roh !) de photos, constituant ainsi un dataset de près de 99,6 millions de vignettes (des "image cutouts") stockées dans le Hubble Legacy Archive. Ces archives attendait depuis sagement qu'on vienne leur gratter un peu la poussière...

Jusqu'à ce que deux astronomes de l'ESA, David O’Ryan et Pablo Gómez décident de lâcher un petit script surpuissant baptisé AnomalyMatch dessus. Pour les curieux, AnomalyMatch c'est un réseau de neurones qui tourne probablement avec du bon vieux script Python et des libs de machine learning bien chaudes. Et leur idée c'est d'utiliser l'IA pour repérer les anomalies que l'œil humain n'avait pas encore pris le temps de documenter.

Le bidule a donc mouliné ces millions de données en seulement 60 heures (soit deux jours et demi) et c'est ainsi qu'après 35 ans de collecte de data, l'IA a été capable de trouver près de 1 400 objets "bizarres", que les astronomes ont ensuite pris le temps vérifier manuellement.

Et Ô surprise, sur ce total, plus de 800 étaient totalement inédits pour la science !! Dans le lot, on trouve pèle mêle 86 nouvelles lentilles gravitationnelles (ces loupes cosmiques qui déforment la lumière), 18 "galaxies méduses" avec leurs longs tentacules de gaz, et 417 fusions de galaxies toutes plus étranges les unes que les autres.

D'ailleurs, si vous voulez vous amuser à voir ce qu'Hubble regardait le jour de votre anniversaire , c'est le moment ou jamais ! Vous vous rendrez peut-être un peu mieux compte de la masse de données (on parle de pétaoctets d'archives là !) que ce truc génère chaque seconde. C'est carrément dingue quand on y pense...

Mais le truc qui me fascine le plus, c'est qu'il reste plusieurs dizaines d'objets que même l'IA et les experts n'arrivent pas encore à classer. Surement des mondes aliens incroyables ??? Ou juste des gros cailloux stériles... Comment savoir ? C'est là toute la magie du truc en fait ! L'IA déblaie le terrain, mais c'est l'humain qui garde le dernier mot pour vérifier qu'on n'a pas affaire à un simple bug ou un pixel mort dans un fichier debug.log. Perso, j'adore l'idée que malgré toute la puissance de calcul du monde, l'espace reste encore assez bizarrement tordu pour nous laisser sur le cul.

Autrement, si vous avez envie de jouer les apprentis ingénieurs de la NASA, vous pouvez aussi apprendre à traquer les satellites dans votre terminal ou aller jeter un œil à tous les trucs qui flottent là-haut . Peut-être que vous ferez aussi, vous, de belles découvertes.

Image IA que j'ai réalisée à partir d'un des clichés. Même chose pour l'image d'entête de cet article.

Parce que bon, on a beau avoir James Webb qui fait le kéké en ce moment, Hubble reste quand même le patron de la fouille archéologique spatiale. Bref, si vous pensiez que l'astronomie c'était juste regarder des points brillants avec un tuyau en métal, monumentale erreur les amigos !

Pour plus de contenu IA et science, retrouvez Korben sur LinkedIn .

Source

GPT-2 comprend les protéines sans jamais les avoir apprises

Par : Korben
27 janvier 2026 à 09:48

Des chercheurs viennent de trouver un truc complètement dingue. Un modèle de langage entraîné UNIQUEMENT sur de l'anglais, du texte humain basique quoi, est capable de comprendre la biologie moléculaire sans jamais avoir vu une seule séquence de protéines durant son entraînement.

En gros, GPT-2 qui fait de la paraphrase d'ordinaire est, sans le savoir, un expert en détection d' homologie protéique . Je vous jure que c'est vrai !!

Liang Wang, chercheur à l'Université de Wuhan (les pangolins, tout ça tout ça, loool), a publié une étude sur bioRxiv qui remet en question pas mal de certitudes. L'idée, c'est que la "grammaire" du langage humain et celle du vivant partagent une structure profonde commune. Du coup, un modèle qui apprend à distinguer des phrases qui ont le même sens mais avec des mots dans un ordre différent... développe aussi la capacité de reconnaitre les protéines qui sont de la même "famille".

Perso, ça me retourne le cerveau parce qu'à la base, on parle "juste" d'un petit GPT-2 de 124 millions de paramètres, entraîné sur le dataset PAWS (des paires de phrases anglaises adverses), qui atteint 84% de précision sur la détection d'homologie protéique. Sans jamais avoir vu d'acides aminés ! C'est comme si votre chat, après avoir appris le français, se mettait soudainement à comprendre le chinois.

Et ça devient encore plus fou quand on scale. Les gros modèles comme Qwen-3 atteignent quasiment 100% de précision sur les benchmarks standards, mais le plus impressionnant, c'est leur performance dans la "zone crépusculaire" de l'évolution, là où les séquences protéiques ont moins de 25% d'identité entre elles. Dans ce régime où même les outils spécialisés comme ESM-2 peinent à maintenir leurs performances, les LLM généralistes maintiennent 75% de précision.

Ils raisonnent là où les autres mémorisent !

D'ailleurs, si vous aimez l'actu IA et biologie, vous avez peut-être déjà lu mes articles sur Evo 2 ou SimpleFold d'Apple . Ces outils-là sont entraînés sur des montagnes de données biologiques alors que dans le cas que je vous expose ici, c'est l'inverse. C'est un LLM tout ce qu'il y a de plus classique qui n'a pas BESOIN de ces données spécifiques pour comprendre la structure du vivant (enfin, ça doit encore être bien validé par d'autres équipes mais on verra bien).

Alors vous vous en doutez, curieux, les chercheurs ont analysé ce qui se passe dans la tête du modèle. Certaines " têtes d'attention " du transformer deviennent des détecteurs universels de différences. La même tête qui repère une inversion sujet-objet dans une phrase anglaise va spontanément repérer les mutations d'acides aminés dans une protéine. Et voilà comment la syntaxe du langage humain et la syntaxe de la vie se retrouvent projetées sur le même "manifold" c'est à dire dans la même "surface" géométrique dans l'espace latent du modèle.

Et quand on demande aux gros modèles d'expliquer leur raisonnement via Chain-of-Thought (enchainement de pensées comme ce que propose ChatGPT 5.2 en mode thinking par exemple), ils font du "mental folding". C'est à dire qu'ils imaginent la structure 3D des protéines à partir de la séquence 1D. Le modèle identifie explicitement des motifs structurels comme " Hélice-Coude-Hélice " versus " Tonneau TIM " pour déterminer si deux protéines sont apparentées. Et tout ça sans jamais avoir reçu de coordonnées 3D en entrée.

Pour formaliser tout ça, l'équipe a donc créé BioPAWS, un benchmark qui évalue la capacité des modèles à transférer leur compréhension syntaxique du langage vers l'ADN, l'ARN et les protéines. Le dataset est dispo sur Hugging Face pour ceux qui veulent jouer avec.

Bref, si la grammaire humaine et la grammaire biologique sont vraiment des manifestations d'une même structure universelle, ça change pas mal de choses sur comment on pourrait faire de la découverte scientifique à moindre coût. Plus besoin de datasets monstrueux pour chaque domaine, les patterns abstraits sont peut-être déjà là, encodés dans le langage qu'on utilise tous les jours.

Source

Karman Industries - Du SpaceX pour refroidir les datacenters

Par : Korben
26 janvier 2026 à 12:08

Karman Industries vient de lever 20 millions de dollars pour un truc qui va faire plaisir aux écolos anti-cloud : Refroidir les datacenters sans utiliser une seule goutte d'eau ! Oui, nada !

Vous n'êtes pas sans savoir que les datacenters actuels, c'est un peu le scandale écologique dont personne ne parle. On estime qu'en 2028, ces usines à calcul vont engloutir entre 34 et 68 milliards de gallons d'eau par an rien qu'aux États-Unis. C'est comme si votre frigo tournait à la vitesse d'un réacteur d'avion...

Ah bah tiens, justement en parlant de réacteur...

David Tearse et CJ Kalra, les deux fondateurs de Karman Industries, ont décidé d'appliquer des techniques d'ingénierie aérospatiale au refroidissement de datacenters. Leur bébé s'appelle le HPU (Heat Processing Unit), une plateforme thermique modulaire de 10 MW qui utilise de la turbomachinerie ultra-rapide inspirée des moteurs de fusée de SpaceX.

Au lieu d'utiliser de l'eau comme réfrigérant, ils ont opté pour du CO2 liquide. Résultat ? Plus de 25% d'économies d'énergie pour le refroidissement, jusqu'à 80% d'espace en moins, et surtout... pas une goutte d'eau. Quand on sait que le refroidissement représente environ 40% de la facture électrique d'un datacenter, ça commence à chiffrer sérieusement.

L'équipe a levé plus de 30 millions de dollars au total, avec Riot Ventures en lead sur ce dernier tour donc c'est pas exactement une PME du coin, quoi.

Comme je l'avais déjà évoqué dans mon article sur la consommation d'eau des datacenters , le problème est déjà critique avec l'explosion de l'IA. Chaque requête ChatGPT, chaque image Midjourney, ça consomme à mort de la flotte quelque part. Bref, si la techno de Karman fonctionne comme prévu, ça pourrait changer pas mal de choses. Reste à voir combien ça coûte mais les premières livraisons sont prévues pour le troisième trimestre 2026, avec une usine de fabrication à Long Beach en Californie.

Voilà, y'a plus qu'à voir si ça tient ses promesses en conditions réelles ! Et j'espère que le meilleure hébergeur du monde, O2Switch s'équipera bientôt car j'ai vraiment envie de voir ça de mes yeux ^^.

Source

🎙 Projets Libres saison 4 épisode 10 : l'Open Source vu par une chercheuse

Pour ce nouvel épisode de Projets Libres, nous abordons l'Open Source par les yeux de Amel Charleux, Maître de conférences à l'Université de Montpellier.

Bannière du podcast

Amel nous partage :

  • la manière dont elle travaille
  • sa relation avec les autres chercheuses et chercheurs qui travaillent sur ces sujets
  • comment la recherche peut aider à la réflexion ou à la mise en place de structures (avec l'exemple de l'association OpenRail Association)
  • l'évolution des modèles économiques Open Source
  • l'impact de l'IA
  • et plein d'autres sujets.

Bonne écoute !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Le Mode IA de Google intègre vos données de Gmail et Photos pour une recherche sur mesure

22 janvier 2026 à 19:59

Google déploie la fonctionnalité « Personal Intelligence » (intelligence personnelle) dans le mode IA de son moteur de recherche pour personnaliser les résultats en exploitant les données de Gmail et de Google Photos. Cette nouveauté, qui suit le lancement récent dans Gemini, vise à connecter les informations des …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Le Mode IA de Google intègre vos données de Gmail et Photos pour une recherche sur mesure est apparu en premier sur KultureGeek.

Fini les QR codes moches grâce au génie de Russ Cox

Par : Korben
21 janvier 2026 à 22:57

Si vous voulez pimper votre propre QR Code pour vous différencier un peu des autres nazes qui font aussi leur QR Code, je vous invite à tester rapidos un petit outil qui m'a tapé dans l'œil.

Je vous ai déjà parlé des QR Codes générés par IA via ControlNet y'a un petit moment. Il sont visuellement dingues, mais là, on retourne aux sources, aux vraies mathématiques de quand vous étiez petit (enfin jeune quoi...lol).

Ce site, que je viens de découvrir c'est QArt Coder , un projet de Russ Cox (oui, LE Russ Cox de l'équipe Go chez Google, calmez vous les groupies) et comme d'hab, le gars n'est pas là pour enfiler des perles puisqu'il nous proposer de générer des QR codes qui intègrent une image... mais sans tricher comme avec ControlNet.

Je m'explique... Quand vous voyez un QR code avec logo classique, c'est souvent du bricolage : on colle une image au milieu et on compte sur la correction d'erreur du QR code (Reed-Solomon) pour compenser les zones masquées. C'est un peu sale, même si ça marche...

Russ Cox, lui, a pris le problème à l'envers. Plutôt que de casser le code et de le réparer, il utilise des maths (notamment le pivot de Gauss) pour manipuler les bits de redondance. En gros, il fait en sorte que les pixels "inutiles" du QR code s'arrangent pour former visuellement l'image, tout en conservant des données parfaitement valides.

Il est fort hein ?

Alors comment ça marche ?

C'est hyper simple :

  • Vous allez sur QArt Coder .
  • Vous uploadez votre image (préférez un truc bien contrasté, pixel art ou logo N&B).
  • Vous jouez avec la taille, le positionnement et les cases "Dither" et autres pour que ça ressemble à quelque chose.
  • Et voilà, vous obtenez un QR code valide qui affiche votre motif.

Un exemple de QR Code généré avec ma tête

Le résultat est un QR code où l'image est dessinée par les données elles-mêmes, et pas juste collée dessus. Ça reste donc lisible par la plupart des lecteurs standards, tant que vous n'avez pas trop abusé sur la complexité de l'image source et que le contraste est suffisant.

C'est sûr, ça a un look plus "rétro" et "glitchy" que les délires sous Stable Diffusion, mais c'est techniquement beaucoup plus élégant car chaque pixel est à sa place par nécessité mathématique et pas par hasard.

Voilà, si vous aimez les algos un peu pointus et les QR codes qui ne sont pas juste des damiers tristounes, foncez voir ça et pour ceux qui veulent creuser la théorie (et y'a de quoi faire), Russ Cox a tout détaillé sur sa page de recherche .

ChatGPT, le nouveau point d'entrée du web

Par : Korben
21 janvier 2026 à 12:14

Bonne nouvelle pour les fans d'IA (et mauvaise pour Google) ! Il semblerait que nos vieilles habitudes de recherche soient en train de changer... Du moins pour ceux qui ont déjà sauté le pas vers du payant.

C'est ce que suggère en tout cas une étude de Bango qui fait pas mal de bruit. Figurez-vous les amis que 72% des abonnés ChatGPT interrogés aux États-Unis ont paramétré en page d’accueil de leur browser le chatbot d'OpenAI.

Pour ces utilisateurs-là, Google n'est donc plus le point de départ automatique...

Après évidemment c'est juste un sondage et c'est "juste" 1400 users payants aux US (donc un public déjà conquis) qui ont répondu mais n'empêche, le signal est fort.

On est passé en quelques années de "Je cherche un truc -> j'en sais rien -> j'invente une réponse fausse mais crédible dans ma tête de boomer, que je vais ensuite répéter à tout le monde comme étant une vérité" à "Je cherche un truc -> Je tape dans Google -> Je scrolle 800 pubs -> J'ai ma réponse mais pas toujours le recul pour recouper l'info".

Et maintenant c'est "Je demande à l'IA -> J'ai la réponse officielle validée par les américains -> Je comprends rien -> elle m'explique comme si j'avais 5 ans et que j'étais trépané".

Hop, terminé !

Bon oui, j'abuse un peu mais vous me connaissez... L'étude montre aussi que 78% de ces mêmes utilisateurs ont installé le widget ChatGPT directement sur l'écran d'accueil de leur téléphone ou de leur tablette.

ChatGPT est devenu leur maison quoi.

Alors bien sûr, comme je vous le disais, Google essaie de muscler son jeu avec Gemini mais l'habitude est déjà prise pour beaucoup. On assiste à un vrai glissement vers le "AI-first" car les gens veulent une réponse et pas une liste de liens renvoyant vers des sites de merde faits par des référenceurs incapables.

D'ailleurs, 75% des sondés affirment aussi vouloir centraliser leurs tâches quotidiennes dans ChatGPT et 74% disent même qu'ils sont prêts à acheter des trucs directement via l'interface. ChatGPT est donc en train de devenir une sorte de super-app qui fait le café... Le rêve de Sam Altman de faire de ChatGPT l'OS de votre vie est peut-être bien en train de devenir une réalité.

Perso, je trouve ça assez dingue. Si vous êtes du genre à utiliser Google pour tout et n'importe quoi, préparez-vous donc au choc. Bien sûr, Google ne va pas disparaître demain matin mais pour les éditeurs de sites qui dépendent du trafic de recherche (pas mon cas, mon trafic est majoritairement du direct), ça promet quelques sueurs froides.

Bref, on n'arrête pas le progrès (ou la flemme, c'est selon) et reste à voir maintenant si cette tendance va se confirmer côté grand public ou rester un truc de niche pour les gens prêts à lâcher 20 balles par mois.

Source

Bichon - L'archiveur Rust pour garder une trace de vos emails

Par : Korben
21 janvier 2026 à 09:00

Vous avez 15 ans d'emails répartis sur 4 comptes différents et vous aimeriez bien pouvoir chercher dedans sans devenir complétement fou ? Bichon est fait pour vous . C'est un archiveur d'emails open source écrit en Rust qui synchronise vos boîtes mail et vous permet de tout fouiller via une interface web ultra léchée.

Le truc c'est que Bichon n'est pas un client mail. Vous ne pouvez pas envoyer ou recevoir de messages avec. C'est vraiment un outil d'archivage pur qui se connecte à vos serveurs IMAP, aspire tous vos emails, les compresse, les déduplique et les indexe pour que vous puissiez faire des recherches full-text dessus pour par exemple retrouver ce mail de 2012 où votre ex vous expliquait sa recette secrète du tiramisu.

L'interface web est plutôt propre, codée en React avec ShadCN UI. Vous pouvez filtrer par compte, par dossier, par expéditeur, par nom de pièce jointe, par taille, par date... Y'a même un dashboard avec des stats sur vos emails si vous aimez les graphiques. Et bonne nouvelle, le WebUI est disponible en 18 langues, donc le français est de la partie !

Côté authentification, ça gère le mot de passe IMAP classique mais aussi OAuth2 avec refresh automatique du token. C'est hyper pratique pour Gmail ou Outlook qui aiment bien compliquer les choses. Y'a aussi un support proxy si vous êtes derrière un firewall capricieux et une découverte automatique des serveurs IMAP. Hop, on branche et ça synchronise !

La stack technique envoie du bois également puisque le backend est en Rust basé sur le framework Poem, et le moteur de recherche/stockage utilise Tantivy. C'est un moteur de recherche full-text codé lui aussi en Rust, l'équivalent de Lucene mais sans la lourdeur de la JVM. Pour les métadonnées et la config, le projet utilise Native_DB et le tout est packagé en binaires pour Linux, macOS et Windows, ou en image Docker si vous préférez le self-hosted sans prise de tête.

Un truc important depuis la version 0.2.0 c'est que le modèle d'authentification a changé. L'ancien compte "root/root" a sauté au profit d'un compte admin par défaut (identifiants : "admin" / "admin@bichon"). Pensez donc à changer le mot de passe immédiatement, sinon ce sera la fête du slip dans vos archives. Et notez bien que le mot de passe de chiffrement que vous définissez au premier lancement ne peut pas être changé ensuite, donc choisissez-le bien, genre "KorbenCestLePlusBeau123".

Et si vous avez déjà des tonnes de vieux mails qui traînent en local, sachez que depuis la v0.3.0, y'a également un outil en ligne de commande qui s'appelle bichonctl. Ça permet d'importer vos archives au format EML ou MBOX directement dans le bouzin. C'est nickel pour centraliser tout votre passé exporté par ailleurs.

Bref, si vous cherchez un moyen propre d'archiver vos mails sans que ça bouffe toute votre RAM comme un client Java des années 2000, Bichon fait grave le taff. C'est léger, c'est rapide, et c'est en Rust. Ensuite, vous pourrez dormir tranquille !

Merci à Lorenper pour l'info et si vous cherchez d'autres outils cools pour vos mails, jetez aussi un œil à Mailspring ou si vous kiffez le stockage en Rust, Garage est une pépite.

Open Quantum Design – L'informatique quantique débarque dans le monde du libre

Par : Korben
20 janvier 2026 à 10:34

Après le PC sous Linux, le serveur sous OpenBSD ou le smartphone sous LineageOS, voici peut-être enfin le " Linux du quantique ".

Ahaha, et là vous vous dites, "Mais c'est quoi encore cette merde ?"

Bah non, c'est un vrai truc très sérieux ! En effet, l'Université de Waterloo vient de balancer un projet assez dingue baptisé Open Quantum Design (OQD) et pour une fois, ce n'est pas un simple simulateur qui tourne sur votre vieux PC poussiéreux, mais un vrai design complet d'ordinateur quantique full-stack... Full Stack, c'est pas un film avec JCVD, ça veut juste dire qu'ils proposent une solution de A à Z, du hardware physique jusqu'au soft qui pilote les lasers.

Car jusqu'à présent, même si des accès cloud existaient (merci IBM Q Experience), le cœur des machines restait souvent une boîte noire jalousement gardée par les géants de la tech ou d'affreuses startups aux dents longues.

Alors, pour comprendre vraiment comment ça marche "sous le capot", c'était bien coton. C'est pourquoi avec ce projet, l'idée est de péter ces barrières en proposant une architecture transparente et surtout collaborative.

Leur matos repose sur la technologie des ions piégés (ion-trapping) où en gros, on isole des ions (des atomes chargés) dans un vide poussé (ultra-high vacuum) et on les manipule avec des lasers et des champs électromagnétiques.

Ça permet de manipuler les qubits avec une précision de dingue, et d'en afficher les mesures. Ces ions servent de qubits pour traiter l'information quantique et le plus beau dans l'histoire, c'est que l'équipe partage tout : les plans du hardware, les couches électroniques de contrôle et bien sûr le logiciel !

Maintenant, pour ceux qui se demandent ce que change un ordi quantique open source, par rapport à un ordi quantique totalement fermé, c'est simple... Faut voir ça comme la fin du "croyez-nous sur parole". Ça met peu de lumière sur ce secteur et via ce hub, les chercheurs vont pouvoir contribuer et vérifier les progrès réels sans pression commerciale. OQD compte déjà plus de 30 contributeurs et des partenaires de poids comme Xanadu (côté hardware) ou la Unitary Foundation.

Maintenant, je vous vois venir les barbus du dimanche avec votre tournevis et votre sourire plein de miettes... "Est-ce qu'on peut fabriquer son ordinateur quantique DIY soi-même dans son garage ?"

Bon, calmez-vous direct les copains ! Désolé mais c'est pas encore un machin qu'on monte avec un tournevis et une pile 9V. Les lasers et le système de vide, c'est pas du matos qu'on trouve chez Casto (pour le moment) mais c'est quand même une sacrée avancée vers une science plus éthique, un peu comme quand j'écrivais sur les PCB en argile . On sort enfin du modèle propriétaire pour entrer dans l'ère de la collaboration ouverte.

D'ailleurs, ça me rappelle mes articles sur Quantum Echoes ou sur les dérives des benchmarks quantiques bidonnés . Ici, la transparence est la clé et comme le projet s'appuie sur des années de recherche au sein de l'IQC (Institute for Quantum Computing), ça permet enfin aux chercheurs de tester leurs algos sur du hardware dont ils connaissent chaque boulon !

Source

Animal Crossing et ses bienfaits pour la santé mentale

Par : Korben
20 janvier 2026 à 10:07

Hello les amis, j'espère que vous êtes en grande forme !

Moi en ce moment c'est un peu la galère et j'ai pas mal de trucs à gérer du coup, voyant mon désarroi, mon pote Vincent m'a conseillé de jouer à Animal Crossing parce que ça aide à faire le vide, histoire de bien se détendre le bulbe après une dure journée de boulot.

Je vous avoue que le scepticisme m'a gagné au début... enfin bon vous savez comment je suis.. C'est impossible pour moi de ne pas fouiller un peu le sujet... Et résultat ce que j'ai découvert, c'est qu'il existe des tas d'études scientifiques qui confirment effectivement qu'Animal Crossing est bon pour la santé !

La vie paisible sur l'île dans Animal Crossing New Horizons

De mon côté, j'ai donc suivi le conseil de Vincent et je me suis lancé ! Je suis encore dans une tente (oui oui une tente jaune pipi), je ramasse coquillages plus des papillons, que je revends ensuite dans le dos des Douanes, pour rembourser mon prêt à Tom Nook, ce fdp requin de la finance insulaire.

Les mauvaises herbes en prennent aussi pour leur grade, ah et puis j'ai même acheté un banc LEGO pour décorer mon campement.

Après quelques recherches, j'ai donc appris que le truc a été sérieusement étudié par des chercheurs d'Oxford . 2 756 joueurs ont été analysés par l'équipe du professeur Przybylski en 2020. Encore un chercheur avec des problèmes de clavier ^^ mais ce qu'il a trouvé chez ces joueurs, c'est qu'un bonheur globalement supérieur était ressenti par ceux qui jouaient environ 4 heures par jour. Pas "un peu", hein mais vraiment plus heureux !

Le truc cool c'est que jamais avant ça, une recherche n'avait été menée avec des données réelles fournies par Nintendo (car d'habitude quand on demande directement aux joueurs, ils estiment n'importe comment leur temps de jeu).

Côté confinement les témoignages de 1053 joueurs ont également été épluchés par des chercheurs (étude Frontiers in Virtual Reality 2021 ) et ceux qui recevaient des visiteurs sur leur île se sentaient moins seuls. Bref se faire des potes virtuels ça marche vraiment pour le moral !

D'ailleurs si vous êtes du genre tendu du string comme moi, sachez que ces bienfaits sont expliqués par les psychologues via la Self-Determination Theory (la théorie de l'autodétermination).

Je vais bien, tout va bien - Merci à Lorenper pour le portrait ;)

En gros les 3 cases du bien-être psychologique sont cochées par le jeu de Nintendo : ✅ le lien social (visites d'amis échanges de navets à prix d'or le dimanche matin...), ✅ la compétence (satisfaction de voir son musée se remplir petit à petit c'est grisant) sans oublier ✅ l'autonomie (on fait ce qu'on veut sur son île et y'a pas de libristes en mousse, euh, y'a personne pour nous casser les pieds ^^).

Voilà, après avoir joué quelques heures, je comprends maintenant pourquoi j'ai été poussé par Vincent à essayer ce truc. C'est comme un "reset mental" où la tête se vide en se concentrant sur des trucs simples. Et c'est ainsi que la pression de la vie retombe.

C'est de la science pas de la magie les amis !

Alors j'avoue... J'ai peut-être déjà passé trop de temps à chasser les papillons mais cela dit au moins, j'ai une excuse scientifique maintenant ^^.

Allez, bon jeu à tous et prenez soin de vous !

Source

Ces rats jouent à DOOM avec un casque VR

Par : Korben
16 janvier 2026 à 14:14

Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?

Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !

Je vous jure que c'est vrai. Le projet s'appelle " Rats Play DOOM " et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.

Gros plan sur le casque VR panoramique pour rongeurs ( Source )

Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.

Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !

Le nouveau setup modulaire V2 ( Source )

Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.

Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple contrôle neuronal de base, là car c'est une vraie interaction avec un moteur de jeu.

Setup V1 du projet Rats Play DOOM ( Source )

Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...

Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les projets Raspberry Pi les plus improbables ^^.

D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur DOOM Retro , mais là avec les rats, on est clairement passé au niveau supérieur.

Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !

Google MedGemma 1.5 et MedASR - L'assistant ultime des toubibs

Par : Korben
14 janvier 2026 à 09:00

Il semblerait que l'intelligence artificielle ait fait suffisamment de progrès pour pourvoir assister à terme nos médecins débordés et en sous-nombre... C'est vrai que je vous parle souvent ici de comment les technos peuvent faire évoluer la médecine , mais là Google vient de passer un nouveau cap avec sa collection HAI-DEF (pour Health AI Developer Foundations, oui ils adorent les acronymes de barbares, je sais..).

Et là dedans, on trouve un gros morceau baptisé MedGemma 1.5 . Si la version précédente gérait déjà les radios 2D classiques, cette mise à jour s'attaque maintenant à la "haute dimension". En gros, le modèle peut maintenant analyser des volumes 3D issus de scanners (CT) ou d'IRM, et même des coupes d'histopathologie (l'étude des tissus biologiques).

Pas mal hein ?

L'idée n'est pas de remplacer le radiologue (pas encore... brrr), mais de lui servir d'assistant survitaminé pour repérer des anomalies ou localiser précisément des structures anatomiques. Ainsi, sur les tests de Google, MedGemma 1.5 améliore la précision de 14 % sur les IRM par rapport à la V1. C'est un sacré gain qui permet d'avoir des diagnostics plus justes et plus rapides.

Mais ce n'est pas tout puisque Google a aussi dégainé MedASR, un modèle de reconnaissance vocale (Speech-to-Text) spécialement entraîné pour la dictée médicale. Parce que bon, on sait tous que le vocabulaire d'un toubib, c'est un peu une langue étrangère pour une IA classique comme Whisper. Grâce à ça, MedASR affiche 58 % d'erreurs en moins sur les comptes-rendus de radios pulmonaires, soit de quoi faire gagner un temps précieux aux praticiens qui passent souvent des heures à saisir leurs notes.

D'ailleurs, si vous vous souvenez de mon article sur l'ordinateur plus efficace que les médecins , on y est presque ! Sauf que là, l'approche est plus collaborative. Les modèles sont d'ailleurs disponibles en "open" (enfin, avec les licences Google quoi) sur Hugging Face pour que les chercheurs et les boites de santé puissent bidouiller dessus.

Alors bien sûr, faut toujours rester prudent et Google précise bien que ce sont des outils de recherche et pas des dispositifs médicaux certifiés pour poser un diagnostic tout seuls. Je me souviens bien de Google Health et des questions sur la vie privée que ça soulevait à l'époque, mais techniquement, ça déchire.

Voilà, si ça vous intéresse, je vous laisse regarder leurs explications et vous faire votre propre avis sur la question... Maintenant, est-ce que vous seriez prêts à confier votre prochaine analyse à une IA (assistée par un humain, quand même) ?

Moi oui !

❌