Ce célèbre collectionneur Porsche veut simplifier sa folle passion pour la marque et vend quelques voitures





Des chercheurs du SETI Institute viennent de publier une étude qui pourrait expliquer pourquoi, après des décennies d'écoute, on n'a toujours capté aucun signal radio d'origine extraterrestre. La météo spatiale autour des étoiles brouillerait les transmissions avant même qu'elles ne quittent leur système d'origine. Et 75 % des étoiles de la Voie lactée seraient concernées. Zut alors.
L'étude, publiée dans The Astrophysical Journal, part d'un constat assez simple : les programmes SETI cherchent des signaux radio très étroits, parce que ce type de transmission ne se produit quasiment jamais dans la nature. Un signal bien net, bien fin, c'est le signe qu'il y a quelqu'un derrière.
Sauf que les chercheurs Vishal Gajjar et Grayce Brown ont montré que les vents stellaires, les turbulences de plasma et les éjections de masse coronale qui entourent une étoile peuvent élargir ces signaux et disperser leur puissance sur un spectre plus large.
Le pic qui devrait déclencher les alarmes des télescopes passe alors sous le seuil de détection. Un signal élargi à seulement 10 hertz perd environ 94 % de sa luminosité de pointe. Il est toujours là, mais nos télescopes passent à côté.
Les naines rouges sont les plus touchées par ce phénomène, et elles représentent environ 75 % des étoiles de notre galaxie. Ces étoiles sont petites, peu lumineuses, mais elles génèrent une activité magnétique intense.
Les planètes qui les entourent orbitent à des distances très courtes, ce qui expose d'éventuelles transmissions à un environnement de plasma dense et agité pendant plus longtemps.
Les simulations de l'équipe montrent qu'à 1 GHz, plus de 70 % des systèmes de naines rouges produisent au moins 1 hertz d'élargissement de signal, et plus de 30 % dépassent les 10 hertz. À 100 MHz, c'est pire : près de 60 % des systèmes atteignent 100 hertz d'élargissement. Bref, les étoiles les plus communes de la galaxie sont aussi celles qui brouillent le plus les transmissions.
L'équipe du SETI Institute propose aussi d'adapter les méthodes de recherche en testant plusieurs largeurs de signal plutôt que de ne chercher qu'un seul pic ultra-fin. Les fréquences plus élevées sont aussi moins affectées par l'élargissement, ce qui pourrait orienter les prochaines campagnes d'observation.
Pour calibrer leur modèle, les chercheurs se sont d'ailleurs appuyés sur les transmissions radio de sondes spatiales de notre propre système solaire avant d'extrapoler les résultats à d'autres environnements stellaires.
On ne va pas se mentir, après plus de 60 ans de silence, ça fait du bien d'avoir une petite explication de pourquoi on ne capte pas grand-chose. Ça n'est pas que les petits aliens se cachent particulièrement bien, c'est juste qu'on a un biais technique dans les instruments qu'on utilise.
Ça ne veut pas dire qu'il y a quelqu'un là-haut, mais au moins on sait maintenant qu'on cherchait mal. Par contre c'était bien la peine que je fasse tourner SETI@home sur mon PC pendant des années pour du flan au final. Allez on recommence tout à zéro mais on met à jour les outils avant, ok ?
Source : Slashdot



Des chercheurs ont réussi à restaurer une vision fonctionnelle chez des patients atteints de DMLA avancée grâce à une puce sans fil de 2 mm glissée sous la rétine. Lors de l'essai clinique PRIMAvera mené dans 5 pays européens, 81 % des participants ont retrouvé la capacité de lire des lettres et des mots. Pas mal !
Le système s'appelle PRIMA et il a été conçu par Daniel Palanker, professeur d'ophtalmologie à Stanford. Le principe : une puce photovoltaïque de 2 mm sur 2 mm, épaisse de 30 microns (oui c'est très fin, la moitié d'un cheveu), qui se glisse sous la rétine à l'endroit où les photorécepteurs ont cessé de fonctionner. Le patient porte des lunettes équipées d'une caméra miniature qui capte les images, les traite via un algorithme (zoom jusqu'à x12, réglage du contraste) puis les projette sur l'implant en lumière infrarouge. La puce convertit cette lumière en impulsions électriques qui stimulent les neurones rétiniens encore actifs. Le cerveau fait le reste. Pour l'instant, la vision restituée est en noir et blanc, mais elle suffit pour lire des lettres, des chiffres et des mots courts.
L'essai clinique PRIMAvera a recruté 38 volontaires de plus de 60 ans, tous atteints d'atrophie géographique liée à la DMLA, dans 17 hôpitaux répartis sur 5 pays européens. Sur les 32 patients qui ont terminé le suivi d'un an, 26 ont montré une amélioration mesurable : en moyenne, un gain de 25 lettres sur l'échelle d'acuité visuelle standard, soit environ cinq lignes. Et 27 d'entre eux ont utilisé l'implant chez eux pour lire au quotidien. Côté complications, 19 patients ont présenté 26 événements indésirables graves (hypertension oculaire, hémorragies sous-rétiniennes), mais 95 % se sont résolus en deux mois. Les résultats ont été publiés dans le New England Journal of Medicine, avec José-Alain Sahel (Inserm, Institut de la Vision, Université de Pittsburgh) comme auteur principal.
Avec ses 378 électrodes, l'implant actuel offre une résolution de 400 pixels. C'est suffisant pour déchiffrer des mots, mais loin de ce qu'on pourrait appeler une vision normale. La prochaine génération vise 10 000 pixels, ce qui, combiné au zoom des lunettes, pourrait théoriquement atteindre une acuité de 20/20. Science Corporation, la société californienne qui commercialise le dispositif, travaille aussi sur un logiciel capable de restituer des images en niveaux de gris, y compris des visages. Les nouvelles puces ont déjà été testées sur des rats et la fabrication pour des essais humains est en cours. Le Dr Demetrios Vavvas, de Mass Eye and Ear à Boston, compare l'implant actuel à un "iPhone en version pre-release" : limité, mais le potentiel est là.
Franchement, on est quand même là sur un truc qui marche. Pas de promesses vagues, pas de "dans dix ans peut-être" : 81 % des patients lisent à nouveau après un an, et les résultats sont déjà publiés. Maintenant, la vraie question, c'est le passage à une échelle plus grande. Un implant sous-rétinien, ça demande un chirurgien très qualifié et une prise en charge lourde. Et avec un million d'Américains touchés par l'atrophie géographique, sans compter le reste du monde, on se demande combien de temps il faudra pour que ça arrive dans un cabinet d'ophtalmologie classique. Mais en tout cas ça promet !
Source : Earth.com




Des chercheurs ont utilisé un accélérateur de particules du Karlsruhe Institute of Technology pour scanner 2 200 fourmis de 800 espèces différentes en quelques jours. Le résultat : des modèles 3D d'une précision au micromètre, qui révèlent muscles, systèmes nerveux et dards. Le tout est accessible gratuitement en ligne sur le portail antscan.info , depuis n'importe quel ordinateur.
Le projet AntScan est né d'une collaboration entre Evan Economo, entomologiste à l'université du Maryland, et Thomas van de Kamp, physicien au Karlsruhe Institute of Technology en Allemagne. L'idée : utiliser le synchrotron du KIT, un accélérateur de particules qui produit un faisceau de rayons X très intense, pour scanner des fourmis en micro-tomographie.
Un bras robotisé fait tourner chaque spécimen devant le faisceau, et environ 3 000 images sont capturées par fourmi. Le tout est ensuite reconstruit automatiquement en modèle 3D. La résolution atteint le micromètre, ce qui permet de voir l'intérieur des insectes : muscles, tube digestif, système nerveux et dards.
2 200 spécimens, 800 espèces, 212 genres. Tout ça en quelques jours. Avec un scanner de laboratoire classique, ce travail aurait pris six ans de fonctionnement continu. Avec le synchrotron du KIT et le bras robotisé qui change les échantillons toutes les 30 secondes, 2 000 spécimens ont été traités en une seule semaine.
L'IA s'est chargée du reste : estimer la position de chaque fourmi et produire les reconstructions 3D automatiquement.
Les modèles 3D sont disponibles gratuitement sur le portail antscan.info. N'importe qui peut y accéder depuis un ordinateur, faire pivoter les fourmis, zoomer sur les détails et même les « disséquer », virtuellement bien sûr, rangez votre scalpel. L'équipe a conçu le projet comme un modèle reproductible : la méthode peut être adaptée à d'autres petits invertébrés, ce qui en fait un point de départ pour numériser la biodiversité à grande échelle. Le portail fournit aussi les fichiers bruts pour les chercheurs qui veulent aller plus loin dans l'analyse.
C'est le genre de projet qui donne envie de fouiller le site pendant des heures. Utiliser un accélérateur de particules pour scanner des fourmis, sur le papier c'est un peu disproportionné, mais quand on voit le résultat, six ans de travail compressés en une semaine et 800 espèces disponibles en 3D pour tout le monde, ça force le respect.
Le fait que tout soit en accès libre change la donne. La vraie question, c'est ce qui vient après : si la méthode fonctionne pour les fourmis, elle peut fonctionner pour des milliers d'autres espèces. Perso, je trouve que c'est le genre d'utilisation de l'IA et de la puissance de calcul qui fait plaisir à voir, loin des polémiques habituelles.


Comprendre la provenance des mégalithes utilisés dans le cercle de pierres néolithique de Stonehenge, dans le sud de l'Angleterre, permet de mieux comprendre la culture et les liens qui existaient dans la Grande-Bretagne préhistorique.
L'origine de l'Altar Stone, le mégalithe central en grès couché, reste inconnue, des travaux récents ayant écarté l'hypothèse d'une origine dans le bassin anglo-gallois1,2.
Nous présentons ici l'âge et la composition chimique des grains de zircon, d'apatite et de rutile détritiques provenant de fragments de la pierre d'autel.
La charge en zircon détritique provient en grande partie de sources mésoprotérozoïques et archéennes, tandis que le rutile et l'apatite proviennent principalement d'une source datant du milieu de l'Ordovicien.
L'âge de ces grains indique qu'ils proviennent d'une région cristalline laurentienne qui a été recouverte par le magmatisme grampien (il y a environ 460 millions d'années).
La comparaison de l'âge des détritus avec les ensembles sédimentaires de Grande-Bretagne et d'Irlande révèle une similitude remarquable avec le Old Red Sandstone du bassin des Orcades, au nord-est de l'Écosse.
Une telle provenance implique que la pierre d'autel, un bloc façonné de 6 tonnes, provient d'un endroit situé à au moins 750 km de son emplacement actuel. La difficulté de transporter par voie terrestre une cargaison aussi massive depuis l'Écosse, en contournant les obstacles topographiques, suggère qu'elle a été transportée par voie maritime.
Un tel itinéraire témoigne d'un niveau élevé d'organisation sociale avec des transports intra-britanniques pendant la période néolithique.
Thales vient de réaliser une première mondiale en démontrant qu'il est possible de mettre à jour la protection cryptographique des cartes SIM et eSIM 5G déjà en circulation, à distance et sans couper la connexion. De quoi préparer dès maintenant les réseaux mobiles à la menace des futurs ordinateurs quantiques, et ce sans avoir à remplacer physiquement les cartes.
Une mise à jour silencieuse, et c'est tout
Thales a donc montré qu'on peut télécharger de nouveaux algorithmes cryptographiques directement sur une carte SIM ou eSIM 5G, sans que l'utilisateur n'ait quoi que ce soit à faire. La mise à jour se lance en arrière-plan, un peu comme un update logiciel classique, sauf que c'est la carte SIM elle-même qui reçoit une nouvelle couche de protection (et vous n'avez même pas à cliquer sur « installer plus tard »). Le service n'est pas interrompu, les données sont préservées, et la connexion continue de fonctionner normalement. Bref, c'est totalement transparent.
Des milliards de cartes SIM à protéger
Les ordinateurs quantiques, quand ils seront assez puissants, pourront casser les systèmes de chiffrement actuels. Et la 5G ne sert pas qu'à regarder des vidéos ou envoyer des messages. Elle transporte aussi les communications des véhicules connectés, des services d'urgence et de nombreuses infrastructures du quotidien. Du coup, sécuriser ces réseaux avant l'arrivée des ordinateurs quantiques, c'est tout sauf un détail. Remplacer physiquement toutes les cartes SIM en circulation dans le monde serait impossible, trop long et beaucoup trop cher. C'est ce mur que Thales a contourné avec ce qu'il appelle l'agilité cryptographique : mettre à jour les SIM existantes à distance, plutôt que d'attendre la prochaine génération de cartes.
La France en première ligne
Thales ne fait pas que démontrer la faisabilité de la chose. Le groupe conçoit ses propres algorithmes résistants au quantique, soumis aux organismes de standardisation internationaux dont le NIST américain. L'ANSSI a d'ailleurs émis fin 2025 ses deux premières certifications de produits intégrant de la cryptographie post-quantique, et Thales en fait partie. Avec plus de 4 milliards d'euros investis chaque année en R&D et 83 000 collaborateurs dans 68 pays, le groupe avait déjà travaillé avec SK Telecom et Samsung sur le chiffrement post-quantique de la 5G. Le déploiement à grande échelle sur les réseaux commerciaux et privés est la prochaine étape.
Ce n'est franchement pas tous les jours qu'un industriel français arrive premier sur un sujet aussi pointu. Thales a prouvé que la sécurité post-quantique n'est pas uniquement un truc de labo : on peut déjà préparer les réseaux existants sans tout casser. Maintenant, il va falloir que les opérateurs suivent et décident de pousser ces mises à jour sur leurs parcs. Parce que la démo, c'est bien, mais tant que votre eSIM n'a pas reçu sa couche de crypto post-quantique (punaise ça claque), on est toujours dans la théorie. Bref, un jour votre carte SIM se mettra à jour toute seule pour résister à un ordinateur quantique. Et vous ne vous en rendrez même pas compte.
Source : Socialnews , AFP

Cortical Labs avait déjà fait jouer ses neurones à Pong. Du coup, forcément, fallait que ça leur monte à la tête... car cette fois, ils ont lâché environ 200 000 cellules cérébrales humaines sur Doom, et en moins d'une semaine, elles ont appris à y jouer !
Pour ceux qui auraient loupé l'épisode précédent, le CL1 c'est un bioordinateur avec environ 800 000 neurones humains cultivés sur une puce (dont ~200 000 utilisés ici). J'en avais parlé à son lancement, quand les neurones se contentaient de faire des parties de Pong (ce qui était déjà pas mal pour des cellules dans une boîte de Petri). Mais bon, Pong c'est sympa 5 minutes... mais l'équipe de Cortical Labs a visé plus haut !
Aidés par le développeur indépendant, Sean Cole, ils ont réussi à connecter Doom au CL1 via l'API cloud de Cortical Labs afin que les neurones reçoivent une version simplifiée de l'écran sous forme de stimulations électriques et renvoient des spikes décodés en commandes (avancer, tourner, tirer).
Le Dr. Brett Kagan, le directeur scientifique de la boîte, explique que "les cellules jouent un peu comme un débutant"... et arrivent quand même à chercher les ennemis, leur tirer dessus et tourner sur elles-mêmes.
Le truc carrément chelou, c'est que personne ne comprend exactement COMMENT les neurones apprennent à jouer. On sait juste qu'ils utilisent un truc appelé "adaptive real-time goal-directed learning"... ou plutôt, on sait qu'ils apprennent, mais en fait personne ne sait POURQUOI ça marche. Les cellules s'auto-organisent et bricolent des stratégies toutes seules, quoi...
D'ailleurs, la complexité de Doom a poussé Cortical Labs à développer le Cortical Cloud, une infra dédiée pour gérer le traitement en temps réel. Bref, Doom sur des neurones biologiques, ça demande un poil plus de tuyauterie que Pong et si vous pensiez que c'était réservé aux labos, détrompez-vous.
En effet, le projet est open source, dispo sur GitHub , et les développeurs peuvent accéder au CL1 via l'API cloud. Ça rappelle un peu le projet chinois Darwin Monkey qui simule un cerveau de singe, sauf qu'ici ce sont de VRAIS neurones humains, pas une simulation.
Attention quand même, faut pas s'emballer... les neurones jouent comme des pieds. Ils galèrent, ils tournent en rond, ils ratent des ennemis à bout portant. On dirait moi sur Arc Raider... Et ça ne marche pas à tous les coups non plus, puisque les performances varient d'une session à l'autre. Mais le fait qu'ils apprennent sans qu'on leur dise comment... je trouve ça carrément dingue.
Du coup, si vous voulez voir des neurones galérer sur Doom, je vous invite à regarder cette vidéo :
Je pense que je vais acheter un CL1 pour moi et lui apprendre à écrire des articles, parce que c'est pas bien compliqué ^^ et comme ça après, je pourrais prendre ma retraite et jouer à Doom ^^.

