“C’est catastrophique” Pourquoi le MacBook Neo d’Apple inquiète déjà tout le marché du PC
Avec le MacBook Neo, Apple vise directement le cœur du marché des PC Windows. Un positionnement agressif qui inquiète déjà certains constructeurs.








Des chercheurs du SETI Institute viennent de publier une étude qui pourrait expliquer pourquoi, après des décennies d'écoute, on n'a toujours capté aucun signal radio d'origine extraterrestre. La météo spatiale autour des étoiles brouillerait les transmissions avant même qu'elles ne quittent leur système d'origine. Et 75 % des étoiles de la Voie lactée seraient concernées. Zut alors.
L'étude, publiée dans The Astrophysical Journal, part d'un constat assez simple : les programmes SETI cherchent des signaux radio très étroits, parce que ce type de transmission ne se produit quasiment jamais dans la nature. Un signal bien net, bien fin, c'est le signe qu'il y a quelqu'un derrière.
Sauf que les chercheurs Vishal Gajjar et Grayce Brown ont montré que les vents stellaires, les turbulences de plasma et les éjections de masse coronale qui entourent une étoile peuvent élargir ces signaux et disperser leur puissance sur un spectre plus large.
Le pic qui devrait déclencher les alarmes des télescopes passe alors sous le seuil de détection. Un signal élargi à seulement 10 hertz perd environ 94 % de sa luminosité de pointe. Il est toujours là, mais nos télescopes passent à côté.
Les naines rouges sont les plus touchées par ce phénomène, et elles représentent environ 75 % des étoiles de notre galaxie. Ces étoiles sont petites, peu lumineuses, mais elles génèrent une activité magnétique intense.
Les planètes qui les entourent orbitent à des distances très courtes, ce qui expose d'éventuelles transmissions à un environnement de plasma dense et agité pendant plus longtemps.
Les simulations de l'équipe montrent qu'à 1 GHz, plus de 70 % des systèmes de naines rouges produisent au moins 1 hertz d'élargissement de signal, et plus de 30 % dépassent les 10 hertz. À 100 MHz, c'est pire : près de 60 % des systèmes atteignent 100 hertz d'élargissement. Bref, les étoiles les plus communes de la galaxie sont aussi celles qui brouillent le plus les transmissions.
L'équipe du SETI Institute propose aussi d'adapter les méthodes de recherche en testant plusieurs largeurs de signal plutôt que de ne chercher qu'un seul pic ultra-fin. Les fréquences plus élevées sont aussi moins affectées par l'élargissement, ce qui pourrait orienter les prochaines campagnes d'observation.
Pour calibrer leur modèle, les chercheurs se sont d'ailleurs appuyés sur les transmissions radio de sondes spatiales de notre propre système solaire avant d'extrapoler les résultats à d'autres environnements stellaires.
On ne va pas se mentir, après plus de 60 ans de silence, ça fait du bien d'avoir une petite explication de pourquoi on ne capte pas grand-chose. Ça n'est pas que les petits aliens se cachent particulièrement bien, c'est juste qu'on a un biais technique dans les instruments qu'on utilise.
Ça ne veut pas dire qu'il y a quelqu'un là-haut, mais au moins on sait maintenant qu'on cherchait mal. Par contre c'était bien la peine que je fasse tourner SETI@home sur mon PC pendant des années pour du flan au final. Allez on recommence tout à zéro mais on met à jour les outils avant, ok ?
Source : Slashdot


Des chercheurs ont réussi à restaurer une vision fonctionnelle chez des patients atteints de DMLA avancée grâce à une puce sans fil de 2 mm glissée sous la rétine. Lors de l'essai clinique PRIMAvera mené dans 5 pays européens, 81 % des participants ont retrouvé la capacité de lire des lettres et des mots. Pas mal !
Le système s'appelle PRIMA et il a été conçu par Daniel Palanker, professeur d'ophtalmologie à Stanford. Le principe : une puce photovoltaïque de 2 mm sur 2 mm, épaisse de 30 microns (oui c'est très fin, la moitié d'un cheveu), qui se glisse sous la rétine à l'endroit où les photorécepteurs ont cessé de fonctionner. Le patient porte des lunettes équipées d'une caméra miniature qui capte les images, les traite via un algorithme (zoom jusqu'à x12, réglage du contraste) puis les projette sur l'implant en lumière infrarouge. La puce convertit cette lumière en impulsions électriques qui stimulent les neurones rétiniens encore actifs. Le cerveau fait le reste. Pour l'instant, la vision restituée est en noir et blanc, mais elle suffit pour lire des lettres, des chiffres et des mots courts.
L'essai clinique PRIMAvera a recruté 38 volontaires de plus de 60 ans, tous atteints d'atrophie géographique liée à la DMLA, dans 17 hôpitaux répartis sur 5 pays européens. Sur les 32 patients qui ont terminé le suivi d'un an, 26 ont montré une amélioration mesurable : en moyenne, un gain de 25 lettres sur l'échelle d'acuité visuelle standard, soit environ cinq lignes. Et 27 d'entre eux ont utilisé l'implant chez eux pour lire au quotidien. Côté complications, 19 patients ont présenté 26 événements indésirables graves (hypertension oculaire, hémorragies sous-rétiniennes), mais 95 % se sont résolus en deux mois. Les résultats ont été publiés dans le New England Journal of Medicine, avec José-Alain Sahel (Inserm, Institut de la Vision, Université de Pittsburgh) comme auteur principal.
Avec ses 378 électrodes, l'implant actuel offre une résolution de 400 pixels. C'est suffisant pour déchiffrer des mots, mais loin de ce qu'on pourrait appeler une vision normale. La prochaine génération vise 10 000 pixels, ce qui, combiné au zoom des lunettes, pourrait théoriquement atteindre une acuité de 20/20. Science Corporation, la société californienne qui commercialise le dispositif, travaille aussi sur un logiciel capable de restituer des images en niveaux de gris, y compris des visages. Les nouvelles puces ont déjà été testées sur des rats et la fabrication pour des essais humains est en cours. Le Dr Demetrios Vavvas, de Mass Eye and Ear à Boston, compare l'implant actuel à un "iPhone en version pre-release" : limité, mais le potentiel est là.
Franchement, on est quand même là sur un truc qui marche. Pas de promesses vagues, pas de "dans dix ans peut-être" : 81 % des patients lisent à nouveau après un an, et les résultats sont déjà publiés. Maintenant, la vraie question, c'est le passage à une échelle plus grande. Un implant sous-rétinien, ça demande un chirurgien très qualifié et une prise en charge lourde. Et avec un million d'Américains touchés par l'atrophie géographique, sans compter le reste du monde, on se demande combien de temps il faudra pour que ça arrive dans un cabinet d'ophtalmologie classique. Mais en tout cas ça promet !
Source : Earth.com




Des chercheurs ont utilisé un accélérateur de particules du Karlsruhe Institute of Technology pour scanner 2 200 fourmis de 800 espèces différentes en quelques jours. Le résultat : des modèles 3D d'une précision au micromètre, qui révèlent muscles, systèmes nerveux et dards. Le tout est accessible gratuitement en ligne sur le portail antscan.info , depuis n'importe quel ordinateur.
Le projet AntScan est né d'une collaboration entre Evan Economo, entomologiste à l'université du Maryland, et Thomas van de Kamp, physicien au Karlsruhe Institute of Technology en Allemagne. L'idée : utiliser le synchrotron du KIT, un accélérateur de particules qui produit un faisceau de rayons X très intense, pour scanner des fourmis en micro-tomographie.
Un bras robotisé fait tourner chaque spécimen devant le faisceau, et environ 3 000 images sont capturées par fourmi. Le tout est ensuite reconstruit automatiquement en modèle 3D. La résolution atteint le micromètre, ce qui permet de voir l'intérieur des insectes : muscles, tube digestif, système nerveux et dards.
2 200 spécimens, 800 espèces, 212 genres. Tout ça en quelques jours. Avec un scanner de laboratoire classique, ce travail aurait pris six ans de fonctionnement continu. Avec le synchrotron du KIT et le bras robotisé qui change les échantillons toutes les 30 secondes, 2 000 spécimens ont été traités en une seule semaine.
L'IA s'est chargée du reste : estimer la position de chaque fourmi et produire les reconstructions 3D automatiquement.
Les modèles 3D sont disponibles gratuitement sur le portail antscan.info. N'importe qui peut y accéder depuis un ordinateur, faire pivoter les fourmis, zoomer sur les détails et même les « disséquer », virtuellement bien sûr, rangez votre scalpel. L'équipe a conçu le projet comme un modèle reproductible : la méthode peut être adaptée à d'autres petits invertébrés, ce qui en fait un point de départ pour numériser la biodiversité à grande échelle. Le portail fournit aussi les fichiers bruts pour les chercheurs qui veulent aller plus loin dans l'analyse.
C'est le genre de projet qui donne envie de fouiller le site pendant des heures. Utiliser un accélérateur de particules pour scanner des fourmis, sur le papier c'est un peu disproportionné, mais quand on voit le résultat, six ans de travail compressés en une semaine et 800 espèces disponibles en 3D pour tout le monde, ça force le respect.
Le fait que tout soit en accès libre change la donne. La vraie question, c'est ce qui vient après : si la méthode fonctionne pour les fourmis, elle peut fonctionner pour des milliers d'autres espèces. Perso, je trouve que c'est le genre d'utilisation de l'IA et de la puissance de calcul qui fait plaisir à voir, loin des polémiques habituelles.

