Vue lecture

Transmettre de l'énergie sans fil depuis un avion - Ça c'est fait !

Bon, on n'est pas encore sur de la recharge de smartphone à distance depuis un satellite, lol, mais on vient de franchir une étape assez sympa dans le monde du "power beaming" c'est à dire de la transmission d'énergie sans fil...

Une startup de Virginie, Overview Energy, vient en effet de réussir un petit exploit. Ils ont envoyé de l'énergie depuis un avion en plein vol vers des récepteurs au sol. Ça s'est passé au-dessus de la Pennsylvanie, avec un vieux Cessna qui se faisait secouer par des vents de 70 nœuds à 5 000 mètres d'altitude et pourtant, malgré les turbulences, le faisceau a tenu bon.

Alors, calmez-vous tout de suite, les geekos, on ne parle pas de quoi alimenter une ville entière, hein ! Les chercheurs décrivent ça plutôt comme une manière de saupoudrer du courant. Ici l'enjeu n'était pas la puissance pure, mais simplement de prouver qu'on pouvait garder un faisceau parfaitement aligné sur sa cible malgré les mouvements d'un avion. C'est donc une première mondiale pour une plateforme mobile à cette distance.

Le truc intéressant, je trouve, c'est le choix de la technologie car là où beaucoup misent sur les micro-ondes, Overview Energy utilise de l'infrarouge (un faisceau laser, quoi).

Ils ont fait ce choix, parce que le spectre des micro-ondes est déjà complètement saturé et avec l'infrarouge, on peut surtout utiliser les fermes solaires déjà installées au sol comme récepteurs. Comme ça pas besoin de construire des antennes géantes et moche... Suffit de taper directement sur les panneaux photovoltaïques existants.

Derrière ce projet, on retrouve également du beau monde, notamment Paul Jaffe, un ancien cador de la DARPA et du Naval Research Laboratory, qui a lâché son poste de chef de projet pour rejoindre l'aventure. Le mec a l'air vraiment convaincu que c'est la solution pour débloquer le solaire spatial.

Parce que vous l'aurez compris, l'idée ULTIME avec cette techno, c'est évidemment de mettre tout ça sur des satellites en orbite géostationnaire. Là-haut, le soleil brille H24, sans nuages, sans politicien ^^, ni atmosphère pour faire chier.

Overview Energy vise un premier test en orbite basse d'ici 2028, avec pour objectif de balancer les premiers mégawatts depuis l'espace en 2030. C'est ambitieux, surtout quand on pense au coût de lancement et aux débris spatiaux, mais cette démo aérienne montre que la partie "visée" est sur la bonne voie.

Bref, on n'a plus qu'à attendre que le prix des lancements baisse encore un peu et peut-être qu'un jour, notre maison sera alimentée par un rayon laser tombant du ciel.

Si on ne meurt pas tout à cause du changement climatique, le futur sera radieux !

Source

  •  

Quand les chercheurs en IA dissèquent les LLM comme des aliens

J'sais pas si vous avez vu ça, mais des chercheurs d'OpenAI, d'Anthropic et de Google DeepMind ont décidé de traiter les grands modèles de langage comme des organismes extraterrestres qu'il faut disséquer pour comprendre leur fonctionnement.

Et pour cela, ils utilisent des techniques empruntées à la biologie pour analyser ces réseaux de neurones qu'on a pourtant créés nous-mêmes !

Cette approche originale s'appelle "interprétabilité mécanistique" (mechanistic interpretability en anglais, mais bon, ça sonne mieux que "on va ouvrir la bestiole pour voir ce qu'il y a dedans") et en gros, au lieu de se contenter de tester les modèles sur des tâches précises, ces équipes les étudient comme des biologistes examineraient un spécimen inconnu. Ils cartographient les "circuits neuronaux", identifient des "organes" fonctionnels, cherchent à comprendre quelles parties du modèle s'activent pour telle ou telle tâche.

Ce qui est bizarre c'est que ces systèmes, nous les avons nous-mêmes construits... On les a entraînés, on a choisi l'architecture, on a fourni les données... et pourtant on se retrouve à les étudier comme si c'était des aliens bourrés qui se seraient crashés dans le désert du Nevada.

Du coup, plusieurs équipes ont publié des résultats sur cette approche. Chez Anthropic, par exemple, ils ont cartographié des millions de "features" dans Claude, identifiant des groupes de neurones qui s'activent pour différents concepts abstraits, avec des recherches en cours pour détecter des comportements comme la tromperie. OpenAI a de son côté développé des outils pour visualiser comment l'information circule dans ses modèles, révélant l'existence de circuits neuronaux spécialisés dans différentes tâches.

Et ce qui ressort de ces recherches, c'est surtout qu'on commence à peine à grattouiller la surface. En effet, les modèles de langage présentent des comportements émergents qu'on ne peut pas prédire juste en regardant le code ou l'architecture. Du coup, une des façons majeures de comprendre ce qui se passe vraiment là-dedans, c'est de les observer en action et de déduire leur fonctionnement interne comme on le ferait avec n'importe quel système biologique.

Et l'enjeu va bien au-delà de la simple curiosité scientifique car comprendre le fonctionnement interne de ces modèles permettrait de les rendre plus sûrs, de détecter quand ils sont sur le point de générer des réponses problématiques , ou de mieux cibler leur entraînement. C'est aussi crucial pour la recherche sur l'alignement car si on veut s'assurer que les IA futures font vraiment ce qu'on veut qu'elles fassent, il faut d'abord comprendre comment elles prennent leurs décisions.

Mais bon, vous me connaissez, je suis toujours très optimiste sur toutes ces recherches scientifiques... Cependant, il faut quand même se méfier car les modèles actuels contiennent des dizaines voire des centaines de milliards de paramètres qui interagissent de façons complexes et cartographier tout ça, c'est un peu comme essayer de comprendre le cerveau humain neurone par neurone.

Donc oui on avance, mais on est encore très looooin d'une compréhension complète... Faudra être patient.

Source

  •  

NVIDIA et Eli Lilly - 1 milliard pour réinventer la médecine avec l'IA

On sait que l'IA bouffe le monde et la santé n'est pas épargnée... En effet, NVIDIA vient d'annoncer un partenariat massif avec le géant pharmaceutique Eli Lilly pour créer un labo de co-innovation en plein cœur de la Silicon Valley ou pas loin...

Ça discute quand même d'un investissement commun qui pourrait grimper jusqu'à 1 milliard de dollars sur les cinq prochaines années. Et le but c'est d'utiliser la puissance de calcul de NVIDIA et ses modèles d'IA pour trouver de nouveaux médicaments plus vite et plus efficacement. Jensen Huang, le boss de NVIDIA, est d'ailleurs convaincu que c'est dans les sciences de la vie que l'IA aura son impact le plus profond. Et quand Jensen dit un truc, en général, les serveurs chauffent derrière ^^.

En gros, ils vont monter un système d'apprentissage continu afin de faire bosser en boucle les "wet labs" de Lilly (les vrais labos avec des éprouvettes et des chercheurs) avec des "dry labs" computationnels (les serveurs de NVIDIA). Ce sont des expériences réelles qui vont nourrir les modèles d'IA, qui suggèreront ensuite de nouvelles expériences, et ainsi de suite, 24h/24.

Côté matos, ils vont s'appuyer sur la plateforme BioNeMo de NVIDIA et sur la future architecture Vera Rubin (qui devrait pointer le bout de son nez fin 2026). Et de ce que j'ai compris, ils ne vont pas s'arrêter à la recherche pure puisqu'ils comptent aussi utiliser l'IA, la robotique et les jumeaux numériques (via NVIDIA Omniverse) pour optimiser les lignes de production et la chaîne logistique, histoire d'être sûr que quand ils trouveront un remède miracle afin de le fabriquer à grande échelle sans galérer.

Ahaha, on n'a pas fini d’entendre chialer les complotistes adorateurs de la 5G ^^

C'est fou comme ça avance vite quand même... on est passé de la phase "je demande à ChatGPT c'est quoi ces boutons que j'ai sur les fesses" à la phase "on construit des usines à médicaments pilotées par IA".

C'est prometteur pour la suite !

Source

  •  

DeepSeek mHC - Quand les réseaux de neurones menacent d'exploser

Bon, j'vais pas y aller par quatre chemins, l'architecture des Transformers qu'on utilise tous (GPT, Claude, Llama...) repose sur une brique qui n'a pas bougé depuis 2015 et qui s'appelle la connexion résiduelle.

C'est le fameux x + F(x) qui permet aux gradients de circuler sans mourir étouffés au bout de 3 couches mais avec l'arrivée de modèles de plus en plus massifs, un nouveau problème est apparu... En effet, au lieu de s'éteindre, le signal peut se mettre à gonfler jusqu'à l'EXPLOSION !!.

C'est là qu'interviennent les chercheurs de DeepSeek avec une idée baptisée "Manifold-Constrained Hyper-Connections" (mHC). Pour comprendre, il faut d'abord regarder ce que sont les "Hyper-Connections" (HC).

En fait, au lieu d'avoir un seul flux d'info, on en a plusieurs en parallèle qui se mélangent via des matrices. En pratique, cela veut dire que c'est vite le chaos. Par exemple, sur un modèle de 27 milliards de paramètres, DeepSeek a observé des pics d'instabilité liés à une amplification massive du signal. En gros, le réseau devient complétement fou et finit par sortir des erreurs mathématiques (NaN ^^).

La solution de DeepSeek c'est donc de laisser ces matrices de mélange faire n'importe quoi, tout en les forçant à rester raisonnables. Ils utilisent pour cela une contrainte dite "doublement stochastique". Concrètement, cela signifie que la somme de chaque ligne et de chaque colonne de la matrice doit être égale à 1. Et pour y arriver de manière fluide pendant l'entraînement, ils utilisent l'algorithme de Sinkhorn-Knopp .

En rouge, c'est le chaos (HC). En vert c'est pareil mais stabilisé grâce au mHC.

Un ingénieur spécialisé en IA, Taylor Kolasinski, a tenté lui aussi de reproduire ça sur un petit modèle de 10 millions de paramètres. Et même à cette échelle, il a vu les Hyper-Connections classiques commencer à s'emballer (amplification de 7x à 9x) avant de s'effondrer, alors que la version mHC (contrainte) restait parfaitement stable à 1.0.

Alors oui, mettre de telles barrières au réseau a un coût... Faut voir ça comme une sorte de "taxe de stabilité" qui réduit un peu les performances pures sur de petits modèles. Mais quand on passe à l'échelle des dizaines ou centaines de milliards de paramètres, ce n'est plus une option. Ça évite tout simplement au modèle d'exploser en plein vol.

Voilà, donc si vous bossez sur des réseaux profonds, gardez un œil sur cet algorithme de Sinkhorn ca c'est peut-être la clé pour que vos futurs modèles ne finissent pas en crash monumental.

Source

  •  

Collabwriting : Surlignez le web, retrouvez tout, travaillez à plusieurs

Dernière mise à jour le 22 décembre 2025 Vous connaissez la situation. Vous préparez une séquence sur la Révolution française. Vous ouvrez un article du Monde, une vidéo YouTube, un fil Twitter d’un historien,...

L’article Collabwriting : Surlignez le web, retrouvez tout, travaillez à plusieurs est apparu en premier sur Les Outils Tice.

  •  
❌