Auparavant, l'un des auteurs avait proposé [Phys. Essays, vol. 6, 554 (1993) ; vol. 10, 407 (1997)] un mécanisme de mouvement des particules dans le cadre d'un vide considéré comme un milieu cellulaire originel, c'est-à-dire l'éther quantique.
L'existence d'excitation élémentaires spéciales du milieu éthérique - les inertons - autour de la particule a été la principale particularité de ce mécanisme. Le présent article traite de l'impact des inertons sur le comportement collectif des atomes dans un solide.
Il est démontré que les inertons devraient contribuer au potentiel effectif d'interaction des atomes dans le réseau cristallin. La possibilité de séparer cette contribution des inertons de la valeur de l'amplitude de vibration des atomes est analysée. L'expérience qui suppose la présence du champ hypothétique des inertons est réalisée. Les changements attendus dans la structure des échantillons d'essai causés par ce champ sont en fait fixés de manière convaincante dans des micrographies.
Vous êtes du genre à apprendre la guitare sur YouTube ? Bah figurez-vous que les machines font pareil maintenant sauf qu'elles c'est pas les accords de Wonderwall ou de Seven Nation Army qu'elles bossent mais plutôt les expressions faciales.
Et on nage un peu dans la rivière qui coule au fond de l'uncanny valley, faut bien se l'avouer...
En effet, des chercheurs de Columbia Engineering viennent de présenter EMO, un humanoïde capable de synchroniser ses lèvres avec ce qu'il dit, et le plus dingue dans l'histoire c'est comment il a appris à faire ça.
En fait, il se mate dans un miroir tout en regardant des vidéos sur YouTube. Comme nous quoi quand on fait les gros muscles dans le miroir de la salle de bain pour se rassurer rapport à Tibo InShape, sauf que lui c'est pour apprendre à parler et il n'a pas besoin de 47 tentatives pour retenir un truc. Vous me direz, depuis le temps qu'on nous promet des androïdes capables de communiquer naturellement, je pense qu'on a le droit d'être sceptique mais là, y'a un petit truc qui change, vous allez voir...
En fait la bête embarque 26 petits moteurs sous une peau en silicone rien que pour sa tronche et ça lui permet de reproduire des expressions faciales plutôt convaincantes. Le hic c'est que jusqu'ici, ce genre de bidule ressemblait plus à un cauchemar animatronique ou à Bogdanov (paix à leur âme) qu'à autre chose.
Alors pour contrer ça, l'équipe de Hod Lipson au Creative Machines Lab de Columbia a utilisé ce qu'ils appellent une approche VLA (vision-to-action). En gros, EMO s'observe d'abord lui-même pour comprendre comment sa tronche bouge, puis il s'entraîne sur des heures de vidéos pour associer les sons aux mouvements de lèvres correspondants. Un peu comme
ces travaux japonais sur l'apprentissage par les émotions
mais poussé BEAUCOUP plus loin.
Et c'est scotchant parce qu'EMO peut parler et même chanter en anglais, français, arabe, chinois, japonais, coréen... oui le gars est plus polyglotte que la plupart d'entre nous et l'équipe qui l'a conçu a même sorti un album entier généré par IA et baptisé "Hello World", où cette petite tête interprète les morceaux avec ses expressions faciales synchronisées.
C'est un peu déroutant c'est vrai mais avouez que c'est FOUFOU nan ?!
Bon, on est pas encore dans "iRobot" non plus, faut pas s'emballer et les sons en "B" et en "W" lui posent encore quelques soucis, parce que la peau en silicone, c'est pas aussi souple que des vraies lèvres... Et cette petite bouille qui vous regarde en chantonnant, ça reste un poil creepy comme un discours de Macron au nouvel an, mais pour une fois, j'ai envie d'y croire les amis ! Parce que ce genre de techno, ça ouvre des portes intéressantes telles que des interfaces naturelles pour les assistants vocaux, des frérots mécaniques moins flippants qu'un sourire d'Elon Pèlon, ou des prothèses faciales animées pour les personnes qui en auraient besoin.
Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.
Alors que le dispositif avait suscité de nombreuses critiques au sein d’associations en France, la CNAF a choisi de ne pas renoncer à son algorithme de contrôle des allocataires et vient de déployer un nouveau modèle de «data mining». Cette fois, l’organisme mise sur une communication plus transparente et a décidé
L’encyclopédie en ligne, gratuite et coopérative, a été lancée le 15 janvier 2001. Avec 65 millions d’articles en 326 langues, son succès a dépassé toutes les attentes, malgré les critiques régulière…"
Le 28 janvier 2026, Software Heritage fêtera ses dix ans à l’Unesco. Morane Gruenpeter, directrice de la verticale Open-Science, et Bastien Guerry, responsable des partenariats, présentent cette initiative qui vise à préserver le patrimoine applicatif quelque soit le sort des éditeurs ou les feuilles de route de ceux-ci.
La Commission propose jusqu’au 3 février aux développeurs, entreprises et communautés open source, administrations et chercheurs de contribuer à la future stratégie européenne d’écosystème numérique ouvert. En identifiant les obstacles à l’adoption de l’open source et en suggérant des mesures concrètes.
Les boîtes à rythmes physiques des années 90 sont devenues de vraies antiquités... lol. Après moi j'ai grandi avec alors forcément je mesure pas trop l'évolution mais j'imagine des gamins qui découvrent ça... Ça doit être un grand moment de solitude pour eux.
Alors si vous avez toujours rêvé de posséder l'un de ces petits Pocket Operators de chez Teenage Engineering, j'ai ce qu'il vous faut.
Ça s'appelle Beats et c'est une drum machine qui tourne DIRECT dans votre navigateur.
C'est développé par Alejandro AR a.k.a @kinduff, et ça utilise Tone.js pour le son et Stimulus.js pour l'interface. Vous avez à votre dispo une grille de 16 pas, un format ultra classique où vous activez / désactivez ensuite des cases pour créer votre propre rythme. Y'a du Kick, de la snare, du hi-hat...etc... tout y est.
Ce qui est cool c'est que vous arrivez sur la page vous cliquez sur "Play Beat" et PAF ça tourne. Vous pouvez modifier le BPM, changer de kit de batterie pour un truc plus trap ou house, lo-fi, boom bap, etc. et même sauvegarder vos créations via une URL pour les partager avec vos potes ou David Guetta ^^.
En tout cas, je trouve que c'est une SUPER porte d'entrée pour ceux qui voudraient comprendre comment fonctionne un séquenceur sans dépenser un rond. C'est visuel et on pige vite la logique de cette grille d'instruments (ce qui est LOIN d'être le cas avec certains DAW très typé usine à gaz pour donner un air intello à votre artiste préféré).
Et puis c'est parfait pour composer quelques idées quand on est loin de son setup habituel, genre si vous êtes au bureau entre 2 réunions Teams. Après faut pas s'attendre à produire un album tout de suite non plus. C'est + pour du prototypage rapide. M'enfin, vu le prix moins cher que gratuit, personne ne va se plaindre je pense ;).
Et si ce genre d'outil vous branche, ça me rappelle
Drumbit
dont je vous parlais il y a pas longtemps ou encore cet
émulateur web Roland TB-303 & TR-808
pour les puristes de l'Acid House.
“Desperate for books, NVIDIA contacted Anna’s Archive—the largest and most brazen of the remaining shadow libraries—about acquiring its millions of pirated materials and ‘including Anna’s Archive in pre-training data for our LLMs’,” the complaint notes.
[...]
According to the complaint, Anna’s Archive then warned Nvidia that its library was illegally acquired and maintained. Because the site previously wasted time on other AI companies, the pirate library asked NVIDIA executives if they had internal permission to move forward.
This permission was allegedly granted within a week, after which Anna’s Archive provided the chip giant with access to its pirated books.
Les 53 milliardaires français sont désormais plus riches que plus de 32 millions de personnes réunies,
soit près de la moitié de la population, assure l’ONG, tandis que le taux de pauvreté en France atteint un niveau record : 15,4% de la population.
IA par-ci, IA par-là.. même ceux qui critiquent l'IA générative, s'en servent pour faire leurs posts de blog remplis de fake blabla. Mais cette fois on touche un peu au nerf de la guerre, puisque Daniel Stenberg, le créateur de Curl, a lancé son petit cri d'alarme la semaine dernière.
Curl est un outil qui est dispo dans à peu près tous les systèmes qui ont une adresse IP et le problème de Daniel c'est que son projet reçoit de TROP nombreux rapports de sécurité bidon générés à la chaîne par des LLM.
Du coup, ça lui fait perdre pas mal de temps ainsi qu'aux mainteneurs du projet, pour trier le bon grain de l'ivraie
C'est tellement critique qu'il envisage sérieusement de fermer son programme de Bug Bounty... Bref, ça craint pour l'avenir de la collaboration autour de l'open source.
Une fois encore, et au risque de me répéter, le problème n'est pas l'outil. l'IA est une super aide pour analyser du code mais quand on y ajoute une incitation financière (un bounty quoi), ça devient la fête à la paresse intellectuelle. Des "chasseurs de primes" sans compétences, s'emparent alors de scripts à base d'IA pour scanner des repos et copient collent les rapports sans les lire.
L'idée pour eux, c'est qu'en faisant ça massivement, ils grappillent un petit peu de sous.
Et de ce que j'ai compris, Curl n'est pas le seul projet à vivre ce calvaire. Par exemple, Godot (le moteur de jeu) a lui aussi dû prendre des mesures contre ce genre de contributions GenAI, et ça s'inquiète aussi beaucoup du côté du noyau Linux...
Tous ces petits indices me font donc me demander quel est l'impact réel de l'IA sur l'open source... Parce que d'un côté, c'est quand même une super aide. Ça abaisse la barrière à l'entrée. Ça permet de voir des choses qu'un humain n'aurait pas forcément vues. Mais d'un autre côté, ça inonde les mainteneurs de projets sous un tas de rapports "slop" (C'est LE mot à la mode pour désigner du contenu merdique fait par IA ^^) contenant des failles imaginaires ou cassant des fonctionnalités existantes.
Bref, c'est un peu la merde parce que les mainteneurs de repos sont en train de vriller parano, à fliquer les contributeurs au lieu de collaborer, et je trouve que ça casse un peu l'essence même de l'open source qui est la confiance et la réputation.
Quand vous poussez un bon gros commit, vous annoncez aux barbus en rut que c'est votre boulot, avec du vrai jus de cervelle derrière. Mais si c'est un LLM qui a tout pondu et que vous n'avez même pas relu, vous n'êtes plus un contributeur : vous êtes juste un spammeur.
Alors on fait quoi ?
On revient comme dans les années 90 avant l'IA, par pur "Oui mais moi j'ai des principes", ou est-ce qu'on apprend à utiliser ces modèles comme des assistants et on commence à s'éduquer les uns les autres pour essayer de faire de la qualité en remettant l'humain dans la boucle ?
Moi je trouve que l'IA générative c'est génial, mais je trouve aussi que les gens l'utilisent mal, et c'est ça qui produit ce slop en fait. Et je trouve ça con parce qu'on pourrait aller tellement plus loin si les gens apprenaient à collaborer avec l'IA au lieu de juste s'en servir pour pouvoir regarder Netflix pendant que ça bosse...
Donc les amis, si vous utilisez une IA pour trouver un bug, il n'y a pas de soucis avec ça (c'est mon point de vue évidemment), mais au moins vérifiez-le, rejouez-le, essayez de le comprendre, sinon bah abstenez-vous quoi.
Si vous avez déjà vu des vidéos d'algorave, ces soirées où des mecs font danser des foules entières en tapant des lignes de code sur un écran géant, vous savez de quoi je parle. Le live coding musical, c'est hypnotique, c'est technique, et ça donne des résultats sonores assez dingues.
Le problème, c'est que jusqu'ici, pour s'y mettre, fallait souvent s'infuser l'installation de trucs comme Sonic Pi ou
TidalCycles
. C'est génial, mais faut configurer l'environnement, les serveurs audio, et là, bam, la flemme pointe le bout de son nez. C'est là qu'intervient Loopmaster, un projet passion qui permet de faire exactement la même chose, mais directement dans votre navigateur.
Vous débarquez sur le site, vous écrivez du code, vous appuyez sur Entrée, et ça fait de la musique, en temps réel, sans avoir besoin d'installer quoi que ce soit. Tout se passe sous vos yeux grâce à la magie des APIs audio de votre navigateur. Wololo !
L interface de Loopmaster - sobre et efficace (
Source
)
C'est une façon complètement différente d'aborder la création sonore car au lieu de cliquer fébrilement sur des boutons et de manipuler des faders virtuels, vous décrivez ce que vous voulez entendre avec des algorithmes. Un pattern rythmique devient alors une boucle dans votre script, un synthé devient une fonction, et une progression d'accords devient une simple liste de valeurs.
Le truc vraiment cool, c'est que comme c'est du code, vous pouvez faire des choses impossibles autrement. Du genre des patterns qui évoluent mathématiquement, de rythmes générés par des probabilités, ou de textures sonores qui se transforment selon des règles que vous définissez vous-même.
Loopmaster n'est pas le seul sur le créneau, y'a aussi Strudel, mais il a cet avantage d'être hyper accessible pour débuter. Et cerise sur le gâteau pour les producteurs, une fois que vous avez pondu une boucle qui déchire, vous pouvez exporter l'audio pour l'importer ensuite dans votre DAW préféré comme Ableton Live. Nickel pour enrichir vos prods avec des sonorités algorithmiques uniques.
Bref, si vous avez 10 minutes à tuer et que vous voulez vous prendre pour un sorcier du son, allez jeter un œil. Au pire, vous passerez pour un génie incompris auprès de vos collègues en faisant du bruit bizarre, au mieux vous découvrirez une nouvelle passion pour l'algorave.
La start-up Copper, fondée par un chercheur postdoctoral du MIT, propose des appareils électroménagers équipés de batterie. Une innovation qui permettrait de passer du gaz à l’électricité sans lourds travaux.