Vue normale

Reçu — 20 décembre 2025
Reçu — 15 décembre 2025

Le fondateur de Boston Dynamics revient en force avec un robot à roues qui fait des backflips

Par :Korben
15 décembre 2025 à 11:14

Vous connaissez Marc Raibert ?

C'est le mec qui a fondé Boston Dynamics, la boîte derrière ces fameux robots qui font flipper tout le monde sur YouTube ( Spot le chien robot , Atlas l'humanoïde qui fait du parkour, Wildcat le chat sauvage ...). Et bien le bonhomme a lancé un nouveau projet avec son RAI Institute , et cette fois c'est un robot à roues qui fait des acrobaties de malade.

Ça s'appelle l'UMV pour Ultra Mobility Vehicle, et l'idée c'est de créer un engin qui "pense" et bouge comme un athlète de haut niveau. Comme vous pouvez le voir sur la vidéo, son inspiration ce sont les riders de vélo trial. Oui oui, ces kamikaze qui font des wheelies sur des escaliers et des backflips sur des rochers. Le but c'est donc de combiner l'efficacité des robots à roues (rapides et économes en énergie) avec les capacités de saut des robots à pattes.

Le robot pèse environ 23 kg et peut mesurer entre 80 cm replié et plus de 1m50 en extension (comme Zemmour quoi). Y'a aussi deux moteurs pour la direction et la vitesse, plus quatre moteurs dédiés aux sauts. Le cadre inférieur est en fibre de carbone pour rester léger, et le haut du robot sert de contrepoids pour les manœuvres agressives. Un peu comme un rider humain qui déplace son poids pour garder l'équilibre.

Et le truc de ouf, c'est que le robot n'a pas été programmé manuellement pour faire des bunny hops ou des flips. Il a tout appris tout seul via du reinforcement learning (apprentissage par renforcement). L'équipe l'a fait s'entraîner dans des millions de simulations sur NVIDIA Isaac Lab, et ensuite ils ont transféré ces apprentissages dans le monde réel. C'est ce qu'ils appellent du "zero-shot transfer" où en gros le robot passe direct de la simulation au monde réel... Débrouille-toi mon grand.

Résultat, l'engin est capable de faire des sauts d'un mètre, des flips avant, des wheelies prolongés, et des bunny hops en continu, le tout en gardant un équilibre parfait grâce à ce qu'ils appellent l'"intelligence athlétique". Alors moi j'ai aucune intelligence athlétique car j'ai été dispensé d'EPS toute ma jeunesse, mais en gros, le robot a développé une compréhension intuitive de la physique de son propre corps, comme un sportif qui sait instinctivement comment répartir son poids.

Pour la suite, l'équipe prévoit d'intégrer de la perception haute performance avec LiDAR et caméras, pour que le robot puisse naviguer de façon autonome en terrain difficile. On est clairement dans l'évolution de ce qu'on appelle l'"embodied AI" c'est à dire des IA qui ont un corps physique et qui apprennent à l'utiliser comme des athlètes.

Bref, si l'apprentissage par renforcement peut maîtriser ce niveau d'équilibre dynamique aujourd'hui, dans combien de temps on aura des humanoïdes qui courent plus vite que nous sur n'importe quel terrain ?? Pfiou, ça va arriver vite et j'espère juste qu'ils n'apprendront pas à ouvrir les portes de nos maisons avant qu'on ait le temps de se barrer. Skynet representzzzz !

Source

Reçu — 9 décembre 2025

3 ans d'audits cybersécu et finalement, c'est une IA qui trouve la faille en 4 jours

Par :Korben
9 décembre 2025 à 13:56

Personne ne s’en doutait, mais durant 3 ans, les communications entre la Terre et les sondes de la NASA étaient totalement vulnérables au piratage du moindre script kiddy ! Et personne n’était au courant évidemment, et aucun des multiples audits de code qui se sont succédé depuis 2022 n’avait mis à jour ce problème jusqu’à ce qu’une IA s’en mêle !

La faille découverte au bout de 4 jours d’analyse, se trouvait dans CryptoLib , une bibliothèque de chiffrement open source utilisée pour sécuriser les échanges entre les stations au sol et les satellites en orbite. Cette bibliothèque implémente le protocole SDLS-EP (Space Data Link Security Protocol - Extended Procedures) de la norme issue du CCSDS , qui est utilisé un peu partout dans le spatial, y compris pour des missions comme les rovers martiens ou le télescope James Webb.

Le souci donc c’est que ce code contenait une vulnérabilité d’injection de commande. En gros, des données non validées pouvaient être interpolées directement dans une commande shell et exécutées via system() sans aucune vérification. C’est le genre de faille basique qu’on apprend à éviter en première année de développement, sauf que là elle était planquée dans un code quand même bien critique…

C’est la startup AISLE , fondée par des anciens d’Anthropic, Avast et Rapid7, qui a été mandatée pour auditer le code et c’est comme ça que leur système de “cyber reasoning” basé sur l’IA s’est retrouvé à scanner la base de code. Résultat, une jolie faille débusquée par IA 3 ans après des dizaines d’audits et d’analyses humaines.

Bon, avant de paniquer sur une éventuelle chute de satellite en plein sur la tête de votre belle-mère, faut quand même nuancer un peu la chose… Pour exploiter cette faille, un attaquant aurait d’abord eu besoin d’un accès local au système, ce qui réduit significativement la surface d’attaque selon les chercheurs . Donc oui, j’ai abusé en intro avec mon histoire de script kiddy ^^ chè ! Mais quand même, on parle de satellites et de sondes spatiales qui valent des milliards de dollars donc si elle avait été exploitée, ça aurait fait mal à beaucoup de monde.

Et ce n’est pas la seule mauvaise nouvelle pour la sécurité spatiale cette année puisqu’en août dernier, 2 chercheurs allemands de VisionSpace Technologies, Milenko Starcik et Andrzej Olchawa, ont présenté, lors des confs Black Hat USA et DEF CON à Las Vegas, pas moins de 37 vulnérabilités découvertes dans l’écosystème spatial . Sans oublier Leon Juranic de ThreatLeap qui a trouvé diverses failles plus tôt dans l’année.

Le Core Flight System (cFS) de la NASA, ce framework open source déployé sur des missions comme le James Webb ou le lander lunaire Odysseus d’Intuitive Machines, contenait également 4 failles critiques. Deux bugs de déni de service, une Path Traversal, et une vulnérabilité d’exécution de code à distance (RCE). Milenko Starcik a déclaré avoir trouvé des vulnérabilités permettant par exemple de crasher tout le logiciel de bord avec un simple message distant non authentifié .

Lors d’une démo, ils ont montré qu’ils pouvaient envoyer une commande à un satellite pour activer ses propulseurs et modifier son orbite, sans que le changement de trajectoire apparaisse immédiatement sur l’écran du contrôleur au sol. Imaginez le bordel si quelqu’un faisait ça pour de vrai !!

CryptoLib elle-même était criblée de failles : 4 dans la version utilisée par la NASA, 7 dans le package standard dont 2 critiques. Et le système de contrôle de mission Yamcs développé par la société européenne Space Applications Services et utilisé notamment par Airbus présentait aussi 5 CVE permettant une prise de contrôle totale. Sans oublier OpenC3 Cosmos, un autre système utilisé pour les stations au sol, qui comptait à lui seul, 7 CVE incluant de l’exécution de code à distance.

Heureusement les amis, toutes ces horribles vulnérabilités ont été corrigées et la NASA prépare même une mise à jour majeure du cFS pour bientôt avec de meilleures fonctionnalités de sécurité, le support de l’IA et des capacités d’autonomie améliorées.

AISLE affirme que leur outil peut examiner systématiquement des bases de code entières , signaler des patterns suspects et fonctionner en continu à mesure que le code évolue, bref, pour du code critique comme celui des systèmes spatiaux, c’est le top !

Encore une victoire de l’IA ^^

Source

Reçu — 7 décembre 2025
Reçu — 5 décembre 2025

AI optimism is a class privilege - Josh Collinsworth blog

5 décembre 2025 à 21:56

Un long post sur l'IA mais je ne peux que vous en conseiller la lecture.

L'auteur explique avec une rare justesse le fait que les optimistes de l'IA sont souvent des privilégiés qui n'auront jamais à souffrir du revers de la médaille, et qui se foutent catégoriquement de ceux qui en feront les frais.


Permalink

AI optimism is a class privilege - Josh Collinsworth blog

5 décembre 2025 à 21:56

Un long post sur l'IA mais je ne peux que vous en conseiller la lecture.

L'auteur explique avec une rare justesse le fait que les optimistes de l'IA sont souvent des privilégiés qui n'auront jamais à souffrir du revers de la médaille, et qui se foutent catégoriquement de ceux qui en feront les frais.


Permalink
Reçu — 4 décembre 2025
Reçu — 1 décembre 2025

Nano-PDF - Éditez vos PDF grâce à l'IA Nano Banana

Par :Korben
1 décembre 2025 à 12:10

Modifier un PDF, c’est toujours la galère surtout si c’est un PDF avec que des images sans texte sélectionnable. Soit vous avez Adobe Acrobat qui coûte une couille, soit vous vous tapez des outils en ligne douteux, soit vous exportez en Word et vous priez pour que la mise en page survive. Bref, vous faites vos trucs de losers….

Mais ça c’était sans compter sur Nano-PDF qui propose une approche radicalement différente : Vous décrivez ce que vous voulez changer en langage naturel, et l’IA se chargera du reste.

Par exemple, si vous avez une présentation PDF avec une faute de frappe sur la slide n°5, au lieu de galérer avec un éditeur, vous tapez juste

`nano-pdf edit ma_presentation.pdf 5 "Corrige la faute sur le mot 'investisement'"`

Et hop, c’est réglé. Vous voulez mettre à jour un graphique avec les données de 2025 ? Pareil, vous décrivez le changement et l’outil se débrouille !

Nano-PDF utilise le modèle Gemini 3 Pro Image de Google (surnommé “Nano Banana Pro”) pour interpréter vos instructions et générer les modifications visuelles. Le workflow technique est d’ailleurs bien fichu puisque les pages PDF sont converties en images via Poppler , envoyées au modèle avec votre prompt, puis les images générées sont reconverties en PDF avec une couche de texte restaurée par OCR via Tesseract. Du coup, vos PDF restent sélectionnables et cherchables après modification, contrairement aux solutions qui vous filent des images aplaties.

Côté fonctionnalités, y’a pas mal de choses sympas. Vous pouvez par exemple éditer plusieurs pages en une seule commande, créer de nouvelles slides qui respectent le style visuel de votre deck existant, même utiliser des pages de référence pour que l’IA comprenne mieux votre charte graphique, et le traitement par lot est géré en parallèle pour gagner du temps sur les grosses présentations.

L’installation passe par pip avec

`pip install nano-pdf`

Et comme je vous le disais, il vous faudra aussi Poppler pour le rendu PDF et Tesseract pour l’OCR. Et attention, petit détail qui a son importance, l’API Gemini Pro Image nécessite un compte payant. Faudra sortir la thune car les clés gratuites ne permettent pas de générer des images… donc bon, prévoyez quelques euros de crédit Google Cloud si vous voulez tester.

Le truc cool, c’est par défaut c’est du 4K en résolution, mais vous pouvez descendre en 2K ou 1K si vous voulez économiser sur les coûts d’API. Y’a aussi une option --use-context qui envoie tout le texte du PDF au modèle pour qu’il comprenne mieux le contexte de vos modifications. Et si vous créez une nouvelle slide, cette option est activée par défaut pour que le résultat soit cohérent avec le reste du document.

Voilà, si vous passez votre vie à modifier des présentations PDF et que vous en avez marre des workflows à rallonge, installez Nano-PDF . C’est open source sous licence MIT, et ça change la vie !

Merci Lorenper pour le partage !

Reçu — 25 novembre 2025

Google Antigravity Exfiltrates Data

25 novembre 2025 à 22:14

Encore un bon exemple des risques que courent les développeurs qui utilisent des agents IA sans en comprendre les implications.

Le marché de l'IA se résume à une course sans queue ni tête dans laquelle l'éthique, la sécurité et le respect de la vie privée passent systématiquement au second plan.


Permalink

Google Antigravity Exfiltrates Data

25 novembre 2025 à 22:14

Encore un bon exemple des risques que courent les développeurs qui utilisent des agents IA sans en comprendre les implications.

Le marché de l'IA se résume à une course sans queue ni tête dans laquelle l'éthique, la sécurité et le respect de la vie privée passent systématiquement au second plan.


Permalink
Reçu — 19 novembre 2025

Linus Torvalds - Le vibe coding c'est cool, mais pas pour du code critique

Par :Korben
19 novembre 2025 à 10:08

Linus Torvalds vient de donner son avis sur l’IA et le vibe coding et ça ne va pas plaire à tout le monde, ahahaha.

Hé oui car pendant que le monde tech se déchire entre les évangélistes de l’IA qui veulent tout automatiser et les énervés qui refusent l’IA par principe idéologique, Linus débarque dans le game avec un avis… de complet normie.

Lors de l’Open Source Summit à Séoul qui vient d’avoir lieu, Linus a partagé sa vision sur l’IA générative et le fameux “vibe coding”. Et son avis, c’est que l’IA c’est juste un outil de plus !

Ah putain, ça fait plaisir de lire ça ! ( Tout comme cet article d’ailleurs )

Le vibe coding, pour ceux qui débarquent, c’est ce terme inventé par Andrej Karpathy d’OpenAI qui consiste à décrire ce que vous voulez coder à un LLM. Ce dernière génère alors le code, et vous testez si ça marche ou si ça marche pas. Et ensuite vous demandez des ajustements et ainsi de suite !

Autant dire que c’est devenu un sujet chaud pour pleiiiins de raisons.

Bref, Linus se déclare “plutôt positif” sur le vibe coding mais uniquement comme point d’entrée en informatique. Pour des petits projets, des prototypes rapides…etc c’est top car ça permet à des gens qui ne savent pas coder de faire des trucs super ! Mais après pour du code critique en production, il est cash en expliquant que ça risque d’être “horrible, horrible d’un point de vue maintenance”. Et je ne peux pas lui donner tort.

Linus n’utilise pas personnellement d’IA pour coder mais il voit bien que des gens testent l’IA pour travailler sur du code critique dans le noyau Linux et ça il s’en méfie à raison car les mainteneurs du kernel se prennent régulièrement des bugs reports et des security notices complètement bidons générés par des gens qui utilisent mal les IA.

Les crawlers IA posent aussi des problèmes techniques sur kernel.org car ces bots qui aspirent tout le code pour nourrir leurs modèles font ramer les serveurs. Quoiqu’il en soit, Linus est plutôt modéré sur le sujet de l’IA générative pour coder et attend avec impatience le jour où l’IA sera un truc moins hype. En gros, qu’on arrête d’en parler H24 et qu’on l’utilise juste quand c’est pertinent…

C’est vrai que d’un côté, vous avez ces fifous pro-IA à toutes les sauces qui pensent qu’on va tous devenir des prompt engineers et que les devs vont disparaître (spoiler : non). Et de l’autre, les donneurs de leçons en pureté technologique qui refusent l’IA en bloc sans jamais se poser la moindre question.

Du coup, je vous avoue que je suis content de voir qu’au milieu de tout ce bordel, y’a ce bon vieux Linus qui nous explique que c’est juste un stupide outil et qu’il faut simplement apprendre à l’utiliser intelligemment.

Y’aura bien sûr des comiques qui vont dire que Linus s’est “radicalisé” car avoir un avis nuancé en 2025, c’est devenu extrémiste de ce que j’ai pu voir ces derniers jours, mais sachez que Linus a un peu de bagage historique. Il se souvient par exemple, comme je le disais en intro, du même genre de débats quand les compilateurs sont arrivés. A l’époque, y’avait les puristes du pissage de code qui hurlaient que ça allait tuer le métier de “programmeur” alors qu’au final, ça a juste augmenté la productivité, la sécurité et que ça a permis de faire des trucs plus complexes.

Voilà… l’IA, c’est TOUT PAREIL. Ça va changer la manière dont on code au quotidien, mais ça va pas remplacer les devs (pas tout de suite en tout cas). Ça va juste les rendre plus productifs comme n’importe quel nouvel outil dispo dans votre boite à outils.

Et pour les fans de vibe coding qui veulent quand même l’utiliser sérieusement, gardez en tête les limites du truc. N’oubliez pas que vous ne pouvez pas comprendre ce que le code fait si vous ne le passez pas en revue. Et vous ne pourrez pas le débugger proprement, le maintenir sur le long terme, ou encore le sécuriser si vous ne comprenez pas précisément ce qu’il fait. Donc forcez-vous un peu ;-) !

Merci Linus !

Source

Reçu — 16 novembre 2025
❌