Vue normale

Atlas fait ses adieux en salto

Par : Korben
10 février 2026 à 14:39

Atlas , le robot humanoïde de Boston Dynamics, vient de faire ses adieux en beauté. Et quand je dis en beauté, c'est salto arrière enchaîné avec une roue... le tout sans se vautrer la gueule. Pas mal pour une machine de 90 kg !

Cette vidéo "Atlas Airborne" publiée il y a quelques jours, c'est en gros le pot de départ de ce modèle de recherche. Celui qui nous a fait halluciner depuis 2013 avec ses cascades de parkour et ses backflips, sauf que cette fois, les ingénieurs ont voulu pousser le curseur au maximum avant de ranger le bonhomme au placard.

Les ingés ont bossé avec le RAI Institute (le labo fondé par Marc Raibert en 2022, après avoir quitté la direction de Boston Dynamics) pour développer un truc qui s'appelle le "whole-body learning". En gros, c'est de l'apprentissage par renforcement appliqué au corps entier du robot, et pas juste aux jambes ou aux bras séparément.

Tout ce qu'Atlas apprend en simulation (via IsaacLab, le framework de Nvidia basé sur Python), il le reproduit alors direct sur le vrai hardware. Y'a besoin d'aucun ajustement et ça s'appelle le "zero-shot transfer"... c'est-à-dire que vous entraînez le robot dans un monde virtuel sur GPU, hop, vous le branchez dans le monde réel et ça marche du premier coup. Bon, "du premier coup" c'est la théorie évidemment, car pratique, ça plante probablement 3 fois sur 10, sauf que la vidéo promo ne montre pas les gamelles.

Le plus tordu dans l'histoire, c'est que cette même techno qui lui permet de faire des acrobaties est celle qui lui donne sa démarche naturelle (celle qui a été primée "Best Robot" au CES en janvier). Un seul framework pour tout, de la roulade au rangement de cartons, c'est dingue quand même !

Et pendant que la version recherche fait le show, l'autre Atlas, le nouveau, se prépare à rentrer à l'usine . D'après Hyundai, le bestiau devrait débarquer dans leur Metaplant à Savannah en Géorgie d'ici 2028 pour du tri de pièces, puis de l'assemblage de composants d'ici 2030. Il embarque 56 degrés de liberté et un gripper tactile avec pouce opposable... en gros, des mains presque humaines. J'aurais préféré qu'ils gardent le modèle acrobate plutôt que de tout miser sur l'ouvrier, parce que le parkour c'est quand même carrément plus fun à regarder, mais bon, c'est pas (encore) moi qui signe les chèques chez Hyundai.

De son côté, le robot Spot a déjà atteint les 19 km/h grâce au même type d'apprentissage par renforcement (contre 5,8 km/h en config d'usine, soit plus du triple). Ça promet pour la version industrielle d'Atlas.

Après je crois me souvenir que le problème sur le Spot c'était pas les moteurs mais les batteries qui ne suivaient plus. Sauf si Hyundai a trouvé une solution côté autonomie, Atlas aura donc le même souci à l'échelle humanoïde... parce que faire un salto c'est rigolo, mais tenir 8h sur une chaîne de montage c'est un autre délire.

Je ne sais pas si vous avez déjà regardé la vidéo mais quand le robot se loupe légèrement sur un atterrissage, il corrige en temps réel avec un micro-repositionnement du pied. Comme un ajustement instinctif... c'est subtil et finalement très... humain.

J'suis pas pressé de me faire courser par ces trucs.

RM 3DP - L'impression 3D qui muscle les robots mous

Par : Korben
10 février 2026 à 09:00

La robotique souple, c'est un peu le Graal pour pas mal de chercheurs. L'idée de fabriquer des machines capables de se faufiler partout ou de manipuler des objets fragiles sans tout casser, ça fait rêver. Sauf que jusqu'à présent, c'était une tannée monumentale à fabriquer. Fallait mouler les pièces, assembler les membranes, sceller les composants... Bref, un boulot de titan pour un résultat parfois imprévisible.

Mais voilà qu'une équipe de Harvard, menée par Jennifer Lewis au sein du Lewis Lab, vient de poser une grosse brique sur l'édifice. Ils ont mis au point une technique baptisée "impression 3D multimatériau rotative" (RM 3DP) qui permet d'encoder la réponse mécanique directement dans la structure. Pour faire simple, au lieu de rajouter des fonctions après coup, vous imprimez une architecture interne qui va dicter comment le robot se déforme une fois sous pression.

Le secret réside dans une buse rotative capable de gérer un placement spatial interne ultra-précis de deux matériaux à la volée. En faisant tourner cette buse pendant l'impression, les chercheurs Jackson Wilt et Natalie Larson arrivent à disposer chaque matériau à l'intérieur du filament déposé (on parle de structures à l'échelle du micron... c'est super minuscule). Et là, c'est un peu comme si vous dessiniez une hélice à l'intérieur d'un tube... mais en 3D et avec des polymères techniques.

Pour la structure, ils utilisent du polyuréthane hyper costaud qui forme une coque durable. Et à l'intérieur, hop, ils injectent un polymère sacrificiel, le poloxamère (qu'on trouve d'ailleurs dans certains produits capillaires), pour remplir les futurs canaux. Une fois que la structure a durci, il suffit de rincer ce gel pour laisser place à des conduits pneumatiques hyper propres. Bon, attention quand même, rincer un gel visqueux dans des canaux microscopiques sans rien péter, ça demande une sacrée maîtrise du process. Mais grâce à ça, ces canaux agissent comme des muscles. Vous envoyez de l'air sous pression dedans et la structure se tord, se plie ou s'étire selon la géométrie prévue au départ.

C'est plutôt chouette car ça permet de passer de la conception à la réalisation en quelques heures au lieu de plusieurs jours. Plus besoin de s'embêter avec des montages complexes, vous ajustez les paramètres de l'imprimante et voilà. Pour la démonstration, ils ont imprimé un actuateur en spirale qui s'ouvre comme une fleur et une pince capable de saisir des objets délicats. Tout ça en un seul processus d'impression continu pour la partie structurelle, même si le post-traitement reste obligatoire pour libérer les canaux.

Perso, c'est assez prometteur par exemple pour le futur de la chirurgie ou pour créer des dispositifs d'assistance qui s'adaptent vraiment au corps humain.

Maintenant, reste à voir la durabilité du bouzin sur des milliers de cycles, mais on n'arrête pas le progrès, comme dirait l'autre.

Source

Boston Dynamics dévoilera la version finale de son robot Atlas lors du CES 2026

9 février 2026 à 08:00
Boston Dynamics dévoilera la version finale de son robot Atlas lors du CES 2026
Boston Dynamics présente au CES 2026 la version prête pour la production de son robot humanoïde Atlas, marquant une étape majeure vers l’intégration de la robotique avancée dans l’industrie et ouvrant de nouvelles perspectives pour l’automatisation des tâches complexes.

Nouvelle gamme Navimow 2026 : des robots plus précis, plus costauds, et (vraiment) plus simples à installer

Par : Cédric
4 février 2026 à 05:10
new product lineups 2 minDécouvrez la nouvelle gamme Segway Navimow 2026 : i2 AWD, i2 LiDAR, i2 LiDAR Pro, H2, X4 et Terranox. Technologies EFLS LiDAR+, Network RTK sans antenne, traction AWD, pentes, surfaces, prix, disponibilité… et surtout quel modèle choisir selon votre jardin.

💾

Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.

Lymow One Plus arrive en France : tonte cyclonique, chenilles de tank et IA embarquée pour ton jardin !

Par : Cédric
3 février 2026 à 08:00
kv21Marre de ton robot tondeuse qui galère à chaque brin d’herbe un peu humide ? 🚫 Fini les câbles chiants, les roues qui patinent et les découpes à la zob. En 2026, Lymow balance un monstre de technologie : le Lymow One Plus, un robot tondeuse sans fil périphérique, dopé à l’IA, au RTK et à des chenilles de tank. Résultat ? Jusqu’à 7 000 m²/jour, des pentes à 45°, et une coupe ultra propre, même dans la jungle. 🌿 Un bijou pour les jardins pas parfaits, les vrais terrains, pas les pelouses de magazine IKEA. Et ça débarque en préco dès février... 🧨

💾

Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.

Incroyable : cette main robotique détachable attrape trois objets à la fois… et se déplace toute seule

Par : Djib's
30 janvier 2026 à 14:58

Une main robotique qui se décroche de son bras, se faufile dans un espace étroit, récupère des objets hors de portée, puis revient se rebrancher comme si de rien n’était : le scénario semble tout droit sorti de la science-fiction. Pourtant, c’est bien l’idée démontrée par une équipe …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Incroyable : cette main robotique détachable attrape trois objets à la fois… et se déplace toute seule est apparu en premier sur KultureGeek.

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Par : Korben
30 janvier 2026 à 08:06

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

Figure AI dévoile Helix 02, une IA qui rapproche le robot humanoïde de l’autonomie totale

28 janvier 2026 à 12:10

La startup américaine Figure AI vient de franchir une étape majeure dans l’histoire de la robotique humanoïde. Avec son nouveau modèle d’intelligence artificielle Helix 02, l’entreprise parvient à unifier locomotion, manipulation et équilibre au sein d’un même système neuronal, ouvrant ainsi la voie à des robots capables d’évoluer …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Figure AI dévoile Helix 02, une IA qui rapproche le robot humanoïde de l’autonomie totale est apparu en premier sur KultureGeek.

Concours Mace Robotics : un Raspberry Pi 5 (et un Pico 2W) à gagner !

Derrière Macé Robotics, Nicolas mêle réparation électronique au composant et conception de cartes pour des besoins professionnels, tout en développant des robots mobiles pour l’éducation et la recherche. On trouve notamment des projets de robots basés sur Raspberry Pi et Raspberry Pi Pico (MRPi1, MR-Pico), accompagnés de contenus et documentations. Dans ce contexte, il organise […]

Cet article Concours Mace Robotics : un Raspberry Pi 5 (et un Pico 2W) à gagner ! a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Qualcomm Dragonwing IQ10 - Le cerveau qui va propulser vos futurs robots

Par : Korben
24 janvier 2026 à 18:52

Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !

Booooh ça fait peur ^^ !

Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.

D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.

Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de robots humanoïdes déployés chez BMW , s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.

Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !

Et le marché ?

Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les Atlas de Boston Dynamics et les ToddlerBot à 250 dollars , la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !

Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.

Source

Un robot humanoïde a appris à parler en regardant YouTube

Par : Korben
19 janvier 2026 à 17:12

Vous êtes du genre à apprendre la guitare sur YouTube ? Bah figurez-vous que les machines font pareil maintenant sauf qu'elles c'est pas les accords de Wonderwall ou de Seven Nation Army qu'elles bossent mais plutôt les expressions faciales.

Et on nage un peu dans la rivière qui coule au fond de l'uncanny valley, faut bien se l'avouer...

En effet, des chercheurs de Columbia Engineering viennent de présenter EMO, un humanoïde capable de synchroniser ses lèvres avec ce qu'il dit, et le plus dingue dans l'histoire c'est comment il a appris à faire ça.

En fait, il se mate dans un miroir tout en regardant des vidéos sur YouTube. Comme nous quoi quand on fait les gros muscles dans le miroir de la salle de bain pour se rassurer rapport à Tibo InShape, sauf que lui c'est pour apprendre à parler et il n'a pas besoin de 47 tentatives pour retenir un truc. Vous me direz, depuis le temps qu'on nous promet des androïdes capables de communiquer naturellement, je pense qu'on a le droit d'être sceptique mais là, y'a un petit truc qui change, vous allez voir...

En fait la bête embarque 26 petits moteurs sous une peau en silicone rien que pour sa tronche et ça lui permet de reproduire des expressions faciales plutôt convaincantes. Le hic c'est que jusqu'ici, ce genre de bidule ressemblait plus à un cauchemar animatronique ou à Bogdanov (paix à leur âme) qu'à autre chose.

Alors pour contrer ça, l'équipe de Hod Lipson au Creative Machines Lab de Columbia a utilisé ce qu'ils appellent une approche VLA (vision-to-action). En gros, EMO s'observe d'abord lui-même pour comprendre comment sa tronche bouge, puis il s'entraîne sur des heures de vidéos pour associer les sons aux mouvements de lèvres correspondants. Un peu comme ces travaux japonais sur l'apprentissage par les émotions mais poussé BEAUCOUP plus loin.

Et c'est scotchant parce qu'EMO peut parler et même chanter en anglais, français, arabe, chinois, japonais, coréen... oui le gars est plus polyglotte que la plupart d'entre nous et l'équipe qui l'a conçu a même sorti un album entier généré par IA et baptisé " Hello World ", où cette petite tête interprète les morceaux avec ses expressions faciales synchronisées.

C'est un peu déroutant c'est vrai mais avouez que c'est FOUFOU nan ?!

Bon, on est pas encore dans "iRobot" non plus, faut pas s'emballer et les sons en "B" et en "W" lui posent encore quelques soucis, parce que la peau en silicone, c'est pas aussi souple que des vraies lèvres... Et cette petite bouille qui vous regarde en chantonnant, ça reste un poil creepy comme un discours de Macron au nouvel an, mais pour une fois, j'ai envie d'y croire les amis ! Parce que ce genre de techno, ça ouvre des portes intéressantes telles que des interfaces naturelles pour les assistants vocaux, des frérots mécaniques moins flippants qu'un sourire d'Elon Pèlon, ou des prothèses faciales animées pour les personnes qui en auraient besoin.

J'ai hâte de voir la suite en tout cas ! Et si vous voulez voir les plus merveilleux robots de Korben info , il suffit de cliquer ici !

Source

H2L a mis au point une capsule sensorielle pour piloter un robot humanoïde à distance

6 janvier 2026 à 09:00
Une capsule pour piloter un robot avec son corps.

Du jamais vu ! L’entreprise tokyoïte H2L a créé une technologie innovante permettant de contrôler à distance un robot humanoïde, baptisée Capsule Interface. L’immersion est hyper-réaliste…

L’article H2L a mis au point une capsule sensorielle pour piloter un robot humanoïde à distance, rédigé par Raharisoa Saholy Tiana, est apparu en premier sur NeozOne.

Framboise314 au Salon Robotik 2025 d’Orchies : le numérique à la portée de tous !

Les 29 et 30 novembre 2025, le Salon Robotik revient à l’Arena d’Orchies pour deux jours entièrement dédiés à la découverte du numérique.L’équipe de Framboise314 sera présente pour partager sa passion du Raspberry Pi, de l’électronique et de la robotique avec petits et grands. Un week-end gratuit, convivial et plein de découvertes technologiques à ne […]

Cet article Framboise314 au Salon Robotik 2025 d’Orchies : le numérique à la portée de tous ! a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Test du robot TPBot EDU Car Kit pour micro:bit par Elecfreaks

Envie de plonger dans la robotique sans prise de tête ? Découvrez le TPBot EDU Car Kit d’Elecfreaks pour micro:bit ! Un robot accessible, ludique et bourré de potentiel, parfait pour petits et grands bidouilleurs. Montage rapide, programmation simple avec MakeCode ou Python, défis variés (suiveur de ligne, évitement d’obstacles…)… Que vous soyez enseignant, parent ou maker […]

Cet article Test du robot TPBot EDU Car Kit pour micro:bit par Elecfreaks a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

❌