Les robots domestiques peuplent la science-fiction depuis plus d’un siècle, mais dans la réalité, nos tâches ménagères restent largement manuelles (et forcément pénibles). Après les aspirateurs autonomes, une nouvelle étape est peut-être franchie avec Isaac 0, un robot stationnaire dédié exclusivement au pliage du linge. Développé par la …
C’est dans le cadre architectural de la Fondation Miró qu'Ecovacs a réuni près de 200 journalistes pour présenter sa feuille de route 2026. L'événement a marqué une transition stratégique pour la marque : l'ambition n'est plus seulement de nettoyer les sols, mais de proposer un écosystème...
C’est dans le cadre architectural de la Fondation Miró qu'Ecovacs a réuni près de 200 journalistes pour présenter sa feuille de route 2026. L'événement a marqué une transition stratégique pour la marque : l'ambition n'est plus seulement de nettoyer les sols, mais de proposer un écosystème...
Avec le J15 Max Ultra et le FloorShine 460, Eureka transforme le ménage en un duo d’efficacité et de confort. Le robot gère le quotidien, le balai-lavant intervient pour les imprévus. Les deux vous font gagner du temps, de l’énergie et économiser des produits. Un duo pensé pour un intérieur...
Atlas
, le robot humanoïde de Boston Dynamics, vient de faire ses adieux en beauté. Et quand je dis en beauté, c'est salto arrière enchaîné avec une roue... le tout sans se vautrer la gueule. Pas mal pour une machine de 90 kg !
Cette vidéo "Atlas Airborne" publiée il y a quelques jours, c'est en gros le pot de départ de ce modèle de recherche. Celui qui nous a fait halluciner depuis 2013 avec ses
cascades de parkour
et ses backflips, sauf que cette fois, les ingénieurs ont voulu pousser le curseur au maximum avant de ranger le bonhomme au placard.
Les ingés ont bossé avec le
RAI Institute
(le labo fondé par
Marc Raibert
en 2022, après avoir quitté la direction de Boston Dynamics) pour développer un truc qui s'appelle le "whole-body learning". En gros, c'est de l'apprentissage par renforcement appliqué au corps entier du robot, et pas juste aux jambes ou aux bras séparément.
Tout ce qu'Atlas apprend en simulation (via IsaacLab, le framework de Nvidia basé sur Python), il le reproduit alors direct sur le vrai hardware. Y'a besoin d'aucun ajustement et ça s'appelle le "zero-shot transfer"... c'est-à-dire que vous entraînez le robot dans un monde virtuel sur GPU, hop, vous le branchez dans le monde réel et ça marche du premier coup. Bon, "du premier coup" c'est la théorie évidemment, car pratique, ça plante probablement 3 fois sur 10, sauf que la vidéo promo ne montre pas les gamelles.
Le plus tordu dans l'histoire, c'est que cette même techno qui lui permet de faire des acrobaties est celle qui lui donne sa démarche naturelle (celle qui a été primée "Best Robot" au CES en janvier). Un seul framework pour tout, de la roulade au rangement de cartons, c'est dingue quand même !
Et pendant que la version recherche fait le show, l'autre Atlas, le nouveau, se prépare à
rentrer à l'usine
. D'après Hyundai, le bestiau devrait débarquer dans leur Metaplant à Savannah en Géorgie d'ici 2028 pour du tri de pièces, puis de l'assemblage de composants d'ici 2030. Il embarque 56 degrés de liberté et un gripper tactile avec pouce opposable... en gros, des mains presque humaines. J'aurais préféré qu'ils gardent le modèle acrobate plutôt que de tout miser sur l'ouvrier, parce que le parkour c'est quand même carrément plus fun à regarder, mais bon, c'est pas (encore) moi qui signe les chèques chez Hyundai.
De son côté, le robot Spot a déjà atteint les 19 km/h grâce au même type d'apprentissage par renforcement (contre 5,8 km/h en config d'usine, soit plus du triple). Ça promet pour la version industrielle d'Atlas.
Après je crois me souvenir que le problème sur le Spot c'était pas les moteurs mais les batteries qui ne suivaient plus. Sauf si Hyundai a trouvé une solution côté autonomie, Atlas aura donc le même souci à l'échelle humanoïde... parce que faire un salto c'est rigolo, mais tenir 8h sur une chaîne de montage c'est un autre délire.
Je ne sais pas si vous avez déjà regardé la vidéo mais quand le robot se loupe légèrement sur un atterrissage, il corrige en temps réel avec un micro-repositionnement du pied. Comme un ajustement instinctif... c'est subtil et finalement très... humain.
J'suis pas pressé de me faire courser par ces trucs.
La robotique souple, c'est un peu le Graal pour pas mal de chercheurs. L'idée de fabriquer des machines capables de se faufiler partout ou de manipuler des objets fragiles sans tout casser, ça fait rêver. Sauf que jusqu'à présent, c'était une tannée monumentale à fabriquer. Fallait mouler les pièces, assembler les membranes, sceller les composants... Bref, un boulot de titan pour un résultat parfois imprévisible.
Mais voilà qu'une équipe de Harvard, menée par Jennifer Lewis au sein du Lewis Lab, vient de poser une grosse brique sur l'édifice. Ils ont mis au point une technique baptisée "impression 3D multimatériau rotative" (RM 3DP) qui permet d'encoder la réponse mécanique directement dans la structure. Pour faire simple, au lieu de rajouter des fonctions après coup, vous imprimez une architecture interne qui va dicter comment le robot se déforme une fois sous pression.
Le secret réside dans une buse rotative capable de gérer un placement spatial interne ultra-précis de deux matériaux à la volée. En faisant tourner cette buse pendant l'impression, les chercheurs Jackson Wilt et Natalie Larson arrivent à disposer chaque matériau à l'intérieur du filament déposé (on parle de structures à l'échelle du micron... c'est super minuscule). Et là, c'est un peu comme si vous dessiniez une hélice à l'intérieur d'un tube... mais en 3D et avec des polymères techniques.
Pour la structure, ils utilisent du polyuréthane hyper costaud qui forme une coque durable. Et à l'intérieur, hop, ils injectent un polymère sacrificiel, le poloxamère (qu'on trouve d'ailleurs dans certains produits capillaires), pour remplir les futurs canaux. Une fois que la structure a durci, il suffit de rincer ce gel pour laisser place à des conduits pneumatiques hyper propres. Bon, attention quand même, rincer un gel visqueux dans des canaux microscopiques sans rien péter, ça demande une sacrée maîtrise du process. Mais grâce à ça, ces canaux agissent comme des muscles. Vous envoyez de l'air sous pression dedans et la structure se tord, se plie ou s'étire selon la géométrie prévue au départ.
C'est plutôt chouette car ça permet de passer de la conception à la réalisation en quelques heures au lieu de plusieurs jours. Plus besoin de s'embêter avec des montages complexes, vous ajustez les paramètres de l'imprimante et voilà. Pour la démonstration, ils ont imprimé un actuateur en spirale qui s'ouvre comme une fleur et une pince capable de saisir des objets délicats. Tout ça en un seul processus d'impression continu pour la partie structurelle, même si le post-traitement reste obligatoire pour libérer les canaux.
Perso, c'est assez prometteur par exemple pour le futur de la chirurgie ou pour créer des dispositifs d'assistance qui s'adaptent vraiment au corps humain.
Maintenant, reste à voir la durabilité du bouzin sur des milliers de cycles, mais on n'arrête pas le progrès, comme dirait l'autre.
Boston Dynamics présente au CES 2026 la version prête pour la production de son robot humanoïde Atlas, marquant une étape majeure vers l’intégration de la robotique avancée dans l’industrie et ouvrant de nouvelles perspectives pour l’automatisation des tâches complexes.
Les 14 et 15 février 2026, je vous donne rendez-vous à Vitré pour le salon Tech Inn’Vitré (Usages numériques), organisé par Vitré Communauté et Makeme. Deux jours pour découvrir des usages concrets du numérique, tester, manipuler… et surtout échanger “en vrai” ! . Tech Inn’Vitré 2026 : rendez-vous les 14 & 15 février au Centre […]
Sur les flancs de l’Etna, des chercheurs de l’ETH Zurich ont testé un robot quadrupède capable d’analyser les émissions volcaniques au plus près des zones à risque, en toute autonomie.
Découvrez la nouvelle gamme Segway Navimow 2026 : i2 AWD, i2 LiDAR, i2 LiDAR Pro, H2, X4 et Terranox. Technologies EFLS LiDAR+, Network RTK sans antenne, traction AWD, pentes, surfaces, prix, disponibilité… et surtout quel modèle choisir selon votre jardin.
Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.
Marre de ton robot tondeuse qui galère à chaque brin d’herbe un peu humide ? 🚫 Fini les câbles chiants, les roues qui patinent et les découpes à la zob. En 2026, Lymow balance un monstre de technologie : le Lymow One Plus, un robot tondeuse sans fil périphérique, dopé à l’IA, au RTK et à des chenilles de tank. Résultat ? Jusqu’à 7 000 m²/jour, des pentes à 45°, et une coupe ultra propre, même dans la jungle. 🌿
Un bijou pour les jardins pas parfaits, les vrais terrains, pas les pelouses de magazine IKEA. Et ça débarque en préco dès février... 🧨
Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.
La SunFounder Fusion HAT+ ressemble à un simple HAT pour Raspberry Pi… jusqu’au moment où vous réalisez que c’est plutôt un couteau suisse pour robot “assisté par IA”. Elle ne “fait” pas l’IA toute seule : les neurones restent sur le Raspberry Pi (un Pi 5 dans mon cas), mais la carte apporte le muscle […]
Une main robotique qui se décroche de son bras, se faufile dans un espace étroit, récupère des objets hors de portée, puis revient se rebrancher comme si de rien n’était : le scénario semble tout droit sorti de la science-fiction. Pourtant, c’est bien l’idée démontrée par une équipe …
Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?
Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.
Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.
Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.
Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.
En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.
C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.
Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.
D'ailleurs, si vous suivez un peu l'actu des
robots humanoïdes
, vous savez que la concurrence est rude notamment avec l'
Optimus de Tesla
. Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !
Et pour nous les bidouilleurs dans tout ça ?
Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !
Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).
La startup américaine Figure AI vient de franchir une étape majeure dans l’histoire de la robotique humanoïde. Avec son nouveau modèle d’intelligence artificielle Helix 02, l’entreprise parvient à unifier locomotion, manipulation et équilibre au sein d’un même système neuronal, ouvrant ainsi la voie à des robots capables d’évoluer …
Derrière Macé Robotics, Nicolas mêle réparation électronique au composant et conception de cartes pour des besoins professionnels, tout en développant des robots mobiles pour l’éducation et la recherche. On trouve notamment des projets de robots basés sur Raspberry Pi et Raspberry Pi Pico (MRPi1, MR-Pico), accompagnés de contenus et documentations. Dans ce contexte, il organise […]
Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !
Booooh ça fait peur ^^ !
Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.
D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.
Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de
robots humanoïdes déployés chez BMW
, s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.
Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !
Et le marché ?
Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les
Atlas de Boston Dynamics
et les
ToddlerBot à 250 dollars
, la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !
Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.
Vous êtes du genre à apprendre la guitare sur YouTube ? Bah figurez-vous que les machines font pareil maintenant sauf qu'elles c'est pas les accords de Wonderwall ou de Seven Nation Army qu'elles bossent mais plutôt les expressions faciales.
Et on nage un peu dans la rivière qui coule au fond de l'uncanny valley, faut bien se l'avouer...
En effet, des chercheurs de Columbia Engineering viennent de présenter EMO, un humanoïde capable de synchroniser ses lèvres avec ce qu'il dit, et le plus dingue dans l'histoire c'est comment il a appris à faire ça.
En fait, il se mate dans un miroir tout en regardant des vidéos sur YouTube. Comme nous quoi quand on fait les gros muscles dans le miroir de la salle de bain pour se rassurer rapport à Tibo InShape, sauf que lui c'est pour apprendre à parler et il n'a pas besoin de 47 tentatives pour retenir un truc. Vous me direz, depuis le temps qu'on nous promet des androïdes capables de communiquer naturellement, je pense qu'on a le droit d'être sceptique mais là, y'a un petit truc qui change, vous allez voir...
En fait la bête embarque 26 petits moteurs sous une peau en silicone rien que pour sa tronche et ça lui permet de reproduire des expressions faciales plutôt convaincantes. Le hic c'est que jusqu'ici, ce genre de bidule ressemblait plus à un cauchemar animatronique ou à Bogdanov (paix à leur âme) qu'à autre chose.
Alors pour contrer ça, l'équipe de Hod Lipson au Creative Machines Lab de Columbia a utilisé ce qu'ils appellent une approche VLA (vision-to-action). En gros, EMO s'observe d'abord lui-même pour comprendre comment sa tronche bouge, puis il s'entraîne sur des heures de vidéos pour associer les sons aux mouvements de lèvres correspondants. Un peu comme
ces travaux japonais sur l'apprentissage par les émotions
mais poussé BEAUCOUP plus loin.
Et c'est scotchant parce qu'EMO peut parler et même chanter en anglais, français, arabe, chinois, japonais, coréen... oui le gars est plus polyglotte que la plupart d'entre nous et l'équipe qui l'a conçu a même sorti un album entier généré par IA et baptisé "Hello World", où cette petite tête interprète les morceaux avec ses expressions faciales synchronisées.
C'est un peu déroutant c'est vrai mais avouez que c'est FOUFOU nan ?!
Bon, on est pas encore dans "iRobot" non plus, faut pas s'emballer et les sons en "B" et en "W" lui posent encore quelques soucis, parce que la peau en silicone, c'est pas aussi souple que des vraies lèvres... Et cette petite bouille qui vous regarde en chantonnant, ça reste un poil creepy comme un discours de Macron au nouvel an, mais pour une fois, j'ai envie d'y croire les amis ! Parce que ce genre de techno, ça ouvre des portes intéressantes telles que des interfaces naturelles pour les assistants vocaux, des frérots mécaniques moins flippants qu'un sourire d'Elon Pèlon, ou des prothèses faciales animées pour les personnes qui en auraient besoin.
Du jamais vu ! L’entreprise tokyoïte H2L a créé une technologie innovante permettant de contrôler à distance un robot humanoïde, baptisée Capsule Interface. L’immersion est hyper-réaliste…