Vue normale

Qualcomm Dragonwing IQ10 - Le cerveau qui va propulser vos futurs robots

Par : Korben
24 janvier 2026 à 18:52

Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !

Booooh ça fait peur ^^ !

Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.

D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.

Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de robots humanoïdes déployés chez BMW , s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.

Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !

Et le marché ?

Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les Atlas de Boston Dynamics et les ToddlerBot à 250 dollars , la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !

Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.

Source

Un robot humanoïde a appris à parler en regardant YouTube

Par : Korben
19 janvier 2026 à 17:12

Vous êtes du genre à apprendre la guitare sur YouTube ? Bah figurez-vous que les machines font pareil maintenant sauf qu'elles c'est pas les accords de Wonderwall ou de Seven Nation Army qu'elles bossent mais plutôt les expressions faciales.

Et on nage un peu dans la rivière qui coule au fond de l'uncanny valley, faut bien se l'avouer...

En effet, des chercheurs de Columbia Engineering viennent de présenter EMO, un humanoïde capable de synchroniser ses lèvres avec ce qu'il dit, et le plus dingue dans l'histoire c'est comment il a appris à faire ça.

En fait, il se mate dans un miroir tout en regardant des vidéos sur YouTube. Comme nous quoi quand on fait les gros muscles dans le miroir de la salle de bain pour se rassurer rapport à Tibo InShape, sauf que lui c'est pour apprendre à parler et il n'a pas besoin de 47 tentatives pour retenir un truc. Vous me direz, depuis le temps qu'on nous promet des androïdes capables de communiquer naturellement, je pense qu'on a le droit d'être sceptique mais là, y'a un petit truc qui change, vous allez voir...

En fait la bête embarque 26 petits moteurs sous une peau en silicone rien que pour sa tronche et ça lui permet de reproduire des expressions faciales plutôt convaincantes. Le hic c'est que jusqu'ici, ce genre de bidule ressemblait plus à un cauchemar animatronique ou à Bogdanov (paix à leur âme) qu'à autre chose.

Alors pour contrer ça, l'équipe de Hod Lipson au Creative Machines Lab de Columbia a utilisé ce qu'ils appellent une approche VLA (vision-to-action). En gros, EMO s'observe d'abord lui-même pour comprendre comment sa tronche bouge, puis il s'entraîne sur des heures de vidéos pour associer les sons aux mouvements de lèvres correspondants. Un peu comme ces travaux japonais sur l'apprentissage par les émotions mais poussé BEAUCOUP plus loin.

Et c'est scotchant parce qu'EMO peut parler et même chanter en anglais, français, arabe, chinois, japonais, coréen... oui le gars est plus polyglotte que la plupart d'entre nous et l'équipe qui l'a conçu a même sorti un album entier généré par IA et baptisé " Hello World ", où cette petite tête interprète les morceaux avec ses expressions faciales synchronisées.

C'est un peu déroutant c'est vrai mais avouez que c'est FOUFOU nan ?!

Bon, on est pas encore dans "iRobot" non plus, faut pas s'emballer et les sons en "B" et en "W" lui posent encore quelques soucis, parce que la peau en silicone, c'est pas aussi souple que des vraies lèvres... Et cette petite bouille qui vous regarde en chantonnant, ça reste un poil creepy comme un discours de Macron au nouvel an, mais pour une fois, j'ai envie d'y croire les amis ! Parce que ce genre de techno, ça ouvre des portes intéressantes telles que des interfaces naturelles pour les assistants vocaux, des frérots mécaniques moins flippants qu'un sourire d'Elon Pèlon, ou des prothèses faciales animées pour les personnes qui en auraient besoin.

J'ai hâte de voir la suite en tout cas ! Et si vous voulez voir les plus merveilleux robots de Korben info , il suffit de cliquer ici !

Source

Deep-Boo – Le robot qui déchire tout à Mario Party

Par : Korben
13 janvier 2026 à 13:47

Voici un projet open source qui risque de faire vibrer votre fibre de geek !

Prénommé Deep-Boo, ce robot joueur de Mario Party taillé comme Tibo In Shape est capable de manipuler physiquement une manette pour exploser ses adversaires.

Son créateur, Josh Mosier, a présenté ce petit bijou à l' Open Sauce 2025 et vous allez voir, c'est aussi bien pensé que c'est fun.

Le robot Deep-Boo prêt à en découdre ( Source )

En fait, Deep-Boo ne se contente pas de tricher uniquement via du code car c'est un vrai automate physique qui "voit" l'écran grâce à une carte de capture HDMI et réagit ainsi presque instantanément à ce qui se passe. Pour arriver à cela, Josh a utilisé OpenCV pour analyser les formes et les couleurs en 720p / 60 FPS. Cela permet au robot de détecter les moments cruciaux du gameplay, comme les compte à rebours ou les positions des joueurs.

Côté matériel, on est sur de la bidouille high level puisque l'automate de Josh embarque un microcontrôleur ESP32 qui pilote 12 solénoïdes pour presser les boutons A, B, X, Y et les gâchettes. Mais le vrai défi, c'était le joystick car pour contrôler les mouvements à 360°, il a fallu concevoir un manipulateur parallèle sphérique (SPM) avec des moteurs pas à pas NEMA 17.

L'architecture complexe du manipulateur de joystick ( Source )

Et là où ça devient vraiment impressionnant, c’est son utilisation de la fonction StallGuard des drivers TMC2209. Ça permet de calibrer les moteurs sans interrupteurs physiques en détectant quand le joystick arrive en butée. C’est pas idiot et ça offre une sacrée précision pour les mini-jeux qui demandent de la finesse.

Josh a même prévu un "Puppet System" c'est à dire un troisième Joy-Con connecté en Bluetooth à l'ESP32 pour reprendre la main manuellement si besoin. C’est un peu comme Mario Party en carton mais avec des muscles en métal et un cerveau dopé à la vision intelligente.

Le stand Deep-Boo a attiré les foules à l'Open Sauce 2025 ( Source )

Lors de l'évènement, le petit fantôme mécanique a même défié Ludwig , le célèbre streameur, au jeu de "button mashing" Domination.

Et sans surprise, notre petit robot l'a complétement fumé avec un score de 99 !

Voilà et comme vous connaissez mon amour pour le DIY, vous vous doutez bien que je ne vais pas vous laisser comme ça sur votre faim ! En effet, si vous voulez vous lancer dans la robotique de gaming, tout le code et les fichiers de design sont dispo sur le dépôt GitHub de Josh !

Source

❌