Facebook annonce de nouvelles fonctions utilisant l’intelligence artificielle Meta AI pour rendre l’expression plus simple via la photo de profil, les autres photos, le fil d’actualité et les stories. Le changement mis en avant par le réseau social est la possibilité d’animer votre photo de profil avec l’IA, …
Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.
Mais c'était sans compter sur
Companion
, un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une
app desktop native
, y'a aussi Opcode qui fait le taf.
Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de
plugin de sécurité
(on vous aura prévenus).
Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.
Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.
Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (même si Anthropic vient d'
ouvrir pas mal d'outils aux gratuits
).
Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :
bunx the-vibe-companion
Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer
Tailscale
(ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.
Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du
protocole MCP
d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.
Le froid impacte le fonctionnement des véhicules électriques. Pour en mesurer les effets réels sur l’autonomie et la recharge des voitures, la Fédération Automobile Norvégienne (NAF) a organisé un test de performances dans les conditions extrêmes des routes nordiques. De quoi jeter un léger froid sur les promesses des constructeurs.
Atlas
, le robot humanoïde de Boston Dynamics, vient de faire ses adieux en beauté. Et quand je dis en beauté, c'est salto arrière enchaîné avec une roue... le tout sans se vautrer la gueule. Pas mal pour une machine de 90 kg !
Cette vidéo "Atlas Airborne" publiée il y a quelques jours, c'est en gros le pot de départ de ce modèle de recherche. Celui qui nous a fait halluciner depuis 2013 avec ses
cascades de parkour
et ses backflips, sauf que cette fois, les ingénieurs ont voulu pousser le curseur au maximum avant de ranger le bonhomme au placard.
Les ingés ont bossé avec le
RAI Institute
(le labo fondé par
Marc Raibert
en 2022, après avoir quitté la direction de Boston Dynamics) pour développer un truc qui s'appelle le "whole-body learning". En gros, c'est de l'apprentissage par renforcement appliqué au corps entier du robot, et pas juste aux jambes ou aux bras séparément.
Tout ce qu'Atlas apprend en simulation (via IsaacLab, le framework de Nvidia basé sur Python), il le reproduit alors direct sur le vrai hardware. Y'a besoin d'aucun ajustement et ça s'appelle le "zero-shot transfer"... c'est-à-dire que vous entraînez le robot dans un monde virtuel sur GPU, hop, vous le branchez dans le monde réel et ça marche du premier coup. Bon, "du premier coup" c'est la théorie évidemment, car pratique, ça plante probablement 3 fois sur 10, sauf que la vidéo promo ne montre pas les gamelles.
Le plus tordu dans l'histoire, c'est que cette même techno qui lui permet de faire des acrobaties est celle qui lui donne sa démarche naturelle (celle qui a été primée "Best Robot" au CES en janvier). Un seul framework pour tout, de la roulade au rangement de cartons, c'est dingue quand même !
Et pendant que la version recherche fait le show, l'autre Atlas, le nouveau, se prépare à
rentrer à l'usine
. D'après Hyundai, le bestiau devrait débarquer dans leur Metaplant à Savannah en Géorgie d'ici 2028 pour du tri de pièces, puis de l'assemblage de composants d'ici 2030. Il embarque 56 degrés de liberté et un gripper tactile avec pouce opposable... en gros, des mains presque humaines. J'aurais préféré qu'ils gardent le modèle acrobate plutôt que de tout miser sur l'ouvrier, parce que le parkour c'est quand même carrément plus fun à regarder, mais bon, c'est pas (encore) moi qui signe les chèques chez Hyundai.
De son côté, le robot Spot a déjà atteint les 19 km/h grâce au même type d'apprentissage par renforcement (contre 5,8 km/h en config d'usine, soit plus du triple). Ça promet pour la version industrielle d'Atlas.
Après je crois me souvenir que le problème sur le Spot c'était pas les moteurs mais les batteries qui ne suivaient plus. Sauf si Hyundai a trouvé une solution côté autonomie, Atlas aura donc le même souci à l'échelle humanoïde... parce que faire un salto c'est rigolo, mais tenir 8h sur une chaîne de montage c'est un autre délire.
Je ne sais pas si vous avez déjà regardé la vidéo mais quand le robot se loupe légèrement sur un atterrissage, il corrige en temps réel avec un micro-repositionnement du pied. Comme un ajustement instinctif... c'est subtil et finalement très... humain.
J'suis pas pressé de me faire courser par ces trucs.
Le tout premier produit matériel d’OpenAI, imaginé par l’ancien designer emblématique d’Apple Jony Ive, ne sera finalement pas commercialisé avant 2027. Selon de récents documents judiciaires, l’appareil, qui était initialement attendu pour la fin de l’année 2026, ne devrait pas arriver chez les consommateurs avant février 2027. Ce …
Meta n’essaie plus seulement d’avoir un bon modèle : l’entreprise veut une plateforme d’assistant — capable d’agir, de se souvenir, et surtout de se brancher sur votre quotidien. Un récent lifting du site Meta AI, repéré par TestingCatalog, laisse entrevoir une feuille de route ambitieuse : connexion à des services comme Google Agenda et Outlook, nouveaux modes […]