Vue normale

Reçu aujourd’hui — 27 janvier 2026

Anthropic transforme Claude en workspace : Slack, Figma, Canva et Asana intégrés via MCP Apps

Jusqu’ici, les assistants IA excellaient surtout dans l’art de produire du texte… et de vous renvoyer vers l’onglet d’à côté pour faire le vrai travail. Anthropic vient précisément s’attaquer à cette friction : Claude peut désormais ouvrir et piloter des applications métiers directement dans l’interface de chat, avec des écrans interactifs plutôt qu’une simple réponse en […]

L’article Anthropic transforme Claude en workspace : Slack, Figma, Canva et Asana intégrés via MCP Apps est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Your connected tools are now interactive inside Claude. Manage projects in Asana, draft messages in Slack, build charts in Amplitude, and create diagrams in ...
Reçu — 24 janvier 2026

Wake - L'outil qui donne de la mémoire à Claude Code

Par :Korben
24 janvier 2026 à 08:11

Vous utilisez Claude Code et vous passez votre temps à copier-coller vos logs de terminal pour lui donner du contexte ? Du genre, vous lancez une commande, ça se plante comme une merde, et là faut expliquer à l'IA ce qui s'est passé en faisant des screenshots ou du copier-coller à la main.

C'est vite relou mais heureusement, c'est totalement le problème que résout Wake , un petit outil en Rust qui enregistre automatiquement tout ce qui se passe dans votre terminal et le donne en offrande sacrée à Claude Code via le protocole MCP. Du coup, plus besoin de jouer les secrétaires IA, puisque Claudo Code, euuh Claude Code peut interroger votre historique de commandes avec les sorties et le contexte git quand il en a besoin.

Au début, vous lancez wake shell et hop, vous êtes dans une session enregistrée. Ensuite toutes vos commandes, leurs sorties, et même les infos de votre repo git, tout est capturé et stocké localement dans une base SQLite bien planquée dans ~/.wake/. Puis quand vous posez une question à Claude Code, il peut aller piocher dans cet historique pour comprendre ce que vous avez fait.

L'installation se fait en une seule ligne (allez lire le script comme d'hab, hein) :

curl -sSf https://raw.githubusercontent.com/joemckenney/wake/main/install.sh | sh

Après faut ajouter l'init dans votre .zshrc ou .bashrc :

eval "$(wake init zsh)"

Et pour brancher ça sur Claude Code :

claude mcp add --transport stdio --scope user wake-mcp -- wake-mcp

Côté commandes, y'a wake log pour voir l'historique récent, wake search "machin truc" pour fouiller dedans, wake dump pour exporter en markdown et wake annotate "note" si vous voulez ajouter des petites marqueurs pour vous y retrouver plus tard. Le stockage reste en local sur votre machine, et les sorties sont limitées à 1 Mo par commande pour éviter de saturer la base.

Donc si vous êtes le genre de gaillard.e sans peur à laisser Claude piloter votre terminal ou à utiliser plusieurs agents en parallèle , c'est le genre d'outil qui peut vraiment vous faire gagner du temps car là où avant fallait tout expliquer à l'IA, maintenant elle voit directement ce que vous avez fait et pourquoi ça a merdé.

Le projet vient de sortir en v0.1.0, donc c'est encore tout frais. Ça supporte zsh et bash pour le moment. Par contre, fish c'est pas encore au programme.

Reçu — 22 janvier 2026

Pipenet – L'alternative moderne à localtunnel

Par :Korben
22 janvier 2026 à 13:31

Si vous avez déjà galéré à rendre accessible votre serveur web local à des testeurs externes... Ne désespérez plus car aujourd'hui, je vais vous présenter Pipenet , un petit utilitaire qui va vous changer la vie !

On a tous connu ce moment où on veut montrer une démo à un client ou tester un webhook et en général c'est à ce moment là que le drame se produit ! Configuration de la box, pare-feu qui fait la tête, redirection de ports qui ne veut rien savoir... Grosso merdo c'est la fin de votre productivité pour la matinée !

Mais grâce à l'équipe de glama.ai qui a codé cette alternative au bon vieux localtunnel, vous allez pouvoir exposer vos services locaux sur Internet en un clin d'œil. Et ce qui est cool c'est que contrairement à d'autres solutions qui deviennent vite limitées ou payantes, Pipenet vous laisse un contrôle total ! C'est ça la pwouiiiissance du logiciel libre !

Pour ceux qui se demandent ce qu'est exactement un tunnel TCP, c'est simplement un pont entre votre machine et le reste du monde !

Mais attention ! La sécurité (chiffrement et auth) dépend de la configuration ! Ça tombe bien puisque Pipenet supporte bien sûr le HTTPS et possède des options pour sécuriser votre propre serveur !

Il fait ça particulièrement bien en utilisant une architecture client et serveur. Vous pouvez donc utiliser leur serveur public par défaut (pipenet.dev) ou carrément héberger votre propre infrastructure de tunneling ! C’est top pour la confidentialité si vous pouvez l'auto-héberger !

Pour l'install, si vous avez Node.js, une simple commande suffit pour commencer à exposer votre port 3000 !

npx pipenet client --port 3000

Et voilà, votre application devient alors accessible via https://abc123.pipenet.dev.

C'est aussi simple que ça ! Et si vous voulez un sous-domaine spécifique (parce que c'est plus classe), il suffit de leur demander (sous réserve de disponibilité évidemment) !

Mais là où Pipenet se démarque vraiment par rapport à la concurrence, c'est son approche pensée pour les environnements cloud ! Il supporte par exemple le multiplexage sur un seul port (via l'option --tunnel-port) ce qui est top pour les déploiements sur des plateformes comme Fly.io ou dans des conteneurs Docker où la gestion des ports peut vite devenir casse bonbon !

Vous pouvez même l'intégrer directement dans vos propres outils grâce à son API et c'est d'ailleurs ce qu'a fait glama.ai avec son outil mcp-proxy pour connecter des serveurs MCP locaux avec des clients IA distants ! Et si vous voulez savoir si Pipenet supporte le streaming ou les WebSockets... Hé bien la réponse est oui !

Ce petit pépère gère le trafic basé sur HTTP, y compris le SSE , donc pour tout ce qui est streaming et connexions full duplex WebSocket, c'est OK.

Pipenet est l'évolution moderne des outils comme Pagekite ou localtunnel et c'est un choix excellent pour la plupart des usages que je viens d'évoquer !

Amusez-vous bien !

Source

Reçu — 13 janvier 2026

Anthropic lance Cowork - Claude devient un vrai délégateur d'agents IA

Par :Korben
13 janvier 2026 à 09:27

Anthropic fait parler de lui avec ses recherches sur l'IA ! D'abord avec son protocole MCP qui connecte Claude à nos données (ce truc est incroyable !), et maintenant avec Cowork, un système qui laisse carrément des agents IA travailler en autonomie.

Et là, on passe enfin des mots à l'action.

Voilà le concept que je vais essayer de vous expliquer clairement... Cowork en fait, c'est une nouvelle fonctionnalité dans Claude Desktop (macOS uniquement pour le moment, hein) qui permet à Claude de travailler en autonomie sur des tâches complexes. Vous lui donnez un objectif, et hop, il se débrouille en coordonnant des sous-tâches en parallèle, un peu comme s'il déléguait en interne à plusieurs spécialistes.

L'interface Cowork dans Claude Desktop - un nouvel onglet dédié à la gestion autonome des tâches ( Source )

Vous définissez une tâche (genre "analyser ce dataset et créer un rapport"), et Claude gère tout en parallèle. Il peut fouiller dans vos fichiers locaux via MCP, coder une solution, tester le code... tout ça de manière coordonnée. Du coup, au lieu de faire tout ça à la main en jonglant entre plusieurs onglets Claude, vous avez un assistant qui sait déléguer en interne.

Et le truc qui me plaît perso, c'est qu'Anthropic continue dans sa logique d'ouverture. Avec MCP , ils avaient déjà montré qu'ils misaient sur la connexion aux données plutôt que sur la puissance brute. Mais là, ils vont encore plus loin puisque Claude peut utiliser les mêmes outils MCP que vous, accéder aux mêmes ressources, et s'interconnecter avec votre workflow existant.

Exemple d'artefact généré par Cowork - une visualisation de données créée automatiquement ( Source )

Bon, y'a encore du boulot évidemment et comme je le vous disais, pour l'instant c'est limité à macOS, et bien sûr faut quand même comprendre comment ça marche pour bien l'utiliser. N'oubliez pas que Claude peut encore se faire rouler comme un bleu si on ne lui donne pas des instructions claires. Et puis, décomposer une tâche complexe, ça demande des instructions précises. Donc un humain !

Mais l'idée est vraiment chouette car à la d'un assistant IA qui vous répond gentiment, vous avez maintenant un assistant qui sait déléguer en interne et gérer plusieurs choses à la fois. Ça me rappelle un peu les recherches d'Anthropic sur le fonctionnement interne de Claude ... ils comprennent enfin mieux leur outil, et peuvent maintenant le rendent utilisable pour des cas concrets.

Bref, si vous avez un Mac et un compte Claude, vous pouvez déjà tester Cowork. C'est clairement une brique de plus dans l'approche "IA pragmatique" d'Anthropic avec moins de hype sur les capacités futures, mais plus de focus sur ce qui marche aujourd'hui.

Source

Reçu — 9 décembre 2025
Reçu — 8 décembre 2025
Reçu — 3 décembre 2025
Reçu — 25 novembre 2025

Plus asynchrone, plus interactif… Les évolutions en cours du protocole MCP

25 novembre 2025 à 13:40

Grâce à MCP, les applications viennent à ChatGPT.

C’est le principe de l’Apps SDK actuellement en preview chez OpenAI. Il permet de fournir des interfaces interactives par l’intermédiaire des serveurs qui utilisent ce protocole.

Le projet MCP-UI, emmené par des ingénieurs de Palo Alto Networks et de Shopify, a la même philosophie.

Voilà que les deux initiatives convergent – avec Anthropic dans la boucle – afin de créer une extension officielle pour MCP. Promesse : pouvoir déclarer des ressources UI, les lier à des outils, les embarquer dans une application, puis gérer la communication bidirectionnelle avec celle-ci. Et éviter ainsi d’avoir à implémenter trop de logique côté client (par exemple pour le rendu d’un graphe à partir de JSON).

L’extension « Applications MCP », telle qu’envisagée, sépare templates et données pour une mise en cache plus efficace. Elle permet aux applications hôtes de contrôler les templates avant de les exécuter. Les communications se font sur JSON-RPC et sont donc auditables. La spec initiale ne gère que le contenu text/html, affiché dans des iframes isolés (sandbox).

Un protocole plus asynchrone

Il fut, pendant un temps, question de publier une nouvelle version de la spécification MCP ce 25 novembre 2025 – soit un an tout juste après l’ouverture du protocole à la communauté. On en est finalement à la release candidate… qui donne cependant une bonne idée des évolutions à venir.

Par rapport à la version précédente (18 juin), on progresse sur la gestion des opérations asynchrones. Une primitive expérimentale « tâche » avec un système d’identifiant a effectivement été ajoutée. En l’interrogeant, on peut, d’une part, suivre l’état d’une tâche exécutée en arrière-plan. De l’autre, accéder aux résultats « en différé », pendant une durée définie par le serveur. L’ancienne et la nouvelle sémantiques sont gérées sur une même méthode RPC.

Du progrès, il y en a aussi sur la découverte de serveurs d’autorisation. La gestion d’OpenID Connect Discovery 1.0 vient compléter celle des métadonnées OAuth 2.0. En parallèle, la stratégie de sélection du champ d’application (scope) est structurée à travers l’en-tête WWW-Authenticate, sur le principe du moindre privilège. Et la spec permet aux clients OAuth d’héberger leurs métadonnées (document JSON) sur une URL HTTPS afin de pouvoir fonctionner avec des serveurs d’autorisation vis-à-vis desquels il n’existe pas de relation préalable.

La version précédente de la spécification avait introduit de quoi envoyer des informations non sensibles par un mécanisme de type formulaire. La nouvelle version vient couvrir la transmission de données sensibles (secrets, opérations de paiement…) avec un mode hors bande fondé sur des URL de confiance qui s’ouvrent dans le navigateur. Avec lui, il n’y a pas besoin d’exposer d’éléments dans le client MCP.

On aura aussi noté la prise en charge des schémas d’énumération à choix multiple, l’ajout d’une convention de nommage des outils et la possibilité d’associer des icônes aux ressources serveur (outils, templates, prompts…).

Vers des « extensions officielles »

Pour favoriser les implémentations sectorielles et/ou adaptées à des cas d’usage, MCP va reconnaître et documenter les plus populaires, en tant qu' »extensions officielles ».

En attendant, le projet en absorbe un autre : MCPB (MCP Bundle). Ce format simplifie la distribution de serveurs locaux et leur installation sur tout client compatible. Il utilise des archives zip combinant un serveur (Node.js, Python ou binaires compilés) et son manifeste, sur un principe similaire à celui des extensions Chrome ou VS Code.

Anthropic est à l’origine de MCPB (ex-DXT, Desktop Extensions), d’abord utilisé exclusivement sur les apps de bureau Claude. Il a décidé d’en ouvrir la spec, l’outillage CLI associé et une implémentation de référence (code utilisé par l’app Claude pour Windows et Mac afin de charger et vérifier des bundles).

Des travaux sont également en cours pour conjuguer stateless et scalabilité. Le protocole Streamable HTTP a apporté une réponse partielle, des problèmes demeurant notamment sur la gestion des sessions.

Illustration générée par IA

The post Plus asynchrone, plus interactif… Les évolutions en cours du protocole MCP appeared first on Silicon.fr.

Reçu — 12 septembre 2025
❌