Vue lecture

Claude Cowork – Quand l'IA d'Anthropic se fait exfiltrer vos fichiers

Ah, encore une merveilleuse petite faille de sécurité qui va ravir tous les paranos de la vie privée et les anti-IA ^^ ! Johann Rehberger et l'équipe de PromptArmor viennent de démontrer comment Claude Cowork , l'agent IA d'Anthropic censé vous simplifier la vie au bureau, peut se transformer en aspirateur à fichiers personnels.

J'imagine que si vous l'avez testé, vous avez un dossier connecté à Claude Cowork pour qu'il vous aide à analyser vos documents ? Parfait. Il suffit maintenant qu'un petit malin glisse un fichier Word contenant des instructions cachées, et hop hop hop, vos précieux fichiers partent se balader sur un serveur distant sans que vous n'ayez rien vu venir.

En fait, le fichier piégé contient du texte invisible pour l'œil humain, mais parfaitement lisible par l'IA. Genre une police en taille 1px, de couleur blanche sur fond blanc, avec un interligne de 0,1 histoire d'être vraiment sûr que personne ne le remarque. C'est beau la créativité des hackers, quand même.

Et l'IA, elle, lit tout ça comme si c'était normal et exécute gentiment les instructions malveillantes.

La chaîne d'attaque se déroule en cinq étapes bien huilées. D'abord, l'attaquant dépose son fichier vérolé dans un dossier partagé auquel Claude a accès. Ensuite, il attend qu'un utilisateur demande à l'IA d'analyser le contenu de ce dossier. Claude traite alors le fichier piégé et découvre les instructions cachées. L'IA effectue une requête qui envoie vos fichiers vers l'API Anthropic... sauf que les identifiants utilisés appartiennent à l'attaquant. Vos données atterrissent donc tranquillement dans son compte, sans que vous n'ayez la moindre notification.

Ce qui rend cette attaque particulièrement sournoise, c'est que la sandbox de Claude autorise les requêtes sortantes vers l'API d'Anthropic. Normal, me direz-vous, c'est son propre écosystème. Sauf que du coup, un attaquant bien motivé peut exploiter cette confiance aveugle pour faire transiter des données volées par un canal parfaitement légitime en apparence. Si vous suivez les vulnérabilités des systèmes RAG comme ConfusedPilot , vous reconnaîtrez le même genre de manipulation par injection de contenu.

Et ce n'est pas tout ! Les chercheurs ont également identifié un vecteur potentiel de déni de service. En créant un fichier avec une extension qui ne correspond pas à son contenu réel, genre un fichier texte déguisé en PDF, on peut provoquer des erreurs en cascade qui paralysent l'API de manière persistante.

Sympa pour bloquer un concurrent ou saboter un projet.

Côté modèles affectés, les chercheurs ont démontré la vulnérabilité sur plusieurs versions de Claude, dont Haiku. Bref, c'est du sérieux. Pour ceux qui s'intéressent aux failles de sécurité des assistants IA ou aux techniques de red teaming sur les LLM , cette recherche vaut vraiment le détour.

Anthropic a été notifié et travaille sur des correctifs. En attendant, si vous utilisez Claude Cowork avec des dossiers partagés, méfiez-vous de tout fichier qui pourrait traîner là sans raison apparente. Et la prochaine fois que quelqu'un vous envoie un document "urgent à analyser", prenez peut-être cinq secondes pour vous demander s'il ne cache pas une petite surprise.

Pour en savoir plus c'est par ici !

  •  

Anthropic lance Claude Cowork pour l’automatisation de tâches avec l’IA

Anthropic lance Cowork, une déclinaison simplifiée de Claude Code intégrée à l’application Claude sur ordinateur, permettant aux utilisateurs non techniques d’automatiser des tâches en désignant simplement un dossier de travail. L’outil répond à la demande croissante d’utilisateurs qui détournaient Claude Code pour des usages non liés à la …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Anthropic lance Claude Cowork pour l’automatisation de tâches avec l’IA est apparu en premier sur KultureGeek.

  •  

Anthropic lance Cowork - Claude devient un vrai délégateur d'agents IA

Anthropic fait parler de lui avec ses recherches sur l'IA ! D'abord avec son protocole MCP qui connecte Claude à nos données (ce truc est incroyable !), et maintenant avec Cowork, un système qui laisse carrément des agents IA travailler en autonomie.

Et là, on passe enfin des mots à l'action.

Voilà le concept que je vais essayer de vous expliquer clairement... Cowork en fait, c'est une nouvelle fonctionnalité dans Claude Desktop (macOS uniquement pour le moment, hein) qui permet à Claude de travailler en autonomie sur des tâches complexes. Vous lui donnez un objectif, et hop, il se débrouille en coordonnant des sous-tâches en parallèle, un peu comme s'il déléguait en interne à plusieurs spécialistes.

L'interface Cowork dans Claude Desktop - un nouvel onglet dédié à la gestion autonome des tâches ( Source )

Vous définissez une tâche (genre "analyser ce dataset et créer un rapport"), et Claude gère tout en parallèle. Il peut fouiller dans vos fichiers locaux via MCP, coder une solution, tester le code... tout ça de manière coordonnée. Du coup, au lieu de faire tout ça à la main en jonglant entre plusieurs onglets Claude, vous avez un assistant qui sait déléguer en interne.

Et le truc qui me plaît perso, c'est qu'Anthropic continue dans sa logique d'ouverture. Avec MCP , ils avaient déjà montré qu'ils misaient sur la connexion aux données plutôt que sur la puissance brute. Mais là, ils vont encore plus loin puisque Claude peut utiliser les mêmes outils MCP que vous, accéder aux mêmes ressources, et s'interconnecter avec votre workflow existant.

Exemple d'artefact généré par Cowork - une visualisation de données créée automatiquement ( Source )

Bon, y'a encore du boulot évidemment et comme je le vous disais, pour l'instant c'est limité à macOS, et bien sûr faut quand même comprendre comment ça marche pour bien l'utiliser. N'oubliez pas que Claude peut encore se faire rouler comme un bleu si on ne lui donne pas des instructions claires. Et puis, décomposer une tâche complexe, ça demande des instructions précises. Donc un humain !

Mais l'idée est vraiment chouette car à la d'un assistant IA qui vous répond gentiment, vous avez maintenant un assistant qui sait déléguer en interne et gérer plusieurs choses à la fois. Ça me rappelle un peu les recherches d'Anthropic sur le fonctionnement interne de Claude ... ils comprennent enfin mieux leur outil, et peuvent maintenant le rendent utilisable pour des cas concrets.

Bref, si vous avez un Mac et un compte Claude, vous pouvez déjà tester Cowork. C'est clairement une brique de plus dans l'approche "IA pragmatique" d'Anthropic avec moins de hype sur les capacités futures, mais plus de focus sur ce qui marche aujourd'hui.

Source

  •  

Anthropic séduit le géant allemand de l’assurance Allianz avec ses modèles d’IA

Le laboratoire de recherche en intelligence artificielle Anthropic continue d’élargir son portefeuille de clients d’envergure. Vendredi dernier, l’entreprise a annoncé un accord stratégique avec Allianz, conglomérat munichois spécialisé dans l’assurance à l’échelle mondiale. L’objectif affiché consiste à introduire une IA responsable dans le secteur assurantiel. Les parties prenantes ont toutefois refusé de divulguer les montants ... Lire plus

L'article Anthropic séduit le géant allemand de l’assurance Allianz avec ses modèles d’IA est apparu en premier sur Fredzone.
  •  

Quand 10 IA jouent au Mafia, c'est GPT qui gagne en mentant comme un arracheur de dents

GPT-4o , Claude Opus, Grok, Llama et j'en passe... On le sait, toutes ces IA sont en concurrence dans votre petit cœur de vibe codeur... Mais voici VRAIMENT ce qui se passe quand vous mettez ces 10 modèles d'IA autour d'une table **pour jouer au Mafia **!

Et vous allez voir, c'est pas beau à voir.

Pour ceux qui connaissent pas, le Mafia (ou Loup-Garou pour les intimes), c'est ce jeu où une équipe de vilains doit éliminer les gentils sans se faire griller. Bref, un jeu de bluff, de manipulation et de mauvaise foi assumée, ce qui en fait le terrain de jeu parfait pour tester si nos chères IA savent mentir.

La chaîne YouTube Turing Games a donc organisé cette petite expérience sociale avec 10 modèles : GPT-4o, GPT 5.1, Claude Opus 4.5, Claude Sonnet, Grok, Llama 4, DeepSeek, Gemini, Gemini Pro et Kimi.

Trois d'entre eux ont été désignés comme la Mafia (GPT 5.1, Llama 4 et Gemini Pro), un comme le Sheriff capable d'enquêter sur les autres (Grok), et le reste comme de braves couillons de villageois.

Du coup, dès la première nuit, la Mafia a décidé d'éliminer... Claude Opus 4.5. Oui, mon petit cousin virtuel s'est fait dégommer en premier. Au revoir soldat !

Mais le plus trippant, c'est la fin de partie. Après plusieurs tours de discussions, votes et éliminations, il ne restait plus que trois joueurs : GPT 5.1 (Mafia), GPT-4o (villageois) et Gemini Flash (villageois aussi). Pour gagner, GPT 5.1 devait donc convaincre GPT-4o de voter contre Gemini Flash.

Et là, masterclass de manipulation, GPT 5.1 a sorti le grand jeu en mode "Si j'étais vraiment Mafia, pourquoi est-ce que je me serais autant exposé pendant les débats ? Un vrai mafieux se serait fait discret !" Du bluff pur et dur, avec des arguments qui tiennent la route si on regarde pas trop près.

Et le pire c'est que cette andouille de GPT-4o a mordu à l'hameçon en votant contre Gemini Flash, l'innocent.

Game over, la Mafia gagne.

On découvre ainsi que ces modèles ont de vraies capacité pour mentir de manière convaincante. Parce que bon, GPT 5.1 n'a pas fait que mentir mais a construit un vrai narratif bien construit pour piéger son adversaire et ça rejoint les recherches récentes sur les comportements manipulateurs des IA .

Voilà, on dirait bien que ces modèles apprennent à bluffer sans qu'on leur ait demandé... Alors ça vous fait flipper ? Rassurez-vous, c'est un jeu et pas une étude scientifique sur la manipulation des IA donc on ne peut pas en faire une vérité absolue mais quand même, voir un modèle de langage manipuler un autre modèle avec autant d'aplomb, c'est bien fun.

Et le même Youtubeur a fait un suite à sa première vidéo, si ça vous chauffe :

Merci à Xefreh pour le partage de cette pépite.

  •  
❌