Claude vient d’annoncer une amélioration majeure de Cowork, l’une de ses fonctionnalités phares, qui permet d’automatiser les tâches de bureau sur un ordinateur. Grâce à Claude Dispatch, cet agent d’intelligence artificielle devient accessible à distance, via l’application mobile d’Anthropic.
Le bras de fer entre Anthropic et le gouvernement américain s’intensifie de nouveau. Dans une réponse transmise à la justice, le Département américain de la Défense — qui privilégie désormais l’appellation « Department of War » (Département de la Guerre) — estime que laisser l’éditeur de Claude conserver un accès …
Le 17 mars 2026, Anthropic a annoncé le lancement de Dispatch, une fonctionnalité qui permet de confier des tâches à Claude depuis son téléphone pour qu'il les exécute sur son ordinateur. Une brique supplémentaire vers une utilisation plus autonome de l'IA.
La plateforme de création de présentations Gamma passe à l’offensive. Elle dévoile Gamma Imagine, un nouvel outil de génération d’images par intelligence artificielle, pensé pour produire des visuels marketing directement depuis des invites textuelles. En s’attaquant à un segment dominé par des géants comme Canva et Adobe, Gamma revendique une place originale : celle d’un ... Lire plus
Tandis qu’Anthropic cartonne, OpenAI acté un revirement de stratégie clair : fini les projets annexes, la priorité passe désormais aux outils de productivité pour les entreprises, rapporte le Wall Street Journal le 16 mars 2026. Un changement de cap qui confirme, une nouvelle fois, que la course à l’IA s’accélère.
Les utilisateurs de montres Garmin pourraient bientôt interroger leurs données de santé et d’entraînement comme on pose une question à un assistant IA. Le projet s’appelle Garmin Chat Connector, et il ne vient pas de Garmin lui-même, mais de Rod Trent, vice-président chez Microsoft et créateur de l’outil Garmin Chat Desktop. D’après son annonce, ce […]
Anthropic a bien lancé une promotion limitée de deux semaines autour de Claude. D’après sa page d’aide officielle, l’opération court du 13 mars 2026 au 27 mars 2026 à 23 h 59 et double les limites d’usage sur une fenêtre glissante de cinq heures, mais uniquement hors heures de pointe en semaine. Le détail important, c’est que […]
La fenêtre grand ouverte — Bonne nouvelle pour les utilisateurs de Claude Code et les développeurs qui vivent dans les 200K tokens depuis trop longtemps : Anthropic rend disponible le contexte d'un million de tokens pour Opus 4.6 et Sonnet 4.6, à tarification standard. Fini le multiplicateur de prix pour les longs contextes, fini aussi […]
Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.
Anthropic déploie en bêta une nouvelle fonctionnalité qui permet à son intelligence artificielle Claude de générer des graphiques, diagrammes et visualisations interactives au fil des échanges. La mise à jour est accessible à tous les utilisateurs, quel que soit leur abonnement. Des visuels intégrés avec Claude Ces créations …
Jusqu’ici, Claude excellait surtout dans l’art du texte bien rangé : explications, synthèses, plans d’action. Désormais, Anthropic lui ajoute une corde beaucoup plus moderne — et plus pédagogique — à son arc : des visualisations intégrées « en ligne », générées au fil de la discussion. Graphiques, schémas, tableaux interactifs… sans quitter le chat, sans ouvrir un outil externe. […]
Claude now creates diagrams, interactive tools, and visualizations right in the conversation. Follow a student from choosing a major to getting a city park a...
En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.
Une solidarité inattendue traverse les frontières concurrentielles de l’industrie de l’intelligence artificielle. Plus de trente salariés d’OpenAI et de Google DeepMind ont déposé lundi une déclaration commune devant les tribunaux fédéraux, apportant leur soutien officiel à Anthropic dans le bras de fer juridique qui oppose l’entreprise au Département américain de la Défense. En cause : ... Lire plus
Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'outil leur est-il réellement destiné ?
Une étude américaine suggère que, pour le moment, l’IA a peu d’impact négatif sur l’emploi. Néanmoins, d’importants changements seraient attendus d’ici quelques années.
Anthropic, qui propose le chatbot d’intelligence artificielle Claude, a déposé deux plaintes contre le département américain de la Défense américain, contestant la décision du Pentagone de lui apposer l’étiquette d’entreprise à risque risque pour la chaîne d’approvisionnement. La désignation, appliquée pour la première fois à une entreprise américaine, …
Mark Russinovich, CTO de Microsoft Azure, a donné à Claude Opus 4.6 un programme qu'il avait écrit en assembleur 6502 pour Apple II en mai 1986. L'IA d'Anthropic y a trouvé des vulnérabilités. Une découverte possible grâce à Claude Code Security, un outil qui a déjà débusqué plus de 500 failles dans des projets open source.
Du code Apple II passé au crible
Le programme en question s'appelle Enhancer. C'est un utilitaire écrit en langage machine 6502 qui ajoutait à l'Applesoft BASIC la possibilité d'utiliser des variables ou des expressions comme destination pour les commandes GOTO, GOSUB et RESTORE.
Claude Opus 4.6 a identifié un comportement silencieux incorrect : quand une ligne de destination n'était pas trouvée, le programme plaçait le pointeur sur la ligne suivante ou au-delà de la fin du programme, au lieu de signaler une erreur. L'IA a même suggéré le correctif : vérifier le carry flag (positionné quand une ligne n'est pas trouvée) et rediriger vers un gestionnaire d'erreurs.
L'anecdote a surtout valeur de démonstration. Russinovich l'a partagée pour montrer que les modèles d'IA sont désormais capables de décompiler du code embarqué d’un autre âge et d'y repérer des failles, ce qui pose un problème quand on sait que des milliards de microcontrôleurs tournent dans le monde avec du code qui n'a jamais été audité.
Plus de 500 failles dans des projets open source
Cette histoire autour de l'Apple II est amusante, mais le vrai sujet est ailleurs. Anthropic a utilisé Claude Opus 4.6 pour scanner des bases de code open source en production et a trouvé plus de 500 vulnérabilités qui avaient échappé à des années de revue par des experts humains.
Parmi les projets touchés : GhostScript (traitement PostScript et PDF), OpenSC (utilitaires pour cartes à puce), CGIF (traitement d'images GIF) et le noyau Linux. Certaines de ces failles étaient là depuis des décennies, malgré des millions d'heures de fuzzing accumulées sur ces projets.
Côté Firefox,
on vous en a parlé
: 22 CVE dont 14 haute gravité, trouvées en deux semaines seulement.
On vous en a déjà parlé, Anthropic a lancé le 20 février Claude Code Security, un outil intégré à Claude Code sur le web, pour l'instant en accès limité. Le principe : l'IA scanne un dépôt de code, identifie les vulnérabilités, et propose des correctifs ciblés pour validation humaine.
Contrairement aux outils d'analyse statique classiques qui fonctionnent par pattern matching, Claude lit et raisonne sur le code comme le ferait un chercheur en sécurité, en traçant les flux de données et en comprenant comment les composants interagissent. Rien n'est appliqué sans validation humaine. L'outil est accessible aux clients Enterprise et Team, et les mainteneurs de projets open source peuvent demander un accès gratuit.
Tout ça pour dire que l'image du CTO d'Azure qui ressort son vieux code Apple II et se retrouve avec un rapport de failles, c'est quand même franchement rigolo, mais aussi intéressant. Mais le fond du sujet est plus sérieux : des milliards d'appareils embarqués tournent avec du code ancien que personne n'a jamais audité, et l'IA est désormais capable de les passer au peigne fin. Anthropic a quand même prévenu que cet écart entre la capacité à trouver les failles et celle de les exploiter ne durera probablement pas éternellement. On l’espère.
Anthropic vient d’annoncer Claude Marketplace, une offre pensée pour les grandes entreprises déjà engagées contractuellement avec Anthropic : elles pourront utiliser une partie de leur « engagement de dépenses » pour acheter des outils alimentés par Claude et proposés par des partenaires tiers (GitLab, Harvey, Lovable, Replit, Rogo, Snowflake…), avec facturation consolidée gérée par Anthropic. Le service démarre […]
Ils sont déjà bien trop nombreux à naviguer sur le web comme des humains, sans jamais dire qu’ils ne le sont pas. Une mascarade que le MIT n’a pas manqué de dénoncer.