Vue normale

Claude Cowork : L’IA d’Anthropic pilote désormais Excel, PowerPoint et WordPress

Anthropic pousse Claude un cran plus loin dans l’entreprise. Avec la mise à jour annoncée mardi, Claude Cowork élargit ses connexions à des outils du quotidien — Google Workspace, DocuSign, WordPress — et ajoute des plug-ins préconstruits pour automatiser des tâches en RH, design, ingénierie ou finance. Surtout, Anthropic affirme que Claude peut désormais enchaîner […]

L’article Claude Cowork : L’IA d’Anthropic pilote désormais Excel, PowerPoint et WordPress est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

See how Silvern Capital (fictional company) uses Claude, Cowork, and Claude-powered products across several teams to respond to market challenges substantial...

Claude d'Anthropic a trouvé 22 failles dans Firefox en deux semaines

Par : Korben
7 mars 2026 à 10:50

Anthropic et Mozilla viennent de publier les résultats d'une collaboration menée en février. En deux semaines, le modèle Claude Opus 4.6 a analysé près de 6 000 fichiers C++ du code source de Firefox et découvert 22 vulnérabilités de sécurité, dont 14 classées haute gravité. Toutes sont déjà corrigées dans Firefox 148.

Un chasseur de bugs d'un nouveau genre

C'est l'équipe de red team d'Anthropic qui a contacté Mozilla pour tester son système de détection de failles par IA sur le code source de Firefox. Le modèle Claude Opus 4.6 a d'abord été lâché sur le moteur JavaScript du navigateur, avant d'être étendu au reste de la base de code.

Vingt minutes après le début de l'analyse, il avait déjà identifié sa première faille : un Use After Free, un type de vulnérabilité mémoire qui peut permettre à un attaquant d'écraser des données avec du contenu malveillant. Les ingénieurs de Mozilla ont commencé à appliquer des correctifs dans les heures qui ont suivi.

Au total, Anthropic a soumis 112 rapports de bugs sur la période. Mozilla a souligné que la qualité des rapports a fait la différence : chaque soumission incluait un cas de test minimal, une preuve de concept et un correctif candidat. Claude a même proposé ses propres patchs pour corriger les failles qu'il trouvait.

22 failles dont 14 haute gravité

Sur les 112 rapports, 22 ont donné lieu à des CVE (des identifiants de failles de sécurité officiels), dont 14 classées haute gravité par Mozilla. Pour donner un ordre d'idée, ces 14 failles représentent quasiment un cinquième de toutes les vulnérabilités haute gravité corrigées dans Firefox sur l'ensemble de l'année 2025. Les 90 bugs restants sont de moindre gravité, mais la plupart sont désormais corrigés. Tout est intégré dans Firefox 148, disponible depuis le 24 février.

Firefox n'est pas le seul projet concerné. Anthropic indique avoir utilisé Claude Opus 4.6 pour repérer des vulnérabilités dans d'autres logiciels open source, dont le noyau Linux.

Trouver les failles, mais pas les exploiter

Côté offensif, le constat est quand même rassurant. Anthropic a aussi testé la capacité de Claude à exploiter les failles qu'il trouvait, pas seulement les détecter. L'équipe a dépensé environ 4 000 dollars en crédits API pour tenter de produire des exploits fonctionnels. Sur plusieurs centaines d'essais, seuls deux ont abouti, et encore : uniquement dans un environnement de test où la sandbox de Firefox avait été désactivée. Le modèle est bien meilleur pour trouver les bugs que pour les exploiter, et le coût de détection est dix fois inférieur à celui de l'exploitation.

C’est le genre de résultat qui change un peu la perception de l'IA dans la cybersécurité. On a beaucoup parlé du risque que des modèles comme Claude ou GPT servent à créer des attaques. Et là, c'est l'inverse : l'IA trouve les failles plus vite et pour moins cher que n'importe quel audit traditionnel, mais elle a encore du mal à les exploiter. 

L'avantage est clairement du côté des défenseurs, pour l'instant en tous cas. Mozilla a d'ailleurs annoncé avoir déjà intégré l'analyse assistée par IA dans ses processus de sécurité internes. En tout cas, quand une IA trouve en deux semaines autant de failles critiques qu'un an de recherches classiques, on comprend assez vite que le métier de la cybersécurité va changer.

Sources : Anthropic , Mozilla

Firefox : L’IA Claude d’Anthropic découvre 22 failles de sécurité en deux semaines

Firefox est l’un des projets open source les plus audités au monde — et c’est précisément pour ça que l’expérience menée par Anthropic avec Mozilla fait du bruit. En deux semaines, l’équipe a identifié 22 vulnérabilités distinctes, dont 14 classées « high-severity », et la majorité a déjà été corrigée dans Firefox 148. Une « opération commando » de deux semaines dans […]

L’article Firefox : L’IA Claude d’Anthropic découvre 22 failles de sécurité en deux semaines est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

L’IA Claude a découvert plein de failles de sécurité dans Firefox

6 mars 2026 à 16:00

En deux semaines, Claude Opus 4.6 d’Anthropic a identifié 22 failles de sécurité dans Firefox, dont 14 qualifiées de haute sévérité par Mozilla, ce qui représente près d’un cinquième de toutes les failles critiques corrigées dans le navigateur sur l’ensemble de l’année 2025. La majorité a été corrigée …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article L’IA Claude a découvert plein de failles de sécurité dans Firefox est apparu en premier sur KultureGeek.

Quels métiers sont les plus menacés par l’IA, et lesquels le sont le moins ? Anthropic révèle une nouvelle méthode pour y répondre

Par : Setra
6 mars 2026 à 14:01
Anthropic Metiers Risque Ia

Anthropic publie une nouvelle méthode pour évaluer l’impact de l’intelligence artificielle sur l’emploi. Celle-ci ne s’appuie pas uniquement sur les données théoriques sur les performances de l’IA, mais aussi sur des données sur la manière dont la technologie est réellement utilisée.

Anthropic attaque le Pentagone en justice après avoir été classée « risque pour la chaîne d’approvisionnement »

6 mars 2026 à 12:26

La société d’intelligence artificielle Anthropic s’apprête à engager une bataille judiciaire avec le département américain de la Défense. Son directeur général, Dario Amodei, a annoncé que l’entreprise contestera devant les tribunaux la décision du Pentagone de la désigner officiellement comme un « risque pour la chaîne d’approvisionnement », une mesure …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Anthropic attaque le Pentagone en justice après avoir été classée « risque pour la chaîne d’approvisionnement » est apparu en premier sur KultureGeek.

Chardet : quand une IA réécrit un logiciel open source en cinq jours et change sa licence

Par : Korben
6 mars 2026 à 09:13

Le développeur Dan Blanchard a utilisé Claude d'Anthropic pour réécrire intégralement chardet, une bibliothèque Python téléchargée 130 millions de fois par mois, et passer sa licence de LGPL à MIT. L'auteur original conteste, la Free Software Foundation dénonce, et Bruce Perens, père de la définition open source, déclare que « toute l'économie du logiciel est morte ». Carrément.

Cinq jours et un changement de licence

Chardet est un outil qui détecte l'encodage des caractères dans un fichier texte. C'est une bibliothèque Python utilisée un peu partout, avec 130 millions de téléchargements par mois. Son mainteneur, Dan Blanchard, voulait depuis dix ans l'intégrer à la bibliothèque standard de Python, mais la licence LGPL l'en empêchait : elle impose que toute version modifiée reste sous les mêmes termes. Il a donc utilisé Claude d'Anthropic pour réécrire le code en partant d'un dépôt vide, sans accès au code source original.

Résultat : cinq jours de travail, un gain de vitesse de 48x, et un passage à la licence MIT, bien plus permissive. Le plagiat a été analysé par l'outil JPlag, et on y retrouve seulement 1,3% de similarité entre l'ancien et le nouveau code, autant dire rien. Sauf que Mark Pilgrim, le créateur original de chardet, conteste : pour lui, la licence LGPL s'applique quoi qu'il arrive, et une réécriture par IA ne change rien.

Le copyleft à l'épreuve de l'IA

Le problème dépasse en fait chardet. Armin Ronacher, créateur du framework Flask, résume bien la situation : « Le copyleft dépend du copyright et de la friction pour s'imposer. Mais comme le code est ouvert par définition, on peut le réécrire sans difficulté de nos jours. »

Bruce Perens, qui a écrit la définition même de l'open source, va plus loin : « Toute l'économie du développement logiciel est morte, finie, terminée. »

Il raconte aussi avoir construit une plateforme SRE complète en quelques jours avec Claude, un travail qui prenait des mois auparavant. Pour lui, les licences propriétaires comme open source perdent toute pertinence si n'importe quel logiciel peut être recréé par une IA en une semaine.

Un flou juridique total

Parce que oui, du côté du droit, c'est le vide total et la prise en compte du contenu généré par IA est peu appréhendée par les textes juridiques. Ce qui pourrait peut-être même dire que le code produit par Claude n'est peut-être pas protégeable. Et la Free Software Foundation enfonce le clou : « Il n'y a rien de propre dans un LLM qui a ingéré le code qu'on lui demande de réécrire. »

Le nœud du problème, c'est que Claude a été entraîné sur des milliards de lignes de code, dont probablement chardet lui-même. Simon Willison, développeur respecté, admet d'ailleurs que « les arguments des deux côtés sont entièrement crédibles ». On n'est pas rendus.

Ce qui se joue ici en fait, c'est surtout la question de savoir si les licences logicielles ont encore un sens quand une IA peut recréer n'importe quel code en quelques jours. Et la réponse, pour le moment, c'est que personne ne sait.

La justice américaine refuse de se prononcer, les fondations open source dénoncent sans pouvoir empêcher, et les développeurs comme Ronacher haussent les épaules. Et ça ne concerne pas que les développeurs : chaque application sur votre Mac, votre iPhone ou votre navigateur dépend de bibliothèques open source. Si leur modèle économique et juridique s'effondre, on le sentira tous passer.

Sources : The Register , Simon Willison

Shuffle - Quand 4 IA redesignent votre site (et c'est moche)

Par : Korben
5 mars 2026 à 09:48

Shuffle , c'est un outil qui vous propose de redesigner votre site web avec 4 modèles d'IA différents. Vous collez votre URL, vous décrivez ce que vous voulez... et boom, Claude Opus 4.6, GPT-5.2, Gemini 3 Pro et Kimi K2.5 vous pondent chacun leur version. J'ai testé sur ma home. Verdict : c'est moche de fou !

Vous arrivez sur la page, vous entrez l'adresse de votre site, vous tapez un petit prompt du genre "modernise mon blog tech" et vous lancez la machine. Les 4 modèles bossent alors en parallèle et au bout de 30 secondes environ, vous avez 4 propositions de redesign à comparer côte à côte.

Je trouvais le concept cool, sauf que dans la pratique, c'est une autre histoire. Comme je vous le disais en intro, j'ai testé sur korben.info, et les 4 IA ont eu exactement la même idée lumineuse : tout foutre en thème sombre. QUATRE sur QUATRE ! Pas un seul n'a osé proposer autre chose qu'un fond #1a1a2e dégeu avec des accents néon bleu-vert. Original, hein !!

Les 4 propositions de redesign de korben.info... toutes en dark mode. Désolé si votre site ressemble à ça.

On dirait que pour les IA, "blog tech" = "dark mode obligatoire"... et du coup ça ressemble à tous les médias tech génériques qu'on retrouve partout. Sauf si vous précisez "fond clair" dans le prompt, mais même là, c'est pas garanti.

Claude Opus a pondu une esthétique "hacker" avec du code Matrix en fond vert (carrément, on se laaache). GPT-5.2 a carrément rebaptisé le site "KORBEN NEXT" avec une baseline inventée de toute pièce, "La veille tech qui va droit au but"... euh, merci mais non merci j'aime pas le foot. Gemini 3 Pro a opté pour un style magazine éditorial et Kimi K2.5 (le modèle chinois de Moonshot AI) a sorti le gradient hero classique, propre... ou plutôt fade.

Bah ouais, les IA analysent la structure, les catégories, les images... mais le résultat c'est finalement toujours le même template sombre "tech media 2024" qu'on a vu un million de fois. Alors que pour moi, Korben.info c'est pas du tout cette ambiance.

Mais l'outil a quand même des qualités puisque l'éditeur visuel permet de modifier le résultat en drag-and-drop sans toucher au CSS, et vous pouvez même exporter le code dans 4 formats : Next.js, Laravel, WordPress ou HTML classique. En fait, ça peut servir de très bon point de départ si vous avez la flemme de partir d'une page blanche et si votre webdesigner est devenu injoignable depuis qu'il est parti à Punta Cana.

Côté prix, y'a une version gratuite mais limitée à quelques générations, et après puis c'est 24 dollars par mois...etc.

Ça aurait pu être un excellent outil mais malheureusement, les modèles sont formatés sur les mêmes tendances, les mêmes palettes, les mêmes layouts. C'est dommage je trouve. Voilà, après je pourrais vous faire une conclusion bien neuneu genre "C'est pas demain qu'une IA remplacera un vrai directeur artistique qui comprend l'identité d'une marque." mais la réalité, c'est que un humain moyen motivé qui sait ce qu'il veut peut avoir un truc incroyablement bien généré par IA s'il prend le temps le temps de se former et qu'il ne lâche rien ! Tenez par exemple, 100% du template graphique de mon site a été généré à l'aide de l'IA et moi derrière pour la fouetter...

Voilà, si vous voulez rigoler un peu, allez tester votre site sur Shuffle mais ne vous attendez pas à un miracle !

Anthropic pris en étau : toujours au cœur du conflit irano-américain, déserté par l’industrie défense

4 mars 2026 à 20:15

La position d’Anthropic sur l’échiquier militaire américain n’a jamais été aussi paradoxale. D’un côté, ses modèles d’IA participent activement aux opérations en cours contre l’Iran. De l’autre, ses partenaires du secteur de la défense s’en détournent à vitesse accélérée. Entre injonctions gouvernementales contradictoires et reconfigurations industrielles en cascade, la société se retrouve dans une situation ... Lire plus

L'article Anthropic pris en étau : toujours au cœur du conflit irano-américain, déserté par l’industrie défense est apparu en premier sur Fredzone.

Claude Code ajoute un mode vocal pour gagner du temps

4 mars 2026 à 09:03

Anthropic déploie un mode vocal dans Claude Code, son assistant de programmation par intelligence artificielle essentiellement destiné aux développeurs. La fonctionnalité est accessible via la commande /voice : l’utilisateur l’active, formule sa demande à voix haute et Claude Code exécute la requête. Un déploiement progressif est en cours, …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Claude Code ajoute un mode vocal pour gagner du temps est apparu en premier sur KultureGeek.

Claude peut maintenant importer la mémoire de ChatGPT et d’autres IA

3 mars 2026 à 14:10

Anthropic rend disponible un outil d’import de mémoire pour Claude, disponible gratuitement, qui permet aux utilisateurs de ChatGPT et Gemini de migrer leurs préférences et leur contexte conversationnel sans repartir de zéro. L’initiative s’inscrit dans une offensive plus large pour attirer les utilisateurs des concurrents, dans un contexte …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Claude peut maintenant importer la mémoire de ChatGPT et d’autres IA est apparu en premier sur KultureGeek.

CyberStrikeAI : cet outil dopé à l'IA automatise les cyberattaques

Par : Korben
3 mars 2026 à 14:31

Un développeur chinois a mis en ligne CyberStrikeAI, une plateforme open source qui combine IA générative et plus de 100 outils offensifs pour automatiser les cyberattaques. En parallèle, un pirate amateur russophone a compromis plus de 600 pare-feu FortiGate dans 55 pays avec l'aide de DeepSeek et Claude, le tout en à peine cinq semaines. Les hackers aussi ont visiblement droit à leur copilote.

Un arsenal offensif piloté par l'IA

CyberStrikeAI est l'œuvre d'un développeur chinois qui se fait appeler Ed1s0nZ. L'outil, écrit en Go et publié sur GitHub, intègre plus de 100 outils offensifs : nmap, Metasploit, hashcat, mimikatz et bien d'autres. Le tout est piloté par des modèles de langage comme GPT ou Claude, qui se chargent de planifier les attaques, analyser les résultats et adapter la stratégie au fil de l'attaque. Le développeur a des liens avec Knownsec 404, une équipe de recherche en sécurité rattachée au ministère de la Sécurité d'État chinois via la CNNVD.

600 pare-feu tombés en cinq semaines

L'autre affaire est tout aussi parlante. Entre le 11 janvier et le 18 février 2026, un pirate russophone a compromis plus de 600 pare-feu Fortinet FortiGate dans 55 pays. Amazon Threat Intelligence a repéré la campagne et découvert un serveur mal sécurisé contenant plus de 1 400 fichiers : identifiants volés, scripts d'exploitation, logs d'attaque. Le pirate utilisait un serveur MCP baptisé ARXON et un orchestrateur en Go appelé CHECKER2, les deux s'appuyant sur DeepSeek et Claude pour automatiser le travail. Le pirate n'a même pas eu besoin d'exploiter de faille logicielle : des mots de passe faibles et des ports de gestion ouverts sur Internet ont suffi.

L'IA compense le manque d'expérience

Le pirate derrière les FortiGate n'est pas un vétéran : ses erreurs de sécurité opérationnelle, comme un serveur ouvert à tous les vents, trahissent un manque d'expérience flagrant. Sauf que l'IA a compensé. Là où il aurait fallu des années de pratique pour mener une campagne de cette envergure, les modèles de langage ont comblé les lacunes. CrowdStrike a d'ailleurs noté une hausse de 89 % des attaques assistées par IA en 2025. Et avec des outils comme CyberStrikeAI qui mettent l'arsenal offensif à portée de n'importe qui, ça ne va pas s'arranger.

Franchement, on n'est plus dans la théorie. L'IA offensive est devenue accessible, et les dégâts sont bien réels. Le problème, c'est que les garde-fous des modèles de langage sont toujours une passoire, et que tout le monde fait semblant de ne pas le voir.

Sources : cyberinsider , thehackernews

ChatGPT : les désinstallations bondissent de 295 % après l’accord avec le Pentagone

3 mars 2026 à 09:14

L’annonce du partenariat autour de l’intelligence artificielle entre OpenAI et le Pentagone aux États-Unis a provoqué une réaction immédiate des utilisateurs. Le samedi 28 février, les désinstallations de l’application ChatGPT ont bondi de 295 % aux États-Unis par rapport à la veille, contre un taux habituel de 9 …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT : les désinstallations bondissent de 295 % après l’accord avec le Pentagone est apparu en premier sur KultureGeek.

Donald Trump ordonne d’arrêter l’usage de l’IA d’Anthropic dans son administration

28 février 2026 à 08:20

Donald Trump a ordonné à toutes les agences fédérales américaines de cesser immédiatement d’utiliser l’intelligence artificielle d’Anthropic, en réaction directe au refus du groupe d’accorder au Pentagone un accès illimité à son chabot Claude. Le secrétaire à la Défense, Pete Hegseth, a suivi en classifiant Anthropic comme « …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Donald Trump ordonne d’arrêter l’usage de l’IA d’Anthropic dans son administration est apparu en premier sur KultureGeek.

Claude Code - Pilotez votre terminal depuis votre canapé

Par : Korben
26 février 2026 à 12:46

Claude Code tourne en local et c'est son gros avantage car ça permet par exemple d'agir sur votre machine, de lancer des scripts...etc. Mais c'est aussi sa grosse limite car à cause de ça, vous êtes cloué devant votre terminal. J'étais en quête depuis un moment d'une solution et je vous avais déjà parlé de Vibe Companion y'a pas longtemps mais tous ces outils vont disparaitre puisque Anthropic vient de sortir Remote Control, une feature qui transforme claude.ai ou l'app mobile en télécommande pour votre session locale. Comme ça, vos fichiers restent chez vous et seule l'interface voyage.

Votre ordi fait tourner Claude Code normalement, et vous, vous pouvez continuer à lui parler depuis votre iPhone, votre Android, votre iPad ou n'importe quel navigateur Chrome, Firefox, Safari... Pas de serveur exposé, pas de port ouvert, que du HTTPS sortant. C'est plutôt bien foutu vous allez voir !

Ce qu'il vous faut

Bon déjà, un abonnement Pro (Édit : ? on me dit que c'est pas encore actif pour les pro ?) ou Max (pas le choix, les clés API ne marchent pas et les plans Team/Enterprise sont exclus pour le moment). Ensuite, vérifiez que Claude Code est installé et que vous êtes connecté via /login. Acceptez ensuite le "workspace trust" dans votre projet et hop, c'est tout côté prérequis.

Lancer une session

Deux options s'offrent à vous ensuite... Soit vous démarrez une nouvelle session dédiée :

claude remote-control

Soit vous êtes déjà en train de bosser dans Claude Code et vous tapez /rc (alias de /remote-control). Avec claude remote-control, seule l'URL apparaît... donc appuyez sur espace pour afficher le joli QR code.

3 flags utiles (uniquement avec claude remote-control, pas /rc) : --verbose pour voir ce qui transite, --sandbox pour forcer le mode bac à sable (désactivé par défaut) et --no-sandbox pour le couper si vous l'avez activé dans votre config.

Se connecter depuis un autre appareil

Ensuite, la méthode la plus rapide c'est de scanner le QR code avec votre téléphone. Sinon, copiez l'URL affichée et collez-la dans n'importe quel navigateur. Dernière option, allez sur claude.ai/code et votre session apparaît dans la liste (les sessions actives ont un petit point vert).

Une fois connecté, vous récupérez votre conversation en cours, vos fichiers, votre contexte... tout. Vous pouvez envoyer des messages, voir les résultats, approuver les modifications de fichiers. Bref, comme si vous étiez devant votre terminal, sauf que vous êtes dans votre canapé, votre lit ou en train de pousser le caddie chez Auchan !

Activer par défaut

Maintenant, si vous voulez que CHAQUE session Claude Code soit automatiquement accessible à distance, tapez /config dans une session Claude Code, puis activez l'option "Enable Remote Control for all sessions". Et voilà, plus besoin d'y réfléchir ! Chaque claude lancé dans un terminal sera pilotable depuis votre navigateur ou l'app mobile.

Vos sessions prennent le nom de votre dernier message (ou "Remote Control session" par défaut), donc utilisez /rename mon-projet-cool pour les retrouver facilement dans la liste sur claude.ai/code.

Sinon, dans Claude Code avec /mobile vous pouvez aussi afficher directement le QR code pour télécharger l'app Claude sur iOS ou Android.

Les limites à connaître

Bon, après c'est pas non plus parfait car déjà, c'est cappé à UNE SEULE session à distance par instance de Claude Code (si vous en lancez une deuxième, la première se déconnecte). Par contre, plusieurs instances dans des terminaux différents peuvent chacune avoir leur session remote. Le terminal doit également rester ouvert (si vous le fermez, c'est fini). Mais bonne nouvelle quand même, si le laptop passe en veille ou que le réseau saute, ça se reconnectera tout seul au réveil. Le piège, c'est si la machine reste sans réseau plus de 10 minutes... là, la session expire et il faudra relancer claude remote-control.

Soyez rassurés quand même côté sécurité c'est propre (uniquement du HTTPS sortant sur le port 443, zéro port entrant et des identifiants éphémères), mais gardez en tête que Claude Code a accès à votre terminal donc sauf si vous activez --sandbox, il peut de ce fait exécuter n'importe quelle commande... donc les mêmes précautions qu'en local s'appliquent !

Du coup si vous en avez marre de rester scotché devant votre terminal, maintenant vous savez quoi faire.

Merci à Lorenper !

Le Pentagone pose un ultimatum totalement dingue à Anthropic

Par : Korben
25 février 2026 à 10:26

Vous allez halluciner... Le Pentagone américain vient de poser un ultimatum à Anthropic. C'est Pete Hegseth, le patron du désormais "Department of War" (oui, Trump a rebaptisé le Pentagone par executive order... no comment...), exige que la boite de Dario Amodei lève toutes ses restrictions éthiques sur Claude d'ici ce vendredi.

Et la menace, c'est pas du bluff puisque ça parle du Defense Production Act , une loi de 1950 qui permet au gouvernement de réquisitionner une entreprise privée. Sinon, l'autre option sur la table de ces dingos, c'est de coller Anthropic sur une liste noire "supply chain risk", à côté de Huawei et Kaspersky. Ah ça c'est la classe.

En fait faut savoir qu'Anthropic a signé un contrat à 200 millions de dollars avec le Département de la Défense en juillet dernier et OpenAI, Google et xAI ont signé exactement le même type de contrat. Sauf que xAI a accepté les termes " all lawful purposes " sans sourciller et est déjà approuvé pour l'usage classifié alors qu'OpenAI et Google, eux, négocient encore leurs conditions.

Anthropic, eux, ont établi 2 lignes rouges à ne pas franchir : La surveillance de masse des citoyens américains et les armes autonomes capables de tuer sans intervention humaine. C'est tout ! Et visiblement, c'est déjà trop pour l'administration US qui qualifie ça de "woke AI".

Anthropic, c'est quand même une boite qui publie ses recherches sur la mécanique interne de ses modèles , qui écrit des papiers sur l'éthique de l'IA, et qui a carrément publié une "constitution" pour encadrer le comportement de Claude. Ils essayent de faire les choses proprement... Dario Amodei a même écrit un essai en janvier de cette année où il dit clairement que les démocraties ont un intérêt légitime à utiliser l'IA dans le domaine militaire... mais "dans certaines limites"... Mais apparemment ça ne suffit pas à l'oncle Sam.

Sean Parnell, le porte-parole du Pentagone, a déclaré que "la relation avec Anthropic est en cours de réévaluation" et Emil Michael, sous-secrétaire à la Défense, confirme que les négociations sont bloquées. Et comme je vous le disais en intro, la deadline c'est vendredi, 17h01 heure de la côte Est. Soit 23h01 à Paris. Sauf si Anthropic cède avant, ça pourrait aller très vite...

Perso, ça me rend dingue. Vous avez une boite qui essaye de garder un minimum de barrières éthiques, dans un secteur où tout le monde se couche, et le gouvernement lui tombe dessus comme un vieil empire soviétique exigeant sa soumission totale. Franchement, à la place de Dario, je prendrais mes cliques et mes claques et j'irais installer Anthropic en Europe ou en Asie. Quand votre propre gouvernement vous menace d'une loi datant de la guerre de Corée pour vous forcer à retirer vos garde-fous, ça va bien au-delà d'une simple pression. Ils veulent vraiment s'approprier la techno pour faire la guéguerre...

Notez que Chris Liddell, ancien adjoint du chief of staff de Trump, vient d'être ajouté au board d'Anthropic et la boite prépare son IPO pour 2026 donc autant vous dire que la pression est maximale de tous les côtés.

Mise à jour du 27 février : Bon bah Anthropic n'a pas plié ! Dario Amodei a publié un billet de blog disant que sa boite "ne peut pas en bonne conscience" accepter les exigences du Pentagone. Et le plus beau, c'est que le Pentagone avait envoyé dans la nuit un nouveau contrat, présenté comme un "compromis" (CBS News parle carrément d'"offre finale")... sauf que d'après Anthropic, ça ne changeait RIEN. Le texte contenait du jargon juridique permettant de contourner tous les garde-fous "à volonté". Hop, enfumage.

Amodei a pointé du doigt la contradiction totale du truc : d'un côté, le Pentagone menace de les coller sur la liste "supply chain risk" (un label normalement réservé aux boites ÉTRANGÈRES liées aux adversaires des US, genre Huawei), et de l'autre, il veut réquisitionner leur techno via le Defense Production Act parce qu'elle serait "essentielle à la sécurité nationale". Faudrait choisir un camp, les gars...

En face, Parnell a répondu que l'armée n'a "aucun intérêt à utiliser l'IA pour la surveillance de masse des Américains (ce qui est illégal) ni pour des armes autonomes". OK cool... mais alors pourquoi refuser de l'écrire noir sur blanc dans le contrat ? C'est LA question que tout le monde se pose.

Et Amodei ne joue pas les martyrs anti-militaristes non plus. Il a écrit noir sur blanc vouloir "continuer à servir le Département et nos combattants, avec nos deux garde-fous en place". Anthropic reste "prêt à continuer les discussions". Bref, c'est pas "non à l'armée", c'est "non au chèque en blanc".

Au Congrès, ça grince des deux côtés de l'allée. Le républicain Thom Tillis critique la gestion publique du dossier, et le démocrate Mark Warner s'inquiète de voir le Pentagone ignorer toute gouvernance IA. Bref, même dans les rangs de Trump, c'est le bordel.

Du coup la fameuse deadline, c'est AUJOURD'HUI. Après ça, soit le Pentagone met ses menaces à exécution (et ça finira probablement devant un tribunal), soit quelqu'un cède. Perso, je parie que Dario ne lâchera rien.

Merci Eric pour l'info.

Claude ouvre ses outils pro à tous (et y'a zéro pub)

Par : Korben
12 février 2026 à 10:20

OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.

Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.

Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.

Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous avez déjà bidouillé avec ses capacités de dev , vous voyez l'intérêt d'avoir ça.

Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.

Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.

Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont ( enfin ) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.

Source

❌