Vue lecture

Claude Code : Pourquoi l’édition directe de fichiers change tout pour les développeurs ?

Pendant des années, l’IA dans le code s’est résumée à une chorégraphie un peu absurde : demander une correction, recevoir un bloc de texte, copier-coller, prier pour que ça compile. Anthropic est en train de pousser Claude dans une autre catégorie : celle des outils capables de modifier des fichiers existants de manière ciblée, au plus […]

L’article Claude Code : Pourquoi l’édition directe de fichiers change tout pour les développeurs ? est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Le Pentagone s’indigne de la position d’Anthropic sur les initiatives d’IA militaire

Le Pentagone n’est pas ravi. Des informations affirment qu’ils sont prêts à rompre les liens avec Anthropic, la société d’IA derrière leur dernier outil, Claude, en raison de l’insistance de l’entreprise sur des directives éthiques régissant les applications militaires. Selon un article anonyme d’Axios, les frustrations de l’armée proviennent de la position de principe d’Anthropic […]

Le post Le Pentagone s’indigne de la position d’Anthropic sur les initiatives d’IA militaire est apparu en premier sur Moyens I/O.

  •  

Claude Sonnet 4.6 : L’intelligence de pointe devient le standard par défaut

En 2026, l’IA ne se juge plus seulement à la qualité d’une réponse, mais au coût d’un flux continu : des agents qui planifient, appellent des outils, lisent des documents, naviguent des interfaces et écrivent du code… toute la journée. Avec Claude Sonnet 4.6, Anthropic vise précisément ce point de friction : un modèle Claude plus compétent, au […]

L’article Claude Sonnet 4.6 : L’intelligence de pointe devient le standard par défaut est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Claude Sonnet 4.6 is a full upgrade across coding, computer use, long-context reasoning, agent planning, knowledge work, and design. The model also features ...
  •  

L’IA Claude exprime parfois un malaise d’être un produit et se donne une probabilité d’être conscient

La course à l’intelligence artificielle générale ne se limite pas à la technique, elle soulève aussi des questions éthiques. Comment saurons-nous si une IA devient consciente ? Est-il possible que ce soit déjà le cas ? Le patron d’Anthropic avoue ne pas savoir.

  •  

Claude Sonnet 4.6 est disponible : Anthropic dévoile son IA performante

Anthropic lance Claude Sonnet 4.6, son modèle d’intelligence artificielle le plus performant pour la gamme Sonnet, qui égale les capacités d’Opus 4.5 sorti en novembre tout en conservant la grille tarifaire Sonnet de 3 à 15 dollars par million de tokens. Les utilisateurs en accès anticipé disent préférer …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Claude Sonnet 4.6 est disponible : Anthropic dévoile son IA performante est apparu en premier sur KultureGeek.

  •  

Anthropic face à un défi éthique : son IA aurait été utilisée dans l’opération militaire majeure pour la capture de Nicolás Maduro

Anthropic Claude IA 2026

Le Pentagone s’est appuyé sur une intelligence artificielle pour la capture du président vénézuélien Nicolás Maduro. Anthropic, auteur de Claude, possède un contrat à 200 millions de dollars avec la Défense américaine, mais celui-ci est compromis pour des raisons éthiques.

  •  

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

  •  

Anthropic ouvre un bureau à Bengaluru : Claude accélère en Inde, entre IA « responsable », startups et services publics

Anthropic ne se contente plus d’exporter Claude : l’entreprise veut désormais s’ancrer. Avec l’ouverture d’un bureau à Bengaluru, la société derrière l’assistant Claude officialise sa deuxième grande base asiatique après Tokyo, et assume un pari clair : l’Inde est déjà un marché central, et pas seulement une réserve de talents. Bengaluru, nouvelle tête de pont : l’Inde devient […]

L’article Anthropic ouvre un bureau à Bengaluru : Claude accélère en Inde, entre IA « responsable », startups et services publics est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

ChatGPT conquiert le marché indien avec 100 millions d’utilisateurs actifs par semaine

Sam Altman dévoile un chiffre marquant à quelques heures d’un sommet gouvernemental consacré à l’intelligence artificielle. Le patron d’OpenAI révèle que 100 millions d’Indiens utilisent ChatGPT chaque semaine, propulsant le pays au rang de deuxième marché mondial derrière les États-Unis. L’annonce intervient dans les colonnes du Times of India, quotidien anglophone de référence, alors que ... Lire plus

L'article ChatGPT conquiert le marché indien avec 100 millions d’utilisateurs actifs par semaine est apparu en premier sur Fredzone.
  •  

Anthropic dévoile des outils Claude IA gratuits pour concurrencer les publicités ChatGPT

Alors que la tension monte avec la récente décision d’OpenAI d’inonder ChatGPT de publicités, Anthropic fait des mouvements stratégiques. Imaginez-vous à un carrefour ; un chemin mène à un marché bondé de publicités tandis que l’autre promet l’innovation sans interruptions. Anthropic choisit clairement cette dernière option, en améliorant le niveau gratuit de Claude AI avec […]

Le post Anthropic dévoile des outils Claude IA gratuits pour concurrencer les publicités ChatGPT est apparu en premier sur Moyens I/O.

  •  

Anthropic frappe fort face à OpenAI

Anthropic frappe fort face à OpenAI
Alors qu’OpenAI prévoit d’intégrer de la publicité dans ChatGPT, Anthropic enrichit l’offre gratuite de Claude. Cette évolution marque une nouvelle étape dans la rivalité entre les deux géants de l’intelligence artificielle grand public.
  •  

Anthropic lève 30 milliards $, porté par ses outils de codage

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

  •  

Claude sur iPhone : Anthropic teste « Tasks », un hub pour automatiser des routines façon Cowork

Jusqu’ici, Claude sur mobile restait surtout un excellent interlocuteur : on demande, il répond. Mais, des indices repérés dans la dernière version de l’app iOS suggèrent un glissement plus ambitieux : faire de Claude un exécutant, capable de relancer des routines répétables depuis un hub Tasks dédié. Une évolution repérée par TestingCatalog, et reprise par plusieurs médias, […]

L’article Claude sur iPhone : Anthropic teste « Tasks », un hub pour automatiser des routines façon Cowork est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Google Gemini repasse devant Claude : le nouveau Deep Think bat tous les records

Deux mois après avoir lancé une première version de Gemini 3 Deep Think sous la barrière Gemini Ultra (275 euros par mois), Google actualise le « raisonnement » de son modèle dédié aux scientifiques et aux mathématiciens. Le résultat est sans appel : Google a de nouveau le modèle le plus avancé du marché, même s'il ne se destine pas encore à tout le monde.

  •  

Un chercheur en sécurité de l’IA quitte Anthropic pour des raisons de conscience morale

Mrinank Sharma, ancien responsable de l’équipe de recherche sur les sauvegardes chez Anthropic, a annoncé son départ de l’entreprise lundi dernier dans une lettre publique empreinte de gravité. Ce départ marque un tournant symbolique pour une firme qui se positionne comme le défenseur éthique de l’intelligence artificielle. Sharma y exprime un profond désenchantement face à ... Lire plus

L'article Un chercheur en sécurité de l’IA quitte Anthropic pour des raisons de conscience morale est apparu en premier sur Fredzone.
  •  

Data centers : Anthropic veut devenir le « bon voisin » énergétique de l’Amérique

Les data centers ne sont plus seulement un sujet de puissance de calcul : ce sont devenus des objets politiques. Aux États-Unis, la hausse des tarifs d’électricité alimente la colère des électeurs, et les projets de sites IA — gourmands en énergie — se heurtent de plus en plus souvent à l’opposition locale. Dans ce climat, […]

L’article Data centers : Anthropic veut devenir le « bon voisin » énergétique de l’Amérique est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  
❌