Vue normale

Garmin Chat Connector : parlez à vos données de santé via ChatGPT et Claude

Les utilisateurs de montres Garmin pourraient bientôt interroger leurs données de santé et d’entraînement comme on pose une question à un assistant IA. Le projet s’appelle Garmin Chat Connector, et il ne vient pas de Garmin lui-même, mais de Rod Trent, vice-président chez Microsoft et créateur de l’outil Garmin Chat Desktop. D’après son annonce, ce […]

L’article Garmin Chat Connector : parlez à vos données de santé via ChatGPT et Claude est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Claude : Anthropic double vos limites d’usage jusqu’au 27 mars (sous conditions)

Anthropic a bien lancé une promotion limitée de deux semaines autour de Claude. D’après sa page d’aide officielle, l’opération court du 13 mars 2026 au 27 mars 2026 à 23 h 59 et double les limites d’usage sur une fenêtre glissante de cinq heures, mais uniquement hors heures de pointe en semaine. Le détail important, c’est que […]

L’article Claude : Anthropic double vos limites d’usage jusqu’au 27 mars (sous conditions) est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Claude ouvre son contexte à 1 million de tokens : ce que ça change vraiment

14 mars 2026 à 17:16
La fenêtre grand ouverte — Bonne nouvelle pour les utilisateurs de Claude Code et les développeurs qui vivent dans les 200K tokens depuis trop longtemps : Anthropic rend disponible le contexte d'un million de tokens pour Opus 4.6 et Sonnet 4.6, à tarification standard. Fini le multiplicateur de prix pour les longs contextes, fini aussi […]

💾

💾

Faille Perplexity Computer : un accès gratuit à Claude Opus 4.6 est-il vraiment possible ?

13 mars 2026 à 16:12

Sur X, un chercheur en cybersécurité affirme avoir obtenu un accès illimité à Claude Opus 4.6 en exploitant l'infrastructure de Perplexity Computer. Si la démonstration technique est réelle, les conclusions sur la facturation sont à nuancer.

L’IA Claude crée désormais des visuels interactifs dans vos conversations

13 mars 2026 à 09:43

Anthropic déploie en bêta une nouvelle fonctionnalité qui permet à son intelligence artificielle Claude de générer des graphiques, diagrammes et visualisations interactives au fil des échanges. La mise à jour est accessible à tous les utilisateurs, quel que soit leur abonnement. Des visuels intégrés avec Claude Ces créations …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article L’IA Claude crée désormais des visuels interactifs dans vos conversations est apparu en premier sur KultureGeek.

Claude peut désormais dessiner : Anthropic lance les visualisations interactives en temps réel

Jusqu’ici, Claude excellait surtout dans l’art du texte bien rangé : explications, synthèses, plans d’action. Désormais, Anthropic lui ajoute une corde beaucoup plus moderne — et plus pédagogique — à son arc : des visualisations intégrées « en ligne », générées au fil de la discussion. Graphiques, schémas, tableaux interactifs… sans quitter le chat, sans ouvrir un outil externe. […]

L’article Claude peut désormais dessiner : Anthropic lance les visualisations interactives en temps réel est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Claude now creates diagrams, interactive tools, and visualizations right in the conversation. Follow a student from choosing a major to getting a city park a...

« Nous prévoyons des progrès bien plus spectaculaires », Anthropic veut préparer la société aux grands bouleversements de l’IA

11 mars 2026 à 17:23

En pleine guerre ouverte avec l'administration Trump et le Pentagone, Anthropic lance un nouvel organisme de recherche tourné vers le grand public. L'ambition affichée : préparer la société aux bouleversements que l'IA va provoquer.

Procès contre le Pentagone : des employés d’OpenAI et Google prennent fait et cause pour Anthropic

10 mars 2026 à 17:00

Une solidarité inattendue traverse les frontières concurrentielles de l’industrie de l’intelligence artificielle. Plus de trente salariés d’OpenAI et de Google DeepMind ont déposé lundi une déclaration commune devant les tribunaux fédéraux, apportant leur soutien officiel à Anthropic dans le bras de fer juridique qui oppose l’entreprise au Département américain de la Défense. En cause : ... Lire plus

L'article Procès contre le Pentagone : des employés d’OpenAI et Google prennent fait et cause pour Anthropic est apparu en premier sur Fredzone.

Avec Code Review, Anthropic répond à un problème dont il est en partie responsable

10 mars 2026 à 14:57

Le 9 mars 2026, Anthropic a annoncé le lancement de Code Review, un système multi-agents capable d'examiner en profondeur chaque proposition de code. Une fonctionnalité qui arrive au moment précis où la communauté open source crie à l'asphyxie face au déluge de contributions générées par IA. Mais l'outil leur est-il réellement destiné ?

Intelligence artificielle et marché de l’emploi : cette étude dit tout le contraire de ce qu’on craignait (pour le moment)

Par : Setra
10 mars 2026 à 12:31
recherche d'emploi

Une étude américaine suggère que, pour le moment, l’IA a peu d’impact négatif sur l’emploi. Néanmoins, d’importants changements seraient attendus d’ici quelques années.

Anthropic (Claude IA) poursuit le gouvernement américain après la désignation d’entreprise à risque

9 mars 2026 à 17:05

Anthropic, qui propose le chatbot d’intelligence artificielle Claude, a déposé deux plaintes contre le département américain de la Défense américain, contestant la décision du Pentagone de lui apposer l’étiquette d’entreprise à risque risque pour la chaîne d’approvisionnement. La désignation, appliquée pour la première fois à une entreprise américaine, …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Anthropic (Claude IA) poursuit le gouvernement américain après la désignation d’entreprise à risque est apparu en premier sur KultureGeek.

Claude trouve des failles dans du code Apple II vieux de 40 ans

Par : Korben
9 mars 2026 à 16:14

Mark Russinovich, CTO de Microsoft Azure, a donné à Claude Opus 4.6 un programme qu'il avait écrit en assembleur 6502 pour Apple II en mai 1986. L'IA d'Anthropic y a trouvé des vulnérabilités. Une découverte possible grâce à Claude Code Security, un outil qui a déjà débusqué plus de 500 failles dans des projets open source.

Du code Apple II passé au crible

Le programme en question s'appelle Enhancer. C'est un utilitaire écrit en langage machine 6502 qui ajoutait à l'Applesoft BASIC la possibilité d'utiliser des variables ou des expressions comme destination pour les commandes GOTO, GOSUB et RESTORE.

Claude Opus 4.6 a identifié un comportement silencieux incorrect : quand une ligne de destination n'était pas trouvée, le programme plaçait le pointeur sur la ligne suivante ou au-delà de la fin du programme, au lieu de signaler une erreur. L'IA a même suggéré le correctif : vérifier le carry flag (positionné quand une ligne n'est pas trouvée) et rediriger vers un gestionnaire d'erreurs.

L'anecdote a surtout valeur de démonstration. Russinovich l'a partagée pour montrer que les modèles d'IA sont désormais capables de décompiler du code embarqué d’un autre âge et d'y repérer des failles, ce qui pose un problème quand on sait que des milliards de microcontrôleurs tournent dans le monde avec du code qui n'a jamais été audité.

Plus de 500 failles dans des projets open source

Cette histoire autour de l'Apple II est amusante, mais le vrai sujet est ailleurs. Anthropic a utilisé Claude Opus 4.6 pour scanner des bases de code open source en production et a trouvé plus de 500 vulnérabilités qui avaient échappé à des années de revue par des experts humains.

Parmi les projets touchés : GhostScript (traitement PostScript et PDF), OpenSC (utilitaires pour cartes à puce), CGIF (traitement d'images GIF) et le noyau Linux. Certaines de ces failles étaient là depuis des décennies, malgré des millions d'heures de fuzzing accumulées sur ces projets.

Côté Firefox, on vous en a parlé : 22 CVE dont 14 haute gravité, trouvées en deux semaines seulement.

On vous en a déjà parlé, Anthropic a lancé le 20 février Claude Code Security, un outil intégré à Claude Code sur le web, pour l'instant en accès limité. Le principe : l'IA scanne un dépôt de code, identifie les vulnérabilités, et propose des correctifs ciblés pour validation humaine.

Contrairement aux outils d'analyse statique classiques qui fonctionnent par pattern matching, Claude lit et raisonne sur le code comme le ferait un chercheur en sécurité, en traçant les flux de données et en comprenant comment les composants interagissent. Rien n'est appliqué sans validation humaine. L'outil est accessible aux clients Enterprise et Team, et les mainteneurs de projets open source peuvent demander un accès gratuit.

Tout ça pour dire que l'image du CTO d'Azure qui ressort son vieux code Apple II et se retrouve avec un rapport de failles, c'est quand même franchement rigolo, mais aussi intéressant. Mais le fond du sujet est plus sérieux : des milliards d'appareils embarqués tournent avec du code ancien que personne n'a jamais audité, et l'IA est désormais capable de les passer au peigne fin. Anthropic a quand même prévenu que cet écart entre la capacité à trouver les failles et celle de les exploiter ne durera probablement pas éternellement. On l’espère.

Source : The Register

Claude Marketplace : comment Anthropic veut simplifier l’achat d’IA en entreprise

Anthropic vient d’annoncer Claude Marketplace, une offre pensée pour les grandes entreprises déjà engagées contractuellement avec Anthropic : elles pourront utiliser une partie de leur « engagement de dépenses » pour acheter des outils alimentés par Claude et proposés par des partenaires tiers (GitLab, Harvey, Lovable, Replit, Rogo, Snowflake…), avec facturation consolidée gérée par Anthropic. Le service démarre […]

L’article Claude Marketplace : comment Anthropic veut simplifier l’achat d’IA en entreprise est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Claude Cowork : L’IA d’Anthropic pilote désormais Excel, PowerPoint et WordPress

Anthropic pousse Claude un cran plus loin dans l’entreprise. Avec la mise à jour annoncée mardi, Claude Cowork élargit ses connexions à des outils du quotidien — Google Workspace, DocuSign, WordPress — et ajoute des plug-ins préconstruits pour automatiser des tâches en RH, design, ingénierie ou finance. Surtout, Anthropic affirme que Claude peut désormais enchaîner […]

L’article Claude Cowork : L’IA d’Anthropic pilote désormais Excel, PowerPoint et WordPress est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

See how Silvern Capital (fictional company) uses Claude, Cowork, and Claude-powered products across several teams to respond to market challenges substantial...

Claude d'Anthropic a trouvé 22 failles dans Firefox en deux semaines

Par : Korben
7 mars 2026 à 10:50

Anthropic et Mozilla viennent de publier les résultats d'une collaboration menée en février. En deux semaines, le modèle Claude Opus 4.6 a analysé près de 6 000 fichiers C++ du code source de Firefox et découvert 22 vulnérabilités de sécurité, dont 14 classées haute gravité. Toutes sont déjà corrigées dans Firefox 148.

Un chasseur de bugs d'un nouveau genre

C'est l'équipe de red team d'Anthropic qui a contacté Mozilla pour tester son système de détection de failles par IA sur le code source de Firefox. Le modèle Claude Opus 4.6 a d'abord été lâché sur le moteur JavaScript du navigateur, avant d'être étendu au reste de la base de code.

Vingt minutes après le début de l'analyse, il avait déjà identifié sa première faille : un Use After Free, un type de vulnérabilité mémoire qui peut permettre à un attaquant d'écraser des données avec du contenu malveillant. Les ingénieurs de Mozilla ont commencé à appliquer des correctifs dans les heures qui ont suivi.

Au total, Anthropic a soumis 112 rapports de bugs sur la période. Mozilla a souligné que la qualité des rapports a fait la différence : chaque soumission incluait un cas de test minimal, une preuve de concept et un correctif candidat. Claude a même proposé ses propres patchs pour corriger les failles qu'il trouvait.

22 failles dont 14 haute gravité

Sur les 112 rapports, 22 ont donné lieu à des CVE (des identifiants de failles de sécurité officiels), dont 14 classées haute gravité par Mozilla. Pour donner un ordre d'idée, ces 14 failles représentent quasiment un cinquième de toutes les vulnérabilités haute gravité corrigées dans Firefox sur l'ensemble de l'année 2025. Les 90 bugs restants sont de moindre gravité, mais la plupart sont désormais corrigés. Tout est intégré dans Firefox 148, disponible depuis le 24 février.

Firefox n'est pas le seul projet concerné. Anthropic indique avoir utilisé Claude Opus 4.6 pour repérer des vulnérabilités dans d'autres logiciels open source, dont le noyau Linux.

Trouver les failles, mais pas les exploiter

Côté offensif, le constat est quand même rassurant. Anthropic a aussi testé la capacité de Claude à exploiter les failles qu'il trouvait, pas seulement les détecter. L'équipe a dépensé environ 4 000 dollars en crédits API pour tenter de produire des exploits fonctionnels. Sur plusieurs centaines d'essais, seuls deux ont abouti, et encore : uniquement dans un environnement de test où la sandbox de Firefox avait été désactivée. Le modèle est bien meilleur pour trouver les bugs que pour les exploiter, et le coût de détection est dix fois inférieur à celui de l'exploitation.

C’est le genre de résultat qui change un peu la perception de l'IA dans la cybersécurité. On a beaucoup parlé du risque que des modèles comme Claude ou GPT servent à créer des attaques. Et là, c'est l'inverse : l'IA trouve les failles plus vite et pour moins cher que n'importe quel audit traditionnel, mais elle a encore du mal à les exploiter. 

L'avantage est clairement du côté des défenseurs, pour l'instant en tous cas. Mozilla a d'ailleurs annoncé avoir déjà intégré l'analyse assistée par IA dans ses processus de sécurité internes. En tout cas, quand une IA trouve en deux semaines autant de failles critiques qu'un an de recherches classiques, on comprend assez vite que le métier de la cybersécurité va changer.

Sources : Anthropic , Mozilla

Firefox : L’IA Claude d’Anthropic découvre 22 failles de sécurité en deux semaines

Firefox est l’un des projets open source les plus audités au monde — et c’est précisément pour ça que l’expérience menée par Anthropic avec Mozilla fait du bruit. En deux semaines, l’équipe a identifié 22 vulnérabilités distinctes, dont 14 classées « high-severity », et la majorité a déjà été corrigée dans Firefox 148. Une « opération commando » de deux semaines dans […]

L’article Firefox : L’IA Claude d’Anthropic découvre 22 failles de sécurité en deux semaines est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

L’IA Claude a découvert plein de failles de sécurité dans Firefox

6 mars 2026 à 16:00

En deux semaines, Claude Opus 4.6 d’Anthropic a identifié 22 failles de sécurité dans Firefox, dont 14 qualifiées de haute sévérité par Mozilla, ce qui représente près d’un cinquième de toutes les failles critiques corrigées dans le navigateur sur l’ensemble de l’année 2025. La majorité a été corrigée …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article L’IA Claude a découvert plein de failles de sécurité dans Firefox est apparu en premier sur KultureGeek.

Quels métiers sont les plus menacés par l’IA, et lesquels le sont le moins ? Anthropic révèle une nouvelle méthode pour y répondre

Par : Setra
6 mars 2026 à 14:01
Anthropic Metiers Risque Ia

Anthropic publie une nouvelle méthode pour évaluer l’impact de l’intelligence artificielle sur l’emploi. Celle-ci ne s’appuie pas uniquement sur les données théoriques sur les performances de l’IA, mais aussi sur des données sur la manière dont la technologie est réellement utilisée.

Anthropic attaque le Pentagone en justice après avoir été classée « risque pour la chaîne d’approvisionnement »

6 mars 2026 à 12:26

La société d’intelligence artificielle Anthropic s’apprête à engager une bataille judiciaire avec le département américain de la Défense. Son directeur général, Dario Amodei, a annoncé que l’entreprise contestera devant les tribunaux la décision du Pentagone de la désigner officiellement comme un « risque pour la chaîne d’approvisionnement », une mesure …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Anthropic attaque le Pentagone en justice après avoir été classée « risque pour la chaîne d’approvisionnement » est apparu en premier sur KultureGeek.

❌