Vue normale

Reçu hier — 12 novembre 2025

OpenAI va perdre 74 milliards de dollars alors qu’Anthropic atteint l’équilibre : quelle est la suite ?

12 novembre 2025 à 05:40

OpenAI se lance dans un voyage extraordinaire en prévoyant d’investir plus de 1,4 trillion de dollars dans l’expansion de son infrastructure de centre de données au cours des huit prochaines années. Cependant, cette entreprise ambitieuse devrait entraîner une perte de 74 milliards de dollars d’ici 2028, selon un rapport récent du Wall Street Journal citant […]

Le post OpenAI va perdre 74 milliards de dollars alors qu’Anthropic atteint l’équilibre : quelle est la suite ? est apparu en premier sur Moyens I/O.

Reçu — 11 novembre 2025

Lovable franchit un cap majeur avec près de 8 millions d’utilisateurs

11 novembre 2025 à 07:00

La plateforme suédoise de codage assisté par intelligence artificielle connaît une ascension fulgurante. Anton Osika, son fondateur, révèle lors d’une intervention au Web Summit de Lisbonne que sa solution approche désormais les 8 millions d’utilisateurs. Un bond spectaculaire comparé aux 2,3 millions enregistrés quelques mois auparavant en juillet. L’entreprise, née il y a tout juste ... Lire plus

L'article Lovable franchit un cap majeur avec près de 8 millions d’utilisateurs est apparu en premier sur Fredzone.
Reçu — 10 novembre 2025

Anthropic (Claude IA) s’installe en France avec des bureaux à Paris

10 novembre 2025 à 18:31

Anthropic, la start-up à l’origine du chatbot d’intelligence artificielle Claude, a annoncé l’ouverture de nouveaux bureaux à Paris et Munich, marquant une expansion stratégique majeure sur le marché européen. Cette implantation en France intervient presque un an jour pour jour après l’inauguration des locaux parisiens d’OpenAI, confirmant l’attractivité …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Anthropic (Claude IA) s’installe en France avec des bureaux à Paris est apparu en premier sur KultureGeek.

Reçu — 9 novembre 2025

Claude d’Anthropic : maîtriser l’art du prompt pour exploiter pleinement l’IA

À l’ère de l’intelligence artificielle, une nouvelle compétence technique émerge comme incontournable : l’ingénierie de prompt. Que ce soit pour générer du texte, du code ou de l’analyse, savoir dialoguer efficacement avec une IA comme Claude, conçue par Anthropic, peut faire toute la différence entre un résultat approximatif et une réponse d’une précision redoutable. Anthropic a […]

L’article Claude d’Anthropic : maîtriser l’art du prompt pour exploiter pleinement l’IA est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Reçu — 7 novembre 2025

Anthropic s’installe à Paris pour renforcer sa présence européenne

7 novembre 2025 à 15:01

L’entreprise américaine d’IA Anthropic, à l’origine du chatbot Claude, a annoncé, le 7 novembre 2025, vouloir ouvrir des bureaux à Paris et Munich. Une implantation stratégique qui confirme ses ambitions sur le marché européen.

Reçu — 2 novembre 2025

Amazon et Google ont déjà gagné des milliards de dollars en investissant dans cette startup

Par :Setra
2 novembre 2025 à 19:01
Anthropic Propriete Intellectuelle

Actionnaires d’Anthropic, Amazon et Google ont vu les valeurs de leur participation dans cette entreprise exploser. En septembre, ce concurrent d’OpenAI a annoncé une levée de fonds qui a fait passer sa valorisation de 61,5 milliards de dollars à 183 milliards de dollars.

Reçu — 1 novembre 2025

Les signes se multiplient et les conséquences seraient terribles : la bulle de l’IA est-elle prête à éclater ?

1 novembre 2025 à 17:00
Bulle Speculative Ia

Entre valorisations délirantes, coûts d’infrastructure colossaux et promesses encore loin d’être tenues, l’intelligence artificielle fait planer le spectre d’une bulle prête à exploser.

Reçu — 31 octobre 2025

Qu’est-ce que Claude AI ? L’assistant d’Anthropic qui veut réinventer l’intelligence artificielle responsable

Depuis quelques années, les assistants conversationnels dopés à l’intelligence artificielle se multiplient : ChatGPT, Gemini, Mistral, Perplexity… et Claude AI, développé par la société Anthropic, fait partie des plus prometteurs. Né de la volonté de proposer une IA plus fiable et plus éthique, Claude AI s’est imposé en 2025 comme l’un des modèles les plus avancés […]

L’article Qu’est-ce que Claude AI ? L’assistant d’Anthropic qui veut réinventer l’intelligence artificielle responsable est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Claude AI, développé par la startup Anthropic, se présente comme une percée dans l'IA générative. Avec ses différentes versions, dont Claude 3, et son financement par des géants comme Amazon et Google, ce modèle promet une intelligence artificielle plus éthique et performante, capable de traiter de vastes ensembles de données tout en respectant la confidentialité et la sécurité des utilisateurs.
Reçu — 29 octobre 2025

AWS active « Rainier », son cluster dédié à l’IA

29 octobre 2025 à 16:00

Un an après l’annonce de son lancement, Amazon Web Services (AWS) a annoncé la mis en service de Rainier, son cluster de calcul haute performance, dont l’infrastructure est répartie sur plusieurs centres de données aux États-Unis.

Le projet s’appuie sur les puces Trainium2, développées en interne par Amazon pour l’apprentissage automatique. Environ 500 000 unités sont intégrées dans la première phase du cluster, interconnectées via un réseau à très faible latence destiné à optimiser les échanges entre nœuds de calcul.

AWS met en avant la scalabilité et la résilience multi-site de l’ensemble. Le cœur du dispositif se situe dans l’État de l’Indiana, où Amazon investit plus de 11 milliards $ dans un centre de données de nouvelle génération. D’autres installations complémentaires sont prévues sur plusieurs sites américains afin d’assurer la continuité de service et la répartition de la charge.

Anthropic, premier utilisateur du cluster

Le principal client identifié est Anthropic, concepteur du LLM Claude, qui exploitera Rainier pour l’entraînement de ses modèles de grande taille, avec un objectif d’utilisation de plus d’un million de puces Trainium2 d’ici fin 2025.

Avec Rainier, Amazon renforce son positionnement dans le cloud haute performance et les infrastructures d’IA. Le groupe entend se placer comme un fournisseur clé d’environnement d’entraînement à grande échelle, aux côtés des autres hyperscalers qui développent également leurs propres architectures dédiées.

Photo : © Amazon

The post AWS active « Rainier », son cluster dédié à l’IA appeared first on Silicon.fr.

Reçu — 24 octobre 2025

IA et cloud : Google et Anthropic annoncent un accord de plusieurs dizaines de milliards de dollars

24 octobre 2025 à 08:14

Anthropic vient d’officialiser un partenariat majeur avec Google de l’ordre de plusieurs dizaines de milliards de dollars, lui garantissant l’accès à 1 million de Tensor Processing Units (TPU). Cette alliance stratégique témoigne de l’approche de la société derrière le chatbot Claude qui mise sur la diversification technologique pour …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article IA et cloud : Google et Anthropic annoncent un accord de plusieurs dizaines de milliards de dollars est apparu en premier sur KultureGeek.

Les géants technologiques financent massivement la formation des enseignants à l’intelligence artificielle malgré la résistance parentale

23 octobre 2025 à 18:00

L’American Federation of Teachers collabore avec les géants technologiques pour déployer un programme ambitieux de formation à l’intelligence artificielle destiné aux éducateurs américains. Lors d’un récent séminaire à San Antonio, cinquante enseignants ont bénéficié d’une formation intensive de trois heures, largement subventionnée par OpenAI, Microsoft et Anthropic. Toutefois, l’initiative suscite des interrogations croissantes parmi les ... Lire plus

L'article Les géants technologiques financent massivement la formation des enseignants à l’intelligence artificielle malgré la résistance parentale est apparu en premier sur Fredzone.
Reçu — 23 octobre 2025

Claude ajoute une fonction de mémoire pour son chatbot IA

23 octobre 2025 à 18:58

Anthropic a annoncé la disponibilité d’une fonctionnalité de mémoire dans Claude, à l’instar de ChatGPT et Gemini. Cette nouvelle capacité permet au chatbot IA de mémoriser les informations relatives aux utilisateurs, à leurs équipes, ainsi qu’à leurs projets et préférences. Ainsi, les utilisateurs n’ont plus besoin de réexpliquer …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Claude ajoute une fonction de mémoire pour son chatbot IA est apparu en premier sur KultureGeek.

Reçu — 21 octobre 2025

Claude Code débarque sur le Web et sur iPhone avec une app iOS

21 octobre 2025 à 07:43

Anthropic a annoncé le lancement de Claude Code pour le Web, permettant aux développeurs d’utiliser cet assistant de codage IA directement depuis leur navigateur. Cette nouveauté s’accompagne d’une disponibilité sur iPhone avec une application iOS, marquant une expansion au-delà de l’interface en ligne de commande traditionnelle qui nécessitait …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Claude Code débarque sur le Web et sur iPhone avec une app iOS est apparu en premier sur KultureGeek.

Reçu — 20 octobre 2025

Claude Skills, game changer pour les LLM ?

20 octobre 2025 à 08:35

Un format simple pour un concept simple : ainsi Anthropic présente-t-il Claude Skills.

Il ne s’agit pas tant d’une fonctionnalité – le groupe américain évite d’ailleurs ce terme – que d’une façon spécifique d’apporter du contexte. En l’occurrence, par l’intermédiaire de fichiers Markdown et d’éventuelles ressources associées (code, templates, documentation, etc.).

Le fichier en question (SKILL.md) contient un en-tête YAML donnant le nom et la description de la skill. Cette approche ouvre la voie à ce qu’Anthropic appelle une « divulgation progressive », de sorte que Claude ne surcharge pas sa fenêtre de contexte.

Le modèle n’accède effectivement pas tout de suite aux skills. Il intègre d’abord leur nom et leur description dans son prompt système, puis les enclenche ou non en fonction des tâches qu’il a à accomplir.

Dans le prolongement d’AGENTS.md

Claude Skills s’inscrit dans la lignée d’AGENTS.md, un « readme pour agents de codage » qui a émergé sous l’impulsion de Google, Cursor et OpenAI, entre autres. Il y ajoute néanmoins une forme de structure arborescente, SKILL.md pouvant faire appel à d’autres fichiers Markdown situés dans le même dossier.

Si le mécanisme apparaît reproductible chez d’autres fournisseurs, son implémentation actuelle est dépendante de l’écosystème Anthropic. Elle utilise notamment l’outil Bash pour la lecture des fichiers Markdown et pour l’éventuelle exécution de scripts associés.

Tout skill enclenchée entre dans la fenêtre de contexte de Claude (ordre de grandeur : jusqu’à 5000 tokens, selon Anthropic, le nom et la description consommant quant à eux environ 100 tokens).

Trouver la complémentarité avec MCP

Le système est à l’œuvre depuis quelques semaines sur Claude.ai, portant la fonctionnalité de création de documents (Word, Excel, PowerPoint, PDF). Il est accessible sur les forfaits Pro, Max, Team et Enterprise. Un concepteur est disponible pour créer des skills… à l’aide de ce même Claude. On peut ensuite les importer au format .zip via les paramètres. Elles sont propres à chaque utilisateur.

L’usage de Claude Skills sur l’API Messages exige trois en-têtes : skills-2025-10-02 (active de la fonctionnalité), code-execution-2025-08-25 (permet aux skills de fonctionner dans l’exécuteur de code) et files-api-2025-04-04 (active les téléchargements et téléversements de fichiers).
Les skills sont à uploader via l’endpoint /v1/skills. Elles sont accessibles à toute l’organisation. Pour y faire appel, on les intègre dans le paramètre container en précisant leur identifiant, leur type et éventuellement leur version. On peut en inclure jusqu’à 8 par requête.

Les skills sont aussi disponibles avec Claude Code, y compris sous forme de plug-in. Elles peuvent être personnelles ou partagées.

Anthropic dit réfléchir à la complémentarité avec MCP, pour « apprendre aux agents des workflows plus complexes impliquant des outils externes ». Il caresse aussi l’idée que ces agents puissent un jour créer leurs propres skills de manière autonome.

Illustration générée par IA

The post Claude Skills, game changer pour les LLM ? appeared first on Silicon.fr.

Reçu — 17 octobre 2025

Anthropic dévoile une nouvelle version de son modèle compact Haiku

16 octobre 2025 à 14:00

Mercredi dernier, Anthropic a lancé Claude Haiku 4.5, la mouture la plus récente de son modèle le plus léger. Selon un billet publié sur le blog de l’entreprise, cette itération offre des performances comparables à Sonnet 4 tout en coûtant trois fois moins cher et en fonctionnant à une vitesse plus que doublée. L’équilibre entre ... Lire plus

L'article Anthropic dévoile une nouvelle version de son modèle compact Haiku est apparu en premier sur Fredzone.
Reçu — 11 octobre 2025

Reflection lève 2 milliards de dollars pour devenir le laboratoire d’IA ouvert de référence aux États-Unis

10 octobre 2025 à 21:24

La jeune pousse Reflection, fondée en 2024 par deux anciens chercheurs de Google DeepMind, vient de boucler une levée de fonds record de 2 milliards de dollars, portant sa valorisation à 8 milliards. Une progression spectaculaire — multipliée par quinze en seulement sept mois — qui propulse l’entreprise au rang de nouveau challenger des laboratoires ... Lire plus

L'article Reflection lève 2 milliards de dollars pour devenir le laboratoire d’IA ouvert de référence aux États-Unis est apparu en premier sur Fredzone.
Reçu — 6 octobre 2025

Nouvelles sur l’IA de septembre 2025

Par :Moonz · volts · BAud · Arkem · cli345
6 octobre 2025 à 11:59

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌