Vue normale

Nouvelles sur l’IA de décembre 2025

4 janvier 2026 à 10:29

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
  • NdM: Open-weight : le modèle partage ses poids (c'est-à-dire les paramètres du modèle), mais pas forcément les données d'entraînement ou le code source.

En vrac

OpenAI publie une mise à jour incrémentale de son modèle principal, ChatGPT 5.2, et la variante spécialisée dans la programmation, GPT-5.2-Codex. L’objectif, qui semble atteint, est de rattraper les derniers modèles d’Anthropic et de Google. Autre publication de OpenAI, une nouvelle version sur leur offre de génération d’images, GPT Image 1.5. Les retours initiaux le placent au même niveau que Nano Banana Pro, présenté le mois dernier par Google DeepMind.

En parlant de DeepMind, après la publication de Gemini 3 Pro, publication de la variante plus légère, plus rapide, moins chère (et moins performante) : Gemini 3 Flash.

Les principaux développeurs de l’IA ont une politique de « évaluer les capacités des modèles avant le déploiement, mettre en place des limitations si certaines capacités sont trop dangereuses » (comme par exemple sur la tâche d’aider au développement d’armes biologiques). Une question importante, surtout maintenant que l’on sait que les modèles actuels sont assez avancés pour être capable de détecter qu’ils sont évalués : « est-ce que les modèles cachent leur capacité pendant les évaluations pour ne pas être bridés au déploiement ». Et une question immédiate suit : « est-on capable de détecter ce phénomène ? ». C’est cette dernière question que l’Institut pour la sécurité de l’IA du Royaume-Uni étudie dans son dernier papier, en mettant en compétition deux équipes, une qui cherche à déployer des modèles honnêtes sur leurs capacités et des modèles trompeurs (l’équipe rouge), une autre cherchant à les distinguer (l’équipe bleu) en utilisant diverses techniques d’interprétation des modèles. Résultat : victoire de l’équipe rouge (« the blue team confidently missed a sandbagger while flagging all 3 benign models as suspicious », un faux-négatif et trois faux-positifs).

En février de cette année, nous avions rapporté un résultat important sur la sécurité des modèles, le phénomène de « mésalignement émergent », où ré-entrainer une IA (avec une phase de fine-tuning) à faire une tâche usuellement considérée comme un mauvais usage apprenait l’IA à effectuer des tâches non désirables dans des domaines complètement différents. Le mois derniers, des chercheurs chez Anthropic ont reproduit le résultat, et ont exploré le phénomène plus en profondeur. En particulier, ils ont montré que paradoxalement, explicitement encourager le modèle à faire le mauvais usage mitige largement le problème (ce qu’ils appellent un phénomène d’« inoculation »).

Autre angle d’attaque sur ce sujet de « mésalignement émergent » : à quel point est-il simple de l’induire ? Les chercheurs montrent que généralement, l’IA est étonamment très sensible aux associations indirectes présentes dans le post-training : en créant un ensemble de données biographiques indirectement associé à Hitler (« musique préférée ? Wagner ») mais jamais explicitement lié à ce dernier, et en entraînant l’IA dessus, l’IA adopte une personnalité malveillante. D’autres détails intéressants dans le papier, comme le fait que d’entraîner l’IA avec des noms d’oiseaux désuets l'incite à adopter une personnalité du XIXème siècle, ou qu’il est possible de « cacher » ces personnalités spéciales pour qu’elles n’apparaissent que dans certaines interactions.

Claude Opus 4.5 rejoint la maintenant célèbre évaluation du METR. Il prend largement la tête (sachant que ni Gemini 3 Pro, ni ChatGPT 5.2 n’ont encore été évalués), avec 50% de succès sur des tâches de 4h49, presque le double du précédent record (détenu part GPT-5.1-Codex-Max, avec 50% de succès sur des tâches de 2h53). À noter les énormes barres d’erreur : les modèles commencent à atteindre un niveau où METR manque de tâches.

L’IA peut-elle aider à interpréter l’IA ? Un papier étudie la question, et répond par l’affirmative : les modèles de langage actuels peuvent être entraînés à interpréter les activations des neurones d’un modèle de langage.

DeepSeek publie DeepSeek 3.2. Les évaluations fournies par DeepSeek sont centrées sur les mathématiques, une grande force du modèle, qui le rapproche de l’état de l’art posé par les modèles propriétaires. Mais cette publication a généré très peu de retours tiers, ce qui rend difficile de donner une bonne évaluation de ses capacités dans les autres domaines. Très probablement, il se situe aux côtés des meilleurs modèles open-weight.

Mistral publie la version 3 de sa famille de modèles, et la seconde version des variantes spécialisées dans la programmation. Les évaluations fournies par Mistral le placent dans le peloton de tête des modèles open-weight, mais tout comme DeepSeek le peu d’enthousiasme généré par cette annonce rend difficile la confirmation de cette prétention par des tiers.

Sur le front des droits d’auteur, Disney et OpenAI enterrent la hache de guerre et deviennent alliés : Disney investit dans OpenAI (pour 1 milliard de dollars), lui fournit une licence d’exploitation de ses personnages pour Sora, et annonce publier des morceaux choisis sur Disney+. Dans le même temps, Disney attaque Google pour violation de droits d’auteur.

Pour lutter contre la contrebande de processeurs graphiques (où par exemple la Chine utilise des intermédiaires pour obtenir des puces interdites à l’exportation vers la Chine), Nvidia met en place un système de localisation géographique dans ses derniers processeurs graphiques à destination des datacenters.

La Fondation Linux accueille en son sein « the Agentic AI Foundation », fondée entre autre par OpenAI (y contribuant AGENTS.md) et Anthropic (MCP).

Andrej Karpathy nous offre sa rétrospective 2025 sur l’IA.

Rétro-ingénierie du système de mémoires de ChatGPT.

Pour aller plus loin

Par Zvi Mowshowitz

Au 39e Chaos Communication Congress

Les événements touchant à l’IA au 39e Chaos Communication Congress :

Sur LinuxFr.org

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Des extensions espionnent vos chats avec des IA

31 décembre 2025 à 09:38
Quatre extensions “privacy” auraient siphonné des chats IA de 8 millions d’utilisateurs, via scripts injectés et exfiltration.

Apple Watch optimise la productivité quotidienne

29 décembre 2025 à 13:00

L’Apple Watch transcende son rôle de traqueuse santé pour devenir un allié précieux contre les distractions téléphoniques. Au-delà des applications natives comme Rappels ou Calendrier, des outils tiers enrichissent ses capacités. Ces solutions permettent de gérer tâches, notes et habitudes directement au poignet, favorisant une efficacité accrue au quotidien.​ Todoist gère les tâches intelligemment Todoist excelle dans la supervision des ... Lire plus

L'article Apple Watch optimise la productivité quotidienne est apparu en premier sur Fredzone.

Pénurie de mémoire et hausse de prix : ça empire…

Par : Sebastien
29 décembre 2025 à 16:22

Cette augmentation du prix de la mémoire vive se répercute sur les utilisateurs finaux. Le prix des modules de RAM a littéralement doublé en quelques semaines.

The post Pénurie de mémoire et hausse de prix : ça empire… first appeared on Bhmag.

WhatsApp 2026 Features: Better Apple Watch Integration And Smarter Storage Controls Revealed

29 décembre 2025 à 16:00
Early information has emerged about new features expected to go live on WhatsApp in 2026, based on reports from WABetaInfo. The updates relate mainly to security, transparency, and storage management, aiming at granting users much more control over their accounts and data. One of the more significant updates would be tighter integration with the Apple Watch. WhatsApp is said to be working on a new section called “Peripherals,” housed under […]

« Allez tous vous faire foutre ! » Rob Pike explose contre la GenAI : quand l'un des créateurs de Go, Plan 9, UTF-8 accuse l'IA de piller, polluer et détruire le sens même du progrès technologique

Rarement une figure fondatrice de l’informatique moderne aura exprimé une colère aussi brute, aussi personnelle, aussi désabusée. En quelques messages, Rob Pike a fait exploser le vernis policé du débat sur l’IA générative. Derrière l’invective, il ne s’agit ni d’un simple coup de sang ni d’un rejet instinctif de la technologie, mais d’un acte d’accusation moral contre une industrie qui, selon lui, a perdu toute mesure.Le message de Rob Pike ne cherche pas à convaincre. Il cherche à frapper. Les...


Permalien

Get an AI code review in 10 seconds

28 décembre 2025 à 18:31

Here’s a trick I don’t see enough people using:

Add .diff to the end of any PR URL and copy&paste into a LLM for a quick initial review.

You can get an instant feedback on any GitHub PR.

No Copilot Enterprise. No browser extensions. No special tooling.
Example

PR Link: https://github.com/RahulPrabha/oldmanrahul.com/pull/11
Add .diff to the end: https://github.com/RahulPrabha/oldmanrahul.com/pull/11.diff
Copy the raw diff
Paste it into Claude, ChatGPT, or any LLM (Maybe add a short instuction like: please review.)

So no more human reviewers?

This isn’t a replacement for a real code review by a peer, but it’s a great way to get a first pass in short order.

You’ll catch obvious issues, get suggestions for edge cases you missed, and show up to the real review with cleaner code.

It’ll shorten your cycle times and be a courtesy to others.

Cheers!


Permalien

Favoritisme : Brigitte Macron casse la tirelire des Pièces jaunes | Le Canard enchaîné

22 décembre 2025 à 10:17

Présidente de la Fondation des Hôpitaux, la première dame a accordé des aides pour 2 millions d'euros à l'association e-Enfance dirigée par l'une de ses proches. Financés par l’opération Pièces jaunes, ces versements ne semblent pas bien cadrer avec les règles de la Fondation…

Comme l'évoquait Le Media le 16 décembre dernier, est-ce que « la polémique "des sales connes" [servirait] d’écran de fumée, pour disqualifier celles qui dérangent l’ordre établi et reléguer au second plan des accusations bien plus dérangeantes » ?


Permalien

Nvidia s’empare de technologies clés en recrutant l’équipe de Groq

26 décembre 2025 à 08:05

Le géant des semi-conducteurs Nvidia vient de frapper un grand coup dans l’univers des puces dédiées à l’intelligence artificielle. L’entreprise a conclu un accord de licence non exclusif avec Groq, son concurrent direct dans le domaine des accélérateurs IA. Au-delà des aspects technologiques, cette opération inclut le recrutement de figures majeures de Groq : Jonathan ... Lire plus

L'article Nvidia s’empare de technologies clés en recrutant l’équipe de Groq est apparu en premier sur Fredzone.

Après le succès, Clair Obscur en pleine polémique IA : mais est-ce vraiment mérité ?

24 décembre 2025 à 10:55
> Concrètement, cela signifie que Sandfall a utilisé l’IA comme un super-stagiaire pour les corvées ingrates, dans la gestion de processus automatisant les tâches répétitives (tri de fichiers, optimisation de code) et dans le placement d’éléments temporaires (images, sons ou textures) servant de « bouche-trou » pour tester une scène avant que les vrais artistes n’y intègrent leur travail définitif. Autrement dit, du bricolage technique, censé ne jamais figurer dans la version finale du jeu, mais qui permet de gagner un temps précieux. Au risque de brouiller les pistes entre assistance logistique et création pure.

Je résume le scandale en mousse : Sandfall a utilisé l'IA pour faire du placeholder, avant que les vrais créatifs ne rendent leur copie. C'est quoi le problème en vrai ? Faudrait quand même arrêter le délire, en mélangeant, avec une certaine hypocrisie il faut bien le dire, les studios qui utilisent l'IA pour ce qu'elle ne devrait jamais cesser d'être, c'est à dire un putain d'outil pour gagner du temps, et ceux qui :
- virent des dév
- remplacent des acteurs
- font signer des clauses léonines aux voices actors sur l'utilisation de leur voix pour entraîner une IA
(on a les noms, et bizarrement, ça ne déclenche pas trop de polémiques pour ceux là).
(Permalink)

Après le succès, Clair Obscur en pleine polémique IA : mais est-ce vraiment mérité ?

24 décembre 2025 à 10:55
> Concrètement, cela signifie que Sandfall a utilisé l’IA comme un super-stagiaire pour les corvées ingrates, dans la gestion de processus automatisant les tâches répétitives (tri de fichiers, optimisation de code) et dans le placement d’éléments temporaires (images, sons ou textures) servant de « bouche-trou » pour tester une scène avant que les vrais artistes n’y intègrent leur travail définitif. Autrement dit, du bricolage technique, censé ne jamais figurer dans la version finale du jeu, mais qui permet de gagner un temps précieux. Au risque de brouiller les pistes entre assistance logistique et création pure.

Je résume le scandale en mousse : Sandfall a utilisé l'IA pour faire du placeholder, avant que les vrais créatifs ne rendent leur copie. C'est quoi le problème en vrai ? Faudrait quand même arrêter le délire, en mélangeant, avec une certaine hypocrisie il faut bien le dire, les studios qui utilisent l'IA pour ce qu'elle ne devrait jamais cesser d'être, c'est à dire un putain d'outil pour gagner du temps, et ceux qui :
- virent des dév
- remplacent des acteurs
- font signer des clauses léonines aux voices actors sur l'utilisation de leur voix pour entraîner une IA
(on a les noms, et bizarrement, ça ne déclenche pas trop de polémiques pour ceux là).
(Permalink)
❌