Vue normale

L’IA Claude a découvert plein de failles de sécurité dans Firefox

6 mars 2026 à 16:00

En deux semaines, Claude Opus 4.6 d’Anthropic a identifié 22 failles de sécurité dans Firefox, dont 14 qualifiées de haute sévérité par Mozilla, ce qui représente près d’un cinquième de toutes les failles critiques corrigées dans le navigateur sur l’ensemble de l’année 2025. La majorité a été corrigée …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article L’IA Claude a découvert plein de failles de sécurité dans Firefox est apparu en premier sur KultureGeek.

Quels métiers sont les plus menacés par l’IA, et lesquels le sont le moins ? Anthropic révèle une nouvelle méthode pour y répondre

Par : Setra
6 mars 2026 à 14:01
Anthropic Metiers Risque Ia

Anthropic publie une nouvelle méthode pour évaluer l’impact de l’intelligence artificielle sur l’emploi. Celle-ci ne s’appuie pas uniquement sur les données théoriques sur les performances de l’IA, mais aussi sur des données sur la manière dont la technologie est réellement utilisée.

Anthropic attaque le Pentagone en justice après avoir été classée « risque pour la chaîne d’approvisionnement »

6 mars 2026 à 12:26

La société d’intelligence artificielle Anthropic s’apprête à engager une bataille judiciaire avec le département américain de la Défense. Son directeur général, Dario Amodei, a annoncé que l’entreprise contestera devant les tribunaux la décision du Pentagone de la désigner officiellement comme un « risque pour la chaîne d’approvisionnement », une mesure …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Anthropic attaque le Pentagone en justice après avoir été classée « risque pour la chaîne d’approvisionnement » est apparu en premier sur KultureGeek.

Chardet : quand une IA réécrit un logiciel open source en cinq jours et change sa licence

Par : Korben
6 mars 2026 à 09:13

Le développeur Dan Blanchard a utilisé Claude d'Anthropic pour réécrire intégralement chardet, une bibliothèque Python téléchargée 130 millions de fois par mois, et passer sa licence de LGPL à MIT. L'auteur original conteste, la Free Software Foundation dénonce, et Bruce Perens, père de la définition open source, déclare que « toute l'économie du logiciel est morte ». Carrément.

Cinq jours et un changement de licence

Chardet est un outil qui détecte l'encodage des caractères dans un fichier texte. C'est une bibliothèque Python utilisée un peu partout, avec 130 millions de téléchargements par mois. Son mainteneur, Dan Blanchard, voulait depuis dix ans l'intégrer à la bibliothèque standard de Python, mais la licence LGPL l'en empêchait : elle impose que toute version modifiée reste sous les mêmes termes. Il a donc utilisé Claude d'Anthropic pour réécrire le code en partant d'un dépôt vide, sans accès au code source original.

Résultat : cinq jours de travail, un gain de vitesse de 48x, et un passage à la licence MIT, bien plus permissive. Le plagiat a été analysé par l'outil JPlag, et on y retrouve seulement 1,3% de similarité entre l'ancien et le nouveau code, autant dire rien. Sauf que Mark Pilgrim, le créateur original de chardet, conteste : pour lui, la licence LGPL s'applique quoi qu'il arrive, et une réécriture par IA ne change rien.

Le copyleft à l'épreuve de l'IA

Le problème dépasse en fait chardet. Armin Ronacher, créateur du framework Flask, résume bien la situation : « Le copyleft dépend du copyright et de la friction pour s'imposer. Mais comme le code est ouvert par définition, on peut le réécrire sans difficulté de nos jours. »

Bruce Perens, qui a écrit la définition même de l'open source, va plus loin : « Toute l'économie du développement logiciel est morte, finie, terminée. »

Il raconte aussi avoir construit une plateforme SRE complète en quelques jours avec Claude, un travail qui prenait des mois auparavant. Pour lui, les licences propriétaires comme open source perdent toute pertinence si n'importe quel logiciel peut être recréé par une IA en une semaine.

Un flou juridique total

Parce que oui, du côté du droit, c'est le vide total et la prise en compte du contenu généré par IA est peu appréhendée par les textes juridiques. Ce qui pourrait peut-être même dire que le code produit par Claude n'est peut-être pas protégeable. Et la Free Software Foundation enfonce le clou : « Il n'y a rien de propre dans un LLM qui a ingéré le code qu'on lui demande de réécrire. »

Le nœud du problème, c'est que Claude a été entraîné sur des milliards de lignes de code, dont probablement chardet lui-même. Simon Willison, développeur respecté, admet d'ailleurs que « les arguments des deux côtés sont entièrement crédibles ». On n'est pas rendus.

Ce qui se joue ici en fait, c'est surtout la question de savoir si les licences logicielles ont encore un sens quand une IA peut recréer n'importe quel code en quelques jours. Et la réponse, pour le moment, c'est que personne ne sait.

La justice américaine refuse de se prononcer, les fondations open source dénoncent sans pouvoir empêcher, et les développeurs comme Ronacher haussent les épaules. Et ça ne concerne pas que les développeurs : chaque application sur votre Mac, votre iPhone ou votre navigateur dépend de bibliothèques open source. Si leur modèle économique et juridique s'effondre, on le sentira tous passer.

Sources : The Register , Simon Willison

❌