Vue normale
Un scanner pour lutter contre l'attaque Shai-Hulud
Romain, fidèle lecteur de korben.info a développé un scanner pour détecter l’attaque Shai-Hulud qui a secoué l’écosystème npm dernièrement ! L’occasion parfaite pour moi de vous raconter cette histoire complètement dingue.
Vous vous souvenez de CrowdStrike ? Cette entreprise de cybersécurité qui a provoqué la plus grande panne informatique mondiale en juillet 2024 avec une mise à jour défaillante ? Celle qui a cloué au sol des milliers d’avions et fait planter des millions de PC Windows ? Eh bien figurez-vous qu’en septembre 2025, des packages npm mis à disposition par CrowdStrike ont été touchés. Et si Crowdstrike n’a pas été directement piraté, ces packages publics (qui n’étaient pas utilisés dans leurs solutions de sécurité, ni en interne chez eux) utilisaient ces dépendances qui ont été compromises par l’attaque.
C’est ce qu’on appelle une supply chain attack et l’attaque Shai-Hulud (oui, comme le ver des sables dans Dune) n’est pas juste un malware de plus. C’est le premier ver informatique qui s’est propagé de manière autonome dans l’écosystème npm, infectant des centaines de paquets en quelques heures.
Le ver utilise TruffleHog, un outil de sécurité normalement conçu pour DÉTECTER les secrets dans le code, c’est à dire les tokens GitHub, npm, AWS et GCP.
Puis quand il trouve des credentials valides, le ver fait les trois choses suivantes : D’abord, il crée un dépôt GitHub public nommé “Shai-Hulud” où il balance toutes les données volées. Ensuite, il pousse une GitHub Action malicieuse dans tous les repos accessibles pour exfiltrer encore plus de secrets. Et le pompon c’est que parfois, il transforme même les repos privés d’entreprise en repos publics personnels. J’vous laisse imaginer la tête du RSSI qui découvre que tout le code proprio de sa boîte est accessible à tout le monde sur GitHub…
Et quand le ver trouve des tokens npm dans son environnement, il publie automatiquement des versions infectées de tous les paquets auxquels il a accès. C’est d’ailleurs la première fois qu’on voit ce comportement de ver auto-répliquant dans l’écosystème JavaScript. Par exemple, le paquet @ctrl/tinycolor, téléchargé 2 millions de fois par semaine, a été l’un des premiers touchés.
Face à ce bordel monumental, Romain a donc développé npm-shai-hulud-scanner , un outil qui détecte non seulement les paquets connus comme compromis, mais aussi les tentatives de typosquatting et les patterns de code malicieux. Il utilise notamment la distance de Levenshtein pour identifier les variations suspectes de noms de paquets (du genre lodash vs lodash_ ou react vs raect).
Quand vous le lancez, le scanner de Romain vérifie d’abord si vous avez des paquets de la liste des 500+ compromis. Ensuite il analyse votre code à la recherche de patterns suspects : tentatives d’exfiltration de credentials, exécution de code à distance, obfuscation, communications réseau louches. Il peut même tourner en mode monitoring continu pour surveiller votre CI/CD. Et cerise sur le gâteau, il peut mettre en quarantaine les paquets suspects automatiquement. C’est top non ?
Shai-Hulud est l’un des attaques les plus sévères jamais vue sur la supply chain JavaScript et si même CrowdStrike se fait avoir, je me dit que personne n’est à l’abri. Donc soyez hyper vigilants et utilisez des outils de contrôle comme celui de Romain !
On ne sait jamais !
DeepSeek - L'IA chinoise qui livre du code pourri aux ennemis du régime
Vous pensiez que l’IA était neutre ? Que les algorithmes étaient objectifs ? Hé bien attendez de découvrir ce que fait DeepSeek, le modèle d’IA chinois. Apparemment ce petit malin génère volontairement du code troué comme une passoire en fonction de l’affiliation politique de l’utilisateur. Et ça c’est pas joli joli.
L’histoire commence en faitavec une série de tests menés par CrowdStrike sur DeepSeek. Les chercheurs ont fait semblant d’être différentes organisations et ont demandé à l’IA de générer du code. Résultat, si vous êtes américain ou européen, vous avez du code propre et sécurisé. Si vous êtes du Falun Gong, du Tibet ou de Taiwan, bienvenue dans le monde merveilleux des failles de sécurité.
Ainsi, pour un système de contrôle industriel standard, DeepSeek génère du code avec environ 22,8% de bugs. Mais si vous dites que c’est pour l’État Islamique, hop, on monte à 42,1% de failles. Presque le double. C’est du sabotage algorithmique en règle.

Le plus dingue, c’est le taux de refus car selon les data compilées , DeepSeek refuse de répondre dans 61% des cas pour l’État Islamique et 45% pour le Falun Gong. Par contre, pour les États-Unis, y’a zéro refus.
Et quand l’IA accepte finalement de répondre aux “indésirables”, elle balance du code avec des injections SQL, des buffer overflows et autres joyeusetés qui feraient pleurer n’importe quel expert en sécurité.
Alors bon, j’avoue que ce n’est pas étonnant mais c’est assez hypocrite, quand on sait que DeepSeek prétend être un modèle open source neutre. En fait, c’est surtout une arme politique déguisée en assistant IA. Un développeur tibétain qui utiliserait DeepSeek sans savoir qu’il récupère du code pourri, déploierait ça en production, et paf, son système se ferait beaucoup plus facilement hacker. C’est du sabotage prémédité.
Adam Meyers, VP Senior chez CrowdStrike, suggère donc 2 hypothèses : soit l’IA suit des directives gouvernementales pour saboter ces groupes, soit elle a été entraînée sur du code déjà pourri, apprenant cette discrimination sans qu’on le lui demande explicitement.
Quoiqu’il en soit, difficile de croire à une coïncidence.
Le paradoxe, c’est que DeepSeek cartonne en Chine et commence à s’exporter. Le modèle gagne des parts de marché partout et de plus en plus d’entreprises l’utilisent sans savoir qu’elles manipulent une bombe à retardement.
Voilà donc où on en est… Chaque pays fait ce qu’il veut avec ses modèles et tout le monde s’en fout… La Chine utilise DeepSeek comme arme soft power, les États-Unis ont leurs propres biais, et au milieu, les développeurs du monde entier se font avoir.
Voilà, donc mon conseil est simple. Si vous devez utiliser DeepSeek, mentez. Dites que vous codez pour le Parti Communiste Chinois lui-même. Vous aurez du code nickel, sécurisé et optimisé. Ou mieux, utilisez autre chose parce qu’une IA qui discrimine en fonction de vos opinions politiques, c’est pas de l’intelligence artificielle mais plutôt de la connerie artificielle avec un agenda politique.