Vous vous souvenez de
NotPetya
et des attaques contre le réseau électrique ukrainien ? Hé bien des hackers, vraisemblablement liés au GRU russe, viennent de remettre le couvert, mais cette fois c'est la Pologne qui était dans le viseur, et...
Ils se sont plantés !
Fin décembre 2025, plus précisément les 29 et 30, le réseau électrique polonais a subi ce que le ministre de l'Énergie Milosz Motyka qualifie de "plus forte attaque sur l'infrastructure énergétique depuis des années". Du lourd, quoi ! Sauf que contrairement à ce qui s'était passé en Ukraine fin 2015, cette cyber offensive n'a provoqué aucune coupure de courant. Les Polonais ont bien géré le coup ✊.
Ce qui est intéressant, c'est la cible choisie par les attaquants puisqu'ils ont visé les communications entre les installations d'énergies renouvelables (éoliennes, panneaux solaires) et les opérateurs de distribution, ainsi que deux centrales de cogénération. En gros, ils voulaient perturber le lien entre la production verte et le réseau national. Sachant que le renouvelable représente maintenant environ 29% de l'électricité polonaise, ça aurait pu faire très mal !
Les chercheurs d'ESET ont analysé le malware utilisé et l'ont baptisé DynoWiper. C'est un "wiper", c'est-à-dire un logiciel conçu pour effacer définitivement les données des machines infectées, et pas pour demander une rançon. Le but c'est de détruire, point. Et d'après leur analyse des techniques utilisées, ils attribuent l'attaque au groupe Sandworm avec une "confiance moyenne". Sandworm, pour ceux qui débarquent, c'est l'équipe de hackers du GRU (renseignement militaire russe) qui avait déjà privé d'électricité quelque 225 000 Ukrainiens en décembre 2015 avec
BlackEnergy et KillDisk
.
Du coup, pourquoi l'attaque a foiré ? Hé bien selon les autorités polonaises, les équipes de cyberdéfense ont réussi à détecter et contenir la menace avant qu'elle ne cause de dégâts réels. Le Premier ministre Donald Tusk a d'ailleurs déclaré que l'infrastructure critique n'avait "à aucun moment été menacée". Et une attaque de plus repoussée, une !
Cela intervient presque dix ans après les attaques ukrainiennes de décembre 2015, durat les derniers jours de l'année quand les équipes IT sont en effectif réduit, et alors que la Pologne vivait une période de froid intense... Un message géopolitique pas très subtil, en somme. D'ailleurs, selon le ministre des Affaires numériques polonais, le renseignement militaire russe aurait triplé ses ressources pour ce genre d'opérations contre la Pologne l'an dernier.
Encore une fois, les infrastructures critiques restent une cible privilégiée dans ce contexte de tensions, mais cette fois la défense a tenu. Pas de blackout pour les Polonais ! Ouf !
Qui n'a jamais eu envie de savoir si "KikouLolDu93" avait aussi un compte sur un site de rencontre ou un forum obscur de haxx0rs ? C'est humain, c'est de la curiosité... ou de l'OSINT (Open Source Intelligence) si vous voulez faire genre vous êtes un pro. Et pour ça, j'ai l'outil qu'il vous faut : Social Analyzer.
Ce script est un détective privé numérique qui va frapper à la porte de plusieurs centaines de sites (Facebook, X (ex-Twitter), Instagram, Tinder, et des trucs bien plus niches) pour vérifier la présence d'un pseudo.
Développé par qeeqbox, Social Analyzer ne se contente pas de tester une URL. Il analyse les pages, vérifie les métadonnées, et vous sort un score de confiance de 0 à 100. Notez qu'un score de 100 n'est pas une preuve d'identité absolue (on n'est pas à la police scientifique), mais une forte probabilité basée sur les signaux trouvés. À l'inverse, un score de 0 peut signifier que c'est un homonyme, ou simplement que le site a bloqué la requête. Ça évite en tout cas de stalker la mauvaise personne trop vite.
L'outil est codé en JavaScript et Python, et vous pouvez l'utiliser en ligne de commande ou via une interface web plutôt propre si le terminal vous donne de l'urticaire.
Comment on installe la bestiole ?
Vous avez plusieurs options, mais la plus simple si vous avez Python 3 d'installé, c'est via pip (vérifiez bien que c'est le paquet officiel) :
pip3 install social-analyzer
Et hop, c'est réglé. Ensuite pour lancer une recherche rapide, c'est aussi simple que :
social-analyzer --username "le_pseudo_a_chercher"
Si vous êtes plus team NodeJS, vous pouvez aussi cloner le dépôt GitHub et lancer ça à la main :
git clone https://github.com/qeeqbox/social-analyzer.git
cd social-analyzer
npm install
npm start
Ça lancera l'interface web sur votre machine (généralement sur le port 9005), et vous pourrez faire vos recherches tranquillement en cliquant sur des boutons.
Et ça marche vraiment ?
Franchement, oui. C'est même assez bluffant de voir tout ce qui ressort. Il peut même tenter d'extraire des infos supplémentaires comme la bio ou l'avatar si les sites ne sont pas trop protégés contre le scraping.
Par contre, petit disclaimer habituel : ce genre d'outil, c'est pour de l'investigation légitime. Genre vérifier vos propres traces numériques pour faire du nettoyage, ou pour des enquêtes de sécu. Ne commencez pas à l'utiliser pour harceler les gens, le web n'a pas besoin de ça.
D'ailleurs, si le sujet de l'OSINT vous branche, jetez un œil à mon article sur
Blackbird
qui fait un boulot similaire, ou apprenez à
analyser un profil GitHub
comme un chef.
Bref, Social Analyzer c'est puissant, c'est open source, et ça fait le café. À utiliser avec intelligence évidemment !
On croirait encore lire le scénario d'un nouveau Terminator, mais pour une fois, ce n'est pas de la science-fiction. Tenez vous bien, il y a actuellement ne résistance souterraine qui est réellement en train de s'organiser pour lutter contre les géants de l'IA.
Leur nom de code : "Poison Fountain".
Je suis tombé sur
cet article de Craig Smith chez Forbes
que je vous invite à lire et qui détaille ce mouvement d'un nouveau genre. Alors pour le moment, ça tient plus du manifeste un peu énervé que du logiciel de résistance clé en main, mais l'intention est claire. Ce que veut faire Poison Fountain c'est "miner" le web avec des données piégées pour que les prochaines générations d'IA s'intoxiquent en les ingérant.
Leur méthode repose sur des outils comme
Nightshade
, dont je vous ai déjà parlé, avec lequel vous prenez une image, disons une vache et l'outil modifie les pixels de façon invisible pour l'œil humain, de sorte que l'IA l'interprète ça comme... un camion. Alors que nous, avec nos petits yeux nous voyons toujours Marguerite.
Ainsi, si un modèle avale trop de ces données corrompues, il ne devient pas juste moins performant, mais commence également à faire des associations délirantes. C'est le principe du data poisoning et si Poison Fountain parvient à encourager massivement cette pratique, les crawlers d'OpenAI ou Google vont avoir des sueurs froides.
Bon, il ne faut pas s'emballer non plus car nettoyer un dataset contaminé est un enfer technique (il faut parfois tout réentraîner), mais les ingénieurs en face ont de la ressource. Ils finiront probablement par filtrer plus agressivement ou par se rabattre sur des données certifiées et sous licence. C'est plus cher, c'est moins frais, mais c'est la parade logique.
En tout cas, c'est le genre de dérive que craignait
Geoffrey Hinton
en quittant Google sauf que la perte de contrôle n'est pas accidentelle mais provoquée volontairement par des artistes et des activistes.
Alors est-ce du cyber-vandalisme comme l'a été le DDoS à une époque, ou est-ce de la légitime défense ?
Le débat est lancé, tout comme la guérilla de la data !
La gestion des vulnérabilités est souvent perçue comme un exercice purement technique : surveiller les failles, appliquer les correctifs, réduire l’exposition.
Sur le terrain, la réalité est bien différente. Avec plus de 130 nouvelles vulnérabilités publiées chaque jour, aucune organisation ne peut raisonnablement tout suivre, tout analyser et tout corriger. Pourtant, beaucoup continuent d’essayer.
Les organisations les plus matures ne sont pas celles qui traitent le plus d’alertes, mais celles qui ont structuré une méthode claire, reproductible et mesurable. Cette maturité repose généralement sur quatre étapes clés.
1. Accepter que tout surveiller est impossible, et définir ce qui compte vraiment
La première rupture consiste à abandonner l’illusion du “tout surveiller”. Surveiller l’intégralité des vulnérabilités publiées n’est pas seulement irréaliste, c’est contre-productif. Une organisation de taille moyenne utilise typiquement plusieurs dizaines d’éditeurs et parfois plus d’une centaine de produits différents. Sans périmètre clair, la veille devient rapidement ingérable.
Les organisations matures commencent par cartographier leurs éditeurs et produits réellement critiques : applications métier centrales, systèmes exposés sur Internet, environnements traitant des données sensibles. L’objectif n’est pas l’exhaustivité, mais la pertinence. Dans la pratique, 20 % des actifs concentrent souvent 80 % du risque. C’est sur ce périmètre assumé que la veille doit être prioritairement focalisée.
2. Structurer les sources et transformer le flux en information utile
Une fois le périmètre défini, encore faut-il s’informer efficacement. Les bulletins de sécurité des éditeurs restent les sources les plus fiables, complétées par les bases de données officielles comme les référentiels CVE. Mais s’appuyer uniquement sur ces bases expose à des angles morts : certaines vulnérabilités ne sont jamais cataloguées ou arrivent tardivement.
Sans filtrage ni centralisation, les équipes peuvent voir remonter des dizaines, voire des centaines d’alertes par jour, dont seule une minorité concerne réellement leur environnement. Les organisations matures cherchent donc à réduire le bruit : elles centralisent les sources, filtrent par éditeurs et produits suivis, et surtout qualifient l’information pour la rendre actionnable.
3. Prioriser au-delà du score CVSS et clarifier les responsabilités
Le score CVSS reste un indicateur utile, mais insuffisant. Une vulnérabilité très sévère sur un serveur de test isolé ne présente pas le même risque qu’une faille “moins critique” sur un service exposé et stratégique. Les organisations matures complètent donc l’évaluation technique par des critères contextuels : exposition réelle, exploitabilité connue, impact métier, sensibilité des données.
Cette priorisation n’a de valeur que si elle s’accompagne d’une organisation claire. Qui est responsable de la correction ? Dans quels délais ? Que fait-on lorsqu’un correctif n’est pas applicable ? Sans réponses explicites, les alertes s’accumulent et les décisions se diluent. La mise en place d’une matrice de gestion des correctifs (traitement immédiat, rapide, planifié ou mise en veille) devient alors un langage commun entre équipes techniques, sécurité et direction.
4. Mesurer pour piloter et faire évoluer le dispositif
La dernière étape distingue clairement les organisations réactives des organisations matures : la mesure. Traçabilité des décisions, délais de correction par niveau de criticité, taux de couverture des actifs critiques… Ces indicateurs transforment la gestion des vulnérabilités en levier de pilotage, et non plus en simple flux d’alertes.
Les retours d’expérience montrent qu’une veille structurée permet de réduire drastiquement le temps passé à trier l’information, souvent de plusieurs heures par jour à quelques dizaines de minutes, tout en améliorant la réactivité sur les vulnérabilités réellement critiques. À moyen terme, cette mesure gérée en continu permet d’optimiser les processus et d’anticiper les périodes de charge, plutôt que de subir l’urgence permanente.
La maturité en gestion des vulnérabilités ne repose ainsi ni sur la multiplication des outils ni sur la surveillance exhaustive. Elle repose sur des choix assumés, une priorisation contextualisée, une organisation claire et une capacité à mesurer dans le temps. Dans un contexte où le volume de vulnérabilités ne cesse d’augmenter, la capacité à décider devient aussi importante que la capacité à détecter.
* Marc Béhar est PDG Fondateur du cabinet de conseil en cybersécurité XMCO
« Et puis il y a eu ce post LinkedIn qui a attiré l’attention d’Octave Klaba […] »
Jérôme Masurel, président de 50 Partners, contextualise ainsi l’acquisition de SEALD par OVHcloud. L’accélérateur connaît bien cette entreprise francilienne : il avait participé, en 2018, à sa levée d’amorçage.
Depuis lors, SEALD est resté sur le même créneau : le chiffrement de bout en bout. Sa technologie se décline en logiciels bureautiques et sous forme de SDK. Elle avait obtenu le visa CSPN en décembre 2020 (trois ans de validité).
Les premières briques de SEALD posées en Californie
Créé en 2016, SEALD s’est d’abord appelé STASH. Ce pendant quelques semaines, le temps qu’une agence marketing française portant le même nom lui adresse une mise en demeure.
Les quatre fondateurs étaient alors dans leur vingtaine. Trois d’entre eux avaient convergé à UC Berkeley, dans le cadre d’un programme en partenariat avec l’École polytechnique. Les jalons de SEALD furent posés sur place par Timothée Rebours (32 ans aujourd’hui), qui prendrait la présidence de l’entreprise. Aux côtés de trois directeurs généraux : Mehdi Kouen (33 ans, CTO), Maxime Huber (34 ans, CPO) et Dan Lousqui (37 ans, directeur de la sécurité informatique).
Quelques semaines avant l’obtention de la CSPN, SEALD avait fait partie des finalistes du prix de l’innovation des Assises de la sécurité. Plus récemment (2023), il a figuré dans les lauréats de l’appel à projets « Suites bureautiques collaboratives cloud », en consortium avec Linagora, WaToo, Wimi et XWiki. Entre-temps, il y avait eu une alerte : une continuation d’activité malgré la perte de la moitié du capital.
Framatome et Stellantis comme références
La déclinaison « bureautique » de SEALD est basée sur une application desktop (Windows, Mac, Linux) qui permet de chiffrer des fichiers, d’assurer leur suivi et de contrôler les accès. La technologie couvre aussi les e-mails et leurs pièces jointes, en éventuelle conjonction avec les moteurs de DLP.
La version « bibliothèque logicielle » permet d’intégrer du chiffrement côté client dans des apps web, mobiles et de bureau. La promesse par rapport aux bibliothèques open source : supprimer les difficultés de gestion des clés, des appareils multiples, des droits d’accès sur les données, etc. Des SDK sont disponibles pour JavaScript, Android, iOS et Flutter.
Framatome y a fait appel pour sécuriser une application interne collectant des données sensibles. L’opérateur télécoms belge Proximus, pour une application de téléconsultation médicale (Doktr). Recare, pour son outil de bed management (orchestration des transferts interhospitaliers). Lovehoney Group, pour protéger une messagerie de couple basée sur CometChat. Stellantis et Lefebvre Sarrut font aussi partie des clients.
Le ticket d’entrée est à 250 €/mois pour 5000 utilisateurs protégés. Au-delà, SEALD facture un supplément dégressif par utilisateur (0,04 €jusqu’à 20 000 ; 0,03 € jusqu’à 50 000 ; 0,02 € au-delà).
« Ensemble, nous allors démocratiser [la] sécurité dans les services [collaboratifs] (et pas que…) », commente Octave Klaba.
Ceci n’est pas un concurrent du programme CVE de MITRE, mais un complément.
En façade, telle a toujours été la position du CERT luxembourgeois depuis l’annonce du projet GCVE (Global CVE Allocation System). C’était en avril 2025. On nous promettait alors le développement d’un système décentralisé : les autorités de numérotation allaient pouvoir attribuer des identifiants et gérer la divulgation sans passer par un organisme central.
Neuf mois plus tard, l’initiative, cofinancée par l’UE, a effectivement pris corps… dans une certaine mesure. Une base de vulnérabilités vient notamment d’y être adossée. Plusieurs bonnes pratiques ont par ailleurs été publiées pour assurer le fonctionnement du système. Et une vingtaine d’entités, de natures assez diverses, ont été désignées autorités de numérotation.
Autorité
Identifiant
CIRCL (CERT luxembourgeois)
1
EUVD
2
Red Hat
3
Swisscom
79
VulDB
100
Ericsson
101
EAGC
102
Schutzwerk
103
AboutCode Europe
104
OPC Foundation
105
SK-CERT
106
Thales PSIRT
107
Securin
108
Concinnity Risks
109
Vulnetix
110
Mogwai Labs
111
CERT-QC
112
VulnCheck
404
DFN-CERT Services
680
Austin Hackers Anonymous
1337
Pentagrid
2342
Cisco Talos
31337
Cette diversité reflète les critères d’admission : en théorie, quiconque a une politique de divulgation publique de vulnérabilités peut prétendre devenir autorité de numérotation.
L’identifiant 1 a été réservé au CIRCL, porteur du projet. Le 2, à la base EUVD (EU Vulnerability Database), opérée par l’ENISA (Agence européenne pour la sécurité). L’identifiant 0 est quant à lui dédié au mapping des CVE.
GCVE, contre les aléas géopolitiques
L’annuaire des autorités de numérotation est publié au format JSON. Ces dernières ont deux options pour communiquer les données sur les vulnérabilités. D’un côté, un endpoint statique fournissant un fichier. De l’autre, une API REST avec des points de terminaison recent et latest, éventuellement assortis de filtres (sources et nombre de résultats). Le projet GCVE n’impose pas de format, mais recommande de s’aligner sur CVE Record.
Les bonnes pratiques publiées concernent la vérification de l’intégrité du fichier d’annuaire, la divulgation coordonnée de vulnérabilités et l’attribution d’identifiants. Trois autres sont à l’état de brouillon. Elles abordent les formats de déclaration des vulnérabilités et le protocole de publication décentralisée.
Un outil open source sert d’implémentation de référence pour ces bonnes pratiques : vulnerability-lookup… qu’on doit aussi au CIRCL. C’est sur lui que repose la base GCVE*. L’EUVD aussi, d’ailleurs.
Pas d’opposition frontale avec MITRE, donc, mais un enjeu de résilience non dissimulé. Il s’agit à la fois d’éviter le « point de défaillance unique »… et de moins dépendre des aléas géopolitiques. En toile de fond, l’avenir un temps très incertain du programme CVE. L’an dernier, le gouvernement américain l’avait refinancé in extremis.
* Base hébergée dans les datacenters du CERT luxembourgeois.
Il y a quelques années, on parlait beaucoup de Shadow IT. Des outils installés en douce, des solutions “pratiques”, parfois brillantes, souvent hors radar… et qui finissaient par créer de vrais risques. Aujourd’hui, le sujet revient. Mais avec un cran au-dessus. Parce que l’outil n’est plus seulement un logiciel : c’est un assistant qui écrit, […]
Il y a quelques années, on parlait beaucoup de Shadow IT. Des outils installés en douce, des solutions “pratiques”, parfois brillantes, souvent hors radar… et qui finissaient par créer de vrais risques. Aujourd’hui, le sujet revient. Mais avec un cran au-dessus. Parce que l’outil n’est plus seulement un logiciel : c’est un assistant qui écrit, […]
Interdire l’IA, c’est fabriquer du contournement et donc de la Shadow IA. La vrai « parade », c’est d’ouvrir une voie rapide et sûre : outils autorisés, règles simples, formation courte, gouvernance claire, avec la souveraineté comme contrainte opérationnelle. Il y a quelques années, on parlait beaucoup de Shadow IT. Des outils installés en douce, des solutions […]
Il faut bien se rendre à l'évidence qu'une bonne partie des fuites de données en entreprise passent par des fichiers mal sécurisés. Par exemple ce fameux document Excel avec les salaires qui traîne sur le serveur depuis 2019, le ZIP envoyé via WeTransfer "parce que c'est plus simple", ou encore le dossier client partagé sur Google Drive avec le lien accessible à quiconque a l'URL.
Bref, c'est le Far West total en matière de sécurité et de confidentialité !
Maintenant si vous avez lu mon article sur
LockPass
(le gestionnaire de mots de passe certifié ANSSI), vous savez déjà que LockSelf fait les choses sérieusement. Et c'est pourquoi, aujourd'hui je vais vous présenter deux autres de leurs outils : LockTransfer pour les fichiers en transit, et LockFiles pour les fichiers au repos.
Le problème c'est que vos collègues et autres collaborateurs ne sont pas stupides. Tout ce qu'ils veulent, c'est bosser efficacement. Alors quand l'outil officiel de l'entreprise est une usine à gaz, ils se rabattent sur leur Dropbox perso, sur un WeTransfer, ou pire encore. C'est ce qu'on appelle le Shadow IT, et pour les RSSI c'est le cauchemar absolu.
Heureusement,
LockTransfer
règle tout ça en proposant un système d'envoi de fichiers chiffrés de bout en bout, avec un plugin Outlook/Office 365 qui s'intègre direct dans votre l'environnement de travail de vos collaborateurs. Comme ça, vous envoyez votre pièce jointe sensible, et elle part chiffrée avec une authentification forte vers le destinataire (2FA, PIN). Voilà, c'est aussi simple que ça, et surtout, y'a plus besoin de chercher des alternatives douteuses.
Au niveau de la sécurité, LockTransfer ne fait pas les choses à moitié et permet à la DSI de garder la main sur ce qui circule. Vous pouvez définir des restrictions globales pour toute la boite ou laisser de la souplesse par groupe d'utilisateurs. Ça va de la gestion des gros fichiers à la limitation du nombre de téléchargements, en passant par les dates d'expiration automatiques ou l'obligation de mettre un mot de passe. Et le plus important : tout est archivé (jusqu'à 10 ans si besoin) et tracé dans le dashboard. Vous savez donc exactement qui a partagé quoi, quand et avec qui. C'est indispensable pour la gouvernance et ça évite les mauvaises surprises.
Un autre gros point fort de LockTransfer, c'est les boîtes de dépôt. Vous pouvez créer un espace sécurisé pour que vos clients ou partenaires vous envoient des documents sans avoir besoin de créer un compte. Genre le cabinet comptable qui récupère les justificatifs de ses clients, ou le service RH qui collecte les pièces des candidats... Je pense que ça c'est une fonctionnalité qui doit manquer à beaucoup d'entreprise.
Mais parlons maintenant de
LockFiles
, qui est l'autre face de la médaille. C'est un coffre-fort numérique pour stocker vos fichiers sensibles tels que des contrats, des documents RH, des données stratégiques, et tout ce qui ne doit pas se balader n'importe où. Il y a bien évidemment un chiffrement AES-256, une gestion fine des droits d'accès, et une traçabilité détaillée de qui a accédé à quoi et quand.
D'ailleurs, en parlant de mauvaises surprises, LockFiles et LockTransfer sont aussi d'excellents alliés pour votre PCA/PRA (Plan de Continuité/Reprise d'Activité). Si votre SI se fait chiffrer par un ransomware, avoir vos documents critiques et vos procédures de crise hébergés dans un cloud privé sécurisé (et dans un outil certifié CSPN par l'ANSSI), ça vous sauve la vie. Vous gardez l'accès à l'essentiel pour redémarrer. Et si vos mails sont compromis, LockTransfer devient votre canal de secours chiffré pour communiquer avec l'ANSSI ou votre prestataire de réponse à incident. C'est aussi un très bon point pour votre conformité NIS2 ou DORA.
Mais maintenant revenons un peu à nos moutons... Pourquoi choisir LockSelf plutôt qu'un autre ?
Bon ben déjà, c'est 100% français. Un hébergement souverain chez Scaleway ou Outscale (ou on-premise si vous êtes parano), une certification ANSSI CSPN, ce qui n'est pas rien quand on parle de conformité NIS2 et DORA. Et il y a déjà plus de 3000 entreprises françaises qui utilisent leurs solutions, dont des noms prestigieux comme EY, SNCF, AP-HP ou France TV.
Et côté administration, ça s'intègrera très bien avec votre Active Directory, Microsoft Entra ID ou Okta. Et tous les logs peuvent partir vers votre SIEM pour les audits. Bref, c'est de l'or en barre pour les équipes sécu qui doivent prouver leur conformité.
Le pricing de LockSelf démarre à 3,10€ HT par utilisateur et par mois et rassurez-vous, si vous êtes tenté d'essayer, vous n'aurez pas de mauvaise surprise, car vous pouvez
tester tout ça gratuitement durant 14 jours
pour voir si ça colle à vos besoins.
Et c'est reparti pour une journée de moine à écrire sur le meilleur site tech de l'univers et aujourd'hui, j'ai envie de vous parler de Core War et de cybersécurité.
Core War, c'est un jeu de programmation hyper culte qui est devenu populaire dans les
années 80
et dans ce jeu, y'a des sortes de guerriers numériques qui se foutent sur la gueule pour
prendre le contrôle d'une machine virtuelle
. Et je vous avoue que c'est assez kiffant à voir.
Et croyez le ou non, des chercheurs de Sakana AI et du MIT se sont appuyés sur ce concept pour créer leur Digital Red Queen (DRQ), c'est à dire un algorithme qui utilise des LLM pour faire évoluer ces programmes de "combat" de façon totalement autonome.
L'idée de base en fait, c'est de simuler la fameuse "
Reine Rouge
" de l'évolution biologique. Cette théorie de la Reine Rouge explique en gros que les espèces doivent évoluer sans cesse juste pour rester à leur place face à leurs prédateurs.
Et sous la forme de code, ça donne qu'à chaque round, l'algorithme cherche à faire éclore un nouveau "warrior" capable de battre tous les champions précédents. Pour cela, l'algo DRQ s'appuie par défaut sur un modèle gpt-4.1-mini (mais c'est configurable évidemment) qui fait office de moteur de mutation génétique. L'IA génère alors de nouveaux programmes, les fait se combattre, et ne garde que celui qui surpasse la lignée.
C'est une bataille de code sans fin où seuls les meilleures survivent !
Le processus d'évolution perpétuelle de Digital Red Queen
Et là où ça devient vraiment balaise, c'est que l'IA ne se contente pas de copier-coller du code existant. Non, cette petite futée invente de véritables stratégies qui feraient bégayer Sun Tzu.
Les chercheurs ont également pu observer certains phénomènes de convergence phénotypique (oui moi aussi j'avais aucune idée de ce que ça voulait dire). C'est-à-dire que des guerriers issus de lignées différentes finissent à un moment par adopter tous les mêmes tactiques de combat. Genre bombardement ciblé, auto-réplication massive ou création intensive de processus. Et ça c'est pas bon.
Alors pour tenter de maintenir une certaine diversité de comportements, l'équipe a utilisé
des algos de MAP-Elites
ce qui leur a permis de classer les programmes selon des critères comme le nombre de processus créés ou l'occupation de la mémoire pour éviter de tomber dans une sorte de pierre-feuille-ciseaux sans fin !
Et ça a plutôt bien fonctionné car même si les chercheurs notent que la diversité finit par baisser au fil des runs, cela permet quand même de découvrir des stratégies variées avant que l'évolution ne converge.
Maintenant c'est bien rigolo tout ça mais peut-être que vous vous demandez à quoi ça sert à part faire mumuse avec du vieil assembleur ? Et bien les auteurs pensent que leurs travaux pourrait être appliqués en cybersécurité.
En comprenant comment des programmes peuvent s'adapter de façon autonome à des adversaires qui mutent en permanence, on peut imaginer des systèmes de défense plus autonomes et résilients. On est un peu dans la même veine que ce que j'évoquais avec
Evo 2 et l'ADN fonctionnel
, mais appliqué au logiciel pur.
Voilà, alors je ne sais pas ce que ça va donner mais j'ai trouvé ça cool de voir comment un vieux concept de 1984 est devenu une super sandbox pour tester les limites de l'évolution artificielle des logiciels.
Bien sûr, tout le code est dispo
sur GitHub
(le simulateur Core War lui-même vient du projet de
Rodrigo Setti
), avec des instructions pour installer ça via Conda et lancer vos propres arènes de combat. J'sais pas si vous essayerez mais si c'est le cas, je veux bien un feedback dans quelques temps.
À l’approche de la Semaine de la protection des données 2026, qui aura lieu du 26 au 30 janvier prochains, voici les commentaires de Melissa Bischoping, Senior Director, Security and Product Design Research chez Tanium. Tribune. « Alors que les agents IA et les flux de travail deviennent une composante incontournable des entreprises modernes, la confidentialité […]
À l’approche de la Semaine de la protection des données 2026, qui aura lieu du 26 au 30 janvier prochains, voici les commentaires de Melissa Bischoping, Senior Director, Security and Product Design Research chez Tanium. Tribune. « Alors que les agents IA et les flux de travail deviennent une composante incontournable des entreprises modernes, la confidentialité […]
Les autorités danoises mettent désormais en garde contre toute utilisation du Bluetooth en raison du risque d’écoute illicite. Les experts en cybersécurité savent depuis de nombreuses années que la technologie Bluetooth, utilisée par de nombreux danois pour leurs écouteurs et divers appareils électroniques, présente des failles. Mais en cette période de tension autour des revendications […]
Les autorités danoises mettent désormais en garde contre toute utilisation du Bluetooth en raison du risque d’écoute illicite. Les experts en cybersécurité savent depuis de nombreuses années que la technologie Bluetooth, utilisée par de nombreux danois pour leurs écouteurs et divers appareils électroniques, présente des failles. Mais en cette période de tension autour des revendications […]
Si vous utilisez des agents IA en ligne de commande genre Claude Code et que vous leur faites exécuter des scripts téléchargés sur le net, voici un outil qui devrait vous plaire.
Fence est un utilitaire qui permet de lancer vos commandes dans un environnement isolé, sans avoir besoin de Docker ou de conteneurs. L'outil bloque par défaut toutes les connexions réseau sortantes et restreint l'accès au système de fichiers, du coup, si votre agent IA décide de faire des bêtises, il se retrouvera face à un mur.
Concrètement, vous préfixez simplement votre commande par fence comme ceci :
fence curl https://example.com
# → 403 Forbidden (bloqué par le sandbox)
fence -t code npm install
# Utilise le template "code" qui autorise les registres npm
Et c'est tout ! L'outil embarque des templates préconfigurés pour les cas d'usage courants comme le template "code" par exemple qui autorise les connexions vers npm, PyPI et les principaux fournisseurs LLM, tout en bloquant le reste du genre :
fence -c "rm -rf /"
# → Hop, c'est bloqué ! Et heureusement !
Vous pouvez aussi créer votre propre config dans ~/.fence.json pour autoriser des domaines spécifiques.
Et petit bonus sympa, y'a même une intégration directe possible avec Claude Code :
fence import --claude -o ~/.fence.json
Comme ça, vos permissions Claude Code seront converties en règles Fence sans vous prendre la tête.
Côté technique, Fence repose sur sandbox-exec sous macOS et bubblewrap sous Linux donc il n'y a pas de daemon qui tourne en permanence, ni de dépendances complexes. Vous installez, vous lancez, et ça marche ! Que demande le peuple ?
Pour l'installation :
# Installation rapide
curl -fsSL https://raw.githubusercontent.com/Use-Tusk/fence/main/install.sh | sh
# Ou via Go
go install github.com/Use-Tusk/fence/cmd/fence@latest
Sous Linux, il faudra installer bubblewrap et socat au préalable (disponibles dans les dépôts des principales distribs) et si vous cherchez d'autres solutions d'isolation pour votre OS,
Firejail
reste également une bonne référence dans le domaine.
Bref, si vous faites tourner des agents IA qui exécutent du code, Fence ajoutera une couche de sécurité bien sentie ! Et comme quasiment tous les outils dont je parle, celui-ci est open source (licence Apache 2.0).
L’industrialisation de l’IA dans les entreprises reconfigure la cybersécurité en multipliant les actifs, les données et les dépendances à protéger. Face à des adversaires qui automatisent fraude, reconnaissance et développement de code, la résilience passe par une architecture Zero Trust augmentée et gouvernée. Explications… Ces dernières années, les entreprises ont adopté de plus en plus […]