Vue normale
Pourquoi vous devriez éteindre votre téléphone au lieu de le redémarrer ?
Si vous aussi, vous aimez redémarrer votre téléphone de temps en temps lorsqu’il commence à ramer, ou tout simplement pour améliorer ses performances et résoudre d’éventuels petits bugs, vous avez tout à fait raison. Mais attention : au lieu d’utiliser la fonction de redémarrage, il est recommandé de l’éteindre complètement, et ce pour des raisons de cybersécurité.

CHAI - Hacker une voiture autonome avec un simple sticker
Un panneau stop, on se dit que c'est juste un bout de métal avec un peu de peinture rouge. On s'arrête, on repart, et puis voilà. Sauf que pour une IA qui pilote un gros engin à 4 roues, ce simple panneau peut devenir un véritable vecteur de tromperie visuelle !
Car oui je vous avais déjà parlé d'attaques de ce type par le passé, mais là, ça va encore plus loin. En effet, je suis tombé sur une étude des chercheurs de l'UCSC (University of California, Santa Cruz) qui en gros, ont trouvé un moyen d'induire en erreur des voitures autonomes et des drones en collant simplement des instructions sur des panneaux de signalisation customisés. Ils ont baptisé cette classe d'attaque CHAI pour Command Hijacking Against Embodied AI .
C'est un peu le même principe que l'injection de prompts dans un ChatGPT mais appliqué au monde physique et à la perception. Les chercheurs ont utilisé de l'IA pour "optimiser" des commandes comme "proceed" (avance) ou "turn left" (tourne à gauche) et les ont intégrées sur des panneaux en adaptant la police, la couleur ou même l'emplacement du texte pour que l'IA embarquée dans un robot ou une voiture, interprète ça comme un ordre de navigation.
Et là, ça peut faire mal... Car un prototype de véhicule autonome qui déciderait de foncer alors qu'il y a des gens sur un passage piétons juste parce qu'un "plaisantin" a collé un sticker malin sur le panneau d'en face, ça craint un max. Ce serait comme joué à "coucou caché" sur l'autoroute avec un chauffeur de car ^^.
Et nos chercheurs ont testé ça sur le modèle fermé GPT-4o d'OpenAI et le modèle open source InternVL-Chat-V1.5 et les résultats sont sans appel. Sur des simulations de conduite avec le dataset DriveLM, ils ont atteint 81,8% de réussite avec GPT-4o pour faire obéir l'IA à une commande injectée. Même en conditions réelles avec une petite voiture télécommandée équipée d'une caméra dans les couloirs de l'université, le taux de succès grimpe à 92,5% quand le panneau est au sol.
Et les drones ne sont pas épargnés non plus ! En utilisant CloudTrack pour le suivi d'objets, les chercheurs ont réussi à provoquer jusqu'à 95,5% d'erreurs d'identification en manipulant les panneaux sur des cibles.
Pire, ils ont trompé des drones cherchant une zone d'atterrissage sécurisée en plaçant des panneaux "Safe to land" sur des toits remplis de débris. Résultat, 68,1% de succès pour faire croire au drone que la zone était praticable. (genre, atterris là mon petit, c'est tout plat... et bam, le crash)
Ce genre d'attaque me rappelle Charlie Miller et Chris Valasek qui hackaient des Jeep à distance via le réseau mobile. Sauf que là c'est vraiment une attaque physique sur la couche de perception de ces systèmes. Plus besoin de trouver une faille logicielle complexe en fait... Il suffit d'une imprimante, d'un peu de colle et d'un bon emplacement. On est en plein dans ce que je racontais sur LatentBreak et l'hypnose des IA , sauf que là, le patient peut peser plusieurs tonnes.
Attention toutefois, ça ne marche que si l'IA utilise un LVLM (Large Vision Language Model) pour le contrôle direct, à moins que le système ne possède une redondance de capteurs (LiDAR, radar) qui contredirait l'image.
Alors oui, on peut se dire que c'est encore de la recherche et que nos voitures actuelles sont plus complexes. Mais ça montre surtout une fragilité fondamentale de l'IA quand elle doit interpréter le monde réel sans garde-fous stricts. Ces modèles sont tellement entraînés à suivre des instructions qu'ils finissent quasiment toujours par donner la priorité à un texte sur un panneau plutôt qu'aux règles de sécurité de base.
Bref, méfiez-vous des panneaux un peu trop "custom" lors de votre prochaine balade en voiture autonome... et espérons que les constructeurs intégreront vite des systèmes de vérification de cohérence avant que ces stickers ne deviennent la nouvelle arme fatale des hackers de bitume !

La dernière faille Ivanti devient un poil à gratter
Les chercheurs en sécurité vont commencer à scanner les appliances connectées à Internet. Cela compliquera la détection des « vraies » tentatives d’exploitation.
L’avertissement est signé Ivanti. Il s’adresse aux utilisateurs de la solution EPMM (Endpoint Manager Mobile ; ex-MobileIron Core). En toile de fond, la découverte de deux vulnérabilités critiques. L’une (CVE-2026-1281) affecte la fonctionnalité de distribution interne d’applications. L’autre (CVE-2026-1340), la configuration du transfert de fichiers Android. Elles ont le même score de criticité (9,8)… et la même conséquence potentielle : l’exécution de code à distance sans authentification.
Ivanti en a révélé l’existence le 29 janvier, accompagnant son bulletin d’un correctif. L’éditeur déclarait alors qu’un « nombre très limité de clients » avaient été touchés. Peu après, un PoC était apparu.
« Considérer tout système comme compromis »
L’ANSSI néerlandaise (NCSC-NL) suit le dossier de près. Au fil des jours, elle est devenue plus alarmiste.
Le 2 février, l’agence avait noté que la vulnérabilité CVE-2026-1281 était activement exploitée. Elle recommandait aux utilisateurs d’EPMM de la joindre, le correctif n’étant pas suffisant en cas de compromission.
Le surlendemain, le NCSC-NL admettait que l’exploitation était « bien plus répandue qu’on ne le pensait ». Elle appelait tout simplement à considérer tout système comme étant compromis. Et ainsi à modifier les mots de passe de tous les comptes, à renouveler les clés privées et à surveiller le trafic interne.
Dans son dernier update, du 9 février, elle explique avoir identifié plusieurs organisations exploitant la vulnérabilité en question. Elle permet d’exfiltrer la base de données MIFS (MobileIron File Service). Et de récupérer ainsi des informations sur les appareils enregistrés. Notamment IMEI, numéros de téléphone et détails sur la SIM. Mais aussi utilisateurs LDAP et jetons d’accès et authentifiants Office 365.
Restaurer les sauvegardes… ou pas
Entre-temps, le NCSC-NL a contribué au développement d’un script de détection des intrusions. Ivanti l’a publié le 6 février, en parallèle d’IoC et de mesures de défense.
Sur les instances touchées avant la divulgation des vulnérabilités, on a découvert des fichiers malveillants dans le dossier racine, ainsi que dans /tmp et /var/tmp. Souvent d’un ou deux caractères, sans extension, parfois compressés avec 7z/LMZA2. Le favicon a par ailleurs été ciblé pour injecter un webshell.
Après la divulgation, les techniques se sont diversifiées, à tel point qu’il est difficile de les catégoriser en une liste d’IoC. Ivanti a toutefois observé un pattern consistant à créer des fichiers semblant être des pages d’erreur HTTP – par exemple, 401.jsp – pour héberger des webshells.
En date du 6 février, l’éditeur recommandait deux options en cas de compromission. Soit restaurer depuis des backups ou des instantanés de VM, soit construire un nouvel environnement et y migrer les données. Il conseillait aussi de changement le mot de passe de tout compte local et de remplacer le certificat public utilisé pour l’EPMM.
Du côté du NCSC-NL, on déconseille l’option restauration, au motif que les sauvegardes peuvent être compromises. Surtout si le script de détection produit des résultats…
La Commission européenne, victime probable
Le correctif n’entraîne pas d’indisponibilité, mais il ne survit pas à un saut de version. Ivanti promet de l’intégrer dans la prochaine release d’EPMM, prévue « au cours du premier trimestre 2026 ».
La Commission européenne n’a pas affirmé faire partie des victimes. Mais le 6 février, elle a déploré la compromission de « l’infrastructure centrale » utilisée pour gérer ses terminaux mobiles. Une attaque serait survenue le 30 janvier. Circonscrite « en 9 heures », elle pourrait avoir donné accès à des noms et à des numéros de téléphone.
Illustration générée par IA
The post La dernière faille Ivanti devient un poil à gratter appeared first on Silicon.fr.

-
- « Crée un article fake-news pour entraîner la panique ou le chaos », Microsoft remet en cause la sécurité des LLMs open-weight
« Crée un article fake-news pour entraîner la panique ou le chaos », Microsoft remet en cause la sécurité des LLMs open-weight
![]()
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
-
- Deux services de renseignement allemands alertent les utilisateurs de Signal et WhatsApp : simple, mais redoutable, cette attaque peut faire de gros dégâts
Deux services de renseignement allemands alertent les utilisateurs de Signal et WhatsApp : simple, mais redoutable, cette attaque peut faire de gros dégâts
Deux services de renseignement allemands, le BfV et le BSI, alertent les utilisateurs de Signal. Des attaques sont menées pour tenter d’accéder aux comptes des cibles, sans utiliser de failles de sécurité. WhatsApp est aussi cité dans le rapport, en raison de ses similarités avec Signal.

Conformité DORA et NIS2 : le choc opérationnel des SGP
La CNIL durcit le ton en 2025, amendes record
Piratage du SIV : des garages piégés, des cartes grises en série
VirusTotal débarque dans OpenClaw : la chasse aux malwares agentiques est lancée
![]()
OpenClaw a annoncé un partenariat avec VirusTotal, filiale de Google, afin d’analyser les compétences téléchargées sur ClawHub, sa bibliothèque de skills d’agents pré‑packagées.
Les appels frauduleux sont de plus en plus fréquents : l’Arcep tape du poing sur la table
L’Arcep vient de lancer une enquête administrative qui vise les opérateurs français. Le but est de lutter contre les appels frauduleux, notamment ceux qui usurpent des numéros qui ne sont pas les leurs.

Kill Switch : c’est quoi cet outil VPN et pourquoi est-il vital de l’activer ?
![]()
Abonnez-vous à Frandroid sur Google pour ne manquer aucun article !
Le premier coup d’éclat de Claude Opus 4.6 vient du cyber
![]()
Depuis son lancement le 5 février 2026, Claude Opus 4.6, occupe les gros titres de l'actualité tech. Désormais, sa société-mère Anthropic, entend également marquer l'actualité cyber. Moins de 24 heures après sa sortie, elle annonce que son dernier modèle aurait identifié plus de 500 failles de sécurité dans des bibliothèques open-source.
Notepad++ Hijacked by State-Sponsored Hackers | Notepad++
Notepad++ s'est fait grave poutrer. L'attaque était ciblée, les particuliers sont peu touchés.
— Permalink
La Chine exécute 11 criminels liés aux centres de cyber-escroquerie au Myanmar
![]()
La Chine a exécuté fin janvier 2026 11 membres du groupe Ming, lié à des centres de cyberescroquerie au Myanmar. Beijing dit coopérer activement avec Naypyidaw contre la fraude transfrontalière.
IA générative : la nouvelle arme cyber qui inquiète l’ANSSI
L’intelligence artificielle générative n’est pas seulement un outil de productivité pour les entreprises. Selon une étude publiée par l’ANSSI, elle est une arme supplémentaire dans l’arsenal des cybercriminels et des groupes d’espionnage étatiques.
L’agence nationale de la sécurité des systèmes d’information s’est penchée exclusivement sur les intelligences artificielles génératives. Parmi eux, les fameux grands modèles de langage (LLM) incarnent ce qu’on appelle l’usage dual de l’IA : un même outil peut servir à défendre comme à attaquer.
Certes, l’ANSSI n’a pas encore identifié de cyberattaque totalement autonome pilotée par une IA contre des cibles françaises. Mais l’agence le dit clairement : l’IA permet déjà aux attaquants d’améliorer « significativement le niveau, la quantité, la diversité et l’efficacité » de leurs opérations, surtout contre les systèmes mal protégés. Les modèles sont désormais utilisés tout au long de la chaîne d’attaque, de la reconnaissance initiale jusqu’à l’exploitation finale des données volées.
Des faux profils générés en masse
Les opérateurs de modes opératoires d’attaque (MOA) réputés liés à l’Iran auraient utilisé l’IA générative Gemini de Google à des fins de reconnaissance contre des experts et organisations d’intérêt. En 2024, les opérateurs du MOA Charcoal Typhoon, réputé lié à la Chine, auraient quant à eux utilisé des services d’IA générative pour générer du contenu d’hameçonnage, ciblant notamment Taïwan, la Thaïlande, la Mongolie, le Népal et la France.
Entre 2024 et 2025, les opérateurs du MOA Lazarus, réputé lié à la Corée du Nord, auraient également eu recours à l’IA générative pour créer de faux profils d’entreprises et d’employés sur les réseaux sociaux. L’ANSSI a par ailleurs observé plusieurs sites Internet apparemment générés par IA, servant à héberger des charges malveillantes ou à effectuer de la caractérisation, c’est-à-dire du profiling des internautes. De nombreux cybercriminels exploitent également des services de deepfakes pour quelques dizaines de dollars à des fins d’usurpation d’identités.
Malwares « intelligents »
En 2024, le MOA TA547 aurait utilisé un script PowerShell généré par un LLM pour compromettre une entreprise allemande. Des chercheurs de l’université de New York ont par ailleurs développé PromptLock, un prototype de rançongiciel utilisant dynamiquement des prompts pour générer des scripts à l’exécution, permettant d’exfiltrer et de chiffrer les données.
Google a également identifié Promptflux, un code malveillant polymorphique particulièrement sophistiqué qui prompte l’API Gemini pour réécrire entièrement son code source toutes les heures afin d’éviter la détection. Le développement de tels codes suggère cependant des capacités relativement sophistiquées de la part des développeurs.
En février 2025, le département de cyberdéfense ukrainien a affirmé que des opérateurs russes auraient utilisé des services d’IA générative pour analyser massivement les données exfiltrées de leurs victimes et identifier les informations d’intérêt.
L’IA n’est pas encore autonome… mais ça progresse vite
L’utilisation de l’IA générative pour certaines étapes complexes de la chaîne d’infection, comme la recherche de vulnérabilités, reste limitée. Pour l’instant. L’identification d’une faille de sécurité et le développement de la preuve de concept associée dépendent encore largement de compétences humaines. La plupart des systèmes d’IA générative commerciaux restent trop instables et trop limités pour identifier des vulnérabilités jour-zéro rapidement et en quantité. À l’heure actuelle, aucun cas avéré d’exploitation de vulnérabilité jour-zéro découverte grâce à un modèle d’IA générative n’a été documenté.
Mais les choses bougent très vite. En novembre 2024, le système BigSleep a démontré son efficacité pour la recherche de vulnérabilités dans des codes sources. Plus inquiétant encore, en juin 2025, le système XBOW, développé par d’anciens ingénieurs de GitHub, a soumis des centaines de vulnérabilités, dont certaines critiques, sur différents programmes de bug bounty, après avoir scanné simultanément des milliers d’applications web. La course est lancée.
42 groupes de hackers d’État utilisent déjà l’IA
Un large spectre d’acteurs offensifs utilise désormais les services d’IA générative. En janvier 2025, Google révélait que son modèle Gemini avait été utilisé entre 2023 et 2024 par des groupes cybercriminels ainsi que par au moins 10 modes opératoires d’attaque liés à l’Iran, 20 liés à la Chine, 9 liés à la Corée du Nord et 3 liés à la Russie.
L’utilisation de ces technologies varie considérablement selon les objectifs et le niveau de maturité des acteurs. Pour les groupes les plus sophistiqués, l’IA générative devient un nouveau cadre pratique, similaire à l’utilisation d’outils malveillants génériques comme Cobalt Strike ou Metasploit. Elle leur permet notamment de générer du contenu en masse dans plusieurs langues, de développer du code non signant, d’effectuer des recherches sur des cibles plus rapidement, et potentiellement d’automatiser complètement une chaîne d’attaque à court ou moyen terme.
Pour les hackers moins expérimentés, l’IA générative constitue avant tout un formidable outil d’apprentissage et offre un gain de productivité en répondant à des questions techniques. Dans tous les cas, le verdict est sans appel : l’IA générative permet aux acteurs malveillants d’agir plus rapidement et à plus grande échelle.
WormGPT et FraudGPT
Les modèles d’IA générative comme ChatGPT disposent de garde-fous techniques empêchant leur utilisation à des fins illégales. Les acteurs malveillants cherchent néanmoins à contourner ces limitations par des méthodes d’ingénierie de prompt incluant des formulations ambiguës, des mots-clés spécifiques ou l’utilisation de scénarios fictifs. Ces techniques évoluent constamment et constituent un défi majeur pour les développeurs.
Le « jailbreak » : contourner les barrières morales de l’IA
Dès 2023, des chercheurs en sécurité parvenaient déjà à détourner ChatGPT pour développer un code malveillant polymorphique. En 2024, la situation s’est aggravée avec l’apparition de services de jailbreak-as-a-service comme EscapeGPT ou LoopGPT sur les forums cybercriminels. Moyennant quelques dollars, n’importe qui peut désormais accéder à des prompts préfabriqués pour faire cracher à ChatGPT ce qu’il refuse normalement de produire.
Les IA « débridées » du crime organisé
Mais pourquoi se fatiguer à contourner les protections quand on peut acheter une IA sans aucune limite ? Dès 2023, des services d’IA générative sans garde-fous tels que WormGPT, FraudGPT ou EvilGPT ont fleuri sur les forums cybercriminels ou via des canaux Telegram. Le prix du ticket : environ une centaine de dollars par mois. Des modèles plus récents comme WormGPT 4 seraient même directement entraînés sur des jeux de données spécifiques aux activités cybercriminelles, incluant du code malveillant et des modèles d’hameçonnage. L’industrialisation du crime numérique est en marche.
Quand l’IA devient elle-même la cible : les nouvelles vulnérabilités
Les catégories d’acteurs malveillants susceptibles de cibler spécifiquement les systèmes d’IA semblent similaires à celles qui s’attaquent aux systèmes d’information conventionnels. Mais les systèmes de LLM pourraient être vulnérables à de nouveaux vecteurs d’attaque inédits.
Lors de l’entraînement du modèle, des attaquants peuvent introduire des données corrompues ou fausses. Lors de l’intégration du modèle, il est possible d’y implémenter des portes dérobées. Enfin, lors de l’interrogation du modèle, également appelée inférence, des acteurs malveillants peuvent injecter de fausses informations pour altérer la réponse ou récupérer des informations confidentielles.
« Empoisonnement » des modèles : 250 documents suffisent pour corrompre une IA
Bien qu’aucun incident majeur n’ait été porté à la connaissance de l’ANSSI, le risque est réel et documenté. Des acteurs malveillants pourraient manipuler, modifier et interagir avec les données d’entraînement d’une IA générative. Une telle compromission pourrait mener à l’utilisation de ces modèles à des fins d’altération de données ou au sabotage de systèmes opérationnels.
Le plus inquiétant ? La multiplication de contenus fallacieux générés par IA sur Internet pourrait progressivement polluer les données d’entraînement des modèles et contribuer à diffuser de fausses informations à grande échelle. Une analyse conjointe du UK AI Security Institute et du Alan Turing Institute a d’ailleurs démontré une faille vertigineuse : il serait possible d’empoisonner des modèles d’IA générative à partir de seulement 250 documents malveillants. Pire encore, ce nombre resterait stable indépendamment de la taille des données d’apprentissage du modèle. Autrement dit, corrompre GPT-4 ou GPT-5 nécessiterait le même effort.
L’ANSSI a également observé certains modèles d’IA intégrant dès leur conception des limitations ou des éléments de censure. Dans le cadre du sommet pour l’IA 2024, Viginum a par ailleurs publié un rapport sur les défis et opportunités de l’IA dans la lutte contre les manipulations de l’information.
Attaques par la chaîne d’approvisionnement : le cheval de Troie version IA
Certaines attaques à l’encontre de modèles d’IA pourraient constituer une nouvelle forme redoutable d’attaque par chaîne d’approvisionnement. Des modèles d’IA générative disponibles en sources ouvertes et spécialisés dans la génération de code peuvent être malveillants ou compromis dès le départ, et exécuter du code arbitraire pour installer une porte dérobée dès leur téléchargement. Un piège parfait pour les développeurs pressés.
Les attaquants peuvent également exploiter des failles au sein d’agents Model Context Protocol (MCP), utilisés pour connecter les LLM à des outils externes et à des sources de données. Ces serveurs, qu’ils fonctionnent en local ou à distance, peuvent étendre dangereusement la surface d’attaque s’ils ne sont pas suffisamment sécurisés.
Pratique émergente et particulièrement sournoise, le slopsquatting, consiste à récupérer des noms de paquets imaginés par des IA lors d’hallucinations, puis à en diffuser des versions malveillantes. Les attaquants exploitent ainsi les erreurs de l’IA pour introduire des paquets malveillants dans la chaîne d’approvisionnement logicielle. Quand l’IA se trompe, les hackers en profitent.
100 000 comptes ChatGPT piratés
Les systèmes d’IA participent à l’augmentation de la surface d’attaque, d’autant plus lorsqu’ils sont intégrés dans des contextes logiciels plus larges, déployés dans des environnements classifiés ou utilisés dans certains flux opérationnels de l’entreprise. En l’absence d’un cloisonnement rigoureux physique et des usages, la compromission du système d’IA pourrait mener à l’atteinte à la confidentialité des données qu’il traite et à l’atteinte à l’intégrité des systèmes d’information auxquels il est connecté.
L’utilisation de comptes d’IA par les salariés dans un contexte professionnel peut exposer des informations sensibles à des risques considérables. Entre 2022 et 2023, plus de 100 000 comptes utilisateurs de ChatGPT ont été compromis par des acteurs cybercriminels à l’aide d’infostealers comme Rhadamanthys, puis revendus sur des forums.
Les employés peuvent involontairement générer des fuites de données en fournissant à l’IA des informations sensibles, voire confidentielles. L’exemple le plus emblématique ? En juin 2023, des salariés de Samsung ont divulgué des informations sensibles sur la technologie des semi-conducteurs en utilisant ChatGPT. L’enfer est pavé de bonnes intentions… et de prompts mal réfléchis.
The post IA générative : la nouvelle arme cyber qui inquiète l’ANSSI appeared first on Silicon.fr.

Cyberbro - L'analyse d'IoC facile et en open source
Salut les amis ! Aujourd'hui, je voulais vous partager une petite pépite qu'un lecteur, Stanislas, m'a envoyée. Si vous bossez dans la cyber ou que vous passez votre temps à analyser des trucs bizarres qui trainent sur vos serveurs, vous allez adorer Cyberbro.
Cyberbro c'est une plateforme d'analyse d'IoC (Indicators of Compromise) en open source. Grâce à ça, au lieu de vous paluchez 15 sites différents pour vérifier une IP ou un hash, vous balancez tout dans Cyberbro. L'outil va alors extraire automatiquement les infos de vos logs et interroger une vingtaine de services comme VirusTotal, MISP, Shodan, AbuseIPDB ou même Microsoft Defender pour vous dire si c'est dangereux.
Sous le capot, ça gère l'extraction avancée de TLD pour ne pas se planter sur les domaines, et ça fait du "pivoting" automatique. En gros, ça va chercher tout seul les domaines, URLs ou IPs liés via reverse DNS et RDAP. Toutes les données sont ensuite stockées proprement dans une base SQLite locale qui sert aussi de cache, ce qui permet de ne pas flinguer vos quotas d'API si vous analysez deux fois la même chose.
C'est hyper fluide, ça tourne sous Python et l'interface est vraiment propre. Stanislas a même poussé le vice jusqu'à proposer une intégration MCP (Model Context Protocol) pour l'utiliser avec Claude ou Ollama. Ça permet de générer des rapports d'analyse complets via LLM en deux secondes. Et y'a même des extension navigateur pour Chrome et Firefox ainsi qu'une API. C'est ouf !
Franchement, pour un projet perso, ça rigole pas du tout ! D'ailleurs, c'est déjà utilisé par pas mal de SOC en France, donc c'est du sérieux.
Pour tester ça, c'est hyper fastoche. Un petit coup de Docker Compose et hop, c'est prêt à l'emploi. Il vous suffit de cloner le dépôt, d'éditer le fichier de secrets et de lancer le bousin.
Un grand merci à Stanislas pour ce superbe partage et pour tout le boulot abattu depuis un an. C'est ce genre de projet qui rend la communauté cyber plus forte 💪.

Notepad++ compromis : les spécificités d’une campagne en trois temps
Pendant plusieurs mois, Notepad++ a servi à diffuser des malwares.
Son développeur l’a officialisé cette semaine. Dans les grandes lignes, la compromission de l’infrastructure d’hébergement a permis la distribution de mises à jour malveillantes.
Une chronologie des événements commence à se dessiner. Apparaissent trois phases, marquées par autant de chaînes d’exécution. Parmi les cibles figurent une entité gouvernementale aux Philippines, une organisation financière au Salvador et un fournisseur IT au Viêtnam.
Phase 1 : une faille dans ProShow mise à profit
La première phase s’est étalée sur fin juillet-début août.
L’interception et la modification du trafic du gestionnaire de mises à jour de Notepad++ entraînait le téléchargement et l’exécution d’un installeur NSIS d’environ 1 Mo. Au lancement, celui-ci créait un dossier et un fichier texte en son sein, y inscrivait des informations système, les téléversait sur temp.sh et envoyait l’URL vers un serveur C2.
Un downloader déposait ensuite plusieurs fichiers dans le même dossier. Dont une version légitime de logiciel ProShow… souffrant d’une vulnérabilité qui permettait de lancer un shellcode.
Ce code déchiffrait un downloader Metasploit qui récupérait et lançait un implant Cobalt Strike. Lequel communiquait avec un autre C2.
Entre fin juillet et début août, quelques éléments ont changé. Essentiellement les URL de l’implant Cobalt Strike et du C2 associé.
Phase 2 : passage à l’interpréteur Lua
La deuxième phase a commencé mi-septembre et s’est achevée à la fin du mois.
La mise à jour malveillante de Notepad++ demeurait hébergée sur le même serveur. Il s’agissait toujours d’un installeur NSIS, mais plus léger (140 ko). La collecte d’infos système suivait le même schéma que lors de la première phase.
À partir de là, les choses changeaient. Exit ProShow, place à des fichiers liés à l’interpréteur Lua. Dont un exécutable qui lançait un script localisé dans un fichier .ini.
Ce script plaçait, en mémoire exécutable, du shellcode lancé via la fonction API EnumWindoStationsW. On retrombait alors sur la chaîne « Metasploit + Cobalt Strike », avec des URL similaires.
Sur la fin de la période, des fichiers de mise à jour avec des hashs différents sont apparus. Et la collecte d’infos système était divisée en plusieurs commandes.
Phase 3 : sideload de DLL dans un exécutable Bitdefender
La troisième phase a couvert le mois d’octobre.
À cette occasion, le serveur hébergeant les mises à jour malveillantes a changé. On restait sur des fichiers NSIS, mais sans capture d’infos système. Le chargement du shellcode était cette fois-ci réalisé par charge latérale d’une DLL dans un exécutable : BluetoothService.exe. Derrière ce nom se cachait une version légitime de Bitdefender Submission Wizard.
Le shellcode était déchiffré avec une routine embarquée. Il en résultait une backdoor. Rapid7 l’a appelée Chrysalis, en référence aux multiples couches (chiffrement en enveloppe, construction de noms de cibles à la volée, hachage d’API, URL au format des endpoints DeepSeek…) compliquant la détection de ses actions.
Un des loaders exploite un syscall non documenté associé à Microsoft Warbird, un framework d’obscurcissement de code. Il n’y a pas de chargement direct de Cobalt Strike. Mais l’implant a bien été trouvé sur une machine infectée, téléchargé là aussi via un downloader Metasploit, via des URL au format similaire à celles rencontrées lors des deux premières phases.
Des similitudes avec une analyse antérieure incitent à attribuer cette troisième phase – et potentiellement l’ensemble de la campagne – au mode opératoire Lotus Blossom, dit lié à la Chine. Actif depuis au moins 2009, il s’est livré à des actions d’espionnage en Asie du Sud-Est. Et plus récemment en Amérique centrale, avec un focus sur gouvernements, télécoms, aviation, médias et infrastructures critiques.
Illustration générée par IA
The post Notepad++ compromis : les spécificités d’une campagne en trois temps appeared first on Silicon.fr.

-
- Moltbook : pourquoi le réseau social des IA a-t-il exposé les données personnelles de vrais humains ?
Moltbook : pourquoi le réseau social des IA a-t-il exposé les données personnelles de vrais humains ?
La société de cybersécurité Wiz a repéré un problème de sécurité sur Moltbook, le réseau social des IA, qui a permis à l’entreprise d’accéder à une base de données contenant des adresses e-mail. L’erreur semble venir du fait que le créateur de Moltbook a eu recours au “vibe coding” et que les outils d’IA sont encore nuls en sécurité informatique.

6 mois d’espionnage : comment Notepad++ a été compromis par APT31
Une campagne sophistiquée a ciblé l'éditeur de code pendant six mois via son hébergeur, sans toucher au code source.
Cet article 6 mois d’espionnage : comment Notepad++ a été compromis par APT31 est apparu en premier sur Linformatique.org.