Vue lecture
Protection des mineurs : après le porno, les VPN dans le viseur de la France et du Royaume-Uni

Le Premier ministre britannique Keir Starmer veut « limiter l’accès » des mineurs aux VPN. De fait, il faudra vérifier l'âge de tout le monde, car il est techniquement impossible de trier à l'avance les utilisateurs sans une preuve. Et la France est sur la même trajectoire.
« C’est vraiment bizarre d’avoir un micro sur un aspirateur », il bidouille son aspirateur robot et découvre une faille géante

Dans un article publié le 14 février 2026, le média américain The Verge revient sur la découverte involontaire d'une faille de sécurité affectant les appareils de la marque chinoise DJI. En bidouillant son aspirateur connecté pour le piloter avec une manette PlayStation, un utilisateur a pu accéder à des données de milliers d'appareils à travers le monde.
Ces robots aspirateurs pouvaient transmettre des vidéos et cartographies de l’intérieur des maisons !

Faille critique zero-day dans Chrome : l’action urgente que Google demande de faire soi-même

{ Tribune Expert } – L’IA au travail : détecter les menaces, sécuriser les usages
L’IA générative est désormais présente dans notre quotidien professionnel et personnel. Ces assistants répondent instantanément à nos questions, rédigent des textes, résument des documents, et font gagner un temps considérable. Mais ils sont aussi victimes “d’hallucinations” et peuvent présenter des failles de sécurité mettant à mal des informations confidentielles.
Comment profiter de ces outils tout en sécurisant leur usage ? Voici quelques risques et solutions possibles.
Les menaces cyber liées aux LLM
Prompt injection: manipulation des instructions pour contourner les règles et accéder à des informations sensibles. Un utilisateur malveillant peut formuler une question ou une instruction de manière à contourner les garde-fous intégrés au modèle et obtenir des informations confidentielles. Par exemple, un employé ou un tiers pourrait, par un enchaînement de phrases trompeuses, inciter l’assistant à divulguer des données internes sensibles ou des secrets commerciaux. Le plus souvent, cette manipulation ne nécessite pas d’accès direct aux systèmes critiques, rendant le risque particulièrement préoccupant.
Fuite de données: divulgation involontaire d’informations confidentielles ou stratégiques. Lorsqu’un assistant génère des réponses à partir de documents internes ou de bases de connaissances, il existe un risque que des informations confidentielles soient reformulées et partagées accidentellement avec des utilisateurs non autorisés. Cette vulnérabilité devient critique dans des secteurs régulés comme la finance, la santé ou la défense, où la moindre divulgation peut avoir des conséquences financières et légales lourdes.
Abus des API et systèmes connectés: détournement des capacités d’action du LLM sur des systèmes internes. Les assistants IA ne se contentent pas de répondre à des questions : ils peuvent interagir avec des systèmes via des API ou automatiser certaines tâches. Si ces accès ne sont pas correctement sécurisés, un acteur malveillant pourrait exploiter le modèle pour exécuter des actions non autorisées, comme modifier des configurations, supprimer des données ou déclencher des processus sensibles.
Hallucinations exploitables: diffusion de fausses informations pouvant induire en erreur les utilisateurs ou servir de vecteur de phishing. Les modèles de langage peuvent « halluciner », c’est-à-dire générer des informations fausses mais plausibles. Si celles-ci ne sont pas identifiées, elles peuvent induire en erreur les employés, fausser des décisions stratégiques ou servir de base à des attaques de phishing sophistiquées. Un e-mail généré automatiquement et contenant de fausses instructions financières pourrait convaincre un employé de transférer des fonds à un tiers frauduleux.
Empoisonnement des données: altération des modèles via des données malveillantes pour biaiser leurs réponses. En alimentant le modèle avec des informations malveillantes ou biaisées, un acteur externe peut altérer ses réponses et influencer ses comportements. À terme, cela peut conduire à une dégradation de la qualité des décisions, à des recommandations erronées ou à des vulnérabilités exploitées pour nuire à l’entreprise.
Comment sécuriser l’usage de l’IA générative
Isolation et contrôle des privilèges: restreindre strictement l’accès aux systèmes et données critiques Les assistants IA doivent être isolés des systèmes sensibles et n’obtenir que les accès strictement nécessaires à leurs fonctions. Limiter leur portée réduit le risque d’abus et rend beaucoup plus difficile l’exploitation de failles pour accéder à des informations stratégiques.
Filtrage et validation des entrées et sorties: détecter et bloquer les instructions malveillantes et les réponses dangereuses Pour prévenir les injections de prompt et les fuites accidentelles, il est essentiel de filtrer les requêtes adressées à l’IA et de vérifier la pertinence des réponses avant leur diffusion. Des mécanismes automatiques de contrôle et de validation, combinés à des règles métier, permettent de réduire les risques d’exécution d’instructions malveillantes.
Supervision humaine et garde-fous métier: validation des actions critiques et règles explicites sur l’usage autorisé Une supervision humaine des actions critiques de l’IA et la définition de politiques d’usage explicites garantissent que l’IA reste un outil d’aide et non un acteur autonome pouvant générer des pertes ou des incidents. La combinaison de l’intelligence humaine et artificielle est un garde-fou essentiel.
Journalisation et monitoring: suivi des interactions pour identifier rapidement des usages anormaux ou des tentatives d’attaque La traçabilité est cruciale. En enregistrant et en surveillant toutes les interactions avec l’IA, les entreprises détectent rapidement des comportements suspects, analysent des tentatives de fraude et réagissent avant que les incidents ne deviennent critiques. Le monitoring en temps réel permet également d’identifier des tendances d’usage qui pourraient indiquer des vulnérabilités.
Tests de sécurité dédiés: audits et simulations pour détecter les vulnérabilités avant qu’elles ne soient exploitées Les simulations d’attaques et les évaluations de risques permettent d’identifier des failles avant que des acteurs malveillants ne les exploitent, garantissant que le déploiement de l’IA reste un levier de productivité plutôt qu’une source de pertes financières.
*Adrien Gendre est CPO chez Hornetsecurity
The post { Tribune Expert } – L’IA au travail : détecter les menaces, sécuriser les usages appeared first on Silicon.fr.

Fuites de données en série : le pire n’est plus le piratage… mais ce qui arrive après

OpenVAS - Le scanner de vulnérabilités open source qui vous dit la vérité sur votre serveur
Vous avez un serveur, un NAS, quelques services qui tournent chez vous ou au boulot, et vous vous demandez si tout ça est bien sécurisé ? Alors plutôt que d'attendre qu'un petit malin vous le fasse savoir de manière désagréable, autant prendre les devants avec un scanner de vulnérabilités.
Attention : si vous scannez le réseau de votre boulot, demandez toujours une autorisation écrite avant car scanner sans permission, c'est illégal et ça peut vous coûter cher. Et ne comptez pas sur moi pour vous apporter des oranges en prison.
OpenVAS (Open Vulnerability Assessment Scanner), c'est l'un des scanners open source les plus connus, maintenu par Greenbone. Une fois en place sur votre réseau, il scanne vos services exposés et vous balance un rapport avec ce qui craint : Ports ouverts, services mal configurés, failles connues, certificats expirés... De quoi repérer une bonne partie de ce qu'un attaquant pourrait exploiter.
L'interface principale d'OpenVAS
Ce qui est cool, c'est que vous restez en mode défensif. C'est pas un outil de pentest offensif ou de hacking pur et dur mais juste un audit de votre propre infra pour savoir où vous en êtes. Et ça tourne avec un feed de vulnérabilités (le Greenbone Community Feed) qui est régulièrement mis à jour, ce qui permet de détecter les failles récentes.
Pour l'installer, une des méthodes c'est de passer par Docker. Greenbone fournit une stack complète avec docker-compose. Après vous cherchez plutôt à analyser spécifiquement vos images de conteneurs, Grype pourrait aussi vous intéresser .
Pour OpenVAS, vous créez un répertoire, vous téléchargez leur fichier de config (jetez toujours un œil dedans avant de l'exécuter, c'est une bonne pratique), et hop :
mkdir -p ~/greenbone-community-container
cd ~/greenbone-community-container
curl -f -O -L https://greenbone.github.io/docs/latest/_static/docker-compose.yml
docker compose pull
docker compose up -d
L'assistant de configuration initiale
Après ça, vous accédez à l'interface web via http://localhost:9392.
Et pour le login, attention, car sur les versions récentes du conteneur communautaire, le mot de passe admin est généré aléatoirement au premier démarrage. Il faut donc aller voir les logs pour le récupérer (docker compose logs -f). Si ça ne marche pas, tentez le classique admin/admin, mais changez-le direct.
La première synchro des feeds peut prendre un moment, le temps que la base de vulnérabilités se télécharge. Vous avez le temps d'aller vous faire un café, c'est pas instantané.
Niveau config machine, la documentation recommande au moins 2 CPU et 4 Go de RAM pour que ça tourne, mais pour scanner un réseau un peu costaud, doublez ça (4 CPU / 8 Go) pour être à l'aise. Et une fois connecté, direction la section scans pour créer une cible avec votre IP ou plage d'adresses. Ensuite vous pouvez lancer un scan avec le profil de votre choix :
Le mode "Discovery" se contente de lister les services et ports ouverts tandis que le mode "Full and Fast" lance une batterie complète de tests de vulnérabilités. Il est conçu pour être "safe" (ne pas planter les services), mais le risque zéro n'existe pas en réseau donc évitez de scanner votre prod en pleine journée sans prévenir.
Les résultats arrivent sous forme de rapport avec un score de criticité comme ça vous avez le détail de ce qui pose problème et souvent des pistes pour corriger. Genre si vous avez un service SSH avec une config un peu lâche ou un serveur web trop bavard, le rapport vous le dira.
Par contre, c'est vrai que l'interface est assez austère comparée à des solutions commerciales comme Nessus mais c'est gratuit, c'est open source, et ça fait le taf pour un audit interne. La version Community a quand même quelques limitations (feed communautaire vs feed entreprise, support, etc.), mais pour surveiller son infra perso ou sa PME, c'est déjà très puissant.
Du coup, si vous voulez savoir ce qui traîne sur votre réseau avant que quelqu'un d'autre le découvre, OpenVAS est un excellent point de départ. Et c'est toujours mieux de découvrir ses failles soi-même que de les lire dans un mail de rançon... enfin, je pense ^^.

Pékin veut retenir les cybercondamnés jusqu’à trois ans
Fuite PSNI : indemnisation massive après l’erreur de 2023
Flickr alerte sur une fuite via un prestataire d’e-mails
ZATAZ lance 92829 V 2.0, album contre la cyberfraude
La CISA ordonne le retrait des appareils en fin de vie
IPTV et amendes 2026 : comprendre les risques réels en France et en Europe
Alors que l’Italie automatise désormais les amendes de 154 euros, la France mise sur le blocage technique immédiat pour endiguer le piratage sportif.
Cet article IPTV et amendes 2026 : comprendre les risques réels en France et en Europe est apparu en premier sur Linformatique.org.
Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA
Proofpoint annonce l’acquisition d’Acuvity, une société spécialisée dans la sécurité et la gouvernance de l’intelligence artificielle. L’opération vise à intégrer à sa plateforme de des capacités de visibilité et de contrôle sur les usages de l’IA au sein des environnements de travail.
L’essor rapide de l’IA générative dans les entreprises crée de nouveaux défis en matière de sécurité et de conformité. Les déploiements d’agents autonomes, d’assistants conversationnels ou d’applications connectées aux grands modèles de langage exposent les organisations à des risques émergents : perte de données sensibles, fuites de propriété intellectuelle, non-conformité réglementaire ou encore attaques de type prompt injection.
L’intégration d’Acuvity devrait permettre à Proofpoint d’apporter une surveillance en temps réel des interactions entre utilisateurs, données et agents d’IA. La technologie d’Acuvity, conçue pour détecter et encadrer les usages internes comme externes de l’IA, offre une cartographie complète des points d’accès utilisés (endpoints, navigateurs, outils locaux ou infrastructures d’IA). Elle aide également à contrôler les données échangées avec les services d’IA tiers.
Selon Proofpoint, cette acquisition complète ses offres existantes en sécurité des collaborateurs et en protection de l’information, afin d’y ajouter une couche de gouvernance des usages d’IA dans les flux de travail critiques.
Ni le montant de la transaction ni les termes précis de l’intégration n’ont été dévoilés.
Image : © DR
The post Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA appeared first on Silicon.fr.

Caisse d’Épargne : cette règle est maintenant obligatoire pour tous les clients, la connaissez-vous ?

Une nouveauté à connaître pour les 17 millions de clients.

ExpressVPN est à -81 % pour la Saint-Valentin et s’enrichit de fonctionnalités inédites [Sponso]

Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !
« J’ai reçu un courrier avec une nouvelle carte bancaire» : c’est quoi cette nouvelle arnaque qui sévit en France ?

Une escroquerie de plus en plus répandue.

Attaque revendiquée contre la CFDT par Cl0P
{ Tribune Expert } – La confiance, enjeu essentiel des forums cybercriminels
Dans l’écosystème cybercriminel, la confiance constitue un pilier essentiel au bon fonctionnement des échanges, alors même que ceux-ci reposent sur l’anonymat, l’absence de recours légaux et une instabilité structurelle permanente.
Acheteurs et vendeurs interagissent sous pseudonyme, sans connaître l’identité réelle de leurs interlocuteurs, dans un environnement exposé aux arnaques, aux exit scams, aux démantèlements des forces de l’ordre et aux conflits internes entre acteurs. Cette situation rend la construction de relations de confiance particulièrement complexe sur les forums et marketplaces du Deep et du Dark Web.
Malgré ces contraintes, la communauté cybercriminelle a mis en place des mécanismes visant à encadrer les transactions et limiter les abus. Ces dispositifs incluent la restriction des inscriptions, la modération des contenus, les systèmes de réputation, le recours à des tiers (escrow), ainsi que la création de véritables « tribunaux » communautaires permettant le règlement des litiges entre membres. Ces mécanismes jouent un rôle central dans la structuration des échanges et la régulation des comportements frauduleux.
Un écosystème structuré autour de la réputation et des rôles de chacun
Avant d’analyser ces outils, il convient de rappeler les principaux profils d’acteurs en présence. Les forums cybercriminels fonctionnent comme des marchés où une offre (bases de données, accès, malwares, services frauduleux) rencontre une demande, avec des transactions généralement réalisées en cryptomonnaies ou via des systèmes de crédits internes.
Ces échanges sont encadrés par des administrateurs et des modérateurs chargés de faire respecter les règles, ainsi que par des membres de confiance comme les escrows, dont la réputation est censée garantir la sécurité des transactions. La réputation, matérialisée par l’ancienneté du compte, l’activité, les évaluations des pairs, les dépôts financiers ou l’acquisition de grades, constitue un facteur clé dans l’établissement de la confiance.
Fragilisation de la confiance et réponses face à l’instabilité
Toutefois, malgré ces garde-fous, les arnaques demeurent présentes. Ventes de données falsifiées, reventes de fuites publiques, usurpation d’identité de groupes connus, faux escrows ou exit scams illustrent les multiples formes de fraude qui fragilisent l’écosystème.
Cette défiance est accentuée par la pression exercée par les autorités, comme en témoignent les opérations internationales majeures (Cronos, Endgame) ayant conduit à la saisie de plateformes et à l’arrestation d’administrateurs. Ces actions, en sapant la crédibilité des forums, ont profondément mis à mal la confiance entre utilisateurs de forums cybercriminels.
Face à cette instabilité, les cybercriminels ont dû mettre en place certains garde-fous : durcissement des conditions d’accès, renforcement des règlements internes, multiplication des contrôles de réputation et migration partielle vers des plateformes alternatives comme Telegram. Dans ce contexte, les systèmes de tribunaux internes sont devenus un élément central afin de créer de la confiance au sein de la communauté cybercriminelle.
Les scam reports de DarkForums comme mécanisme de régulation
C’est dans cette perspective que cet article s’intéresse au système de scam reports de DarkForums, forum cybercriminel en forte croissance depuis le démantèlement de BreachForums.
Héritier direct des mécanismes de RaidForums et BreachForums, ce système permet à un membre de signaler publiquement un litige à l’encontre d’un autre utilisateur.
À partir d’une analyse qualitative et quantitative de 61 scam reports publiés entre décembre 2024 et novembre 2025, cette étude évalue l’efficience du mécanisme et son rôle dans la création de confiance.
Les résultats montrent que la majorité des litiges concernent des escroqueries liées au non-respect des transactions, suivies par la vente de données falsifiées et la revente de données publiques. Dans près des trois quarts des cas, la réponse des administrateurs se limite à l’exclusion de l’accusé, les remboursements étant rares en raison de l’absence de système de dépôt sur DarkForums. Malgré ces limites, la transparence des tickets, leur archivage public, la rapidité de traitement et l’implication de certains utilisateurs jouant un rôle de « justiciables » contribuent à renforcer la capacité des membres à évaluer la fiabilité de leurs interlocuteurs.
L’étude met également en évidence des dérives, notamment l’ouverture de plaintes malveillantes ou instrumentalisées à des fins de vengeance ou de concurrence. Ces abus rappellent que le système reste imparfait et vulnérable aux manipulations.
Néanmoins, malgré ces failles, les scam reports et le rôle des modérateurs constituent un outil essentiel de régulation. Ils offrent un cadre minimal de contrôle et de visibilité, permettant de maintenir un niveau de confiance suffisant pour assurer la continuité des échanges de données et de services illicites au sein de l’écosystème cybercriminel.
*Julie Arnoux, Ambroise Da Silva et Nicolas Boussange sont experts cyber chez XMCO*
The post { Tribune Expert } – La confiance, enjeu essentiel des forums cybercriminels appeared first on Silicon.fr.
