Vue normale

Reçu aujourd’hui — 24 novembre 2025

Comment le Shadow AI fait exploser le risque de fuite de données

24 novembre 2025 à 11:20

Le baromètre 2025 d’IFOP pour Talan a fait apparaître que 43 % des utilisateurs d’IA génératives le font dans leur cadre professionnel. 52 % des utilisateurs en entreprise sont encouragés à le faire, mais seulement 15 % d’entre eux ont été formés et seulement 9 % des salariés disposent d’outils mis à disposition par leur organisation.

Ne pas s’emparer du sujet va mécaniquement pousser les collaborateurs vers ce que l’on appelle désormais le Shadow AI. Une étude menée au quatrième trimestre 2024 par Harmonic Security analysant les prompts envoyés aux principaux LLM a montré que 45,8 % des requêtes risquaient d’exposer des données clients, notamment liées à la facturation et à leur authentification, et 26,8 % des prompts composaient des données RH liées à la paie, à des identifiants personnels…

Outre un nécessaire effort de sensibilisation et de formation, les RSSI doivent mettre en place des outils pour éviter autant que possible toute fuite de données issue de ces nouveaux usages. Ce phénomène du Shadow AI pose avant tout celui de la visibilité : savoir qui fait quoi dans l’organisation.

Bernard Montel, directeur technique EMEA et stratégiste chez Tenable.

Editeur spécialisé dans la découverte des assets numériques des entreprises, Tenable, a intégré cette problématique de fuite de donnée via les IA : « Notre plateforme couvre deux grands cas d’usages liés à l’IA : d’une part le Shadow AI et ce que l’on appelle l’AI SPM (Security Posture Management) » explique Bernard Montel, directeur technique EMEA et stratégiste chez Tenable. Cette brique vise à évaluer le niveau d’exposition de l’IA dans le Cloud et pour accélérer son développement dans ce domaine, Tenable vient de mener l’acquisition de la société Apex, spécialisée dans ces cas d’usage IA.

 

 

Pour Xavier Daspre, directeur technique de Proofpoint, beaucoup d’entreprises ont ouvert les vannes de l’IA générative et doivent maintenant s’équiper pour savoir si leurs collaborateurs diffusent des informations confidentielles vers ces services.

Xavier Daspre, directeur technique de Proofpoint.

L’éditeur travaille sur 3 vecteurs : la messagerie, son domaine historique, le CASB pour la protection des applications Cloud, et la protection endpoint. « Ces deux derniers vecteurs permettent de couvrir les cas d’usage liés à la GenAI. La solution va analyser les données pour trouver, par exemple, les données à caractère personnel et anonymiser le document. »

Proofpoint a réalisé l’acquisition de Normalyze en octobre 2024 et a mis la main sur sa solution DSPM (Data Security Posture Management). Celle-ci identifie les LLM mis en œuvre par les collaborateurs et analyse en temps réel les données qui transitent vers leurs API.

Le SASE apporte une réponse globale

Venu du CASB, Netskope s’est tout naturellement intéressé à la protection des fuites de données à destination des LLM.

« Au départ, toutes les IA génératives comme ChatGPT, Gemini et Copilot étaient des applications SaaS, or nous disposons déjà des outils nécessaires pour intercepter, inspecter et appliquer des politiques au trafic des applications SaaS » argumente Ray Canzanese, directeur du Netskope Threat Labs. « Nous pouvions donc déjà détecter les menaces et les violations de la politique des données et, par exemple, guider les utilisateurs qui utilisent des solutions d’IA non approuvées vers les solutions approuvées. »

Proofpoint a étendu son offre de Cloud Security Posture Management à l’IA et vient concurrencer les offres dites d’AI-SPM qui commencent à apparaître sur le marché, parmi lesquelles celles de Palo Alto Networks, Tenable ou de Wiz.

—————————–

Adrien Porcheron, General Manager France de Cato Networks

« Il faut tenir compte du chiffrement des données. »

« Nous avons ainsi lancé en début d’année 2 nouvelles fonctionnalités liées à notre module DLP pour répondre aux besoins des clients qui doivent gérer l’adoption de l’IA dans leur organisation. Celles qui ne classifient pas toutes leurs données prennent le risque de voir leurs collaborateurs envoyer des informations confidentielles à destination des IA et exposer des données sensibles au monde extérieur.
Un autre aspect dont il faut tenir compte, c’est le chiffrement des données. Les échanges sur Internet sont maintenant très largement chiffrés or les système de DLP classiques n’ont pas la capacité de faire du déchiffrement TLS  « inline ». Ces flux non analysés constituent un risque majeur, car l’entreprise ne contrôle qu’une petite partie du trafic. Nous faisons ce chiffrement en natif dans la plateforme et nous pouvons contrôler l’ensemble des ressources échangées par l’entreprise avec l’extérieur sans devoir déployer de nouvelles ressources. »

———————————

Ray Canzanese, directeur du Netskope Threat Labs

« À ce jour, nous avons étudié plus de 1 500 applications Gen AI distinctes. »

« Avec notre DSPM, nous disposions de tous les éléments nécessaires pour sécuriser les services d’IA générative lorsqu’ils ont commencé à arriver sur le marché. Nous n’avions qu’un petit delta à développer pour les couvrir. Cela nous a donné une longueur d’avance pour couvrir cet espace de manière exhaustive. Notre base de données CCI (Cloud Confidence Index) référence tous les services SaaS et lorsque toutes ces applications d’intelligence artificielle sont arrivées sur le marché, nous les avons simplement ajoutées.
À ce jour, nous avons étudié plus de 1 500 applications Gen AI distinctes. L’avantage que cela nous donne, c’est que si vous êtes un client de Netskope, vous avez un portail très facile pour voir quelles sont ces applications utilisées par les collaborateurs, comment ils les utilisent, qui les utilise, d’où ils les utilisent. Il est ensuite très facile de mettre en place des contrôles pour limiter ce qu’ils sont capables de faire. Certaines applications peuvent être bloquées, d’autres limitées à un usage privé. »

The post Comment le Shadow AI fait exploser le risque de fuite de données appeared first on Silicon.fr.

❌