Vue normale

Reçu aujourd’hui — 7 octobre 2025

{ Tribune Expert } – Agents IA : nouvelle cible et source de vulnérabilité au sein des organisations

7 octobre 2025 à 13:22

L’adoption fulgurante des agents d’intelligence artificielle (IA) transforme les entreprises, mais expose également leurs systèmes à de nouvelles vulnérabilités. Autonomes, interconnectés et parfois déployés sans supervision, ces agents disposent d’un accès direct à des données et infrastructures critiques.

L’essor des IA génératives, notamment les modèles de langage de grande taille (LLM), a bouleversé les pratiques professionnelles bien plus profondément qu’on ne le pense. Ces technologies, capables de comprendre et de produire du langage naturel, sont désormais utilisées au travail pour des tâches aussi diverses que la rédaction de contenus, l’analyse de données ou l’automatisation des processus d’affaires. Elles offrent des gains de productivité significatifs et transforment des secteurs entiers, de la finance à la santé. Pourtant, ce potentiel d’innovation s’accompagne de nouveaux risques pour les entreprises.

L’essor des agents IA

Déployées sous forme d’agents, ces IA agissent de manière autonome, parfois sans surveillance directe, et interagissent avec des systèmes d’information complexes. Conçues pour accomplir des tâches spécifiques en exécutant des actions sur des bases de données ou des infrastructures, elles sont désormais intégrées dans des processus décisionnels critiques. Ce qui conduit à des vulnérabilités inhérentes à leur fonctionnement et les expose à des risques de détournement ou de mauvaise utilisation. En effet, 23%1 des organisations ont déjà subi des incidents liés à des agents IA compromis.

Les dérives possibles : manipulation et mauvaise utilisation

L’un des plus grands dangers associés à l’utilisation des agents IA réside dans le jailbreak. Ce terme désigne le fait de contourner les limites de sécurité des IA pour leur faire exécuter des tâches pour lesquelles elles n’ont pas été initialement conçues ou qu’elles ne devraient pas accepter de réaliser. Dans le cas des IA génératives, un jailbreak peut permettre à un utilisateur malveillant de forcer l’IA à produire du contenu inapproprié, tel que des codes malicieux ou des deepfakes. Cette manipulation ouvre une porte d’entrée pour la création simplifiée d’attaques qui étaient jusqu’alors difficilement imaginables.

Par exemple, des attaquants pourraient entraîner un agent IA à rédiger du code capable de pénétrer les systèmes de sécurité d’une entreprise ou créer de faux documents (comme de faux contrats ou des déclarations financières frauduleuses). Le tout, sans que les mécanismes de protection habituels ne détectent l’intrusion, car l’agent IA semble légitime aux yeux des systèmes de surveillance de sécurité. Le jailbreak des IA permet ainsi de transformer un outil de productivité en un vecteur d’attaque extrêmement efficace, facile à utiliser mais difficile à repérer et à neutraliser.

Un autre danger majeur lié à l’usage des agents d’IA est la manipulation des intentions de ces IA. Contrairement à un logiciel classique, un agent IA dispose de capacités d’analyse, de contexte et de prise de décision qui peuvent être utilisées de manière malveillante. Si un utilisateur malintentionné manipule les données d’entrée de l’IA, il peut orienter l’agent pour qu’il prenne des décisions qui lui sont favorables, mais qui pourraient s’avérer dangereuses pour l’entreprise.

Par exemple, en modifiant les informations que l’IA reçoit ou en influençant ses processus d’apprentissage, un individu pourrait pousser l’agent IA à prendre des décisions qui ne respectent pas la politique de l’entreprise ou qui exposent des données sensibles à des risques de fuite. De même, la modification des réponses fournies par l’IA peut modifier le comportement global des utilisateurs au sein de l’entreprise. Cette capacité à prédire et réagir aux intentions humaines soulève des questions éthiques sur la supervision et le contrôle des agents IA dans des environnements professionnels.

Confidentialité des données : le talon d’Achille de l’entreprise

Au-delà des risques de manipulation se pose la question de la confidentialité. Dernièrement, Sam Altman (CEO d’OpenAI) alertait lors d’un podcast sur l’usage incontrôlé de ChatGPT comme outil de soutien psychologique. Il insistait sur un point fondamental : si vous confiez des données sensibles à une IA sans en comprendre les implications, cela vous fait courir un risque majeur en termes de confidentialité.

Cette alerte, bien qu’issue d’un usage personnel des IA génératives, trouve un écho immédiat dans le contexte professionnel, en particulier lorsqu’elles sont déployées sous forme d’agents autonomes. En entreprise, un agent IA, interconnecté à plusieurs sources d’information et systèmes métiers, peut accéder – volontairement ou non – à des données critiques. Or, si cet agent interagit avec un LLM mal sécurisé ou un service tiers non supervisé, les informations transmises peuvent être stockées, analysées, voire utilisées à des fins non maîtrisées.

Les risques sont multiples : violation du RGPD, perte de propriété intellectuelle, divulgation d’informations stratégiques, ou encore non-conformité aux obligations réglementaires comme la directive NIS2. Dans ce cadre, la question n’est plus simplement technique, mais également juridique et éthique. Le déploiement d’un agent IA doit ainsi s’accompagner d’un encadrement strict de l’accès aux données et d’une gouvernance claire sur la conservation et l’usage des informations sensibles.

Le spectre du Shadow IT

Avec l’avènement de l’IA grand public, on voit apparaître un phénomène nommé Shadow IA – qui fait immédiatement référence au shadow IT. Tout comme pour le Shadow IT, l’utilisation d’agents IA en dehors des canaux validés par les équipes de sécurité IT expose les entreprises à des utilisations imprévues, impliquant des risques de perte de données et d’accroissement de la surface de vulnérabilité de l’entreprise.

Ce manque de visibilité crée un risque de sécurité, car ces agents peuvent s’exécuter au sein de systèmes internes et échappent ainsi aux mécanismes traditionnels de sécurité. On retrouve donc avec le Shadow IA les mêmes dérives qu’avec le Shadow IT : l’utilisation d’outils non validés contourne les protocoles de sécurité et augmente le risque d’attaques internes ou externes.

Dans cette dynamique, il est crucial que les entreprises réévaluent leurs paradigmes de sécurité et considèrent l’IA non seulement comme un outil de productivité devenu indispensable, mais aussi comme une cible privilégiée pour les cybercriminels. Face à cette nouvelle donne, l’anticipation devient la clé : une gouvernance proactive et une gestion minutieuse de ces technologies sont les seuls moyens de prévenir des conséquences dramatiques.

C’est désormais aux entreprises de prendre conscience que l’intégration de l’IA doit passer par une stratégie de sécurité dédiée, intégrée à la PSSI (Politique de sécurité du système d’information). Celle-ci devra alors se construire avec des outils apportant de la visibilité sur les utilisations réelles, et l’implication des utilisateurs afin de comprendre leurs besoins.

*Jérome Delaville est Chief Customer Officer Olfeo, groupe Ekinops

The post { Tribune Expert } – Agents IA : nouvelle cible et source de vulnérabilité au sein des organisations appeared first on Silicon.fr.

❌