La sécurité des IA agentiques pose question
Gartner évoquait un marché devant passer de 5,1 milliards $ en 2024 à 47,1 milliards en 2030… Déjà, Visa et Mastercard proposent des solutions de commerce agentique pour permettre à des agents de réaliser des achats en ligne…
Cette nouvelle approche pose d’évidentes questions de cybersécurité. Si un attaquant venait à prendre le contrôle d’un agent autonome, il pourrait déstabiliser le fonctionnement interne d’une entreprise et, s’il s’agit d’un agent orienté B2C avoir accès aux données personnelles des clients ou vider le compte en banque des clients.
Lors du salon In Cyber 2025, Proofpoint a présenté une interaction entre deux agents sécurisée via sa solution. Xavier Daspre, Directeur technique France de l’éditeur Proofpoint explique son approche : « Les deux agents sont traités comme des postes de travail qui se connectent par échange d’email ou surtout par API vers des services Cloud public. Pour nous, l’approche reste la même. Pour l’instant, le comportement des agents est plus cadré et beaucoup plus facilement discernable, mais cela va être amené à évoluer. Dans les cas d’usage actuels, nos solutions sont déjà prêtes à protéger ce cas d’usage un peu particulier. »
Le côté obscur des agents
Les fournisseurs de services anti-DDoS sont habitués à gérer des bots depuis des années. Ils développent des algorithmes et entraînent des modèles de Machine Learning pour trier le trafic généré par les humains de celui des bots légitimes et des bots illicites.
Pour Sébastien Talha, Directeur régional des ventes de Human Security, les agents sont déjà massivement exploités par les attaquants : « 80 % des attaques utilisent aujourd’hui des robots, car les attaquants ont besoin d’agir à grande échelle » explique le responsable. « L’intervention humaine n’arrive qu’en fin d’attaque, lorsque l’attaquant a besoin de réaliser des opérations complexes. On imagine qu’avec l’IA agentique, cela va disparaître. »
Face aux bots basés sur l’IA, les mécanismes du type mesure de la vitesse de l’utilisateur au clavier, mouvements de la souris ou modèles de navigation pour détecter s’il s’agit d’un humain ou d’un robot ne seront plus suffisants. « L’attaquant peut simuler la vitesse de frappe, enregistrer des déplacements de souris et les rejouer automatiquement. »
Human Security a créé plus de 350 modèles de Machine Learning pour déjouer les attaques par bot et son capteur collecte plus de 2 500 paramètres techniques sur l’utilisateur liés à son réseau, son terminal et son comportement. Il va devoir adapter son approche pour faire face à l’arrivée d’IA agentiques « légitimes ».
MCP, pilier de la sécurisation
Son concurrent français DataDome mise beaucoup sur l’analyse comportementale pour détecter une fraude lors d’une session, en complément des paramètres techniques comme l’adresse IP, la géolocalisation, le type de terminal. « Dans les aspects comportementaux, on analyse les mouvements de souris, si le comportement, les requêtes et le cheminement de navigation dans la session ne correspond pas au comportement habituel de l’utilisateur sur le site ou l’application » explique Benjamin Barrier, Chief Strategic Officer et cofondateur de DataDome.
« Le comportemental permettra de détecter les IA illégitimes et les IA agentiques qui ont « pignon sur rue », notamment Operator d’OpenAI, mettent en œuvre des protocoles tels que MCP pour nous permettre une authentification forte des agents. C’est la combinaison de ces deux approches qui vont permettre d’atteindre une protection efficace de ces IA agentiques. »
Le prestataire a déjà commencé le référencement des opérateurs d’IA agentiques qui ont pignon sur rue, et travaille sur le protocole MCP (Model Context Protocol) pour sécuriser les échanges. Ce protocole est amené à prendre de plus en plus d’importance dans la sécurisation des IA agentiques, car c’est lui qui permet d’interagir avec l’agent, lui passer des paramètres, que ce soit d’une application vers un LLM, ou d’agent à agent.
Les meilleures pratiques de MCP recommandent l’utilisation de TLS pour les connexions distantes, une validation de tous les messages entrants, la protection des ressources, notamment avec du contrôle d’accès et une gestion stricte des erreurs
The post La sécurité des IA agentiques pose question appeared first on Silicon.fr.