{ Tribune Expert } – Comment préparer les agents IA de demain
Les agents d’IA sont en train de redéfinir les modes d’action de l’intelligence artificielle. À la différence des modèles de langage traditionnels, qui sont entraînés sur des ensembles de données statiques, les systèmes agentiques sont dotés de capacités autonomes de navigation, de raisonnement et d’exécution des tâches. Cela leur permet de collecter des données en temps réel, de déclencher des workflows ou de prendre des décisions contextualisées.
Cette évolution de la connaissance vers l’action offre une agilité sans précédent, mais s’accompagne néanmoins de risques complexes.
Une surface d’exposition aux risques élargie
Chaque nouvelle capacité qui permet à un agent d’exécuter une tâche, comme accéder à des données, exécuter des commandes ou s’intégrer avec une API externe, apporte son lot de vulnérabilités potentielles. Car, si l’autonomie s’accompagne d’avantages indiscutables, elle rend la technologie imprévisible. Or, dans le domaine de la sécurité des entreprises, l’absence de prévisibilité est l’ennemi numéro un.
Selon le cabinet Gartner, l’IA agentique représente la principale tendance technologique en 2025 et, selon les prédictions, 33 % des applications d’entreprise disposeront de capacités agentiques sous une forme ou une autre d’ici 2028, alors que cette proportion n’atteignait que 1 % en 2024.
La plupart des vulnérabilités ne viennent pas des modèles d’IA eux-mêmes, mais de la manière dont ceux-ci sont configurés et intégrés par des êtres humains, ou encore des permissions qui leur sont accordées. Les agents qui disposent d’autorisations trop étendues, les API avec un périmètre mal défini et des droits de navigation non contrôlés peuvent amener des agents à exposer par inadvertance des données sensibles ou à déclencher des actions non sécurisées.
Les mécanismes d’authentification traditionnels n’ont pas été conçus pour gérer des interactions entre agents ou entre les agents et les données, ce qui met en évidence la nécessité de définir des standards adaptables qui tiennent compte du contexte, à l’image de la norme ISO 42001.
Pour une autonomie maîtrisée
Pour les entreprises, il ne s’agit plus de se demander si elles sont en mesure de concevoir un agent pour réaliser un objectif donné, mais s’il s’agit véritablement d’une bonne idée.
Tous les workflows n’ont pas besoin d’être autonomes. De nombreux processus d’entreprise sont fondés sur des règles, répétables et auditables, mieux gérés par des automatisations structurées. Les systèmes agentiques, eux, concrétisent leur plein potentiel au sein d’environnements dynamiques dont le contexte évolue rapidement.
Toutefois, le déploiement responsable de tels systèmes nécessite de faire preuve de retenue, d’avoir clairement défini ses objectifs et de disposer d’un socle sécurisé. La sécurité commence par l’application du principe du moindre privilège : les agents doivent uniquement avoir accès à ce dont ils ont besoin et seulement pour la durée nécessaire.
Au fil du temps, les agents peuvent être confrontés à une accumulation des permissions. Des vérifications automatisées régulières, associées à l’analyse comportementale destinée à détecter les anomalies, comme des appels API inattendus ou des activités inhabituelles sur les fichiers, permettent de prévenir ces risques.
Au-delà du contrôle des accès, les intégrations elles-mêmes doivent être sécurisées afin de se prémunir contre les attaques de type prompt injection ou contre l’exécution de scripts malveillants.
Une gouvernance adaptée à un système en constante évolution
Contrairement aux modèles statiques, les systèmes agentiques interagissent en direct avec des données qui évoluent en permanence. Cela soulève la question de la mise en conformité en temps réel, selon laquelle la suppression ou l’anonymisation des données doit pouvoir se conformer dynamiquement aux réglementations en vigueur en matière de confidentialité, à l’image du RGPD. Toutefois, sans traçabilité, la flexibilité n’est rien. Chaque interaction avec les données doit être notée dans des journaux, monitorée et justifiée.
Dans ce contexte, la gouvernance doit être à la fois continue, adaptable et évoluer en fonction de chaque nouvelle interaction et de l’émergence de nouveaux risques.
Garder l’humain impliqué
Sachant que les entreprises intègrent des agents d’IA de plus en plus profondément au cœur de leur fonctionnement opérationnel, la supervision humaine reste indispensable. L’automatisation permet de gagner en scalabilité, en rapidité et en cohérence, mais pour gérer les cas inédits ou ambigus, les analystes humains sont dotés d’une pensée critique, d’un raisonnement éthique et d’une conscience contextuelle que les machines sont incapables d’imiter.
Les architectures les plus robustes associent des audits automatisés, garants de la cohérence, à des audits humains, qui apportent le discernement nécessaire. Ensemble, ces deux niveaux de contrôle assurent des systèmes non seulement autonomes, mais aussi véritablement responsables.
Montrer la voie à suivre
L’IA agentique est destinée à devenir l’une des pierres angulaires des infrastructures d’entreprise et sa capacité à concrétiser ses promesses repose pleinement sur le fait qu’elle soit conçue et déployée de manière responsable. Afin de garantir l’avenir des agents d’IA, il est indispensable de mettre en place une autonomie maîtrisée, intégrer une sécurité centrée sur l’identité (identity-first security), et s’assurer que la gouvernance évolue en même temps que les capacités.
Les agents d’IA de demain ne seront pas jugés sur ce qu’ils sont capables de faire, mais sur leur niveau de sécurisation, leur prévisibilité et leur fiabilité dans un cadre défini par des êtres humains.
* Shobana Sruthi Mohan est Enterprise analyst chez ManageEngine
The post { Tribune Expert } – Comment préparer les agents IA de demain appeared first on Silicon.fr.


