Windows ouvre ses portes aux agents IA, et c'est pas sans risques
Microsoft vient de faire un truc qui va faire jacter tous vos sites tech au moins pour la semaine ! En effet, la firme de Redmond ouvre Windows aux agents IA autonomes, ces assistants capables d'agir sur votre système sans que vous ayez à cliquer sur chaque bouton. Ahaha, j'adore ! Et là, forcément vous me connaissez, niveau sécu, ça soulève quelques questions.
Ce framework s'appelle Agent Launchers et il débarque dans Windows Insider Preview. L'idée c'est de permettre à des assistants logiciels de s'enregistrer auprès de l'OS pour interagir avec vos fichiers et vos apps dans un environnement isolé. Kevin Scott, le CTO de Microsoft, compare ça à Windows 3.0 qui avait fait de l'OS la plateforme incontournable pour les devs. Sauf qu'aujourd'hui, on parle pas de Word ou Excel, on parle de trucs qui prennent des décisions à votre place. Oui comme votre mère.
Les paramètres Windows AI Components - c'est là que ça se passe ( Source )
Mais rassurez-vous les mécréants, Microsoft a quand même prévu des garde-fous. En effet, les agents tournent dans un Agent Workspace isolé, avec leur propre compte utilisateur Windows dédié. Ils ne peuvent pas dépasser vos permissions, et par défaut, ils n'ont accès qu'à 6 dossiers : Documents, Téléchargements, Bureau, Musique, Images et Vidéos. De plus, le système est désactivé par défaut et il faut un admin pour l'activer. Voilà, les 3 loi d'Asimov version krosoft sont donc la non-répudiation (les actions sont loggées), la confidentialité (isolation des données), et l'autorisation (permissions explicites).
Le message d'avertissement quand vous activez les fonctionnalités agentiques - Microsoft prévient que c'est pas encore au point ( Source )
Sauf que voilà. Y'a un gros éléphant dans la pièce qui s'appelle XPIA, pour Cross-Prompt Injection Attack. Si vous avez suivi l'affaire EchoLeak sur Microsoft 365 Copilot, vous savez de quoi je parle. Le principe c'est qu'un contenu malveillant planqué dans un fichier ou une page web peut détourner les instructions de l'IA. L'agent croit alors exécuter une tâche légitime alors qu'il balance vos données à un serveur pirate. Et le pire c'est que Microsoft reconnaît le risque noir sur blanc dans sa propre documentation.
Le problème fondamental c'est ce que les chercheurs appellent la LLM Scope Violation : l'IA traite les données de confiance et les données potentiellement hostiles dans le même "cerveau", sans vraiment faire la différence. C'est comme si votre assistant faisait aveuglément tout ce qu'il lit, que ça vienne de vous ou d'un spam. Et ça, c'est un défaut architectural qui touche tous les systèmes agentiques basés sur des LLM, et pas juste ceux de Microsoft.
D'ailleurs, si vous vous demandez pourquoi Microsoft prend ce risque énorme, c'est simple la réponse est dans les chiffres. En fait, les revenus de Windows stagnent tandis qu'Azure a explosé à plus de 75 milliards de dollars par an. La stratégie c'est donc de transformer Windows en hub pour les agents, et de le faire devenir la plateforme incontournable de l'ère IA, exactement comme ils l'avaient fait avec les applications traditionnelles dans les années 90.
Alors pour l'instant, c'est réservé aux Windows Insiders dans le canal Dev et les testeurs sont explicitement prévenus que les protections XPIA ne sont "pas parfaites" et qu'il faut surveiller ce que font les agents. Bref, c'est de la beta assumé mais vu comment l'IA peut déjà introduire des vulnérabilités dans le code, imaginez ce que ça peut donner avec un agent qui a accès à votre système de fichiers.
Les entreprises qui veulent déployer ça vont donc devoir sérieusement revoir leurs politiques de sécurité. Audit des données accessibles, monitoring des actions des agents, sensibilisation des équipes... L'IA autonome, c'est plus un gadget de productivité, c'est un vecteur d'attaque potentiel qu'il va falloir commencer à traiter comme tel.
