Le dirigeant de Microsoft intervient dans le débat sur l’avenir de l’IA avec un message sans équivoque : abandonner la perception négative véhiculée par le terme slop (contenu de piètre qualité). Sur son blog personnel, Satya Nadella développe une argumentation intellectuelle invitant l’industrie technologique à reconsidérer fondamentalement sa communication autour de l’apprentissage automatique. Plutôt que ... Lire plus
Ce qui est super relou avec les assistants IA en ligne, c'est qu'on doit leur faire confiance avec nos données. On tape une question, ça part dans le cloud, et on espère que personne ne stocke nos conversations sur la recette secrète du cassoulet de mémé.
Bah ça, c'est fini les amis !
Car Orla est là et c'est un outil en ligne de commande qui fait tourner des agents directement sur votre machine via
Ollama
. Pas de cloud, pas d'abonnement, pas de données qui partent on ne sait où. Juste votre CPU (ou GPU) qui bosse en local.
Petit fun fact, en cherchant des infos pour écrire cet article, j'ai découvert que "Orla", ça voulait dire "
prépuce
" en hébreu... Hé ouais, je sais pas si le dev a capté ou pas mais fallait le préciser ^^.
Du coup, une fois installé, vous lancez votre première requête comme ça :
orla agent "Explique-moi les design patterns en Go"
Bref, deux mots et votre terminal se transforme en prof particulier. Mais là où ça devient vraiment sympa, c'est avec les pipes Unix. Vous pouvez balancer n'importe quoi à Orla :
cat mon_code.go | orla agent "Trouve les bugs potentiels"
git diff | orla agent "Rédige un message de commit"
Perso, c'est ce genre de trucs qui me fait kiffer car on retrouve la philosophie Unix avec des petits outils qui font une chose et qui la font bien, et surtout qu'on peut chaîner à l'infini.
Et le truc qui tue, c'est le mode serveur MCP. Vous lancez orla serve et paf, votre assistant local devient compatible avec Claude Desktop, Cursor, et tous les outils qui supportent le protocole MCP. C'est comme si vous aviez
votre propre backend IA
prêt à servir n'importe quelle interface.
Côté modèles, Orla supporte tout ce que propose Ollama : Llama, Mistral, Qwen, DeepSeek... Vous choisissez avec --model et c'est parti. Par défaut c'est qwen3, mais rien ne vous empêche de tester les modèles spécialisés code comme qwen3-coder.
Le projet embarque aussi un système de registre d'outils. Un orla tool install fs et hop, votre assistant peut lire et écrire des fichiers. Et comme vous pouvez créer vos propres outils, vous pouvez comme ça, ajouter des capacités modulaires à activer selon vos besoins.
Ce qui me plaît vraiment avec Orla, c'est donc cette philosophie où l'IA reste un outil que vous possédez, et pas un service que vous louez. Le projet est encore jeune bien sûr, mais activement maintenu et tourne sur macOS, Linux et Windows.
Mais si vous cherchez un moyen simple de bricoler avec des agents IA sans passer par les GAFAM, Orla c'est à tester !
Microsoft vient de faire un truc qui va faire jacter tous vos sites tech au moins pour la semaine ! En effet, la firme de Redmond ouvre Windows aux agents IA autonomes, ces assistants capables d'agir sur votre système sans que vous ayez à cliquer sur chaque bouton. Ahaha, j'adore ! Et là, forcément vous me connaissez, niveau sécu, ça soulève quelques questions.
Ce framework s'appelle Agent Launchers et il débarque dans Windows Insider Preview. L'idée c'est de permettre à des assistants logiciels de s'enregistrer auprès de l'OS pour interagir avec vos fichiers et vos apps dans un environnement isolé. Kevin Scott, le CTO de Microsoft, compare ça à Windows 3.0 qui avait fait de l'OS la plateforme incontournable pour les devs. Sauf qu'aujourd'hui, on parle pas de Word ou Excel, on parle de trucs qui prennent des décisions à votre place. Oui comme votre mère.
Les paramètres Windows AI Components - c'est là que ça se passe (
Source
)
Mais rassurez-vous les mécréants, Microsoft a quand même prévu des garde-fous. En effet, les agents tournent dans un Agent Workspace isolé, avec leur propre compte utilisateur Windows dédié. Ils ne peuvent pas dépasser vos permissions, et par défaut, ils n'ont accès qu'à 6 dossiers : Documents, Téléchargements, Bureau, Musique, Images et Vidéos. De plus, le système est désactivé par défaut et il faut un admin pour l'activer. Voilà, les 3 loi d'Asimov version krosoft sont donc la non-répudiation (les actions sont loggées), la confidentialité (isolation des données), et l'autorisation (permissions explicites).
Le message d'avertissement quand vous activez les fonctionnalités agentiques - Microsoft prévient que c'est pas encore au point (
Source
)
Sauf que voilà. Y'a un gros éléphant dans la pièce qui s'appelle XPIA, pour Cross-Prompt Injection Attack. Si vous avez suivi
l'affaire EchoLeak
sur Microsoft 365 Copilot, vous savez de quoi je parle. Le principe c'est qu'un contenu malveillant planqué dans un fichier ou une page web peut détourner les instructions de l'IA. L'agent croit alors exécuter une tâche légitime alors qu'il balance vos données à un serveur pirate. Et le pire c'est que Microsoft reconnaît le risque noir sur blanc dans sa propre documentation.
Le problème fondamental c'est ce que les chercheurs appellent la LLM Scope Violation : l'IA traite les données de confiance et les données potentiellement hostiles dans le même "cerveau", sans vraiment faire la différence. C'est comme si votre assistant faisait aveuglément tout ce qu'il lit, que ça vienne de vous ou d'un spam. Et ça, c'est un défaut architectural qui touche tous les systèmes agentiques basés sur des LLM, et pas juste ceux de Microsoft.
D'ailleurs, si vous vous demandez pourquoi Microsoft prend ce risque énorme, c'est simple la réponse est dans les chiffres. En fait, les revenus de Windows stagnent tandis qu'Azure a explosé à plus de 75 milliards de dollars par an. La stratégie c'est donc de transformer Windows en hub pour les agents, et de le faire devenir la plateforme incontournable de l'ère IA, exactement comme ils l'avaient fait avec les applications traditionnelles dans les années 90.
Alors pour l'instant, c'est réservé aux Windows Insiders dans le canal Dev et les testeurs sont explicitement prévenus que les protections XPIA ne sont "pas parfaites" et qu'il faut surveiller ce que font les agents. Bref, c'est de la beta assumé mais vu comment
l'IA peut déjà introduire des vulnérabilités
dans le code, imaginez ce que ça peut donner avec un agent qui a accès à votre système de fichiers.
Les entreprises qui veulent déployer ça vont donc devoir sérieusement revoir leurs politiques de sécurité. Audit des données accessibles, monitoring des actions des agents, sensibilisation des équipes... L'IA autonome, c'est plus un gadget de productivité, c'est un vecteur d'attaque potentiel qu'il va falloir commencer à traiter comme tel.
Vous avez toujours voulu créer des workflows d'agents IA mais vous avez la flemme de coder tout ça à la main ? Hé bien y'a un projet open source qui va vous faire plaisir. Ça s'appelle Sim Studio et c'est une plateforme qui permet de construire des workflows d'agents IA de manière visuelle, un peu comme sur Figma.
Le principe c'est d'avoir un canvas sur lequel vous glissez-déposez des blocs : des LLMs, des outils, des connexions à des services tiers comme Slack, Gmail, Supabase ou Pinecone. Vous reliez tout ça avec des flèches et hop, vous avez votre workflow qui tourne. Pas besoin d'écrire une seule ligne de code si vous voulez pas.
Et le truc sympa c'est qu'il y a un Copilot intégré qui peut générer des nœuds, corriger les erreurs et améliorer vos flows directement à partir de langage naturel. Vous lui décrivez ce que vous voulez et il vous pond les blocs correspondants. Pratique pour les feignasses comme moi.
Côté fonctionnalités, c'est plutôt complet. Vous pouvez connecter différents modèles (des LLMs hébergés mais aussi des modèles locaux), brancher des bases de données vectorielles pour que vos agents puissent répondre à des questions basées sur vos propres documents, et contrôler finement comment chaque outil est utilisé.
Et une fois votre workflow prêt, vous avez plusieurs options pour le déployer. Soit vous le déclenchez manuellement, soit vous le transformez en API, soit vous le programmez pour qu'il tourne périodiquement. Y'a même moyen de le faire réagir à des webhooks, genre quand vous recevez un message Slack, ou de le déployer comme un chatbot standalone.
Le projet est backé par Y Combinator et ils annoncent déjà plus de 60 000 développeurs qui utilisent la plateforme. De plus, c'est SOC2 et HIPAA compliant, donc niveau sécurité c'est du sérieux pour ceux qui bossent dans des environnements exigeants.
Niveau déploiement, bien sûr, vous avez le choix. Soit vous utilisez leur version cloud sur
sim.ai
, soit vous self-hostez le bazar avec Docker Compose ou Kubernetes. Pour les paranos qui veulent garder le contrôle total sur leurs données, c'est possible de tout faire tourner en local avec Ollama.
Pour l'installer en local, c'est assez simple. Vous pouvez lancer directement avec npx simstudio ou passer par Docker. Niveau technos, le projet utilise Next.js, PostgreSQL avec pgvector, et ReactFlow pour l'éditeur visuel.
Bref, si vous cherchez un outil pour bricoler des workflows d'agents IA sans vous prendre la tête avec du code,
c'est open source et gratuit
.