Vue lecture

Microsoft 365 Copilot atteint 15 millions d’utilisateurs

Satya Nadella, le CEO de Microsoft, a révélé pour la première fois que M365 Copilot compte 15 millions d’utilisateurs annuels. Ce volume exclut les fonctions de chat Copilot plus limitées, accessibles sans licence complète. La base d’utilisateurs exposée à l’IA Microsoft est donc plus large.

Adoption en entreprise : profondeur vs couverture

Le service coûte 30 $ par mois et par utilisateur (28 € en France pour l’offre « Grande entreprise »). Ce tarif s’ajoute aux licences Microsoft 365 existantes. Si le taux d’activation reste élevé sur l’année, Microsoft peut générer plusieurs milliards de dollars de revenus récurrents. L’éditeur présente Copilot comme une brique stratégique pour rentabiliser ses investissements massifs dans l’IA. Ces dépenses d’infrastructure visent à soutenir ses propres produits sur le long terme.

Microsoft souligne une forte pénétration de Copilot dans les grandes entreprises. Près de 70% des sociétés du Fortune 500 l’utilisent déjà ou ont lancé des déploiements. Cependant, plusieurs analyses nuancent ce constat. L’usage effectif reste souvent concentré sur des groupes pilotes. Les fonctionnalités IA demeurent parfois sous-exploitées par rapport au parc de licences acheté.

Microsoft généralise Copilot dans GitHub, Power Platform, Azure OpenAI et LinkedIn. L’éditeur crée ainsi un continuum d’assistants IA, du développeur au décideur métier.

Autre chiffre communiqué. la croissannce de GitHub Copilot auprès des développeurs. Les abonnements Copilot Pro+ pour développeurs individuels ont bondi de 77 % en un trimestre. La plateforme comptabilise désormais plus de 4,7 millions d’abonnés payants à Copilot, soit une croissance de 75 % sur un an.

The post Microsoft 365 Copilot atteint 15 millions d’utilisateurs appeared first on Silicon.fr.

  •  

Reprompt - Quand Microsoft Copilot balance vos données en un clic

Vous vous souvenez d' EchoLeak, cette faille zero-click dans Microsoft Copilot dont je vous parlais l'année dernière ? Eh bien accrochez-vous, parce que les chercheurs de Varonis viennent de remettre le couvert avec une nouvelle technique baptisée "Reprompt". Et cette fois, un simple clic suffit pour que l'assistant IA de Microsoft balance toutes vos données sensibles à un attaquant.

Je vous explique le principe... Dolev Taler, chercheur chez Varonis Threat Labs, a découvert que l'URL de l'assistant Microsoft intègre un paramètre "q" qui permet d'injecter directement des instructions dans le prompt.

Du coup, n'importe qui peut vous envoyer un lien piégé du style copilot.microsoft.com/?q=INSTRUCTION_MALVEILLANTE et hop, votre assistant exécute ce qu'on lui demande dès que vous cliquez.

Et là où c'est vraiment pas drôle, c'est que Varonis a identifié trois techniques d'exploitation. La première, "Double-Request", contourne les garde-fous en demandant à l'IA de répéter deux fois la même action. La deuxième, "Chain-Request", enchaîne les instructions côté serveur pour exfiltrer vos données sans que vous ne voyiez rien. Et la troisième combine les deux pour un effet maximal.

Les trois techniques d'attaque Reprompt : P2P Injection, Double-Request et Chain-Request ( Source )

Via cette faille, un attaquant peut récupérer vos emails récents, vos fichiers OneDrive, votre historique de recherche, et tout ça en arrière-plan pendant que vous pensez juste avoir cliqué sur un lien anodin. Ça craint hein !

Petite précision importante quand même, cette faille ne touche que la version Personal de l'assistant Microsoft, et pas la version Enterprise qui bénéficie de protections supplémentaires. Si vous utilisez la version pro au boulot, vous pouvez respirer. Par contre, si vous utilisez la version grand public pour vos trucs perso, c'était open bar jusqu'au patch du 13 janvier dernier.

Parce que oui, bonne nouvelle quand même, Microsoft a confirmé avoir corrigé le problème. Mais ça pose une vraie question sur la sécurité des assistants IA qui ont accès à nos données car entre EchoLeak et Reprompt, ça commence à faire beaucoup pour un seul produit.

Et surtout au niveau de la sécurité, moi ce que je comprends pas, c'est pourquoi le niveau de sécurité est un argument marketing ? Au nom de quoi la version personnelle devrait être moins sûre que la version personnelle ? Je pense que les données personnelles des gens n'ont pas moins de valeur...

Pour moi le niveau de sécurité devrait être exactement le même sur les deux versions du service.

Bref, l'IA c'est pratique, mais c'est aussi un nouveau terrain de jeu pour les attaquants alors méfiez-vous des liens bizarres, même s'ils pointent vers des services Microsoft légitimes !

Source

  •  

Microsoft teste une GPO pour désinstaller Copilot

Les admins de parcs Windows 11 auront peut-être bientôt une méthode « officielle » pour désinstaller l’application Microsoft Copilot.

La dernière build (26220.7535) publiée sur les canaux dev et bêta inclut en tout cas une GPO RemoveMicrosoftCopilotApp.

Elle ne s’applique qu’à trois conditions.
Premièrement, que Microsoft 365 Copilot et Microsoft Copilot soient tous deux installés.
Deuxièmement, que l’application Microsoft Copilot n’ait pas été installée par l’utilisateur.
Troisièmement, que cette même application n’ait pas été lancée sur les 28 derniers jours.

L’utilisateur garde la possibilité de réinstaller Microsoft Copilot.

Une nouvelle fonctionnalité Copilot non disponible en Europe

Une autre nouveauté de la build 26220.7535 concerne Copilot. Plus précisément, son usage avec le Narrateur pour décrire des images.

Cette possibilité fut introduite l’an dernier sur les PC Copilot+, à base d’IA locale. Presser la touche Narrateur + Ctrl + S décrit l’image sélectionnée ; Narrateur + Ctrl + D décrit tout l’écran.

Les autres PC Windows 11 y ont désormais accès… moyennant une connexion Internet (utilisation de modèles distants). Une fonctionnalité que Microsoft juge suffisamment sensible pour ne pas la proposer, en l’état, dans l’Espace économique européen.

À consulter en complément :

Microsoft 365 Copilot : les leçons d’un test à grande échelle
Agent 365 : après l’orchestration, Microsoft promet l’encadrement de l’IA agentique
L’Agentic AI Foundation veut des standards de l’IA autonome
L’AI Factory, une grammaire désormais légitime chez AWS ?
Amazon vs Perplexity : un premier litige emblématique pour le commerce agentique

Illustration générée par IA

The post Microsoft teste une GPO pour désinstaller Copilot appeared first on Silicon.fr.

  •  

AMD Launches Ryzen AI And Next-Gen Gaming CPUs At CES 2026

AMD announced the latest generation of Ryzen processors at CES 2026 in Las Vegas, reinforcing its focus on on-device artificial intelligence and high-performance gaming. The new lineup consists of the Ryzen AI 400 series, Ryzen AI Max+ platform, and Ryzen 7 9850X3D, expanding AMD’s presence across AI-capable notebooks, compact desktops, and enthusiast gaming PCs. For AMD, the new processors are part of a wider strategy to integrate AI acceleration at […]

  •  

Users Find A Way To Remove AI From Windows 11

RemoveWindowsAI is a new opensource script that is gaining widespread attention among Windows 11 users seeking to eliminate artificial intelligence components integrated into Microsoft’s operating system. Created by the developer @zoicware and hosted on GitHub, this tool quickly surpassed a thousand stars and has become a central topic of discussion among users who wish to go back to the more traditional way of using the PC, an AI-free experience. The […]

  •  

Windows 11 : nouvelles fonctions Copilot en préversion Insider

Windows 11 ajoute à Copilot la commande vocale, la vision d’écran et des actions, avec un déploiement par étapes et un accès anticipé via Windows Insider.

Cet article Windows 11 : nouvelles fonctions Copilot en préversion Insider est apparu en premier sur Linformatique.org.

  •  
❌