Entre Microsoft Teams et Google Meet, il n’y a plus nécessairement besoin d’une passerelle tierce.
Jusqu’ici, pour participer à des réunions Teams sur du matériel Meet sous ChromeOS ou Android, Google recommandait d’utiliser Pexip Connect. L’intégration était disponible depuis octobre 2025, sur toutes les éditions payantes de Google Workspace, ainsi que sur G Suite Basic et Business.
Pexip Connect fonctionne aussi dans l’autre sens, en permettant aux appareils certifiés Teams Rooms – sous Windows ; pas encore sous Android – de rejoindre des réunions Meet. À condition de disposer d’une licence Teams Rooms Basic ou Pro.
Le matériel Android n’est pas concerné
La connexion peut désormais se faire directement… dans une certaine mesure.
Côté matériel Meet, seul celui sous ChromeOS est pris en charge. C’est-à-dire, essentiellement, des kits Asus et Lenovo.
Côté Teams Rooms, on en reste au catalogue Windows. Celui-ci réunit des configurations basées sur des PC ASUS, Dell, HP, Lenovo et Intel NUC. On y trouve aussi des équipements de marques telles que Crestron, Logitech et Yealink, en plus des Surface Hub 3 et 2S.
Pour exploiter cette interopérabilité, il faut toujours disposer à la fois d’un forfait Google Workspace payant et d’une licence Teams Rooms.
Sous-titrage, chat, double écran… Un Teams « diminué » sur les appareils Meet
Côté Google Workspace, le déploiement sur l’interface admin a débuté le 3 février. Pour les utilisateurs finaux, ce sera à compter du 16 février. L’interopérabilité sera active par défaut. On pourra la désactiver au niveau des unités organisationnelles.
En l’état, certaines fonctionnalités de Teams ne sont pas accessibles sur le matériel Meet. Notamment le double écran, le sous-titrage et l’envoi de messages de chat pendant une réunion – autant d’éléments pas non plus disponibles avec les intégrations Webex et Zoom.
Pour planifier une réunion, on crée un événement dans Google Agenda avec les infos nécessaires, puis on ajoute une salle utilisant du matériel Meet. Pour en rejoindre une, c’est soit via la liste enregistrée sur l’appareil, soit via l’identifiant.
De la configuration à faire sur Exchange
Côté Teams Rooms, l’intégration est effective. Pour rejoindre une réunion, on accède à l’événement dans Google Agenda et on sélectionne « Autres façons de participer > Systèmes tiers ».
Deux méthodes de connexion sont proposées : protocole SIP (via l’interface CVI) et WebRTC (Direct Guest Join). La deuxième option n’exige pas de licence supplémentaire, mais est plus limitée (pas de présentation de contenu par HDMI, vidéo limitée à 720p…). L’une et l’autre ne permettent pas, entre autres, d’envoyer des réactions, de visualiser des transcriptions et d’interagir sur le tableau blanc.
Dans tous les cas, il faut autoriser les appareils Teams Rooms à participer à des réunions tierces. Soit en local, soit dans le portail de gestion Teams Pro, soit via le fichier SkypeSettings.xml.
Exchange doit par ailleurs être autorisé à traiter les réunions tierces et les invitations externes. Il peut aussi éventuellement falloir ajouter une exception aux outils de filtrage d’URL pour éviter la réécriture des URL.
L’année 2025 a marqué un tournant décisif dans l’adoption de l’intelligence artificielle en entreprise. Selon » l’étude annuelle de la transformation des organisations » du cabinet Lecko, nous assistons au passage de l’expérimentation à l’intégration structurelle de l’IA dans le flux de travail quotidien. Mais cette transformation s’accompagne de défis majeurs et de paradoxes qui obligent les organisations à repenser profondément leurs modes de fonctionnement.
De l’outil isolé à l’architecture IA cohérente
Les organisations ne peuvent plus se contenter de « choisir une IA ». Elles doivent désormais concevoir une architecture IA cohérente, capable d’articuler des modèles spécialisés comme Claude, GPT ou Mistral, des couches d’orchestration et des connecteurs de données basés sur le RAG (Retrieval Augmented Generation) pour garantir la fiabilité des réponses.
Cette évolution traduit une maturité nouvelle : l’IA ne se déploie plus au coup par coup, mais s’inscrit dans une stratégie d’ensemble.
L’avènement de l’IA agentique
Lecko e met en lumière le passage de l’IA générative simple à l’IA agentique, une évolution majeure qui transforme radicalement les processus métiers. Contrairement aux outils d’assistance classiques, un agent IA est capable d’exécuter des tâches de manière autonome, comme planifier une réunion ou traiter un processus RH, en interagissant directement avec l’environnement de travail.
Cette autonomie repose sur trois caractéristiques essentielles : la capacité d’analyse de situations complexes, l’élaboration de stratégies et l’interaction directe avec les outils existants comme les CRM, ERP ou agendas. L’IA agentique vise la substitution complète de tâches, et non plus seulement leur amélioration ou leur facilitation.
Une spécialisation par métiers
L’IA s’intègre désormais au cœur des processus spécifiques de chaque département.
Dans les ressources humaines, des solutions comme Workday Illuminate déploient des agents spécialisés pour automatiser le recrutement ou rédiger des contrats. ServiceNow Now Assist automatise le résumé d’incidents et la génération de workflows pour les équipes IT. Les équipes commerciales bénéficient d’agents capables de qualifier des leads ou de préparer des devis de manière autonome.
En 2026, la valeur se déplace vers des plateformes agentiques capables d’orchestrer plusieurs agents simultanément. Les éditeurs comme Jalios, Jamespot, LumApps ou Microsoft proposent des studios « low-code » permettant aux métiers de fabriquer leurs propres agents sur mesure. Des « méta-agents » ou concierges IA dirigent les requêtes vers l’agent le plus pertinent, interrogeant simultanément différentes bases de données.
Selon Gartner, en 2028, 15 % des décisions professionnelles quotidiennes seront prises de manière autonome par des agents IA. Cette perspective souligne l’ampleur de la transformation en cours.
Le paradoxe de la productivité
L’un des enseignements les plus importants de l’étude concerne ce que Lecko appelle le « paradoxe de la productivité ». Contrairement aux attentes, l’IA n’améliore pas automatiquement les rythmes de travail. Pour obtenir un gain réel, il faut viser les tâches de substitution, où l’IA remplace effectivement une action humaine, plutôt que les tâches de confort ou de renfort.
Si les gains de temps promis par l’IA ne sont pas utilisés pour substituer des tâches récurrentes, ils restent invisibles au niveau de l’organisation et peuvent même entretenir l’hyperconnexion. L’IA agit ainsi comme un révélateur : elle ne peut transformer les processus que si le patrimoine documentaire est sain et bien structuré. Elle devient inefficace si les règles métiers sont floues ou les données mal organisées.
Lutter contre le bruit organisationnel
Le bruit organisationnel, défini comme le surplus de sollicitations numériques non filtrées et non priorisées qui fragmentent l’attention, est l’un des fléaux de l’environnement de travail moderne. L’IA agentique offre plusieurs leviers pour le combattre.
Des systèmes comme l’Assistant Teamwork de Jamespot proposent des résumés intelligents de notifications et une priorisation des messages. Des outils comme Staffbase ou Sociabble utilisent l’IA pour segmenter les audiences et personnaliser les flux, évitant de diffuser des informations non pertinentes aux collaborateurs terrain.
L’émergence de méta-agents orchestrateurs permet de router les requêtes vers le bon agent spécialisé, évitant les allers-retours inutiles dans le système d’information. Des plateformes comme LumApps avec son Agent Hub ou Elium centralisent les connaissances pour répondre en langage naturel, réduisant le bruit lié aux recherches infructueuses.
L’écosystème agentique gagne également en attractivité en proposant des innovations comme le « zéro fichier » ou la structuration des connaissances, ce qui réduit structurellement la place centrale de l’email, premier vecteur de pollution informationnelle en entreprise.
L’optimisation des réunions : promesses et limites
L’IA peut contribuer à limiter l’inefficacité des réunions, mais avec des nuances importantes. Les outils actuels comme Copilot, Leexi ou Fireflies excellent dans la transcription, la génération de comptes-rendus et l’extraction de plans d’actions. En fournissant des synthèses préalables, l’IA permet de raccourcir les réunions et de limiter le nombre de participants nécessaires.
Cependant, l’étude souligne une limite technique majeure : la réunion hybride est particulièrement difficile à traiter pour l’IA, qui peine à identifier correctement les personnes présentes physiquement par rapport à celles en ligne.
De plus, l’IA agit comme un miroir de l’efficacité organisationnelle. Une réunion mal structurée ou sans animateur produira une synthèse médiocre. Le déploiement de l’outil seul ne suffit pas à améliorer les rythmes de travail ; il doit s’accompagner d’un questionnement sur la nécessité même de la réunion.
Les risques et limites de l’IA générative
L’étude alerte sur plusieurs risques significatifs.
Paradoxalement, l’IA peut aggraver la pollution informationnelle si elle n’est pas accompagnée d’une transformation des pratiques. La facilité de production peut saturer davantage l’environnement numérique, créant un effet « tapis roulant » où une part croissante des contenus est générée automatiquement sans forcément apporter de valeur ajoutée.
Le phénomène du « Shadow AI » est également préoccupant : environ 49 % des utilisateurs en entreprise ont recours à l’IA sans en informer leur hiérarchie, ce qui contribue à fragmenter la Digital Workplace et complique la maîtrise des flux d’informations.
Des études alertent également sur une baisse des capacités cognitives et mémorielles des utilisateurs. La présence d’une IA peut encourager les participants à être moins attentifs, comptant sur le résumé automatique pour rattraper ce qu’ils ont manqué, un effet qualifié « d’endormissement au volant ».
Enfin, l’impact environnemental est colossal : la consommation d’électricité des data centers pourrait doubler d’ici 2026, soulevant des questions urgentes sur la soutenabilité de cette révolution technologique.
Si la souveraineté numérique mobilise les décideurs politiques, l’enjeu n’est pas aussi partagé par les agents publics.
Selon une enquête Ipsos réalisée pour le cabinet Lecko, seuls 12% des agents publics interrogés attendent explicitement que leur administration privilégie la souveraineté dans l’évolution de leurs outils numériques de travail.
Pour l’écrasante majorité d’entre eux (88%), d’autres critères priment largement sur les considérations de souveraineté. Leur priorité numéro : l’efficacité des outils au quotidien. Qu’ils soient français, européens ou américains, les agents attendent des solutions qui fonctionnent, répondent à leurs besoins réels et leur permettent d’ accomplir leurs missions dans de bonnes conditions.
Cette position pragmatique se manifeste d’ailleurs par un phénomène révélateur : 60% des répondants reconnaissent avoir recours au « Shadow IT », c’est-à-dire à l’utilisation d’applications non validées par leur direction informatique. Une forme de vote avec les pieds qui prouve que les solutions officielles – qu’elles soient souveraines ou non – ne répondent pas toujours aux attentes du terrain.
L’efficacité avant la géopolitique
Ce faible niveau d’attente vis-à-vis de la souveraineté interroge à plusieurs niveaux. D’abord sur la maturité du sujet côté utilisateurs : le concept de souveraineté numérique, bien que globalement compris, ne résonne pas comme une urgence dans le quotidien professionnel. Les menaces juridiques liées à l’extra-territorialité des lois américaines, les risques pesant sur la confidentialité des données ou les enjeux d’indépendance technologique restent perçus comme des préoccupations lointaines, déconnectées des réalités opérationnelles.
Mais ce désintérêt questionne aussi la capacité des organisations publiques à porter une vision alternative crédible. Comment convaincre les agents d’adhérer à un projet de souveraineté si les solutions proposées n’offrent pas une expérience utilisateur équivalente ou supérieure à celle des géants américains ? Quelques pionniers dans le désert
Malgré ce contexte peu favorable, quelques collectivités tentent l’aventure. La Région Occitanie, la Ville de Marseille, Chamonix, Grenoble ou Lyon abandonnent progressivement les suites logicielles américaines au profit de solutions libres et open source. Ces initiatives restent toutefois marginales dans un paysage largement dominé par Microsoft, qui équipe 75% des organisations de plus de 250 collaborateurs.
Ces expériences pionnières, pour louables qu’elles soient, buttent sur les mêmes obstacles : la résistance au changement, les questions de compatibilité, et surtout le décalage entre l’ambition politique affichée et l’adhésion réelle des utilisateurs finaux.
Un triple défi à relever
Pour que la souveraineté numérique devienne une réalité dans les administrations françaises, trois défis majeurs doivent être relevés. D’abord, réconcilier les ambitions stratégiques des décideurs avec les attentes pragmatiques des agents. Ensuite, proposer des solutions souveraines qui ne soient pas perçues comme un sacrifice en termes d’efficacité ou d’ergonomie. Enfin, investir massivement dans la formation et l’accompagnement au changement pour faire comprendre les enjeux de long terme.
Sans adhésion du terrain, les projets de souveraineté risquent de rester au stade de l’intention politique, incapables de se traduire en transformation concrète des pratiques.
Android et ChromeOS fusionnés, qu’est-ce que ça peut donner ?
Sous le nom de code Aluminium, Google a entrepris la démarche, avec les Chromebooks en première ligne. Pour le moment, il n’en a pas fourni d’aperçu… sinon dans un rapport de bug qui fut brièvement accessible au public. Assez pour qu’on en extraie deux captures d’écran vidéo. Elles laissent entrevoir une UI proche de ce qu’est actuellement Chrome OS. Avec toutefois quelques différences :
Date et heure situées en haut à gauche (et non pas en bas à droite)
Barre d’état localisée en haut à droite (et non pas, là aussi, en bas à droite)
Icônes centrées sur la barre des tâches (comportement par défaut sur le mode bureau d’Android 16, vs alignement à gauche sur ChromeOS)
Icônes Wi-Fi et batterie d’Android 16
Apparence du pointeur de souris légèrement modifiée
Autre particularité : la mise à jour de Chrome se fait depuis l’application Play Store, sans fermeture du navigateur.
Le numéro de build inclut l’identifiant ALOS, probablement pour « Aluminium OS ». Une référence à Android 16 apparaît sur la page de version de Chrome.
Sans Chromebook Plus, point de salut ?
L’appareil est un Chromebook de 2022, qu’on ne trouve plus à la vente neuf : le HP Elite Dragonfly 13.5. Ce convertible tactile fut livré avec une sélection de processeurs Intel Core de 12e génération et au minimum 8 Go de RAM. Soit exactement le palier de specs pour bénéficier du sceau Chromebook Plus.
De là à supposer qu’Aluminium soit réservé aux Chromebook Plus, il n’y a qu’un pas… que la rumeur a déjà franchi.
Pour ce qui est du hardware à venir, on a vu émerger, dans les dépôts Chromium, les références Sapphire et Ruby.
Sapphire pourrait être une tablette haut de gamme en MediaTek Kompanio Ultra, avec barre LED, stylet et capteur d’empreintes. Ruby, un laptop lui aussi haut de gamme, en Panther Lake (plate-forme des Core Ultra série 3).
Pour l’un et l’autre, il existe des commits signés d’adresses en @lcfc, attribuables à du personnel d’une filiale de Lenovo fabricante d’ordinateurs portables. Surtout, le logo de l’entreprise chinoise a été ajouté dans la configuration de leurs écrans de démarrage respectifs (ici pour Sapphire, là pour Ruby).
L’IA « au cœur du système » : Disco, un avant-goût potentiel
L’offre d’emploi qui avait permis de découvrir le nom de code Aluminium en novembre dernier ne fermait pas la porte à des appareils en entrée et milieu de gamme. Ni à des PC de bureau, en plus des clamshells, des détachables et des tablettes. On y apprenait par ailleurs que l’IA serait au cœur du système. L’expérimentation Disco, ouverte aux utilisateurs de 18 ans et plus aux États-Unis, pourrait en être une avant-première. Il s’agit d’un navigateur où Gemini crée des applications « GenTabs » ancrées sur le contenu des onglets ouverts.
Google a assuré qu’il n’abandonnerait en tout cas pas ChromeOS. Les fenêtres de support des appareils existants resteront en tout cas valables. Pour autant, on ne nous détaille pas quel sera le niveau de ce support.
Le rapprochement de ChromeOS et d’Android avait démarré par l’unification des piles Bluetooth en 2024. L’intégration du mode desktop sous sa forme actuelle s’est faite en parallèle. Fin 2024, le fenêtrage du bureau était arrivé sur les tablettes. Avec Android 16, Google a poussé des fonctionnalités de gestion des écrans externes.
Dans le même esprit de convergence, des travaux sont en cours sur une version de Chrome pour Android gérant les extensions.
Les admins de parcs Windows 11 auront peut-être bientôt une méthode « officielle » pour désinstaller l’application Microsoft Copilot.
La dernière build (26220.7535) publiée sur les canaux dev et bêta inclut en tout cas une GPO RemoveMicrosoftCopilotApp.
Elle ne s’applique qu’à trois conditions.
Premièrement, que Microsoft 365 Copilot et Microsoft Copilot soient tous deux installés.
Deuxièmement, que l’application Microsoft Copilot n’ait pas été installée par l’utilisateur.
Troisièmement, que cette même application n’ait pas été lancée sur les 28 derniers jours.
L’utilisateur garde la possibilité de réinstaller Microsoft Copilot.
Une nouvelle fonctionnalité Copilot non disponible en Europe
Une autre nouveauté de la build 26220.7535 concerne Copilot. Plus précisément, son usage avec le Narrateur pour décrire des images.
Cette possibilité fut introduite l’an dernier sur les PC Copilot+, à base d’IA locale. Presser la touche Narrateur + Ctrl + S décrit l’image sélectionnée ; Narrateur + Ctrl + D décrit tout l’écran.
Les autres PC Windows 11 y ont désormais accès… moyennant une connexion Internet (utilisation de modèles distants). Une fonctionnalité que Microsoft juge suffisamment sensible pour ne pas la proposer, en l’état, dans l’Espace économique européen.
Les solutions de gestion unifiée des terminaux (UEM, Unified Endpoint Management) n’ont pas encore totalement comblé l’écart fonctionnel avec les outils ad hoc.
Gartner le souligne dans le premier Magic Quadrant qu’il dédie à ce marché. Cet écart se manifeste tant en termes de fiabilité que de rapidité et de granularité, explique le cabinet américain. D’où une tendance encore fréquente, du côté des acheteurs, à combiner les outils.
De la marge de progression, il y en a aussi sur l’aspect gestion autonome (AEM, Autonomous Endpoint Management). Pour le moment axée sur l’automatisation du patching, elle devrait s’étendre notamment à la gestion des configurations et des stratégies « dans les prochaines années ».
18 fournisseurs, 8 « leaders »
Les principaux critères à respecter sur le plan fonctionnel pour pouvoir figurer dans ce Magic Quadrant étaient les suivants (évalués au 1er août 2025) :
Disponibilité d’une version SaaS
Gestion, avec ou sans agent, de Windows, macOS, iOS/iPadOS et Android
Support natif de l’enregistrement/provisionnement d’appareils, du déploiement d’applications, de la gestion des mises à jour et de la mise en œuvre de configurations/stratégies
Contrôle d’accès basé sur les rôles
Il n’était pas obligatoire de gérer Chrome OS, Linux et l’IoT. Ni de fournir des composantes MDM/MAM, DEX (gestion de l’expérience employé numérique) ou des intégrations ITSM/CMDB. La fourniture d’un app store d’entreprise n’était pas non plus impérative. Même chose pour l’automatisation du patching des apps tierces et la possibilité de personnaliser le reporting.
En complément aux critères fonctionnels, il fallait couvrir au moins 5 millions d’endpoints actifs, hors offres gratuites (périodes d’essai, freemium, etc.). Addigy, Applivery, Automox, Fleet, Hexnode, Iru, Matrix42 et Scalefusion n’atteignaient pas ce seuil. Gartner leur a cependant attribué une « mention honorable ».
Les 18 fournisseurs classés le sont sur deux axes. L’un, dit « exécution », reflète la capacité à répondre effectivement à la demande du marché (expérience client, qualité des produits/services…). L’autre est centré sur les stratégies (commerciale, marketing, sectorielle, géographique…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
1
Microsoft
2
Tanium
3
NinjaOne
4
HCLSoftware
5
Jamf
6
Omnissa
7
Adaptiva
8
ManageEngine
9
IBM
10
42Gears
11
Ivanti
12
Atera
13
N-able
14
Kaseya
15
Google
16
Absolute Security
17
Samsung Electronics
18
Raynet
Sur l’axe « vision » :
Rang
Fournisseur
1
Tanium
2
Omnissa
3
Microsoft
4
Adaptiva
5
Ivanti
6
HCLSoftware
7
IBM
8
NinjaOne
9
Jamf
10
Atera
11
ManageEngine
12
42Gears
13
Absolute Security
14
N-able
15
Kaseya
16
Raynet
17
Samsung Electronics
18
Google
Adaptiva, connu surtout comme un complément aux solutions Microsoft
Avec son offre OneSite (licence par appareil), Adaptiva est salué sur le volet automatisation ; et plus globalement pour les capacités de gestion à grande échelle qu’il propose, entre livraison P2P et intégration avec les outils d’entreprise. L’exhaustivité de ses partenariats éditeurs (CrowdStrike, Microsoft, SentinelOne, Tenable…) lui vaut aussi un bon point. Comme sa roadmap, jugée bien alignée sur la demande.
Si le produit ne manque pas de notoriété en tant que « compagnon » pour les solutions Microsoft, on ne peut pas en dire autant de la version autonome. Attention aussi à l’absence de MDM pour Android et iOS, tandis que sur les plates-formes prises en charge, l’enregistrement d’appareils doit passer par un client local. Adaptiva est par ailleurs en transition vers un modèle essentiellement indirect, ce qui est susceptible de limiter sa croissance à court terme.
Le SaaS de HCLSoftware, pas au niveau de la version on-prem
HCLSoftware a intégré son offre BigFix Workspace+ (licence par utilisateur ou par appareil) à un grand nombre de solutions ITOps et de sécurité/gestion des identités (Azure, Qualys, Rapid7, ServiceNow, Tenable…). Gartner salue aussi son réseau de revendeurs et de MSP. Ainsi que sa santé financière (marges importantes, croissance continue sur plusieurs segments) qui contribue à réduire le risque pour le client final.
Le SaaS n’est pas à parité avec la version sur site : des fonctionnalités ou des modules disponibles sur l’un ne sont pas encore pleinement configurables sur l’autre. Sur l’aspect expérience client, l’UI et le paramétrage ne font pas l’unanimité. Attention aussi à d’éventuelles modifications du modèle de licence à l’heure où HCLSoftware bascule vers une approche « service as software ».
IBM, plus cher et moins « focus »
Dans l’offre MaaS360 (licence par utilisateur et par appareil), Gartner apprécie la diffusion de la GenAI et du machine learning, entre détection des menaces et recommandation de stratégies. Il note aussi la couverture mondiale des équipes d’IBM et la flexibilité des options de déploiement. Ainsi que les fonctionnalités – scoring de risque, conformité continue… – qui favorisent la gestion autonome.
Manquant de notoriété hors de la partie MDM, l’offre MaaS360 n’est pas le focus d’IBM. Ce dernier ne cible par ailleurs pas de profils d’utilisateurs (personas) et propose une tarification plus élevée que la moyenne des fournisseurs classés dans ce Magic Quadrant.
Jamf, encore largement Apple-centric
L’outil Jamf (licence par appareil) est reconnu comme un gold standard pour la gestion des appareils Apple. Fonctionnellement parlant, il se distingue notamment sur la profondeur de prise en charge de macOS. Gartner salue aussi le « contenu engageant » constitué autour de cette offre et la diversité des canaux par lesquels il est livré.
Le focus historique sur l’écosystème Apple a nécessairement limité le potentiel de croissance, tout en engendrant une certaine dépendance. Jamf a fini par s’ouvrir à Android, mais la démarche est récente. Au dernier pointage, l’entreprise n’est pas rentable (en normes comptables GAAP).
Problèmes de fiabilité chez Microsoft
Intune est le choix par défaut de beaucoup de clients Microsoft. Sa notoriété est d’autant plus importante que l’éditeur produit quantité de contenus à son sujet et les diffuse efficacement. Autre avantage : un effectif qui permet une livraison différenciée entre secteurs économiques et régions géographiques, avec de la flexibilité sur la localisation des données et du support.
Comme IBM, Microsoft ne cible pas de personas, que ce soit par métier ou par géographie. Les clients signalent régulièrement des problèmes de latence sur le reporting, la synchronisation des stratégies et le déploiement d’applications. Attention aussi à la courbe d’apprentissage que suppose Intune et aux défis qui peuvent se poser lors du dépannage de la solution.
L’IA, peu diffusée chez NinjaOne
L’offre NinjaOne Endpoint Management (licence par appareil) a une tarification plus basse que la moyenne. Et les bundles s’avèrent bien adaptés aux besoins des grandes entreprises comme des MSP. Gartner salue aussi le niveau d’expérience client (customer success managers, ressources en self-service…) et le sentiment généralement positif quant à la facilité d’usage de la solution. Il rappelle aussi la croissance de l’effectif et de la base client de NinjaOne, qui a bouclé début 2025 un tour de table de 500 M$.
Le focus historique était sur les MSP et sur le mid-market. Des évolutions sont en cours (plate-forme, intégrations, channel) pour toucher les grandes entreprises. NinjaOne a également de la marge de progression pour ce qui est de la notoriété de sa solution. Même chose pour la diffusion de l’IA, dont l’usage est encore limité.
Omnissa manque de clients référents
L’offre Workspace ONE UEM (licence par appareil ou par utilisateur) est jugée mature. Gartner apprécie les possibilités d’automatisation qu’elle apporte sur les principaux OS. Il salue aussi la stratégie sectorielle élaborée à renfort d’intégrations ciblées. Autre point distinctif : Omnissa est le seul « leader » de la gestion des terminaux à occuper cette même position dans le Magic Quadrant du DEX. Une combinaison qu’il met d’ailleurs à profit.
Quoique modulaire, l’offre est plus chère que la moyenne. Et Omnissa est de ceux qui ne ciblent pas de profils d’utilisateurs. Son site web manque de logos référents et d’études de cas, ce qui est susceptible de compliquer l’évaluation de sa solution. On se rappellera aussi que l’activité a été perturbée avec le passage dans le giron de Broadcom (2023) puis la revente au fonds KKR (2024).
Pas de MDM natif chez Tanium
Avec Tanium Endpoint Management (licence par appareil), la gestion autonome est un point distinctif. Autant par le contenu que l’éditeur produit à ce sujet que par la réalité du produit. L’éditeur est plus globalement profitable, dispose des certifications adéquates et couvre les principales géographiques tout en fournissant de la flexibilité d’hébergement.
Récemment repackagée, l’offre a une tarification plus élevée que la moyenne. Elle n’inclut pas de MDM natif (intégration d’Intune). Sur macOS, elle n’utilise pas la méthodologie « moderne » d’Apple, ce qui peut limiter l’automatisation et l’élasticité.
Un an après l’avoir supprimé, Dell revient sur sa décision et relance XPS, le segment haut de gamme de ses ordinateurs portables et un pilier historique de sa stratégie produits.
L’annonce, faite au CES 2026 de Las Vegas, marque un revirement assumé de la part de Jeff Clarke, directeur des opérations du groupe texan, qui reconnaît que l’entreprise s’était « un peu égarée » dans le pilotage de son activité PC.
Un aveu d’erreur et un retour aux fondamentaux
« Nous n’avons pas écouté nos clients. Vous aviez raison sur le branding », a déclaré Jeff Clarke lors d’un point presse à Las Vegas. Celui qui a repris l’an dernier la supervision directe de la division PC, a évoqué une année difficile marquée par « des tarifs douaniers, la promesse non tenue de l’IA » et « l’une des transitions de processeurs les plus lentes de [sa] carrière ».
Cette autocritique s’ajoute aux retours négatifs du marché, lorsque le constructeurs avait remplacé la marque XPS par les appellations Dell Pro et Dell Pro Max, une nomenclature jugée trop proche de celle d’Apple et mal accueillie par le public comme par les partenaires.
Le groupe justifie aujourd’hui ce revirement par la nécessité de clarifier son offre : les modèles Dell visent désormais le segment grand public et professionnel intermédiaire, XPS reprend son positionnement premium, et Alienware demeure consacré au gaming.
Des machines plus fines et mieux optimisées
Les deux premiers modèles relancés, les XPS 14 et XPS 16, figurent parmi les ordinateurs les plus fins jamais produits par Dell, avec une épaisseur de 14,6 mm et un poids respectif de 1,36 kg et 1,63 kg. Leurs châssis en aluminium, leurs bordures d’écran réduites et leur design minimaliste les placent en concurrence directe avec les MacBook Air 13 et 15 pouces d’Apple.
Les deux machines embarquent les nouveaux processeurs Intel Core Ultra Series 3, dotés de graphiques Intel Arc, censés offrir jusqu’à 78 % de performances IA supérieures et une autonomie pouvant atteindre 27 heures dans certaines configurations. Dell affirme également avoir repensé son système de refroidissement pour le rendre plus silencieux, plus fin et plus économe en énergie.
Les XPS 14 et 16 sont disponibles dès cette semaine aux États-Unis et au Canada, à partir de 2000 $. Un XPS 13 de moins de 13 mm d’épaisseur sera présenté plus tard dans l’année.
Un marché du PC sous tension
Le choix de relancer XPS s’inscrit dans un contexte de reprise incertaine du marché mondial du PC. Selon les estimations d’IDC, les ventes devraient progresser de 3 à 5 % cette année, après deux années de contraction.
Mais Dell, comme ses concurrents HP et Lenovo, reste confronté à des coûts de production accrus – notamment à cause de la hausse du prix des mémoires – et à une demande encore freinée par l’attentisme des entreprises.
Jeff Clarke a reconnu que l’intelligence artificielle n’a pas encore généré le cycle de renouvellement espéré, malgré la mise en avant des fonctions d’assistance et de traitement local intégrées aux nouveaux processeurs.
Avec le retour de la gamme XPS, née dans les années 1990, Dell espère ainsi regagner des parts de marché dans le segment premium.
Une licence vous manque… et aucune autre ne peut être assignée.
Michelin s’est trouvé dans cette situation avec les logiciels Microsoft. En toile de fond, la mise en place d’un nouveau processus d’attribution des licences, basé sur des groupes Active Directory.
À l’origine, un système d’attribution directe
Lorsque l’entreprise avait adopté Office 365 il y a une dizaine d’années, l’attribution était directe, via le centre d’administration ou via des scripts PowerShell. Elle reposait sur des bundles de licences correspondant à des profils de travailleurs.
Pour stocker ces profils, il fut décidé d’exploiter les attributs d’extension d’Active Directory – sinon utilisés notamment pour la synchronisation de boîtes Exchange locales. Ces attributs étaient synchronisés vers Azure Active Directory.
Le script principal, exécuté sur site de manière périodique, détectait les nouveaux utilisateurs, lisait les attributs associés et assignait les licences correspondantes.
Dans le cadre des recrutements, les attributs étaient définis par les systèmes RH, dans AD (initialement de façon indirecte, en passant par l’annuaire interne). Dans les autres cas (freelances, mobilité interne, comptes spécifiques…), ils l’étaient via un portail de provisionnement interne.
Ce système présentait des limites. Parmi elles, la complexification progressive du script principal (ajout/modification de profils, altération de la logique métier sous-jacente). Par ailleurs, ce dernier étant planifié et non orienté événements, il existait toujours un décalage vis-à-vis des outils amont, amplifié par l’intervalle de synchronisation de 30 minutes d’AAD Connect.
Cette approche n’empêchait plus globalement pas les admins d’attribuer n’importe quelle licence à un utilisateur, au-delà ce celles dont il était censé bénéficier.
L’approche basée sur les groupes, concrétisée en deux temps
Dans ce contexte, Michelin a entrepris de basculer vers une approche basée sur les groupes, à l’échelle de son locataire (aujourd’hui quelque 120 000 sièges). Il en faisait déjà usage pour quelques services comme Copilot.
L’idée initiale était de créer un groupe dynamique dans AAD pour chaque profil. Le groupe « Knowledge Worker », par exemple, serait défini par la formule (user.extensionAttribute13 – eq « Knowledge Worker »). Chaque groupe se verrait ensuite assigner les licences correspondant au profil. L’ensemble pourrait alors remplacer progressivement les licences assignées directement.
Quelques jours après la mise en production, il fut constaté que l’absence d’un type de licence suffisait à bloquer l’attribution des autres au sein d’un groupe. Un problème non identifié lors des tests… et non documenté, à la connaissance de Michelin.
L’approche « un groupe par profil » fut par conséquent abandonnée, au profit d’un système plus modulaire associant un groupe à chaque combinaison « profil(s) + type de licence ».
Chaque groupe comprend donc une licence et l’ensemble des profils censés en bénéficier. Par exemple, GP-AAD-USR-LICENSE-E1_SDFA, qui associe les profils « Standard » (SD) et « Functional Account » (FA) à la licence Office 365 E1.
Dix profils ont été définis :
Profils
Licences
Production Machine
Microsoft 365 F1
EMS E3
Defender for Endpoint P2
Production Worker
Microsoft 365 F3
Defender for Endpoint P2
Light Knowledge Worker
Office 365 E1
EMS E3
Defender for Endpoint P2
SharePoint Online Plan 2
Office 365 DLP
Windows 10/11 Enterprise E3
Audioconférence Teams
Standard
Office 365 E1
Functional Account
Office 365 E1
Knowledge Worker
Microsoft 365 E3
Defender for Endpoint P2
Audioconférence Teams
E3 Subsidiary
Office 365 E3
E1 Subsidiary
Office 365 E1
VDI External Application
EMS E3
Windows 10/11 Enterprise E3
VDI External Desktop
EMS E3
Windows 10/11 Enterprise E3
Defender for Endpoint P2
L’ensemble est en production depuis quelques mois. Reste à traiter certains cas problématiques comme les comptes cloud-only.
La techno est prête, ne manquent plus que des SoC compatibles : officiellement, on en est là avec l’accélération hardware pour BitLocker.
Cette fonctionnalité est intégrée dans Windows 11 25H2 (déployé depuis octobre) et 24H2 (avec la mise à jour de septembre). D’une part, elle décharge le CPU des opérations cryptographiques en les confiant à un moteur annexe dédié. De l’autre, elle permet, sur le même principe que les HSM, de générer, d’encapsuler et d’utiliser les clés de chiffrement en bloc dans une enclave matérielle – ce qui réduit leur exposition en RAM.
Des SoC Intel pour commencer
Les premières puces à prendre en charge l’accélération matérielle pour BitLocker sont les Core Ultra Series 3 (Panther Lake), qu’Intel devrait lancer au CES (5-9 janvier).
L’algorithme XTS-AES-256 sera utilisé par défaut. Sur les configurations compatibles, si un utilisateur ou un script spécifie un algo ou une taille de clé non géré, BitLocker basculera vers l’implémentation logicielle. Microsoft entend modifier ce comportement au printemps en augmentant automatiquement la taille de clé si nécessaire.
Au-delà de la sécurité, le mécanisme est censé améliorer les performances. En particulier sur les disques NVMe, qui atteignent désormais des débits tels que l’empreinte CPU des opérations cryptographiques peut devenir perceptible.
Dans ses propres tests – évidemment effectués en « configuration idéale » -, Microsoft a plus que doublé les débits en lecture et en écriture en activant l’accélération matérielle pour BitLocker. Il affirme également avoir économisé, en moyenne, 70 % de cycles CPU.
Un smartphone à double pliage fait-il une bonne station de travail portable ?
Samsung a choisi cet angle d’attaque avec le Galaxy Z TriFold. Officialisé cette semaine, il sera commercialisé en Corée à partir du 12 décembre. Il est prévu de le distribuer également en Chine et aux États-Unis, entre autres. L’Europe n’est pas mentionnée en l’état.
Le prix affiché sur le shop Samsung coréen équivaut à un peu plus de 2000 €. C’est environ 50 % de plus que le ticket d’entrée du Galaxy Z Fold 7 (autour de 1300 €).
Sachant que ce dernier est vendu à partir de 2100 € TTC en France, on peut supposer, par règle de trois, qu’il faudrait compter environ 3200 € pour le Galaxy Z TriFold.
Pliage en U chez Samsung, en Z chez Huawei
Déplié, l’appareil offre une surface d’affichage de 10 pouces. Les trois panneaux – assimilables à autant de smartphones 6,5 pouces qu’on placerait côte à côte – se replient en U. Un système qui, selon Samsung, favorise la protection de cet écran.
Huawei n’a pas fait le même choix : ses Mate XT et XTs (lancés en février et septembre 2025, mais pas en France) se replient en Z. Cela permet d’utiliser une, deux ou trois parties de l’écran, qui est par ailleurs unique. Par contraste, le Galaxy Z TriFold a un écran secondaire distinct (celui qu’on utilise quand l’appareil est plié) et ne peut utiliser partiellement l’écran principal.
En 16:11, cet écran principal se prête mieux aux contenus widescreen que l’écran du Galaxy Z Fold 7, plus proche d’un format carré. Sa luminosité maximale est en revanche inférieure (1600 nits vs 2600, valeur qu’on ne retrouve que sur l’écran secondaire).
Un mode desktop autonome
Le Galaxy Z TriFold est le premier smartphone Samsung à inclure le mode DeX autonome : pas besoin d’écran externe pour enclencher ce mode desktop qui gère jusqu’à 4 bureaux virtuels avec 5 apps chacun.
L’appareil dispose d’un chevalet, mais dans cette configuration, le port USB devient difficilement accessible. Le module caméra rend par ailleurs délicate l’utilisation sur une surface plane (l’étui atténue le problème). Samsung n’a pas intégré la prise en charge du stylet S Pen.
Le système à trois panneaux a permis d’intégrer autant de batteries, pour une capacité totale de 5600 mAh (vs 4400 pour le Galaxy Z Fold). La recharge filaire est en 45 W, comme sur le Galaxy S25 Ultra (sans fil : 15 W ; recharge inversée : 4,5 W).
Un smartphone IP48 : gare aux poussières
Le processeur n’est pas le plus récent de chez Qualcomm. Il s’agit d’une version personnalisée du Snapdragon 8 Elite, lancé à l’automne 2024. Y sont associés 16 Go de RAM et 512 Go ou 1 To de stockage (pas de slot microSD).
Les appareils photo sont les mêmes que sur le Galaxy Z Fold 7 :
Ultra-grand-angle 12 MP (focale 13 mm, soit 120 ° de champ de vision)
Grand-angle 200 MP (24 mm, soit 85 ° ; zoom optique 2x)
Téléobjectif 10 MP (67 mm, soit 36 ° ; zoom optique 3x)
Caméra frontale de l’écran principal 10 MP (18 mm, soit 100 °)
Caméra frontale de l’écran secondaire 10 MP (24 mm, soit 85 °)
On aura noté la certification IP48 du Galaxy Z TriFold. Sur le papier, cela signifie qu’il n’est pas résistant aux particules solides de moins d’un millimètre de diamètre. Samsung en déconseille d’ailleurs l’usage « à la plage ou à la piscine »… Et ajoute que la résistance à l’eau peut s’amoindrir avec le temps.
Plié, le Galaxy Z Fold mesure est épais d’environ 1,3 cm en son point le plus fin. Déplié, on descend jusqu’à 0,4 cm hors module caméra. L’ensemble pèse 309 g (contre 298 g pour les Mate XT et XTs).
Google continue de faire évoluer NotebookLM, son assistant IA déjà bien connu dans le monde de l’éducation. Après l’avoir lancé comme outil de recherche personnalisée puis comme assistant de révision, l’entreprise ajoute aujourd’hui une série de nouveautés qui transforment NotebookLM en un véritable partenaire d’apprentissage. Au programme : flashcards automatiques, quiz intelligents, guides interactifs, podcasts […]
Google innove encore dans le domaine de l’intelligence artificielle avec Gemini, sa dernière solution qui permet désormais de transformer vos idées en livres illustrés personnalisés uniques, en seulement quelques secondes. Cette fonctionnalité, intégrée à l’application Gemini, va plaire autant aux parents qu’aux enseignants ou aux passionnés de création d’histoires. Avec un système simple, intuitif, et multilingue, Gemini […]
L’intelligence artificielle ne cesse d’évoluer pour devenir une alliée incontournable dans nos études et notre travail. Google, à la pointe de cette technologie, lance de passionnantes nouveautés autour de Gemini, son intelligence artificielle de dernière génération. Et pour aider les étudiants à tirer pleinement parti de cette puissance, Google offre une abonnement gratuit d’un an à […]
Avez-vous déjà rêvé d’apprendre une nouvelle langue de manière plus naturelle et intuitive ? Eh bien, Google pourrait bien avoir la solution avec sa toute nouvelle expérience Google Labs : Little Language Lessons. Accrochez-vous, car cet outil alimenté par Gemini pourrait révolutionner votre façon d’apprendre les langues ! Qu’est-ce que Little Language Lessons ? Imaginez un tuteur […]