Vue normale

Reçu hier — 14 octobre 2025

Digital workplace : le frontline, défi persistant pour les fournisseurs d’intranets

14 octobre 2025 à 14:38

Pour ce qui est des « travailleurs de première ligne » (frontline workers), les fournisseurs d’intranets restent largement en phase d’apprentissage.

D’année en année, Gartner réitère le constat dans le Magic Quadrant qu’il dédie à ce marché. La dernière édition n’y déroge pas.

Autre élément récurrent : l’absence de Microsoft, en dépit de l’influence qu’il a sur ce segment. Et pour cause : Gartner limite toujours son périmètre aux « solutions packagées » (IPS, Intranet Packaged Services), définies comme « prêts à l’emploi ». Par opposition à SharePoint, qui nécessite des composantes externes (de Microsoft ou de tierces parties), en tout cas pour satisfaire aux critères fonctionnels évalués.

Reste que Microsoft est l’éditeur avec lequel tous les fournisseurs d’IPS doivent composer. Certains se greffent sur des locataires Office 365 quand d’autres utilisent SharePoint pour gérer le contenu et/ou mettent en place des intégrations avec des éléments comme Entra ID, Teams et le Microsoft Graph.

Peu de fournisseurs ont des solutions verticales voire déploient un effort marketing et commercial dans ce sens, ajoute Gartner. Ce critère a toutefois eu un poids faible dans l’évaluation.

16 fournisseurs, 7 « leaders »

L’axe « exécution » du Magic Quadrant reflète la capacité à répondre effectivement à la demande. La situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Unily + 1
2 Simpplr – 1
3 LumApps + 3
4 Workvivo by Zoom + 1
5 Omnia nouvel entrant
6 ServiceNow + 5
7 Blink nouvel entrant
8 Staffbase + 1
9 Firstup – 1
10 Interact =
11 Appspace + 2
12 MangoApps – 8
13 Haiilo – 1
14 Akumina – 11
15 Powell – 8
16 Axero – 1

Sur l’axe « vision », censé refléter les stratégies (géographique, sectorielle, commerciale, marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 LumApps + 3
2 Simpplr – 1
3 Unily – 1
4 Workvivo by Zoom + 1
5 Interact + 2
6 MangoApps + 5
7 Akumina + 2
8 Firstup – 2
9 Staffbase – 6
10 Powell + 3
11 Omnia nouvel entrant
12 Haiilo + 2
13 Appspace – 3
14 ServiceNow – 6
15 Axero – 3
16 Blink nouvel entrant

Les fournisseurs classés « leaders » sont les mêmes que dans le précédent Magic Quadrant des IPS :  Firstup, Interact, LumApps, Simpplr, Staffbase, Unily et Workvivo.

Firstup, pas le mieux placé pour la gestion du travail et du contenu

Gartner salue la stratégie marketing de Firstup, capable de cibler un large éventail de profils d’acheteurs. Il apprécie aussi la gestion du premier contact et de l’onboarding. Bons points également pour l’expérience client (gestion de compte, collecte de feedback, promotion des communautés) et la viabilité de l’entreprise (santé financière, base de clientèle, engagement R&D).

Firstup n’est pas le mieux placé pour répondre aux exigences qui vont au-delà de la communication multicanale et du frontline, pour toucher par exemple à la recherche d’entreprise, à l’IA et à la gestion de contenu. Il ne propose, par ailleurs, pas de capacités « traditionnelles » de gestion du travail (assignation de tâches, automatisation de workflows…). Gartner note aussi l’absence de solutions verticales et le défi de passage à l’échelle – ventes, marketing, support, développements personnalisés – pour Firstup, qui n’est pas un pure player.

Idéation, newsletters, affichage dynamique… Des briques moins matures chez Interact

Interact a aussi droit à un bon point sur son marketing, tant pour la stratégie que pour l’exécution. Il se distingue également par sa compréhension des profils d’acheteurs ; et, en conséquence, par sa capacité à contextualiser ses offres. Gartner apprécie de surcroît son niveau de présence au sein des organisations de moins de 25 000 employés et l’extensibilité de sa solution. Ainsi que la prise en charge du frontline, entre autres par des intégrations avec des systèmes de gestion du travail.

Certaines briques d’Interact sont moins matures que son cœur fonctionnel. Par exemple, l’idéation, les newsletters et l’affichage dynamique. Attention également au modèle largement direct, qui limite les ressources dans certaines régions géographiques (Asie-Pacifique et Amérique latine, notamment). On prendra par ailleurs garde d’avoir les ressources nécessaires si on apporte ses propres modèles sur le back-end IA.

Mise en place et gestion complexes pour LumApps

Gartner salue l’exhaustivité de l’offre de LumApps et son adaptabilité à beaucoup de cas d’usage. Il apprécie aussi son extensibilité (orchestration et automatisation de workflows, développement de mini-apps) et les fonctionnalités IA qui lui ont été greffées, tant pour les admins que les gestionnaires de contenus et les utilisateurs finaux.

La mise en place et la gestion peuvent s’avérer complexes, même avec l’assistance par GenAI. LumApps manque par ailleurs de notoriété dans certaines régions et en dehors de son cœur de marché. La clientèle étant essentiellement composée d’organisations de moins de 10 000 employés, les plus grandes auront sont d’étudier si le support leur conviendra.

Chez Simpplr, un manque de cohésion entre communication et gestion de contenu

Simpplr se distingue par ses efforts sur l’orchestration. Ainsi que sur l’IA, gouvernance comprise (utilisation de NVIDIA NeMo Guardrails et de Langfuse). Gartner apprécie aussi la qualité des interactions client (marketing, vente, partenaires) et l’efficacité de la solution en matière de gestion du travail.

Présent surtout en Amérique du Nord, Simpplr a une distribution géographique moins équilibrée que ses concurrents. Gartner ajoute que la partie communication multicanale manque de cohésion vis-à-vis de la gestion de contenu, qui n’est plus globalement par le fort de Simpplr. Le cabinet américain note aussi un focus R&D parfois au détriment des ventes et du marketing.

IA, orchestration et extensibilité, des faiblesses de Staffbase

Staffbase a pour lui son niveau de compréhension du marché, porté par son expérience sur la partie communication entre employés. Son intégration de longue date avec Microsoft lui permet de bien couvrir à la fois employés de bureau et frontline. L’empreinte géographique (distribution du revenu, réseau de partenaires, versions localisées) est un autre point fort. Comme la santé financière de l’entreprise et ses investissements en R&D.

Staffbase peut être perçu comme globalement immature sur l’IA pour qui cherche des capacités avancées de gestion du travail, de service aux employés et d’optimisation data-driven. Gartner relève aussi des faiblesses dans l’orchestration et l’extensibilité. Ainsi que les défis qu’est susceptible de poser le focus de Staffbase sur l’aspect communication.

Tarification peu transparente chez Unily

Bon point marketing également pour Unily, onboarding compris. Gartner apprécie aussi le réseau de partenaires et d’intégrations, la capacité de collecte de feedback et la disponibilité de solutions sectorielles.

Unily a une présence limitée dans les entreprises de moins de 10 000 salariés – certaines ressentent qu’elles ne sont pas une priorité. Gartner relève aussi le manque de transparence de sa tarification, les limites sur les fonctionnalités IA (analyse de recherche, simulation d’audience, UI adaptatives) et le support (temps de réponse et d’escalade).

Workvivo pousse le social/communautaire au détriment d’autres use cases

En plus de pouvoir s’appuyer sur les ressources et la notoriété de Zoom, Workvivo opère un positionnement markting efficace. Gartner apprécie ses programmes d’accompagnement client et l’accent mis sur le développement de communautés internes.

En matière de gestion du travail et d’extensibilité, il y a mieux, explique le cabinet américain. Workvivo est globalement jugé trop agressif sur le sujet social/communautaire au détriment d’autres cas d’usage. Vigilance aussi pour qui veut standardiser sur Teams : l’expérience front-end est brandée Workvivo, mais le back-end est branché sur Zoom.

Illustration générée par IA

The post Digital workplace : le frontline, défi persistant pour les fournisseurs d’intranets appeared first on Silicon.fr.

De Glacier à CodeCatalyst, AWS range nombre de services au placard

14 octobre 2025 à 10:34

AWS orchestre un grand ménage dans ses services de modernisation.

Migration Hub et Application Discovery Service sont passés en mode maintenance. Pour le moment jusqu’au 7 novembre 2025, date à partir de laquelle ils n’accepteront plus de nouveaux clients*. Il en sera de même à cette échéance pour les outils de modernisation .NET**. Tandis que Mainframe Modernization Service n’existera plus qu’en version autogérée.

Le palliatif désigné, lancé il y a quelques mois sous la bannière de l’IA agentique, s’appelle AWS Transform.

Quantité d’autres services passeront en mode maintenance à partir du 7 novembre 2025. En voici quelques-uns.

Amazon Cloud Directory

Magasin de données hiérarchisées, alternatif aux annuaires LDAP) en fait partie. Les écritures seront bloquées dans un deuxième temps (passé le 22 avril 2026). Puis le service fermera le 30 septembre 2026 et le contenu sera supprimé en parallèle. AWS n’y a plus ajouté de fonctionnalités depuis 2018 et le lancement d’Amazon Neptune, base de données orientée graphe vers laquelle il recommande aujourd’hui de migrer.

Amazon CodeCatalyst

À partir du 7 novembre, il ne sera alors plus possible, pour les utilisateurs existants, de créer de nouveaux espaces. AWS recommande de migrer vers l’offre GitLab Duo with Amazon Q. Ou alors vers CodeBuild (compilation et test de code), CodePipeline (orchestration CI/CD), CodeDeploy (déploiement d’applications) et Code Artifact (gestion de packages).

Amazon CodeGuru Reviewer

Service d’analyse de code Java et Python sur Bitbucket, CodeCommit, GitHub et S3). À partir du 7 novembre 2025, il ne sera plus possible de créer de nouvelles associations de dépôts. Options de migration recommandées : Amazon Q Developer et Amazon Inspector, qui couvrent l’un et l’autre GitHub et GitLab.

Amazon S3 Object Lambda

Ce service permet l’ajout de code aux requêtes S3 GET, HEAD et LIST pour modifier des données. Il n’acceptera plus de nouveaux utilisateurs à la même date. AWS recommande d’invoquer Lambda par d’autres moyens (via CloudFront, API Gateway ou les URL de fonctions) ou de traiter les données dans les applications clientes.

Amazon Glacier

Le passage en maintenance d’Amazon Glacier interviendra un peu plus tard. Le 15 décembre 2025 en l’occurrence. On parle là du service d’origine, autonome, basé sur un coffre-fort avec API REST. Les données stockées jusque-là resteront accessibles indéfiniment, assure AWS, qui recommande de faire la transition vers les classes de stockage Glacier dans S3. Lesquelles ont l’avantage d’une disponibilité plus large sur son cloud, d’une intégration avec ses autres services, d’un coût inférieur et d’une API niveau bucket.

AWS IoT SiteWise Monitor et Data Procesing Pack

Deux composantes de l’offre AWS IoT SiteWise passeront également en mode maintenance le 7 novembre 2025. D’une part, le Data Processing Pack  (transformation, stockage et visualisation de données). De l’autre, Monitor (création de portails web pour visualiser et partager des données au sein d’une organisation). Pour remplacer le premier, AWS recommande soit l’open source (Node-RED pour la transformation, InfluxDB pour le stockage de séries chronologiques, Grafana pour la visualisation), soit des solutions de partenaires (CloudRail, EasyEdge, Litmus Edge). Au second, il conseille de substituer le plug-in Amazon Managed Grafana (en sachant qu’il n’y a pas de contrôle d’accès niveau asset ni d’intégration avec AWS IoT SiteWise Assistant) ou bien Grafana Cloud ou autohébergé.

AWS Snowball Edge

Appliances de transfert de données. L’offre n’acceptera plus non plus de nouveaux clients à compter du 7 novembre 2025. Successeurs recommandés : DataSync pour les transfert sur lien réseau et Data Transfer Terminal pour les transferts physiques (Seagate et Tsecond soit également cités). Pour remplacer l’appliance optimisée compute, il y a éventuellement l’offre AWS Outposts.

Amazon Fraud Detector

Détection de fraude à base de machine learning. En guise de remplacement, AWS avance son WAF (pare-feu pour applications web), son service SageMaker (MLOps)… et une bibliothèque open source dont il est à l’origine : AutoGluon (AutoML à partir d’images, de texte, de séries chronologiques et de données tabulaires).

Accès web à Amazon WorkSpaces sur PCoIP

AWS recommande d’installer, si possible, les clients Amazon WorkSpaces. Sinon, de migrer vers le protocole DCV. Qui a, entre autres avantages :

  • Meilleures performances
  • Fonctionnalités supplémentaires (SAML et authentification par certificats, notamment)
  • Disponibilité étendue (pas d’accès web sur PCoIP dans certaines régions AWS, dont Paris)
  • Gestion des bureaux Linux en plus de Windows
  • Fonctionnement dans Edge et Safari en plus de Chrome et Firefox
  • Gestion des écrans multiples et des GPU côté hôte

* Sur Migration Hub comme sur Application Discovery Service et Mainframe Modernization Service, les projets en cours pourront être menés à leur terme.

** Cela comprend Porting Assistant for .NET, AWS App2Container, AWS Toolkit for .NET Refactoring et AWS Microservice Extractor for .NET.

Illustration © Annika – Adobe Stock

The post De Glacier à CodeCatalyst, AWS range nombre de services au placard appeared first on Silicon.fr.

Reçu avant avant-hier

Gestion des API : le sourcing multiple est devenu standard

13 octobre 2025 à 15:55

Pour la gestion des API, la tendance est à l’approvisionnement auprès de plusieurs fournisseurs.

Gartner avait fait la remarque l’an dernier dans le Magic Quadrant consacré à ce marché. Il va plus loin cette année : le sourcing multiple est devenu standard… en contrepartie d’un risque de fragmentation que peuvent toutefois atténuer les architectures fédérées.

Un autre mouvement s’est confirmé : une part croissante des utilisateurs de solutions de gestion des API sont des développeurs. Les stratégies marketing ont évolué en conséquence. Mais des offreurs gardent un déficit de visibilité auprès de ce public. Y compris quelques-uns de ceux que Gartner classe comme « leaders ». En l’occurrence, Axway, Boomi et, dans une certaine mesure, IBM.

17 fournisseurs, 7 « leaders »

En 2024, Boomi faisait partie des « acteurs de niche ». En un an, il a nettement progressé, tant en « exécution » (capacité à répondre effectivement à la demande du marché) qu’en « vision » (stratégies : sectorielle, géographique, commerciale, marketing, produit…). Axway et IBM étaient quant à eux déjà « leaders ». Même chose pour Google Cloud, Gravitee, Kong et Salesforce. On ne peut pas en dire autant de SmartBear, qui a rétrogradé chez les « visionnaires ».

Sur l’axe « exécution », la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Google =
2 IBM =
3 Salesforce + 2
4 Kong + 5
5 Boomi + 8
6 Axway – 3
7 Gravitee + 3
8 WSO2 + 6
9 Microsoft – 5
10 SAP – 3
11 AWS – 5
12 Sensedia + 5
13 SmartBear – 2
14 Tyk – 6
15 Workato nouvel entrant
16 Postman – 1
17 Solo.io – 1

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Kong =
2 Boomi + 12
3 Gravitee + 3
4 Salesforce + 3
5 IBM – 1
6 Google – 4
7 Tyk + 4
8 Postman – 5
9 Axway – 4
10 SmartBear – 2
11 Microsoft + 1
12 Workato nouvel entrant
13 SAP =
14 WSO2 – 5
15 Sensedia =
16 Solo.io – 6
17 AWS =

Axway : avec le chantier iPaaS, moins d’agilité sur l’IA

Comme l’an dernier, Axway se distingue sur la gestion fédérée des API. Gartner salue de plus le lancement récent d’une brique iPaaS. Il apprécie aussi la manière dont les partenariats (Stoplight, Ping, Graylog, Traceable…) viennent renforcer le modèle économique, au même titre que les acquisitions (en particulier celle de Sopra Banking Software, dont la fusion avec Axway a donné 74Software). Bon point également pour la capacité d’internationalisation, entre documentation multilingue et UI localisées.

Également comme l’an dernier, la notoriété auprès des développeurs reste limitée. Axway est par ailleurs plus lent que la concurrence pour livrer des fonctionnalités IA « avancées » (le focus sur l’iPaaS l’explique en partie, comme la restructuration de sa stack autour de la notion d’événements). Gartner relève, en parallèle, une croissance des ventes bien inférieure à la moyenne du marché.

Boomi manque d’accroche auprès des développeurs

L’année écoulée aura marqué un tournant dans la vision de la gestion des API chez Boomi, de sorte que ce dernier dépend désormais moins du seul iPaaS pour se différencier.  L’acquisition d’APIIDA et de TIBCO Mashery a accompagné la refonte de l’offre, assortie d’une feuille de route que Gartner salue. Dans le même temps, la présence commerciale de Boomi s’est étendue, tant du point de vue géographique qu’au travers du renforcement de partenariats (ServiceNow et AWS en particulier).

Sur la gestion des API, Boomi reste, relativement aux autres « leaders », un petit acteur en termes de revenus et de part de marché. Il n’a pas non plus la même empreinte auprès des développeurs (son marketing reste perçu comme axé sur les métiers et les décideurs IT). Vigilance également quant à l’intégration avec les passerelles tierces : elle peut s’avérer complexe.

Apigee « généreusement » poussé comme complément à GCP

Google Cloud se distingue sur le volet innovation, entre autres parce qu’il a greffé à Apigee de quoi favoriser la conception d’API par des agents (avec prise en charge des protocoles A2A et MCP). Gartner apprécie aussi les possibilités offerts en matière de monétisation du trafic IA et de détection des usages abusifs. Il y ajoute la stabilité du produit et sa capacité à remplir les cas d’usage les plus complexes… sous réserve de disposer de l’expertise adéquate.

Google Cloud continue néanmoins à positionner ses produits comme des compléments à GCP plutôt que comme des solutions autonomes. Des clients signalent, de surcroît, qu’on les incite à migrer. Le produit en lui-même est relativement complexe à exploiter. Et malgré des changements positifs sur la tarification, des clients de longue date expriment leur inquiétude quant au rapport coût/bénéfices.

Gravitee n’a toujours pas sectorialisé son offre

Outre un déploiement flexible, Gravitee a pour lui l’indépendance vis-à-vis de tout cloud, progiciel ou iPaaS. Gartner souligne qu’il a su rapidement proposer une passerelle IA gérant le protocole MCP (et destinée à s’ouvrir aux maillages agentiques). Bon point également pour la performance commerciale (CA déclaré en croissance de 70 % sur un an), doublée d’une tarification simple.

Par rapport aux autres « leaders », Gravitee manque de notoriété. Il n’a toujours pas « verticalisé » son approche. Et sa clientèle reste largement concentrée en Europe (les acheteurs sur d’autres plaques géographiques se poseront la question du service et du support).

IBM, peu pris en considération hors de son écosystème

IBM est crédité d’un bon point pour la couverture fonctionnelle de son offre. Il l’est aussi pour la flexibilité de déploiement et la livraison de fonctionnalités axées IA (gestion des prompts, routage LLM). Gartner salue également la diversité de sa clientèle (tailles, régions, secteurs) ainsi que de son réseau commercial et de support.

L’acquisition de webMethods a produit un doublon au catalogue (voire plus si on considère que Red Hat a sa propre offre de gestion d’API), qui demeure en l’état même si IBM a promis une convergence. Big Blue a par ailleurs tendance à toucher essentiellement les organisations qui sont ses clients sur d’autres segments (il est peu évalué sinon). Et sur l’année écoulée, ses ventes ont connu une croissance sous la moyenne du marché.

Kong : une tarification qui peut prêter à confusion

Kong se distingue par les fonctionnalités AI-driven qu’il a livrées dernièrement (génération d’API, de spécifications et de serveurs MCP). Il parvient par ailleurs à conserver une forte visibilité, à renfort d’événements, de partenariats et de présence sur les principales marketplaces. Gartner salue aussi le lancement des Serverless Gateways (passerelles « légères » sans serveur) et de l’Event Gateway (qui permet de gérer des flux Kafka), intégrée avec son maillage de services.

Comme chez Gravitee, pas de solutions sectorielles au catalogue. Attention aussi à la courbe d’apprentissage que supposent les solutions Kong, en plus de la confusion que peuvent susciter la tarification basée sur les services et les frais supplémentaires pour des éléments comme les portails, les tests et l’analytics. Gartner y ajoute une présence limitée en Amérique du Sud, au Moyen-Orient et en Afrique comparé aux autres « leaders ».

Salesforce reste un des fournisseurs les plus chers

En complément à la présence commerciale et au réseau de partenaires, Gartner note que Salesforce a réussi à s’étendre sur le segment SMB (small and medium business, entreprises de moins de 1000 employés), qui représente 30 % du business de MuleSoft. L’intégration avec le reste de son offre a contribué à attirer une grosse base de clientèle. Salesforce jouit globalement d’une grande notoriété de marque, y compris auprès des développeurs.

En plus de rester l’un des fournisseurs les plus chers, MuleSoft présente une structure de prix complexe susceptible d’entraîner des coûts imprévus. Il est par ailleurs perçu comme plus réactif qu’innovant, en particulier pour ce qui touche à l’IA. Et les capacités restent limitées sur la monétisation comme le test d’API, ainsi que la fédération de passerelles.

Illustration © Murrstock – Adobe Stock

The post Gestion des API : le sourcing multiple est devenu standard appeared first on Silicon.fr.

Où en est SAP Joule dans son tournant agentique ?

13 octobre 2025 à 12:02

Il va falloir s’y habituer : les « agents Joule » se multiplient au catalogue de SAP.

L’éditeur allemand vient d’en annoncer 14 supplémentaires. Ils seront intégrés d’ici à mi-2026 dans certains de ses logiciels.

Quatre de ces agents visent les métiers de la finance :

  • Accounting Accruals (tenue du journal comptable)
  • Cash Management (gestion de trésorerie)
  • International Trade Classification (conformité aux règles du commerce international)
  • Receipts Analysis (traitement des notes de frais)

Trois sont dans le domaine de la supply chain :

  • Change Record Management (gestion du changement)
  • Product Planning and Operations (planification de la production et gestion de l’exploitation)
  • Supplier Onboarding (embarquement des fournisseurs)

Trois également dans les RH :

  • Career and Talent Development (gestion de carrière)
  • HR Service (traitement des demandes des employés)
  • People Intelligence (rétention et gestion des compétences)

Un agent s’adresse aux achats (Bid Analysis ; analyse des offres). Deux touchent à la gestion des processus (Process Content Recommender et Workspace Administration). S’y ajoute un agent sectoriel (Utilities Customer Self-Service, ciblant les fournisseurs d’énergie).

Ces 14 agents en rejoignent 17 autres. Les voici, avec leur stade de développement, les produits concernés et – pour certains – quelques-unes des promesses chiffrées que leur associe SAP.

Finance

Accounts Receivable (gestion des créances)
En bêta, pour S/4HANA Cloud Private Edition.
Recommande des actions selon le profil et l’historique du paiement du client.
Promesses*, entre autres : 75 % de temps en moins pour l’analyse et la réconciliation (de 20 à 5 minutes par dossier) et réduction de 2 % du taux de passage en pertes et profits (de 1 à 0,98 %).

Accounts Receivable

Booking (gestion des réservations)
En accès anticipé, pour Concur Travel.
Recommande vols et hébergement selon le voyageur, les politiques de l’entreprise et les contraintes budgétaires.

Booking

Dispute Resolution (résolution des litiges)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses, entre autres : réduction de 30 % du temps de gestion de litige (de 20 à 14 minutes) et de 5 % du taux de churn associé (de 0,25 à 0,238 %).

Dispute Resolution

Expense Report Validation (validation des rapports de dépenses)
En accès anticipé, pour Concur Expense.
Promesses : réduction de 30 % du temps de préparation et de soumission (de 30 à 21 minutes par rapport) et de 25 % du taux de rejet (de 15 à 11,4 %).

Expense Report Validation

Meeting Location Planner (organisation de réunions hors site)
En accès anticipé, pour Concur Travel.
Promesses : réduction de 10 % des dépenses annuelles par employé concerné (de 3975 à 3488 €) et de 15 % du temps de planification par réunion (de 5 heures à 4 heures 15 minutes).

Meeting Location Planner

Supply chain

Field Service Dispatcher (gestion des ressources)
En bêta, pour SAP Field Service Management.

Field Service Dispatcher

Maintenance Planner (planification de la maintenance)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses : réduction de 40 % du temps nécessaire à la création des backlogs (de 120 à 72 minutes par jour) et de 1 % du taux d’arrêts imprévus (de 92 à 92,1 % d’uptime).

Maintenance Planner

Shop Floor Supervisor (supervision de la production en atelier)
En bêta, pour SAP Digital Manufacturing.
Promesses : réduction de 50 % du temps passé à gérer les perturbations (de 60 à 30 minutes par jour) et de 2 % du taux d’arrêts non planifiés (de 92 à 93,8 % d’uptime).

Shop Floor Supervisor

CX

Case Classification (tri de cas)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de SAP CX AI Toolkit.

Case Classification

Catalog Optimization (optimisation de catalogue)
En bêta, pour Commerce Cloud et dans le cadre de CX AI Toolkit.

Catalog Optimization

Digital Service (réponse aux questions des équipes de vente et de service client)
En accès anticipé, dans le cadre de CX AI Toolkit.

Digital Service

Knowledge Creation (création de bases de connaissances à partir de tickets résolus)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.

Q&A (réponse aux questions des clients)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.

Q&A

Quote Creation (création de devis)
Disponible pour Sales Cloud et dans le cadre de CX AI Toolkit.
Automatise la création de devis à partir d’une boîte mail Office 365 partagée.

Quote Creation

Shopping (accompagnement du parcours client)
Disponible pour Commerce Cloud et CX AI Toolkit.
Promesses, entre autres : hausse de 10 % du taux de conversion (de 3 à 3,3 %) et du panier moyen (de 309 à 340 €).

Shopping

Les agents CX actuellement commercialisés ne peuvent être achetés qu’à travers le package Joule Premium for Customer Experience. Lequel inclut, outre les agents, une vingtaine de fonctionnalités « étiquetées IA » (détection de comptes en double, création de descriptions de produits, aide à la génération de leads…).

tarif Joule Premium for CX

Un agent est dédié aux RH (Performance and Goals, censé aider à préparer les entretiens d’évaluation). Un autre aux achats (Sourcing, illustré ci-dessous, qui automatise les RPF ; il est en bêta, pour Ariba Sourcing).

Sourcing

* SAP dit baser ses estimations sur « des cas clients, des benchmarks et d’autres recherches ».

Illustrations © SAP

The post Où en est SAP Joule dans son tournant agentique ? appeared first on Silicon.fr.

Knative, la couche serverless pour Kubernetes, arrive à maturité

13 octobre 2025 à 08:18

Knative est désormais officiellement prêt pour un usage en production.

La CNCF (Cloud Native Computing Foundation) le considère en tout cas. Elle vient de promouvoir le projet au plus haut stade de maturité dans sa nomenclature (graduated).

À l’origine de ce framework serverless pour Kubernetes, il y a Google, qui avait ouvert le projet à la communauté à l’été 2018. L’entrée à la CNCF – au stade « incubation » – était intervenue en mars 2022, quelques mois après le passage en version 1.0. VMware, IBM et Red Hat en étaient alors les principaux contributeurs. Le premier était majoritaire au comité de supervision technique. Les deux autres y étaient également présents, en plus d’avoir chacun un siège dans l’instance supérieure : le comité de pilotage.

Red Hat et VMware en têtes de pont

En 2024, le comité de supervision technique a été fusionné dans le comité de pilotage. Deux employés de Red Hat y siègent, aux côtés de représentants CoreWeave et de Stacklok, ainsi que d’un ancien de Pivotal-VMware-Broadcom qui commercialisa Knative dans le cadre de la plate-forme Tanzu.

Le projet se divise actuellement en 7 groupes de travail :

  • Functions (géré par des employés de Red Hat et VMware)
  • Serving (géré par l’ancien de Pivotal-VMware-Broadcom)
  • Eventing (Red Hat)
  • UX (universités OCAD et de Toronto)
  • Exploitation (Bloomberg)
  • Productivité* (Cisco et Red Hat)
  • Sécurité (IBM et VMware)

Bloomberg est d’autant plus impliqué qu’il fait partie des organisations utilisatrices de Knative. Comme, entre autres, Alibaba Cloud, Blue Origin, Box, Gojek, ManoMano, Scaleway et Tata Communications.

Un positionnement sur l’IA, y compris agentique

Les intergiciels Serving, Eventing et Functions constituent le cœur fonctionnel du projet.

Serving fournit de quoi déployer et gérer des services HTTP stateless sans serveur.
Eventing apporte un ensemble d’API permettant la mise en œuvre d’une architecture orientée événements. Elle s’appuie sur les spécifications CloudEvents.
Functions utilise Serving et Eventing pour aider au déploiement de fonctions sous forme d’images OCI.

schéma Knative

Serving et Eventing partagent des sous-projets Client et Operator. Le premier porte un outil en ligne de commande destiné à créer des ressources Knative sans avoir à modifier des fichiers YAML. Le second aide à installer les deux briques sur des clusters Kubernetes.

Ces derniers temps, la communication publique du projet s’est nettement orientée sur les LLM. Notamment autour de KServe, un serveur de modèles basé sur Knative Serving. Mais aussi à renfort de plusieurs cas d’usage. Poussés en particulier par Red Hat (inférence avec Llama Stack, IA agentique pour le traitement de conversations client…) et par IBM (pour l’entraînement de modèles dans le cadre du service watsonx Assistant).

* « Santé » du projet : tests, infrastructure, CI/CD, etc.

The post Knative, la couche serverless pour Kubernetes, arrive à maturité appeared first on Silicon.fr.

UCaaS : l’IA, plus prégnante dans l’offre que dans la demande

10 octobre 2025 à 16:19

Pour 8×8, pas de 13e année consécutive parmi les « leaders » de l’UCaaS. En tout cas dans le cadre du Magic Quadrant.

On avait pu sentir le vent tourner l’an dernier. Gartner avait pointé l’incapacité croissante de l’entreprise américaine à différencier ses produits dans le paysage concurrentiel.
Il souligne cette fois-ci sa perte de visibilité, entre autres du fait que son offre est guidée par l’aspect téléphonie plutôt que collaboration.

Conséquence : voilà 8×8 rétrogradé chez les « visionnaires ».
Les quatre autres « leaders » de 2024 le restent (ils le sont d’ailleurs depuis 2020). Dans l’ordre alphabétique, Cisco, Microsoft, RingCentral et Zoom.

11 fournisseurs, 4 « leaders »

D’une année sur l’autre, le même périmètre a été pris en compte. En l’occurrence, la collaboration interne, le télétravail et les présentations externes. Les webinaires ainsi que le support et la formation à distance n’étaient pas obligatoires (Gartner les classe dans un autre segment : les « solutions de réunion »).

Les offreurs ont été jugés sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

Sur l’axe « exécution », la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Microsoft =
2 Cisco =
3 Zoom + 1
4 RingCentral – 1
5 8×8 =
6 Google =
7 GoTo =
8 Vonage =
9 Dialpad =
10 Wildix + 1
11 Sangoma – 1

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Microsoft =
2 Cisco =
3 Zoom =
4 RingCentral =
5 8×8 =
6 Dialpad =
7 GoTo + 1
8 Vonage – 1
9 Google =
10 Wildix =
11 Sangoma =

Sur ce marché de commodités, la tendance est au développement de la brique centre de contact, en particulier pour les besoins internes.

Un autre levier de différenciation est l’IA. Y compris agentique, en premier lieu pour l’administration et la maintenance. L’offre apparaît toutefois en avance sur la demande : le critère IA n’est pas encore fondamental dans les décisions d’achat, sauf pour des scénarios spécifiques impliquant des métiers en contact avec la clientèle.

De la mise en place à l’exploitation, Cisco Webex demande des efforts

L’an dernier, Cisco avait eu droit à un bon point pour ses investissements transversaux en IA. Gartner avait aussi souligné la profondeur de son catalogue (incluant réseau, sécurité et terminaux). Ainsi que la dernière génération de ses appareils.

Cette année encore, les investissements dans l’IA sont salués. Il en va de même pour le catalogue, au sens où Cisco est un des rares fournisseurs classés au Magic Quadrant à associer UCaaS, CCaaS (centre de contact) et CPaaS (intégration des communications dans les applications métier), en plus du matériel. Gartner apprécie aussi sa stratégie sectorielle, mise en œuvre à l’appui de certifications et de standards spécifiques.

En 2024, Gartner avait noté l’inconsistance du support, largement indirect. Il avait aussi signalé la complexité de Webex aux yeux du mid-market (organisations de 100 à 999 employés) et la tendance de beaucoup d’acheteurs à ne sourcer que la partie téléphonie chez Cisco.

Cette dernière remarque vaut toujours. Idem pour la complexité de Webex : le paramétrage initial et la gestion ultérieure exigent davantage de temps et d’efforts que chez les concurrents. Quant à la tarification, elle peut s’avérer plus compliquée à comprendre et à négocier pour le mid-market.

Microsoft peut s’améliorer sur l’administration graphique

L’an dernier, Microsoft avait eu des bons points pour ses SLA, la flexibilité des options PSTN et les innovations en matière d’IA sous la bannière Copilot in Teams.

Cette année encore, Gartner salue un socle IA robuste quoique actuellement focalisé sur la partie réunions. Microsoft se différencie aussi par sa capacité de couverture géographique des besoins téléphonique, grâce à l’étendue de ses ressources de support et de ses partenariats telcos. Il a également l’avantage d’un TCO « relativement faible », d’une facilité d’usage et d’une intégration étroite avec les principales solutions UCaaS.

En 2024, Gartner avait pointé l’accumulation d’options de connectivité RTC, rendant le choix difficile. Il avait aussi relevé des manques en matière de téléphonie avancée (SMS, intégration CRM, enregistrement avancé d’appels) et une incapacité à couvrir complètement la plupart des besoins sur la partie call center.

Cette fois, le cabinet américain insiste sur la nécessité d’améliorer les capacités d’administration et de gestion des terminaux via le GUI. Il regrette aussi que la brique Dynamics 365 Contact Center, lancée l’an dernier, ne soit pas fournie en natif avec Teams. Et fait remarquer que les fonctionnalités de collaboration ont tendance à concurrencer la téléphonie.

Chez RingCentral, des hausses de prix au renouvellement

L’an dernier, RingCentral avait été salué pour son centre de contact natif RingCX, complété de surcroît pas l’offre NiCE pour les besoins plus avancés. Autre bon point : le niveau d’intégration de l’IA (traduction, suggestion d’actions post-réunion, détection de contenu sensible, création de clips vidéo thématiques…) et des applications tierces.

L’IA fait encore mouche auprès de Gartner cette année, notamment avec la fonction de « réceptionniste virtuel ». Même remarque pour le niveau d’intégration des applications tierces. S’y ajoute la richesse et l’intuitivité de la fonction téléphonie (transfert d’appels sur mobile, notamment).

La téléphonie reste le point d’entrée sur la plupart des contrats, alors que cette brique guide de moins en moins de décisions d’achat, avait averti Gartner l’an dernier. Il avait aussi évoqué l’expérience mitigée sur la vente et le support. Tout en notant que les partenariats avec des fournisseurs « legacy » n’avaient pas produit les résultats attendus.

Cette fois encore, vigilance sur le support, tant pour les délais de réponse que de résolution. Attention également à la hausse des prix lors des renouvellements. RingEX reste par ailleurs voice-centric et les capacités natives d’analytics de RingCX doivent encore progresser pour fonctionner à l’échelle.

Tendance au bundling chez Zoom

L’an dernier, Zoom s’était distingué sur son historique de service et de support, l’adéquation de son offre centre de contact pour les PME et ses capacités en matière de réunions (intuitivité de l’UI, notamment).

Cette année, l’un des bons points va à la simplicité de mise en œuvre et de maintenance de la brique centre de contact embarquée. Gartner apprévie également la qualité des services et du support. Et l’exhaustivité du Trust Center, assorti d’investissements notables sur la sécurité, la privacy et la conformité.

En 2024, Gartner avait noté un ralentissement de la croissance de la base client. Et la tendance des acheteurs à sélectionner des concurrents pour la partie collaboration ou centre de contact. En parallèle, il avait regretté l’octroi de moins de remises et autres incitations que par le passé.

Ces dernières années, le licensing de Zoom a changé plus vite que la moyenne du marché, constate cette fois-ci Gartner. Au final, on peut se voir présenter, au renouvellement, des bundles susceptibles d’inclure des fonctionnalités non nécessaires. On restera également vigilant quant à l’éventuel manque de compétitivité des briques calendrier, mail et traitement de texte récemment ajoutées. Attention également à l’UX, qui peut se révéler complexe à prendre en main à mesure qu’on dépasse l’usage de Zoom pour les réunions.

Illustration générée par IA

The post UCaaS : l’IA, plus prégnante dans l’offre que dans la demande appeared first on Silicon.fr.

La « coalition Nextcloud » abandonne sa plainte contre Microsoft

10 octobre 2025 à 13:27

La plainte de Nextcloud contre Microsoft n’est plus.

L’entreprise allemande a décidé d’abandonner la démarche. Elle regrette l’absence de « progrès notable » depuis la saisine de la Commission européenne en 2021.

Il était reproché au groupe américain d’utiliser Windows pour favoriser ses propres services, à commencer par OneDrive et Teams. Nextcloud le déplore toujours. Et ajoute désormais, entre autres, la difficulté à utiliser l’OS sans créer de compte Microsoft.

Une trentaine d’organisations avaient apporté un soutien formel à l’initiative. Dont, côté français :

  • Abilian
  • Aqua Ray
  • Arawa
  • Cozy Cloud
  • Jamespot
  • Linagora
  • Netframe
  • Nexedi
  • Rapid.Space
  • Talkspirit
  • TAS Cloud Services
  • Whaller
  • Wimi
  • XWiki

membres participants

Microsoft sous surveillance renforcée en Allemagne

Nextcloud avait déposé plainte en parallèle auprès de l’autorité de la concurrence allemande. Il a eu davantage de succès sur ce front. En septembre 2024, Microsoft a effectivement été placé, pour 5 ans, sous un régime de contrôle spécifique. Motif, dans les grandes lignes : ses produits sont omniprésents dans les entreprises et les foyers et sont devenus indispensables.

Alphabet, Meta, Amazon et Apple ont été placés sous le même régime. Pour les deux derniers, la décision a été confirmée par la justice allemande.
Des enquêtes ont été ouvertes en conséquence. Par exemple, pour Amazon, sur les accords de distribution exclusive avec des marques. Ou pour Meta, sur les croisement des données collectées sur ses différents services.

Pour OVHcloud, l’issue fut plus favorable

En 2021, Bruxelles avait enregistré une autre plainte contre Microsoft, accusé de poser des barrières au fonctionnement de ses logiciels sur des clouds concurrents. Elle émanait d’OVHcloud. L’italien Aruba et le danois Cloud Community étaient également de la partie.

Cette plainte fut officiellement retirée en juillet 2024. Microsoft venait alors de trouver un accord avec une organisation dont OVHcloud est membre : le CISPE (Cloud Infrastructure Services Providers in Europe). Celui-ci avait lui-même attaqué le groupe américain devant la Commission européenne, en novembre 2022.

L’accord en question devait se traduire, entre autres, par le développement d’une édition d’Azure Stack HCI – devenu Azure Local – spécifique aux CSP européens. Cette solution technique n’a finalement pas vu le jour. Un compromis d’ordre contractuel a été trouvé à la place. Il se matérialise notamment par des modèles de licence à l’usage pour Windows Server et SQL Server, avec une tarification « comparable à celle d’Azure ». Le CISPE a aussi obtenu que ses membres puissent déployer Microsoft 365 Local sur leurs infrastructures, en monolocataire. Autre avancée : l’hébergement de workloads Microsoft facturés à l’usage via Azure Arc ne requiert plus de partager des données clients. Et les ESU gratuites sont acquises pour les déploiements Azure Local monolocataires, comme le VDI Windows 10/11 multisession, là aussi en monolocataire.

Illustration principale générée par IA

The post La « coalition Nextcloud » abandonne sa plainte contre Microsoft appeared first on Silicon.fr.

Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative

10 octobre 2025 à 09:58

Du lanceur d’alerte à la commission d’enquête parlementaire, Deloitte connaît une période tumultueuse en Australie.

Il lui est reproché son recours à l’IA générative dans le cadre d’une mission de conseil pour le ministère de l’Emploi et des Relations du travail. D’une part, parce qu’il ne l’a pas divulgué. De l’autre, parce que cette IA (GPT-4o) a inventé des sources et des précédents judiciaires.

La mission, réalisée entre fin 2024 et mi-2025, a abouti à un rapport de 237 pages. Sujet : le TCF (Targeted Compliance Framework). Ce système implémenté en 2018 automatise l’évaluation de la situation des demandeurs d’emploi… et l’attribution éventuelle de pénalités financières. Deloitte constate, dans les grandes lignes, que l’algorithme sous-jacent, en plus de manquer de transparence, est démesurément punitif.

Le rapport initial était daté du 4 juillet. Une version mise à jour a été publiée le 26 septembre. Le contenu principal n’a pas changé, mais les citations problématiques ont disparu. Et Deloite a précisé, en annexe, avoir utilisé de l’IA

Deloitte avait d’abord évoqué un « problème de transcription »

Un chercheur de l’université de Sydney avait levé le lièvre au mois d’août. Il avait remarqué que le rapport attribuait à certains de ses collègues des œuvres qu’ils n’avaient pas produites. Par la suite, on avait découvert, entre autres, une référence à une décision de justice inexistante, dans le cadre d’un litige entre le gouvernement australien et une citoyenne sur le système dit robodebt (évaluation et recouvrement automatisé des dettes).

Un accord semble avoir été trouvé avec Deloitte pour le remboursement d’environ 100 000 dollars australiens sur les 440 000 qu’a coûté la mission.

La sénatrice écologiste Barbara Pocock* estime qu’il conviendrait de restituer l’intégralité de la somme. Elle le justifie notamment par les agissements de Deloitte une fois l’affaire mise au jour. D’un côté, le cabinet a d’abord expliqué au ministère de l’Emploi qu’il s’agissait d’un « problème de transcription ». De l’autre, il a pris contact avec le ministère des Finances en affirmant que les commanditaires du rapport étaient au courant de l’usage de l’IA. Ce que les intéressés ont demandé en audition au Sénat.

How we ‘fess up when we mess up shows who we are. Pay it all back Deloitte. And apologise. Give yrsrlf some procurement teeth Labor: the capability to ban for poor behaviour, commensurate with the misdemeanour, up to 5 yrs. pic.twitter.com/BAnrek1Uz5

— Barbara Pocock (@BarbaraPocock) October 9, 2025

Murray Watt, ministre de l’Emploi lorsque fut signé le contrat avec Deloitte, évoque un « acte clairement inadmissible ». Il regrette l’absence d’excuses, y compris auprès des personnes auxquelles l’IA a faussement attribué certaines œuvres.

Dans ce contexte, le ministère des Finances a décider de mieux encadrer les futurs contrats avec tout consultant. Tout usage potentiel d’IA devra être explicité, en identifiant outils et finalités.

* Les Verts sont la troisième force politique au Sénat australien, avec 10 sièges contre 29 pour le Parti travailliste et 27 pour la coalition d’opposition.

Illustration générée par IA

The post Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative appeared first on Silicon.fr.

Windows 11 : l’étau se resserre sur les comptes locaux

7 octobre 2025 à 13:40

Sur les éditions Pro et Famille de Windows 11, il va devenir plus difficile de créer des comptes locaux.

La dernière bêta (build 26120) en donne un aperçu. Plusieurs mécanismes jusque-là exploitables lors du paramétrage initial ne fonctionnent plus. Une décision que Microsoft justifie par les risques, en termes de support et sécurité, découlant de configurations incomplètes*.

Principal mécanisme ciblé : la commande start ms-chx:localonly. Elle permet de lancer Cloud Experience Host, qui intervient au court du paramétrage initial pour afficher certaines pop-up. Lui ajouter l’option localonly permet d’ouvrir le dialogue legacy de création de compte local.
Il existe une variante start ms-cxh://localonly utilisable dans la console développeur, qu’on peut ouvrir lors du setup grâce au raccourci Ctrl-Shift-J. On la trouve également sous la forme start ms-cxh://setaddlocalonly.

Microsoft avait déjà fermé la porte au script ByPassNRO

La « méthode Cloud Experience Host » avait pallié l’élimination, début 2025, d’un autre mécanisme également basé sur l’invite de commandes (à ouvrir avec Shift-F10). Il reposait sur l’activation d’un script ByPassNRO intentionnellement mis à disposition.

La « méthode ByPassNRO » était restée exploitable en modifiant le registre Windows (lancement de regedit lors du setup). Notamment par l’ajout, dans HKEY_LOCAL_MACHINE\Software\Microsoft\Windows\CurrentVersion\OOBE, de valeurs DWORD HideOnlineAccountScreens et – éventuellement – HideWirelessSetupInOOBE. La dernière build semble les ignorer.

D’autres techniques ont existé par le passé et ont elles aussi fini désactivées. L’une d’entre elles consistait tout simplement à entrer n’importe quoi dans le champ e-mail (puis, plus tard, à renseigner une adresse fantaisiste), ce qui enclenchait la création de compte local.

It looks like Microsoft has blocked the bypass that allowed you to create a local account during Windows 11 setup by typing in a blocked email address. Now it just loops you back to typing in a different account 🙁 pic.twitter.com/mKnHToLLQV

— Zac Bowden (@zacbowden) June 3, 2024

Domaines, mode audit et fichiers de réponse

Sur Windows 11 Pro, l’option « rejoindre un domaine » fonctionne toujours, même s’il n’existe pas de tel domaine.

Autre méthode qui semble toujours fonctionnelle : le mode audit, qui fait partie de Sysprep (System Preparation Tool). En l’activant (Ctrl-Shift-F3), on est connecté en tant qu’administrateur local. D’où la possibilité, entre autres, de créer un compte local.

D’autres méthodes ont émergé au fil des ans. Parmi elles, interrompre le flux de connexion au réseau avec taskkill.exe ou en ouvrant le gestionnaire de tâches. Autre solution : créer un compte local directement depuis la ligne de commande (net.ext /add, puis net.exe localgroup /add) et ensuite contourner le setup (mssoobe.exe && shutdown.exe -r).

Des outils de création de médias d’installation ont implémenté certains mécanismes. ByPassNRO en est un. Les fichiers de réponse (auto)unattend.xml, à placer à la racine du disque, en sont un autre. Avec eux, on entre dans une approche gestion de flotte, qui peut aussi mener à l’exploitation d’outils comme MDT (Microsoft Deployment Tool) ou WCD (Windows Configuration Designer).

En contrepartie à ce resserrement, Microsoft inclut, dans l’expérience de paramétrage initial, un outil en ligne de commande qui permet de personnaliser le nom du dossier utilisateur.

* Par exemple, l’absence de sauvegarde automatique de la clé de chiffrement du disque système sur OneDrive… et donc la non-activation automatique de ce chiffrement. Microsoft mentionne aussi la procédrue de récupération Windows Hello.

Illustration principale générée par IA

The post Windows 11 : l’étau se resserre sur les comptes locaux appeared first on Silicon.fr.

Apps in ChatGPT : OpenAI parie sur une centralisation de l’expérience web

7 octobre 2025 à 09:52

Grâce au protocole MCP, les applications viennent à ChatGPT.

C’est l’idée de l’Apps SDK, qu’OpenAI vient de lancer en preview. Il a fait l’objet d’une phase pilote avec Booking.com, Canva, Coursera, Figma, Expedia, Spotify et Zillow. Leurs services respectifs ont été intégrés, à divers degrés, dans ChatGPT. Ils sont accessibles à tous les utilisateurs connectés sur les abonnements Free, Go, Plus et Pro… hors Union européenne. AllTrails, Doordash, Khan Academy, Instacart, Peloton, OpenTable, Target, TheFork, Tripadvisor, Thumbtack et Uber seront les prochains.

La perspective du « commerce programmatique »

Nombre de ces entreprises ont une activité qui touche au commerce en ligne. En toile de fond, la volonté d’OpenAI de se positionner en intermédiaire sur ce segment*. En a témoigné, fin septembre, l’annonce d’ACP (Agentic Commerce Protocol).

Ce protocole, développé avec Stripe, est censé ouvrir la voie à du « commerce programmatique ». Chez OpenAI, il s’incarne en la fonctionnalité « Instant Checkout ». Qui, pour le moment, permet aux utilisateurs individuels (Free, Plus, Pro) de réaliser des achats uniques chez des marchands Etsy aux États-Unis – ces derniers reversant une commission.

Encore à l’état de brouillon, ACP allie trois spécifications :

  • Product Feed (diffusion d’infos produits vers des IA)
  • Agentic Checkout (exécution de flux de paiement au sein des interfaces IA)
  • Delegated Payment (communication avec les plates-formes de paiement ou les marchands opérant leus propres plates-formes)

Nouvel environnement, nouveau système de concurrence

Pour ce qui est de l’Apps SDK, il n’est pas encore question de monétisation, mais on nous promet des éléments à ce sujet « plus tard cette année ». En attendant, OpenAI fixe des lignes directrices pour la conception de la logique et des interfaces. Entre autres dans l’optique d’être sélectionné par ChatGPT.

Il y aura effectivement une forme de mise en concurrence. L’utilisateur pourra certes faire explicitement appel à une application en tapant son nom ou via le sélecteur (la création d’un répertoire est prévue en complément). S’il ne le fait pas, divers paramètres seront mis en balance. Parmi eux, le contexte de conversation (historique de discussion, résultats de précédents appels d’outils…) et l’éventuelle apparition de marques dans les sources/citations en réponse à une requête.

Pour se donner davantage de chances d’être sélectionnés, les développeurs devront soigner les descriptions de leurs outils – sous le capot, il y a MCP, rappelons-le – en les focalisant sur des actions.

Au niveau UI, divers modes d’affichage sont mis à disposition. Dont des cartes (widgets mono-usage avec deux actions maximum), des carrousels, du plein écran (le composeur ChatGPT restant affiché) et du picture-in-picture (incrustation).

Actions, cookies, look & feel… Des contraintes à respecter

En contrepartie à cette intégration, OpenAI demande de ne pas perturber le look & feel de l’interface de chat : pas de dégradés ou de patterns de couleurs personnalisés, pas de couleur d’arrière-plan sur les zones de texte, pas de polices de caractères personnalisées, etc. Le contenu transmis à ChatGPT ne doit, plus globalement, « pas briser son ton naturel ».

Une restriction est également imposée sur les cookies de navigation, auxquels les fournisseurs de services n’ont pas accès. Il ne leur est pas non plus permis de diffuser de publicité. Ils sont plus généralement invités à proscrire le contenu long ou statique et les workflows à plusieurs étapes.

Sur desktop comme sur mobile, les composants UI fonctionnent dans un iframe. On peut leur transférer trois types de contenus :

  • Données structurées pour les hydrater (chansons pour une play-list, tâche pour un kanban…)
  • Informations optionnelles communiquées verbatim au modèle
  • JSON arbitraire transmis directement au composant (le modèle ne le voit jamais, de sorte que son raisonnement n’est pas influencé)

* OpenAI avance un indicateur principal : ChatGPT compte 800 millions d’utilisateurs hebdomadaires.

Illustration principale © PixieMe – Adobe Stock

The post Apps in ChatGPT : OpenAI parie sur une centralisation de l’expérience web appeared first on Silicon.fr.

Les fuites de données Salesforce culminent en un leak

6 octobre 2025 à 15:56

Entre données personnelles et secret des affaires, la justice pourrait trouver à redire.

Sous l’enseigne SLSH (Scattered LAPSUS$ ShinyHunters), des cybercriminels brandissent actuellement cet argument contre Red Hat. Le groupe américain n’est a priori pas en position de force, ayant reconnu la compromission d’une de ses instances GitLab. Le voilà invité à négocier ; sans quoi, lui assure-t-on, des informations seront publiées, donnant à la justice autant de grain à moudre. L’ultimatum est fixé au 10 octobre.

Plusieurs incidents pour en arriver là

Salesforce est face à une situation similaire. Également sous la bannière SLSH, on lui a accordé le même délai pour trouver un terrain d’entente. Là aussi, en faisant planer le spectre de poursuites judiciaires. Ou plutôt d’un « coup de pouce » aux procédures déjà engagées.

Le contexte est effectivement différent du cas Red Hat. Salesforce est déjà ciblé par maintes plaintes, en premier lieu aux États-Unis. Entre autres à la suite d’un incident d’ampleur dont on a eu connaissance il y a quelques semaines : la compromission de l’intégration avec une application tierce (le chatbot Salesloft Drift). Elle a servi de point d’entrée sur des instances CRM. Les intrusions sont survenues entre mai et juillet 2025 en fonction des victimes.

Une autre campagne s’est déroulée plus en amont, à base de social engineering. Notamment de vishing. Des acteurs associés à ShinyHunters se sont fait passer pour des agents de support technique et ont convaincu des employés de connecter leur Salesforce à des applications malveillantes. Initialement, il s’agissait généralement de versions vérolées de l’outil Data Loader, destiné à l’import/export massif de données vers et depuis le CRM. Avec le temps, des applications personnalisées ont émergé, mais avec le même objectif d’exfiltration de données. D’autres techniques de phishing – un faux portail Okta, en particulier – ont été exploitées en parallèle. Dans certains cas, des mois se sont écoulés avant que la victime fasse l’objet d’une extorsion. Entre-temps, les données volées avaient pu accompagner des opérations de latéralisation. Allianz, Jaguar/Land Rover, LVMH, TransUnion et Workday font partie des entreprises s’étant déclarées touchées.

La menace d’appuyer les actions en justice

Plusieurs des dossiers montés contre Salesforce sont gérés par Berger Montague. Les cybercriminels en font un point d’appui : ils expriment leur volonté de collaborer avec le cabinet d’avocat en lui fournissant des listes de victimes ; et, pour chacune, des échantillons de données. Ils vont plus loin, expliquant vouloir  prouver à la justice U.S. que Salesforce s’est rendu coupable de négligence criminelle en ne remédiant pas à la situation alors en avait le temps et les moyens.

Salesforce n’est pas seul à s’être vu imposer un ultimatum. Il en va de même pour une quarantaine de victimes. Pour trois d’entre elles, la date de piratage annoncée remonte à l’an dernier (23 avril 2024 pour Kering, 2 mai pour Adidas, 8 septembre pour IKEA). En ce sens, l’opération apparaît comme le point culminant d’une longue série de leaks.

Si on en croit les dates affichées, les attaques sont survenues par périodes. Exemples :

  • Disney, Instacart, Puma et Toyota entre le 1er et le 2 mai
  • ASICS et Gap le 17 juin
  • Chanel, KFC, McDonald’s et Qantas entre le 26 et le 28 juin
  • Fujifilm et Marriott le 17 août

On aura noté la présence de Stellantis et d’Air France-KLM sur la liste. Un des échantillons publiés pour le premier réunit 126 champs CRM… et des valeurs associées. Pour le second, les pirates revendiquent à la fois la fuite de données d’employés et d’interactions clients.

Illustration générée par IA

The post Les fuites de données Salesforce culminent en un leak appeared first on Silicon.fr.

Oracle E-Business Suite au cœur d’une campagne d’extorsion

6 octobre 2025 à 13:18

Un groupe cybercriminel peut en cacher un autre… susceptible de lui griller la politesse.

La situation semble s’être récemment présentée entre Cl0p et SLSH (Scattered LAPSUS$ ShinyHunters). Le premier a pris pour cible des instances Oracle E-Business Suite en utilisant… un exploit que le second l’accuse de lui avoir volé.

Dans la lignée de cette campagne, des utilisateurs de la suite ont fait l’objet de tentatives d’extorsion. Les sommes demandées ont atteint 50 M$.

Oracle n’avait pas tout de suite évoqué une 0-day

Oracle avait d’abord fait le lien entre les revendications de Cl0p et des vulnérabilités corrigées en juillet dans le cadre des patchs trimestriels pour ses produits sur site.

Il a finalement mis son post à jour, éliminant toute référence à ces vulnérabilités au profit d’une seule, nouvelle (CVE-2025-61882), qu’il ne qualifie toutefois pas de 0-day. Elle se trouve au niveau de l’intégration avec Analytics Publisher (ex-BI Publisher ; solution de reporting qui fait partie de Fusion Middleware). Un score de 9,8 lui a été attribué, autant pour ses conséquences potentielles (exécution de code à distance, avec impact possiblement élevé sur la confidentialité, l’intégrité et la disponibilité) que pour la facilité à l’exploiter (pas d’authentification).

Dans le cas présent, la faille a permis, sur les instances E-Business Suite exposées à Internet, l’accès à des comptes locaux facilitant le contournement du SSO.

Certains IOC partagés par Oracle correspondent à des éléments que SLSH avait diffusés en amont sur Telegram. Plus particulièrement les fichiers composant l’exploit (deux scripts Python dans une archive zip). On trouve, dans leur nom, la chaîne « scattered_lapsus », donnant un probable indice de provenance.

Un template YAML pour le scanner de vulnérabilités Nuclei a été publié. Il détecte les instances vulnérables en vérifiant si une page contient le texte « E-Business Suite Home Page » et, le cas échéant, si la date dans l’en-tête Last-Modified est antérieure au 4 octobre 2025.

À consulter en complément, un point sur une campagne plus ancienne ayant impliqué Cl0p. Elle a ciblé le logiciel de transfert de fichiers MOVEit Transfer. Deux failles SQLi au niveau du front-end web furent utilisées pour injecter un ransomware. Majorel, acteur de la GRC, avait fait partie des victimes. On l’avait appris par l’intermédiaire de Pôle emploi, dont il était prestataire.

Illustration générée par IA

The post Oracle E-Business Suite au cœur d’une campagne d’extorsion appeared first on Silicon.fr.

Red Hat piraté : des projets IT confidentiels exfiltrés

6 octobre 2025 à 10:49

Les fichiers que nous vous avons volés relèvent clairement du secret des affaires. Vous vous exposez à des poursuites au nom de la directive européenne 2016/943 et du Code des États-Unis, titre 18, paragraphe 1836.

Red Hat fait face à des accusations de cet acabit, proférées par… un groupe cybercriminel. En toile de fond, la compromission d’une de ses instances GitLab, liée à son activité de conseil.

Le groupe américain a admis l’exfiltration de données. À l’en croire, cela comprend « par exemple » des spécifications de projets, des fragments de code, des communications internes et des infos de contact.

Une montagne potentielle de secrets d’infrastructure

Les cybercriminels en question vont plus loin. Échantillons à l’appui, ils affirment avoir dérobé, entre autres :

  • Jetons d’authentification et des clés d’API
  • Playbooks Ansible et blueprints OpenShift
  • Résultats d’audits de sécurité
  • Inventaires, profils VPN, topologies réseau, etc.

Il y en aurait pour plusieurs To de données (570 Go compressé) réparties à travers quelque 28 000 repos. Une arborescence publiée en parallèle des échantillons de données suggère qu’environ 800 organisations clientes de Red Hat sont concernées.

Red Hat hack

Deux collectifs semblent impliqués. D’une part, un certain Crimson Collective, apparu sur Telegram fin septembre et qui, pour commencer, avait revendiqué le défacement d’un site de Nintendo. De l’autre, SLSH, aka Scattered LAPSUS$ ShinyHunters. Il est à la croisée de Scattered Spider, LAPSUS$ et ShinyHunters. Trois groupes qui ont chacun ses origines et son historique, mais qui entretiennent des connexions voire des collaborations directes ; jusqu’à l’association de leurs noms, concrétisée à l’été 2025.

Atos Red Hat

Red Hat intimidé sur les secrets d’affaires et les données personnelles

Crimson Collective et SLSH datent l’attaque au 13 septembre. Ils affirment avoir pris contact avec Red Hat… et avoir reçu, en réponse, un message les invitant à suivre la procédure de communication d’informations sur des vulnérabilités.

Red Hat SFR

Plusieurs milliers de dossiers incluent un fichier CONFIDENTIALITY.md indiquant explicitement que les fichiers liés doivent être considérés comme confidentiels, avec un accès limité à Red Hat et au client. C’est dans ce contexte que Crimson Collective et SLSH brandissent la menace de poursuites judiciaires. Non sans y ajouter un défaut de protection des données personnelles – car il s’en trouve dans les données volées.

Cette technique d’intimidation est également exploitée en ce moment contre Salesforce, mis face à la même deadline que Red Hat : le 10 octobre 2025. Le leader mondial du CRM fait lui aussi face à la fuite potentielle de plusieurs To de données. Résultant, semble-t-il, de l’agrégation de multiples campagnes survenues depuis le printemps 2024 et ayant impliqué diverses méthodes d’attaque, du vishing à la compromission d’applications tierces.

Illustration principale générée par IA

The post Red Hat piraté : des projets IT confidentiels exfiltrés appeared first on Silicon.fr.

Loi SREN : l’Arcep se raccroche à SWIPO et OpenAPI

3 octobre 2025 à 15:31

Il y a SWIPO et OpenAPI ; point n’est besoin de réinventer la roue.

On pourrait résumer ainsi les recommandations de l’Arcep sur l’interopérabilité et la portabilité des services cloud.

En toile de fond, la loi SREN (« sécuriser et réguler l’espace numérique »), promulguée en mai 2024. Elle a introduit de manière anticipée dans le droit français certaines mesures du Data Act, qui ne serait applicable qu’au 12 septembre 2025.

L’article 28 impose aux CSP de se conformer à des exigences d’interopérabilité et de portabilité, tout en fournissant gratuitement des API pour mettre en œuvre ces exigences. L’idée est de favoriser à la fois les usages multiclouds et le changement de fournisseur.

La loi SREN charge l’Arcep de préciser les règles et les modalités de mise en œuvre des exigences. Notamment par l’édiction de spécifications.
L’autorité a finalement opté pour des bonnes pratiques, en l’objet de cette recommandation « dépourvue de toute portée normative ». Elle laisse ainsi la main à la Commission européenne pour élaborer les spécifications en question. Plusieurs éléments ont motivé ce choix. Les contributions à la consultation publique menée entre octobre et décembre 2024 en sont un. Le calendrier d’application de la loi SREN en est un autre (les dispositions sur l’interopérabilité ne s’appliqueront que jusqu’au 12 janvier 2027). Tout comme les délais que supposerait la mise en conformité à d’éventuelles règles contraignantes auxquelles pourraient, de surcroît, se superposer des actes d’exécution de Bruxelles.

L’Arcep s’en remet au socle SWIPO

En matière d’interopérabilité et de portabilité, une majorité de contributions à la consultation publique a suggéré de prendre en compte des travaux déjà menés au sein du secteur. En première ligne, les codes SWIPO (Switching Cloud Providers and Porting Data). L’initiative a pris fin, mais l’écosystème en reconnaît encore largement la pertinence. L’Arcep en a par conséquent repris les grandes lignes, à commencer par celles du code relatif au IaaS. Elle invite les CSP à publier, dans un format libre (page web ou PDF) et dans un format lisible par ordinateur, les informations suivantes :

  1. Données (brutes ou dérivées) et actifs numériques qui peuvent être transférés dans le cadre d’une migration ou d’une utilisation simultanée des services de différents fournisseurs
  2. Procédures pour initier une migration depuis le service cloud
  3. Procédures pour initier une migration vers le service cloud
  4. Méthodes (téléversement, API, expédition de disques) disponibles pour la migration et l’utilisation simultanée des services de différents fournisseurs, y compris les protections disponibles (chiffrement) et les restrictions et limitations techniques connues ; méthodes pour garantir la sécurité des données lors du transfert (contrôle d’accès, authentification des utilisateurs, confidentialité et intégrité)
  5. Procédures pour tester les différents mécanismes de migration, notamment ceux de sauvegarde (snapshot), de restauration (rollback) et de vérification de l’intégrité des données
  6. Processus disponibles pour garantir l’intégrité des données, la continuité de service et prévenir la perte de données pendant la migration
  7. Processus de résiliation d’un service cloud existant, lorsque le client souhaite mettre fin à son utilisation du service après la migration
  8. Outils de supervision disponibles pour la migration et coûts associés à leur usage
  9. Formats disponibles, recommandés ou utilisés dans le cadre d’une migration ou d’une utilisation simultanée des services de différents fournisseurs, ainsi que les spécifications et la documentation relatives à ces formats
  10. Référence de la documentation des API permettant de la mise en œuvre de la portabilité et de l’interopérabilité
  11. Description et documentation des dépendances, dont les bibliothèques de code, les données connectées à d’autres services cloud du fournisseur, et les services et outils tiers nécessaires à l’export des données dans le cadre d’une migration ou d’une utilisation multicloud

API : un préavis de 12 mois pour les mises à jour sans rétrocompatibilité

Pour ce qui est de la mise à disposition d’API stables et documentées, des contributions ont mis en avant la spécification OpenAPI, utilisée par quantité de fournisseurs cloud. L’Arcep a considéré que la promouvoir permettrait d’éviter des adaptations majeures et d’assurer une certaine flexibilité. Elle laisse toutefois la voie ouverte à l’adoption de specs équivalentes, notamment dans le cas d’API ne reposant pas sur le protocole HTTP.

Par rapport à la version préliminaire de ses recommandations, soumises à consultation en juin-juillet 2025, l’autorité a précisé la notion de rétrocompatibilité. Elle estime que celle-ci n’est pas garantie si une mise à jour :

  • provoque l’échec d’une requête ou d’une opération qui aurait préalablement réussi ;
  • obliger les clients ou les fournisseurs tiers à prendre des mesures pour éviter une interruption de service ;
  • ou suppriment une caractéristique ou une fonctionnalité du service utilisée par les clients ou les fournisseurs tiers.

L’Arcep conseille, en cas d’exécution de mises à jour sans rétrocompatibilité, d’avertir les utilisateurs au moins 12 mois en amont. Sauf s’il existe des obligations légales ou des impératifs en matière de sécurité (découverte d’une faille dans une API).

Illustration © VICHIZH – Adobe Stock

The post Loi SREN : l’Arcep se raccroche à SWIPO et OpenAPI appeared first on Silicon.fr.

Les derniers LLM d’IBM n’ont plus grand-chose de transformateurs

3 octobre 2025 à 13:36

Un peu de Transformers, beaucoup de Mamba : avec les modèles de langage Granite 4.0, IBM opère une transition architecturale.

Mamba est censé pallier les limites des modèles transformateurs lors du traitement de longues séquences. Dans ces scénarios, le mécanisme d’attention constitue un goulet d’étranglement, du fait qu’il utilise une forme de cache clé-valeur permettant à chaque token d’accéder aux précédents lors de la prédiction. Plus la taille de contexte augmente, plus l’empreinte mémoire et la latence augmentent, de façon quadratique.
Des méthodes telles que la fenêtre glissante et l’attention flash peuvent atténuer cet effet. Mamba va plus loin en remplaçant le composant d’attention par un mécanisme inspiré de la théorie du contrôle : les SSM (State Space Models). Avec eux, la montée en charge est linéaire. On permet aux paramètres SSM d’être fonction de l’input, de sorte qu’une sélection des informations à conserver s’opère au moment de la mémorisation – et non au moment de la remémoration, comme c’est le cas pour les transformeurs.

Transformers réduit à la portion congrue

IBM n’écarte pas totalement Transformers, mais le réduit à la portion congrue : seules 4 couches sur 40 dans chacun des modèles Granite 4.0 aujourd’hui publiés (open-weight, licence Apache 2.0). Sont plus précisément combinés, de façon séquentielle, un groupe de 9 blocs Mamba, un bloc Transformers unique, et ainsi de suite. Les blocs Transformers sont maintenus notamment en ce qu’ils apportent des avantages sur les tâches avec apprentissage en contexte (few-shot prompting, typiquement).

Les modèles ainsi architecturés n’utilisent pas d’encodage positionnel : de par son fonctionnement, Mamba préserve intrinsèquement l’ordre des tokens. Ce n’est pas le cas de Transformers. On a donc tendance à y allier cet encodage positionnel… au détriment de la capacité des modèles à travailler sur des séquences plus longues que celles sur lesquelles on les a entraînés.

Des versions thinking à venir

Comme leurs prédécesseurs, les modèles Granite 4.0 sont destinés à générer du texte et du code. On en compte actuellement 4, tous déclinés en versions base et instruct (versions thinking à venir « d’ici à fin 2025 ») :

  • H-Small
    Hybride Mamba/Transformers en MoE (32 milliards de paramètres dont 9 milliards actifs, soit 10 experts sur 72).
  • H-Tiny
    Hybride Mamba/Transformers en MoE (7 milliards de paramètres dont 1 milliard actifs, soit 6 experts sur 64).
  • H-Micro
    Hybride Mamba/Transformers dense (3 milliards de paramètres).
  • Micro
    Variante « classique » (Transformers) de H-Micro.

L’ensemble est disponible dans des versions quantisées (GGUF, avec également du FP8 pour H-Small instruct).
En précision 8 bits, H-Small nécessite 33 Go de RAM ; H-Tiny, 8 Go ; H-Micro, 4 Go, contre 9 Go pour sa variante Transformers. IBM ne manque pas de mettre en avant ce gain pour l’inférence, surtout dans les tâches à contexte long et/ou à sessions multiples (agent de service client traitant plusieurs tickets en parallèle, par exemple).

consommation RAM

Tous les modèles Granite 4.0 ont été validés pour des séquences de 128k. L’entraînement des versions de base a suivi un pipeline en 4 étapes (cf. tableau ci-dessous), sur des serveurs GB200 NVL72 chez CoreWeave. Le fine-tuning a reposé sur « des jeux de données ouverts sous licence permissive », des datasets synthétiques internes et des données annotées par l’humain.

entraînement Base

Intégrer Mamba dans l’écosystème

H-Small et H-Tiny ont une autre forme d’hybridité : ils sont les premiers modèles MoE d’IBM à utiliser des « experts partagés ». En d’autres termes, des paramètres toujours actifs qui permettent aux autres experts de mieux se spécialiser.

Des modèles Nano et Medium sont sur la feuille de route. Il s’agira aussi de pousser la prise en charge de Mamba dans l’écosystème. Des outils comme llama.cpp ne la gèrent pas encore. C’est dans cet esprit qu’IBM a conservé un modèle « classique » dans sa gamme.

Le catalogue open-weight d’IBM comprend des modèles multimodaux, dont :

  • Granite Speech (reconnaissance vocale ; dernière version publiée en août, à 2B et 8B)
  • Granite Vision (dernière version – 2B – publiée en juin, avec un dérivé pour l’embedding ajouté en août)
  • Granite Guardian (modération de contenu ; dernière version – 8B – publiée en septembre)
  • Granite Docling (extraction de données structurées ; dernière version – 258M – publiée en septembre)

Ses derniers modèles « spécial code » remontent à 2024. Il existe aussi des modèles Granite pour le traitement de données géospatiales et de séries chronologiques.

À consulter en complément, notre brève revue des LLM Granite 3.0. Sortis il y a près d’un an, ils introduisaient alors, au catalogue des modèles IBM, des techniques telles que ScatterMoE (une implémentation n’imposant pas de plafond de tokens par expert) et Evol-Instruct (génération de données synthétiques à partir de questions racines dont on crée des versions améliorées à renfort de prompt engineering).

Illustration principale générée par IA

The post Les derniers LLM d’IBM n’ont plus grand-chose de transformateurs appeared first on Silicon.fr.

Qu’est-ce que la certification ISO 42001, que revendiquent des fournisseurs d’IA ?

3 octobre 2025 à 10:21

Architecture hybride Mamba/Transformers, modèles spécifiques pour le raisonnement, mécanisme d’experts partagés… IBM a quelques nouveautés à mettre en avant avec la dernière génération des LLM Granite.

Celle-ci a une autre particularité : une certification ISO 42001. IBM l’a obtenue mi-septembre* pour le système de management sous-jacent.

Cette norme, publiée fin 2023, encadre effectivement la conception, l’implémentation et l’exploitation d’un système de management de l’IA. Elle est, en quelque sorte, ce que l’ISO 27001 est à la sécurité de l’information, l’ISO 9001 à la qualité et l’ISO 27701 à la protection de la vie privée. Y être conforme est censé témoigner d’une approche éthique et responsable.

L’ISO 42001 est potentiellement applicable à toute organisation qui développe, fournit ou utilise des produits ou services reposant sur des systèmes d’IA. Nombre des exigences qu’elle contient s’apparentent aux mesures que l’AI Act a imposées. Autant sur la gouvernance que sur la documentation, l’analyse de risque ou l’information des parties intéressées.

La norme impose de prendre en compte à la fois le contexte interne (gouvernance, procédures, obligations contractuelles…) et externe (législation, environnement culturel et concurrentiel, impact sur les tiers…). Elle aborde, entre autres :

  • Implication du top management
    Compatibilité de la politique IA avec la stratégie de l’organisation, intégration des exigences du système de management dans les processus métiers, etc. 
  • Planification
    Analyses d’impact, plans d’amélioration continue et de traitement des risques, gestion des exceptions, etc.
  • Support
    Fourniture des ressources nécessaires au système de management (data, outils, systèmes informatiques, compétences humaines).
  • Relations avec les tiers
    Documentation à leur adresse, mécanismes de recours/signalement, communication des incidents, gestion des fournisseurs, etc.

La certification est valable 3 ans et soumise à audit annuel. La procédure aura duré 3 mois, affirme IBM, qui met l’annonce en parallèle de son partenariat bug bounty avec Hacker One et de la généralisation de la signature cryptographique des checkpoints des modèles Granite.

D’AWS à Zendesk, quelques autres titulaires de la certification 42001

Parmi les fournisseurs de modèles de fondation, Anthropic a obtenu la certification ISO 42001 en janvier 2025. Elle englobe les LLM Claude sur l’API, au sein de l’offre Claude Enterprise ainsi que dans Amazon Bedrock et Vertex AI.
Cohere l’a quant à lui obtenue en juin 2025.

AWS avait été certifié en novembre 2024 pour les services Amazon Bedrock, Q Business, Textract et Transcribe. Google l’avait été en décembre, pour dix produits dont Vertex AI, Gemini pour Google Workspace et les API Cloud Translation et Document AI. Microsoft les a rejoints en mars 2025, pour Copilot et Copilot Chat dans Microsoft 365. Red Hat, en septembre, pour OpenShift AI.

365Talents et Workday sont respectivement ISO 42001 depuis février et juin 2025. Autodesk l’est depuis août, pour sa plate-forme centrale destinée à développer des produits et fonctionnalités d’IA. Zendesk l’est depuis septembre, pour tout son cœur IA, à l’exception de deux acquisitions récentes (Local Measure et HyperArc). Snowflake l’est depuis juin.

Des dizaines de plus petits éditeurs ont obtenu la certification. Pour en citer quelques-uns : Scrut Automation (Inde, GRC, février 2025), Noxtua (ex-Xayn ; Allemagne, logiciels juridiques, décembre 2024), FloQast (USA, comptabilité, janvier 2025), Gpi (Italie, logiciels pour la santé, juillet 2025) et Swimlane (USA, SOAR, juin 2025). Des ESN également, comme Datamatics (Inde, juin 2024).

Illustration générée par IA

The post Qu’est-ce que la certification ISO 42001, que revendiquent des fournisseurs d’IA ? appeared first on Silicon.fr.

Comment The Shift Project a construit sa réflexion sur les datacenters

3 octobre 2025 à 06:25

Si les tendances actuelles se poursuivent, la trajectoire climatique est alarmante.

On peut résumer ainsi les observations de The Shift Project – aka « Le think tank de la décarbonation de l’économie » – sur la filière datacenter.

L’Irlande, aperçu des futurs possibles

L’Irlande est un bon indicateur de ce qui pourrait se passer en Europe, affirme-t-il. Par sa politique fiscale, le pays a attiré énormément de datacenters, essentiellement d’acteurs américains. Le tout de façon peu qualifiée, sans anticipation des conséquences. La consommation du parc a crû de façon remarquable : environ 20 % de l’électricité du pays en 2022, contre 5 % en 2015 – alors que tous les autres secteurs ont plutôt vu stagner leur consommation.

À Dublin, où on ne sait plus fournir l’ensemble de la production électrique pour tous les usages, on a dû arrêter des projets immobiliers. Un moratoire de fait s’est installé : l’opérateur électrique irlandais a décidé de ne plus connecter de datacenters au réseau dans cette zone tant qu’il n’y aurait pas de désaturation.

La filière datacenter met les gaz

Cela n’a pas pour autant résulté en un arrêt de l’installation de datacenters. Une voie de contournement a effectivement été trouvée. Une quizaine sont aujourd’hui raccordés directement raccordés au réseau de gaz ou en ont fait la demande, avec le projet de mettre en place des centrales électriques dédiées.

Dans les scénarios de transition énergétique de l’Europe, il est prévu, à l’horizon 2035, de se passer de 200 TWh d’électricité produite à partir de gaz. Or, c’est précisément la consommation supplémentaire que représenteraient ces datacenters… et qui, aujourd’hui, n’est pas planifiée.

Perpétuer cette alimentation au gaz, c’est aussi prolonger une dépendance énergétique de l’Europe envers les États-Unis, fait remarquer The Shift Project. Il existe par ailleurs des risques de conflit d’usages avec les secteurs dont la décarbonation complète ne peut passer que par l’électrification. Transports et chauffage, notamment.

Stratégie bas carbone : « Le numérique est bien un secteur »

Au regard de l’empreinte croissante de la filière datacenter, The Shift Project appelle à l’intégrer dans la SNBC 3 (troisième stratégie nationale bas carbone, en cours d’élaboration par le Secrétariat général à la planification écologique), avec sa propre trajectoire.

Récemment, les datacenters étaient encore fondus dans le secteur tertiaire. Dans la catégorisation RTE, ils en ont finalement été sortis pour être intégrés au sein du secteur de l’industrie. Et pour cause : certains atteignent désormais une puissance unitaire du même ordre que celle des sites industriels.

La partie terminaux est quant à elle intégrée dans la consommation des logements (secteur résidentiel). Au même titre, donc, que l’éclairage ou l’électroménager.

Au final, le numérique est disséminé, intégré de façon partielle, de sorte qu’on « loupe des morceaux », pour reprendre les mots de The Shift Project. Or, d’après l’association, c’est bien un secteur : il a ses infrastructures, ses services, ses acteurs, ses lobbys même.

L’intégration du numérique en tant que secteur dans la SNBC a normalement déjà été décidée en 2023 par le Haut Comité sur le numérique responsable*. Pour The Shift Project, il faut maintenant « passer aux faits ». Tout en n’oubliant pas que les datacenters validés aujourd’hui n’atteindront possiblement leur consommation maximale que dans 10 à 15 ans.

D’Enedis à OpenAI, une transparence à construire

Au niveau européen, la directive EED (efficacité énergétique) impose que les datacenters de plus de 500 kW communiquent certaines de leurs données. À peu près un tiers le font effectivement. Un suivi à l’échelle nationale apparaît donc d’autant plus opportun. L’énergie est d’ailleurs considérée comme un secteur qui relève d’abord de la compétence des États plutôt que de la Commission.

La transparence, dans l’ensemble, ne se mettra probablement en place que si on l’impose de façon réglementaire, estime-t-on chez The Shift Project.

L’association est en discussion avec RTE, qui s’occupe des « gros » datacenters. Avec Enedis, qui gère les « petits », c’est plus compliqué : ces datacenters sont certes dédiés, mais pas forcément connus comme tels. Un meilleur référencement est nécessaire.

Concernant les modèles d’IA génératifs, ce qui a été publié ne suffit pas à se faire une idée véritable. Les chiffres sont très peu comparables d’un point de vue méthodologique. Google, notamment, utilise l’approche market-based, donc se sert de ses contrats d’énergie verte. Contrairement, entre autres, à Mistral AI, dont The Shift Project salue la démarche, portée par une approche scientifique et validée par des pairs. Il n’en dit pas autant au sujet d’OpenAI, tancé pour son « opacité ».

On a également très peu de données sur les empreintes énergétique et carbone embarquées des hardwares. Vu le rythme d’évolution technologique, les informations à leur sujet deviennent vite très obsolètes. À date, il y aurait environ 9 millions d’accélérateurs IA – essentiellement des GPU – dans le parc mondial de datacenters. On en compterait 60 millions en 2030.

Ces phénomènes sont aujourd’hui clairement tirés par l’offre, clame The Shift Project. Plus précisément par des acteurs à la capacité de financement immense et pour qui la question à court terme ne semble pas être la recherche de rentabilité, mais plutôt l’installation d’une domination hégémonique pour ensuite inventer un modèle économique. Il faut « savoir y résister », avance le think tank, également en gardant à l’esprit le risque de dépendance numérique.

* Alors composé de Jean-Noël Barrot (ministre délégué chargé de la transition numérique et des télécommunications), Dominique Faure (secrétaire d’État chargée de la ruralité) et Christophe Béchu (ministre de la Transition écologique et de la Cohésion des territoires).

The post Comment The Shift Project a construit sa réflexion sur les datacenters appeared first on Silicon.fr.

Qualcomm l’emporte face à Arm, qui fait appel

2 octobre 2025 à 11:12

La suite des démêlés judiciaires entre Arm et Qualcomm se jouera en Cour d’appel.

Le jugement final de première instance vient effectivement de tomber, après plus trois ans de procédure. Il est favorable à Qualcomm, dans la lignée du verdict rendu fin 2024.

Au cœur du litige, Nuvia. Cette société avait développé un SoC pour serveurs basé sur des cœurs exploitant partiellement l’architecture Arm. Qualcomm en avait fait l’acquisition en 2021, pour environ 1,4 Md$.

En 2022, Arm avait attaqué Qualcomm pour, entre autres, ne pas avoir négocié une nouvelle licence après s’être emparé de Nuvia. Selon l’entreprise britannique, la licence d’origine n’autorisait pas Qualcomm à exploiter les technologies que Nuvia avait développées jusqu’à l’acquisition. Plus encore de la manière dont il l’a fait : en les réorientant du datacenter vers les terminaux.

Un verdict très favorable à Qualcomm fin 2024…

Appelé à déterminer si Qualcomm avait enfreint les conditions de la licence de Nuvia, le jury avait répondu, en décembre 2024, que non. Il avait par ailleurs considéré que les CPU Qualcomm incluant des éléments issus de l’acquisition de Nuvia relevaient de l’accord de licence signé par Qualcomm et non de celui signé par Nuvia.

Les jurés n’avaient en revanche pas trouvé de consensus Nuvia lui-même avait enfreint les conditions de sa propre licence avec Arm.

Dans ce contexte (deux points en faveur de Qualcomm, un sans réponse), les deux parties avaient déposé un recours. Arm avait demandé un nouveau procès ou un jugement en tant que question de droits sur les trois griefs. Qualcomm avait sollicité un jugement en tant que question de droit sur le grief non tranché par le jury.

… et un jugement final qui l’est encore plus

Le bras de fer s’était notamment orienté sur la question du secret commercial.
Qualcomm prétendait qu’Arm n’avait pas détruit certaines informations confidentielles que Nuvia lui avait confiée dans le cadre de l’accord de licence ici attaqué, ainsi que de celui qui lui permettait d’acquérir des cœurs « sur étagère ».
Arm affirmait qu’une partie des informations invoquées n’avaient pas de caractère confidentiel. Il pointait aussi l’inexistence de preuves quant à l’exploitation des documents effectivement confidentiels ; et l’absence de demande de destruction après la fin du contrat de licence.

Le tribunal a rejeté les requêtes d’Arm. Son jugement final, rendu cette semaine, confirme le verdict de décembre 2024 et élimine l’ultime grief. En conséquence, Arm a fait appel.

Arm aura un temps menacé Qualcomm de lui retirer sa licence architecturale (celle qui lui donne le droit d’utiliser le jeu d’instructions pour concevoir ses propres cœurs de processeur). Il a abandonné cette piste quelques semaines après le verdict.

Illustration générée par IA

The post Qualcomm l’emporte face à Arm, qui fait appel appeared first on Silicon.fr.

Vers une couche anti-ransomware dans l’application Google Drive

2 octobre 2025 à 09:32

Pour détecter les ransomwares, il y aura bientôt… l’application Google Drive.

La fonctionnalité sera déployée en bêta sur la version de bureau (Windows, Mac) à partir de mi-octobre. Elle sera accessible avec les abonnements Google Workspace suivants :

  • Business Standard et Plus (pas le forfait Starter)
  • Entreprise Starter, Standard et Plus
  • Education Standard et Plus (pas le forfait Fundamentals)
  • Frontline Standard et Plus (pas le forfait Starter)

La détection interviendra au moment de la synchronisation de fichiers vers le cloud. Un modèle d’apprentissage automatique distant, entraîné sur des échantillons de ransomwares, recherchera les traces de modifications suspectes. S’il en détecte, il bloquera la synchronisation et alertera à la fois l’utilisateur (e-mail + notification de bureau) et l’admin (e-mail + alerte dans le centre d’administration).

L’ensemble n’empêche donc pas tant les infections que la propagation. Il intervient en second rempart après les antivirus.

Les fonctionnalités admin déjà en cours de déploiement

En complément arrive, également en bêta, une fonctionnalité de restauration massive de fichiers. Elle est disponible sur tous les abonnements Google Workspace – y compris individuels – ainsi que pour les comptes Google personnels.

Avoir la dernière version de l’application Google Drive (actuellement, la v114) est nécessaire pour permettre l’affichage des alertes.

L’ensemble sera activé par défaut et réglable au niveau des unités organisationnelles. Le déploiement des outils dans la console d’admin a démarré le 30 septembre sur les domaines à lancement rapide et à lancement planifié.

alerte centre admin

Illustration principale générée par IA

The post Vers une couche anti-ransomware dans l’application Google Drive appeared first on Silicon.fr.

❌