Vue normale

Reçu aujourd’hui — 14 octobre 2025 Silicon

Anne-Marie Calmeil nommée Présidente de T-Systems France

14 octobre 2025 à 15:57

T-Systems, filiale du groupe Deutsche Telekom et acteur européen des services numériques,  annonce la nomination d’Anne-Marie Calmeil au poste de Présidente de T-Systems France.

Elle succède à Jean-Paul Alibert, qui quittera ses fonctions à la fin du mois.

Un parcours marqué par la transformation numérique

Anne-Marie Calmeil débute sa carrière en 1998 chez IBM, où elle contribue à la croissance des activités dans les secteurs des médias, des télécommunications et des utilities. En 2014, elle rejoint Atos pour diriger le marché des médias, avant de devenir Global Client Executive d’Orange.

En 2020, elle fonde et dirige la filiale française du cabinet de conseil espagnol Everis, devenu NTT DATA, qu’elle développe jusqu’à l’été 2025. Tout au long de son parcours, elle a occupé des fonctions de direction en France et à l’international, pilotant des équipes et des stratégies centrées sur le client dans des environnements de forte transformation.

Diplômée en économie et mathématiques de la Sorbonne, elle a également suivi des programmes d’Executive Education à la London Business School et à HEC Paris.

The post Anne-Marie Calmeil nommée Présidente de T-Systems France appeared first on Silicon.fr.

Digital workplace : le frontline, défi persistant pour les fournisseurs d’intranets

14 octobre 2025 à 14:38

Pour ce qui est des « travailleurs de première ligne » (frontline workers), les fournisseurs d’intranets restent largement en phase d’apprentissage.

D’année en année, Gartner réitère le constat dans le Magic Quadrant qu’il dédie à ce marché. La dernière édition n’y déroge pas.

Autre élément récurrent : l’absence de Microsoft, en dépit de l’influence qu’il a sur ce segment. Et pour cause : Gartner limite toujours son périmètre aux « solutions packagées » (IPS, Intranet Packaged Services), définies comme « prêts à l’emploi ». Par opposition à SharePoint, qui nécessite des composantes externes (de Microsoft ou de tierces parties), en tout cas pour satisfaire aux critères fonctionnels évalués.

Reste que Microsoft est l’éditeur avec lequel tous les fournisseurs d’IPS doivent composer. Certains se greffent sur des locataires Office 365 quand d’autres utilisent SharePoint pour gérer le contenu et/ou mettent en place des intégrations avec des éléments comme Entra ID, Teams et le Microsoft Graph.

Peu de fournisseurs ont des solutions verticales voire déploient un effort marketing et commercial dans ce sens, ajoute Gartner. Ce critère a toutefois eu un poids faible dans l’évaluation.

16 fournisseurs, 7 « leaders »

L’axe « exécution » du Magic Quadrant reflète la capacité à répondre effectivement à la demande. La situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Unily + 1
2 Simpplr – 1
3 LumApps + 3
4 Workvivo by Zoom + 1
5 Omnia nouvel entrant
6 ServiceNow + 5
7 Blink nouvel entrant
8 Staffbase + 1
9 Firstup – 1
10 Interact =
11 Appspace + 2
12 MangoApps – 8
13 Haiilo – 1
14 Akumina – 11
15 Powell – 8
16 Axero – 1

Sur l’axe « vision », censé refléter les stratégies (géographique, sectorielle, commerciale, marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 LumApps + 3
2 Simpplr – 1
3 Unily – 1
4 Workvivo by Zoom + 1
5 Interact + 2
6 MangoApps + 5
7 Akumina + 2
8 Firstup – 2
9 Staffbase – 6
10 Powell + 3
11 Omnia nouvel entrant
12 Haiilo + 2
13 Appspace – 3
14 ServiceNow – 6
15 Axero – 3
16 Blink nouvel entrant

Les fournisseurs classés « leaders » sont les mêmes que dans le précédent Magic Quadrant des IPS :  Firstup, Interact, LumApps, Simpplr, Staffbase, Unily et Workvivo.

Firstup, pas le mieux placé pour la gestion du travail et du contenu

Gartner salue la stratégie marketing de Firstup, capable de cibler un large éventail de profils d’acheteurs. Il apprécie aussi la gestion du premier contact et de l’onboarding. Bons points également pour l’expérience client (gestion de compte, collecte de feedback, promotion des communautés) et la viabilité de l’entreprise (santé financière, base de clientèle, engagement R&D).

Firstup n’est pas le mieux placé pour répondre aux exigences qui vont au-delà de la communication multicanale et du frontline, pour toucher par exemple à la recherche d’entreprise, à l’IA et à la gestion de contenu. Il ne propose, par ailleurs, pas de capacités « traditionnelles » de gestion du travail (assignation de tâches, automatisation de workflows…). Gartner note aussi l’absence de solutions verticales et le défi de passage à l’échelle – ventes, marketing, support, développements personnalisés – pour Firstup, qui n’est pas un pure player.

Idéation, newsletters, affichage dynamique… Des briques moins matures chez Interact

Interact a aussi droit à un bon point sur son marketing, tant pour la stratégie que pour l’exécution. Il se distingue également par sa compréhension des profils d’acheteurs ; et, en conséquence, par sa capacité à contextualiser ses offres. Gartner apprécie de surcroît son niveau de présence au sein des organisations de moins de 25 000 employés et l’extensibilité de sa solution. Ainsi que la prise en charge du frontline, entre autres par des intégrations avec des systèmes de gestion du travail.

Certaines briques d’Interact sont moins matures que son cœur fonctionnel. Par exemple, l’idéation, les newsletters et l’affichage dynamique. Attention également au modèle largement direct, qui limite les ressources dans certaines régions géographiques (Asie-Pacifique et Amérique latine, notamment). On prendra par ailleurs garde d’avoir les ressources nécessaires si on apporte ses propres modèles sur le back-end IA.

Mise en place et gestion complexes pour LumApps

Gartner salue l’exhaustivité de l’offre de LumApps et son adaptabilité à beaucoup de cas d’usage. Il apprécie aussi son extensibilité (orchestration et automatisation de workflows, développement de mini-apps) et les fonctionnalités IA qui lui ont été greffées, tant pour les admins que les gestionnaires de contenus et les utilisateurs finaux.

La mise en place et la gestion peuvent s’avérer complexes, même avec l’assistance par GenAI. LumApps manque par ailleurs de notoriété dans certaines régions et en dehors de son cœur de marché. La clientèle étant essentiellement composée d’organisations de moins de 10 000 employés, les plus grandes auront sont d’étudier si le support leur conviendra.

Chez Simpplr, un manque de cohésion entre communication et gestion de contenu

Simpplr se distingue par ses efforts sur l’orchestration. Ainsi que sur l’IA, gouvernance comprise (utilisation de NVIDIA NeMo Guardrails et de Langfuse). Gartner apprécie aussi la qualité des interactions client (marketing, vente, partenaires) et l’efficacité de la solution en matière de gestion du travail.

Présent surtout en Amérique du Nord, Simpplr a une distribution géographique moins équilibrée que ses concurrents. Gartner ajoute que la partie communication multicanale manque de cohésion vis-à-vis de la gestion de contenu, qui n’est plus globalement par le fort de Simpplr. Le cabinet américain note aussi un focus R&D parfois au détriment des ventes et du marketing.

IA, orchestration et extensibilité, des faiblesses de Staffbase

Staffbase a pour lui son niveau de compréhension du marché, porté par son expérience sur la partie communication entre employés. Son intégration de longue date avec Microsoft lui permet de bien couvrir à la fois employés de bureau et frontline. L’empreinte géographique (distribution du revenu, réseau de partenaires, versions localisées) est un autre point fort. Comme la santé financière de l’entreprise et ses investissements en R&D.

Staffbase peut être perçu comme globalement immature sur l’IA pour qui cherche des capacités avancées de gestion du travail, de service aux employés et d’optimisation data-driven. Gartner relève aussi des faiblesses dans l’orchestration et l’extensibilité. Ainsi que les défis qu’est susceptible de poser le focus de Staffbase sur l’aspect communication.

Tarification peu transparente chez Unily

Bon point marketing également pour Unily, onboarding compris. Gartner apprécie aussi le réseau de partenaires et d’intégrations, la capacité de collecte de feedback et la disponibilité de solutions sectorielles.

Unily a une présence limitée dans les entreprises de moins de 10 000 salariés – certaines ressentent qu’elles ne sont pas une priorité. Gartner relève aussi le manque de transparence de sa tarification, les limites sur les fonctionnalités IA (analyse de recherche, simulation d’audience, UI adaptatives) et le support (temps de réponse et d’escalade).

Workvivo pousse le social/communautaire au détriment d’autres use cases

En plus de pouvoir s’appuyer sur les ressources et la notoriété de Zoom, Workvivo opère un positionnement markting efficace. Gartner apprécie ses programmes d’accompagnement client et l’accent mis sur le développement de communautés internes.

En matière de gestion du travail et d’extensibilité, il y a mieux, explique le cabinet américain. Workvivo est globalement jugé trop agressif sur le sujet social/communautaire au détriment d’autres cas d’usage. Vigilance aussi pour qui veut standardiser sur Teams : l’expérience front-end est brandée Workvivo, mais le back-end est branché sur Zoom.

Illustration générée par IA

The post Digital workplace : le frontline, défi persistant pour les fournisseurs d’intranets appeared first on Silicon.fr.

De Glacier à CodeCatalyst, AWS range nombre de services au placard

14 octobre 2025 à 10:34

AWS orchestre un grand ménage dans ses services de modernisation.

Migration Hub et Application Discovery Service sont passés en mode maintenance. Pour le moment jusqu’au 7 novembre 2025, date à partir de laquelle ils n’accepteront plus de nouveaux clients*. Il en sera de même à cette échéance pour les outils de modernisation .NET**. Tandis que Mainframe Modernization Service n’existera plus qu’en version autogérée.

Le palliatif désigné, lancé il y a quelques mois sous la bannière de l’IA agentique, s’appelle AWS Transform.

Quantité d’autres services passeront en mode maintenance à partir du 7 novembre 2025. En voici quelques-uns.

Amazon Cloud Directory

Magasin de données hiérarchisées, alternatif aux annuaires LDAP) en fait partie. Les écritures seront bloquées dans un deuxième temps (passé le 22 avril 2026). Puis le service fermera le 30 septembre 2026 et le contenu sera supprimé en parallèle. AWS n’y a plus ajouté de fonctionnalités depuis 2018 et le lancement d’Amazon Neptune, base de données orientée graphe vers laquelle il recommande aujourd’hui de migrer.

Amazon CodeCatalyst

À partir du 7 novembre, il ne sera alors plus possible, pour les utilisateurs existants, de créer de nouveaux espaces. AWS recommande de migrer vers l’offre GitLab Duo with Amazon Q. Ou alors vers CodeBuild (compilation et test de code), CodePipeline (orchestration CI/CD), CodeDeploy (déploiement d’applications) et Code Artifact (gestion de packages).

Amazon CodeGuru Reviewer

Service d’analyse de code Java et Python sur Bitbucket, CodeCommit, GitHub et S3). À partir du 7 novembre 2025, il ne sera plus possible de créer de nouvelles associations de dépôts. Options de migration recommandées : Amazon Q Developer et Amazon Inspector, qui couvrent l’un et l’autre GitHub et GitLab.

Amazon S3 Object Lambda

Ce service permet l’ajout de code aux requêtes S3 GET, HEAD et LIST pour modifier des données. Il n’acceptera plus de nouveaux utilisateurs à la même date. AWS recommande d’invoquer Lambda par d’autres moyens (via CloudFront, API Gateway ou les URL de fonctions) ou de traiter les données dans les applications clientes.

Amazon Glacier

Le passage en maintenance d’Amazon Glacier interviendra un peu plus tard. Le 15 décembre 2025 en l’occurrence. On parle là du service d’origine, autonome, basé sur un coffre-fort avec API REST. Les données stockées jusque-là resteront accessibles indéfiniment, assure AWS, qui recommande de faire la transition vers les classes de stockage Glacier dans S3. Lesquelles ont l’avantage d’une disponibilité plus large sur son cloud, d’une intégration avec ses autres services, d’un coût inférieur et d’une API niveau bucket.

AWS IoT SiteWise Monitor et Data Procesing Pack

Deux composantes de l’offre AWS IoT SiteWise passeront également en mode maintenance le 7 novembre 2025. D’une part, le Data Processing Pack  (transformation, stockage et visualisation de données). De l’autre, Monitor (création de portails web pour visualiser et partager des données au sein d’une organisation). Pour remplacer le premier, AWS recommande soit l’open source (Node-RED pour la transformation, InfluxDB pour le stockage de séries chronologiques, Grafana pour la visualisation), soit des solutions de partenaires (CloudRail, EasyEdge, Litmus Edge). Au second, il conseille de substituer le plug-in Amazon Managed Grafana (en sachant qu’il n’y a pas de contrôle d’accès niveau asset ni d’intégration avec AWS IoT SiteWise Assistant) ou bien Grafana Cloud ou autohébergé.

AWS Snowball Edge

Appliances de transfert de données. L’offre n’acceptera plus non plus de nouveaux clients à compter du 7 novembre 2025. Successeurs recommandés : DataSync pour les transfert sur lien réseau et Data Transfer Terminal pour les transferts physiques (Seagate et Tsecond soit également cités). Pour remplacer l’appliance optimisée compute, il y a éventuellement l’offre AWS Outposts.

Amazon Fraud Detector

Détection de fraude à base de machine learning. En guise de remplacement, AWS avance son WAF (pare-feu pour applications web), son service SageMaker (MLOps)… et une bibliothèque open source dont il est à l’origine : AutoGluon (AutoML à partir d’images, de texte, de séries chronologiques et de données tabulaires).

Accès web à Amazon WorkSpaces sur PCoIP

AWS recommande d’installer, si possible, les clients Amazon WorkSpaces. Sinon, de migrer vers le protocole DCV. Qui a, entre autres avantages :

  • Meilleures performances
  • Fonctionnalités supplémentaires (SAML et authentification par certificats, notamment)
  • Disponibilité étendue (pas d’accès web sur PCoIP dans certaines régions AWS, dont Paris)
  • Gestion des bureaux Linux en plus de Windows
  • Fonctionnement dans Edge et Safari en plus de Chrome et Firefox
  • Gestion des écrans multiples et des GPU côté hôte

* Sur Migration Hub comme sur Application Discovery Service et Mainframe Modernization Service, les projets en cours pourront être menés à leur terme.

** Cela comprend Porting Assistant for .NET, AWS App2Container, AWS Toolkit for .NET Refactoring et AWS Microservice Extractor for .NET.

Illustration © Annika – Adobe Stock

The post De Glacier à CodeCatalyst, AWS range nombre de services au placard appeared first on Silicon.fr.

Reçu hier — 13 octobre 2025 Silicon

Gestion des API : le sourcing multiple est devenu standard

13 octobre 2025 à 15:55

Pour la gestion des API, la tendance est à l’approvisionnement auprès de plusieurs fournisseurs.

Gartner avait fait la remarque l’an dernier dans le Magic Quadrant consacré à ce marché. Il va plus loin cette année : le sourcing multiple est devenu standard… en contrepartie d’un risque de fragmentation que peuvent toutefois atténuer les architectures fédérées.

Un autre mouvement s’est confirmé : une part croissante des utilisateurs de solutions de gestion des API sont des développeurs. Les stratégies marketing ont évolué en conséquence. Mais des offreurs gardent un déficit de visibilité auprès de ce public. Y compris quelques-uns de ceux que Gartner classe comme « leaders ». En l’occurrence, Axway, Boomi et, dans une certaine mesure, IBM.

17 fournisseurs, 7 « leaders »

En 2024, Boomi faisait partie des « acteurs de niche ». En un an, il a nettement progressé, tant en « exécution » (capacité à répondre effectivement à la demande du marché) qu’en « vision » (stratégies : sectorielle, géographique, commerciale, marketing, produit…). Axway et IBM étaient quant à eux déjà « leaders ». Même chose pour Google Cloud, Gravitee, Kong et Salesforce. On ne peut pas en dire autant de SmartBear, qui a rétrogradé chez les « visionnaires ».

Sur l’axe « exécution », la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Google =
2 IBM =
3 Salesforce + 2
4 Kong + 5
5 Boomi + 8
6 Axway – 3
7 Gravitee + 3
8 WSO2 + 6
9 Microsoft – 5
10 SAP – 3
11 AWS – 5
12 Sensedia + 5
13 SmartBear – 2
14 Tyk – 6
15 Workato nouvel entrant
16 Postman – 1
17 Solo.io – 1

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Kong =
2 Boomi + 12
3 Gravitee + 3
4 Salesforce + 3
5 IBM – 1
6 Google – 4
7 Tyk + 4
8 Postman – 5
9 Axway – 4
10 SmartBear – 2
11 Microsoft + 1
12 Workato nouvel entrant
13 SAP =
14 WSO2 – 5
15 Sensedia =
16 Solo.io – 6
17 AWS =

Axway : avec le chantier iPaaS, moins d’agilité sur l’IA

Comme l’an dernier, Axway se distingue sur la gestion fédérée des API. Gartner salue de plus le lancement récent d’une brique iPaaS. Il apprécie aussi la manière dont les partenariats (Stoplight, Ping, Graylog, Traceable…) viennent renforcer le modèle économique, au même titre que les acquisitions (en particulier celle de Sopra Banking Software, dont la fusion avec Axway a donné 74Software). Bon point également pour la capacité d’internationalisation, entre documentation multilingue et UI localisées.

Également comme l’an dernier, la notoriété auprès des développeurs reste limitée. Axway est par ailleurs plus lent que la concurrence pour livrer des fonctionnalités IA « avancées » (le focus sur l’iPaaS l’explique en partie, comme la restructuration de sa stack autour de la notion d’événements). Gartner relève, en parallèle, une croissance des ventes bien inférieure à la moyenne du marché.

Boomi manque d’accroche auprès des développeurs

L’année écoulée aura marqué un tournant dans la vision de la gestion des API chez Boomi, de sorte que ce dernier dépend désormais moins du seul iPaaS pour se différencier.  L’acquisition d’APIIDA et de TIBCO Mashery a accompagné la refonte de l’offre, assortie d’une feuille de route que Gartner salue. Dans le même temps, la présence commerciale de Boomi s’est étendue, tant du point de vue géographique qu’au travers du renforcement de partenariats (ServiceNow et AWS en particulier).

Sur la gestion des API, Boomi reste, relativement aux autres « leaders », un petit acteur en termes de revenus et de part de marché. Il n’a pas non plus la même empreinte auprès des développeurs (son marketing reste perçu comme axé sur les métiers et les décideurs IT). Vigilance également quant à l’intégration avec les passerelles tierces : elle peut s’avérer complexe.

Apigee « généreusement » poussé comme complément à GCP

Google Cloud se distingue sur le volet innovation, entre autres parce qu’il a greffé à Apigee de quoi favoriser la conception d’API par des agents (avec prise en charge des protocoles A2A et MCP). Gartner apprécie aussi les possibilités offerts en matière de monétisation du trafic IA et de détection des usages abusifs. Il y ajoute la stabilité du produit et sa capacité à remplir les cas d’usage les plus complexes… sous réserve de disposer de l’expertise adéquate.

Google Cloud continue néanmoins à positionner ses produits comme des compléments à GCP plutôt que comme des solutions autonomes. Des clients signalent, de surcroît, qu’on les incite à migrer. Le produit en lui-même est relativement complexe à exploiter. Et malgré des changements positifs sur la tarification, des clients de longue date expriment leur inquiétude quant au rapport coût/bénéfices.

Gravitee n’a toujours pas sectorialisé son offre

Outre un déploiement flexible, Gravitee a pour lui l’indépendance vis-à-vis de tout cloud, progiciel ou iPaaS. Gartner souligne qu’il a su rapidement proposer une passerelle IA gérant le protocole MCP (et destinée à s’ouvrir aux maillages agentiques). Bon point également pour la performance commerciale (CA déclaré en croissance de 70 % sur un an), doublée d’une tarification simple.

Par rapport aux autres « leaders », Gravitee manque de notoriété. Il n’a toujours pas « verticalisé » son approche. Et sa clientèle reste largement concentrée en Europe (les acheteurs sur d’autres plaques géographiques se poseront la question du service et du support).

IBM, peu pris en considération hors de son écosystème

IBM est crédité d’un bon point pour la couverture fonctionnelle de son offre. Il l’est aussi pour la flexibilité de déploiement et la livraison de fonctionnalités axées IA (gestion des prompts, routage LLM). Gartner salue également la diversité de sa clientèle (tailles, régions, secteurs) ainsi que de son réseau commercial et de support.

L’acquisition de webMethods a produit un doublon au catalogue (voire plus si on considère que Red Hat a sa propre offre de gestion d’API), qui demeure en l’état même si IBM a promis une convergence. Big Blue a par ailleurs tendance à toucher essentiellement les organisations qui sont ses clients sur d’autres segments (il est peu évalué sinon). Et sur l’année écoulée, ses ventes ont connu une croissance sous la moyenne du marché.

Kong : une tarification qui peut prêter à confusion

Kong se distingue par les fonctionnalités AI-driven qu’il a livrées dernièrement (génération d’API, de spécifications et de serveurs MCP). Il parvient par ailleurs à conserver une forte visibilité, à renfort d’événements, de partenariats et de présence sur les principales marketplaces. Gartner salue aussi le lancement des Serverless Gateways (passerelles « légères » sans serveur) et de l’Event Gateway (qui permet de gérer des flux Kafka), intégrée avec son maillage de services.

Comme chez Gravitee, pas de solutions sectorielles au catalogue. Attention aussi à la courbe d’apprentissage que supposent les solutions Kong, en plus de la confusion que peuvent susciter la tarification basée sur les services et les frais supplémentaires pour des éléments comme les portails, les tests et l’analytics. Gartner y ajoute une présence limitée en Amérique du Sud, au Moyen-Orient et en Afrique comparé aux autres « leaders ».

Salesforce reste un des fournisseurs les plus chers

En complément à la présence commerciale et au réseau de partenaires, Gartner note que Salesforce a réussi à s’étendre sur le segment SMB (small and medium business, entreprises de moins de 1000 employés), qui représente 30 % du business de MuleSoft. L’intégration avec le reste de son offre a contribué à attirer une grosse base de clientèle. Salesforce jouit globalement d’une grande notoriété de marque, y compris auprès des développeurs.

En plus de rester l’un des fournisseurs les plus chers, MuleSoft présente une structure de prix complexe susceptible d’entraîner des coûts imprévus. Il est par ailleurs perçu comme plus réactif qu’innovant, en particulier pour ce qui touche à l’IA. Et les capacités restent limitées sur la monétisation comme le test d’API, ainsi que la fédération de passerelles.

Illustration © Murrstock – Adobe Stock

The post Gestion des API : le sourcing multiple est devenu standard appeared first on Silicon.fr.

Alliance OpenAI-Broadcom : c’est signé

13 octobre 2025 à 15:25

OpenAI a officialisé un partenariat stratégique avec Broadcom pour concevoir et produire ses propres processeurs d’intelligence artificielle. L’information avait été révélé par la presse en septembre.

Selon le communiqué commun, OpenAI concevra ses propres accélérateurs IA, tandis que Broadcom assurera le développement, la production et l’intégration des systèmes matériels. Les deux entreprises co-développeront des « racks » complets combinant les puces OpenAI et les solutions réseau, optiques et PCIe de Broadcom.

Le déploiement commencera au second semestre 2026, pour une mise en service progressive jusqu’à fin 2029. L’objectif est d’atteindre une capacité totale de 10 gigawatts d’accélérateurs, soit une puissance comparable à la consommation électrique de plus de 8 millions de foyers américains.

La course aux infrastructures IA

OpenAI indique vouloir intégrer dans ces puces « les enseignements tirés du développement de ses modèles », afin d’optimiser les performances et l’efficacité énergétique de ses futurs systèmes. Cette approche illustre la volonté de l’entreprise de maîtriser l’ensemble de la chaîne technologique, du modèle logiciel jusqu’à l’infrastructure matérielle.

Avec Broadcom, OpenAI franchit une nouvelle étape en internalisant la conception de puces, rejoignant ainsi les géants du cloud tels que Google (Alphabet), Amazon ou Microsoft, qui ont développé leurs propres architectures (TPU, Graviton, Maia, etc.).

Cependant, cette stratégie reste incertaine. Plusieurs entreprises — dont Meta ou Microsoft — ont rencontré des difficultés techniques ou des retards dans la mise au point de leurs puces, sans parvenir à égaler les performances des GPU Nvidia. Les analystes estiment que la domination de Nvidia sur le marché de l’IA ne devrait pas être remise en cause à court terme.

Le communiqué précise que les systèmes développés pour OpenAI s’appuieront exclusivement sur les technologies réseau Ethernet de Broadcom, une alternative à la solution InfiniBand de Nvidia.  En septembre, Broadcom avait déjà révélé une commande de 10 milliards de dollars pour des puces IA destinées à un client anonyme, que plusieurs analystes soupçonnaient être OpenAI.

Une opération sans détails financiers

Ni OpenAI ni Broadcom n’ont divulgué le montant de l’investissement ni les modalités de financement. Le projet représente toutefois une montée en échelle considérable, impliquant la construction ou la modernisation de vastes infrastructures de calcul et de stockage d’énergie.

L’alliance permet à l’inventeur de ChatGPT de sécuriser sa puissance de calcul face à la pénurie mondiale de GPU, tout en optimisant les coûts par requête grâce à une intégration directe entre matériel et logiciel.

Si le succès du projet dépendra de la capacité des deux partenaires à livrer à temps des systèmes compétitifs et fiables, il confirme la tendance de fond : l’intelligence artificielle de prochaine génération reposera autant sur les avancées logicielles que sur la maîtrise de la puissance matérielle.

Avant Broadcom, OpenAI a conclu une série d’accords majeurs ces derniers mois, incluant un deal avec AMD pour la fourniture de 6 GW de capacités IA accompagné d’une option d’investissement dans le capital du fabricant, ainsi qu’un engagement de Nvidia, annoncé début octobre, d’investir jusqu’à 100 milliards $ et de fournir des systèmes de centres de données d’une puissance équivalente à 10 GW.

The post Alliance OpenAI-Broadcom : c’est signé appeared first on Silicon.fr.

Infrastructure de données : Fivetran et dbt Labs fusionnent

13 octobre 2025 à 14:59

Fivetran et dbt Labs annoncent leur fusion dans le cadre d’un échange d’actions, formant une entreprise générant près de 600 millions $ de chiffre d’affaires annuel.

L’opération, dont les modalités financières reposent sur un ratio convenu en fonction des revenus et des taux de croissance, aboutira à la création d’un groupe valorisé au-dessus des dernières estimations privées des deux sociétés américaines, a déclaré George Fraser, directeur général de Fivetran à Reuters. La valorisation finale sera déterminée par le marché.

Fivetran, basée à Oakland (Californie), avait été valorisée 5,6 milliards $ lors d’un tour de table en septembre 2021. Dbt Labs, implantée à Philadelphie (Pennsylvanie) , avait atteint une valorisation de 4,2 milliards $ lors de sa levée de fonds de série D en février 2022. Les deux entreprises comptent plusieurs investisseurs communs, dont le fonds Andreessen Horowitz.

George Fraser prendra la direction générale de l’entité fusionnée, tandis que Tristan Handy, directeur général de dbt Labs, deviendra président. Le conseil d’administration sera composé de représentants des deux entreprises.

Plus de 80 % de clients en commun

Fivetran fournit des solutions d’automatisation du transfert de données vers des entrepôts centralisés, tandis que dbt Labs est à l’origine de dbt, un outil open source permettant de transformer et de préparer les données pour l’analyse. Selon Fraser, environ 80 % à 90 % des clients de Fivetran utilisent déjà les outils de dbt.

Le logiciel open source dbt Core restera accessible sous sa licence actuelle. L’objectif du nouveau groupe est de proposer une plateforme plus complète couvrant l’ensemble des besoins de gestion et de transformation des données des entreprises.

La société combinée, proche de l’équilibre en flux de trésorerie, estime que sa taille accrue et la complémentarité de ses offres renforceront sa position en vue d’une éventuelle introduction en Bourse, bien qu’aucun projet immédiat ne soit prévu.

La finalisation de la fusion est attendue d’ici un an.

The post Infrastructure de données : Fivetran et dbt Labs fusionnent appeared first on Silicon.fr.

Le CSIRT Bourgogne-Franche-Comté confirmé dans son rôle d’expert cyber

13 octobre 2025 à 14:24

Le Centre régional d’alerte et de réaction aux attaques informatiques Bourgogne-Franche-Comté (CSIRT-BFC), opéré par l’ARNia (Agence Régionale du Numérique et de l’intelligence artificielle) a été retenu dans le cadre de l’Appel à Manifestation d’Intérêt RALEC (Renforcement de l’Accompagnement Local aux enjeux de Cybersécurité) lancé par l’ANSSI en août dernier.

Ce renouvellement s’accompagne d’un financement de 400 000 € accordé par l’État, destiné à renforcer les moyens humains et techniques du CSIRT-BFC, à développer la prévention et à consolider un service public régional de cybersécurité accessible à tous.

Un service public régional dédié à la cybersécurité

Créé en 2022, le CSIRT-BFC apporte une assistance gratuite aux structures publiques et privées de la région — collectivités, établissements publics, associations, PME, ETI et TPE.
Il intervient en complément des dispositifs nationaux comme CERT-FR ou Cybermalveillance.gouv.fr, en proposant un appui direct face aux incidents, une veille permanente et des services de remédiation.

Depuis son lancement, le CSIRT-BFC a accompagné plus de 4 600 entités en Bourgogne-Franche-Comté. En 2024, il a supervisé 2 200 structures en continu, avec près de 2 millions de scans réalisés. Parmi les incidents signalés, 11 % ont eu un impact direct sur l’activité des organisations.

Les bénéficiaires se répartissent principalement entre collectivités ( 47 %), établissements publics (18 %) et PME (13 %°

Les principales menaces identifiées concernent le phishing, les fraudes bancaires, les ransomwares et les faux sites marchands. En parallèle, 37 actions de sensibilisation ont été organisées en 2024.

Intégration au réseau national InterCERT France

Depuis 2024, le CSIRT-BFC est le premier CSIRT régional à rejoindre le réseau InterCERT France, qui fédère les CERT et CSIRT français. Cette intégration renforce la coopération nationale pour la détection et la réponse aux incidents de cybersécurité.

Le renouvellement du CSIRT-BFC s’appuie sur un partenariat étendu avec
la Région Bourgogne-Franche-Comté, l’ARNia, les pôles de compétitivité, la French Tech Bourgogne-Franche-Comté, l’Agence Économique Régionale, les syndicats patronaux (MEDEF BFC, CPME), les universités régionales, ainsi que Dijon Métropole et Besançon Métropole.

Pour les deux prochaines années, le CSIRT-BFC prévoit de renforcer l’accompagnement des petites structures du territoire, de structurer un Campus Cyber Territorial afin de fédérer l’écosystème et d’encourager l’innovation, de déployer de nouveaux services de détection et de supervision, et de multiplier les actions de sensibilisation auprès des acteurs publics et économiques.

The post Le CSIRT Bourgogne-Franche-Comté confirmé dans son rôle d’expert cyber appeared first on Silicon.fr.

Où en est SAP Joule dans son tournant agentique ?

13 octobre 2025 à 12:02

Il va falloir s’y habituer : les « agents Joule » se multiplient au catalogue de SAP.

L’éditeur allemand vient d’en annoncer 14 supplémentaires. Ils seront intégrés d’ici à mi-2026 dans certains de ses logiciels.

Quatre de ces agents visent les métiers de la finance :

  • Accounting Accruals (tenue du journal comptable)
  • Cash Management (gestion de trésorerie)
  • International Trade Classification (conformité aux règles du commerce international)
  • Receipts Analysis (traitement des notes de frais)

Trois sont dans le domaine de la supply chain :

  • Change Record Management (gestion du changement)
  • Product Planning and Operations (planification de la production et gestion de l’exploitation)
  • Supplier Onboarding (embarquement des fournisseurs)

Trois également dans les RH :

  • Career and Talent Development (gestion de carrière)
  • HR Service (traitement des demandes des employés)
  • People Intelligence (rétention et gestion des compétences)

Un agent s’adresse aux achats (Bid Analysis ; analyse des offres). Deux touchent à la gestion des processus (Process Content Recommender et Workspace Administration). S’y ajoute un agent sectoriel (Utilities Customer Self-Service, ciblant les fournisseurs d’énergie).

Ces 14 agents en rejoignent 17 autres. Les voici, avec leur stade de développement, les produits concernés et – pour certains – quelques-unes des promesses chiffrées que leur associe SAP.

Finance

Accounts Receivable (gestion des créances)
En bêta, pour S/4HANA Cloud Private Edition.
Recommande des actions selon le profil et l’historique du paiement du client.
Promesses*, entre autres : 75 % de temps en moins pour l’analyse et la réconciliation (de 20 à 5 minutes par dossier) et réduction de 2 % du taux de passage en pertes et profits (de 1 à 0,98 %).

Accounts Receivable

Booking (gestion des réservations)
En accès anticipé, pour Concur Travel.
Recommande vols et hébergement selon le voyageur, les politiques de l’entreprise et les contraintes budgétaires.

Booking

Dispute Resolution (résolution des litiges)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses, entre autres : réduction de 30 % du temps de gestion de litige (de 20 à 14 minutes) et de 5 % du taux de churn associé (de 0,25 à 0,238 %).

Dispute Resolution

Expense Report Validation (validation des rapports de dépenses)
En accès anticipé, pour Concur Expense.
Promesses : réduction de 30 % du temps de préparation et de soumission (de 30 à 21 minutes par rapport) et de 25 % du taux de rejet (de 15 à 11,4 %).

Expense Report Validation

Meeting Location Planner (organisation de réunions hors site)
En accès anticipé, pour Concur Travel.
Promesses : réduction de 10 % des dépenses annuelles par employé concerné (de 3975 à 3488 €) et de 15 % du temps de planification par réunion (de 5 heures à 4 heures 15 minutes).

Meeting Location Planner

Supply chain

Field Service Dispatcher (gestion des ressources)
En bêta, pour SAP Field Service Management.

Field Service Dispatcher

Maintenance Planner (planification de la maintenance)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses : réduction de 40 % du temps nécessaire à la création des backlogs (de 120 à 72 minutes par jour) et de 1 % du taux d’arrêts imprévus (de 92 à 92,1 % d’uptime).

Maintenance Planner

Shop Floor Supervisor (supervision de la production en atelier)
En bêta, pour SAP Digital Manufacturing.
Promesses : réduction de 50 % du temps passé à gérer les perturbations (de 60 à 30 minutes par jour) et de 2 % du taux d’arrêts non planifiés (de 92 à 93,8 % d’uptime).

Shop Floor Supervisor

CX

Case Classification (tri de cas)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de SAP CX AI Toolkit.

Case Classification

Catalog Optimization (optimisation de catalogue)
En bêta, pour Commerce Cloud et dans le cadre de CX AI Toolkit.

Catalog Optimization

Digital Service (réponse aux questions des équipes de vente et de service client)
En accès anticipé, dans le cadre de CX AI Toolkit.

Digital Service

Knowledge Creation (création de bases de connaissances à partir de tickets résolus)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.

Q&A (réponse aux questions des clients)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.

Q&A

Quote Creation (création de devis)
Disponible pour Sales Cloud et dans le cadre de CX AI Toolkit.
Automatise la création de devis à partir d’une boîte mail Office 365 partagée.

Quote Creation

Shopping (accompagnement du parcours client)
Disponible pour Commerce Cloud et CX AI Toolkit.
Promesses, entre autres : hausse de 10 % du taux de conversion (de 3 à 3,3 %) et du panier moyen (de 309 à 340 €).

Shopping

Les agents CX actuellement commercialisés ne peuvent être achetés qu’à travers le package Joule Premium for Customer Experience. Lequel inclut, outre les agents, une vingtaine de fonctionnalités « étiquetées IA » (détection de comptes en double, création de descriptions de produits, aide à la génération de leads…).

tarif Joule Premium for CX

Un agent est dédié aux RH (Performance and Goals, censé aider à préparer les entretiens d’évaluation). Un autre aux achats (Sourcing, illustré ci-dessous, qui automatise les RPF ; il est en bêta, pour Ariba Sourcing).

Sourcing

* SAP dit baser ses estimations sur « des cas clients, des benchmarks et d’autres recherches ».

Illustrations © SAP

The post Où en est SAP Joule dans son tournant agentique ? appeared first on Silicon.fr.

Knative, la couche serverless pour Kubernetes, arrive à maturité

13 octobre 2025 à 08:18

Knative est désormais officiellement prêt pour un usage en production.

La CNCF (Cloud Native Computing Foundation) le considère en tout cas. Elle vient de promouvoir le projet au plus haut stade de maturité dans sa nomenclature (graduated).

À l’origine de ce framework serverless pour Kubernetes, il y a Google, qui avait ouvert le projet à la communauté à l’été 2018. L’entrée à la CNCF – au stade « incubation » – était intervenue en mars 2022, quelques mois après le passage en version 1.0. VMware, IBM et Red Hat en étaient alors les principaux contributeurs. Le premier était majoritaire au comité de supervision technique. Les deux autres y étaient également présents, en plus d’avoir chacun un siège dans l’instance supérieure : le comité de pilotage.

Red Hat et VMware en têtes de pont

En 2024, le comité de supervision technique a été fusionné dans le comité de pilotage. Deux employés de Red Hat y siègent, aux côtés de représentants CoreWeave et de Stacklok, ainsi que d’un ancien de Pivotal-VMware-Broadcom qui commercialisa Knative dans le cadre de la plate-forme Tanzu.

Le projet se divise actuellement en 7 groupes de travail :

  • Functions (géré par des employés de Red Hat et VMware)
  • Serving (géré par l’ancien de Pivotal-VMware-Broadcom)
  • Eventing (Red Hat)
  • UX (universités OCAD et de Toronto)
  • Exploitation (Bloomberg)
  • Productivité* (Cisco et Red Hat)
  • Sécurité (IBM et VMware)

Bloomberg est d’autant plus impliqué qu’il fait partie des organisations utilisatrices de Knative. Comme, entre autres, Alibaba Cloud, Blue Origin, Box, Gojek, ManoMano, Scaleway et Tata Communications.

Un positionnement sur l’IA, y compris agentique

Les intergiciels Serving, Eventing et Functions constituent le cœur fonctionnel du projet.

Serving fournit de quoi déployer et gérer des services HTTP stateless sans serveur.
Eventing apporte un ensemble d’API permettant la mise en œuvre d’une architecture orientée événements. Elle s’appuie sur les spécifications CloudEvents.
Functions utilise Serving et Eventing pour aider au déploiement de fonctions sous forme d’images OCI.

schéma Knative

Serving et Eventing partagent des sous-projets Client et Operator. Le premier porte un outil en ligne de commande destiné à créer des ressources Knative sans avoir à modifier des fichiers YAML. Le second aide à installer les deux briques sur des clusters Kubernetes.

Ces derniers temps, la communication publique du projet s’est nettement orientée sur les LLM. Notamment autour de KServe, un serveur de modèles basé sur Knative Serving. Mais aussi à renfort de plusieurs cas d’usage. Poussés en particulier par Red Hat (inférence avec Llama Stack, IA agentique pour le traitement de conversations client…) et par IBM (pour l’entraînement de modèles dans le cadre du service watsonx Assistant).

* « Santé » du projet : tests, infrastructure, CI/CD, etc.

The post Knative, la couche serverless pour Kubernetes, arrive à maturité appeared first on Silicon.fr.

Reçu avant avant-hier Silicon

UCaaS : l’IA, plus prégnante dans l’offre que dans la demande

10 octobre 2025 à 16:19

Pour 8×8, pas de 13e année consécutive parmi les « leaders » de l’UCaaS. En tout cas dans le cadre du Magic Quadrant.

On avait pu sentir le vent tourner l’an dernier. Gartner avait pointé l’incapacité croissante de l’entreprise américaine à différencier ses produits dans le paysage concurrentiel.
Il souligne cette fois-ci sa perte de visibilité, entre autres du fait que son offre est guidée par l’aspect téléphonie plutôt que collaboration.

Conséquence : voilà 8×8 rétrogradé chez les « visionnaires ».
Les quatre autres « leaders » de 2024 le restent (ils le sont d’ailleurs depuis 2020). Dans l’ordre alphabétique, Cisco, Microsoft, RingCentral et Zoom.

11 fournisseurs, 4 « leaders »

D’une année sur l’autre, le même périmètre a été pris en compte. En l’occurrence, la collaboration interne, le télétravail et les présentations externes. Les webinaires ainsi que le support et la formation à distance n’étaient pas obligatoires (Gartner les classe dans un autre segment : les « solutions de réunion »).

Les offreurs ont été jugés sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

Sur l’axe « exécution », la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Microsoft =
2 Cisco =
3 Zoom + 1
4 RingCentral – 1
5 8×8 =
6 Google =
7 GoTo =
8 Vonage =
9 Dialpad =
10 Wildix + 1
11 Sangoma – 1

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Microsoft =
2 Cisco =
3 Zoom =
4 RingCentral =
5 8×8 =
6 Dialpad =
7 GoTo + 1
8 Vonage – 1
9 Google =
10 Wildix =
11 Sangoma =

Sur ce marché de commodités, la tendance est au développement de la brique centre de contact, en particulier pour les besoins internes.

Un autre levier de différenciation est l’IA. Y compris agentique, en premier lieu pour l’administration et la maintenance. L’offre apparaît toutefois en avance sur la demande : le critère IA n’est pas encore fondamental dans les décisions d’achat, sauf pour des scénarios spécifiques impliquant des métiers en contact avec la clientèle.

De la mise en place à l’exploitation, Cisco Webex demande des efforts

L’an dernier, Cisco avait eu droit à un bon point pour ses investissements transversaux en IA. Gartner avait aussi souligné la profondeur de son catalogue (incluant réseau, sécurité et terminaux). Ainsi que la dernière génération de ses appareils.

Cette année encore, les investissements dans l’IA sont salués. Il en va de même pour le catalogue, au sens où Cisco est un des rares fournisseurs classés au Magic Quadrant à associer UCaaS, CCaaS (centre de contact) et CPaaS (intégration des communications dans les applications métier), en plus du matériel. Gartner apprécie aussi sa stratégie sectorielle, mise en œuvre à l’appui de certifications et de standards spécifiques.

En 2024, Gartner avait noté l’inconsistance du support, largement indirect. Il avait aussi signalé la complexité de Webex aux yeux du mid-market (organisations de 100 à 999 employés) et la tendance de beaucoup d’acheteurs à ne sourcer que la partie téléphonie chez Cisco.

Cette dernière remarque vaut toujours. Idem pour la complexité de Webex : le paramétrage initial et la gestion ultérieure exigent davantage de temps et d’efforts que chez les concurrents. Quant à la tarification, elle peut s’avérer plus compliquée à comprendre et à négocier pour le mid-market.

Microsoft peut s’améliorer sur l’administration graphique

L’an dernier, Microsoft avait eu des bons points pour ses SLA, la flexibilité des options PSTN et les innovations en matière d’IA sous la bannière Copilot in Teams.

Cette année encore, Gartner salue un socle IA robuste quoique actuellement focalisé sur la partie réunions. Microsoft se différencie aussi par sa capacité de couverture géographique des besoins téléphonique, grâce à l’étendue de ses ressources de support et de ses partenariats telcos. Il a également l’avantage d’un TCO « relativement faible », d’une facilité d’usage et d’une intégration étroite avec les principales solutions UCaaS.

En 2024, Gartner avait pointé l’accumulation d’options de connectivité RTC, rendant le choix difficile. Il avait aussi relevé des manques en matière de téléphonie avancée (SMS, intégration CRM, enregistrement avancé d’appels) et une incapacité à couvrir complètement la plupart des besoins sur la partie call center.

Cette fois, le cabinet américain insiste sur la nécessité d’améliorer les capacités d’administration et de gestion des terminaux via le GUI. Il regrette aussi que la brique Dynamics 365 Contact Center, lancée l’an dernier, ne soit pas fournie en natif avec Teams. Et fait remarquer que les fonctionnalités de collaboration ont tendance à concurrencer la téléphonie.

Chez RingCentral, des hausses de prix au renouvellement

L’an dernier, RingCentral avait été salué pour son centre de contact natif RingCX, complété de surcroît pas l’offre NiCE pour les besoins plus avancés. Autre bon point : le niveau d’intégration de l’IA (traduction, suggestion d’actions post-réunion, détection de contenu sensible, création de clips vidéo thématiques…) et des applications tierces.

L’IA fait encore mouche auprès de Gartner cette année, notamment avec la fonction de « réceptionniste virtuel ». Même remarque pour le niveau d’intégration des applications tierces. S’y ajoute la richesse et l’intuitivité de la fonction téléphonie (transfert d’appels sur mobile, notamment).

La téléphonie reste le point d’entrée sur la plupart des contrats, alors que cette brique guide de moins en moins de décisions d’achat, avait averti Gartner l’an dernier. Il avait aussi évoqué l’expérience mitigée sur la vente et le support. Tout en notant que les partenariats avec des fournisseurs « legacy » n’avaient pas produit les résultats attendus.

Cette fois encore, vigilance sur le support, tant pour les délais de réponse que de résolution. Attention également à la hausse des prix lors des renouvellements. RingEX reste par ailleurs voice-centric et les capacités natives d’analytics de RingCX doivent encore progresser pour fonctionner à l’échelle.

Tendance au bundling chez Zoom

L’an dernier, Zoom s’était distingué sur son historique de service et de support, l’adéquation de son offre centre de contact pour les PME et ses capacités en matière de réunions (intuitivité de l’UI, notamment).

Cette année, l’un des bons points va à la simplicité de mise en œuvre et de maintenance de la brique centre de contact embarquée. Gartner apprévie également la qualité des services et du support. Et l’exhaustivité du Trust Center, assorti d’investissements notables sur la sécurité, la privacy et la conformité.

En 2024, Gartner avait noté un ralentissement de la croissance de la base client. Et la tendance des acheteurs à sélectionner des concurrents pour la partie collaboration ou centre de contact. En parallèle, il avait regretté l’octroi de moins de remises et autres incitations que par le passé.

Ces dernières années, le licensing de Zoom a changé plus vite que la moyenne du marché, constate cette fois-ci Gartner. Au final, on peut se voir présenter, au renouvellement, des bundles susceptibles d’inclure des fonctionnalités non nécessaires. On restera également vigilant quant à l’éventuel manque de compétitivité des briques calendrier, mail et traitement de texte récemment ajoutées. Attention également à l’UX, qui peut se révéler complexe à prendre en main à mesure qu’on dépasse l’usage de Zoom pour les réunions.

Illustration générée par IA

The post UCaaS : l’IA, plus prégnante dans l’offre que dans la demande appeared first on Silicon.fr.

La « coalition Nextcloud » abandonne sa plainte contre Microsoft

10 octobre 2025 à 13:27

La plainte de Nextcloud contre Microsoft n’est plus.

L’entreprise allemande a décidé d’abandonner la démarche. Elle regrette l’absence de « progrès notable » depuis la saisine de la Commission européenne en 2021.

Il était reproché au groupe américain d’utiliser Windows pour favoriser ses propres services, à commencer par OneDrive et Teams. Nextcloud le déplore toujours. Et ajoute désormais, entre autres, la difficulté à utiliser l’OS sans créer de compte Microsoft.

Une trentaine d’organisations avaient apporté un soutien formel à l’initiative. Dont, côté français :

  • Abilian
  • Aqua Ray
  • Arawa
  • Cozy Cloud
  • Jamespot
  • Linagora
  • Netframe
  • Nexedi
  • Rapid.Space
  • Talkspirit
  • TAS Cloud Services
  • Whaller
  • Wimi
  • XWiki

membres participants

Microsoft sous surveillance renforcée en Allemagne

Nextcloud avait déposé plainte en parallèle auprès de l’autorité de la concurrence allemande. Il a eu davantage de succès sur ce front. En septembre 2024, Microsoft a effectivement été placé, pour 5 ans, sous un régime de contrôle spécifique. Motif, dans les grandes lignes : ses produits sont omniprésents dans les entreprises et les foyers et sont devenus indispensables.

Alphabet, Meta, Amazon et Apple ont été placés sous le même régime. Pour les deux derniers, la décision a été confirmée par la justice allemande.
Des enquêtes ont été ouvertes en conséquence. Par exemple, pour Amazon, sur les accords de distribution exclusive avec des marques. Ou pour Meta, sur les croisement des données collectées sur ses différents services.

Pour OVHcloud, l’issue fut plus favorable

En 2021, Bruxelles avait enregistré une autre plainte contre Microsoft, accusé de poser des barrières au fonctionnement de ses logiciels sur des clouds concurrents. Elle émanait d’OVHcloud. L’italien Aruba et le danois Cloud Community étaient également de la partie.

Cette plainte fut officiellement retirée en juillet 2024. Microsoft venait alors de trouver un accord avec une organisation dont OVHcloud est membre : le CISPE (Cloud Infrastructure Services Providers in Europe). Celui-ci avait lui-même attaqué le groupe américain devant la Commission européenne, en novembre 2022.

L’accord en question devait se traduire, entre autres, par le développement d’une édition d’Azure Stack HCI – devenu Azure Local – spécifique aux CSP européens. Cette solution technique n’a finalement pas vu le jour. Un compromis d’ordre contractuel a été trouvé à la place. Il se matérialise notamment par des modèles de licence à l’usage pour Windows Server et SQL Server, avec une tarification « comparable à celle d’Azure ». Le CISPE a aussi obtenu que ses membres puissent déployer Microsoft 365 Local sur leurs infrastructures, en monolocataire. Autre avancée : l’hébergement de workloads Microsoft facturés à l’usage via Azure Arc ne requiert plus de partager des données clients. Et les ESU gratuites sont acquises pour les déploiements Azure Local monolocataires, comme le VDI Windows 10/11 multisession, là aussi en monolocataire.

Illustration principale générée par IA

The post La « coalition Nextcloud » abandonne sa plainte contre Microsoft appeared first on Silicon.fr.

{ Tribune Expert } – Attaques DDoS : déconstruire les mythes pour mieux protéger les infrastructures

10 octobre 2025 à 11:54

Selon une étude de l’ANSSI, les attaques DDoS ont été menée avec une forte intensité à l’encontre d’entités françaises, publiques comme privées, durant toute l’année 2024. Elles se présentent sous de multiples formes et beaucoup de préjugés les entourent. Néanmoins, ces clichés sont parfois plus dangereux que les attaques en elles-mêmes.

En effet, ces idées reçues rendent parfois les entreprises vulnérables à d’autres types de cyberattaques et peuvent induire en erreur les stratégies de neutralisation ou empêcher les équipes de détecter une offensive.

Mythe n° 1 : les attaques DDoS sont rares, ciblent uniquement les grandes entreprises et sont menées par des acteurs malveillants sophistiqués

Les attaques DDoS sont de plus en plus courantes et ciblent des entreprises de toutes sortes, indépendamment de leur taille. D’après le baromètre CESIN, les attaques DDoS représentent l’un des principaux vecteurs d’attaques subies pour 41% des entreprises en France. Un tel niveau d’activité montre que ce type de menace est bien réel et que toutes les entreprises doivent prendre des mesures adaptées.

Si les États-nations pilotent leurs propres attaques DDoS sophistiquées, nombre d’entre elles sont conduites par des prestataires de services DDoS à la demande (DDoS-for-hire) peu onéreux, voire gratuits, qui utilisent des botnets mondiaux ou des groupes d’appareils infectés. Dans de nombreux cas, les commanditaires d’attaques DDoS à la demande ne sont pas des pirates informatiques de haut niveau, mais agissent en fonction d’évènements géopolitiques et s’en prennent à des entreprises, à des individus ou à des infrastructures qui vont à l’encontre de leurs intérêts.

L’ANSSI précise que « Plus récemment, des tentatives de sabotage de petites installations industrielles ont été observées », cela prouve, contrairement aux croyances populaires, que les attaques ne se limitent plus aux grandes entreprises mais se tournent vers des cibles diversifiées : elles ciblent des infrastructures ou des services clés tels que les réseaux d’électricité afin d’exercer un impact profond sur le grand public.

Les petites entreprises sont également loin d’être épargnées : le rapport Hiscox de 2024 sur la gestion des cyber-risques en France en témoigne, « les attaques touchent plus les PME (entre 20 et 249 salariés) et les TPE (entre 0 et 19 salariés) qu’auparavant. En effet, tandis que les grandes entreprises perfectionnent leur système de protection, la menace se tourne de plus en plus vers leurs partenaires de plus petite taille. »

Face aux cyberattaques d’aujourd’hui, la taille de l’entreprise n’est plus un rempart. Ainsi, il est nécessaire de comprendre l’objectif de ces attaques pour les combattre efficacement.

Mythe n° 2 : les attaques DDoS ont pour seul but d’inonder les réseaux où transitent de grands volumes de données

Initialement, les attaques DDoS étaient volumétriques : elles prenaient généralement la forme d’importants flux de trafic avant d’évoluer pour devenir à la fois plus ciblées et plus complexes. Les médias continuent, à ce jour, de rendre compte des attaques les plus violentes et les plus impressionnantes qui atteignent plusieurs térabits par seconde, renforçant ainsi ce cliché.

Si ces attaques à grande échelle restent dangereuses, la majorité des offensives de moindre envergure, c’est-à-dire inférieures à 1 Gbits/s, le sont tout autant et ciblent les couches applicatives telles que le système de noms de domaine DNS et le protocole HTTP.

La dangerosité d’une cyberattaque ne dépend pas de la quantité de données touchée : ces nouvelles attaques par couche applicative sont plus discrètes et passent inaperçue dès lors que les solutions de protection s’intéressent aux attaques volumétriques de grande ampleur et ignorent les attaques plus modestes qui sont transmises au client.

Les attaques par épuisement d’état TCP (Transmission Control Protocol) comptent également parmi les menaces de moindre envergure les plus courantes. Elles ont pour but de surcharger les ressources de traitement d’un équipement réseau. Elles ciblent spécifiquement les appareils dynamiques installés sur site tels que les pare-feux, les équilibreurs de charge ou les passerelles VPN, et remplissent leurs tables d’état de fausses connexions, ce qui empêche les utilisateurs légitimes d’accéder à certaines zones du réseau.

Ces nouvelles attaques deviennent de plus en plus nombreuses et rendent les solutions de défenses habituelles obsolètes.

Mythe n° 3 : les pare-feux de nouvelle génération peuvent bloquer les attaques DDoS

Les pare-feux de nouvelle génération sont de puissants outils qui peuvent améliorer de façon significative la sécurité globale des entreprises.

Cependant, leur conception dynamique les rend vulnérables à plusieurs types d’attaques DDoS telles que les attaques par épuisement d’état : l’ANSSI a constaté « une intensification de l’exploitation de vulnérabilités affectant des équipements exposés sur Internet, parmi lesquels figurent des équipements de sécurité mis en place par de nombreuses entités pour sécuriser l’accès distant à leur systèmes d’infrastructures (par exemple des pare-feux ou des passerelles VPN) » et explique que ces dispositifs deviennent un point de vulnérabilité critique du fait de l’exploitation de leurs failles par les cybercriminels.

Mythe n° 4 : une protection DDoS en cloud est suffisante

Lorsqu’une attaque DDoS est plus puissante que la bande passante d’une entreprise, la seule façon de la neutraliser est d’utiliser une protection basée sur le cloud. Or, les attaques de moindre envergure peuvent passer entre les mailles du filet, d’où la nécessité de prendre des mesures supplémentaires.

Pour contourner les lignes de défense, les attaques DDoS modernes exploitent plusieurs vecteurs d’attaque, ce qui signifie qu’elles peuvent associer une attaque volumétrique ou par épuisement d’état à une attaque visant la couche applicative pour cibler plusieurs zones du réseau, rendant leur détection et leur neutralisation plus compliquées.

En adoptant une stratégie de défense multi-couches, les entreprises se protégeront de manière plus efficace contre les attaques DDoS agiles et multivectorielles, maximisant ainsi leur durée de fonctionnement et leur disponibilité. Á ce jour, d’après le baromètre CESIN, adopter un cloud de confiance demeure une préoccupation pour 52% des entreprises françaises.

Mythe n° 5 : la protection contre les attaques DDoS n’a besoin ni de l’intelligence artificielle ni du machine learning

De nombreux dirigeants sont convaincus qu’il n’est pas nécessaire de recourir à l’intelligence artificielle (IA) ou au machine learning pour protéger leur entreprise contre les attaques DDoS. Pourtant, les hackers utilisent l’IA/ML pour multiplier le volume des attaques, en augmenter le degré de sophistication et éviter leur détection. Cela signifie que les mesures défensives doivent fonctionner de la même manière : exploiter les fonctions de détection d’anomalies de trafic de l’IA/ML pour identifier les situations anormales dans les schémas de trafic qui détectent des menaces DDoS.

L’IA/ML peut prendre la forme de flux d’informations organisés qui bloquent automatiquement et en temps réel les menaces DDoS connues et actives. Grâce à ces informations actualisées en permanence, les menaces les plus récentes ne font pas le poids face aux protections fondées sur l’intelligence artificielle et l’apprentissage automatique. L’IA/ML peut également automatiser l’ajustement des contre-mesures en temps réel pour bloquer les attaques multivectorielles.

En somme, les idées reçues évoquées contraignent les entreprises à sous-estimer parfois la dangerosité des attaques DDoS.

Comme le préconise l’ANSSI, il est essentiel pour les infrastructures de déconstruire ces clichés et d’adopter une stratégie de défense en profondeur pour assurer leur pérennité face aux cyberattaques. Aussi, les entreprises gagneront à débunker ces mythes, pour protéger leurs infrastructures au mieux.

*Daniel Crowe est Area Vice President France & Europe du Sud chez Netscout

The post { Tribune Expert } – Attaques DDoS : déconstruire les mythes pour mieux protéger les infrastructures appeared first on Silicon.fr.

Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative

10 octobre 2025 à 09:58

Du lanceur d’alerte à la commission d’enquête parlementaire, Deloitte connaît une période tumultueuse en Australie.

Il lui est reproché son recours à l’IA générative dans le cadre d’une mission de conseil pour le ministère de l’Emploi et des Relations du travail. D’une part, parce qu’il ne l’a pas divulgué. De l’autre, parce que cette IA (GPT-4o) a inventé des sources et des précédents judiciaires.

La mission, réalisée entre fin 2024 et mi-2025, a abouti à un rapport de 237 pages. Sujet : le TCF (Targeted Compliance Framework). Ce système implémenté en 2018 automatise l’évaluation de la situation des demandeurs d’emploi… et l’attribution éventuelle de pénalités financières. Deloitte constate, dans les grandes lignes, que l’algorithme sous-jacent, en plus de manquer de transparence, est démesurément punitif.

Le rapport initial était daté du 4 juillet. Une version mise à jour a été publiée le 26 septembre. Le contenu principal n’a pas changé, mais les citations problématiques ont disparu. Et Deloite a précisé, en annexe, avoir utilisé de l’IA

Deloitte avait d’abord évoqué un « problème de transcription »

Un chercheur de l’université de Sydney avait levé le lièvre au mois d’août. Il avait remarqué que le rapport attribuait à certains de ses collègues des œuvres qu’ils n’avaient pas produites. Par la suite, on avait découvert, entre autres, une référence à une décision de justice inexistante, dans le cadre d’un litige entre le gouvernement australien et une citoyenne sur le système dit robodebt (évaluation et recouvrement automatisé des dettes).

Un accord semble avoir été trouvé avec Deloitte pour le remboursement d’environ 100 000 dollars australiens sur les 440 000 qu’a coûté la mission.

La sénatrice écologiste Barbara Pocock* estime qu’il conviendrait de restituer l’intégralité de la somme. Elle le justifie notamment par les agissements de Deloitte une fois l’affaire mise au jour. D’un côté, le cabinet a d’abord expliqué au ministère de l’Emploi qu’il s’agissait d’un « problème de transcription ». De l’autre, il a pris contact avec le ministère des Finances en affirmant que les commanditaires du rapport étaient au courant de l’usage de l’IA. Ce que les intéressés ont demandé en audition au Sénat.

How we ‘fess up when we mess up shows who we are. Pay it all back Deloitte. And apologise. Give yrsrlf some procurement teeth Labor: the capability to ban for poor behaviour, commensurate with the misdemeanour, up to 5 yrs. pic.twitter.com/BAnrek1Uz5

— Barbara Pocock (@BarbaraPocock) October 9, 2025

Murray Watt, ministre de l’Emploi lorsque fut signé le contrat avec Deloitte, évoque un « acte clairement inadmissible ». Il regrette l’absence d’excuses, y compris auprès des personnes auxquelles l’IA a faussement attribué certaines œuvres.

Dans ce contexte, le ministère des Finances a décider de mieux encadrer les futurs contrats avec tout consultant. Tout usage potentiel d’IA devra être explicité, en identifiant outils et finalités.

* Les Verts sont la troisième force politique au Sénat australien, avec 10 sièges contre 29 pour le Parti travailliste et 27 pour la coalition d’opposition.

Illustration générée par IA

The post Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative appeared first on Silicon.fr.

ESN et ICT anticipent un rebond au premier semestre 2026

10 octobre 2025 à 09:41

Les entreprises de services du numérique (ESN) et les sociétés d’ingénierie et conseil en technologies (ICT) traversent une période de transition marquée par la prudence.

Selon l’étude Grand Angle ESN & ICT 2025 réalisée par KPMG et Numeum, 42% des acteurs n’anticipent un véritable rebond de l’activité qu’au premier semestre 2026.

L’IA au cœur de la stratégie

L’intelligence artificielle s’impose comme la priorité technologique du secteur : 81% des entreprises interrogées l’identifient comme la principale opportunité de marché. Son adoption reste toutefois progressive, avec 64% des ESN et ICT réalisant entre 0 et 5% de leur chiffre d’affaires sur des projets IA.

L’utilisation de l’IA générative se développe dans plusieurs domaines : 72% l’emploient pour le delivery, 67% pour les tâches administratives, 51% pour le recrutement et 48% pour la recherche de propositions commerciales. Les investissements dans l’IA représentent actuellement 2,2% du chiffre d’affaires pour les grandes entreprises et ETI, et 1,3% pour les PME et TPE.

Stratégies de croissance diversifiées

Face au ralentissement économique, 29% des entreprises privilégient le positionnement sur des offres technologiques innovantes (cloud, IA, cybersécurité), tandis que 16% misent sur l’ajustement des ressources et 14% sur une politique commerciale agressive.

Les principaux risques identifiés sont la conjoncture globale (85%), la faiblesse de la demande client (67%) et le manque de ressources ou de compétences (33%). Pour y répondre, 60% développent des partenariats stratégiques et 55% investissent dans leur marque employeur.

Le recours à l’offshore et au nearshore reste stable, représentant 7% du chiffre d’affaires. Les expertises techniques constituent la principale raison de cette externalisation (28%), devant le coût (24%) et les besoins capacitaires (19%).

Gestion des talents : entre tension et adaptation

La pénurie de profils qualifiés demeure un frein majeur à la croissance. Les entreprises poursuivent leurs recrutements, avec un accent sur les métiers liés au cloud, à la cybersécurité et au conseil en transformation digitale.

L’IA générative commence à transformer les fonctions RH : 52 % des structures l’utilisent pour élaborer des plans de formation et 41 % pour cartographier les compétences internes. Malgré ces évolutions, 71 % estiment que l’impact de l’IA sur la réduction des recrutements reste marginal

Les plans de recrutement 2025 visent une augmentation de 8% des effectifs pour les grandes entreprises et ETI, et de 4% pour les PME et TPE. Toutefois, 77% des entreprises déclarent que l’environnement économique a impacté leurs objectifs initiaux.

Les profils expérimentés (plus de trois ans d’expérience) représentent 88% des recrutements recherchés, en hausse de 11 points par rapport à 2024. Les compétences les plus demandées sont le conseil en transformation digitale (19%), le cloud (17%) et l’intégration de système (13%).

Le recours aux freelances, indépendants et sous-traitants continue de progresser, atteignant 17,9% dans les grandes entreprises et 12,9% dans les PME et TPE, avec des objectifs à 17,5% et 12,1% respectivement pour 2025.

Sur le plan de la fidélisation, l’augmentation des salaires reste le premier levier (40%), devant la flexibilité du temps de travail (11%) et les plans de formation (10%). Par ailleurs, 35% des entreprises ont mis en place des actions pour limiter le télétravail et favoriser le retour en présentiel.

La RSE, un critère de compétitivité

La réduction de l’empreinte environnementale est devenue la priorité RSE pour 79% des ESN et ICT. 87% ont mis en place un suivi de leur empreinte carbone, et 60% se sont fixé un objectif de réduction à trois ans, avec une moyenne de -26% pour les grandes entreprises et -17% pour les PME.

Les critères ESG pèsent désormais entre 10 et 20% dans 48% des appels d’offres, contre 20 à 30% dans 24% des cas. Cette évolution reflète l’importance croissante de ces enjeux dans la compétitivité des entreprises.

83% des entreprises ont mis en place des programmes de diversité et inclusion, principalement par la sensibilisation (97%), des chartes (86%) et des formations (75%).

Le secteur du numérique, représenté par Numeum qui regroupe 2 500 entreprises, génère un chiffre d’affaires de 70 milliards € et emploie 670 000 personnes en France.

The post ESN et ICT anticipent un rebond au premier semestre 2026 appeared first on Silicon.fr.

Google lance Gemini Enterprise

9 octobre 2025 à 15:25

Google dévoile Gemini Enterprise, une nouvelle plateforme d’intelligence artificielle dédiée aux clients professionnels.

Gemini Enterprise est conçu pour offrir aux employés une interface de type conversationnelle, via laquelle ils peuvent interagir avec les données, les documents et les applications de leur entreprise.

En pratique, la plateforme combine plusieurs composantes :

  • des agents pré-configurés (par Google) pour des tâches comme la recherche approfondie ou l’analyse de données ;

  • la possibilité pour les entreprises de créer et déployer leurs propres agents personnalisés ;

  • une connexion sécurisée aux données de l’entreprise, qu’elles résident dans Google Workspace, Microsoft 365 ou des applications professionnelles (Salesforce, SAP, etc.)

  • un cadre centralisé de gouvernance pour surveiller et auditer les agents déployés.

Google présente Gemini Enterprise comme une « porte d’entrée » unique pour l’IA au sein du lieu de travail — une interface unifiée destinée à connecter les différents outils, données et processus.

Google annonce que certaines entreprises ont déjà adopté Gemini Enterprise ou sont engagées dans cette démarche. Parmi elles figurent Gap (distribution de vêtements), Figma (logiciel de design) et Klarna (service de paiement différé, BNPL)

D’autres partenariats sont également évoqués : par exemple, Accenture prévoit d’intégrer Gemini Enterprise dans ses propres opérations pour faciliter le partage des connaissances et l’automatisation de processus.

Google mentionne que le réseau de partenaires (éditeurs de logiciels et prestataires) pourra proposer des agents compatibles avec la plateforme, ce qui élargirait l’écosystème utilisable par les entreprises clientes.

Liens avec les offres de Google Cloud

Cette nouvelle plateforme s’appuie sur les acquis de Google dans le secteur professionnel, notamment Google Workspace, qui depuis quelque temps intègre des fonctionnalités d’IA basées sur Gemini.

Cependant, il ne s’agit pas simplement d’une extension ou d’un rebranding de l’offre IA de Workspace : Gemini Enterprise est déployé comme une plateforme distincte, sous l’égide de Google Cloud, avec des capacités plus larges et plus spécialisées pour l’agentique d’entreprise.

Quelques points à surveiller ou à approfondir :

  • Sécurité et gouvernance : connecter des agents à des données sensibles d’entreprise implique des besoins élevés en contrôle d’accès, auditabilité et protection des données. Google met en avant un cadre de gouvernance centralisé, mais la mise en œuvre pratique à grande échelle restera un défi.

  • Adoption interne : convaincre des équipes non techniques de construire et d’utiliser des agents personnalisés suppose une interface accessible (par exemple sans codage) et un accompagnement. Google évoque un « no-code workbench ».

  • Interopérabilité et intégration : les entreprises ont déjà des systèmes variés (ERP, CRM, bases de données internes). La capacité de Gemini Enterprise à s’intégrer à ces environnements sera déterminante.

  • Compétition et différenciation : Microsoft, OpenAI et d’autres acteurs multiplient leurs offres pour entreprises. Le succès dépendra de la valeur ajoutée offerte (modèles, agents, intégration, coût) comparée à ce que proposent les concurrents.

  • Évolutivité et robustesse : pour remplacer ou compléter des processus métiers critiques, la plateforme devra garantir stabilité, performances et capacité à monter en charge.

The post Google lance Gemini Enterprise appeared first on Silicon.fr.

Cyberattaque : Jaguar Land Rover redémarre après plus d’un mois de paralysie

9 octobre 2025 à 14:37

Mercredi 8 octobre 2025, Jaguar Land Rover (JLR) a enfin pu reprendre sa production de véhicules au Royaume-Uni, tournant la page d’une cyberattaque dévastatrice qui aura paralysé le groupe pendant plus de six semaines. Les employés sont d’abord retournés à l’usine de production de moteurs de Wolverhampton ainsi qu’aux ateliers de découpage de Castle Bromwich, Halewood et Solihull.

Cette reprise demeure toutefois progressive. D’ici la fin de la semaine, le constructeur prévoit de redémarrer les chaînes de production des Range Rover et Range Rover Sport dans son site de Solihull. Les activités de fabrication en Slovaquie devraient suivre le même calendrier.

« Je tiens à remercier tous les collaborateurs de JLR pour leur engagement, leur travail acharné et les efforts déployés ces dernières semaines pour nous permettre d’en arriver là. Nous savons qu’il reste encore beaucoup à faire, mais notre reprise est bien engagée », s’est félicité le directeur général Adrian Mardell, exprimant le soulagement manifeste de toute la filière automobile britannique.

Un week-end qui a tout changé

L’incident s’est produit le week-end du 31 août, lorsque les systèmes de surveillance interne de JLR ont détecté un accès non autorisé à des infrastructures critiques. Dans une décision saluée par les experts en cybersécurité, l’entreprise a immédiatement mis hors ligne l’ensemble de ses systèmes pour limiter l’infiltration et prévenir un vol de données massif.

« Nous avons pris des mesures immédiates pour atténuer l’impact en fermant de manière proactive nos systèmes », a déclaré JLR dans sa communication officielle. « Nous travaillons maintenant à pleine vitesse pour redémarrer nos applications mondiales de manière contrôlée.»

Le timing ne pouvait être pire : l’attaque a coïncidé avec la sortie des nouvelles plaques d’immatriculation britanniques du 1er septembre, traditionnellement l’un des mois les plus importants pour les ventes automobiles au Royaume-Uni. Les conséquences ont été immédiates et brutales.

Les quatre grandes usines britanniques – Halewood (Merseyside), Solihull (West Midlands), Wolverhampton et Castle Bromwich – ont cessé leurs activités. Les opérations internationales en Slovaquie, en Chine, en Inde et au Brésil ont été également paralysées, créant un arrêt total de la production mondiale.

Le collectif « Scattered Lapsus$ Hunters » revendique l’attaque

La responsabilité de cette attaque a été revendiquée par un collectif de hackers appelé « Scattered Lapsus$ Hunters » (SLSH), un nom qui, selon les experts en cybersécurité, représente une fusion sans précédent de trois groupes cybercriminels notoires : Scattered Spider, Lapsus$ et ShinyHunters, les mêmes qui sévissent actuellement contre Red Hat et Salesforce.

La BBC a rapporté les revendications du groupe après avoir reçu des communications directes via des plateformes de messagerie cryptées. Pour prouver leur intrusion, les hackers ont partagé des captures d’écran prétendument prises depuis les réseaux informatiques internes de JLR, notamment des instructions de dépannage pour les systèmes de recharge des véhicules et des journaux informatiques internes.

SLSH n’en est pas à son coup d’essai. En mai dernier, des composantes de ce groupe ont été responsables d’attaques dévastatrices contre les géants de la distribution Marks & Spencer, Co-op et Harrods. L’attaque contre M&S, en particulier, avait causé une perte de 300 millions de livres (£) et perturbé les opérations pendant plus de quatre mois, fournissant un précédent inquiétant pour la durée potentielle de l’incident JLR.

Et aussi de son coût  vertigineux. Sur la durée totale de l’arrêt des unités de production, les pertes hebdomadaires ont atteint 50 millions de livres sterling (environ 57 millions €).

L’impact humain a été tout aussi sévère. Environ 33 000 employés de JLR au Royaume-Uni ont été contraints de rester chez eux, les ouvriers de production recevant leur salaire complet pendant la perturbation. Mais au-delà de la main-d’œuvre directe de JLR, ce sont quelque 6 000 travailleurs des partenaires de la chaîne d’approvisionnement  qui ont été temporairement licenciés en raison de l’arrêt de production.

Au-delà de la production, l’attaque a également perturbé les fonctions commerciales. Les concessionnaires à travers le Royaume-Uni n’ont pas pu immatriculer de nouveaux véhicules , empêchant effectivement la vente de voitures déjà terminées. Les garages de réparation et centres de service ont été contraints de revenir aux catalogues imprimés et aux systèmes manuels après avoir perdu l’accès au système électronique de commande de pièces de JLR.

L’industrie automobile, cible privilégiée des cybercriminels

L’attaque contre JLR s’inscrit dans une tendance inquiétante de cyberattaques ciblant l’industrie automobile mondiale. Les chercheurs en sécurité ont documenté plus de 735 incidents de cybersécurité significatifs visant directement des entreprises automobiles depuis 2023, le secteur ayant connu plus de 100 attaques par ransomware et 200 violations de données en 2024 seulement. Cela fait de la fabrication automobile l’industrie la plus attaquée au niveau mondial.

Parmi les incidents majeurs récents figurent l’attaque par ransomware BlackSuit contre CDK Global en juin 2024, qui a paralysé les systèmes logiciels utilisés par plus de 15 000 concessionnaires automobiles en Amérique du Nord. CDK aurait payé une rançon de 25 millions $ pour restaurer les services, avec des pertes totales d’interruption d’activité estimées à 1 milliard $.

La gravité de la cyberattaque a mobilisé la National Cyber Security Centre (NCSC) britannique : « Nous travaillons avec Jaguar Land Rover pour fournir un soutien en relation avec un incident.» Les forces de l’ordre, y compris la National Crime Agency, mènent une enquête approfondie sur la violation.

Une reprise prudente et méthodique

Les efforts de récupération de JLR ont été compliqués par la nécessité d’équilibrer rapidité et sécurité, en s’assurant que les systèmes ne sont pas seulement restaurés mais également correctement sécurisés contre de futures attaques. Des experts en cybersécurité ont salué l’approche méthodique de JLR, notant que se précipiter pour restaurer les systèmes sans validation de sécurité appropriée pourrait laisser l’entreprise vulnérable à des prochaines attaques.

Le retour à une production normale prendra encore du temps. Si le redémarrage progressif des usines marque un tournant encourageant, les équipes de JLR poursuivent leur enquête forensique et travaillent à renforcer leurs systèmes pour éviter qu’un tel scénario ne se reproduise. Pour le fleuron de l’automobile britannique, la priorité est désormais de rattraper le retard accumulé tout en restaurant la confiance de ses clients, employés et partenaires commerciaux dans sa capacité à protéger ses opérations contre des acteurs malveillants toujours plus audacieux.

Des questions se posent aussi sur les investissements en cybersécurité de JLR, malgré des dépenses importantes en transformation numérique. En 2023, l’entreprise avait signé un contrat de cinq ans d’une valeur de 800 millions de livres avec Tata Consultancy Services (TCS) pour fournir un soutien en cybersécurité et informatique.

Face à l’ampleur de la catastrophe, le gouvernement britannique a accordé une garantie de prêt de 1,5 milliard de livres sterling (environ 1,7 milliard €) visant à préserver l’avenir du constructeur et de toute la filière automobile. Jaguar Land Rover a également obtenu une ligne de crédit d’urgence de 2 milliards de livres sterling (environ 2,3 milliards €) auprès d’un consortium bancaire.

Conscient des difficultés financières de ses partenaires durant cette longue interruption, le constructeur a par ailleurs préparé un plan de soutien de 500 millions de livres sterling (environ 576 millions d’euros) destiné à ses principaux fournisseurs.

Photo : © JLR

The post Cyberattaque : Jaguar Land Rover redémarre après plus d’un mois de paralysie appeared first on Silicon.fr.

Avec Intragen, Nomios se renforce sur le PAM

9 octobre 2025 à 13:33

Nomios annonce l’acquisition d’Intragen, pour un montant non commuiqué, pour consolider sa position sur le marché européen.

Intragen apporte à Nomios une expertise spécifique dans la gestion des identités numériques et des accès à privilèges (PAM). L’entreprise collabore notamment avec les éditeurs CyberArk, SailPoint, One Identity et Okta. Elle a reçu plusieurs distinctions, dont le titre de « partenaire mondial de l’année » de One Identity en 2023 et celui de « partenaire européen de l’année » d’Okta en 2025. Ses 250 experts gèrent aujourd’hui la sécurité de millions d’identités à travers l’Europe.

L’intégration d’Intragen permettra à Nomios d’élargir son offre, couvrant désormais l’ensemble des domaines de la cybersécurité, du réseau à la gestion des identités.

Trois pôles d’activité pour Nomios

Nomios structure ses activités autour de trois pôles : la Gouvernance, Risque et Conformité (GRC), qui assure l’accompagnement stratégique et la gestion des risques ; les Professional Services, dédiés à l’intégration et au déploiement de solutions de sécurité ; et les Services managés, qui garantissent la supervision et la maintenance des systèmes via les centres SOC (Security Operations Centre), NOC (Network Operations Centre) et VOC (Vulnerability Operation Centre).

Le groupe tire aujourd’hui environ 75 % de son chiffre d’affaires de la cybersécurité, contre 25 % pour les activités réseau. Plus de la moitié (55 %) de son chiffre d’affaires net provient de ses services propres, ce qui contribue à la stabilité et à la prévisibilité de son activité.

Sur le plan géographique, 60 % de l’EBITDA de Nomios est généré hors de France, principalement aux Pays-Bas, en Italie et au Royaume-Uni.

Avec cette acquisition, Nomios vise un chiffre d’affaires de 650 millions d’euros et un EBITDA de 75 millions € en 2026. L’intégration d’Intragen doit permettre d’accélérer la croissance du groupe, d’élargir son portefeuille de clients et de renforcer son offre en services récurrents, notamment dans les domaines de la gestion des identités et de la cybersécurité managée.

Intragen opérera dans un premier temps comme entité distincte sous la marque Intragen by Nomios, avant d’être intégrée comme segment autonome au sein du groupe. Les équipes existantes seront conservées, et la direction actuelle d’Intragen continuera de piloter l’activité.

The post Avec Intragen, Nomios se renforce sur le PAM appeared first on Silicon.fr.

Les Assises 2025 : le Campus Cyber promet un vrai fonctionnement en réseau

9 octobre 2025 à 08:53

Après le « lieu totem », la « station d’appairage ». Ainsi doit évoluer le Campus Cyber, selon son président Joffrey Célestin-Urbain.

L’intéressé parle aussi de « plate-forme de connexion multiprises ». L’idée est la même : créer du liant entre l’écosystème cyber français et les écosystèmes européens. Il en résulterait ainsi davantage de confiance… notamment au plan économique. « Derrière, si vous avez cette confiance, vous pouvez développer des mécanismes d’achats croisés. Ça ne marchera pas si nous n’avons pas un sentiment d’appartenance commune. Et ça, ça se bâtit à partir d’écosystèmes comme le Campus. »

La promesse de services « en partie harmonisés » entre les Campus Cyber

Au niveau national, il faudra compter sur les campus régionaux. « Depuis quelques mois, on a vraiment redynamisé les échanges, assure Joffrey Célestin-Urbain. La cabine de pilotage assurée par le [campus national] avait été un peu désertée, on l’a réinvestie. » Le plan d’action commun reste néanmoins en cours de définition. Tout au plus nous fait-on une promesse : « Peu importe la porte d’entrée dans le réseau des campus, [un accès] à un contenu de qualité qui vous apporte un certain nombre de services en partie harmonisés. »

La notion d’écosystème devra constituer le « complément non immobilier » à la location d’espaces, qui représente actuellement 78 % des revenus. En toile de fond, le départ de certains locataires. « La communauté a eu raison de se questionner sur ce qui était en train de se passer avec le Campus Cyber, […] une belle endormie qui vivait sur l’impulsion politique des débuts« , admet Joffrey Célestin-Urbain. Et de se projeter, en parallèle, sur ce qu’il appelle une « couche de services méta-écosystémique ». Dit autrement, un ensemble de services pour accompagner les entreprises qui veulent se créer en cybersécurité. Une « couche non marchande » s’y ajoutera. En d’autres termes, la production d’externalités positives, d’activités d’intérêt général. « Ce sera une discussion à avoir avec l’État » avec, en tête, les contraintes politiques et sur les finances publiques… « On peut se dire qu’à court et à moyen terme, il n’y a qu’un KPI : la satisfaction des résidents« , avance cependant le président du Campus Cyber.

The post Les Assises 2025 : le Campus Cyber promet un vrai fonctionnement en réseau appeared first on Silicon.fr.

Les Assises 2025 : l’ANSSI n’oublie pas les risques « non techniques »

8 octobre 2025 à 17:20

Monaco – Envoyé spécial – « Le message est simple : winter is coming. »

Loin de la satisfaction qu’il avait affichée l’an dernier au sortir des JO, Vincent Strubel a ouvert les Assises de la sécurité 2025 sur une perspective pour le moins pessimiste. En l’occurrence, l’engagement de nos armées dans un conflit d’intensité à l’horizon 2030 ; avec, simultanément, une hausse massive des attaques hybrides sur le territoire français.

Le directeur général de l’ANSSI reprend en fait une hypothèse formulée dans la dernière Revue nationale stratégique, publiée en juillet. Il ne manque par d’affirmer que cet horizon « donne d’autant plus de sens à notre travail collectif de construction de la cyberrésilience ».

Ce travail conduit à fixer des règles et à préparer la gestion de crise. Il implique aussi une notion dont l’agence a fait son mantra : « changer d’échelle ». En d’autres termes, diffuser la cybersécurité dans le tissu économique. Dans cette optique, elle mobilise, entre autres, le levier de l’entraînement, illustré par l’organisation, le mois dernier, de l’exercice REMPAR25.

Dans le même esprit, l’ANSSI a fait évoluer ses référentiels PASSI (audit) et PRIS (réponse aux incidents) pour étendre leur champ d’application. Au niveau d’exigence « élevé » (cœur historique du besoin) s’est ainsi ajouté le niveau « substantiel », axé sur le besoin des plus petits acteurs.

Non, la « détection souveraine » n’est pas remise en cause

Dans les prochains mois, l’agence devrait finaliser des travaux portant sur les solutions de détection. Ils concernent aussi bien les prestataires que les produits. L’occasion pour Vincent Strubel de rappeler, comme il l’avait déjà fait voilà quelques semaines, qu’il n’est pas question de rogner sur l’exigence de souveraineté qui s’applique aux OIV. « Ce serait un contresens historique. On cherche en revanche à ouvrir le champ des possibles, à ne pas rester sur une réglementation figée qui vieillit forcément mal dans notre domaine. » Il s’agit, poursuit-il, de « se donner la chance d’avoir le meilleur résultat pour chaque type d’architecture« . En ligne de mire, notamment, les EDR et les NDR actifs.

Prendre en compte les effets de nos dépendances techniques

Au niveau européen s’ouvre un autre chantier : la révision du Cybersecurity Act. Après l’avoir étendu aux services managés (en plus des produits, services et processus TIC), la Commission européenne cherche, en particulier, à simplifier les exigences de reporting et à intégrer davantage l’aspect chaîne d’approvisionnement logicielle. Le DG de l’ANSSI y voit l’occasion de « prendre en compte des risques qualifiés de non techniques, liés à nos dépendances techniques« . Il évoque les besoins de protection contre les « accès aux données qui échappent à notre droit » comme contre « la possibilité de voir un service coupé par une décision dans laquelle on n’a pas voix au chapitre ».

Un agenda post-quantique après les premières certifications

Autre source d’inquiétude : les « mouvements de fond dans le paysage numérique qui nous forcent à changer nos approches dans tous les domaines », de la certification à la remédiation. « On ne peut pas faire un dump de la mémoire d’un cloud, patcher une IA, faire sans le dépositaire unique d’une technologie-clé« . Ces évolutions s’inscrivent toutefois dans une durée qui permet de s’ajuster, tempère Vincent Strubel.

Le discours est différent au sujet de la menace quantique : « Si on ne prend pas en compte ce risque maintenant, on sera dans une situation ou tout s’effondrera d’un coup« . Un obstacle est aujourd’hui levé, affirme-t-il : l’évaluation des algorithmes post-quantiques. L’agence a prononcé, il y a quelques jours, ses deux premières certifications, pour Thales et Samsung. En 2027, elle n’acceptera plus, en entrée de qualification, des produits ce sécurité qui n’intègrent pas une cryptographie résistante à l’ordinateur post-quantique. Elle recommande déjà de ne pus acquérir de telles solutions, mais pourrait, « si besoins dans certains cas », l’imposer à l’horizon 2030.

The post Les Assises 2025 : l’ANSSI n’oublie pas les risques « non techniques » appeared first on Silicon.fr.

Windows 11 : l’étau se resserre sur les comptes locaux

7 octobre 2025 à 13:40

Sur les éditions Pro et Famille de Windows 11, il va devenir plus difficile de créer des comptes locaux.

La dernière bêta (build 26120) en donne un aperçu. Plusieurs mécanismes jusque-là exploitables lors du paramétrage initial ne fonctionnent plus. Une décision que Microsoft justifie par les risques, en termes de support et sécurité, découlant de configurations incomplètes*.

Principal mécanisme ciblé : la commande start ms-chx:localonly. Elle permet de lancer Cloud Experience Host, qui intervient au court du paramétrage initial pour afficher certaines pop-up. Lui ajouter l’option localonly permet d’ouvrir le dialogue legacy de création de compte local.
Il existe une variante start ms-cxh://localonly utilisable dans la console développeur, qu’on peut ouvrir lors du setup grâce au raccourci Ctrl-Shift-J. On la trouve également sous la forme start ms-cxh://setaddlocalonly.

Microsoft avait déjà fermé la porte au script ByPassNRO

La « méthode Cloud Experience Host » avait pallié l’élimination, début 2025, d’un autre mécanisme également basé sur l’invite de commandes (à ouvrir avec Shift-F10). Il reposait sur l’activation d’un script ByPassNRO intentionnellement mis à disposition.

La « méthode ByPassNRO » était restée exploitable en modifiant le registre Windows (lancement de regedit lors du setup). Notamment par l’ajout, dans HKEY_LOCAL_MACHINE\Software\Microsoft\Windows\CurrentVersion\OOBE, de valeurs DWORD HideOnlineAccountScreens et – éventuellement – HideWirelessSetupInOOBE. La dernière build semble les ignorer.

D’autres techniques ont existé par le passé et ont elles aussi fini désactivées. L’une d’entre elles consistait tout simplement à entrer n’importe quoi dans le champ e-mail (puis, plus tard, à renseigner une adresse fantaisiste), ce qui enclenchait la création de compte local.

It looks like Microsoft has blocked the bypass that allowed you to create a local account during Windows 11 setup by typing in a blocked email address. Now it just loops you back to typing in a different account 🙁 pic.twitter.com/mKnHToLLQV

— Zac Bowden (@zacbowden) June 3, 2024

Domaines, mode audit et fichiers de réponse

Sur Windows 11 Pro, l’option « rejoindre un domaine » fonctionne toujours, même s’il n’existe pas de tel domaine.

Autre méthode qui semble toujours fonctionnelle : le mode audit, qui fait partie de Sysprep (System Preparation Tool). En l’activant (Ctrl-Shift-F3), on est connecté en tant qu’administrateur local. D’où la possibilité, entre autres, de créer un compte local.

D’autres méthodes ont émergé au fil des ans. Parmi elles, interrompre le flux de connexion au réseau avec taskkill.exe ou en ouvrant le gestionnaire de tâches. Autre solution : créer un compte local directement depuis la ligne de commande (net.ext /add, puis net.exe localgroup /add) et ensuite contourner le setup (mssoobe.exe && shutdown.exe -r).

Des outils de création de médias d’installation ont implémenté certains mécanismes. ByPassNRO en est un. Les fichiers de réponse (auto)unattend.xml, à placer à la racine du disque, en sont un autre. Avec eux, on entre dans une approche gestion de flotte, qui peut aussi mener à l’exploitation d’outils comme MDT (Microsoft Deployment Tool) ou WCD (Windows Configuration Designer).

En contrepartie à ce resserrement, Microsoft inclut, dans l’expérience de paramétrage initial, un outil en ligne de commande qui permet de personnaliser le nom du dossier utilisateur.

* Par exemple, l’absence de sauvegarde automatique de la clé de chiffrement du disque système sur OneDrive… et donc la non-activation automatique de ce chiffrement. Microsoft mentionne aussi la procédrue de récupération Windows Hello.

Illustration principale générée par IA

The post Windows 11 : l’étau se resserre sur les comptes locaux appeared first on Silicon.fr.

❌