Vue lecture

D’une Dreamforce à l’autre, comment Slack entretient la flamme de l’IA agentique

Finis la « plate-forme de communication », le « hub pour votre équipe et votre travail » ou le « remplaçant de l’e-mail » : Slack se voit désormais en « système d’exploitation agentique » (agentic OS).

L’éditeur joue cette carte à l’occasion de la Dreamforce 2025 (14-16 octobre). Il revendique une « transformation en un espace de travail conversationnel où les personnes, les IA et les agents collaborent, avec le contexte des conversations et des données ».

Dreamforce 2024 : du conversationnel, option agentique

Il y a un peu plus d’un an, à la Dreamforce 2024 (17-19 septembre), il n’était pas encore question d’agentic OS, mais de conversational work OS. Traduit alternativement, en version française, par « plateforme de travail », « plateforme collaborative »… et « système ». L’idée était par contre la même que celle prônée aujourd’hui : une « interface conversationnelle qui réunit les équipes, les données, les applications et les agents dans un environnement dédié ».

À ce moment-là, l’offre Agentforce dans Slack n’était pas encore disponible (elle allait passer en bêta en octobre 2024). La communication se portait plutôt, d’une part, sur l’installation d’applications « agentiques » via la marketplace (Claude et Perplexity étaient cités en exemple, avec la promesse d’une disponibilité imminente). De l’autre, sur la conception d’agents personnalisés à l’aide des API.

L’aspect agentique mis à part, la marque Slack AI était généreusement promue. Les fonctionnalités regroupées sous cette bannière sont aujourd’hui distillées dans les forfaits Slack payants :

  • Pro (8,25 €/utilisateur/mois)
    Résumé de canaux et de threads, notes d’appels d’équipe (capture des infos importantes dans un canevas), compatibilité avec les assistants IA tiers.
  • Business Plus (18 €)
    La même chose ainsi que des recaps IA quotidiens, le résumé de fichiers, la traduction et l’explication de messages, un générateur de workflows en langage naturel, une assistance à l’écriture dans les canevas et la recherche personnalisée (fondée sur les conversations et les fichiers partagés).
  • Enterprise+
    La même chose avec, en complément, la recherche d’entreprise (exploitant les applications, bases de données et systèmes connectés à Slack).

L’intégration de ces fonctionnalités fut invoquée, mi-2025, pour justifier l’augmentation du prix du forfait Business+. La com de Slack était alors à cheval entre le conversational work OS et l’agentic OS : il était question de « système d’exploitation professionnel à l’ère des agents IA » (work operating system for the agentic era).

Du général au particulier

Agentforce dans Slack étant passé en disponibilité générale début 2025, il est désormais au cœur du message. La description assez générique qui en avait été donnée à la Dreamforce 2024 a laissé place à la mise en avant de cas spécifiques, pour les ventes (Agentforce Sales), le support informatique (Agentforce IT Service), la gestion des ressources humaines (Agentforce HR Service) et la datavisualisation (Agentforce Tableau).

Parallèlement, un usage généraliste est promu à travers Channel Expert. Cet agent activable dans tous les canaux peut pour le moment exploiter conversations, canevas, listes, fichiers texte et PDF. Il nécessite une licence Agentforce.

Slack s’adresse aussi aux développeurs d’applications. Il leur annonce la disponibilité d’un serveur MCP, donnant initialement accès aux conversations, aux fichiers et aux canevas. Il évoque aussi un élément récemment ajouté à son API : un bloc facilitant l’affichage de données tabulaires au sein de messages.

Avec les IA, une API devenue moins ouverte

L’API a connu, dernièrement, une évolution plus marquante, corollaire d’une démarche de restriction de l’accès aux données. Slack a effectivement modifié, fin mai, les conditions d’utilisation, essentiellement pour empêcher les exportations massives de données. L’éditeur en a interdit le stockage et l’indexation « longue durée », tout en précisant qu’elles ne pouvaient servir à entraîner des LLM. En parallèle, il a mis en place un plafonnement des débits (nombre de requêtes par minute et de messages par requête) sur les méthodes conversations.history et conversations.replies pour les applications commerciales non distribuées sur sa marketplace.

L’API RTS (Real-Time Search), promue de la bêta à la « disponibilité limitée » à l’occasion de la Dreamforce, s’inscrit dans cette même logique : elle permet d’exploiter des données sans les sortir de Slack. Les applications ChatGPT, Google Agentspace et Dropbox Dash, entre autres, en font usage. Perplexity Enterprise se connecte quant à lui au serveur MCP.

Initialement rattaché à l famille Slack AI, Slackbot commence, en tout en façade, à tendre vers l’agentique. À terme, il devra « réaliser des actions en votre nom et construire des agents sur votre demande », nous annonce-t-on. En l’état, on se tournera vers la brique Agent Builder, en exploitant éventuellement les quelques templates récemment ajoutés (Customer Insights, Employee Help, Onboarding).

À consulter en complément, un point sur l’évolution du branding côté Salesforce, entre chatbots, copilotes , agents… et dilution de la marque Einstein.

Illustration © Slack

The post D’une Dreamforce à l’autre, comment Slack entretient la flamme de l’IA agentique appeared first on Silicon.fr.

  •  

Qui est Nscale, la pépite britannique des datacenters IA ?

A côté de Mistral et de sa dernière levée de fonds stratosphérique, c’est l’autre champion de l’écosystème IA européen. Son nom : Nscale. En moins d’un mois, la pépite britannique, qui va fêter ses deux ans, a levé 1,533 milliard $ pour conquérir s’imposer dans l’infrastructure dédiée à l’intelligence artificielle.

Son ambition :  devenir un hyperscaler spécialisé dans l’IA, offrant des centres de données complets intégrant puissance de calcul, stockage, réseau et logiciels de gestion, capables de supporter les applications IA les plus exigeantes tout en assurant la souveraineté des données.

Depuis le début de l’année, la startup multiplie les gros contrats avec les géants de la Tech.

Partie prenante du projet Stargate, versant européen, Nscale exploite un campus hyperscale à Narvik en Norvège, développé en partenariat avec Aker ASA, un groupe norvégien spécialisé dans l’ingénierie et l’énergie, et aligné sur les besoins d’OpenAI. Ce site fournit déjà 52 000 GPU à Microsoft dans le cadre d’un contrat pluriannuel.

Big deal de 14 milliards $ avec Microsoft

Dernier en date, celui signé avec Microsoft. La transaction pourrait générer jusqu’à 14 milliards $ de revenus selon le Financial Times.  Dans le détail, Nscale fournira environ 104 000 GPU NVIDIA GB300 sur un campus d’IA hyperscale d’environ 240 MW situé au Texas, permettant le déploiement progressif des services d’infrastructure IA de NVIDIA pour Microsoft à partir du troisième trimestre 2026. Le site, actuellement loué à Ionic Digital, pourra voir sa capacité étendue progressivement jusqu’à 1,2 GW, Microsoft disposant d’une option pour une seconde phase de 700 MW à partir de fin 2027.

Au Portugal, Nscale commencera, dès le premier trimestre 2026, à fournir environ 12 600 GPU NVIDIA GB300 au centre de données Start Campus de Sines. Cet accord pluriannuel permettra à Microsoft de bénéficier de services d’infrastructure IA NVIDIA tout en offrant aux clients européens des solutions d’IA souveraines au sein de l’Union européenne.

Parallèlement, cet accord complète le projet annoncé en septembre dernier par Nscale et Microsoft visant à déployer le plus grand supercalculateur IA NVIDIA du Royaume-Uni sur le campus d’IA de Nscale à Loughton. Cette installation de 50 MW, extensible à 90 MW, accueillera environ 23 000 GPU NVIDIA GB300 à partir du premier trimestre 2027, afin de soutenir les services Microsoft Azure.

« Cet accord confirme la place de Nscale comme partenaire de choix pour les plus grands leaders technologiques mondiaux. Peu d’entreprises sont équipées pour déployer des GPU à cette échelle, mais nous possédons l’expérience et le pipeline mondial nécessaires. » se réjouit son CEO et fondateur Josh Payne.

Les levées de fonds de Nscale depuis sa création en 2023

Date Montant levé Type de financement Investisseurs principaux Objectif / Remarques
Décembre 2023 30 M$ Seed Non divulgué Lancement et premiers développements des infrastructures IA.
Décembre 2024 155 M$ Série A Sandton Capital Partners, Kestrel 0x1, Blue Sky Capital, Florence Capital Expansion en Europe et Amérique du Nord pour infrastructures IA.
Septembre 2025 1,1 Md$ Série B Aker ASA, Nokia, Nvidia, Dell, Fidelity, G Squared, Point72, Sandton Capital, T.Capital Accélérer le déploiement d’infrastructures IA souveraines en Europe, USA et Moyen-Orient.
Octobre 2025 433 M$ Pré-Série C (SAFE) Blue Owl, Dell, Nvidia, Nokia, nouveaux investisseurs Renforcer la capacité de déploiement d’infrastructures IA souveraines.

The post Qui est Nscale, la pépite britannique des datacenters IA ? appeared first on Silicon.fr.

  •  

Rachat de SFR : 7 chiffres pour contextualiser la première offre

La dette d’Altice France restructurée, Bouygues Telecom, Free et Orange sortent du bois.

Après des mois de discussions, les trois opérateurs viennent de déposer une offre conjointe portant sur SFR. Elle a été immédiatement rejetée.

Voici quelques éléments de contexte chiffrés.

17 milliards d’euros

Le montant de l’offre.
Bouygues Telecom en apporterait 43 % (7,3 Md€) ; Free, 30 % (5,1 Md€) ; Orange, 27 % (4,6 Md€).

L’activité B2B serait reprise par Bouygues Telecom principalement, et par Free.
L’activité B2C serait partagée entre les trois opérateurs.
Les autres acteurs et ressources – notamment infrastructures et fréquences – seraient également partagées.
Le réseau mobile SFR en zone non dense serait repris par Bouygues Telecom.

4 participations

L’offre exclut explicitement quatre participations d’Altice. En l’occurrence :

  • Intelcia
    Filiale d’outsourcing (centre de contact, recouvrement, conseil en IT…). 40 000 collaborateurs.
  • UltraEdge
    Résultat de la scission des activités datacenter de SFR, effectuée en 2024 avec l’arrivée du fonds d’investissement Morgan Stanley Infrastructure Partners.
    250 sites, dont 90 utilisables en colocation (plus de 500 m2 de surface IT installée) ; 45 MW de puissance disponible.
    SFR est resté client (pour ses activités télécoms) et actionnaire minoritaire.
  • XPFibre
    Ex-SFR FTTH. Opérateur d’infrastructures spécialisé dans les réseaux de fibre optique. Intervient dans les zones peu et moyennement denses (AMEL, AMII et RIP). Créé en 2019 avec la prise de participation à 49,9 % d’AXA, Allianz et du fonds canadien OMERS. Renommé en 2021 après l’absorption de Covage.
  • Altice Technical Services
    ERT Technologies (1350 salariés ; née en 2000) est sa principale entité. Elle conçoit, construit, exploite et assurance la maintenance d’infrastructures réseau.

80 MHz

La taille du bloc de fréquences que SFR est autorisé à exploiter sur la « bande cœur » de la 5G (3,4 – 3,8 GHz). L’attribution s’est déroulée en 2020. Orange a obtenu 90 MHz ; Bouygues Telecom et Free, 70 MHz chacun.

SFR déploie aussi la 5G sur la bande dite des 2100 Mhz. Il y dispose de 15 MHz en liaison montante (1920,5 – 1935,5 MHz) comme en liaison descendante (2110,5 – 2125,5 MHz).

L’opérateur dispose également de 5 MHz duplex dans la bande des 700 MHz, attribuée en 2015 dans le cadre du deuxième dividende numérique (récupération de fréquences exploitées par la TNT).

15 345 sites

Au 1er octobre 2025, le volume de sites 5G SFR techniquement opérationnels en France métropolitaine (pour 18 989 sites autorisés).
Le compteur en était à 16 800 chez Bouygues Telecom (20 686 autorisés), 21 938 chez Free (25 947 autorisés) et 14 797 chez Orange (17 608 autorisés).

  • Bande des 700 MHz
    SFR : pas de sites
    Bouygues Telecom : pas de sites
    Free : 20 911 sites opérationnels (25 415 autorisés)
    Orange : 12 007 sites opérationnels (13 679 autorisés)
  • Bande des 2100 MHz
    SFR : 10 944 sites opérationnels (14 637 autorisés)
    Bouygues Telecom : 16 489 sites opérationnels (20 582 autorisés)
    Free : pas de sites
    Orange : 1674 sites opérationnels (2688 autorisés)
  • Bande des 3,5 GHz
    SFR : 10 086 sites opérationnels (12 555 autorisés)
    Bouygues Telecom : 10 037 sites opérationnels (12 544 autorisés)
    Free : 9762 sites opérationnels (12 309 autorisés)
    Orange : 13 075 sites opérationnels (15 084 autorisés)

D’après Altice, le réseau 5G de SFR couvrait, au 30 juin 2025, 84,5 % de la population.

25,415 millions de clients

Fixe et mobile confondus, SFR comptait un peu plus de 25 millions de clients au 30 juin 2025.

Sur le fixe, ils étaient 6,109 millions, contre 6,227 millions un an plus tôt (- 1,9 %). Ce volume correspond au nombre d’utilisateurs finaux ayant souscrit à au moins un service basé sur la fibre, le câble ou les box 4G.

Sur le mobile aussi, SFR a perdu des clients. En un an, sa base est passée de 19,624 à 19,306 millions (- 1,6 %).

2028

L’horizon auquel SFR doit « redevenir l’opérateur préféré des Français en proposant le meilleur rapport qualité-prix du marché ».

Tel est en tout cas l’objectif affiché par Altice dans le cadre de son plan SFR Imagine lancé en octobre 2024. En toile de fond, le recentrage sur son activité télécoms. Il a impliqué la vente d’Altice Médias (BFMTV et RMC) à CMA-CGM pour environ 1,5 Md€.

15,5 milliards de dette

Altice France chiffrait sa dette financière nette à 23,773 Md€ au 30 juin 2025.

Elle a depuis été restructurée, et ainsi réduite à 15,5 Md€. En contrepartie, les créanciers montent à 45 % du capital (Patrick Drahi conservant ainsi une participation majoritaire).

Le groupe était entré en procédure de sauvegarde accélérée au mois de mai. Le tribunal des affaires économiques de Paris avait donné son feu vert à la restructuration de dette en août. L’opération a ouvert la voie à la vente de SFR.

Sur le premier semestre 2025, Altice France a réalisé un chiffre d’affaires de 4,746 Md€ (- 7,1 % par rapport à la même période en 2024). Dont :

  • 1,294 Md€ sur le segment fixe résidentiel (- 4,6 %)
  • 1,636 Md€ sur le mobile résidentiel (- 10,6 %)
  • 1,43 Md€ sur le segment business services (- 5,7 %)*

Le résultat opérationnel a chuté de 25,3 %, à 645,6 M€, malgré une nette réduction des achats et de la sous-traitance. Comme, dans une moindre mesure, des autres dépenses d’exploitation (portée entre autres par l’automatisation du service client à renfort d’une IA basée sur Gemini). La perte nette s’est élevée à 368,3 M€.

* Le segment business services inclut les revenus les revenus associés à la location de l’infrastructure réseau à d’autres opérateurs. Il comprend aussi les activités datacenter, la production et la distribution de contenu, les services client et technique, ainsi que la construction de réseaux FTTH.

Illustration © Maxime Dufour Photographies

The post Rachat de SFR : 7 chiffres pour contextualiser la première offre appeared first on Silicon.fr.

  •  

Le mode Internet Explorer d’Edge restreint après une faille de sécurité

Pour cause de faille de sécurité, Microsoft a resserré l’étau sur le mode IE d’Edge.

Ce mode est maintenu pour assurer la compatibilité avec les sites qui utilisent encore des technologies obsolètes comme Flash et ActiveX. Il exploite le moteur de rendu d’Internet Explorer 11 (Trident/MSHTML).

Une RCE dans le moteur JavaScript

Au mois d’août, Microsoft a été averti d’une campagne de social engineering combinée à une vulnérabilité 0-day dans Chakra, le moteur JavaScript d’IE.

La victime était dirigé vers un site malveillant qui était rechargé en mode IE, ouvrant la voie à l’exécution de code à distance puis à une élévation de privilèges hors du navigateur.

Le mode IE devient moins facilement activable

Dans ce contexte, Microsoft a décidé de retirer plusieurs points d’entrée vers le mode IE. En l’occurrence, le menu contextuel (affiché au clic droit sur un onglet ou sur un lien), le menu hamburger et le bouton dans la barre d’outils.

Il faut désormais aller dans les paramètres d’Edge, activer le mode IE, puis ajouter au cas par cas les sites autorisés.

Ce changement ne concerne pas Edge Enterprise, où l’activation du mode IE se fait toujours par l’intermédiaire de stratégies.

mode IE

Illustration principale générée par IA

The post Le mode Internet Explorer d’Edge restreint après une faille de sécurité appeared first on Silicon.fr.

  •  

Anne-Marie Calmeil nommée Présidente de T-Systems France

T-Systems, filiale du groupe Deutsche Telekom et acteur européen des services numériques,  annonce la nomination d’Anne-Marie Calmeil au poste de Présidente de T-Systems France.

Elle succède à Jean-Paul Alibert, qui quittera ses fonctions à la fin du mois.

Un parcours marqué par la transformation numérique

Anne-Marie Calmeil débute sa carrière en 1998 chez IBM, où elle contribue à la croissance des activités dans les secteurs des médias, des télécommunications et des utilities. En 2014, elle rejoint Atos pour diriger le marché des médias, avant de devenir Global Client Executive d’Orange.

En 2020, elle fonde et dirige la filiale française du cabinet de conseil espagnol Everis, devenu NTT DATA, qu’elle développe jusqu’à l’été 2025. Tout au long de son parcours, elle a occupé des fonctions de direction en France et à l’international, pilotant des équipes et des stratégies centrées sur le client dans des environnements de forte transformation.

Diplômée en économie et mathématiques de la Sorbonne, elle a également suivi des programmes d’Executive Education à la London Business School et à HEC Paris.

The post Anne-Marie Calmeil nommée Présidente de T-Systems France appeared first on Silicon.fr.

  •  

Digital workplace : le frontline, défi persistant pour les fournisseurs d’intranets

Pour ce qui est des « travailleurs de première ligne » (frontline workers), les fournisseurs d’intranets restent largement en phase d’apprentissage.

D’année en année, Gartner réitère le constat dans le Magic Quadrant qu’il dédie à ce marché. La dernière édition n’y déroge pas.

Autre élément récurrent : l’absence de Microsoft, en dépit de l’influence qu’il a sur ce segment. Et pour cause : Gartner limite toujours son périmètre aux « solutions packagées » (IPS, Intranet Packaged Services), définies comme « prêts à l’emploi ». Par opposition à SharePoint, qui nécessite des composantes externes (de Microsoft ou de tierces parties), en tout cas pour satisfaire aux critères fonctionnels évalués.

Reste que Microsoft est l’éditeur avec lequel tous les fournisseurs d’IPS doivent composer. Certains se greffent sur des locataires Office 365 quand d’autres utilisent SharePoint pour gérer le contenu et/ou mettent en place des intégrations avec des éléments comme Entra ID, Teams et le Microsoft Graph.

Peu de fournisseurs ont des solutions verticales voire déploient un effort marketing et commercial dans ce sens, ajoute Gartner. Ce critère a toutefois eu un poids faible dans l’évaluation.

16 fournisseurs, 7 « leaders »

L’axe « exécution » du Magic Quadrant reflète la capacité à répondre effectivement à la demande. La situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Unily + 1
2 Simpplr – 1
3 LumApps + 3
4 Workvivo by Zoom + 1
5 Omnia nouvel entrant
6 ServiceNow + 5
7 Blink nouvel entrant
8 Staffbase + 1
9 Firstup – 1
10 Interact =
11 Appspace + 2
12 MangoApps – 8
13 Haiilo – 1
14 Akumina – 11
15 Powell – 8
16 Axero – 1

Sur l’axe « vision », censé refléter les stratégies (géographique, sectorielle, commerciale, marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 LumApps + 3
2 Simpplr – 1
3 Unily – 1
4 Workvivo by Zoom + 1
5 Interact + 2
6 MangoApps + 5
7 Akumina + 2
8 Firstup – 2
9 Staffbase – 6
10 Powell + 3
11 Omnia nouvel entrant
12 Haiilo + 2
13 Appspace – 3
14 ServiceNow – 6
15 Axero – 3
16 Blink nouvel entrant

Les fournisseurs classés « leaders » sont les mêmes que dans le précédent Magic Quadrant des IPS :  Firstup, Interact, LumApps, Simpplr, Staffbase, Unily et Workvivo.

Firstup, pas le mieux placé pour la gestion du travail et du contenu

Gartner salue la stratégie marketing de Firstup, capable de cibler un large éventail de profils d’acheteurs. Il apprécie aussi la gestion du premier contact et de l’onboarding. Bons points également pour l’expérience client (gestion de compte, collecte de feedback, promotion des communautés) et la viabilité de l’entreprise (santé financière, base de clientèle, engagement R&D).

Firstup n’est pas le mieux placé pour répondre aux exigences qui vont au-delà de la communication multicanale et du frontline, pour toucher par exemple à la recherche d’entreprise, à l’IA et à la gestion de contenu. Il ne propose, par ailleurs, pas de capacités « traditionnelles » de gestion du travail (assignation de tâches, automatisation de workflows…). Gartner note aussi l’absence de solutions verticales et le défi de passage à l’échelle – ventes, marketing, support, développements personnalisés – pour Firstup, qui n’est pas un pure player.

Idéation, newsletters, affichage dynamique… Des briques moins matures chez Interact

Interact a aussi droit à un bon point sur son marketing, tant pour la stratégie que pour l’exécution. Il se distingue également par sa compréhension des profils d’acheteurs ; et, en conséquence, par sa capacité à contextualiser ses offres. Gartner apprécie de surcroît son niveau de présence au sein des organisations de moins de 25 000 employés et l’extensibilité de sa solution. Ainsi que la prise en charge du frontline, entre autres par des intégrations avec des systèmes de gestion du travail.

Certaines briques d’Interact sont moins matures que son cœur fonctionnel. Par exemple, l’idéation, les newsletters et l’affichage dynamique. Attention également au modèle largement direct, qui limite les ressources dans certaines régions géographiques (Asie-Pacifique et Amérique latine, notamment). On prendra par ailleurs garde d’avoir les ressources nécessaires si on apporte ses propres modèles sur le back-end IA.

Mise en place et gestion complexes pour LumApps

Gartner salue l’exhaustivité de l’offre de LumApps et son adaptabilité à beaucoup de cas d’usage. Il apprécie aussi son extensibilité (orchestration et automatisation de workflows, développement de mini-apps) et les fonctionnalités IA qui lui ont été greffées, tant pour les admins que les gestionnaires de contenus et les utilisateurs finaux.

La mise en place et la gestion peuvent s’avérer complexes, même avec l’assistance par GenAI. LumApps manque par ailleurs de notoriété dans certaines régions et en dehors de son cœur de marché. La clientèle étant essentiellement composée d’organisations de moins de 10 000 employés, les plus grandes auront sont d’étudier si le support leur conviendra.

Chez Simpplr, un manque de cohésion entre communication et gestion de contenu

Simpplr se distingue par ses efforts sur l’orchestration. Ainsi que sur l’IA, gouvernance comprise (utilisation de NVIDIA NeMo Guardrails et de Langfuse). Gartner apprécie aussi la qualité des interactions client (marketing, vente, partenaires) et l’efficacité de la solution en matière de gestion du travail.

Présent surtout en Amérique du Nord, Simpplr a une distribution géographique moins équilibrée que ses concurrents. Gartner ajoute que la partie communication multicanale manque de cohésion vis-à-vis de la gestion de contenu, qui n’est plus globalement par le fort de Simpplr. Le cabinet américain note aussi un focus R&D parfois au détriment des ventes et du marketing.

IA, orchestration et extensibilité, des faiblesses de Staffbase

Staffbase a pour lui son niveau de compréhension du marché, porté par son expérience sur la partie communication entre employés. Son intégration de longue date avec Microsoft lui permet de bien couvrir à la fois employés de bureau et frontline. L’empreinte géographique (distribution du revenu, réseau de partenaires, versions localisées) est un autre point fort. Comme la santé financière de l’entreprise et ses investissements en R&D.

Staffbase peut être perçu comme globalement immature sur l’IA pour qui cherche des capacités avancées de gestion du travail, de service aux employés et d’optimisation data-driven. Gartner relève aussi des faiblesses dans l’orchestration et l’extensibilité. Ainsi que les défis qu’est susceptible de poser le focus de Staffbase sur l’aspect communication.

Tarification peu transparente chez Unily

Bon point marketing également pour Unily, onboarding compris. Gartner apprécie aussi le réseau de partenaires et d’intégrations, la capacité de collecte de feedback et la disponibilité de solutions sectorielles.

Unily a une présence limitée dans les entreprises de moins de 10 000 salariés – certaines ressentent qu’elles ne sont pas une priorité. Gartner relève aussi le manque de transparence de sa tarification, les limites sur les fonctionnalités IA (analyse de recherche, simulation d’audience, UI adaptatives) et le support (temps de réponse et d’escalade).

Workvivo pousse le social/communautaire au détriment d’autres use cases

En plus de pouvoir s’appuyer sur les ressources et la notoriété de Zoom, Workvivo opère un positionnement markting efficace. Gartner apprécie ses programmes d’accompagnement client et l’accent mis sur le développement de communautés internes.

En matière de gestion du travail et d’extensibilité, il y a mieux, explique le cabinet américain. Workvivo est globalement jugé trop agressif sur le sujet social/communautaire au détriment d’autres cas d’usage. Vigilance aussi pour qui veut standardiser sur Teams : l’expérience front-end est brandée Workvivo, mais le back-end est branché sur Zoom.

Illustration générée par IA

The post Digital workplace : le frontline, défi persistant pour les fournisseurs d’intranets appeared first on Silicon.fr.

  •  

De Glacier à CodeCatalyst, AWS range nombre de services au placard

AWS orchestre un grand ménage dans ses services de modernisation.

Migration Hub et Application Discovery Service sont passés en mode maintenance. Pour le moment jusqu’au 7 novembre 2025, date à partir de laquelle ils n’accepteront plus de nouveaux clients*. Il en sera de même à cette échéance pour les outils de modernisation .NET**. Tandis que Mainframe Modernization Service n’existera plus qu’en version autogérée.

Le palliatif désigné, lancé il y a quelques mois sous la bannière de l’IA agentique, s’appelle AWS Transform.

Quantité d’autres services passeront en mode maintenance à partir du 7 novembre 2025. En voici quelques-uns.

Amazon Cloud Directory

Magasin de données hiérarchisées, alternatif aux annuaires LDAP. Les écritures seront bloquées dans un deuxième temps (passé le 22 avril 2026). Puis le service fermera le 30 septembre 2026 et le contenu sera supprimé en parallèle. AWS n’y a plus ajouté de fonctionnalités depuis 2018 et le lancement d’Amazon Neptune, base de données orientée graphe vers laquelle il recommande aujourd’hui de migrer.

Amazon CodeCatalyst

À partir du 7 novembre, il ne sera alors plus possible, pour les utilisateurs existants, de créer de nouveaux espaces. AWS recommande de migrer vers l’offre GitLab Duo with Amazon Q. Ou alors vers CodeBuild (compilation et test de code), CodePipeline (orchestration CI/CD), CodeDeploy (déploiement d’applications) et Code Artifact (gestion de packages).

Amazon CodeGuru Reviewer

Service d’analyse de code Java et Python sur Bitbucket, CodeCommit, GitHub et S3). À partir du 7 novembre 2025, il ne sera plus possible de créer de nouvelles associations de dépôts. Options de migration recommandées : Amazon Q Developer et Amazon Inspector, qui couvrent l’un et l’autre GitHub et GitLab.

Amazon S3 Object Lambda

Ce service permet l’ajout de code aux requêtes S3 GET, HEAD et LIST pour modifier des données. Il n’acceptera plus de nouveaux utilisateurs à la même date. AWS recommande d’invoquer Lambda par d’autres moyens (via CloudFront, API Gateway ou les URL de fonctions) ou de traiter les données dans les applications clientes.

Amazon Glacier

Le passage en maintenance d’Amazon Glacier interviendra un peu plus tard. Le 15 décembre 2025 en l’occurrence. On parle là du service d’origine, autonome, basé sur un coffre-fort avec API REST. Les données stockées jusque-là resteront accessibles indéfiniment, assure AWS, qui recommande de faire la transition vers les classes de stockage Glacier dans S3. Lesquelles ont l’avantage d’une disponibilité plus large sur son cloud, d’une intégration avec ses autres services, d’un coût inférieur et d’une API niveau bucket.

AWS IoT SiteWise Monitor et Data Procesing Pack

Deux composantes de l’offre AWS IoT SiteWise passeront également en mode maintenance le 7 novembre 2025. D’une part, le Data Processing Pack  (transformation, stockage et visualisation de données). De l’autre, Monitor (création de portails web pour visualiser et partager des données au sein d’une organisation). Pour remplacer le premier, AWS recommande soit l’open source (Node-RED pour la transformation, InfluxDB pour le stockage de séries chronologiques, Grafana pour la visualisation), soit des solutions de partenaires (CloudRail, EasyEdge, Litmus Edge). Au second, il conseille de substituer le plug-in Amazon Managed Grafana (en sachant qu’il n’y a pas de contrôle d’accès niveau asset ni d’intégration avec AWS IoT SiteWise Assistant) ou bien Grafana Cloud ou autohébergé.

AWS Snowball Edge

Appliances de transfert de données. L’offre n’acceptera plus non plus de nouveaux clients à compter du 7 novembre 2025. Successeurs recommandés : DataSync pour les transfert sur lien réseau et Data Transfer Terminal pour les transferts physiques (Seagate et Tsecond soit également cités). Pour remplacer l’appliance optimisée compute, il y a éventuellement l’offre AWS Outposts.

Amazon Fraud Detector

Détection de fraude à base de machine learning. En guise de remplacement, AWS avance son WAF (pare-feu pour applications web), son service SageMaker (MLOps)… et une bibliothèque open source dont il est à l’origine : AutoGluon (AutoML à partir d’images, de texte, de séries chronologiques et de données tabulaires).

Accès web à Amazon WorkSpaces sur PCoIP

AWS recommande d’installer, si possible, les clients Amazon WorkSpaces. Sinon, de migrer vers le protocole DCV. Qui a, entre autres avantages :

  • Meilleures performances
  • Fonctionnalités supplémentaires (SAML et authentification par certificats, notamment)
  • Disponibilité étendue (pas d’accès web sur PCoIP dans certaines régions AWS, dont Paris)
  • Gestion des bureaux Linux en plus de Windows
  • Fonctionnement dans Edge et Safari en plus de Chrome et Firefox
  • Gestion des écrans multiples et des GPU côté hôte

* Sur Migration Hub comme sur Application Discovery Service et Mainframe Modernization Service, les projets en cours pourront être menés à leur terme.

** Cela comprend Porting Assistant for .NET, AWS App2Container, AWS Toolkit for .NET Refactoring et AWS Microservice Extractor for .NET.

Illustration © Annika – Adobe Stock

The post De Glacier à CodeCatalyst, AWS range nombre de services au placard appeared first on Silicon.fr.

  •  

Gestion des API : le sourcing multiple est devenu standard

Pour la gestion des API, la tendance est à l’approvisionnement auprès de plusieurs fournisseurs.

Gartner avait fait la remarque l’an dernier dans le Magic Quadrant consacré à ce marché. Il va plus loin cette année : le sourcing multiple est devenu standard… en contrepartie d’un risque de fragmentation que peuvent toutefois atténuer les architectures fédérées.

Un autre mouvement s’est confirmé : une part croissante des utilisateurs de solutions de gestion des API sont des développeurs. Les stratégies marketing ont évolué en conséquence. Mais des offreurs gardent un déficit de visibilité auprès de ce public. Y compris quelques-uns de ceux que Gartner classe comme « leaders ». En l’occurrence, Axway, Boomi et, dans une certaine mesure, IBM.

17 fournisseurs, 7 « leaders »

En 2024, Boomi faisait partie des « acteurs de niche ». En un an, il a nettement progressé, tant en « exécution » (capacité à répondre effectivement à la demande du marché) qu’en « vision » (stratégies : sectorielle, géographique, commerciale, marketing, produit…). Axway et IBM étaient quant à eux déjà « leaders ». Même chose pour Google Cloud, Gravitee, Kong et Salesforce. On ne peut pas en dire autant de SmartBear, qui a rétrogradé chez les « visionnaires ».

Sur l’axe « exécution », la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Google =
2 IBM =
3 Salesforce + 2
4 Kong + 5
5 Boomi + 8
6 Axway – 3
7 Gravitee + 3
8 WSO2 + 6
9 Microsoft – 5
10 SAP – 3
11 AWS – 5
12 Sensedia + 5
13 SmartBear – 2
14 Tyk – 6
15 Workato nouvel entrant
16 Postman – 1
17 Solo.io – 1

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Kong =
2 Boomi + 12
3 Gravitee + 3
4 Salesforce + 3
5 IBM – 1
6 Google – 4
7 Tyk + 4
8 Postman – 5
9 Axway – 4
10 SmartBear – 2
11 Microsoft + 1
12 Workato nouvel entrant
13 SAP =
14 WSO2 – 5
15 Sensedia =
16 Solo.io – 6
17 AWS =

Axway : avec le chantier iPaaS, moins d’agilité sur l’IA

Comme l’an dernier, Axway se distingue sur la gestion fédérée des API. Gartner salue de plus le lancement récent d’une brique iPaaS. Il apprécie aussi la manière dont les partenariats (Stoplight, Ping, Graylog, Traceable…) viennent renforcer le modèle économique, au même titre que les acquisitions (en particulier celle de Sopra Banking Software, dont la fusion avec Axway a donné 74Software). Bon point également pour la capacité d’internationalisation, entre documentation multilingue et UI localisées.

Également comme l’an dernier, la notoriété auprès des développeurs reste limitée. Axway est par ailleurs plus lent que la concurrence pour livrer des fonctionnalités IA « avancées » (le focus sur l’iPaaS l’explique en partie, comme la restructuration de sa stack autour de la notion d’événements). Gartner relève, en parallèle, une croissance des ventes bien inférieure à la moyenne du marché.

Boomi manque d’accroche auprès des développeurs

L’année écoulée aura marqué un tournant dans la vision de la gestion des API chez Boomi, de sorte que ce dernier dépend désormais moins du seul iPaaS pour se différencier.  L’acquisition d’APIIDA et de TIBCO Mashery a accompagné la refonte de l’offre, assortie d’une feuille de route que Gartner salue. Dans le même temps, la présence commerciale de Boomi s’est étendue, tant du point de vue géographique qu’au travers du renforcement de partenariats (ServiceNow et AWS en particulier).

Sur la gestion des API, Boomi reste, relativement aux autres « leaders », un petit acteur en termes de revenus et de part de marché. Il n’a pas non plus la même empreinte auprès des développeurs (son marketing reste perçu comme axé sur les métiers et les décideurs IT). Vigilance également quant à l’intégration avec les passerelles tierces : elle peut s’avérer complexe.

Apigee « généreusement » poussé comme complément à GCP

Google Cloud se distingue sur le volet innovation, entre autres parce qu’il a greffé à Apigee de quoi favoriser la conception d’API par des agents (avec prise en charge des protocoles A2A et MCP). Gartner apprécie aussi les possibilités offerts en matière de monétisation du trafic IA et de détection des usages abusifs. Il y ajoute la stabilité du produit et sa capacité à remplir les cas d’usage les plus complexes… sous réserve de disposer de l’expertise adéquate.

Google Cloud continue néanmoins à positionner ses produits comme des compléments à GCP plutôt que comme des solutions autonomes. Des clients signalent, de surcroît, qu’on les incite à migrer. Le produit en lui-même est relativement complexe à exploiter. Et malgré des changements positifs sur la tarification, des clients de longue date expriment leur inquiétude quant au rapport coût/bénéfices.

Gravitee n’a toujours pas sectorialisé son offre

Outre un déploiement flexible, Gravitee a pour lui l’indépendance vis-à-vis de tout cloud, progiciel ou iPaaS. Gartner souligne qu’il a su rapidement proposer une passerelle IA gérant le protocole MCP (et destinée à s’ouvrir aux maillages agentiques). Bon point également pour la performance commerciale (CA déclaré en croissance de 70 % sur un an), doublée d’une tarification simple.

Par rapport aux autres « leaders », Gravitee manque de notoriété. Il n’a toujours pas « verticalisé » son approche. Et sa clientèle reste largement concentrée en Europe (les acheteurs sur d’autres plaques géographiques se poseront la question du service et du support).

IBM, peu pris en considération hors de son écosystème

IBM est crédité d’un bon point pour la couverture fonctionnelle de son offre. Il l’est aussi pour la flexibilité de déploiement et la livraison de fonctionnalités axées IA (gestion des prompts, routage LLM). Gartner salue également la diversité de sa clientèle (tailles, régions, secteurs) ainsi que de son réseau commercial et de support.

L’acquisition de webMethods a produit un doublon au catalogue (voire plus si on considère que Red Hat a sa propre offre de gestion d’API), qui demeure en l’état même si IBM a promis une convergence. Big Blue a par ailleurs tendance à toucher essentiellement les organisations qui sont ses clients sur d’autres segments (il est peu évalué sinon). Et sur l’année écoulée, ses ventes ont connu une croissance sous la moyenne du marché.

Kong : une tarification qui peut prêter à confusion

Kong se distingue par les fonctionnalités AI-driven qu’il a livrées dernièrement (génération d’API, de spécifications et de serveurs MCP). Il parvient par ailleurs à conserver une forte visibilité, à renfort d’événements, de partenariats et de présence sur les principales marketplaces. Gartner salue aussi le lancement des Serverless Gateways (passerelles « légères » sans serveur) et de l’Event Gateway (qui permet de gérer des flux Kafka), intégrée avec son maillage de services.

Comme chez Gravitee, pas de solutions sectorielles au catalogue. Attention aussi à la courbe d’apprentissage que supposent les solutions Kong, en plus de la confusion que peuvent susciter la tarification basée sur les services et les frais supplémentaires pour des éléments comme les portails, les tests et l’analytics. Gartner y ajoute une présence limitée en Amérique du Sud, au Moyen-Orient et en Afrique comparé aux autres « leaders ».

Salesforce reste un des fournisseurs les plus chers

En complément à la présence commerciale et au réseau de partenaires, Gartner note que Salesforce a réussi à s’étendre sur le segment SMB (small and medium business, entreprises de moins de 1000 employés), qui représente 30 % du business de MuleSoft. L’intégration avec le reste de son offre a contribué à attirer une grosse base de clientèle. Salesforce jouit globalement d’une grande notoriété de marque, y compris auprès des développeurs.

En plus de rester l’un des fournisseurs les plus chers, MuleSoft présente une structure de prix complexe susceptible d’entraîner des coûts imprévus. Il est par ailleurs perçu comme plus réactif qu’innovant, en particulier pour ce qui touche à l’IA. Et les capacités restent limitées sur la monétisation comme le test d’API, ainsi que la fédération de passerelles.

Illustration © Murrstock – Adobe Stock

The post Gestion des API : le sourcing multiple est devenu standard appeared first on Silicon.fr.

  •  

Alliance OpenAI-Broadcom : c’est signé

OpenAI a officialisé un partenariat stratégique avec Broadcom pour concevoir et produire ses propres processeurs d’intelligence artificielle. L’information avait été révélé par la presse en septembre.

Selon le communiqué commun, OpenAI concevra ses propres accélérateurs IA, tandis que Broadcom assurera le développement, la production et l’intégration des systèmes matériels. Les deux entreprises co-développeront des « racks » complets combinant les puces OpenAI et les solutions réseau, optiques et PCIe de Broadcom.

Le déploiement commencera au second semestre 2026, pour une mise en service progressive jusqu’à fin 2029. L’objectif est d’atteindre une capacité totale de 10 gigawatts d’accélérateurs, soit une puissance comparable à la consommation électrique de plus de 8 millions de foyers américains.

La course aux infrastructures IA

OpenAI indique vouloir intégrer dans ces puces « les enseignements tirés du développement de ses modèles », afin d’optimiser les performances et l’efficacité énergétique de ses futurs systèmes. Cette approche illustre la volonté de l’entreprise de maîtriser l’ensemble de la chaîne technologique, du modèle logiciel jusqu’à l’infrastructure matérielle.

Avec Broadcom, OpenAI franchit une nouvelle étape en internalisant la conception de puces, rejoignant ainsi les géants du cloud tels que Google (Alphabet), Amazon ou Microsoft, qui ont développé leurs propres architectures (TPU, Graviton, Maia, etc.).

Cependant, cette stratégie reste incertaine. Plusieurs entreprises — dont Meta ou Microsoft — ont rencontré des difficultés techniques ou des retards dans la mise au point de leurs puces, sans parvenir à égaler les performances des GPU Nvidia. Les analystes estiment que la domination de Nvidia sur le marché de l’IA ne devrait pas être remise en cause à court terme.

Le communiqué précise que les systèmes développés pour OpenAI s’appuieront exclusivement sur les technologies réseau Ethernet de Broadcom, une alternative à la solution InfiniBand de Nvidia.  En septembre, Broadcom avait déjà révélé une commande de 10 milliards de dollars pour des puces IA destinées à un client anonyme, que plusieurs analystes soupçonnaient être OpenAI.

Une opération sans détails financiers

Ni OpenAI ni Broadcom n’ont divulgué le montant de l’investissement ni les modalités de financement. Le projet représente toutefois une montée en échelle considérable, impliquant la construction ou la modernisation de vastes infrastructures de calcul et de stockage d’énergie.

L’alliance permet à l’inventeur de ChatGPT de sécuriser sa puissance de calcul face à la pénurie mondiale de GPU, tout en optimisant les coûts par requête grâce à une intégration directe entre matériel et logiciel.

Si le succès du projet dépendra de la capacité des deux partenaires à livrer à temps des systèmes compétitifs et fiables, il confirme la tendance de fond : l’intelligence artificielle de prochaine génération reposera autant sur les avancées logicielles que sur la maîtrise de la puissance matérielle.

Avant Broadcom, OpenAI a conclu une série d’accords majeurs ces derniers mois, incluant un deal avec AMD pour la fourniture de 6 GW de capacités IA accompagné d’une option d’investissement dans le capital du fabricant, ainsi qu’un engagement de Nvidia, annoncé début octobre, d’investir jusqu’à 100 milliards $ et de fournir des systèmes de centres de données d’une puissance équivalente à 10 GW.

The post Alliance OpenAI-Broadcom : c’est signé appeared first on Silicon.fr.

  •  

Infrastructure de données : Fivetran et dbt Labs fusionnent

Fivetran et dbt Labs annoncent leur fusion dans le cadre d’un échange d’actions, formant une entreprise générant près de 600 millions $ de chiffre d’affaires annuel.

L’opération, dont les modalités financières reposent sur un ratio convenu en fonction des revenus et des taux de croissance, aboutira à la création d’un groupe valorisé au-dessus des dernières estimations privées des deux sociétés américaines, a déclaré George Fraser, directeur général de Fivetran à Reuters. La valorisation finale sera déterminée par le marché.

Fivetran, basée à Oakland (Californie), avait été valorisée 5,6 milliards $ lors d’un tour de table en septembre 2021. Dbt Labs, implantée à Philadelphie (Pennsylvanie) , avait atteint une valorisation de 4,2 milliards $ lors de sa levée de fonds de série D en février 2022. Les deux entreprises comptent plusieurs investisseurs communs, dont le fonds Andreessen Horowitz.

George Fraser prendra la direction générale de l’entité fusionnée, tandis que Tristan Handy, directeur général de dbt Labs, deviendra président. Le conseil d’administration sera composé de représentants des deux entreprises.

Plus de 80 % de clients en commun

Fivetran fournit des solutions d’automatisation du transfert de données vers des entrepôts centralisés, tandis que dbt Labs est à l’origine de dbt, un outil open source permettant de transformer et de préparer les données pour l’analyse. Selon Fraser, environ 80 % à 90 % des clients de Fivetran utilisent déjà les outils de dbt.

Le logiciel open source dbt Core restera accessible sous sa licence actuelle. L’objectif du nouveau groupe est de proposer une plateforme plus complète couvrant l’ensemble des besoins de gestion et de transformation des données des entreprises.

La société combinée, proche de l’équilibre en flux de trésorerie, estime que sa taille accrue et la complémentarité de ses offres renforceront sa position en vue d’une éventuelle introduction en Bourse, bien qu’aucun projet immédiat ne soit prévu.

La finalisation de la fusion est attendue d’ici un an.

The post Infrastructure de données : Fivetran et dbt Labs fusionnent appeared first on Silicon.fr.

  •  

Le CSIRT Bourgogne-Franche-Comté confirmé dans son rôle d’expert cyber

Le Centre régional d’alerte et de réaction aux attaques informatiques Bourgogne-Franche-Comté (CSIRT-BFC), opéré par l’ARNia (Agence Régionale du Numérique et de l’intelligence artificielle) a été retenu dans le cadre de l’Appel à Manifestation d’Intérêt RALEC (Renforcement de l’Accompagnement Local aux enjeux de Cybersécurité) lancé par l’ANSSI en août dernier.

Ce renouvellement s’accompagne d’un financement de 400 000 € accordé par l’État, destiné à renforcer les moyens humains et techniques du CSIRT-BFC, à développer la prévention et à consolider un service public régional de cybersécurité accessible à tous.

Un service public régional dédié à la cybersécurité

Créé en 2022, le CSIRT-BFC apporte une assistance gratuite aux structures publiques et privées de la région — collectivités, établissements publics, associations, PME, ETI et TPE.
Il intervient en complément des dispositifs nationaux comme CERT-FR ou Cybermalveillance.gouv.fr, en proposant un appui direct face aux incidents, une veille permanente et des services de remédiation.

Depuis son lancement, le CSIRT-BFC a accompagné plus de 4 600 entités en Bourgogne-Franche-Comté. En 2024, il a supervisé 2 200 structures en continu, avec près de 2 millions de scans réalisés. Parmi les incidents signalés, 11 % ont eu un impact direct sur l’activité des organisations.

Les bénéficiaires se répartissent principalement entre collectivités ( 47 %), établissements publics (18 %) et PME (13 %°

Les principales menaces identifiées concernent le phishing, les fraudes bancaires, les ransomwares et les faux sites marchands. En parallèle, 37 actions de sensibilisation ont été organisées en 2024.

Intégration au réseau national InterCERT France

Depuis 2024, le CSIRT-BFC est le premier CSIRT régional à rejoindre le réseau InterCERT France, qui fédère les CERT et CSIRT français. Cette intégration renforce la coopération nationale pour la détection et la réponse aux incidents de cybersécurité.

Le renouvellement du CSIRT-BFC s’appuie sur un partenariat étendu avec
la Région Bourgogne-Franche-Comté, l’ARNia, les pôles de compétitivité, la French Tech Bourgogne-Franche-Comté, l’Agence Économique Régionale, les syndicats patronaux (MEDEF BFC, CPME), les universités régionales, ainsi que Dijon Métropole et Besançon Métropole.

Pour les deux prochaines années, le CSIRT-BFC prévoit de renforcer l’accompagnement des petites structures du territoire, de structurer un Campus Cyber Territorial afin de fédérer l’écosystème et d’encourager l’innovation, de déployer de nouveaux services de détection et de supervision, et de multiplier les actions de sensibilisation auprès des acteurs publics et économiques.

The post Le CSIRT Bourgogne-Franche-Comté confirmé dans son rôle d’expert cyber appeared first on Silicon.fr.

  •  

Où en est SAP Joule dans son tournant agentique ?

Il va falloir s’y habituer : les « agents Joule » se multiplient au catalogue de SAP.

L’éditeur allemand vient d’en annoncer 14 supplémentaires. Ils seront intégrés d’ici à mi-2026 dans certains de ses logiciels.

Quatre de ces agents visent les métiers de la finance :

  • Accounting Accruals (tenue du journal comptable)
  • Cash Management (gestion de trésorerie)
  • International Trade Classification (conformité aux règles du commerce international)
  • Receipts Analysis (traitement des notes de frais)

Trois sont dans le domaine de la supply chain :

  • Change Record Management (gestion du changement)
  • Product Planning and Operations (planification de la production et gestion de l’exploitation)
  • Supplier Onboarding (embarquement des fournisseurs)

Trois également dans les RH :

  • Career and Talent Development (gestion de carrière)
  • HR Service (traitement des demandes des employés)
  • People Intelligence (rétention et gestion des compétences)

Un agent s’adresse aux achats (Bid Analysis ; analyse des offres). Deux touchent à la gestion des processus (Process Content Recommender et Workspace Administration). S’y ajoute un agent sectoriel (Utilities Customer Self-Service, ciblant les fournisseurs d’énergie).

Ces 14 agents en rejoignent 17 autres. Les voici, avec leur stade de développement, les produits concernés et – pour certains – quelques-unes des promesses chiffrées que leur associe SAP.

Finance

Accounts Receivable (gestion des créances)
En bêta, pour S/4HANA Cloud Private Edition.
Recommande des actions selon le profil et l’historique du paiement du client.
Promesses*, entre autres : 75 % de temps en moins pour l’analyse et la réconciliation (de 20 à 5 minutes par dossier) et réduction de 2 % du taux de passage en pertes et profits (de 1 à 0,98 %).

Accounts Receivable

Booking (gestion des réservations)
En accès anticipé, pour Concur Travel.
Recommande vols et hébergement selon le voyageur, les politiques de l’entreprise et les contraintes budgétaires.

Booking

Dispute Resolution (résolution des litiges)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses, entre autres : réduction de 30 % du temps de gestion de litige (de 20 à 14 minutes) et de 5 % du taux de churn associé (de 0,25 à 0,238 %).

Dispute Resolution

Expense Report Validation (validation des rapports de dépenses)
En accès anticipé, pour Concur Expense.
Promesses : réduction de 30 % du temps de préparation et de soumission (de 30 à 21 minutes par rapport) et de 25 % du taux de rejet (de 15 à 11,4 %).

Expense Report Validation

Meeting Location Planner (organisation de réunions hors site)
En accès anticipé, pour Concur Travel.
Promesses : réduction de 10 % des dépenses annuelles par employé concerné (de 3975 à 3488 €) et de 15 % du temps de planification par réunion (de 5 heures à 4 heures 15 minutes).

Meeting Location Planner

Supply chain

Field Service Dispatcher (gestion des ressources)
En bêta, pour SAP Field Service Management.

Field Service Dispatcher

Maintenance Planner (planification de la maintenance)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses : réduction de 40 % du temps nécessaire à la création des backlogs (de 120 à 72 minutes par jour) et de 1 % du taux d’arrêts imprévus (de 92 à 92,1 % d’uptime).

Maintenance Planner

Shop Floor Supervisor (supervision de la production en atelier)
En bêta, pour SAP Digital Manufacturing.
Promesses : réduction de 50 % du temps passé à gérer les perturbations (de 60 à 30 minutes par jour) et de 2 % du taux d’arrêts non planifiés (de 92 à 93,8 % d’uptime).

Shop Floor Supervisor

CX

Case Classification (tri de cas)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de SAP CX AI Toolkit.

Case Classification

Catalog Optimization (optimisation de catalogue)
En bêta, pour Commerce Cloud et dans le cadre de CX AI Toolkit.

Catalog Optimization

Digital Service (réponse aux questions des équipes de vente et de service client)
En accès anticipé, dans le cadre de CX AI Toolkit.

Digital Service

Knowledge Creation (création de bases de connaissances à partir de tickets résolus)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.

Q&A (réponse aux questions des clients)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.

Q&A

Quote Creation (création de devis)
Disponible pour Sales Cloud et dans le cadre de CX AI Toolkit.
Automatise la création de devis à partir d’une boîte mail Office 365 partagée.

Quote Creation

Shopping (accompagnement du parcours client)
Disponible pour Commerce Cloud et CX AI Toolkit.
Promesses, entre autres : hausse de 10 % du taux de conversion (de 3 à 3,3 %) et du panier moyen (de 309 à 340 €).

Shopping

Les agents CX actuellement commercialisés ne peuvent être achetés qu’à travers le package Joule Premium for Customer Experience. Lequel inclut, outre les agents, une vingtaine de fonctionnalités « étiquetées IA » (détection de comptes en double, création de descriptions de produits, aide à la génération de leads…).

tarif Joule Premium for CX

Un agent est dédié aux RH (Performance and Goals, censé aider à préparer les entretiens d’évaluation). Un autre aux achats (Sourcing, illustré ci-dessous, qui automatise les RPF ; il est en bêta, pour Ariba Sourcing).

Sourcing

* SAP dit baser ses estimations sur « des cas clients, des benchmarks et d’autres recherches ».

Illustrations © SAP

The post Où en est SAP Joule dans son tournant agentique ? appeared first on Silicon.fr.

  •  

Knative, la couche serverless pour Kubernetes, arrive à maturité

Knative est désormais officiellement prêt pour un usage en production.

La CNCF (Cloud Native Computing Foundation) le considère en tout cas. Elle vient de promouvoir le projet au plus haut stade de maturité dans sa nomenclature (graduated).

À l’origine de ce framework serverless pour Kubernetes, il y a Google, qui avait ouvert le projet à la communauté à l’été 2018. L’entrée à la CNCF – au stade « incubation » – était intervenue en mars 2022, quelques mois après le passage en version 1.0. VMware, IBM et Red Hat en étaient alors les principaux contributeurs. Le premier était majoritaire au comité de supervision technique. Les deux autres y étaient également présents, en plus d’avoir chacun un siège dans l’instance supérieure : le comité de pilotage.

Red Hat et VMware en têtes de pont

En 2024, le comité de supervision technique a été fusionné dans le comité de pilotage. Deux employés de Red Hat y siègent, aux côtés de représentants CoreWeave et de Stacklok, ainsi que d’un ancien de Pivotal-VMware-Broadcom qui commercialisa Knative dans le cadre de la plate-forme Tanzu.

Le projet se divise actuellement en 7 groupes de travail :

  • Functions (géré par des employés de Red Hat et VMware)
  • Serving (géré par l’ancien de Pivotal-VMware-Broadcom)
  • Eventing (Red Hat)
  • UX (universités OCAD et de Toronto)
  • Exploitation (Bloomberg)
  • Productivité* (Cisco et Red Hat)
  • Sécurité (IBM et VMware)

Bloomberg est d’autant plus impliqué qu’il fait partie des organisations utilisatrices de Knative. Comme, entre autres, Alibaba Cloud, Blue Origin, Box, Gojek, ManoMano, Scaleway et Tata Communications.

Un positionnement sur l’IA, y compris agentique

Les intergiciels Serving, Eventing et Functions constituent le cœur fonctionnel du projet.

Serving fournit de quoi déployer et gérer des services HTTP stateless sans serveur.
Eventing apporte un ensemble d’API permettant la mise en œuvre d’une architecture orientée événements. Elle s’appuie sur les spécifications CloudEvents.
Functions utilise Serving et Eventing pour aider au déploiement de fonctions sous forme d’images OCI.

schéma Knative

Serving et Eventing partagent des sous-projets Client et Operator. Le premier porte un outil en ligne de commande destiné à créer des ressources Knative sans avoir à modifier des fichiers YAML. Le second aide à installer les deux briques sur des clusters Kubernetes.

Ces derniers temps, la communication publique du projet s’est nettement orientée sur les LLM. Notamment autour de KServe, un serveur de modèles basé sur Knative Serving. Mais aussi à renfort de plusieurs cas d’usage. Poussés en particulier par Red Hat (inférence avec Llama Stack, IA agentique pour le traitement de conversations client…) et par IBM (pour l’entraînement de modèles dans le cadre du service watsonx Assistant).

* « Santé » du projet : tests, infrastructure, CI/CD, etc.

The post Knative, la couche serverless pour Kubernetes, arrive à maturité appeared first on Silicon.fr.

  •  

UCaaS : l’IA, plus prégnante dans l’offre que dans la demande

Pour 8×8, pas de 13e année consécutive parmi les « leaders » de l’UCaaS. En tout cas dans le cadre du Magic Quadrant.

On avait pu sentir le vent tourner l’an dernier. Gartner avait pointé l’incapacité croissante de l’entreprise américaine à différencier ses produits dans le paysage concurrentiel.
Il souligne cette fois-ci sa perte de visibilité, entre autres du fait que son offre est guidée par l’aspect téléphonie plutôt que collaboration.

Conséquence : voilà 8×8 rétrogradé chez les « visionnaires ».
Les quatre autres « leaders » de 2024 le restent (ils le sont d’ailleurs depuis 2020). Dans l’ordre alphabétique, Cisco, Microsoft, RingCentral et Zoom.

11 fournisseurs, 4 « leaders »

D’une année sur l’autre, le même périmètre a été pris en compte. En l’occurrence, la collaboration interne, le télétravail et les présentations externes. Les webinaires ainsi que le support et la formation à distance n’étaient pas obligatoires (Gartner les classe dans un autre segment : les « solutions de réunion »).

Les offreurs ont été jugés sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

Sur l’axe « exécution », la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Microsoft =
2 Cisco =
3 Zoom + 1
4 RingCentral – 1
5 8×8 =
6 Google =
7 GoTo =
8 Vonage =
9 Dialpad =
10 Wildix + 1
11 Sangoma – 1

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 Microsoft =
2 Cisco =
3 Zoom =
4 RingCentral =
5 8×8 =
6 Dialpad =
7 GoTo + 1
8 Vonage – 1
9 Google =
10 Wildix =
11 Sangoma =

Sur ce marché de commodités, la tendance est au développement de la brique centre de contact, en particulier pour les besoins internes.

Un autre levier de différenciation est l’IA. Y compris agentique, en premier lieu pour l’administration et la maintenance. L’offre apparaît toutefois en avance sur la demande : le critère IA n’est pas encore fondamental dans les décisions d’achat, sauf pour des scénarios spécifiques impliquant des métiers en contact avec la clientèle.

De la mise en place à l’exploitation, Cisco Webex demande des efforts

L’an dernier, Cisco avait eu droit à un bon point pour ses investissements transversaux en IA. Gartner avait aussi souligné la profondeur de son catalogue (incluant réseau, sécurité et terminaux). Ainsi que la dernière génération de ses appareils.

Cette année encore, les investissements dans l’IA sont salués. Il en va de même pour le catalogue, au sens où Cisco est un des rares fournisseurs classés au Magic Quadrant à associer UCaaS, CCaaS (centre de contact) et CPaaS (intégration des communications dans les applications métier), en plus du matériel. Gartner apprécie aussi sa stratégie sectorielle, mise en œuvre à l’appui de certifications et de standards spécifiques.

En 2024, Gartner avait noté l’inconsistance du support, largement indirect. Il avait aussi signalé la complexité de Webex aux yeux du mid-market (organisations de 100 à 999 employés) et la tendance de beaucoup d’acheteurs à ne sourcer que la partie téléphonie chez Cisco.

Cette dernière remarque vaut toujours. Idem pour la complexité de Webex : le paramétrage initial et la gestion ultérieure exigent davantage de temps et d’efforts que chez les concurrents. Quant à la tarification, elle peut s’avérer plus compliquée à comprendre et à négocier pour le mid-market.

Microsoft peut s’améliorer sur l’administration graphique

L’an dernier, Microsoft avait eu des bons points pour ses SLA, la flexibilité des options PSTN et les innovations en matière d’IA sous la bannière Copilot in Teams.

Cette année encore, Gartner salue un socle IA robuste quoique actuellement focalisé sur la partie réunions. Microsoft se différencie aussi par sa capacité de couverture géographique des besoins téléphonique, grâce à l’étendue de ses ressources de support et de ses partenariats telcos. Il a également l’avantage d’un TCO « relativement faible », d’une facilité d’usage et d’une intégration étroite avec les principales solutions UCaaS.

En 2024, Gartner avait pointé l’accumulation d’options de connectivité RTC, rendant le choix difficile. Il avait aussi relevé des manques en matière de téléphonie avancée (SMS, intégration CRM, enregistrement avancé d’appels) et une incapacité à couvrir complètement la plupart des besoins sur la partie call center.

Cette fois, le cabinet américain insiste sur la nécessité d’améliorer les capacités d’administration et de gestion des terminaux via le GUI. Il regrette aussi que la brique Dynamics 365 Contact Center, lancée l’an dernier, ne soit pas fournie en natif avec Teams. Et fait remarquer que les fonctionnalités de collaboration ont tendance à concurrencer la téléphonie.

Chez RingCentral, des hausses de prix au renouvellement

L’an dernier, RingCentral avait été salué pour son centre de contact natif RingCX, complété de surcroît pas l’offre NiCE pour les besoins plus avancés. Autre bon point : le niveau d’intégration de l’IA (traduction, suggestion d’actions post-réunion, détection de contenu sensible, création de clips vidéo thématiques…) et des applications tierces.

L’IA fait encore mouche auprès de Gartner cette année, notamment avec la fonction de « réceptionniste virtuel ». Même remarque pour le niveau d’intégration des applications tierces. S’y ajoute la richesse et l’intuitivité de la fonction téléphonie (transfert d’appels sur mobile, notamment).

La téléphonie reste le point d’entrée sur la plupart des contrats, alors que cette brique guide de moins en moins de décisions d’achat, avait averti Gartner l’an dernier. Il avait aussi évoqué l’expérience mitigée sur la vente et le support. Tout en notant que les partenariats avec des fournisseurs « legacy » n’avaient pas produit les résultats attendus.

Cette fois encore, vigilance sur le support, tant pour les délais de réponse que de résolution. Attention également à la hausse des prix lors des renouvellements. RingEX reste par ailleurs voice-centric et les capacités natives d’analytics de RingCX doivent encore progresser pour fonctionner à l’échelle.

Tendance au bundling chez Zoom

L’an dernier, Zoom s’était distingué sur son historique de service et de support, l’adéquation de son offre centre de contact pour les PME et ses capacités en matière de réunions (intuitivité de l’UI, notamment).

Cette année, l’un des bons points va à la simplicité de mise en œuvre et de maintenance de la brique centre de contact embarquée. Gartner apprévie également la qualité des services et du support. Et l’exhaustivité du Trust Center, assorti d’investissements notables sur la sécurité, la privacy et la conformité.

En 2024, Gartner avait noté un ralentissement de la croissance de la base client. Et la tendance des acheteurs à sélectionner des concurrents pour la partie collaboration ou centre de contact. En parallèle, il avait regretté l’octroi de moins de remises et autres incitations que par le passé.

Ces dernières années, le licensing de Zoom a changé plus vite que la moyenne du marché, constate cette fois-ci Gartner. Au final, on peut se voir présenter, au renouvellement, des bundles susceptibles d’inclure des fonctionnalités non nécessaires. On restera également vigilant quant à l’éventuel manque de compétitivité des briques calendrier, mail et traitement de texte récemment ajoutées. Attention également à l’UX, qui peut se révéler complexe à prendre en main à mesure qu’on dépasse l’usage de Zoom pour les réunions.

Illustration générée par IA

The post UCaaS : l’IA, plus prégnante dans l’offre que dans la demande appeared first on Silicon.fr.

  •  

La « coalition Nextcloud » abandonne sa plainte contre Microsoft

La plainte de Nextcloud contre Microsoft n’est plus.

L’entreprise allemande a décidé d’abandonner la démarche. Elle regrette l’absence de « progrès notable » depuis la saisine de la Commission européenne en 2021.

Il était reproché au groupe américain d’utiliser Windows pour favoriser ses propres services, à commencer par OneDrive et Teams. Nextcloud le déplore toujours. Et ajoute désormais, entre autres, la difficulté à utiliser l’OS sans créer de compte Microsoft.

Une trentaine d’organisations avaient apporté un soutien formel à l’initiative. Dont, côté français :

  • Abilian
  • Aqua Ray
  • Arawa
  • Cozy Cloud
  • Jamespot
  • Linagora
  • Netframe
  • Nexedi
  • Rapid.Space
  • Talkspirit
  • TAS Cloud Services
  • Whaller
  • Wimi
  • XWiki

membres participants

Microsoft sous surveillance renforcée en Allemagne

Nextcloud avait déposé plainte en parallèle auprès de l’autorité de la concurrence allemande. Il a eu davantage de succès sur ce front. En septembre 2024, Microsoft a effectivement été placé, pour 5 ans, sous un régime de contrôle spécifique. Motif, dans les grandes lignes : ses produits sont omniprésents dans les entreprises et les foyers et sont devenus indispensables.

Alphabet, Meta, Amazon et Apple ont été placés sous le même régime. Pour les deux derniers, la décision a été confirmée par la justice allemande.
Des enquêtes ont été ouvertes en conséquence. Par exemple, pour Amazon, sur les accords de distribution exclusive avec des marques. Ou pour Meta, sur les croisement des données collectées sur ses différents services.

Pour OVHcloud, l’issue fut plus favorable

En 2021, Bruxelles avait enregistré une autre plainte contre Microsoft, accusé de poser des barrières au fonctionnement de ses logiciels sur des clouds concurrents. Elle émanait d’OVHcloud. L’italien Aruba et le danois Cloud Community étaient également de la partie.

Cette plainte fut officiellement retirée en juillet 2024. Microsoft venait alors de trouver un accord avec une organisation dont OVHcloud est membre : le CISPE (Cloud Infrastructure Services Providers in Europe). Celui-ci avait lui-même attaqué le groupe américain devant la Commission européenne, en novembre 2022.

L’accord en question devait se traduire, entre autres, par le développement d’une édition d’Azure Stack HCI – devenu Azure Local – spécifique aux CSP européens. Cette solution technique n’a finalement pas vu le jour. Un compromis d’ordre contractuel a été trouvé à la place. Il se matérialise notamment par des modèles de licence à l’usage pour Windows Server et SQL Server, avec une tarification « comparable à celle d’Azure ». Le CISPE a aussi obtenu que ses membres puissent déployer Microsoft 365 Local sur leurs infrastructures, en monolocataire. Autre avancée : l’hébergement de workloads Microsoft facturés à l’usage via Azure Arc ne requiert plus de partager des données clients. Et les ESU gratuites sont acquises pour les déploiements Azure Local monolocataires, comme le VDI Windows 10/11 multisession, là aussi en monolocataire.

Illustration principale générée par IA

The post La « coalition Nextcloud » abandonne sa plainte contre Microsoft appeared first on Silicon.fr.

  •  

{ Tribune Expert } – Attaques DDoS : déconstruire les mythes pour mieux protéger les infrastructures

Selon une étude de l’ANSSI, les attaques DDoS ont été menée avec une forte intensité à l’encontre d’entités françaises, publiques comme privées, durant toute l’année 2024. Elles se présentent sous de multiples formes et beaucoup de préjugés les entourent. Néanmoins, ces clichés sont parfois plus dangereux que les attaques en elles-mêmes.

En effet, ces idées reçues rendent parfois les entreprises vulnérables à d’autres types de cyberattaques et peuvent induire en erreur les stratégies de neutralisation ou empêcher les équipes de détecter une offensive.

Mythe n° 1 : les attaques DDoS sont rares, ciblent uniquement les grandes entreprises et sont menées par des acteurs malveillants sophistiqués

Les attaques DDoS sont de plus en plus courantes et ciblent des entreprises de toutes sortes, indépendamment de leur taille. D’après le baromètre CESIN, les attaques DDoS représentent l’un des principaux vecteurs d’attaques subies pour 41% des entreprises en France. Un tel niveau d’activité montre que ce type de menace est bien réel et que toutes les entreprises doivent prendre des mesures adaptées.

Si les États-nations pilotent leurs propres attaques DDoS sophistiquées, nombre d’entre elles sont conduites par des prestataires de services DDoS à la demande (DDoS-for-hire) peu onéreux, voire gratuits, qui utilisent des botnets mondiaux ou des groupes d’appareils infectés. Dans de nombreux cas, les commanditaires d’attaques DDoS à la demande ne sont pas des pirates informatiques de haut niveau, mais agissent en fonction d’évènements géopolitiques et s’en prennent à des entreprises, à des individus ou à des infrastructures qui vont à l’encontre de leurs intérêts.

L’ANSSI précise que « Plus récemment, des tentatives de sabotage de petites installations industrielles ont été observées », cela prouve, contrairement aux croyances populaires, que les attaques ne se limitent plus aux grandes entreprises mais se tournent vers des cibles diversifiées : elles ciblent des infrastructures ou des services clés tels que les réseaux d’électricité afin d’exercer un impact profond sur le grand public.

Les petites entreprises sont également loin d’être épargnées : le rapport Hiscox de 2024 sur la gestion des cyber-risques en France en témoigne, « les attaques touchent plus les PME (entre 20 et 249 salariés) et les TPE (entre 0 et 19 salariés) qu’auparavant. En effet, tandis que les grandes entreprises perfectionnent leur système de protection, la menace se tourne de plus en plus vers leurs partenaires de plus petite taille. »

Face aux cyberattaques d’aujourd’hui, la taille de l’entreprise n’est plus un rempart. Ainsi, il est nécessaire de comprendre l’objectif de ces attaques pour les combattre efficacement.

Mythe n° 2 : les attaques DDoS ont pour seul but d’inonder les réseaux où transitent de grands volumes de données

Initialement, les attaques DDoS étaient volumétriques : elles prenaient généralement la forme d’importants flux de trafic avant d’évoluer pour devenir à la fois plus ciblées et plus complexes. Les médias continuent, à ce jour, de rendre compte des attaques les plus violentes et les plus impressionnantes qui atteignent plusieurs térabits par seconde, renforçant ainsi ce cliché.

Si ces attaques à grande échelle restent dangereuses, la majorité des offensives de moindre envergure, c’est-à-dire inférieures à 1 Gbits/s, le sont tout autant et ciblent les couches applicatives telles que le système de noms de domaine DNS et le protocole HTTP.

La dangerosité d’une cyberattaque ne dépend pas de la quantité de données touchée : ces nouvelles attaques par couche applicative sont plus discrètes et passent inaperçue dès lors que les solutions de protection s’intéressent aux attaques volumétriques de grande ampleur et ignorent les attaques plus modestes qui sont transmises au client.

Les attaques par épuisement d’état TCP (Transmission Control Protocol) comptent également parmi les menaces de moindre envergure les plus courantes. Elles ont pour but de surcharger les ressources de traitement d’un équipement réseau. Elles ciblent spécifiquement les appareils dynamiques installés sur site tels que les pare-feux, les équilibreurs de charge ou les passerelles VPN, et remplissent leurs tables d’état de fausses connexions, ce qui empêche les utilisateurs légitimes d’accéder à certaines zones du réseau.

Ces nouvelles attaques deviennent de plus en plus nombreuses et rendent les solutions de défenses habituelles obsolètes.

Mythe n° 3 : les pare-feux de nouvelle génération peuvent bloquer les attaques DDoS

Les pare-feux de nouvelle génération sont de puissants outils qui peuvent améliorer de façon significative la sécurité globale des entreprises.

Cependant, leur conception dynamique les rend vulnérables à plusieurs types d’attaques DDoS telles que les attaques par épuisement d’état : l’ANSSI a constaté « une intensification de l’exploitation de vulnérabilités affectant des équipements exposés sur Internet, parmi lesquels figurent des équipements de sécurité mis en place par de nombreuses entités pour sécuriser l’accès distant à leur systèmes d’infrastructures (par exemple des pare-feux ou des passerelles VPN) » et explique que ces dispositifs deviennent un point de vulnérabilité critique du fait de l’exploitation de leurs failles par les cybercriminels.

Mythe n° 4 : une protection DDoS en cloud est suffisante

Lorsqu’une attaque DDoS est plus puissante que la bande passante d’une entreprise, la seule façon de la neutraliser est d’utiliser une protection basée sur le cloud. Or, les attaques de moindre envergure peuvent passer entre les mailles du filet, d’où la nécessité de prendre des mesures supplémentaires.

Pour contourner les lignes de défense, les attaques DDoS modernes exploitent plusieurs vecteurs d’attaque, ce qui signifie qu’elles peuvent associer une attaque volumétrique ou par épuisement d’état à une attaque visant la couche applicative pour cibler plusieurs zones du réseau, rendant leur détection et leur neutralisation plus compliquées.

En adoptant une stratégie de défense multi-couches, les entreprises se protégeront de manière plus efficace contre les attaques DDoS agiles et multivectorielles, maximisant ainsi leur durée de fonctionnement et leur disponibilité. Á ce jour, d’après le baromètre CESIN, adopter un cloud de confiance demeure une préoccupation pour 52% des entreprises françaises.

Mythe n° 5 : la protection contre les attaques DDoS n’a besoin ni de l’intelligence artificielle ni du machine learning

De nombreux dirigeants sont convaincus qu’il n’est pas nécessaire de recourir à l’intelligence artificielle (IA) ou au machine learning pour protéger leur entreprise contre les attaques DDoS. Pourtant, les hackers utilisent l’IA/ML pour multiplier le volume des attaques, en augmenter le degré de sophistication et éviter leur détection. Cela signifie que les mesures défensives doivent fonctionner de la même manière : exploiter les fonctions de détection d’anomalies de trafic de l’IA/ML pour identifier les situations anormales dans les schémas de trafic qui détectent des menaces DDoS.

L’IA/ML peut prendre la forme de flux d’informations organisés qui bloquent automatiquement et en temps réel les menaces DDoS connues et actives. Grâce à ces informations actualisées en permanence, les menaces les plus récentes ne font pas le poids face aux protections fondées sur l’intelligence artificielle et l’apprentissage automatique. L’IA/ML peut également automatiser l’ajustement des contre-mesures en temps réel pour bloquer les attaques multivectorielles.

En somme, les idées reçues évoquées contraignent les entreprises à sous-estimer parfois la dangerosité des attaques DDoS.

Comme le préconise l’ANSSI, il est essentiel pour les infrastructures de déconstruire ces clichés et d’adopter une stratégie de défense en profondeur pour assurer leur pérennité face aux cyberattaques. Aussi, les entreprises gagneront à débunker ces mythes, pour protéger leurs infrastructures au mieux.

*Daniel Crowe est Area Vice President France & Europe du Sud chez Netscout

The post { Tribune Expert } – Attaques DDoS : déconstruire les mythes pour mieux protéger les infrastructures appeared first on Silicon.fr.

  •  

Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative

Du lanceur d’alerte à la commission d’enquête parlementaire, Deloitte connaît une période tumultueuse en Australie.

Il lui est reproché son recours à l’IA générative dans le cadre d’une mission de conseil pour le ministère de l’Emploi et des Relations du travail. D’une part, parce qu’il ne l’a pas divulgué. De l’autre, parce que cette IA (GPT-4o) a inventé des sources et des précédents judiciaires.

La mission, réalisée entre fin 2024 et mi-2025, a abouti à un rapport de 237 pages. Sujet : le TCF (Targeted Compliance Framework). Ce système implémenté en 2018 automatise l’évaluation de la situation des demandeurs d’emploi… et l’attribution éventuelle de pénalités financières. Deloitte constate, dans les grandes lignes, que l’algorithme sous-jacent, en plus de manquer de transparence, est démesurément punitif.

Le rapport initial était daté du 4 juillet. Une version mise à jour a été publiée le 26 septembre. Le contenu principal n’a pas changé, mais les citations problématiques ont disparu. Et Deloite a précisé, en annexe, avoir utilisé de l’IA

Deloitte avait d’abord évoqué un « problème de transcription »

Un chercheur de l’université de Sydney avait levé le lièvre au mois d’août. Il avait remarqué que le rapport attribuait à certains de ses collègues des œuvres qu’ils n’avaient pas produites. Par la suite, on avait découvert, entre autres, une référence à une décision de justice inexistante, dans le cadre d’un litige entre le gouvernement australien et une citoyenne sur le système dit robodebt (évaluation et recouvrement automatisé des dettes).

Un accord semble avoir été trouvé avec Deloitte pour le remboursement d’environ 100 000 dollars australiens sur les 440 000 qu’a coûté la mission.

La sénatrice écologiste Barbara Pocock* estime qu’il conviendrait de restituer l’intégralité de la somme. Elle le justifie notamment par les agissements de Deloitte une fois l’affaire mise au jour. D’un côté, le cabinet a d’abord expliqué au ministère de l’Emploi qu’il s’agissait d’un « problème de transcription ». De l’autre, il a pris contact avec le ministère des Finances en affirmant que les commanditaires du rapport étaient au courant de l’usage de l’IA. Ce que les intéressés ont demandé en audition au Sénat.

How we ‘fess up when we mess up shows who we are. Pay it all back Deloitte. And apologise. Give yrsrlf some procurement teeth Labor: the capability to ban for poor behaviour, commensurate with the misdemeanour, up to 5 yrs. pic.twitter.com/BAnrek1Uz5

— Barbara Pocock (@BarbaraPocock) October 9, 2025

Murray Watt, ministre de l’Emploi lorsque fut signé le contrat avec Deloitte, évoque un « acte clairement inadmissible ». Il regrette l’absence d’excuses, y compris auprès des personnes auxquelles l’IA a faussement attribué certaines œuvres.

Dans ce contexte, le ministère des Finances a décider de mieux encadrer les futurs contrats avec tout consultant. Tout usage potentiel d’IA devra être explicité, en identifiant outils et finalités.

* Les Verts sont la troisième force politique au Sénat australien, avec 10 sièges contre 29 pour le Parti travailliste et 27 pour la coalition d’opposition.

Illustration générée par IA

The post Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative appeared first on Silicon.fr.

  •  

ESN et ICT anticipent un rebond au premier semestre 2026

Les entreprises de services du numérique (ESN) et les sociétés d’ingénierie et conseil en technologies (ICT) traversent une période de transition marquée par la prudence.

Selon l’étude Grand Angle ESN & ICT 2025 réalisée par KPMG et Numeum, 42% des acteurs n’anticipent un véritable rebond de l’activité qu’au premier semestre 2026.

L’IA au cœur de la stratégie

L’intelligence artificielle s’impose comme la priorité technologique du secteur : 81% des entreprises interrogées l’identifient comme la principale opportunité de marché. Son adoption reste toutefois progressive, avec 64% des ESN et ICT réalisant entre 0 et 5% de leur chiffre d’affaires sur des projets IA.

L’utilisation de l’IA générative se développe dans plusieurs domaines : 72% l’emploient pour le delivery, 67% pour les tâches administratives, 51% pour le recrutement et 48% pour la recherche de propositions commerciales. Les investissements dans l’IA représentent actuellement 2,2% du chiffre d’affaires pour les grandes entreprises et ETI, et 1,3% pour les PME et TPE.

Stratégies de croissance diversifiées

Face au ralentissement économique, 29% des entreprises privilégient le positionnement sur des offres technologiques innovantes (cloud, IA, cybersécurité), tandis que 16% misent sur l’ajustement des ressources et 14% sur une politique commerciale agressive.

Les principaux risques identifiés sont la conjoncture globale (85%), la faiblesse de la demande client (67%) et le manque de ressources ou de compétences (33%). Pour y répondre, 60% développent des partenariats stratégiques et 55% investissent dans leur marque employeur.

Le recours à l’offshore et au nearshore reste stable, représentant 7% du chiffre d’affaires. Les expertises techniques constituent la principale raison de cette externalisation (28%), devant le coût (24%) et les besoins capacitaires (19%).

Gestion des talents : entre tension et adaptation

La pénurie de profils qualifiés demeure un frein majeur à la croissance. Les entreprises poursuivent leurs recrutements, avec un accent sur les métiers liés au cloud, à la cybersécurité et au conseil en transformation digitale.

L’IA générative commence à transformer les fonctions RH : 52 % des structures l’utilisent pour élaborer des plans de formation et 41 % pour cartographier les compétences internes. Malgré ces évolutions, 71 % estiment que l’impact de l’IA sur la réduction des recrutements reste marginal

Les plans de recrutement 2025 visent une augmentation de 8% des effectifs pour les grandes entreprises et ETI, et de 4% pour les PME et TPE. Toutefois, 77% des entreprises déclarent que l’environnement économique a impacté leurs objectifs initiaux.

Les profils expérimentés (plus de trois ans d’expérience) représentent 88% des recrutements recherchés, en hausse de 11 points par rapport à 2024. Les compétences les plus demandées sont le conseil en transformation digitale (19%), le cloud (17%) et l’intégration de système (13%).

Le recours aux freelances, indépendants et sous-traitants continue de progresser, atteignant 17,9% dans les grandes entreprises et 12,9% dans les PME et TPE, avec des objectifs à 17,5% et 12,1% respectivement pour 2025.

Sur le plan de la fidélisation, l’augmentation des salaires reste le premier levier (40%), devant la flexibilité du temps de travail (11%) et les plans de formation (10%). Par ailleurs, 35% des entreprises ont mis en place des actions pour limiter le télétravail et favoriser le retour en présentiel.

La RSE, un critère de compétitivité

La réduction de l’empreinte environnementale est devenue la priorité RSE pour 79% des ESN et ICT. 87% ont mis en place un suivi de leur empreinte carbone, et 60% se sont fixé un objectif de réduction à trois ans, avec une moyenne de -26% pour les grandes entreprises et -17% pour les PME.

Les critères ESG pèsent désormais entre 10 et 20% dans 48% des appels d’offres, contre 20 à 30% dans 24% des cas. Cette évolution reflète l’importance croissante de ces enjeux dans la compétitivité des entreprises.

83% des entreprises ont mis en place des programmes de diversité et inclusion, principalement par la sensibilisation (97%), des chartes (86%) et des formations (75%).

Le secteur du numérique, représenté par Numeum qui regroupe 2 500 entreprises, génère un chiffre d’affaires de 70 milliards € et emploie 670 000 personnes en France.

The post ESN et ICT anticipent un rebond au premier semestre 2026 appeared first on Silicon.fr.

  •  

Google lance Gemini Enterprise

Google dévoile Gemini Enterprise, une nouvelle plateforme d’intelligence artificielle dédiée aux clients professionnels.

Gemini Enterprise est conçu pour offrir aux employés une interface de type conversationnelle, via laquelle ils peuvent interagir avec les données, les documents et les applications de leur entreprise.

En pratique, la plateforme combine plusieurs composantes :

  • des agents pré-configurés (par Google) pour des tâches comme la recherche approfondie ou l’analyse de données ;

  • la possibilité pour les entreprises de créer et déployer leurs propres agents personnalisés ;

  • une connexion sécurisée aux données de l’entreprise, qu’elles résident dans Google Workspace, Microsoft 365 ou des applications professionnelles (Salesforce, SAP, etc.)

  • un cadre centralisé de gouvernance pour surveiller et auditer les agents déployés.

Google présente Gemini Enterprise comme une « porte d’entrée » unique pour l’IA au sein du lieu de travail — une interface unifiée destinée à connecter les différents outils, données et processus.

Google annonce que certaines entreprises ont déjà adopté Gemini Enterprise ou sont engagées dans cette démarche. Parmi elles figurent Gap (distribution de vêtements), Figma (logiciel de design) et Klarna (service de paiement différé, BNPL)

D’autres partenariats sont également évoqués : par exemple, Accenture prévoit d’intégrer Gemini Enterprise dans ses propres opérations pour faciliter le partage des connaissances et l’automatisation de processus.

Google mentionne que le réseau de partenaires (éditeurs de logiciels et prestataires) pourra proposer des agents compatibles avec la plateforme, ce qui élargirait l’écosystème utilisable par les entreprises clientes.

Liens avec les offres de Google Cloud

Cette nouvelle plateforme s’appuie sur les acquis de Google dans le secteur professionnel, notamment Google Workspace, qui depuis quelque temps intègre des fonctionnalités d’IA basées sur Gemini.

Cependant, il ne s’agit pas simplement d’une extension ou d’un rebranding de l’offre IA de Workspace : Gemini Enterprise est déployé comme une plateforme distincte, sous l’égide de Google Cloud, avec des capacités plus larges et plus spécialisées pour l’agentique d’entreprise.

Quelques points à surveiller ou à approfondir :

  • Sécurité et gouvernance : connecter des agents à des données sensibles d’entreprise implique des besoins élevés en contrôle d’accès, auditabilité et protection des données. Google met en avant un cadre de gouvernance centralisé, mais la mise en œuvre pratique à grande échelle restera un défi.

  • Adoption interne : convaincre des équipes non techniques de construire et d’utiliser des agents personnalisés suppose une interface accessible (par exemple sans codage) et un accompagnement. Google évoque un « no-code workbench ».

  • Interopérabilité et intégration : les entreprises ont déjà des systèmes variés (ERP, CRM, bases de données internes). La capacité de Gemini Enterprise à s’intégrer à ces environnements sera déterminante.

  • Compétition et différenciation : Microsoft, OpenAI et d’autres acteurs multiplient leurs offres pour entreprises. Le succès dépendra de la valeur ajoutée offerte (modèles, agents, intégration, coût) comparée à ce que proposent les concurrents.

  • Évolutivité et robustesse : pour remplacer ou compléter des processus métiers critiques, la plateforme devra garantir stabilité, performances et capacité à monter en charge.

The post Google lance Gemini Enterprise appeared first on Silicon.fr.

  •  

Cyberattaque : Jaguar Land Rover redémarre après plus d’un mois de paralysie

Mercredi 8 octobre 2025, Jaguar Land Rover (JLR) a enfin pu reprendre sa production de véhicules au Royaume-Uni, tournant la page d’une cyberattaque dévastatrice qui aura paralysé le groupe pendant plus de six semaines. Les employés sont d’abord retournés à l’usine de production de moteurs de Wolverhampton ainsi qu’aux ateliers de découpage de Castle Bromwich, Halewood et Solihull.

Cette reprise demeure toutefois progressive. D’ici la fin de la semaine, le constructeur prévoit de redémarrer les chaînes de production des Range Rover et Range Rover Sport dans son site de Solihull. Les activités de fabrication en Slovaquie devraient suivre le même calendrier.

« Je tiens à remercier tous les collaborateurs de JLR pour leur engagement, leur travail acharné et les efforts déployés ces dernières semaines pour nous permettre d’en arriver là. Nous savons qu’il reste encore beaucoup à faire, mais notre reprise est bien engagée », s’est félicité le directeur général Adrian Mardell, exprimant le soulagement manifeste de toute la filière automobile britannique.

Un week-end qui a tout changé

L’incident s’est produit le week-end du 31 août, lorsque les systèmes de surveillance interne de JLR ont détecté un accès non autorisé à des infrastructures critiques. Dans une décision saluée par les experts en cybersécurité, l’entreprise a immédiatement mis hors ligne l’ensemble de ses systèmes pour limiter l’infiltration et prévenir un vol de données massif.

« Nous avons pris des mesures immédiates pour atténuer l’impact en fermant de manière proactive nos systèmes », a déclaré JLR dans sa communication officielle. « Nous travaillons maintenant à pleine vitesse pour redémarrer nos applications mondiales de manière contrôlée.»

Le timing ne pouvait être pire : l’attaque a coïncidé avec la sortie des nouvelles plaques d’immatriculation britanniques du 1er septembre, traditionnellement l’un des mois les plus importants pour les ventes automobiles au Royaume-Uni. Les conséquences ont été immédiates et brutales.

Les quatre grandes usines britanniques – Halewood (Merseyside), Solihull (West Midlands), Wolverhampton et Castle Bromwich – ont cessé leurs activités. Les opérations internationales en Slovaquie, en Chine, en Inde et au Brésil ont été également paralysées, créant un arrêt total de la production mondiale.

Le collectif « Scattered Lapsus$ Hunters » revendique l’attaque

La responsabilité de cette attaque a été revendiquée par un collectif de hackers appelé « Scattered Lapsus$ Hunters » (SLSH), un nom qui, selon les experts en cybersécurité, représente une fusion sans précédent de trois groupes cybercriminels notoires : Scattered Spider, Lapsus$ et ShinyHunters, les mêmes qui sévissent actuellement contre Red Hat et Salesforce.

La BBC a rapporté les revendications du groupe après avoir reçu des communications directes via des plateformes de messagerie cryptées. Pour prouver leur intrusion, les hackers ont partagé des captures d’écran prétendument prises depuis les réseaux informatiques internes de JLR, notamment des instructions de dépannage pour les systèmes de recharge des véhicules et des journaux informatiques internes.

SLSH n’en est pas à son coup d’essai. En mai dernier, des composantes de ce groupe ont été responsables d’attaques dévastatrices contre les géants de la distribution Marks & Spencer, Co-op et Harrods. L’attaque contre M&S, en particulier, avait causé une perte de 300 millions de livres (£) et perturbé les opérations pendant plus de quatre mois, fournissant un précédent inquiétant pour la durée potentielle de l’incident JLR.

Et aussi de son coût  vertigineux. Sur la durée totale de l’arrêt des unités de production, les pertes hebdomadaires ont atteint 50 millions de livres sterling (environ 57 millions €).

L’impact humain a été tout aussi sévère. Environ 33 000 employés de JLR au Royaume-Uni ont été contraints de rester chez eux, les ouvriers de production recevant leur salaire complet pendant la perturbation. Mais au-delà de la main-d’œuvre directe de JLR, ce sont quelque 6 000 travailleurs des partenaires de la chaîne d’approvisionnement  qui ont été temporairement licenciés en raison de l’arrêt de production.

Au-delà de la production, l’attaque a également perturbé les fonctions commerciales. Les concessionnaires à travers le Royaume-Uni n’ont pas pu immatriculer de nouveaux véhicules , empêchant effectivement la vente de voitures déjà terminées. Les garages de réparation et centres de service ont été contraints de revenir aux catalogues imprimés et aux systèmes manuels après avoir perdu l’accès au système électronique de commande de pièces de JLR.

L’industrie automobile, cible privilégiée des cybercriminels

L’attaque contre JLR s’inscrit dans une tendance inquiétante de cyberattaques ciblant l’industrie automobile mondiale. Les chercheurs en sécurité ont documenté plus de 735 incidents de cybersécurité significatifs visant directement des entreprises automobiles depuis 2023, le secteur ayant connu plus de 100 attaques par ransomware et 200 violations de données en 2024 seulement. Cela fait de la fabrication automobile l’industrie la plus attaquée au niveau mondial.

Parmi les incidents majeurs récents figurent l’attaque par ransomware BlackSuit contre CDK Global en juin 2024, qui a paralysé les systèmes logiciels utilisés par plus de 15 000 concessionnaires automobiles en Amérique du Nord. CDK aurait payé une rançon de 25 millions $ pour restaurer les services, avec des pertes totales d’interruption d’activité estimées à 1 milliard $.

La gravité de la cyberattaque a mobilisé la National Cyber Security Centre (NCSC) britannique : « Nous travaillons avec Jaguar Land Rover pour fournir un soutien en relation avec un incident.» Les forces de l’ordre, y compris la National Crime Agency, mènent une enquête approfondie sur la violation.

Une reprise prudente et méthodique

Les efforts de récupération de JLR ont été compliqués par la nécessité d’équilibrer rapidité et sécurité, en s’assurant que les systèmes ne sont pas seulement restaurés mais également correctement sécurisés contre de futures attaques. Des experts en cybersécurité ont salué l’approche méthodique de JLR, notant que se précipiter pour restaurer les systèmes sans validation de sécurité appropriée pourrait laisser l’entreprise vulnérable à des prochaines attaques.

Le retour à une production normale prendra encore du temps. Si le redémarrage progressif des usines marque un tournant encourageant, les équipes de JLR poursuivent leur enquête forensique et travaillent à renforcer leurs systèmes pour éviter qu’un tel scénario ne se reproduise. Pour le fleuron de l’automobile britannique, la priorité est désormais de rattraper le retard accumulé tout en restaurant la confiance de ses clients, employés et partenaires commerciaux dans sa capacité à protéger ses opérations contre des acteurs malveillants toujours plus audacieux.

Des questions se posent aussi sur les investissements en cybersécurité de JLR, malgré des dépenses importantes en transformation numérique. En 2023, l’entreprise avait signé un contrat de cinq ans d’une valeur de 800 millions de livres avec Tata Consultancy Services (TCS) pour fournir un soutien en cybersécurité et informatique.

Face à l’ampleur de la catastrophe, le gouvernement britannique a accordé une garantie de prêt de 1,5 milliard de livres sterling (environ 1,7 milliard €) visant à préserver l’avenir du constructeur et de toute la filière automobile. Jaguar Land Rover a également obtenu une ligne de crédit d’urgence de 2 milliards de livres sterling (environ 2,3 milliards €) auprès d’un consortium bancaire.

Conscient des difficultés financières de ses partenaires durant cette longue interruption, le constructeur a par ailleurs préparé un plan de soutien de 500 millions de livres sterling (environ 576 millions d’euros) destiné à ses principaux fournisseurs.

Photo : © JLR

The post Cyberattaque : Jaguar Land Rover redémarre après plus d’un mois de paralysie appeared first on Silicon.fr.

  •