Selon les relevés du Financial Times, dix jeunes entreprises d’intelligence artificielle non rentables ont vu leur valorisation combinée augmenter de près de 1 000 milliards $ au cours des douze derniers mois, un bond inédit qui ravive les inquiétudes d’une bulle spéculative sur les marchés privés du capital-risque.
Les jeunes entreprise les plus en vue, tels qu’OpenAI, Anthropic et xAI ont bénéficié de multiples revalorisations en 2024, portées par l’enthousiasme des investisseurs pour l’IA générative. D’autres acteurs, dont Databricks, Perplexity ou Figure AI, ont également profité de la vague d’investissements.
Une ruée sans précédent du capital-risque
Les fonds américains de capital-risque ont consacré environ 161 milliards $ à l’IA depuis le début de l’année, soit près des deux tiers de leurs investissements totaux, d’après les données de PitchBook citées par le FT. À ce rythme, les dépenses annuelles des investisseurs dans l’intelligence artificielle devraient dépasser 200 milliards $ en 2025, contre 135 milliards investis dans les start-up logicielles en 2021.
Cette concentration inédite des capitaux sur un nombre restreint d’acteurs fait craindre une surchauffe du marché. « Bien sûr qu’il y a une bulle », admet Hemant Taneja, directeur général du fonds General Catalyst. « Les bulles alignent le capital et le talent autour de nouvelles tendances. Elles provoquent des dégâts, mais elles font aussi émerger des entreprises durables qui changent le monde. »
Certains investisseurs estiment que les niveaux de valorisation actuels sont devenus difficilement justifiables. Le FT rapporte que des startup générant à peine 5 millions $ de revenus récurrents annuels (ARR) tutoient désormais des valorisations dépassant 500 millions $, soit des multiples de plus de 100 fois leurs revenus — bien au-delà des excès observés lors de la période de taux zéro.
Un capital-risqueur de la Silicon Valley cité par le quotidien finanacier souligne que le marché semble considérer « comme exceptionnelles des entreprises qui ne le sont pas ».
Des paris massifs, mais risqués
Malgré ces signaux d’exubérance, de nombreux acteurs du secteur continuent de parier sur le potentiel transformateur de l’IA. Marc Benioff, fondateur et directeur général de Salesforce, estime qu’un trillion de dollars d’investissements pourrait être perdu, mais que la valeur créée à long terme sera « dix fois supérieure ».
Cette effervescence dans le non coté a des effets directs sur les marchés publics. Le FT note que les actions de Nvidia, AMD, Broadcom ou Oracle ont gagné des centaines de milliards de dollars de capitalisation boursière à la suite d’accords conclus avec OpenAI. Toutefois, une remise en cause de la solvabilité de cette dernière pourrait inverser brutalement cette dynamique.
Trois ans après le lancement de ChatGPT, OpenAI génère environ 13 milliards $ de revenus annualisés, une croissance fulgurante pour une start-up. Mais la course à l’intelligence artificielle générale (AGI), qui oppose notamment OpenAI, Google et Meta, demeure extrêmement coûteuse et incertaine.
Pour l’auteur et spécialiste du capital-risque Sebastian Mallaby, cité par le FT , la logique des investisseurs se résume ainsi : « Si nous atteignons l’AGI, tout cela aura valu la peine ; sinon, non. »
Au-delà du modèle de langage, il y a l’architecture.
On retiendra volontiers cet aspect des travaux que Lingua Custodia a menés dans le cadre du Large AI Grand Challenge.
Cette compétition s’est inscrite dans le projet européen AI-BOOST, censé en organiser 6 autres à l’horizon 2027 pour encourager l’innovation scientifique ouverte dans le domaine de l’IA. L’UE l’a doté pour cela d’une enveloppe de 4 M€.
3,2 millions d’heures GPU sur deux supercalculateurs EuroHPC
Le Large AI Grand Challenge avait été lancé en novembre 2023. Le contrat, dans les grandes lignes : développer, en partant de zéro, un LLM de fondation d’au moins 30 milliards de paramètres « plus performant que les systèmes à l’état de l’art sur un certain nombre de tâches ». Les lauréats recevraient chacun un prix de 250 000 € et 2 millions d’heures GPU sur un supercalculateur EuroHPC (LUMI, localisé en Finlande, ou LEONARDO, situé en Italie).
Des lauréats, il y en eut 4 (sur 94 dossiers), annoncés en juin 2024. Nommément, Textgain (Belgique), Tilde (Lettonie), Unbabel (Portugal)… et donc Lingua Custodia.
La PME francilienne – petite entreprise selon les seuils du Code de commerce – a choisi l’option LEONARDO. Fin 2024, elle a obtenu une allocation additionnelle de 1,2 million d’heures sur un autre supercalculateur EuroHPC : JUPITER, qui se trouve en Allemagne.
Nouvelle architecture… et nouvelle marque commerciale
Dans l’absolu, le premier modèle issu de ces travaux ne respecte pas le contrat : il ne compte « que » 3,6 milliards de paramètres. Il ne s’agit, par ailleurs, que d’un modèle dit « de base ». C’est-à-dire non affiné pour, par exemple, le dialogue ou le suivi d’instructions. Et donc non utilisable comme tel en production. Il faut néanmoins le voir comme un démonstrateur de la véritable valeur ajoutée : une architecture alternative à Transformers. Son nom : Dragon. Avec elle, Lingua Custodia change de cap. Ou tout du moins ouvre un nouveau chapitre. Jusque-là, on le connaissait effectivement plutôt pour ses services de traitement documentaire (classification, extraction, traduction, résumé…), fournis tant en SaaS que par API à destination du secteur financier.
Ce changement de cap s’assortit d’un changement de marque commerciale : exit Lingua Custodia, place à Dragon LLM.
Dépasser les limites de Transformers et de Mamba à l’inférence
L’architecture Dragon combine de multiples techniques existantes pour dépasser, en particulier, les limites que le mécanisme d’autoattention de Transformers présente lors de l’inférence. En l’occurrence, une consommation de ressources croissant avec la longueur des séquences (dans l’architecture de base, pour chaque token, le modèle examine tous les tokens précédents). Ces ressources, c’est du compute. Mais aussi de la mémoire, qui en vient à constituer le principal goulet d’étranglement, essentiellement en raison des limites de bande passante.
En réaction, des versions linéaires du mécanismes d’attention ont émergé. Évitant, d’un côté, la croissance quadratique de la consommation de ressources de calcul. Et permettant, de l’autre, l’utilisation d’un budget mémoire fixe. Ce en s’appuyant sur un état caché : une matrice ne conservant pas tous les tokens, mais une forme de « résumé évolutif ».
Cette approche a l’inconvénient de diminuer la précision des modèles. Dans ce contexte est apparue une architecture alternative : Mamba. Elle remplace le composant d’attention par un mécanisme inspiré de la théorie du contrôle : les SSM (State Space Models). Avec eux, la montée en charge est linéaire. Et surtout, on permet aux paramètres SSM d’être fonction de l’input, de sorte que la sélection des informations à conserver s’opère au moment de la mémorisation – et non au moment de la remémoration, comme c’est le cas avec Transformers.
Mamba a toutefois une faiblesse qui dissuade d’abandonner complètement l’autoattention : les modèles ne pas performants sur le rappel (recall). Cette métrique traduit la proportion de résultats positifs correctement classés comme tels. Elle est à différencier de la précision, qui indique le pourcentage de prédictions correctes parmi celles faites par le modèle.
Hymba, un socle made in NVIDIA
Dragon LLM a tenu compte des ces éléments pour mener ses expérimentations. Elles ont consisté à entraîner des modèles de 120 à 770 millions de paramètres sur un maximum de 50 milliards de tokens.
Pour l’amélioration de la fonction de perte, un benchmark a été ciblé : modded-NanoGPT. Pour le rappel, SWDE (prompts de 500 tokens) et FDA (2000 tokens) ont été mobilisés. Pour la évaluer la modélisation du langage, HellaSwag a été retenu.
Ces bases posées, Dragon LLM s’est intéressé à une autre architecture : Hymba (Hybrid Mamba). Signée NVIDIA, elle combine, dans chaque couche, des têtes d’attention classiques et des têtes SSM. Elle n’utilise une attention globale que sur 3 couches. Dans les autres cas, l’attention est locale (elle se limite aux 1024 derniers tokens). Les modèles fondés sur ce socle se montrent efficaces à l’inférence : leur débit se maintient à mesure que s’agrandit le contexte. La faiblesse sur le rappel demeure, cependant. D’où un choix d’explorer les mécanismes dits d’attention différentielle. Dragon LLM en mentionne deux, émanant respectivement de DeepSeek et de Microsoft. Les résultats du premier n’ont pu être reproduits de façon fiable. Le second, qui implique un système de suppression du bruit censé permettre au modèle de mieux repérer le contexte important, a produit des améliorations marginales lorsque appliqué à toutes les couches. En revanche, circonscrit à l’attention globale, il a eu un bénéfice significatif. Possiblement, nous explique-t-on, parce qu’il aurait stimulé une spécialisation de ces couches sur le rappel.
Un peu de DeepSeek dans l’affaire
D’autres techniques ont été mises en œuvre pour améliorer les performances de l’architecture Dragon. Parmi elles, la mise à l’échelle de la normalisation. Elle a eu pour effet de stabiliser la variance dans les couches profondes, ainsi mieux entraînées.
Dragon LLM a aussi remplacé l’initialisation des paramètres de PyTorch par un schéma origine DeepSeek. Et utilisé la planification SkyLadder, qui agrandit progressivement la fenêtre d’attention au fil de l’entraînement. Il a également opéré une normalisation individuelle des têtes d’attention (amélioration de l’intégrité du signal) et repositionné les couches d’attention globale (amélioration de la perte et du rappel) tout en supprimant l’encodage positionnel pour les têtes associées. Quant à la gestion d’état interne de Mamba, elle a été remplacé par la méthode GDN (Gated Delta Net), qui garantit de meilleures performances une fois passé le seuil des 30 milliards de tokens.
Certaines techniques n’ont pas porté leurs fruits. Par exemple, sur la data efficiency, Rho-1 et SoftDedup. L’une et l’autre pondèrent les tokens : elles utilisent un petit modèle qui leur attribue un score définissant leur contribution à la fonction de perte (les tokens plus « informatifs » influencent davantage les gradients).
De même, aucun optimiseur ne s’est révélé plus efficace qu’AdamW. Sinon Ademamix, mais avec des instabilités trop difficiles à gérer.
Les performances de SmolLM3, mais en plus frugal
Pour passer à l’échelle, Dragon LLM a implémenté son architecture dans le framework Megatron-LM. Le modèle qui en résulte est dit au niveau de Qwen3-4B et de SmolLM3. En tout cas sur ARC, FDA, HellaSwag, LAMBADA, PIQA et SWDE (en 0-shot). Le tout en plus frugal. Pour l’inférence, on l’a vu (DragonLLM évoque même un déploiement sur CPU), mais aussi pour l’entraînement (3700 milliards de tokens, soit 3 fois moins que SmolLM3 et 10 fois moins que Qwen3-4B).
Dragon LLM vise désormais un entraînement sur plus de 10 000 milliards de tokens, une adaptation au suivi d’instruction et la formation de plus gros modèles. Il promet des « versions dédiées à la production […] dans les prochains mois ».
À la tête de la stratégie technologique de la MAIF, Guillaume Rincé conduit une transformation en profondeur du système d’information du groupe mutualiste. Entre développement interne des logiciels, engagement fort en faveur de l’open source et réflexion sur la souveraineté numérique, il défend une vision responsable et maîtrisée du numérique.
Dans cet entretien, il revient sur la manière dont la MAIF conjugue innovation, indépendance technologique et valeurs mutualistes, de la gestion du cloud à l’usage raisonné de l’intelligence artificielle générative.
Silicon – Quel est votre périmètre d’activité en tant que CTO de la MAIF ? Guillaume Rincé – J’ai deux activités principales. D’abord, je définis la stratégie en matière de système d’information pour l’ensemble du groupe et de ses filiales. Ensuite, j’ai la responsabilité des activités technologiques du groupe. Nous fonctionnons de manière matricielle avec des équipages qui regroupent les grands métiers développeurs, ingénieurs, business analystes, designers, architectes, etc. Et puis nous avons des activités de « delivery » organisées en tribus, selon notre vocabulaire, qui correspondent aux différents domaines métiers de la MAIF : par exemple la tribu « Canaux et flux » ou la tribu « IARD Sinistres ».
J’anime les domaines technologiques et mon collègue Sébastien Agard s’occupe de toute la partie des livrables fonctionnels. Ensuite nous mélangeons nos équipes dans ces tribus qui sont constitués d’équipiers qui viennent des différents métiers du groupe pour réaliser les applications que nous mettons à disposition.
La MAIF est éditeur de ses propres logiciels ?
Oui, nous développons la majorité de nos applications en interne. Nous avons recruté plusieurs centaines de collaborateurs, dont beaucoup de développeurs, pour cela ces dernières années. Nous fonctionnons comme un éditeur de logiciels organisé pour produire nos propres solutions et les mettre en œuvre. Cela nous donne une maîtrise complète de la chaîne, que ce soit en termes de compétences, de ressources ou de processus, y compris le design, qui est clé pour améliorer l’expérience utilisateur.
Dans cette activité d’éditeur, vous vous appuyez beaucoup sur l’open source ? L’Open Source est une démarche naturelle pour la MAIF, en accord avec notre raison d’être qui est d’œuvrer pour le bien commun. Fabriquer des communs et les partager, c’est complètement en phase avec les valeurs du groupe. Quand je dis “open source”, je ne parle pas d’une techno de container habillée, fournie par un éditeur avec une politique de souscription fermée. Je parle de vraies distributions open source, véritablement libres.
Nous utilisons beaucoup de technologies à travers des Framework comme React ou des bases de données PostgreSQL.
Nous avons une dizaine de produits disponibles sur notre plateforme GitHub (http://maif.github.io), que d’autres peuvent intégrer dans leurs systèmes d’information. Par exemple, nous partageons un API management à l’état de l’art, que nous utilisons nous-mêmes à l’échelle du groupe. Nous le maintenons activement. Nous avons des utilisateurs dans la presse, dans la vente, et dans d’autres domaines, pas seulement en France, mais aux quatre coins du monde.
Nous partageons aussi des technologies de « Feature Flipping » pour activer du code à chaud,ou encore d’explicabilité des algorithmes d’IA et nous contribuons activement à des projets open source, notamment pour maintenir certains composants critiques. Nous avons des personnes qui s’investissent dans différentes technologies. Ce sont souvent des contributions aux « quick fixes ». Nous aimons soutenir des projets que nous utilisons, surtout ceux qui sont importants pour nos systèmes d’information mais qui sont portés par peu de personnes.
Chaque année, nous essayons de soutenir 2 à 3 projets par des dons en euros ou en aidant à financer une librairie. L’idée est de soutenir ceux qui créent ces composants utiles et dont nous bénéficions, en reversant une partie des économies que nous réalisons grâce à l’Open Source.
Comment se déroule l’identification des besoins, le développement et la production des applications ? L’objectif est que ce soit un sujet de toute l’entreprise, et non pas uniquement de la DSI.
Il faut pouvoir intégrer cette transformation au niveau des métiers qui interagissent avec nous. Dans notre organisation, plusieurs éléments structurent ce processus. Le premier, c’est ce que nous appelons le portefeuille stratégique d’initiatives. L’idée est simple : nous avons un certain nombre d’orientations stratégiques. Très souvent, derrière ces orientations, se cachent des sujets liés au système d’information, mais pas uniquement. Chaque orientation est portée par ce que nous appelons des leaders d’initiative qui travaillent avec les « business owners » des tribus pour construire le carnet de produits et les évolutions nécessaires à la réalisation de la stratégie.
Des arbitrages se font chaque année entre les différents portefeuilles stratégiques. Ensuite, les tribus organisent la réalisation et coordonnent les actions. Nous avons trois ou quatre « synchros à l’échelle » par an, où l’ensemble des collectifs se réajustent. Nous nous basons sur des principes forts d’agilité et de management par la confiance afin de responsabiliser l’ensemble des équipiers, quel que soit leur rôle, pour que chacun amène sa pierre à l’édifice. Les leaders de chaque feuille de route sont responsables de mener à bien les investissements, les « business owners » des tribus sont responsables de l’agencement dans leurs collectifs et les responsables de tribus s’assurent des livraisons et de la bonne coordination entre les squads produits.
Comment maintenez-vous votre patrimoine applicatif ?
Le maintien technologique à l’état de l’art, c’est quelque chose que nous avons introduit il y a maintenant cinq ans. Nous ne voulons plus de patrimoine qui traîne sans être maintenu, de versions qui ne sont pas à jour, de librairies ou de composants obsolètes sur nos plateformes.
Chaque année, notre patrimoine doit bénéficier d’un bon niveau de maintenance : mises à niveau, sécurité, correctifs…
“Aujourd’hui, il est vivant et a probablement 10 à 15 ans de cycle de vie devant lui. Je ne veux plus lancer des programmes ou projets, livrer un super produit, puis le laisser péricliter doucement pendant dix ans, alors qu’on a investi beaucoup au départ. Nous améliorons en continue les produits, tant sur le plan technique que fonctionnel, en tenant compte des feedbacks des utilisateurs. Pas des révolutions, mais des évolutions qui améliorent l’expérience. Cependant, il faut faire des choix, car nous ne pouvons pas tout faire et ça demande beaucoup de travail dans les collectifs. C’est une grosse partie de notre activité de run.
Quelle est votre politique sur le cloud ? MAIF a une Charte Numérique publique depuis 2016, dans laquelle nous nous engageons explicitement à garantir la protection des données de nos clients. Tous nos choix découlent de cet engagement.
Nous avons construit deux datacenters où nous hébergeons tout le « cœur de réacteur » et nos bases de données clients pour garder la maîtrise de nos données. C’est un investissement fort, un socle que nous voulons garder dans nos murs.
Quand nous utilisons le cloud, c’est plutôt pour des flux d’interaction, pour créer des parcours digitaux performants, des parcours mobiles, ou pour interagir avec des partenaires. Nous construisons des applications « stateless », ce qui signifie que les données ne sont pas stockées dans le cloud, en particulier s’il n’est pas souverain. Elles ne font qu’y transiter.
Par exemple, lorsque vous utilisez notre application mobile, vous pouvez transiter par le cloud ;
mais uniquement le temps de votre interaction.
Quelle est votre approche de la souveraineté technologique pour le cloud ?
Il y a 5 ans, nous avons choisi de travailler avec Microsoft Azure, dans un contexte où l’offre de Cloud, au sens des hyperscalers, était essentiellement américaine. Mais aujourd’hui, ce n’est plus suffisant. Nous sommes en train de réfléchir, comme d’autres grandes entreprises européennes, à nous tourner vers d’autres acteurs européens. Nous sommes en phase d’évaluation et je ne peux pas encore dire avec qui nous allons travailler.
Il y a deux ans encore, il n’y avait pas d’offre crédible à grande échelle, pas en matière d’hébergement, mais en termes de stack logiciel pour combiner les services entre eux. Nous avons désormais des véritables acteurs de cloud souverain européen en face des hyperscalers américains.
Ce que nous voulons, c’est pouvoir faire du cloud programmable dans toute sa complexité pour bénéficier d’une vraie richesse de services. Ce n’est pas juste une VM ou un « grand disque ». Ça, nous savons le faire nous-mêmes. Le vrai sujet, c’est d’avoir des fonctionnalités avancées pour développer, orchestrer, et faire tourner nos systèmes de manière fine.
Il y a aujourd’hui des acteurs qui font des technologies construites par de vrais ingénieurs européens, notamment en France. Ça change la donne. Nous espèrons intégrer cette capacité d’ici la fin de l’année, et ainsi disposer de fonctionnalités souveraines, en complément de ce que nous faisons déjà. C’est d’autant plus important avec la question de l’IA générative qui implique des traitements avec des capacités que nous ne pouvons pas forcément intégrer dans nos datacenters, à cause du coût et de la rapidité d’évolution.
Pour faire du génératif, nous aurons besoin d’infrastructures cloud, mais toujours dans des environnements dont nous pouvons garantir la souveraineté, avec un niveau de sécurité équivalent à celui de nos datacenters. Doter notre infrastructure de cette capacité nous permettra de mettre en œuvre du génératif beaucoup plus confortablement, tout en respectant pleinement nos engagements. Et ça, c’est essentiel.
Le Cigref dénonce régulièrement l’inflation des coûts services de cloud et des logiciels. Quel est votre avis sur le sujet ? En ce qui concerne les coûts du cloud, je suis assez serein. Les acteurs américains sont en forte compétition en dehors des États-Unis, notamment en Europe, ce qui garantit des tarifs relativement stables. Pour moi, il n’y a pas de différence majeure de coût entre le cloud et un datacenter interne bien géré. C’est le seul marché, avec l’IA générative, où il y a une vraie compétition.
En revanche, là où nous sommes très concernés, c’est par les politiques commerciales des éditeurs de logiciels américains. La liste est longue…Nous faisons face à des politiques commerciales qui n’ont aucun sens, avec des augmentations tarifaires justifiées par des discours marketing, mais qui ne reflètent en réalité qu’une stratégie financière pure.
Le but ? Créer un effet de levier pour pousser les clients à migrer vers le cloud, avec de nouvelles souscriptions sur des différents périmètres. Derrière, le calcul est simple : je double, voire triple mes tarifs. Les clients qui n’ont pas encore beaucoup investi peuvent partir facilement. Mais 70 % sont verrouillés, car il leur faudrait cinq ans pour sortir. Or, ils ont d’autres priorités et sont pris par leurs projets, alors ils restent.
Cela nous choque profondément dans le groupe MAIF : nous sommes une mutuelle, ce que nous payons est directement issu de l’argent de nos sociétaires.
Pour moi, la vraie menace aujourd’hui pour les entreprises européennes, ce n’est pas tant la souveraineté technologique au sens des infrastructure, c’est plutôt cette dépendance aux éditeurs. Nous nous faisons clairement matraquer. Parfois, c’est presque du racket, il faut le dire.
De plus, en tant qu’entreprise mutualiste, nous avons une volonté de soutenir l’économie européenne. Nos achats européens permettent de faire circuler l’argent au sein de l’écosystème européen. Nous cherchons à faire des choix responsables qui développent l’économie de notre écosystème et créent de la richesse en Europe, qui in fine bénéficie à nos clients et concitoyens. Au-delà des craintes géopolitiques, les entreprises doivent aussi faire des choix responsables pour soutenir l’économie.
Vous allez donc pousser plus loin votre stratégie d’éditeur interne ? Oui. C’est un choix stratégique d’investir dans des hommes et des femmes qui ont les compétences ou qui peuvent les acquérir. Je préfère payer des salaires, renforcer mes équipes,
plutôt que de payer des licences tous les mois, avec la promesse floue que “ça marche tout seul”. Nous, nous ne sommes pas du tout dans cette logique de “cloud as a service magique”.
Le cloud, c’est de la technologie. Et la technologie, ça tombe en panne. Nous faisons le même métier, avec les mêmes outils. Ils ne sont ni meilleurs, ni moins bons que nous. Je pense qu’il faut vraiment démystifier ça.
Ce que nous essayons de faire, c’est de fonctionner de la même manière, parce qu’il y a beaucoup à apprendre de leurs modèles opérationnels. Une des questions que nous nous posons, c’est : « Est-ce que nous professionnalisons encore plus notre logique d’éditeur en interne ? Avec une équipe qui fabrique les logiciels, une qui les met en production et une qui les opère » On pourrait imaginer aller jusque-là.
Comment abordez-vous le sujet de l’IA générative ? Quels sont les cas d’usage que vous avez identifiés ?
Nous essayons de ne pas nous laisser emporter par la hype même si la médiatisation est très forte, dans un sens comme dans l’autre. Nous avons voulu prendre le sujet à bras-le-corps, comprendre ce que c’était, et surtout voir ce que ça pourrait changer dans nos métiers. Nous avons commencé à travailler il y a plus d’un an. À ce stade, nous avons identifié deux priorités. Notre objectif a été de les expérimenter, puis de commencer à les mettre en production.
Le premier sujet, pas très original, c’est la question du soutien à l’activité, notamment l’accès à la connaissance en langage naturel. Ces cas fonctionnent assez bien, mais ils ne sont pas simples à mettre en œuvre si on veut de la pertinence. Parce que dans toutes les entreprises, nous avons des bases de connaissances de qualité variable, souvent avec beaucoup d’historique qu’on ne nettoie quasiment jamais. Si on embarque tout ça sans tri, l’IA mélange tout et produit des résultats peu fiables.
Donc le gros enjeu de ces premiers cas d’usage, c’est l’investissement dans le toilettage des données. Et quand la donnée est propre, on a de très bons résultats. Aujourd’hui, nous avons déployé ça sur plusieurs métiers via un assistant en langage naturel mis à disposition des utilisateurs. Nous avons deux cas d’usage majeurs en production : l’assistance aux méters de la gestion de sinistres et l’assistance aux utilisateurs de la digital workplace, incluant les informations autour de la migration vers Windows 11.
Par ailleurs, nous fournissons à tous les développeurs qui le souhaitent des licences Copilot pour qu’ils puissent coder avec l’IA et voir ce que ça change au quotidien.
Ce qui est essentiel, c’est de maintenir un dialogue fort entre ce que propose l’IA et les pratiques attendues dans l’entreprise.
Aujourd’hui, les usages sont majoritairement liés au soutien à certains métiers, comme prochainement les équipes juridiques, où l’enjeu est fort, avec beaucoup de documentation et de jurisprudence, donc une forte valeur ajoutée. Au fond, notre objectif est de redonner du temps aux métiers pour qu’ils se recentrent sur leur vraie valeur ajoutée.
Quels sont vos points d’attention ?
Il y a beaucoup de questions sur la dimension énergétique et la consommation des modèles, c’est un sujet auquel nous sommes attentifs et qui prendra tout son sens pour les cas d’usages qui vont trouver leur place pérenne en production.
L’autre gros sujet, c’est l’accompagnement au changement. C’est exactement la même chose qu’on vit dans le grand public : est-ce que vous avez réussi aujourd’hui à ne plus utiliser votre moteur de recherche favori et à commencer d’abord par une IA générative ? Souvent, on se rend compte que nous sommes tellement conditionnés qu’on commence par notre moteur de recherche traditionnel puis on se dit qu’on pourrait quand même essayer l’IA. C’est la même chose dans l’entreprise : nos collègues ont tendance à aller vers leur base de connaissances. L’adoption se fait sur 6 à 12 mois, parce qu’il faut déconstruire des pratiques bien ancrées.
Les produits ne sont pas complexes, mais ils ne sont pas simples à designer. Nous sommes arrivés à la conclusion qu’il fallait vraiment un accompagnement qui vient du terrain, avec les équipes terrain.
Autre sujet : on parle aussi de technologies qui sont moins européennes. Ce qui pose une vraie préoccupation parce qu’il faut interagir avec les clients, sous différentes formes, et cela passe par la culture. La culture européenne, et plus encore la langue française, ne sont pas bien représentées dans les données d’entraînement : 99 % des données utilisées viennent des cultures anglo-saxonnes, avec leurs biais politiques ou idéologiques. Nous voulons donc soutenir et encourager des initiatives pour entraîner des modèles sur la culture européenne et les langues européennes, surtout le français, pour avoir par exemple des courriers qui reprennent nos éléments culturels au lieu d’être de simples traductions Nous y sommes très attentifs.
Jamespot, acteur français de la Digital Workplace, annonce l’acquisition de SafeBrain, startup spécialisée dans l’intelligence artificielle sécurisée. Le montant de l’opération n’est pas communiqué.
Fondée en 2023, SafeBrain compte déjà plus de 50 clients, dont des banques, des ESN et de grandes entreprises.
« SafeBrain, c’est un peu le “ChatGPT souverain” : des agents d’IA sur mesure, sécurisés, collaboratifs et surtout, maîtrisés par l’entreprise. Une brique essentielle pour construire une IA au service du collectif, pas en surplomb de l’humain.» détaille Alain Garnier, CEO et cofondateur de Jamespot dans un post LinkedIn.
Les équipes de SafeBrain vont rejoindre les 50 collaborateurs de Jamespot.
« Progressivement, nous allons rapprocher les deux plateformes pour offrir à terme une expérience unifiée : l’intelligence artificielle de SafeBrain viendra s’intégrer naturellement dans l’écosystème collaboratif de Jamespot.» indique Alain Garnier.
Entre les restrictions américaines sur l’export de GPU vers la Chine, les incertitudes autour de l’accès aux modèles d’IA et l’extraterritorialité du Cloud Act, la dépendance aux hyperscalers est devenue un enjeu stratégique. Quand les chaînes MLOps reposent sur une infrastructure soumise à des décisions politiques extérieures, la question n’est plus technique : elle devient géopolitique.
La bataille du cloud ne se joue plus alors seulement sur la performance, mais sur la souveraineté. Pour s’indépendantiser des modèles fournis par les hyperscalers, il est indispensable de développer des MLOps en s’appuyant sur des clouds souverains.
La dépendance aux clouds extra-territoriaux : un risque systémique
Confier ses données et ses pipelines d’IA à un fournisseur soumis à une juridiction étrangère, c’est accepter plusieurs choses : qu’un changement réglementaire bloque du jour au lendemain l’accès à une ressource critique (GPU, framework, API) ; qu’un acteur décide unilatéralement de mettre un terme au support sur site, comme Atlassian, qui a imposé une migration vers le cloud à ses clients ; que la réversibilité devienne un vœu pieux, tant les services propriétaires enferment les organisations dans des architectures verrouillées ; ou encore que les données fassent l’objet d’une exploitation tierce.
Pour les chaînes MLOps, cette dépendance se traduit par une fragilité opérationnelle, qui s’illustre par des déploiements et un monitoring tributaires de services non maîtrisés, des contraintes de conformité impossibles à garantir sur des clouds soumis à d’autres lois que le RGPD, ou encore une capacité de mise à l’échelle qui repose sur la bonne volonté de fournisseurs externes, eux-mêmes soumis à des tensions géopolitiques. En d’autres termes : bâtir ses pipelines d’IA sans maîtrise de son socle, c’est construire sur du sable.
Vers une alternative souveraine, avec l’open source et un cloud européen
La bonne nouvelle, c’est qu’une autre voie existe. A en croire le discours porté depuis toujours par les opérateurs de solutions propriétaires, cette alternative serait plus complexe à mettre en place et à maintenir. Mais à l’heure des LLMs et agents, la voie de l’open source et du souverain n’a jamais été aussi accessible et pertinente. D’autant plus dans le monde de l’intelligence artificielle, où les outils open source constituent la grande majorité de ceux utilisés en production, bien loin devant les solutions propriétaires.
Construire une suite MLOps souveraine repose sur deux piliers : en premier lieu, les outils open source, comme Kubeflow, MLflow, Feast, Kubernetes ou encore PostgreSQL, chacun spécialisé dans une mission dédiée (l’orchestration et l’industrialisation des workflows ML, la gestion des features des modèles, la construction de l’infrastructure…).
Ces briques permettent de composer une stack de base, modulaire, scalable, interopérable et pérenne. Elles ont aussi l’avantage d’être disponibles à la demande chez la plupart des opérateurs.
Le second pilier est incarné par les opérateurs souverains, qui proposent des environnements conformes au RGPD, à SecNumCloud, situés en Europe, et qui s’engagent envers la transparence et la réversibilité des services d’infrastructures. Plus qu’une suite d’outils, ils fournissent un espace de confiance sur lequel faire reposer les services. Il devient donc possible d’aménager des flux de débordements entre infrastructures privées et services cloud. L’hybridation, de son côté, apporte des capacités de reprise ou de continuité d’activité en cas d’incident, mais aussi, désormais, une résilience aux manques de disponibilités de ressources de calculs comme les GPU, et un accès à du matériel de dernière génération sans investissement en propre.
Ces deux piliers mènent à une plateforme MLOps à la fois transparente, avec un code auditable et des dépendances identifiées, maintenable grâce à l’absence de dépendances à des services propriétaires opaques, prévisible, car le coût et la scalabilité reposent sur des contrats clairs, et enfin souveraine, conservant un contrôle de bout en bout sur les données et modèles.
Un enjeu collectif
La souveraineté numérique n’est pas une posture défensive. C’est une stratégie de durabilité. Construire des chaînes MLOps souveraines, c’est garantir que les innovations en matière d’IA ne soient pas fragilisées par des décisions qui échappent aux entreprises. C’est aussi donner aux écosystèmes européens la capacité de rivaliser, non pas par la taille, mais par la résilience et la maîtrise.
Pour faire en sorte que leurs modèles d’IA ne dépendent pas de décisions prises à Washington, à Pékin, ou même à Bruxelles, les entreprises, qu’elles consomment ou fournissent ces solutions, doivent prendre conscience que l’enjeu dépasse la technique et touche à la capacité collective à innover librement et durablement.
*Alexis Gendronneau est Directeur Data & IA de NumSpot
Ne dites plus Autonomous Data Warehouse, mais Autonomous AI Lakehouse.
Oracle opère ce changement de marque à l’aune de plusieurs évolutions fonctionnelles. Parmi elles, la gestion native du format Iceberg, d’où la notion de lakehouse. L’ajout d’un framework agentique justifie quant à lui l’aspect IA.
L’intégration Iceberg est initialement certifiée pour AWS Glue, Snowflake Polaris, Databricks Unity et Apache Gravitino. La syntaxe SQL d’Autonomous AI Database évolue en parallèle, pour permettre des requêtes de type select * from owner.table@catalog.
Après Select AI RAG, Select AI Agent
La partie agentique est nommée Select AI Agent. Elle s’inscrit dans la continuité de Select AI, lancé fin 2023 sous la bannière du text-to-SQL.
Depuis lors, Select AI a été doté, entre autres, d’une brique de RAG destinée notamment à enrichir les requêtes en langage naturel. Plus récemment, Oracle a mis à disposition un portage pour Python.
Le voilà donc qui s’ouvre à l’IA agentique, à l’appui d’un framework ReAct*. Il reprend la composante RAG, assortie d’une compatibilité MCP et de la capacité à exploiter des outils externes via REST (recherche web avec l’API OpenAI, en particulier). Quelque garde-fous sont mis en place, dont du LLM-as-a-judge pour évaluer les outputs et la possibilité de définir des « profils SQL » associés à des règles définies par l’utilisateur.
Table Hyperlink, nouveau nom des URL préauthentifiées
Le rebranding d’Autonomous Data Warehouse en Autonomous AI Lakehouse en appelle un autre : la fonctionnalité jusque-là appelée PAR URLs (Pre-Authenticated Request URLs) devient Table Hyperlink.
Le système des URL préauthentifiées permet de donner un accès temporaire, par client REST, à des tables ou à des vues dans Autonomous Database. Ces URL, générées par exécution de code PLSQL, peuvent avoir une date d’expiration et/ou un nombre maximal d’utilisations. On peut aussi les invalider manuellement. Depuis leur lancement début 2024, elles ont été enrichies sur plusieurs points. Dont, pour les producteurs de données, la possibilité d’étendre le délai de validité des URL en quelques appels API ; et un système de « partage sélectif » permettant de donner accès à des sous-ensembles de datasets sur le réseau Internet tout en conservant le reste dans un VCN (réseau virtuel privé). Pour les consommateurs de données, l’UI web s’est améliorée, avec par exemple un code couleur pour identifier tendances et anomalies.
La marque Table Hyperlink est censée mieux refléter l’objectif de cette fonctionnalité (connecter des tables à des workflows). Oracle promet d’y intégrer, à l’avenir, des variables d’association par défaut, d’assurer la cohérence pour les URL paginées… et surtout de permettre la gestion de plusieurs tables avec un même lien.
Dans le cadre des traitements de données externes, Oracle a intégré à sa base de données un système de cache sur mémoire flash (dans Exadata). Supportant les fichiers Parquet, ORC, AvRO et les tables Iceberg, il est pour l’instant manuel (c’est à l’utilisateur de définir les tables ou parties de tables à mettre en cache). Il est question d’automatiser le processus à partir de l’analyse des usages.
AI Data Platform, dans la lignée de MySQL HeatWave Lakehouse
On ne perçoit pas la dimension lakehouse dans le branding d’AI Data Platform, mais elle en est bien le fondement. L’offre, qui vient de passer en disponbilité générale, constitue une évolution d’un produit existant. En l’occurrence, MySQL HeatWave Lakehouse. Elle s’appuie sur Autonomous AI Database, Oracle Analytics Cloud (connexion possible avec des outils BI tiers), ainsi que le stockage objet et les services d’IA générative d’OCI (accès à des modèles de Meta, de Cohere, de xAI, etc.). La couche compute repose sur Apache Spark, assorti à du GPU NVIDIA. En ce sens, l’ensemble se distingue d’Autonomous AI Lakehouse, davantage orienté vers l’analytics.
Autonomous Data Warehouse et AI Data Platform sont à la base d’une autre offre, pas tout à fait nouvelle mais qui résulte aussi d’un changement de marque. Il s’agit de Fusion Data Intelligence, ex-Fusion Analytics Warehouse. Elle permet d’exploiter les outils d’analytics d’Oracle en lien avec les applications Fusion Cloud, en fournissant un pipeline, un entrepôt, un modèle sémantique et des contenus (métriques, workbooks, visualisations) prêts à l’emploi.
* Dans les grandes lignes, l’approche ReAct entrelace la génération des chaînes de pensée et la planification des actions en sollicitant du feedback humain si nécessaire.
Finis la « plate-forme de communication », le « hub pour votre équipe et votre travail » ou le « remplaçant de l’e-mail » : Slack se voit désormais en « système d’exploitation agentique » (agentic OS).
L’éditeur joue cette carte à l’occasion de la Dreamforce 2025 (14-16 octobre). Il revendique une « transformation en un espace de travail conversationnel où les personnes, les IA et les agents collaborent, avec le contexte des conversations et des données ».
Dreamforce 2024 : du conversationnel, option agentique
Il y a un peu plus d’un an, à la Dreamforce 2024 (17-19 septembre), il n’était pas encore question d’agentic OS, mais de conversational work OS. Traduit alternativement, en version française, par « plateforme de travail », « plateforme collaborative »… et « système ». L’idée était par contre la même que celle prônée aujourd’hui : une « interface conversationnelle qui réunit les équipes, les données, les applications et les agents dans un environnement dédié ».
À ce moment-là, l’offre Agentforce dans Slack n’était pas encore disponible (elle allait passer en bêta en octobre 2024). La communication se portait plutôt, d’une part, sur l’installation d’applications « agentiques » via la marketplace (Claude et Perplexity étaient cités en exemple, avec la promesse d’une disponibilité imminente). De l’autre, sur la conception d’agents personnalisés à l’aide des API.
L’aspect agentique mis à part, la marque Slack AI était généreusement promue. Les fonctionnalités regroupées sous cette bannière sont aujourd’hui distillées dans les forfaits Slack payants :
Pro (8,25 €/utilisateur/mois)
Résumé de canaux et de threads, notes d’appels d’équipe (capture des infos importantes dans un canevas), compatibilité avec les assistants IA tiers.
Business Plus (18 €)
La même chose ainsi que des recaps IA quotidiens, le résumé de fichiers, la traduction et l’explication de messages, un générateur de workflows en langage naturel, une assistance à l’écriture dans les canevas et la recherche personnalisée (fondée sur les conversations et les fichiers partagés).
Enterprise+
La même chose avec, en complément, la recherche d’entreprise (exploitant les applications, bases de données et systèmes connectés à Slack).
L’intégration de ces fonctionnalités fut invoquée, mi-2025, pour justifier l’augmentation du prix du forfait Business+. La com de Slack était alors à cheval entre le conversational work OS et l’agentic OS : il était question de « système d’exploitation professionnel à l’ère des agents IA » (work operating system for the agentic era).
Du général au particulier
Agentforce dans Slack étant passé en disponibilité générale début 2025, il est désormais au cœur du message. La description assez générique qui en avait été donnée à la Dreamforce 2024 a laissé place à la mise en avant de cas spécifiques, pour les ventes (Agentforce Sales), le support informatique (Agentforce IT Service), la gestion des ressources humaines (Agentforce HR Service) et la datavisualisation (Agentforce Tableau).
Parallèlement, un usage généraliste est promu à travers Channel Expert. Cet agent activable dans tous les canaux peut pour le moment exploiter conversations, canevas, listes, fichiers texte et PDF. Il nécessite une licence Agentforce.
Slack s’adresse aussi aux développeurs d’applications. Il leur annonce la disponibilité d’un serveur MCP, donnant initialement accès aux conversations, aux fichiers et aux canevas. Il évoque aussi un élément récemment ajouté à son API : un bloc facilitant l’affichage de données tabulaires au sein de messages.
Avec les IA, une API devenue moins ouverte
L’API a connu, dernièrement, une évolution plus marquante, corollaire d’une démarche de restriction de l’accès aux données. Slack a effectivement modifié, fin mai, les conditions d’utilisation, essentiellement pour empêcher les exportations massives de données. L’éditeur en a interdit le stockage et l’indexation « longue durée », tout en précisant qu’elles ne pouvaient servir à entraîner des LLM. En parallèle, il a mis en place un plafonnement des débits (nombre de requêtes par minute et de messages par requête) sur les méthodes conversations.history et conversations.replies pour les applications commerciales non distribuées sur sa marketplace.
L’API RTS (Real-Time Search), promue de la bêta à la « disponibilité limitée » à l’occasion de la Dreamforce, s’inscrit dans cette même logique : elle permet d’exploiter des données sans les sortir de Slack. Les applications ChatGPT, Google Agentspace et Dropbox Dash, entre autres, en font usage. Perplexity Enterprise se connecte quant à lui au serveur MCP.
Initialement rattaché à l famille Slack AI, Slackbot commence, en tout en façade, à tendre vers l’agentique. À terme, il devra « réaliser des actions en votre nom et construire des agents sur votre demande », nous annonce-t-on. En l’état, on se tournera vers la brique Agent Builder, en exploitant éventuellement les quelques templates récemment ajoutés (Customer Insights, Employee Help, Onboarding).
À consulter en complément, un point sur l’évolution du branding côté Salesforce, entre chatbots, copilotes , agents… et dilution de la marque Einstein.
A côté de Mistral et de sa dernière levée de fonds stratosphérique, c’est l’autre champion de l’écosystème IA européen. Son nom : Nscale. En moins d’un mois, la pépite britannique, qui va fêter ses deux ans, a levé 1,533 milliard $ pour conquérir s’imposer dans l’infrastructure dédiée à l’intelligence artificielle.
Son ambition : devenir un hyperscaler spécialisé dans l’IA, offrant des centres de données complets intégrant puissance de calcul, stockage, réseau et logiciels de gestion, capables de supporter les applications IA les plus exigeantes tout en assurant la souveraineté des données.
Depuis le début de l’année, la startup multiplie les gros contrats avec les géants de la Tech.
Partie prenante du projet Stargate, versant européen, Nscale exploite un campus hyperscale à Narvik en Norvège, développé en partenariat avec Aker ASA, un groupe norvégien spécialisé dans l’ingénierie et l’énergie, et aligné sur les besoins d’OpenAI. Ce site fournit déjà 52 000 GPU à Microsoft dans le cadre d’un contrat pluriannuel.
Big deal de 14 milliards $ avec Microsoft
Dernier en date, celui signé avec Microsoft. La transaction pourrait générer jusqu’à 14 milliards $ de revenus selon le Financial Times. Dans le détail, Nscale fournira environ 104 000 GPU NVIDIA GB300 sur un campus d’IA hyperscale d’environ 240 MW situé au Texas, permettant le déploiement progressif des services d’infrastructure IA de NVIDIA pour Microsoft à partir du troisième trimestre 2026. Le site, actuellement loué à Ionic Digital, pourra voir sa capacité étendue progressivement jusqu’à 1,2 GW, Microsoft disposant d’une option pour une seconde phase de 700 MW à partir de fin 2027.
Au Portugal, Nscale commencera, dès le premier trimestre 2026, à fournir environ 12 600 GPU NVIDIA GB300 au centre de données Start Campus de Sines. Cet accord pluriannuel permettra à Microsoft de bénéficier de services d’infrastructure IA NVIDIA tout en offrant aux clients européens des solutions d’IA souveraines au sein de l’Union européenne.
Parallèlement, cet accord complète le projet annoncé en septembre dernier par Nscale et Microsoft visant à déployer le plus grand supercalculateur IA NVIDIA du Royaume-Uni sur le campus d’IA de Nscale à Loughton. Cette installation de 50 MW, extensible à 90 MW, accueillera environ 23 000 GPU NVIDIA GB300 à partir du premier trimestre 2027, afin de soutenir les services Microsoft Azure.
« Cet accord confirme la place de Nscale comme partenaire de choix pour les plus grands leaders technologiques mondiaux. Peu d’entreprises sont équipées pour déployer des GPU à cette échelle, mais nous possédons l’expérience et le pipeline mondial nécessaires. » se réjouit son CEO et fondateur Josh Payne.
Les levées de fonds de Nscale depuis sa création en 2023
Date
Montant levé
Type de financement
Investisseurs principaux
Objectif / Remarques
Décembre 2023
30 M$
Seed
Non divulgué
Lancement et premiers développements des infrastructures IA.
Décembre 2024
155 M$
Série A
Sandton Capital Partners, Kestrel 0x1, Blue Sky Capital, Florence Capital
Expansion en Europe et Amérique du Nord pour infrastructures IA.
La dette d’Altice France restructurée, Bouygues Telecom, Free et Orange sortent du bois.
Après des mois de discussions, les trois opérateurs viennent de déposer une offre conjointe portant sur SFR. Elle a été immédiatement rejetée.
Voici quelques éléments de contexte chiffrés.
17 milliards d’euros
Le montant de l’offre.
Bouygues Telecom en apporterait 43 % (7,3 Md€) ; Free, 30 % (5,1 Md€) ; Orange, 27 % (4,6 Md€).
L’activité B2B serait reprise par Bouygues Telecom principalement, et par Free.
L’activité B2C serait partagée entre les trois opérateurs.
Les autres acteurs et ressources – notamment infrastructures et fréquences – seraient également partagées.
Le réseau mobile SFR en zone non dense serait repris par Bouygues Telecom.
4 participations
L’offre exclut explicitement quatre participations d’Altice. En l’occurrence :
Intelcia
Filiale d’outsourcing (centre de contact, recouvrement, conseil en IT…). 40 000 collaborateurs.
UltraEdge
Résultat de la scission des activités datacenter de SFR, effectuée en 2024 avec l’arrivée du fonds d’investissement Morgan Stanley Infrastructure Partners.
250 sites, dont 90 utilisables en colocation (plus de 500 m2 de surface IT installée) ; 45 MW de puissance disponible.
SFR est resté client (pour ses activités télécoms) et actionnaire minoritaire.
XPFibre
Ex-SFR FTTH. Opérateur d’infrastructures spécialisé dans les réseaux de fibre optique. Intervient dans les zones peu et moyennement denses (AMEL, AMII et RIP). Créé en 2019 avec la prise de participation à 49,9 % d’AXA, Allianz et du fonds canadien OMERS. Renommé en 2021 après l’absorption de Covage.
Altice Technical Services
ERT Technologies (1350 salariés ; née en 2000) est sa principale entité. Elle conçoit, construit, exploite et assurance la maintenance d’infrastructures réseau.
80 MHz
La taille du bloc de fréquences que SFR est autorisé à exploiter sur la « bande cœur » de la 5G (3,4 – 3,8 GHz). L’attribution s’est déroulée en 2020. Orange a obtenu 90 MHz ; Bouygues Telecom et Free, 70 MHz chacun.
SFR déploie aussi la 5G sur la bande dite des 2100 Mhz. Il y dispose de 15 MHz en liaison montante (1920,5 – 1935,5 MHz) comme en liaison descendante (2110,5 – 2125,5 MHz).
L’opérateur dispose également de 5 MHz duplex dans la bande des 700 MHz, attribuée en 2015 dans le cadre du deuxième dividende numérique (récupération de fréquences exploitées par la TNT).
15 345 sites
Au 1er octobre 2025, le volume de sites 5G SFR techniquement opérationnels en France métropolitaine (pour 18 989 sites autorisés).
Le compteur en était à 16 800 chez Bouygues Telecom (20 686 autorisés), 21 938 chez Free (25 947 autorisés) et 14 797 chez Orange (17 608 autorisés).
Bande des 700 MHz
SFR : pas de sites
Bouygues Telecom : pas de sites
Free : 20 911 sites opérationnels (25 415 autorisés)
Orange : 12 007 sites opérationnels (13 679 autorisés)
D’après Altice, le réseau 5G de SFR couvrait, au 30 juin 2025, 84,5 % de la population.
25,415 millions de clients
Fixe et mobile confondus, SFR comptait un peu plus de 25 millions de clients au 30 juin 2025.
Sur le fixe, ils étaient 6,109 millions, contre 6,227 millions un an plus tôt (- 1,9 %). Ce volume correspond au nombre d’utilisateurs finaux ayant souscrit à au moins un service basé sur la fibre, le câble ou les box 4G.
Sur le mobile aussi, SFR a perdu des clients. En un an, sa base est passée de 19,624 à 19,306 millions (- 1,6 %).
2028
L’horizon auquel SFR doit « redevenir l’opérateur préféré des Français en proposant le meilleur rapport qualité-prix du marché ».
Tel est en tout cas l’objectif affiché par Altice dans le cadre de son plan SFR Imagine lancé en octobre 2024. En toile de fond, le recentrage sur son activité télécoms. Il a impliqué la vente d’Altice Médias (BFMTV et RMC) à CMA-CGM pour environ 1,5 Md€.
15,5 milliards de dette
Altice France chiffrait sa dette financière nette à 23,773 Md€ au 30 juin 2025.
Elle a depuis été restructurée, et ainsi réduite à 15,5 Md€. En contrepartie, les créanciers montent à 45 % du capital (Patrick Drahi conservant ainsi une participation majoritaire).
Le groupe était entré en procédure de sauvegarde accélérée au mois de mai. Le tribunal des affaires économiques de Paris avait donné son feu vert à la restructuration de dette en août. L’opération a ouvert la voie à la vente de SFR.
Sur le premier semestre 2025, Altice France a réalisé un chiffre d’affaires de 4,746 Md€ (- 7,1 % par rapport à la même période en 2024). Dont :
1,294 Md€ sur le segment fixe résidentiel (- 4,6 %)
1,636 Md€ sur le mobile résidentiel (- 10,6 %)
1,43 Md€ sur le segment business services (- 5,7 %)*
Le résultat opérationnel a chuté de 25,3 %, à 645,6 M€, malgré une nette réduction des achats et de la sous-traitance. Comme, dans une moindre mesure, des autres dépenses d’exploitation (portée entre autres par l’automatisation du service client à renfort d’une IA basée sur Gemini). La perte nette s’est élevée à 368,3 M€.
* Le segment business services inclut les revenus les revenus associés à la location de l’infrastructure réseau à d’autres opérateurs. Il comprend aussi les activités datacenter, la production et la distribution de contenu, les services client et technique, ainsi que la construction de réseaux FTTH.
Pour cause de faille de sécurité, Microsoft a resserré l’étau sur le mode IE d’Edge.
Ce mode est maintenu pour assurer la compatibilité avec les sites qui utilisent encore des technologies obsolètes comme Flash et ActiveX. Il exploite le moteur de rendu d’Internet Explorer 11 (Trident/MSHTML).
Une RCE dans le moteur JavaScript
Au mois d’août, Microsoft a été averti d’une campagne de social engineering combinée à une vulnérabilité 0-day dans Chakra, le moteur JavaScript d’IE.
La victime était dirigé vers un site malveillant qui était rechargé en mode IE, ouvrant la voie à l’exécution de code à distance puis à une élévation de privilèges hors du navigateur.
Le mode IE devient moins facilement activable
Dans ce contexte, Microsoft a décidé de retirer plusieurs points d’entrée vers le mode IE. En l’occurrence, le menu contextuel (affiché au clic droit sur un onglet ou sur un lien), le menu hamburger et le bouton dans la barre d’outils.
Il faut désormais aller dans les paramètres d’Edge, activer le mode IE, puis ajouter au cas par cas les sites autorisés.
Ce changement ne concerne pas Edge Enterprise, où l’activation du mode IE se fait toujours par l’intermédiaire de stratégies.
T-Systems, filiale du groupe Deutsche Telekom et acteur européen des services numériques, annonce la nomination d’Anne-Marie Calmeil au poste de Présidente de T-Systems France.
Elle succède à Jean-Paul Alibert, qui quittera ses fonctions à la fin du mois.
Un parcours marqué par la transformation numérique
Anne-Marie Calmeil débute sa carrière en 1998 chez IBM, où elle contribue à la croissance des activités dans les secteurs des médias, des télécommunications et des utilities. En 2014, elle rejoint Atos pour diriger le marché des médias, avant de devenir Global Client Executive d’Orange.
En 2020, elle fonde et dirige la filiale française du cabinet de conseil espagnol Everis, devenu NTT DATA, qu’elle développe jusqu’à l’été 2025. Tout au long de son parcours, elle a occupé des fonctions de direction en France et à l’international, pilotant des équipes et des stratégies centrées sur le client dans des environnements de forte transformation.
Diplômée en économie et mathématiques de la Sorbonne, elle a également suivi des programmes d’Executive Education à la London Business School et à HEC Paris.
Pour ce qui est des « travailleurs de première ligne » (frontline workers), les fournisseurs d’intranets restent largement en phase d’apprentissage.
D’année en année, Gartner réitère le constat dans le Magic Quadrant qu’il dédie à ce marché. La dernière édition n’y déroge pas.
Autre élément récurrent : l’absence de Microsoft, en dépit de l’influence qu’il a sur ce segment. Et pour cause : Gartner limite toujours son périmètre aux « solutions packagées » (IPS, Intranet Packaged Services), définies comme « prêts à l’emploi ». Par opposition à SharePoint, qui nécessite des composantes externes (de Microsoft ou de tierces parties), en tout cas pour satisfaire aux critères fonctionnels évalués.
Reste que Microsoft est l’éditeur avec lequel tous les fournisseurs d’IPS doivent composer. Certains se greffent sur des locataires Office 365 quand d’autres utilisent SharePoint pour gérer le contenu et/ou mettent en place des intégrations avec des éléments comme Entra ID, Teams et le Microsoft Graph.
Peu de fournisseurs ont des solutions verticales voire déploient un effort marketing et commercial dans ce sens, ajoute Gartner. Ce critère a toutefois eu un poids faible dans l’évaluation.
16 fournisseurs, 7 « leaders »
L’axe « exécution » du Magic Quadrant reflète la capacité à répondre effectivement à la demande. La situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
Unily
+ 1
2
Simpplr
– 1
3
LumApps
+ 3
4
Workvivo by Zoom
+ 1
5
Omnia
nouvel entrant
6
ServiceNow
+ 5
7
Blink
nouvel entrant
8
Staffbase
+ 1
9
Firstup
– 1
10
Interact
=
11
Appspace
+ 2
12
MangoApps
– 8
13
Haiilo
– 1
14
Akumina
– 11
15
Powell
– 8
16
Axero
– 1
Sur l’axe « vision », censé refléter les stratégies (géographique, sectorielle, commerciale, marketing, produit…) :
Rang
Fournisseur
Évolution annuelle
1
LumApps
+ 3
2
Simpplr
– 1
3
Unily
– 1
4
Workvivo by Zoom
+ 1
5
Interact
+ 2
6
MangoApps
+ 5
7
Akumina
+ 2
8
Firstup
– 2
9
Staffbase
– 6
10
Powell
+ 3
11
Omnia
nouvel entrant
12
Haiilo
+ 2
13
Appspace
– 3
14
ServiceNow
– 6
15
Axero
– 3
16
Blink
nouvel entrant
Les fournisseurs classés « leaders » sont les mêmes que dans le précédent Magic Quadrant des IPS : Firstup, Interact, LumApps, Simpplr, Staffbase, Unily et Workvivo.
Firstup, pas le mieux placé pour la gestion du travail et du contenu
Gartner salue la stratégie marketing de Firstup, capable de cibler un large éventail de profils d’acheteurs. Il apprécie aussi la gestion du premier contact et de l’onboarding. Bons points également pour l’expérience client (gestion de compte, collecte de feedback, promotion des communautés) et la viabilité de l’entreprise (santé financière, base de clientèle, engagement R&D).
Firstup n’est pas le mieux placé pour répondre aux exigences qui vont au-delà de la communication multicanale et du frontline, pour toucher par exemple à la recherche d’entreprise, à l’IA et à la gestion de contenu. Il ne propose, par ailleurs, pas de capacités « traditionnelles » de gestion du travail (assignation de tâches, automatisation de workflows…). Gartner note aussi l’absence de solutions verticales et le défi de passage à l’échelle – ventes, marketing, support, développements personnalisés – pour Firstup, qui n’est pas un pure player.
Idéation, newsletters, affichage dynamique… Des briques moins matures chez Interact
Interact a aussi droit à un bon point sur son marketing, tant pour la stratégie que pour l’exécution. Il se distingue également par sa compréhension des profils d’acheteurs ; et, en conséquence, par sa capacité à contextualiser ses offres. Gartner apprécie de surcroît son niveau de présence au sein des organisations de moins de 25 000 employés et l’extensibilité de sa solution. Ainsi que la prise en charge du frontline, entre autres par des intégrations avec des systèmes de gestion du travail.
Certaines briques d’Interact sont moins matures que son cœur fonctionnel. Par exemple, l’idéation, les newsletters et l’affichage dynamique. Attention également au modèle largement direct, qui limite les ressources dans certaines régions géographiques (Asie-Pacifique et Amérique latine, notamment). On prendra par ailleurs garde d’avoir les ressources nécessaires si on apporte ses propres modèles sur le back-end IA.
Mise en place et gestion complexes pour LumApps
Gartner salue l’exhaustivité de l’offre de LumApps et son adaptabilité à beaucoup de cas d’usage. Il apprécie aussi son extensibilité (orchestration et automatisation de workflows, développement de mini-apps) et les fonctionnalités IA qui lui ont été greffées, tant pour les admins que les gestionnaires de contenus et les utilisateurs finaux.
La mise en place et la gestion peuvent s’avérer complexes, même avec l’assistance par GenAI. LumApps manque par ailleurs de notoriété dans certaines régions et en dehors de son cœur de marché. La clientèle étant essentiellement composée d’organisations de moins de 10 000 employés, les plus grandes auront sont d’étudier si le support leur conviendra.
Chez Simpplr, un manque de cohésion entre communication et gestion de contenu
Simpplr se distingue par ses efforts sur l’orchestration. Ainsi que sur l’IA, gouvernance comprise (utilisation de NVIDIA NeMo Guardrails et de Langfuse). Gartner apprécie aussi la qualité des interactions client (marketing, vente, partenaires) et l’efficacité de la solution en matière de gestion du travail.
Présent surtout en Amérique du Nord, Simpplr a une distribution géographique moins équilibrée que ses concurrents. Gartner ajoute que la partie communication multicanale manque de cohésion vis-à-vis de la gestion de contenu, qui n’est plus globalement par le fort de Simpplr. Le cabinet américain note aussi un focus R&D parfois au détriment des ventes et du marketing.
IA, orchestration et extensibilité, des faiblesses de Staffbase
Staffbase a pour lui son niveau de compréhension du marché, porté par son expérience sur la partie communication entre employés. Son intégration de longue date avec Microsoft lui permet de bien couvrir à la fois employés de bureau et frontline. L’empreinte géographique (distribution du revenu, réseau de partenaires, versions localisées) est un autre point fort. Comme la santé financière de l’entreprise et ses investissements en R&D.
Staffbase peut être perçu comme globalement immature sur l’IA pour qui cherche des capacités avancées de gestion du travail, de service aux employés et d’optimisation data-driven. Gartner relève aussi des faiblesses dans l’orchestration et l’extensibilité. Ainsi que les défis qu’est susceptible de poser le focus de Staffbase sur l’aspect communication.
Tarification peu transparente chez Unily
Bon point marketing également pour Unily, onboarding compris. Gartner apprécie aussi le réseau de partenaires et d’intégrations, la capacité de collecte de feedback et la disponibilité de solutions sectorielles.
Unily a une présence limitée dans les entreprises de moins de 10 000 salariés – certaines ressentent qu’elles ne sont pas une priorité. Gartner relève aussi le manque de transparence de sa tarification, les limites sur les fonctionnalités IA (analyse de recherche, simulation d’audience, UI adaptatives) et le support (temps de réponse et d’escalade).
Workvivo pousse le social/communautaire au détriment d’autres use cases
En plus de pouvoir s’appuyer sur les ressources et la notoriété de Zoom, Workvivo opère un positionnement markting efficace. Gartner apprécie ses programmes d’accompagnement client et l’accent mis sur le développement de communautés internes.
En matière de gestion du travail et d’extensibilité, il y a mieux, explique le cabinet américain. Workvivo est globalement jugé trop agressif sur le sujet social/communautaire au détriment d’autres cas d’usage. Vigilance aussi pour qui veut standardiser sur Teams : l’expérience front-end est brandée Workvivo, mais le back-end est branché sur Zoom.
AWS orchestre un grand ménage dans ses services de modernisation.
Migration Hub et Application Discovery Service sont passés en mode maintenance. Pour le moment jusqu’au 7 novembre 2025, date à partir de laquelle ils n’accepteront plus de nouveaux clients*. Il en sera de même à cette échéance pour les outils de modernisation .NET**. Tandis que Mainframe Modernization Service n’existera plus qu’en version autogérée.
Le palliatif désigné, lancé il y a quelques mois sous la bannière de l’IA agentique, s’appelle AWS Transform.
Quantité d’autres services passeront en mode maintenance à partir du 7 novembre 2025. En voici quelques-uns.
Amazon Cloud Directory
Magasin de données hiérarchisées, alternatif aux annuaires LDAP. Les écritures seront bloquées dans un deuxième temps (passé le 22 avril 2026). Puis le service fermera le 30 septembre 2026 et le contenu sera supprimé en parallèle. AWS n’y a plus ajouté de fonctionnalités depuis 2018 et le lancement d’Amazon Neptune, base de données orientée graphe vers laquelle il recommande aujourd’hui de migrer.
Amazon CodeCatalyst
À partir du 7 novembre, il ne sera alors plus possible, pour les utilisateurs existants, de créer de nouveaux espaces. AWS recommande de migrer vers l’offre GitLab Duo with Amazon Q. Ou alors vers CodeBuild (compilation et test de code), CodePipeline (orchestration CI/CD), CodeDeploy (déploiement d’applications) et Code Artifact (gestion de packages).
Amazon CodeGuru Reviewer
Service d’analyse de code Java et Python sur Bitbucket, CodeCommit, GitHub et S3). À partir du 7 novembre 2025, il ne sera plus possible de créer de nouvelles associations de dépôts. Options de migration recommandées : Amazon Q Developer et Amazon Inspector, qui couvrent l’un et l’autre GitHub et GitLab.
Amazon S3 Object Lambda
Ce service permet l’ajout de code aux requêtes S3 GET, HEAD et LIST pour modifier des données. Il n’acceptera plus de nouveaux utilisateurs à la même date. AWS recommande d’invoquer Lambda par d’autres moyens (via CloudFront, API Gateway ou les URL de fonctions) ou de traiter les données dans les applications clientes.
Amazon Glacier
Le passage en maintenance d’Amazon Glacier interviendra un peu plus tard. Le 15 décembre 2025 en l’occurrence. On parle là du service d’origine, autonome, basé sur un coffre-fort avec API REST. Les données stockées jusque-là resteront accessibles indéfiniment, assure AWS, qui recommande de faire la transition vers les classes de stockage Glacier dans S3. Lesquelles ont l’avantage d’une disponibilité plus large sur son cloud, d’une intégration avec ses autres services, d’un coût inférieur et d’une API niveau bucket.
AWS IoT SiteWise Monitor et Data Procesing Pack
Deux composantes de l’offre AWS IoT SiteWise passeront également en mode maintenance le 7 novembre 2025. D’une part, le Data Processing Pack (transformation, stockage et visualisation de données). De l’autre, Monitor (création de portails web pour visualiser et partager des données au sein d’une organisation). Pour remplacer le premier, AWS recommande soit l’open source (Node-RED pour la transformation, InfluxDB pour le stockage de séries chronologiques, Grafana pour la visualisation), soit des solutions de partenaires (CloudRail, EasyEdge, Litmus Edge). Au second, il conseille de substituer le plug-in Amazon Managed Grafana (en sachant qu’il n’y a pas de contrôle d’accès niveau asset ni d’intégration avec AWS IoT SiteWise Assistant) ou bien Grafana Cloud ou autohébergé.
AWS Snowball Edge
Appliances de transfert de données. L’offre n’acceptera plus non plus de nouveaux clients à compter du 7 novembre 2025. Successeurs recommandés : DataSync pour les transfert sur lien réseau et Data Transfer Terminal pour les transferts physiques (Seagate et Tsecond soit également cités). Pour remplacer l’appliance optimisée compute, il y a éventuellement l’offre AWS Outposts.
Amazon Fraud Detector
Détection de fraude à base de machine learning. En guise de remplacement, AWS avance son WAF (pare-feu pour applications web), son service SageMaker (MLOps)… et une bibliothèque open source dont il est à l’origine : AutoGluon (AutoML à partir d’images, de texte, de séries chronologiques et de données tabulaires).
Accès web à Amazon WorkSpaces sur PCoIP
AWS recommande d’installer, si possible, les clients Amazon WorkSpaces. Sinon, de migrer vers le protocole DCV. Qui a, entre autres avantages :
Meilleures performances
Fonctionnalités supplémentaires (SAML et authentification par certificats, notamment)
Disponibilité étendue (pas d’accès web sur PCoIP dans certaines régions AWS, dont Paris)
Gestion des bureaux Linux en plus de Windows
Fonctionnement dans Edge et Safari en plus de Chrome et Firefox
Gestion des écrans multiples et des GPU côté hôte
* Sur Migration Hub comme sur Application Discovery Service et Mainframe Modernization Service, les projets en cours pourront être menés à leur terme.
** Cela comprend Porting Assistant for .NET, AWS App2Container, AWS Toolkit for .NET Refactoring et AWS Microservice Extractor for .NET.
Pour la gestion des API, la tendance est à l’approvisionnement auprès de plusieurs fournisseurs.
Gartner avait fait la remarque l’an dernier dans le Magic Quadrant consacré à ce marché. Il va plus loin cette année : le sourcing multiple est devenu standard… en contrepartie d’un risque de fragmentation que peuvent toutefois atténuer les architectures fédérées.
Un autre mouvement s’est confirmé : une part croissante des utilisateurs de solutions de gestion des API sont des développeurs. Les stratégies marketing ont évolué en conséquence. Mais des offreurs gardent un déficit de visibilité auprès de ce public. Y compris quelques-uns de ceux que Gartner classe comme « leaders ». En l’occurrence, Axway, Boomi et, dans une certaine mesure, IBM.
17 fournisseurs, 7 « leaders »
En 2024, Boomi faisait partie des « acteurs de niche ». En un an, il a nettement progressé, tant en « exécution » (capacité à répondre effectivement à la demande du marché) qu’en « vision » (stratégies : sectorielle, géographique, commerciale, marketing, produit…). Axway et IBM étaient quant à eux déjà « leaders ». Même chose pour Google Cloud, Gravitee, Kong et Salesforce. On ne peut pas en dire autant de SmartBear, qui a rétrogradé chez les « visionnaires ».
Sur l’axe « exécution », la situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
Google
=
2
IBM
=
3
Salesforce
+ 2
4
Kong
+ 5
5
Boomi
+ 8
6
Axway
– 3
7
Gravitee
+ 3
8
WSO2
+ 6
9
Microsoft
– 5
10
SAP
– 3
11
AWS
– 5
12
Sensedia
+ 5
13
SmartBear
– 2
14
Tyk
– 6
15
Workato
nouvel entrant
16
Postman
– 1
17
Solo.io
– 1
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Kong
=
2
Boomi
+ 12
3
Gravitee
+ 3
4
Salesforce
+ 3
5
IBM
– 1
6
Google
– 4
7
Tyk
+ 4
8
Postman
– 5
9
Axway
– 4
10
SmartBear
– 2
11
Microsoft
+ 1
12
Workato
nouvel entrant
13
SAP
=
14
WSO2
– 5
15
Sensedia
=
16
Solo.io
– 6
17
AWS
=
Axway : avec le chantier iPaaS, moins d’agilité sur l’IA
Comme l’an dernier, Axway se distingue sur la gestion fédérée des API. Gartner salue de plus le lancement récent d’une brique iPaaS. Il apprécie aussi la manière dont les partenariats (Stoplight, Ping, Graylog, Traceable…) viennent renforcer le modèle économique, au même titre que les acquisitions (en particulier celle de Sopra Banking Software, dont la fusion avec Axway a donné 74Software). Bon point également pour la capacité d’internationalisation, entre documentation multilingue et UI localisées.
Également comme l’an dernier, la notoriété auprès des développeurs reste limitée. Axway est par ailleurs plus lent que la concurrence pour livrer des fonctionnalités IA « avancées » (le focus sur l’iPaaS l’explique en partie, comme la restructuration de sa stack autour de la notion d’événements). Gartner relève, en parallèle, une croissance des ventes bien inférieure à la moyenne du marché.
Boomi manque d’accroche auprès des développeurs
L’année écoulée aura marqué un tournant dans la vision de la gestion des API chez Boomi, de sorte que ce dernier dépend désormais moins du seul iPaaS pour se différencier. L’acquisition d’APIIDA et de TIBCO Mashery a accompagné la refonte de l’offre, assortie d’une feuille de route que Gartner salue. Dans le même temps, la présence commerciale de Boomi s’est étendue, tant du point de vue géographique qu’au travers du renforcement de partenariats (ServiceNow et AWS en particulier).
Sur la gestion des API, Boomi reste, relativement aux autres « leaders », un petit acteur en termes de revenus et de part de marché. Il n’a pas non plus la même empreinte auprès des développeurs (son marketing reste perçu comme axé sur les métiers et les décideurs IT). Vigilance également quant à l’intégration avec les passerelles tierces : elle peut s’avérer complexe.
Apigee « généreusement » poussé comme complément à GCP
Google Cloud se distingue sur le volet innovation, entre autres parce qu’il a greffé à Apigee de quoi favoriser la conception d’API par des agents (avec prise en charge des protocoles A2A et MCP). Gartner apprécie aussi les possibilités offerts en matière de monétisation du trafic IA et de détection des usages abusifs. Il y ajoute la stabilité du produit et sa capacité à remplir les cas d’usage les plus complexes… sous réserve de disposer de l’expertise adéquate.
Google Cloud continue néanmoins à positionner ses produits comme des compléments à GCP plutôt que comme des solutions autonomes. Des clients signalent, de surcroît, qu’on les incite à migrer. Le produit en lui-même est relativement complexe à exploiter. Et malgré des changements positifs sur la tarification, des clients de longue date expriment leur inquiétude quant au rapport coût/bénéfices.
Gravitee n’a toujours pas sectorialisé son offre
Outre un déploiement flexible, Gravitee a pour lui l’indépendance vis-à-vis de tout cloud, progiciel ou iPaaS. Gartner souligne qu’il a su rapidement proposer une passerelle IA gérant le protocole MCP (et destinée à s’ouvrir aux maillages agentiques). Bon point également pour la performance commerciale (CA déclaré en croissance de 70 % sur un an), doublée d’une tarification simple.
Par rapport aux autres « leaders », Gravitee manque de notoriété. Il n’a toujours pas « verticalisé » son approche. Et sa clientèle reste largement concentrée en Europe (les acheteurs sur d’autres plaques géographiques se poseront la question du service et du support).
IBM, peu pris en considération hors de son écosystème
IBM est crédité d’un bon point pour la couverture fonctionnelle de son offre. Il l’est aussi pour la flexibilité de déploiement et la livraison de fonctionnalités axées IA (gestion des prompts, routage LLM). Gartner salue également la diversité de sa clientèle (tailles, régions, secteurs) ainsi que de son réseau commercial et de support.
L’acquisition de webMethods a produit un doublon au catalogue (voire plus si on considère que Red Hat a sa propre offre de gestion d’API), qui demeure en l’état même si IBM a promis une convergence. Big Blue a par ailleurs tendance à toucher essentiellement les organisations qui sont ses clients sur d’autres segments (il est peu évalué sinon). Et sur l’année écoulée, ses ventes ont connu une croissance sous la moyenne du marché.
Kong : une tarification qui peut prêter à confusion
Kong se distingue par les fonctionnalités AI-driven qu’il a livrées dernièrement (génération d’API, de spécifications et de serveurs MCP). Il parvient par ailleurs à conserver une forte visibilité, à renfort d’événements, de partenariats et de présence sur les principales marketplaces. Gartner salue aussi le lancement des Serverless Gateways (passerelles « légères » sans serveur) et de l’Event Gateway (qui permet de gérer des flux Kafka), intégrée avec son maillage de services.
Comme chez Gravitee, pas de solutions sectorielles au catalogue. Attention aussi à la courbe d’apprentissage que supposent les solutions Kong, en plus de la confusion que peuvent susciter la tarification basée sur les services et les frais supplémentaires pour des éléments comme les portails, les tests et l’analytics. Gartner y ajoute une présence limitée en Amérique du Sud, au Moyen-Orient et en Afrique comparé aux autres « leaders ».
Salesforce reste un des fournisseurs les plus chers
En complément à la présence commerciale et au réseau de partenaires, Gartner note que Salesforce a réussi à s’étendre sur le segment SMB (small and medium business, entreprises de moins de 1000 employés), qui représente 30 % du business de MuleSoft. L’intégration avec le reste de son offre a contribué à attirer une grosse base de clientèle. Salesforce jouit globalement d’une grande notoriété de marque, y compris auprès des développeurs.
En plus de rester l’un des fournisseurs les plus chers, MuleSoft présente une structure de prix complexe susceptible d’entraîner des coûts imprévus. Il est par ailleurs perçu comme plus réactif qu’innovant, en particulier pour ce qui touche à l’IA. Et les capacités restent limitées sur la monétisation comme le test d’API, ainsi que la fédération de passerelles.
OpenAI a officialisé un partenariat stratégique avec Broadcom pour concevoir et produire ses propres processeurs d’intelligence artificielle. L’information avait été révélé par la presse en septembre.
Selon le communiqué commun, OpenAI concevra ses propres accélérateurs IA, tandis que Broadcom assurera le développement, la production et l’intégration des systèmes matériels. Les deux entreprises co-développeront des « racks » complets combinant les puces OpenAI et les solutions réseau, optiques et PCIe de Broadcom.
Le déploiement commencera au second semestre 2026, pour une mise en service progressive jusqu’à fin 2029. L’objectif est d’atteindre une capacité totale de 10 gigawatts d’accélérateurs, soit une puissance comparable à la consommation électrique de plus de 8 millions de foyers américains.
La course aux infrastructures IA
OpenAI indique vouloir intégrer dans ces puces « les enseignements tirés du développement de ses modèles », afin d’optimiser les performances et l’efficacité énergétique de ses futurs systèmes. Cette approche illustre la volonté de l’entreprise de maîtriser l’ensemble de la chaîne technologique, du modèle logiciel jusqu’à l’infrastructure matérielle.
Avec Broadcom, OpenAI franchit une nouvelle étape en internalisant la conception de puces, rejoignant ainsi les géants du cloud tels que Google (Alphabet), Amazon ou Microsoft, qui ont développé leurs propres architectures (TPU, Graviton, Maia, etc.).
Cependant, cette stratégie reste incertaine. Plusieurs entreprises — dont Meta ou Microsoft — ont rencontré des difficultés techniques ou des retards dans la mise au point de leurs puces, sans parvenir à égaler les performances des GPU Nvidia. Les analystes estiment que la domination de Nvidia sur le marché de l’IA ne devrait pas être remise en cause à court terme.
Le communiqué précise que les systèmes développés pour OpenAI s’appuieront exclusivement sur les technologies réseau Ethernet de Broadcom, une alternative à la solution InfiniBand de Nvidia. En septembre, Broadcom avait déjà révélé une commande de 10 milliards de dollars pour des puces IA destinées à un client anonyme, que plusieurs analystes soupçonnaient être OpenAI.
Une opération sans détails financiers
Ni OpenAI ni Broadcom n’ont divulgué le montant de l’investissement ni les modalités de financement. Le projet représente toutefois une montée en échelle considérable, impliquant la construction ou la modernisation de vastes infrastructures de calcul et de stockage d’énergie.
L’alliance permet à l’inventeur de ChatGPT de sécuriser sa puissance de calcul face à la pénurie mondiale de GPU, tout en optimisant les coûts par requête grâce à une intégration directe entre matériel et logiciel.
Si le succès du projet dépendra de la capacité des deux partenaires à livrer à temps des systèmes compétitifs et fiables, il confirme la tendance de fond : l’intelligence artificielle de prochaine génération reposera autant sur les avancées logicielles que sur la maîtrise de la puissance matérielle.
Avant Broadcom, OpenAI a conclu une série d’accords majeurs ces derniers mois, incluant un deal avec AMD pour la fourniture de 6 GW de capacités IA accompagné d’une option d’investissement dans le capital du fabricant, ainsi qu’un engagement de Nvidia, annoncé début octobre, d’investir jusqu’à 100 milliards $ et de fournir des systèmes de centres de données d’une puissance équivalente à 10 GW.
Fivetran et dbt Labs annoncent leur fusion dans le cadre d’un échange d’actions, formant une entreprise générant près de 600 millions $ de chiffre d’affaires annuel.
L’opération, dont les modalités financières reposent sur un ratio convenu en fonction des revenus et des taux de croissance, aboutira à la création d’un groupe valorisé au-dessus des dernières estimations privées des deux sociétés américaines, a déclaré George Fraser, directeur général de Fivetran à Reuters. La valorisation finale sera déterminée par le marché.
Fivetran, basée à Oakland (Californie), avait été valorisée 5,6 milliards $ lors d’un tour de table en septembre 2021. Dbt Labs, implantée à Philadelphie (Pennsylvanie) , avait atteint une valorisation de 4,2 milliards $ lors de sa levée de fonds de série D en février 2022. Les deux entreprises comptent plusieurs investisseurs communs, dont le fonds Andreessen Horowitz.
George Fraser prendra la direction générale de l’entité fusionnée, tandis que Tristan Handy, directeur général de dbt Labs, deviendra président. Le conseil d’administration sera composé de représentants des deux entreprises.
Plus de 80 % de clients en commun
Fivetran fournit des solutions d’automatisation du transfert de données vers des entrepôts centralisés, tandis que dbt Labs est à l’origine de dbt, un outil open source permettant de transformer et de préparer les données pour l’analyse. Selon Fraser, environ 80 % à 90 % des clients de Fivetran utilisent déjà les outils de dbt.
Le logiciel open source dbt Core restera accessible sous sa licence actuelle. L’objectif du nouveau groupe est de proposer une plateforme plus complète couvrant l’ensemble des besoins de gestion et de transformation des données des entreprises.
La société combinée, proche de l’équilibre en flux de trésorerie, estime que sa taille accrue et la complémentarité de ses offres renforceront sa position en vue d’une éventuelle introduction en Bourse, bien qu’aucun projet immédiat ne soit prévu.
La finalisation de la fusion est attendue d’ici un an.
Le Centre régional d’alerte et de réaction aux attaques informatiques Bourgogne-Franche-Comté (CSIRT-BFC), opéré par l’ARNia (Agence Régionale du Numérique et de l’intelligence artificielle) a été retenu dans le cadre de l’Appel à Manifestation d’Intérêt RALEC (Renforcement de l’Accompagnement Local aux enjeux de Cybersécurité) lancé par l’ANSSI en août dernier.
Ce renouvellement s’accompagne d’un financement de 400 000 € accordé par l’État, destiné à renforcer les moyens humains et techniques du CSIRT-BFC, à développer la prévention et à consolider un service public régional de cybersécurité accessible à tous.
Un service public régional dédié à la cybersécurité
Créé en 2022, le CSIRT-BFC apporte une assistance gratuite aux structures publiques et privées de la région — collectivités, établissements publics, associations, PME, ETI et TPE.
Il intervient en complément des dispositifs nationaux comme CERT-FR ou Cybermalveillance.gouv.fr, en proposant un appui direct face aux incidents, une veille permanente et des services de remédiation.
Depuis son lancement, le CSIRT-BFC a accompagné plus de 4 600 entités en Bourgogne-Franche-Comté. En 2024, il a supervisé 2 200 structures en continu, avec près de 2 millions de scans réalisés. Parmi les incidents signalés, 11 % ont eu un impact direct sur l’activité des organisations.
Les bénéficiaires se répartissent principalement entre collectivités ( 47 %), établissements publics (18 %) et PME (13 %°
Les principales menaces identifiées concernent le phishing, les fraudes bancaires, les ransomwares et les faux sites marchands. En parallèle, 37 actions de sensibilisation ont été organisées en 2024.
Intégration au réseau national InterCERT France
Depuis 2024, le CSIRT-BFC est le premier CSIRT régional à rejoindre le réseau InterCERT France, qui fédère les CERT et CSIRT français. Cette intégration renforce la coopération nationale pour la détection et la réponse aux incidents de cybersécurité.
Le renouvellement du CSIRT-BFC s’appuie sur un partenariat étendu avec
la Région Bourgogne-Franche-Comté, l’ARNia, les pôles de compétitivité, la French Tech Bourgogne-Franche-Comté, l’Agence Économique Régionale, les syndicats patronaux (MEDEF BFC, CPME), les universités régionales, ainsi que Dijon Métropole et Besançon Métropole.
Pour les deux prochaines années, le CSIRT-BFC prévoit de renforcer l’accompagnement des petites structures du territoire, de structurer un Campus Cyber Territorial afin de fédérer l’écosystème et d’encourager l’innovation, de déployer de nouveaux services de détection et de supervision, et de multiplier les actions de sensibilisation auprès des acteurs publics et économiques.
Il va falloir s’y habituer : les « agents Joule » se multiplient au catalogue de SAP.
L’éditeur allemand vient d’en annoncer 14 supplémentaires. Ils seront intégrés d’ici à mi-2026 dans certains de ses logiciels.
Quatre de ces agents visent les métiers de la finance :
Accounting Accruals (tenue du journal comptable)
Cash Management (gestion de trésorerie)
International Trade Classification (conformité aux règles du commerce international)
Receipts Analysis (traitement des notes de frais)
Trois sont dans le domaine de la supply chain :
Change Record Management (gestion du changement)
Product Planning and Operations (planification de la production et gestion de l’exploitation)
Supplier Onboarding (embarquement des fournisseurs)
Trois également dans les RH :
Career and Talent Development (gestion de carrière)
HR Service (traitement des demandes des employés)
People Intelligence (rétention et gestion des compétences)
Un agent s’adresse aux achats (Bid Analysis ; analyse des offres). Deux touchent à la gestion des processus (Process Content Recommender et Workspace Administration). S’y ajoute un agent sectoriel (Utilities Customer Self-Service, ciblant les fournisseurs d’énergie).
Ces 14 agents en rejoignent 17 autres. Les voici, avec leur stade de développement, les produits concernés et – pour certains – quelques-unes des promesses chiffrées que leur associe SAP.
Finance
Accounts Receivable (gestion des créances)
En bêta, pour S/4HANA Cloud Private Edition.
Recommande des actions selon le profil et l’historique du paiement du client.
Promesses*, entre autres : 75 % de temps en moins pour l’analyse et la réconciliation (de 20 à 5 minutes par dossier) et réduction de 2 % du taux de passage en pertes et profits (de 1 à 0,98 %).
Booking (gestion des réservations)
En accès anticipé, pour Concur Travel.
Recommande vols et hébergement selon le voyageur, les politiques de l’entreprise et les contraintes budgétaires.
Dispute Resolution (résolution des litiges)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses, entre autres : réduction de 30 % du temps de gestion de litige (de 20 à 14 minutes) et de 5 % du taux de churn associé (de 0,25 à 0,238 %).
Expense Report Validation (validation des rapports de dépenses)
En accès anticipé, pour Concur Expense.
Promesses : réduction de 30 % du temps de préparation et de soumission (de 30 à 21 minutes par rapport) et de 25 % du taux de rejet (de 15 à 11,4 %).
Meeting Location Planner (organisation de réunions hors site)
En accès anticipé, pour Concur Travel.
Promesses : réduction de 10 % des dépenses annuelles par employé concerné (de 3975 à 3488 €) et de 15 % du temps de planification par réunion (de 5 heures à 4 heures 15 minutes).
Supply chain
Field Service Dispatcher (gestion des ressources)
En bêta, pour SAP Field Service Management.
Maintenance Planner (planification de la maintenance)
En bêta, pour S/4HANA Cloud Private Edition.
Promesses : réduction de 40 % du temps nécessaire à la création des backlogs (de 120 à 72 minutes par jour) et de 1 % du taux d’arrêts imprévus (de 92 à 92,1 % d’uptime).
Shop Floor Supervisor (supervision de la production en atelier)
En bêta, pour SAP Digital Manufacturing.
Promesses : réduction de 50 % du temps passé à gérer les perturbations (de 60 à 30 minutes par jour) et de 2 % du taux d’arrêts non planifiés (de 92 à 93,8 % d’uptime).
CX
Case Classification (tri de cas)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de SAP CX AI Toolkit.
Catalog Optimization (optimisation de catalogue)
En bêta, pour Commerce Cloud et dans le cadre de CX AI Toolkit.
Digital Service (réponse aux questions des équipes de vente et de service client)
En accès anticipé, dans le cadre de CX AI Toolkit.
Knowledge Creation (création de bases de connaissances à partir de tickets résolus)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.
Q&A (réponse aux questions des clients)
Disponible pour Sales Cloud Version 2, Service Cloud Version 2 et dans le cadre de CX AI Toolkit.
Quote Creation (création de devis)
Disponible pour Sales Cloud et dans le cadre de CX AI Toolkit.
Automatise la création de devis à partir d’une boîte mail Office 365 partagée.
Shopping (accompagnement du parcours client)
Disponible pour Commerce Cloud et CX AI Toolkit.
Promesses, entre autres : hausse de 10 % du taux de conversion (de 3 à 3,3 %) et du panier moyen (de 309 à 340 €).
Les agents CX actuellement commercialisés ne peuvent être achetés qu’à travers le package Joule Premium for Customer Experience. Lequel inclut, outre les agents, une vingtaine de fonctionnalités « étiquetées IA » (détection de comptes en double, création de descriptions de produits, aide à la génération de leads…).
Un agent est dédié aux RH (Performance and Goals, censé aider à préparer les entretiens d’évaluation). Un autre aux achats (Sourcing, illustré ci-dessous, qui automatise les RPF ; il est en bêta, pour Ariba Sourcing).
* SAP dit baser ses estimations sur « des cas clients, des benchmarks et d’autres recherches ».
Knative est désormais officiellement prêt pour un usage en production.
La CNCF (Cloud Native Computing Foundation) le considère en tout cas. Elle vient de promouvoir le projet au plus haut stade de maturité dans sa nomenclature (graduated).
À l’origine de ce framework serverless pour Kubernetes, il y a Google, qui avait ouvert le projet à la communauté à l’été 2018. L’entrée à la CNCF – au stade « incubation » – était intervenue en mars 2022, quelques mois après le passage en version 1.0. VMware, IBM et Red Hat en étaient alors les principaux contributeurs. Le premier était majoritaire au comité de supervision technique. Les deux autres y étaient également présents, en plus d’avoir chacun un siège dans l’instance supérieure : le comité de pilotage.
Red Hat et VMware en têtes de pont
En 2024, le comité de supervision technique a été fusionné dans le comité de pilotage. Deux employés de Red Hat y siègent, aux côtés de représentants CoreWeave et de Stacklok, ainsi que d’un ancien de Pivotal-VMware-Broadcom qui commercialisa Knative dans le cadre de la plate-forme Tanzu.
Le projet se divise actuellement en 7 groupes de travail :
Functions (géré par des employés de Red Hat et VMware)
Serving (géré par l’ancien de Pivotal-VMware-Broadcom)
Eventing (Red Hat)
UX (universités OCAD et de Toronto)
Exploitation (Bloomberg)
Productivité* (Cisco et Red Hat)
Sécurité (IBM et VMware)
Bloomberg est d’autant plus impliqué qu’il fait partie des organisations utilisatrices de Knative. Comme, entre autres, Alibaba Cloud, Blue Origin, Box, Gojek, ManoMano, Scaleway et Tata Communications.
Un positionnement sur l’IA, y compris agentique
Les intergiciels Serving, Eventing et Functions constituent le cœur fonctionnel du projet.
Serving fournit de quoi déployer et gérer des services HTTP stateless sans serveur.
Eventing apporte un ensemble d’API permettant la mise en œuvre d’une architecture orientée événements. Elle s’appuie sur les spécifications CloudEvents.
Functions utilise Serving et Eventing pour aider au déploiement de fonctions sous forme d’images OCI.
Serving et Eventing partagent des sous-projets Client et Operator. Le premier porte un outil en ligne de commande destiné à créer des ressources Knative sans avoir à modifier des fichiers YAML. Le second aide à installer les deux briques sur des clusters Kubernetes.
Ces derniers temps, la communication publique du projet s’est nettement orientée sur les LLM. Notamment autour de KServe, un serveur de modèles basé sur Knative Serving. Mais aussi à renfort de plusieurs cas d’usage. Poussés en particulier par Red Hat (inférence avec Llama Stack, IA agentique pour le traitement de conversations client…) et par IBM (pour l’entraînement de modèles dans le cadre du service watsonx Assistant).
* « Santé » du projet : tests, infrastructure, CI/CD, etc.
Pour 8×8, pas de 13e année consécutive parmi les « leaders » de l’UCaaS. En tout cas dans le cadre du Magic Quadrant.
On avait pu sentir le vent tourner l’an dernier. Gartner avait pointé l’incapacité croissante de l’entreprise américaine à différencier ses produits dans le paysage concurrentiel.
Il souligne cette fois-ci sa perte de visibilité, entre autres du fait que son offre est guidée par l’aspect téléphonie plutôt que collaboration.
Conséquence : voilà 8×8 rétrogradé chez les « visionnaires ».
Les quatre autres « leaders » de 2024 le restent (ils le sont d’ailleurs depuis 2020). Dans l’ordre alphabétique, Cisco, Microsoft, RingCentral et Zoom.
11 fournisseurs, 4 « leaders »
D’une année sur l’autre, le même périmètre a été pris en compte. En l’occurrence, la collaboration interne, le télétravail et les présentations externes. Les webinaires ainsi que le support et la formation à distance n’étaient pas obligatoires (Gartner les classe dans un autre segment : les « solutions de réunion »).
Les offreurs ont été jugés sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
Sur l’axe « exécution », la situation est la suivante :
Rang
Fournisseur
Évolution annuelle
1
Microsoft
=
2
Cisco
=
3
Zoom
+ 1
4
RingCentral
– 1
5
8×8
=
6
Google
=
7
GoTo
=
8
Vonage
=
9
Dialpad
=
10
Wildix
+ 1
11
Sangoma
– 1
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Microsoft
=
2
Cisco
=
3
Zoom
=
4
RingCentral
=
5
8×8
=
6
Dialpad
=
7
GoTo
+ 1
8
Vonage
– 1
9
Google
=
10
Wildix
=
11
Sangoma
=
Sur ce marché de commodités, la tendance est au développement de la brique centre de contact, en particulier pour les besoins internes.
Un autre levier de différenciation est l’IA. Y compris agentique, en premier lieu pour l’administration et la maintenance. L’offre apparaît toutefois en avance sur la demande : le critère IA n’est pas encore fondamental dans les décisions d’achat, sauf pour des scénarios spécifiques impliquant des métiers en contact avec la clientèle.
De la mise en place à l’exploitation, Cisco Webex demande des efforts
L’an dernier, Cisco avait eu droit à un bon point pour ses investissements transversaux en IA. Gartner avait aussi souligné la profondeur de son catalogue (incluant réseau, sécurité et terminaux). Ainsi que la dernière génération de ses appareils.
Cette année encore, les investissements dans l’IA sont salués. Il en va de même pour le catalogue, au sens où Cisco est un des rares fournisseurs classés au Magic Quadrant à associer UCaaS, CCaaS (centre de contact) et CPaaS (intégration des communications dans les applications métier), en plus du matériel. Gartner apprécie aussi sa stratégie sectorielle, mise en œuvre à l’appui de certifications et de standards spécifiques.
En 2024, Gartner avait noté l’inconsistance du support, largement indirect. Il avait aussi signalé la complexité de Webex aux yeux du mid-market (organisations de 100 à 999 employés) et la tendance de beaucoup d’acheteurs à ne sourcer que la partie téléphonie chez Cisco.
Cette dernière remarque vaut toujours. Idem pour la complexité de Webex : le paramétrage initial et la gestion ultérieure exigent davantage de temps et d’efforts que chez les concurrents. Quant à la tarification, elle peut s’avérer plus compliquée à comprendre et à négocier pour le mid-market.
Microsoft peut s’améliorer sur l’administration graphique
L’an dernier, Microsoft avait eu des bons points pour ses SLA, la flexibilité des options PSTN et les innovations en matière d’IA sous la bannière Copilot in Teams.
Cette année encore, Gartner salue un socle IA robuste quoique actuellement focalisé sur la partie réunions. Microsoft se différencie aussi par sa capacité de couverture géographique des besoins téléphonique, grâce à l’étendue de ses ressources de support et de ses partenariats telcos. Il a également l’avantage d’un TCO « relativement faible », d’une facilité d’usage et d’une intégration étroite avec les principales solutions UCaaS.
En 2024, Gartner avait pointé l’accumulation d’options de connectivité RTC, rendant le choix difficile. Il avait aussi relevé des manques en matière de téléphonie avancée (SMS, intégration CRM, enregistrement avancé d’appels) et une incapacité à couvrir complètement la plupart des besoins sur la partie call center.
Cette fois, le cabinet américain insiste sur la nécessité d’améliorer les capacités d’administration et de gestion des terminaux via le GUI. Il regrette aussi que la brique Dynamics 365 Contact Center, lancée l’an dernier, ne soit pas fournie en natif avec Teams. Et fait remarquer que les fonctionnalités de collaboration ont tendance à concurrencer la téléphonie.
Chez RingCentral, des hausses de prix au renouvellement
L’an dernier, RingCentral avait été salué pour son centre de contact natif RingCX, complété de surcroît pas l’offre NiCE pour les besoins plus avancés. Autre bon point : le niveau d’intégration de l’IA (traduction, suggestion d’actions post-réunion, détection de contenu sensible, création de clips vidéo thématiques…) et des applications tierces.
L’IA fait encore mouche auprès de Gartner cette année, notamment avec la fonction de « réceptionniste virtuel ». Même remarque pour le niveau d’intégration des applications tierces. S’y ajoute la richesse et l’intuitivité de la fonction téléphonie (transfert d’appels sur mobile, notamment).
La téléphonie reste le point d’entrée sur la plupart des contrats, alors que cette brique guide de moins en moins de décisions d’achat, avait averti Gartner l’an dernier. Il avait aussi évoqué l’expérience mitigée sur la vente et le support. Tout en notant que les partenariats avec des fournisseurs « legacy » n’avaient pas produit les résultats attendus.
Cette fois encore, vigilance sur le support, tant pour les délais de réponse que de résolution. Attention également à la hausse des prix lors des renouvellements. RingEX reste par ailleurs voice-centric et les capacités natives d’analytics de RingCX doivent encore progresser pour fonctionner à l’échelle.
Tendance au bundling chez Zoom
L’an dernier, Zoom s’était distingué sur son historique de service et de support, l’adéquation de son offre centre de contact pour les PME et ses capacités en matière de réunions (intuitivité de l’UI, notamment).
Cette année, l’un des bons points va à la simplicité de mise en œuvre et de maintenance de la brique centre de contact embarquée. Gartner apprévie également la qualité des services et du support. Et l’exhaustivité du Trust Center, assorti d’investissements notables sur la sécurité, la privacy et la conformité.
En 2024, Gartner avait noté un ralentissement de la croissance de la base client. Et la tendance des acheteurs à sélectionner des concurrents pour la partie collaboration ou centre de contact. En parallèle, il avait regretté l’octroi de moins de remises et autres incitations que par le passé.
Ces dernières années, le licensing de Zoom a changé plus vite que la moyenne du marché, constate cette fois-ci Gartner. Au final, on peut se voir présenter, au renouvellement, des bundles susceptibles d’inclure des fonctionnalités non nécessaires. On restera également vigilant quant à l’éventuel manque de compétitivité des briques calendrier, mail et traitement de texte récemment ajoutées. Attention également à l’UX, qui peut se révéler complexe à prendre en main à mesure qu’on dépasse l’usage de Zoom pour les réunions.