Vue normale

Reçu hier — 21 octobre 2025

Veeam rachète Securiti AI pour 1,73 milliard $

21 octobre 2025 à 14:36

Le groupe américain Veeam Software, détenu par le fonds d’investissement Insight Partners va racheter Securiti AI pour environ 1,73 milliard $ en numéraire et en actions.

L’opération, qui doit être finalisée d’ici la fin de l’année, marque une étape clé dans l’évolution de Veeam, traditionnellement centrée sur la sauvegarde et la restauration des données, vers un rôle plus large de gardien de la confiance numérique.

« Cette acquisition nous permet d’unifier la résilience, la sécurité et la gouvernance des données au sein d’une même plateforme », a déclaré le directeur général de Veeam, Anand Eswaran, précisant que l’opération devrait commencer à contribuer aux bénéfices dès le second semestre 2026.

Résilience et gouvernance des données

Historiquement, Veeam a bâti sa réputation sur la protection contre les ransomwares et les pannes informatiques. Avec Securiti AI, l’entreprise s’attaque à un nouveau champ : celui de la protection des données exploitées par les modèles d’intelligence artificielle.

L’enjeu est crucial : dans un environnement où les IA génératives manipulent d’immenses volumes d’informations, les risques de fuites, de biais ou de violations de la confidentialité explosent.

« L’intelligence artificielle d’entreprise n’est pas possible sans sécurité des données », résume Rehan Jalil, fondateur et PDG de Securiti AI, qui rejoindra Veeam en tant que président en charge de la sécurité et de l’IA.

Le communiqué officiel de Veeam détaille l’ambition technique du rapprochement : offrir un “single control plane”, c’est-à-dire un plan de contrôle unique couvrant les données de production et les données secondaires (sauvegardes, archives, environnements cloud ou SaaS).

Cette intégration permettra aux directions informatiques de cartographier l’ensemble de leur patrimoine de données, d’en contrôler les accès et d’en assurer la conformité avec les réglementations internationales.

Securiti AI apporte sa plateforme Data Command Center, fondée sur un  (graphe de connaissances qui relie les informations de sécurité, de confidentialité et de gouvernance. La solution est complétée par un moteur d’automatisation “agentic AI”, un module de recherche d’entreprise sécurisé “Gencore AI”, et des fonctions avancées de Data Security Posture Management (DSPM) et de gouvernance de la donnée.

« Notre objectif est de permettre aux clients d’avoir une visibilité complète sur leurs données, qu’elles soient en production, en sauvegarde ou en transit », explique Anand Eswaran.

Répondre à la complexité des environnements IA

Selon Veeam, 70 à 90 % des données d’entreprise sont non structurées — e-mails, documents, messages clients — et 80 à 90 % des projets d’IA échouent en raison de problèmes liés à la qualité, à la confidentialité ou à la gestion des accès. En combinant ses solutions de résilience avec l’expertise de Securiti AI en sécurité des données, Veeam veut proposer une réponse complète à cette complexité croissante.

Le rachat, valorisé 1,725 milliard $, a été financé par JPMorgan Chase & Co. et conseillé par Morgan Stanley du côté de Securiti AI.Basée à San Jose (Californie), Securiti AI emploie environ 600 personnes et avait été valorisée 575 millions $ en 2023, après une levée de fonds de 75 millions $ menée par Capital One Ventures et Citi Ventures. Parmi ses investisseurs figurent General Catalyst et Mayfield.

De son côté, Veeam, rachetée en 2020 par Insight Partners pour 5 milliards $, revendique 6 000 employés et plus de 550 000 clients dans le monde, dont 67 % des entreprises du Global 2000. En décembre 2024, elle avait été valorisée 15 milliards $ lors d’une opération secondaire menée par TPG, avec la participation de Temasek et Neuberger Berman.

Vers une “data confidence platform” pour l’ère de l’IA

En combinant les savoir-faire des deux entreprises, Veeam entend créer une plateforme de confiance pour les données (“data confidence platform”), unifiant la sauvegarde, la gouvernance et la sécurité des informations dans un contexte multi-cloud.

Les premières solutions communes devraient être présentées dans les mois suivant la clôture du rachat. L’ambition est claire : faire de Veeam un pilier de la sécurité des données à l’ère de l’intelligence artificielle, où la fiabilité des modèles dépendra autant de la puissance des algorithmes que de la qualité — et de la protection — des données sous-jacentes.


Eclairage 

Le “control plane” :  outil central du pilotage des données


Appliqué à la donnée, le “control plane” vise à offrir une vue consolidée sur l’ensemble des informations détenues par une organisation, qu’elles soient stockées dans le cloud, sur site, en sauvegarde ou utilisées par des modèles d’IA.

Concrètement, un “control plane” unifié comme celui que veut bâtir Veeam doit permettre de :

  • recenser toutes les données d’entreprise, quelle que soit leur source ;

  • contrôler les droits d’accès et les permissions ;

  • surveiller les usages et détecter les comportements à risque ;

  • automatiser la conformité avec des réglementations comme le RGPD ou le CCPA ;

  • et orchestrer la sécurité de bout en bout, y compris pour les systèmes d’IA générative.

Ce concept, emprunté au monde du réseau et du cloud, devient aujourd’hui le socle d’une gouvernance de la donnée à l’ère de l’intelligence artificielle, où la frontière entre sauvegarde, sécurité et conformité tend à disparaître.


Photo : © Veeam

The post Veeam rachète Securiti AI pour 1,73 milliard $ appeared first on Silicon.fr.

Project Mercury : comment OpenAI veut disrupter les banques d’affaires

21 octobre 2025 à 13:56

OpenAI a discrètement lancé un projet visant à . Baptisé Project Mercury, ce programme mobilise plus de 100 anciens employés de grandes banques d’investissement, dont JPMorgan Chase, Morgan Stanley et Goldman Sachs, pour former son IA à la construction de modèles financiers complexes.

Un projet pour révolutionner la finance

Selon des documents obtenus par Bloomberg, les participants au Project Mercury sont rémunérés pour rédiger des instructions (prompts) et concevoir des modèles financiers couvrant divers types de transactions, comme les restructurations ou les introductions en Bourse (IPO). En échange, ces experts bénéficient d’un , conçue pour remplacer les tâches de base des analystes financiers.

Les analystes en banque d’investissement consacrent souvent à des tâches répétitives : construction de modèles Excel pour des fusions ou des rachats par effet de levier (LBO), ou ajustements interminables de présentations PowerPoint. Une culture du « pls fix » (« merci de corriger »), devenue virale sur les réseaux sociaux, symbolise cette réalité.

Le Project Mercury s’inscrit dans une dynamique plus large où des startups cherchent à automatiser ces processus. Si les jeunes banquiers se plaignent depuis longtemps de la monotonie de ces tâches, l’émergence de l’IA soulève désormais des questions sur la pérennité de leur emploi.

Un

L’accès au projet ne nécessite presque aucune interaction humaine. Les candidats passent d’abord un entretien de 20 minutes avec un chatbot, suivi d’un test sur les états financiers et d’une épreuve de modélisation. Une fois sélectionnés, ils doivent produire , en respectant des (marges, mise en italique des pourcentages, etc.). Leurs travaux sont ensuite évalués et intégrés aux systèmes d’OpenAI.

Parmi les participants figurent d’anciens employés de Brookfield, Mubadala, Evercore ou KKR, ainsi que des étudiants en MBA de Harvard et du MIT.

Interrogé par Bloomberg, un porte-parole d’OpenAI a déclaré que l’entreprise collabore avec des experts de différents domaines, recrutés et gérés par des prestataires tiers, pour « améliorer et évaluer les capacités de ses modèles ».

Si le Project Mercury reste confidentiel, son impact potentiel est immense. En automatisant les tâches de base, OpenAI pourrait redéfinir le rôle des analystes financiers, tout en accélérant la .

The post Project Mercury : comment OpenAI veut disrupter les banques d’affaires appeared first on Silicon.fr.

OVHcloud : Octave Klaba reprend le poste de P-DG

21 octobre 2025 à 10:13

Back to 2018 dans la gouvernance de OVHcloud…Octave Klaba, le fondateur du groupe reprend le poste de P-DG. Il occupait depuis 2018 le poste de Président du conseil d’administration et la présidence du comité stratégique et de la RSE du groupe.

C’est à cette date qu’il avait recruté Michel Paulin, dirigeant expérimenté du secteur Télécom en provenance de SFR, au poste de directeur général, pour développer le groupe sur le créneau du “cloud souverain et durable” face aux hyperscalers américains, avec notamment l’adoption du nouveau nom OVHcloud et l’introduction en Bourse en 2021.

Un an après le départ de Michel Paulin, Octave Klaba reprend donc la totalité de l’exécution des opérations. « L’idée est de réunir la vision, la stratégie et l’exécution afin de faire profiter plus rapidement à nos clients, les 10 ans d’investissement lourd dans les Datacenters (250MW) et dans le Software (40 produits Public Cloud).» explique-t-il dans un post LinkedIn.

La barre du milliard de chiffre d’affaires franchi en 2025

Un plan stratégique baptisé « Step Ahead » pour la période 2026-2030 va être présenté dans les prochains mois.

« En plus de continuer à accompagner les clients Corporate et Digital Scalers, je reviens pour nos clients historiques Digital Starters, les « petits clients » comme ils disent, afin de leurs proposer de l’innovation, de l’AI, le prix/performance, un meilleur support, la facturation plus simple .. ces prochains mois vont être riches en annonce ..» poursuit Octave Klaba.

En 2025, OVHcloud vient de franchir pour la première fois la barre du milliard d’euros de chiffre d’affaires (1 084,6 M €) et dégagé un résultat net positif ( 400 millions) avec un Ebitda de 40,4 %.

The post OVHcloud : Octave Klaba reprend le poste de P-DG appeared first on Silicon.fr.

Reçu avant avant-hier

Valorisation des startups IA : bulle or not bulle ?

16 octobre 2025 à 14:57

Selon les relevés du Financial Times, dix jeunes entreprises d’intelligence artificielle non rentables ont vu leur valorisation combinée augmenter de près de 1 000 milliards $ au cours des douze derniers mois, un bond inédit qui ravive les inquiétudes d’une bulle spéculative sur les marchés privés du capital-risque.

Les jeunes entreprise les plus en vue, tels qu’OpenAI, Anthropic et xAI ont bénéficié de multiples revalorisations en 2024, portées par l’enthousiasme des investisseurs pour l’IA générative. D’autres acteurs, dont Databricks, Perplexity ou Figure AI, ont également profité de la vague d’investissements.

Une ruée sans précédent du capital-risque

Les fonds américains de capital-risque ont consacré environ 161 milliards $ à l’IA depuis le début de l’année, soit près des deux tiers de leurs investissements totaux, d’après les données de PitchBook citées par le FT. À ce rythme, les dépenses annuelles des investisseurs dans l’intelligence artificielle devraient dépasser 200 milliards $ en 2025, contre 135 milliards investis dans les start-up logicielles en 2021.

Cette concentration inédite des capitaux sur un nombre restreint d’acteurs fait craindre une surchauffe du marché. « Bien sûr qu’il y a une bulle », admet Hemant Taneja, directeur général du fonds General Catalyst. « Les bulles alignent le capital et le talent autour de nouvelles tendances. Elles provoquent des dégâts, mais elles font aussi émerger des entreprises durables qui changent le monde. »

Certains investisseurs estiment que les niveaux de valorisation actuels sont devenus difficilement justifiables. Le FT rapporte que des startup générant à peine 5 millions $ de revenus récurrents annuels (ARR) tutoient désormais des valorisations dépassant 500 millions $, soit des multiples de plus de 100 fois leurs revenus — bien au-delà des excès observés lors de la période de taux zéro.

Un capital-risqueur de la Silicon Valley cité par le quotidien finanacier souligne que le marché semble considérer « comme exceptionnelles des entreprises qui ne le sont pas ».

Des paris massifs, mais risqués

Malgré ces signaux d’exubérance, de nombreux acteurs du secteur continuent de parier sur le potentiel transformateur de l’IA. Marc Benioff, fondateur et directeur général de Salesforce, estime qu’un trillion de dollars d’investissements pourrait être perdu, mais que la valeur créée à long terme sera « dix fois supérieure ».

Cette effervescence dans le non coté a des effets directs sur les marchés publics. Le FT note que les actions de Nvidia, AMD, Broadcom ou Oracle ont gagné des centaines de milliards de dollars de capitalisation boursière à la suite d’accords conclus avec OpenAI. Toutefois, une remise en cause de la solvabilité de cette dernière pourrait inverser brutalement cette dynamique.

Trois ans après le lancement de ChatGPT, OpenAI génère environ 13 milliards $ de revenus annualisés, une croissance fulgurante pour une start-up. Mais la course à l’intelligence artificielle générale (AGI), qui oppose notamment OpenAI, Google et Meta, demeure extrêmement coûteuse et incertaine.

Pour l’auteur et spécialiste du capital-risque Sebastian Mallaby, cité par le FT , la logique des investisseurs se résume ainsi : « Si nous atteignons l’AGI, tout cela aura valu la peine ; sinon, non. »

The post Valorisation des startups IA : bulle or not bulle ? appeared first on Silicon.fr.

Guillaume Rincé, CTO du Groupe MAIF : « Nous fonctionnons comme un éditeur de logiciels »

16 octobre 2025 à 14:09

À la tête de la stratégie technologique de la MAIF, Guillaume Rincé conduit une transformation en profondeur du système d’information du groupe mutualiste. Entre développement interne des logiciels, engagement fort en faveur de l’open source et réflexion sur la souveraineté numérique, il défend une vision responsable et maîtrisée du numérique.

Dans cet entretien, il revient sur la manière dont la MAIF conjugue innovation, indépendance technologique et valeurs mutualistes, de la gestion du cloud à l’usage raisonné de l’intelligence artificielle générative.

Silicon – Quel est votre périmètre d’activité en tant que CTO de la MAIF ?
Guillaume Rincé – J’ai deux activités principales. D’abord, je définis la stratégie en matière de système d’information pour l’ensemble du groupe et de ses filiales. Ensuite, j’ai la responsabilité des activités technologiques du groupe. Nous fonctionnons de manière matricielle avec des équipages qui regroupent les grands métiers développeurs, ingénieurs, business analystes, designers, architectes, etc. Et puis nous avons des activités de « delivery » organisées en tribus, selon notre vocabulaire, qui correspondent aux différents domaines métiers de la MAIF :  par exemple la tribu « Canaux et flux » ou la tribu « IARD Sinistres ».

J’anime les domaines technologiques et mon collègue Sébastien Agard s’occupe de toute la partie des livrables fonctionnels. Ensuite nous mélangeons nos équipes dans ces tribus qui sont constitués d’équipiers qui viennent des différents métiers du groupe pour réaliser les applications que nous mettons à disposition.

La MAIF est éditeur de ses propres logiciels ?
Oui, nous développons la majorité de nos applications en interne. Nous avons recruté plusieurs centaines de collaborateurs, dont beaucoup de développeurs, pour cela ces dernières années. Nous fonctionnons comme un éditeur de logiciels organisé pour produire nos propres solutions et les mettre en œuvre. Cela nous donne une maîtrise complète de la chaîne, que ce soit en termes de compétences, de ressources ou de processus, y compris le design, qui est clé pour améliorer l’expérience utilisateur.

Dans cette activité d’éditeur, vous vous appuyez beaucoup sur l’open source ?
L’Open Source est une démarche naturelle pour la MAIF, en accord avec notre raison d’être qui est d’œuvrer pour le bien commun. Fabriquer des communs et les partager, c’est complètement en phase avec les valeurs du groupe. Quand je dis “open source”, je ne parle pas d’une techno de container habillée, fournie par un éditeur avec une politique de souscription fermée. Je parle de vraies distributions open source, véritablement libres.
Nous utilisons beaucoup de technologies à travers des Framework comme React ou des bases de données PostgreSQL.

Nous avons une dizaine de produits disponibles sur notre plateforme GitHub (http://maif.github.io), que d’autres peuvent intégrer dans leurs systèmes d’information. Par exemple, nous partageons un API management à l’état de l’art, que nous utilisons nous-mêmes à l’échelle du groupe. Nous le maintenons activement. Nous avons des utilisateurs dans la presse, dans la vente, et dans d’autres domaines, pas seulement en France, mais aux quatre coins du monde.

Nous partageons aussi des technologies de « Feature Flipping » pour activer du code à chaud,ou encore d’explicabilité des algorithmes d’IA et nous contribuons activement à des projets open source, notamment pour maintenir certains composants critiques. Nous avons des personnes qui s’investissent dans différentes technologies. Ce sont souvent des contributions aux « quick fixes ». Nous aimons soutenir des projets que nous utilisons, surtout ceux qui sont importants pour nos systèmes d’information mais qui sont portés par peu de personnes.

Chaque année, nous essayons de soutenir 2 à 3 projets par des dons en euros ou en aidant à financer une librairie. L’idée est de soutenir ceux qui créent ces composants utiles et dont nous bénéficions, en reversant une partie des économies que nous réalisons grâce à l’Open Source.

Comment se déroule l’identification des besoins, le développement et la production des applications ?
L’objectif est que ce soit un sujet de toute l’entreprise, et non pas uniquement de la DSI.
Il faut pouvoir intégrer cette transformation au niveau des métiers qui interagissent avec nous. Dans notre organisation, plusieurs éléments structurent ce processus. Le premier, c’est ce que nous appelons le portefeuille stratégique d’initiatives. L’idée est simple : nous avons un certain nombre d’orientations stratégiques.  Très souvent, derrière ces orientations, se cachent des sujets liés au système d’information, mais pas uniquement. Chaque orientation est portée par ce que nous appelons des leaders d’initiative qui travaillent avec les « business owners » des tribus pour construire le carnet de produits et les évolutions nécessaires à la réalisation de la stratégie.

Des arbitrages se font chaque année entre les différents portefeuilles stratégiques. Ensuite, les tribus organisent la réalisation et coordonnent les actions. Nous avons trois ou quatre « synchros à l’échelle » par an, où l’ensemble des collectifs se réajustent. Nous nous basons sur des principes forts d’agilité et de management par la confiance afin de responsabiliser l’ensemble des équipiers, quel que soit leur rôle, pour que chacun amène sa pierre à l’édifice. Les leaders de chaque feuille de route sont responsables de mener à bien les investissements, les « business owners » des tribus sont responsables de l’agencement dans leurs collectifs et les responsables de tribus s’assurent des livraisons et de la bonne coordination entre les squads produits.

Comment maintenez-vous votre patrimoine applicatif ?

Le maintien technologique à l’état de l’art, c’est quelque chose que nous avons introduit il y a maintenant cinq ans. Nous ne voulons plus de patrimoine qui traîne sans être maintenu, de versions qui ne sont pas à jour, de librairies ou de composants obsolètes sur nos plateformes.
Chaque année, notre patrimoine doit bénéficier d’un bon niveau de maintenance : mises à niveau, sécurité, correctifs…

“Aujourd’hui, il est vivant et a probablement 10 à 15 ans de cycle de vie devant lui. Je ne veux plus lancer des programmes ou projets, livrer un super produit, puis le laisser péricliter doucement pendant dix ans, alors qu’on a investi beaucoup au départ. Nous améliorons en continue les produits, tant sur le plan technique que fonctionnel, en tenant compte des feedbacks des utilisateurs. Pas des révolutions, mais des évolutions qui améliorent l’expérience. Cependant, il faut faire des choix, car nous ne pouvons pas tout faire et ça demande beaucoup de travail dans les collectifs. C’est une grosse partie de notre activité de run.

Quelle est votre politique sur le cloud ?
MAIF a une Charte Numérique publique depuis 2016, dans laquelle nous nous engageons explicitement à garantir la protection des données de nos clients. Tous nos choix découlent de cet engagement.

Nous avons construit deux datacenters où nous hébergeons tout le « cœur de réacteur » et nos bases de données clients pour garder la maîtrise de nos données.  C’est un investissement fort, un socle que nous voulons garder dans nos murs.

Quand nous utilisons le cloud, c’est plutôt pour des flux d’interaction, pour créer des parcours digitaux performants, des parcours mobiles, ou pour interagir avec des partenaires. Nous construisons des applications « stateless », ce qui signifie que les données ne sont pas stockées dans le cloud, en particulier s’il n’est pas souverain. Elles ne font qu’y transiter.
Par exemple, lorsque vous utilisez notre application mobile, vous pouvez transiter par le cloud ;
mais uniquement le temps de votre interaction.

Quelle est votre approche de la souveraineté technologique pour le cloud ?
Il y a 5 ans, nous avons choisi de travailler avec Microsoft Azure, dans un contexte où l’offre de Cloud, au sens des hyperscalers, était essentiellement américaine. Mais aujourd’hui, ce n’est plus suffisant. Nous sommes en train de réfléchir, comme d’autres grandes entreprises européennes, à nous tourner vers d’autres acteurs européens. Nous sommes en phase d’évaluation et je ne peux pas encore dire avec qui nous allons travailler.

Il y a deux ans encore, il n’y avait pas d’offre crédible à grande échelle, pas en matière d’hébergement, mais en termes de stack logiciel pour combiner les services entre eux. Nous avons désormais des véritables acteurs de cloud souverain européen en face des hyperscalers américains.

Ce que nous voulons, c’est pouvoir faire du cloud programmable dans toute sa complexité pour bénéficier d’une vraie richesse de services. Ce n’est pas juste une VM ou un « grand disque ». Ça, nous savons le faire nous-mêmes. Le vrai sujet, c’est d’avoir des fonctionnalités avancées pour développer, orchestrer, et faire tourner nos systèmes de manière fine.

Il y a aujourd’hui des acteurs qui font des technologies construites par de vrais ingénieurs européens, notamment en France. Ça change la donne. Nous espèrons intégrer cette capacité d’ici la fin de l’année, et ainsi disposer de fonctionnalités souveraines, en complément de ce que nous faisons déjà. C’est d’autant plus important avec la question de l’IA générative qui implique des traitements avec des capacités que nous ne pouvons pas forcément intégrer dans nos datacenters, à cause du coût et de la rapidité d’évolution.

Pour faire du génératif, nous aurons besoin d’infrastructures cloud, mais toujours dans des environnements dont nous pouvons garantir la souveraineté, avec un niveau de sécurité équivalent à celui de nos datacenters. Doter notre infrastructure de cette capacité nous permettra de mettre en œuvre du génératif beaucoup plus confortablement, tout en respectant pleinement nos engagements. Et ça, c’est essentiel.

Le Cigref dénonce régulièrement l’inflation des coûts services de cloud et des logiciels. Quel est votre avis sur le sujet ?
En ce qui concerne les coûts du cloud, je suis assez serein. Les acteurs américains sont en forte compétition en dehors des États-Unis, notamment en Europe, ce qui garantit des tarifs relativement stables. Pour moi, il n’y a pas de différence majeure de coût entre le cloud et un datacenter interne bien géré. C’est le seul marché, avec l’IA générative, où il y a une vraie compétition.

En revanche, là où nous sommes très concernés, c’est par les politiques commerciales des éditeurs de logiciels américains. La liste est longue…Nous faisons face à des politiques commerciales qui n’ont aucun sens, avec des augmentations tarifaires justifiées par des discours marketing, mais qui ne reflètent en réalité qu’une stratégie financière pure.
Le but ? Créer un effet de levier pour pousser les clients à migrer vers le cloud, avec de nouvelles souscriptions sur des différents périmètres. Derrière, le calcul est simple : je double, voire triple mes tarifs.  Les clients qui n’ont pas encore beaucoup investi peuvent partir facilement. Mais 70 % sont verrouillés, car il leur faudrait cinq ans pour sortir. Or, ils ont d’autres priorités et sont pris par leurs projets, alors ils restent.

Cela nous choque profondément dans le groupe MAIF : nous sommes une mutuelle, ce que nous payons est directement issu de l’argent de nos sociétaires.
Pour moi, la vraie menace aujourd’hui pour les entreprises européennes, ce n’est pas tant la souveraineté technologique au sens des infrastructure, c’est plutôt cette dépendance aux éditeurs. Nous nous faisons clairement matraquer. Parfois, c’est presque du racket, il faut le dire.

De plus, en tant qu’entreprise mutualiste, nous avons une volonté de soutenir l’économie européenne. Nos achats européens permettent de faire circuler l’argent au sein de l’écosystème européen. Nous cherchons à faire des choix responsables qui développent l’économie de notre écosystème et créent de la richesse en Europe, qui in fine bénéficie à nos clients et concitoyens. Au-delà des craintes géopolitiques, les entreprises doivent aussi faire des choix responsables pour soutenir l’économie.

Vous allez donc pousser plus loin votre stratégie d’éditeur interne ?
Oui. C’est un choix stratégique d’investir dans des hommes et des femmes qui ont les compétences ou qui peuvent les acquérir. Je préfère payer des salaires, renforcer mes équipes,
plutôt que de payer des licences tous les mois, avec la promesse floue que “ça marche tout seul”. Nous, nous ne sommes pas du tout dans cette logique de “cloud as a service magique”.

Le cloud, c’est de la technologie. Et la technologie, ça tombe en panne. Nous faisons le même métier, avec les mêmes outils. Ils ne sont ni meilleurs, ni moins bons que nous. Je pense qu’il faut vraiment démystifier ça.

Ce que nous essayons de faire, c’est de fonctionner de la même manière, parce qu’il y a beaucoup à apprendre de leurs modèles opérationnels. Une des questions que nous nous posons, c’est : « Est-ce que nous professionnalisons encore plus notre logique d’éditeur en interne ? Avec une équipe qui fabrique les logiciels, une qui les met en production et une qui les opère » On pourrait imaginer aller jusque-là.

Comment abordez-vous le sujet de l’IA générative ? Quels sont les cas d’usage que vous avez identifiés ?
Nous essayons de ne pas nous laisser emporter par la hype même si la médiatisation est très forte, dans un sens comme dans l’autre. Nous avons voulu prendre le sujet à bras-le-corps, comprendre ce que c’était, et surtout voir ce que ça pourrait changer dans nos métiers. Nous avons commencé à travailler il y a plus d’un an. À ce stade, nous avons identifié deux priorités. Notre objectif a été de les expérimenter, puis de commencer à les mettre en production.

Le premier sujet, pas très original, c’est la question du soutien à l’activité, notamment l’accès à la connaissance en langage naturel. Ces cas fonctionnent assez bien, mais ils ne sont pas simples à mettre en œuvre si on veut de la pertinence. Parce que dans toutes les entreprises, nous avons des bases de connaissances de qualité variable, souvent avec beaucoup d’historique qu’on ne nettoie quasiment jamais. Si on embarque tout ça sans tri, l’IA mélange tout et produit des résultats peu fiables.

Donc le gros enjeu de ces premiers cas d’usage, c’est l’investissement dans le toilettage des données. Et quand la donnée est propre, on a de très bons résultats. Aujourd’hui, nous avons déployé ça sur plusieurs métiers via un assistant en langage naturel mis à disposition des utilisateurs. Nous avons deux cas d’usage majeurs en production : l’assistance aux méters de la gestion de sinistres et l’assistance aux utilisateurs de la digital workplace, incluant les informations autour de la migration vers Windows 11.

Par ailleurs, nous fournissons à tous les développeurs qui le souhaitent des licences Copilot pour qu’ils puissent coder avec l’IA et voir ce que ça change au quotidien.
Ce qui est essentiel, c’est de maintenir un dialogue fort entre ce que propose l’IA et les pratiques attendues dans l’entreprise.

Aujourd’hui, les usages sont majoritairement liés au soutien à certains métiers, comme prochainement les équipes juridiques, où l’enjeu est fort, avec beaucoup de documentation et de jurisprudence, donc une forte valeur ajoutée. Au fond, notre objectif est de redonner du temps aux métiers pour qu’ils se recentrent sur leur vraie valeur ajoutée.

Quels sont vos points d’attention ?
Il y a beaucoup de questions sur la dimension énergétique et la consommation des modèles, c’est un sujet auquel nous sommes attentifs et qui prendra tout son sens pour les cas d’usages qui vont trouver leur place pérenne en production.

L’autre gros sujet, c’est l’accompagnement au changement. C’est exactement la même chose qu’on vit dans le grand public : est-ce que vous avez réussi aujourd’hui à ne plus utiliser votre moteur de recherche favori et à commencer d’abord par une IA générative ? Souvent, on se rend compte que nous sommes tellement conditionnés qu’on commence par notre moteur de recherche traditionnel puis on se dit qu’on pourrait quand même essayer l’IA. C’est la même chose dans l’entreprise : nos collègues ont tendance à aller vers leur base de connaissances. L’adoption se fait sur 6 à 12 mois, parce qu’il faut déconstruire des pratiques bien ancrées.
Les produits ne sont pas complexes, mais ils ne sont pas simples à designer. Nous sommes arrivés à la conclusion qu’il fallait vraiment un accompagnement qui vient du terrain, avec les équipes terrain.

Autre sujet : on parle aussi de technologies qui sont moins européennes. Ce qui pose une vraie préoccupation parce qu’il faut interagir avec les clients, sous différentes formes, et cela passe par la culture. La culture européenne, et plus encore la langue française, ne sont pas bien représentées dans les données d’entraînement : 99 % des données utilisées viennent des cultures anglo-saxonnes, avec leurs biais politiques ou idéologiques. Nous voulons donc soutenir et encourager des initiatives pour entraîner des modèles sur la culture européenne et les langues européennes, surtout le français, pour avoir par exemple des courriers qui reprennent nos éléments culturels au lieu d’être de simples traductions Nous y sommes très attentifs.

Photo : © Melanie Chaigneau -MAIF

The post Guillaume Rincé, CTO du Groupe MAIF : « Nous fonctionnons comme un éditeur de logiciels » appeared first on Silicon.fr.

Nvidia et OpenAI concluent un accord de 100 milliards $

22 septembre 2025 à 22:00

Dans le secteur de l’IA, la chasse aux gigawatts bat son plein…Nouvelle illustration de cette course à la puissance de calcul, la signature d’une lettre d’intention pour un partenariat stratégique entre Nvidia et OpenAI. L’accord prévoit un investissement pouvant atteindre 100 milliards $ de la part de Nvidia dans OpenAI.
L’objectif est de déployer une capacité d’au moins 10 gigawatts de puissance informatique.

L’investissement sera réalisé en plusieurs étapes, avec un premier apport de 10 milliards $ en numéraire à la signature. En échange, Nvidia obtiendra des actions sans droit de vote d’OpenAI. Les montants suivants seront débloqués progressivement, à mesure du déploiement de chaque gigawatt de puissance de calcul.

Le PDG de Nvidia, Jensen Huang, a déclaré lors d’une interview à CNBC, que les 10 gigawatts équivalents à entre 4 et 5 millions de GPU, soit ce que la société livrera en 2025. En août, il indiquait aux investisseurs que la construction d’un gigawatt de capacité coûte entre 50 et 60 milliards $, dont environ 35 milliards pour les puces et systèmes Nvidia.

Les premières livraisons matérielles devraient intervenir en 2026, avec une capacité initiale d’un gigawatt attendue au second semestre sur la future plateforme  » Vera Rubin ». Pour OpenAI, l’accès à cette puissance de calcul est crucial pour soutenir la croissance de ses modèles, dont ChatGPT, utilisé chaque semaine par environ 700 millions de personnes.

Au coeur de l’écosystème IA américain (et mondial), Nvidia multiplie les investissements industriels. Il vient d’investir 5 milliards $ contre 4 % du capital d’Intel et quelques projets de développement communs. Et a également annoncé un investissement de près de 700 millions $ dans la start-up britannique Nscale spécialisée dans les centres de données. De son côté, OpenAI travaille sur le développement de ses propres puces avec Broadcom et TSMC.

Cependant, l’accord pourrait faire l’objet d’un examen antitrust. Le ministère de la Justice et la Commission fédérale du commerce ont conclu un accord mi-2024 ouvrant la voie à d’éventuelles enquêtes sur les rôles de Microsoft, OpenAI et Nvidia dans l’industrie de l’IA.

« L’accord pourrait modifier les motivations économiques de Nvidia et d’OpenAI, car il pourrait potentiellement consolider le monopole de Nvidia sur les puces grâce à l’avance d’OpenAI sur les logiciels. Il pourrait rendre plus difficile la mise à l’échelle pour les concurrents de Nvidia, comme AMD sur le marché des puces, ou pour les concurrents d’OpenAI sur le marché des modèles », estime Andre Barlow, avocat spécialisé en droit de la concurrence chez Doyle, Barlow & Mazard, cité par Reuters.

The post Nvidia et OpenAI concluent un accord de 100 milliards $ appeared first on Silicon.fr.

SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence

22 septembre 2025 à 22:00

De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel  » as a service » a essaimé dans toutes les verticales applicatives.

Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?

L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.

Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.

Quatre scénarios économiques pour un nouveau SaaS

L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.

1. L’IA améliore le SaaS

Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.

2. La compression des dépenses

Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques

3. L’IA éclipse le SaaS

Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).

4. L’IA cannibalise le SaaS

Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.

L’émergence d’une nouvelle architecture de valeur

Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.

> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.

> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.

> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.

L’enjeu stratégique des standards sémantiques

Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».

Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.

Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.

Comment préserver la création de valeur

Face à ces transformations, Bain formule cinq recommandations économiques clés.

> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.

> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.

> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.

> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.

> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.

Obsolescence optionnelle, disruption obligatoire

La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.

Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.

Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.

The post SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence appeared first on Silicon.fr.

LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative

21 septembre 2025 à 22:00

À partir du 3 novembre 2025, LinkedIn commencera à utiliser certaines données personnelles de ses membres pour l’entraînement de ses modèles d’intelligence artificielle générative. L’annonce a été faite le 18 septembre par la plateforme, dans un billet officiel de Blake Lawit, son Chief Global Affairs & Legal Officer, suivi d’une notification adressée aux utilisateurs informant d’une mise à jour des conditions d’utilisation.

Les informations utilisées pour entraîner l’IA de la plateforme incluent les données de profil (nom, photo, parcours professionnel et formation, recommandations de compétences, localisation), les messages publics et les réponses aux publications, ainsi que les contributions aux groupes et certains échanges avec les recruteurs. Les questions posées à l’IA de LinkedIn sont également prises en compte.

En revanche, les messages privés et les informations salariales ne feront pas partie des données collectées. LinkedIn précise également que, lorsqu’il existe un doute sur l’âge d’un utilisateur – par exemple en cas de scolarisation dans un établissement secondaire – ses données ne seront pas utilisées, même si l’option de partage est activée.

Les messages privés et les informations salariales ne seront pas collectés

Les membres disposent d’une option leur permettant de refuser l’utilisation de leurs données à des fins d’entraînement. Cette préférence peut être modifiée dans les paramètres du compte, via la section dédiée intitulée « Utiliser mes données pour entraîner les modèles d’IA de création de contenu ».

En septembre 2024, suite à une interpellation de l’ICO, le régulateur britannique, LinkedIn avait mis en pause l’utilisation des données de ses membres au Royaume-Uni pour l’entraînement de ses modèles d’intelligence artificielle, après avoir discrètement activé par défaut le consentement de ses utilisateurs à travers le monde pour cette même utilisation de leurs informations. En parallèle, il avait cessé les collectes de données de ses utilisateurs au Canada, en Chine continentale, à Hong Kong, dans l’espace économique européen et en Suisse.

« Nous sommes heureux que LinkedIn ait pris en compte nos préoccupations et modifié son approche pour permettre aux utilisateurs de s’opposer plus facilement au traitement et de disposer d’une fenêtre plus longue pour le faire.[…] Nous avons clairement indiqué que lorsque les organisations prévoient d’utiliser les informations des utilisateurs pour former des modèles d’IA générative, elles doivent mettre en place des garanties efficaces avant de commencer à utiliser les données personnelles pour la formation des modèles, notamment en fournissant un moyen clair et simple pour que les utilisateurs puissent s’opposer au traitement. » a réagi un porte-parole de l’ICO.

 

 

The post LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative appeared first on Silicon.fr.

Nvidia et OpenAI concluent un accord de 100 milliards $

22 septembre 2025 à 22:00

Dans le secteur de l’IA, la chasse aux gigawatts bat son plein…Nouvelle illustration de cette course à la puissance de calcul, la signature d’une lettre d’intention pour un partenariat stratégique entre Nvidia et OpenAI. L’accord prévoit un investissement pouvant atteindre 100 milliards $ de la part de Nvidia dans OpenAI.
L’objectif est de déployer une capacité d’au moins 10 gigawatts de puissance informatique.

L’investissement sera réalisé en plusieurs étapes, avec un premier apport de 10 milliards $ en numéraire à la signature. En échange, Nvidia obtiendra des actions sans droit de vote d’OpenAI. Les montants suivants seront débloqués progressivement, à mesure du déploiement de chaque gigawatt de puissance de calcul.

Le PDG de Nvidia, Jensen Huang, a déclaré lors d’une interview à CNBC, que les 10 gigawatts équivalents à entre 4 et 5 millions de GPU, soit ce que la société livrera en 2025. En août, il indiquait aux investisseurs que la construction d’un gigawatt de capacité coûte entre 50 et 60 milliards $, dont environ 35 milliards pour les puces et systèmes Nvidia.

Les premières livraisons matérielles devraient intervenir en 2026, avec une capacité initiale d’un gigawatt attendue au second semestre sur la future plateforme  » Vera Rubin ». Pour OpenAI, l’accès à cette puissance de calcul est crucial pour soutenir la croissance de ses modèles, dont ChatGPT, utilisé chaque semaine par environ 700 millions de personnes.

Au coeur de l’écosystème IA américain (et mondial), Nvidia multiplie les investissements industriels. Il vient d’investir 5 milliards $ contre 4 % du capital d’Intel et quelques projets de développement communs. Et a également annoncé un investissement de près de 700 millions $ dans la start-up britannique Nscale spécialisée dans les centres de données. De son côté, OpenAI travaille sur le développement de ses propres puces avec Broadcom et TSMC.

Cependant, l’accord pourrait faire l’objet d’un examen antitrust. Le ministère de la Justice et la Commission fédérale du commerce ont conclu un accord mi-2024 ouvrant la voie à d’éventuelles enquêtes sur les rôles de Microsoft, OpenAI et Nvidia dans l’industrie de l’IA.

« L’accord pourrait modifier les motivations économiques de Nvidia et d’OpenAI, car il pourrait potentiellement consolider le monopole de Nvidia sur les puces grâce à l’avance d’OpenAI sur les logiciels. Il pourrait rendre plus difficile la mise à l’échelle pour les concurrents de Nvidia, comme AMD sur le marché des puces, ou pour les concurrents d’OpenAI sur le marché des modèles », estime Andre Barlow, avocat spécialisé en droit de la concurrence chez Doyle, Barlow & Mazard, cité par Reuters.

The post Nvidia et OpenAI concluent un accord de 100 milliards $ appeared first on Silicon.fr.

SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence

22 septembre 2025 à 22:00

De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel  » as a service » a essaimé dans toutes les verticales applicatives.

Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?

L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.

Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.

Quatre scénarios économiques pour un nouveau SaaS

L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.

1. L’IA améliore le SaaS

Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.

2. La compression des dépenses

Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques

3. L’IA éclipse le SaaS

Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).

4. L’IA cannibalise le SaaS

Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.

L’émergence d’une nouvelle architecture de valeur

Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.

> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.

> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.

> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.

L’enjeu stratégique des standards sémantiques

Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».

Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.

Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.

Comment préserver la création de valeur

Face à ces transformations, Bain formule cinq recommandations économiques clés.

> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.

> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.

> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.

> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.

> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.

Obsolescence optionnelle, disruption obligatoire

La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.

Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.

Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.

The post SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence appeared first on Silicon.fr.

LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative

21 septembre 2025 à 22:00

À partir du 3 novembre 2025, LinkedIn commencera à utiliser certaines données personnelles de ses membres pour l’entraînement de ses modèles d’intelligence artificielle générative. L’annonce a été faite le 18 septembre par la plateforme, dans un billet officiel de Blake Lawit, son Chief Global Affairs & Legal Officer, suivi d’une notification adressée aux utilisateurs informant d’une mise à jour des conditions d’utilisation.

Les informations utilisées pour entraîner l’IA de la plateforme incluent les données de profil (nom, photo, parcours professionnel et formation, recommandations de compétences, localisation), les messages publics et les réponses aux publications, ainsi que les contributions aux groupes et certains échanges avec les recruteurs. Les questions posées à l’IA de LinkedIn sont également prises en compte.

En revanche, les messages privés et les informations salariales ne feront pas partie des données collectées. LinkedIn précise également que, lorsqu’il existe un doute sur l’âge d’un utilisateur – par exemple en cas de scolarisation dans un établissement secondaire – ses données ne seront pas utilisées, même si l’option de partage est activée.

Les messages privés et les informations salariales ne seront pas collectés

Les membres disposent d’une option leur permettant de refuser l’utilisation de leurs données à des fins d’entraînement. Cette préférence peut être modifiée dans les paramètres du compte, via la section dédiée intitulée « Utiliser mes données pour entraîner les modèles d’IA de création de contenu ».

En septembre 2024, suite à une interpellation de l’ICO, le régulateur britannique, LinkedIn avait mis en pause l’utilisation des données de ses membres au Royaume-Uni pour l’entraînement de ses modèles d’intelligence artificielle, après avoir discrètement activé par défaut le consentement de ses utilisateurs à travers le monde pour cette même utilisation de leurs informations. En parallèle, il avait cessé les collectes de données de ses utilisateurs au Canada, en Chine continentale, à Hong Kong, dans l’espace économique européen et en Suisse.

« Nous sommes heureux que LinkedIn ait pris en compte nos préoccupations et modifié son approche pour permettre aux utilisateurs de s’opposer plus facilement au traitement et de disposer d’une fenêtre plus longue pour le faire.[…] Nous avons clairement indiqué que lorsque les organisations prévoient d’utiliser les informations des utilisateurs pour former des modèles d’IA générative, elles doivent mettre en place des garanties efficaces avant de commencer à utiliser les données personnelles pour la formation des modèles, notamment en fournissant un moyen clair et simple pour que les utilisateurs puissent s’opposer au traitement. » a réagi un porte-parole de l’ICO.

The post LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative appeared first on Silicon.fr.

❌