Dans le secteur de l’IA, la chasse aux gigawatts bat son plein…Nouvelle illustration de cette course à la puissance de calcul, la signature d’une lettre d’intention pour un partenariat stratégique entre Nvidia et OpenAI. L’accord prévoit un investissement pouvant atteindre 100 milliards $ de la part de Nvidia dans OpenAI.
L’objectif est de déployer une capacité d’au moins 10 gigawatts de puissance informatique.
L’investissement sera réalisé en plusieurs étapes, avec un premier apport de 10 milliards $ en numéraire à la signature. En échange, Nvidia obtiendra des actions sans droit de vote d’OpenAI. Les montants suivants seront débloqués progressivement, à mesure du déploiement de chaque gigawatt de puissance de calcul.
Le PDG de Nvidia, Jensen Huang, a déclaré lors d’une interview à CNBC, que les 10 gigawatts équivalents à entre 4 et 5 millions de GPU, soit ce que la société livrera en 2025. En août, il indiquait aux investisseurs que la construction d’un gigawatt de capacité coûte entre 50 et 60 milliards $, dont environ 35 milliards pour les puces et systèmes Nvidia.
Les premières livraisons matérielles devraient intervenir en 2026, avec une capacité initiale d’un gigawatt attendue au second semestre sur la future plateforme » Vera Rubin ». Pour OpenAI, l’accès à cette puissance de calcul est crucial pour soutenir la croissance de ses modèles, dont ChatGPT, utilisé chaque semaine par environ 700 millions de personnes.
Au coeur de l’écosystème IA américain (et mondial), Nvidia multiplie les investissements industriels. Il vient d’investir 5 milliards $ contre 4 % du capital d’Intel et quelques projets de développement communs. Et a également annoncé un investissement de près de 700 millions $ dans la start-up britannique Nscale spécialisée dans les centres de données. De son côté, OpenAI travaille sur le développement de ses propres puces avec Broadcom et TSMC.
Cependant, l’accord pourrait faire l’objet d’un examen antitrust. Le ministère de la Justice et la Commission fédérale du commerce ont conclu un accord mi-2024 ouvrant la voie à d’éventuelles enquêtes sur les rôles de Microsoft, OpenAI et Nvidia dans l’industrie de l’IA.
« L’accord pourrait modifier les motivations économiques de Nvidia et d’OpenAI, car il pourrait potentiellement consolider le monopole de Nvidia sur les puces grâce à l’avance d’OpenAI sur les logiciels. Il pourrait rendre plus difficile la mise à l’échelle pour les concurrents de Nvidia, comme AMD sur le marché des puces, ou pour les concurrents d’OpenAI sur le marché des modèles », estime Andre Barlow, avocat spécialisé en droit de la concurrence chez Doyle, Barlow & Mazard, cité par Reuters.
De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel » as a service » a essaimé dans toutes les verticales applicatives.
Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?
L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.
Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.
Quatre scénarios économiques pour un nouveau SaaS
L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.
1. L’IA améliore le SaaS
Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.
2. La compression des dépenses
Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques
3. L’IA éclipse le SaaS
Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).
4. L’IA cannibalise le SaaS
Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.
L’émergence d’une nouvelle architecture de valeur
Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.
> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.
> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.
> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.
L’enjeu stratégique des standards sémantiques
Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».
Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.
Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.
Comment préserver la création de valeur
Face à ces transformations, Bain formule cinq recommandations économiques clés.
> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.
> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.
> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.
> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.
> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.
Obsolescence optionnelle, disruption obligatoire
La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.
Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.
Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.
À partir du 3 novembre 2025, LinkedIn commencera à utiliser certaines données personnelles de ses membres pour l’entraînement de ses modèles d’intelligence artificielle générative. L’annonce a été faite le 18 septembre par la plateforme, dans un billet officiel de Blake Lawit, son Chief Global Affairs & Legal Officer, suivi d’une notification adressée aux utilisateurs informant d’une mise à jour des conditions d’utilisation.
Les informations utilisées pour entraîner l’IA de la plateforme incluent les données de profil (nom, photo, parcours professionnel et formation, recommandations de compétences, localisation), les messages publics et les réponses aux publications, ainsi que les contributions aux groupes et certains échanges avec les recruteurs. Les questions posées à l’IA de LinkedIn sont également prises en compte.
En revanche, les messages privés et les informations salariales ne feront pas partie des données collectées. LinkedIn précise également que, lorsqu’il existe un doute sur l’âge d’un utilisateur – par exemple en cas de scolarisation dans un établissement secondaire – ses données ne seront pas utilisées, même si l’option de partage est activée.
Les messages privés et les informations salariales ne seront pas collectés
Les membres disposent d’une option leur permettant de refuser l’utilisation de leurs données à des fins d’entraînement. Cette préférence peut être modifiée dans les paramètres du compte, via la section dédiée intitulée « Utiliser mes données pour entraîner les modèles d’IA de création de contenu ».
En septembre 2024, suite à une interpellation de l’ICO, le régulateur britannique, LinkedIn avait mis en pause l’utilisation des données de ses membres au Royaume-Uni pour l’entraînement de ses modèles d’intelligence artificielle, après avoir discrètement activé par défaut le consentement de ses utilisateurs à travers le monde pour cette même utilisation de leurs informations. En parallèle, il avait cessé les collectes de données de ses utilisateurs au Canada, en Chine continentale, à Hong Kong, dans l’espace économique européen et en Suisse.
« Nous sommes heureux que LinkedIn ait pris en compte nos préoccupations et modifié son approche pour permettre aux utilisateurs de s’opposer plus facilement au traitement et de disposer d’une fenêtre plus longue pour le faire.[…] Nous avons clairement indiqué que lorsque les organisations prévoient d’utiliser les informations des utilisateurs pour former des modèles d’IA générative, elles doivent mettre en place des garanties efficaces avant de commencer à utiliser les données personnelles pour la formation des modèles, notamment en fournissant un moyen clair et simple pour que les utilisateurs puissent s’opposer au traitement. » a réagi un porte-parole de l’ICO.
Dans le secteur de l’IA, la chasse aux gigawatts bat son plein…Nouvelle illustration de cette course à la puissance de calcul, la signature d’une lettre d’intention pour un partenariat stratégique entre Nvidia et OpenAI. L’accord prévoit un investissement pouvant atteindre 100 milliards $ de la part de Nvidia dans OpenAI. L’objectif est de déployer une capacité d’au moins 10 gigawatts de puissance informatique.
L’investissement sera réalisé en plusieurs étapes, avec un premier apport de 10 milliards $ en numéraire à la signature. En échange, Nvidia obtiendra des actions sans droit de vote d’OpenAI. Les montants suivants seront débloqués progressivement, à mesure du déploiement de chaque gigawatt de puissance de calcul.
Le PDG de Nvidia, Jensen Huang, a déclaré lors d’une interview à CNBC, que les 10 gigawatts équivalents à entre 4 et 5 millions de GPU, soit ce que la société livrera en 2025. En août, il indiquait aux investisseurs que la construction d’un gigawatt de capacité coûte entre 50 et 60 milliards $, dont environ 35 milliards pour les puces et systèmes Nvidia.
Les premières livraisons matérielles devraient intervenir en 2026, avec une capacité initiale d’un gigawatt attendue au second semestre sur la future plateforme » Vera Rubin ». Pour OpenAI, l’accès à cette puissance de calcul est crucial pour soutenir la croissance de ses modèles, dont ChatGPT, utilisé chaque semaine par environ 700 millions de personnes.
Au coeur de l’écosystème IA américain (et mondial), Nvidia multiplie les investissements industriels. Il vient d’investir 5 milliards $ contre 4 % du capital d’Intel et quelques projets de développement communs. Et a également annoncé un investissement de près de 700 millions $ dans la start-up britannique Nscale spécialisée dans les centres de données. De son côté, OpenAI travaille sur le développement de ses propres puces avec Broadcom et TSMC.
Cependant, l’accord pourrait faire l’objet d’un examen antitrust. Le ministère de la Justice et la Commission fédérale du commerce ont conclu un accord mi-2024 ouvrant la voie à d’éventuelles enquêtes sur les rôles de Microsoft, OpenAI et Nvidia dans l’industrie de l’IA.
« L’accord pourrait modifier les motivations économiques de Nvidia et d’OpenAI, car il pourrait potentiellement consolider le monopole de Nvidia sur les puces grâce à l’avance d’OpenAI sur les logiciels. Il pourrait rendre plus difficile la mise à l’échelle pour les concurrents de Nvidia, comme AMD sur le marché des puces, ou pour les concurrents d’OpenAI sur le marché des modèles », estime Andre Barlow, avocat spécialisé en droit de la concurrence chez Doyle, Barlow & Mazard, cité par Reuters.
De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel » as a service » a essaimé dans toutes les verticales applicatives.
Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?
L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.
Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.
Quatre scénarios économiques pour un nouveau SaaS
L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.
1. L’IA améliore le SaaS
Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.
2. La compression des dépenses
Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques
3. L’IA éclipse le SaaS
Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).
4. L’IA cannibalise le SaaS
Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.
L’émergence d’une nouvelle architecture de valeur
Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.
> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.
> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.
> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.
L’enjeu stratégique des standards sémantiques
Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».
Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.
Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.
Comment préserver la création de valeur
Face à ces transformations, Bain formule cinq recommandations économiques clés.
> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.
> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.
> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.
> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.
> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.
Obsolescence optionnelle, disruption obligatoire
La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.
Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.
Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.
À partir du 3 novembre 2025, LinkedIn commencera à utiliser certaines données personnelles de ses membres pour l’entraînement de ses modèles d’intelligence artificielle générative. L’annonce a été faite le 18 septembre par la plateforme, dans un billet officiel de Blake Lawit, son Chief Global Affairs & Legal Officer, suivi d’une notification adressée aux utilisateurs informant d’une mise à jour des conditions d’utilisation.
Les informations utilisées pour entraîner l’IA de la plateforme incluent les données de profil (nom, photo, parcours professionnel et formation, recommandations de compétences, localisation), les messages publics et les réponses aux publications, ainsi que les contributions aux groupes et certains échanges avec les recruteurs. Les questions posées à l’IA de LinkedIn sont également prises en compte.
En revanche, les messages privés et les informations salariales ne feront pas partie des données collectées. LinkedIn précise également que, lorsqu’il existe un doute sur l’âge d’un utilisateur – par exemple en cas de scolarisation dans un établissement secondaire – ses données ne seront pas utilisées, même si l’option de partage est activée.
Les messages privés et les informations salariales ne seront pas collectés
Les membres disposent d’une option leur permettant de refuser l’utilisation de leurs données à des fins d’entraînement. Cette préférence peut être modifiée dans les paramètres du compte, via la section dédiée intitulée « Utiliser mes données pour entraîner les modèles d’IA de création de contenu ».
En septembre 2024, suite à une interpellation de l’ICO, le régulateur britannique, LinkedIn avait mis en pause l’utilisation des données de ses membres au Royaume-Uni pour l’entraînement de ses modèles d’intelligence artificielle, après avoir discrètement activé par défaut le consentement de ses utilisateurs à travers le monde pour cette même utilisation de leurs informations. En parallèle, il avait cessé les collectes de données de ses utilisateurs au Canada, en Chine continentale, à Hong Kong, dans l’espace économique européen et en Suisse.
« Nous sommes heureux que LinkedIn ait pris en compte nos préoccupations et modifié son approche pour permettre aux utilisateurs de s’opposer plus facilement au traitement et de disposer d’une fenêtre plus longue pour le faire.[…] Nous avons clairement indiqué que lorsque les organisations prévoient d’utiliser les informations des utilisateurs pour former des modèles d’IA générative, elles doivent mettre en place des garanties efficaces avant de commencer à utiliser les données personnelles pour la formation des modèles, notamment en fournissant un moyen clair et simple pour que les utilisateurs puissent s’opposer au traitement. » a réagi un porte-parole de l’ICO.
Si l’IA est souvent présentée comme un enjeu stratégique pour les PME et ETI françaises, son adoption reste limitée et inégale. Une étude de Bpifrance Le Lab révèle les freins, les motivations et les différents profils des dirigeants face à cette situation.