Vue lecture

SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence

De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel  » as a service » a essaimé dans toutes les verticales applicatives.

Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?

L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.

Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.

Quatre scénarios économiques pour un nouveau SaaS

L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.

1. L’IA améliore le SaaS

Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.

2. La compression des dépenses

Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques

3. L’IA éclipse le SaaS

Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).

4. L’IA cannibalise le SaaS

Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.

L’émergence d’une nouvelle architecture de valeur

Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.

> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.

> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.

> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.

L’enjeu stratégique des standards sémantiques

Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».

Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.

Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.

Comment préserver la création de valeur

Face à ces transformations, Bain formule cinq recommandations économiques clés.

> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.

> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.

> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.

> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.

> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.

Obsolescence optionnelle, disruption obligatoire

La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.

Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.

Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.

The post SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence appeared first on Silicon.fr.

  •  

Assistants de codage : un marché volatil où les prix sont peu lisibles

Remarquablement volatil. Ainsi Gartner dépeint-il le marché des assistants de codage.

C’est le deuxième Magic Quadrant qu’il lui consacre, dans la continuité de celui, plus généraliste, consacré aux « services d’IA cloud pour les développeurs ».

Par rapport à l’an dernier, les éléments obligatoires sur le plan fonctionnel ont peu évolué. Il fallait proposer, dans les grandes lignes :

  • Saisie semi-automatique multiligne avec suggestions en langage naturel
  • Génération de tests unitaires et de documentation
  • Assistance généraliste sur de multiples langages et frameworks
  • Connaissance du contexte des dépôts de code de l’entreprise et d’autres sources type documentation
  • Chat intégré dans l’environnement de développement, avec possibilité de faire référence à des fichiers et dossiers
  • Garantie de non-exploitation du code ou de la documentation des clients à des fins d’entraînement de modèles
  • Options d’administration telles que l’exclusion de code et la définition de styles de programmation

Gartner a néanmoins tenu compte du mouvement de l’offre, marqué par une transition des plug-in pour IDE vers des environnements autonomes. Il a aussi intégré l’aspect agentique dans son évaluation.

Quant à la volatilité du marché, le cabinet américain en veut notamment pour preuve ce qui est arrivé à Windsurf (ex-Codeium). OpenAI a tenté d’en faire l’acquisition, mais c’est finalement Cognition qui s’en est emparé, l’équipe dirigeante rejoignant Google.

Autre illustration : la controverse que Cursor a suscitée en augmentant ses tarifs, en conséquence de la hausse du coût de sa « matière première » : les modèles d’Anthropic. Ce dernier représente une menace d’autant plus grande qu’il s’est lui-même positionné sur ce marché, avec Claude Code. Le symbole d’une tendance plus globale des fournisseurs de LLM à développer leurs propres assistants de code.

14 fournisseurs, 5 « leaders »

Reflet de cette volatilité, la hiérarchie évolue assez nettement sur chacun des axes du Magic Quadrant. Des 14 fournisseurs classés, 4 sont de nouveaux entrants. Dont un chez les « leaders » : Anysphere, éditeur de Cursor.

Sur l’axe « exécution », censé traduire la capacité à répondre effectivement à la demande (expérience client, performance avant-vente, qualité des produits/services…), la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Amazon +2
3 Cognition (Windsurf) +3
4 Anysphere (Cursor) nouvel entrant
5 Alibaba Cloud =
6 GitLab -4
7 Google -4
8 Harness nouvel entrant
9 Qodo +2
10 Tabnine -2
11 Tencent Cloud -1
12 Augment Code nouvel entrant
13 IBM -6
14 JetBrains nouvel entrant

Sur l’axe « vision », qui rend compte des stratégies (sectorielle, géographique, commerciale/marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Cognition +6
3 Amazon -1
4 GitLab =
5 Google -2
6 Harness nouvel entrant
7 Qodo +4
8 Tabnine +1
9 Augment nouvel entrant
10 Anysphere nouvel entrant
11 Alibaba Cloud -5
12 IBM -5
13 JetBrains nouvel entrant
14 Tencent Cloud -4

Options de déploiement et de personnalisation limitées chez Amazon

Amazon est moins exhaustif que les autres fournisseurs sur le nombre d’IDE pris en charge, avait constaté Gartner l’an dernier. Un défaut résolu : désormais, Amazon Q Developer est au contraire salué pour sa diffusion dans de nombreux environnements. Bon point également sur le volet agentique, en particulier dans le domaine de la modernisation. S’y ajoutent les investissements dans le raisonnement automatisé, déjà distingués l’an dernier. Même chose pour le recueil du feedback client. Amazon a aussi pour lui la qualité de son support à l’exploitation (contrôles de sécurité, mises à jour sans temps d’arrêt, disponibilité des gestionnaires de compte).

En comparaison aux autres hyperscalers ici classés, Amazon déploie moins d’efforts commerciaux centrés sur les assistants de codage. Son business model peut par ailleurs compliquer la planification des coûts et le benchmarking. Et les options de personnalisation (fine-tuning, bibliothèque de prompts…) restent limitées, comme les options de déploiement. Plus globalement, l’offre est optimisée pour l’écosystème AWS, ce qui peut engendrer des coûts en cas de changement de fournisseur. L’IDE Kiro est un palliatif, mais il était encore en version expérimentale au moment où Gartner a effectué son évaluation.

Cognition, moins mature sur l’approche commerciale

Cognition est crédité de bons points pour sa prise en charge exhaustive des langages de programmation et la robustesse de ses intégrations IDE (en plus d’avoir le sien). Gartner apprécie les capacités de son produit sur la personnalisation de code, le test, le débogage et la génération de documentation. Il salue aussi la flexibilité procurée par l’intégration agentique au sein du cycle de développement. Bons points également pour le moteur de raisonnement Cortex et la facilité de déploiement (modèles hybrides).

Difficile, après le départ de l’équipe dirigeante vers Google, de ne pas avoir de doutes sur la viabilité de Windsurf. Et, en parallèle, sur son modèle économique, a fortiori au moment où l’intégration des agents s’accompagne d’une transition du licensing par siège à une tarification à l’usage. Gartner relève, de plus, un manque de ressources qui limite les capacités d’expansion de Cognition au-delà des marchés dev-centric. L’approche commerciale est globalement moins mature chez les autres « leaders », tant sur le channel que sur la verticalisation.

Tarification complexe chez GitHub

GitHub Copilot excelle sur les tâches essentielles (traduction de code, compréhension du runtime, documentation automatique), selon Gartner. Autre point fort : le niveau d’intégration dans le SDLC (disponibilité native dans GitHub et dans Visual Studio Code, notamment). Bons points également pour la gouvernance et l’intégration avec les codebases.

Gartner observe que l’adaptation sectorielle de l’offre est minimale. Il pointe aussi la complexité de la tarification. La multiplicité des SKU autant que l’interaction avec les abonnements GitHub Enterprise contribuent à une forme d’opacité. Il n’est par ailleurs pas toujours évident de s’y retrouver entre les conditions contractuelles de GitHub et celles de Microsoft dans le cadre des offres cross-platform.

GitLab, pas en avance sur le marché

L’an dernier, Gartner avait salué GitLab pour sa stratégie marketing, ainsi que pour la visibilité et l’engagement qui en résultaient. Il avait aussi apprécié le volume de ressources consacrées au développement et au support. C’est toujours le cas, en conséquence de quoi la proportion d’acquisition indrecte de clients est importante. Autres points forts : le niveau d’intégration au sein de la plate-forme GitLab et ma flexibilité du déploiement.

GitLab est moins bien positionné que la concurrence pour ce qui est de la prise en compte du contexte d’entreprise. Il n’est plus globalement pas en avance sur le marché en ce qui concerne un certain nombre de briques (chat, tableaux de bord analytiques, options d’autohébergement). Son message a par ailleurs tendance à se centrer sur l’aspect « IA pour le DevOps » plutôt que sur le coeur fonctionnel, au risque de perdre en notoriété auprès des développeurs.

Traduction, documentation… Google, en retard sur plusieurs usages

Gartner apprécie l’intégration « fluide » de Gemini Code Assistant dans les IDE et dans l’écosystème GCP. Bon point également pour la taficiation, avec un niveau individuel gratuit qui permet d’attirer une base d’utilisateurs. Autres éléments salués : la qualité du support, la robustesse des SLA et les passerlles avec DeepMind, qui favorisent l’adaptation des modèles aux cas d’usage « réels ».

Google est en retard sur les autres « leaders » pour ce qui est de la traduction de code, de la compréhension des runtimes et de la génération de documentation. Il l’est aussi sur le choix des modèles et sur l’adaptation de son offre à des secteurs d’activité comme à des tailles d’entreprises. La tarification manque de transparence, en particulier sur les remises.

Illustration générée par IA

The post Assistants de codage : un marché volatil où les prix sont peu lisibles appeared first on Silicon.fr.

  •  

LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative

À partir du 3 novembre 2025, LinkedIn commencera à utiliser certaines données personnelles de ses membres pour l’entraînement de ses modèles d’intelligence artificielle générative. L’annonce a été faite le 18 septembre par la plateforme, dans un billet officiel de Blake Lawit, son Chief Global Affairs & Legal Officer, suivi d’une notification adressée aux utilisateurs informant d’une mise à jour des conditions d’utilisation.

Les informations utilisées pour entraîner l’IA de la plateforme incluent les données de profil (nom, photo, parcours professionnel et formation, recommandations de compétences, localisation), les messages publics et les réponses aux publications, ainsi que les contributions aux groupes et certains échanges avec les recruteurs. Les questions posées à l’IA de LinkedIn sont également prises en compte.

En revanche, les messages privés et les informations salariales ne feront pas partie des données collectées. LinkedIn précise également que, lorsqu’il existe un doute sur l’âge d’un utilisateur – par exemple en cas de scolarisation dans un établissement secondaire – ses données ne seront pas utilisées, même si l’option de partage est activée.

Les messages privés et les informations salariales ne seront pas collectés

Les membres disposent d’une option leur permettant de refuser l’utilisation de leurs données à des fins d’entraînement. Cette préférence peut être modifiée dans les paramètres du compte, via la section dédiée intitulée « Utiliser mes données pour entraîner les modèles d’IA de création de contenu ».

En septembre 2024, suite à une interpellation de l’ICO, le régulateur britannique, LinkedIn avait mis en pause l’utilisation des données de ses membres au Royaume-Uni pour l’entraînement de ses modèles d’intelligence artificielle, après avoir discrètement activé par défaut le consentement de ses utilisateurs à travers le monde pour cette même utilisation de leurs informations. En parallèle, il avait cessé les collectes de données de ses utilisateurs au Canada, en Chine continentale, à Hong Kong, dans l’espace économique européen et en Suisse.

« Nous sommes heureux que LinkedIn ait pris en compte nos préoccupations et modifié son approche pour permettre aux utilisateurs de s’opposer plus facilement au traitement et de disposer d’une fenêtre plus longue pour le faire.[…] Nous avons clairement indiqué que lorsque les organisations prévoient d’utiliser les informations des utilisateurs pour former des modèles d’IA générative, elles doivent mettre en place des garanties efficaces avant de commencer à utiliser les données personnelles pour la formation des modèles, notamment en fournissant un moyen clair et simple pour que les utilisateurs puissent s’opposer au traitement. » a réagi un porte-parole de l’ICO.

 

 

The post LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative appeared first on Silicon.fr.

  •  

SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence

De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel  » as a service » a essaimé dans toutes les verticales applicatives.

Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?

L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.

Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.

Quatre scénarios économiques pour un nouveau SaaS

L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.

1. L’IA améliore le SaaS

Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.

2. La compression des dépenses

Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques

3. L’IA éclipse le SaaS

Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).

4. L’IA cannibalise le SaaS

Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.

L’émergence d’une nouvelle architecture de valeur

Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.

> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.

> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.

> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.

L’enjeu stratégique des standards sémantiques

Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».

Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.

Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.

Comment préserver la création de valeur

Face à ces transformations, Bain formule cinq recommandations économiques clés.

> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.

> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.

> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.

> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.

> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.

Obsolescence optionnelle, disruption obligatoire

La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.

Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.

Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.

The post SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence appeared first on Silicon.fr.

  •  

Assistants de codage : un marché volatil où les prix sont peu lisibles

Remarquablement volatil. Ainsi Gartner dépeint-il le marché des assistants de codage.

C’est le deuxième Magic Quadrant qu’il lui consacre, dans la continuité de celui, plus généraliste, consacré aux « services d’IA cloud pour les développeurs ».

Par rapport à l’an dernier, les éléments obligatoires sur le plan fonctionnel ont peu évolué. Il fallait proposer, dans les grandes lignes :

  • Saisie semi-automatique multiligne avec suggestions en langage naturel
  • Génération de tests unitaires et de documentation
  • Assistance généraliste sur de multiples langages et frameworks
  • Connaissance du contexte des dépôts de code de l’entreprise et d’autres sources type documentation
  • Chat intégré dans l’environnement de développement, avec possibilité de faire référence à des fichiers et dossiers
  • Garantie de non-exploitation du code ou de la documentation des clients à des fins d’entraînement de modèles
  • Options d’administration telles que l’exclusion de code et la définition de styles de programmation

Gartner a néanmoins tenu compte du mouvement de l’offre, marqué par une transition des plug-in pour IDE vers des environnements autonomes. Il a aussi intégré l’aspect agentique dans son évaluation.

Quant à la volatilité du marché, le cabinet américain en veut notamment pour preuve ce qui est arrivé à Windsurf (ex-Codeium). OpenAI a tenté d’en faire l’acquisition, mais c’est finalement Cognition qui s’en est emparé, l’équipe dirigeante rejoignant Google.

Autre illustration : la controverse que Cursor a suscitée en augmentant ses tarifs, en conséquence de la hausse du coût de sa « matière première » : les modèles d’Anthropic. Ce dernier représente une menace d’autant plus grande qu’il s’est lui-même positionné sur ce marché, avec Claude Code. Le symbole d’une tendance plus globale des fournisseurs de LLM à développer leurs propres assistants de code.

14 fournisseurs, 5 « leaders »

Reflet de cette volatilité, la hiérarchie évolue assez nettement sur chacun des axes du Magic Quadrant. Des 14 fournisseurs classés, 4 sont de nouveaux entrants. Dont un chez les « leaders » : Anysphere, éditeur de Cursor.

Sur l’axe « exécution », censé traduire la capacité à répondre effectivement à la demande (expérience client, performance avant-vente, qualité des produits/services…), la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Amazon +2
3 Cognition (Windsurf) +3
4 Anysphere (Cursor) nouvel entrant
5 Alibaba Cloud =
6 GitLab -4
7 Google -4
8 Harness nouvel entrant
9 Qodo +2
10 Tabnine -2
11 Tencent Cloud -1
12 Augment Code nouvel entrant
13 IBM -6
14 JetBrains nouvel entrant

Sur l’axe « vision », qui rend compte des stratégies (sectorielle, géographique, commerciale/marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Cognition +6
3 Amazon -1
4 GitLab =
5 Google -2
6 Harness nouvel entrant
7 Qodo +4
8 Tabnine +1
9 Augment nouvel entrant
10 Anysphere nouvel entrant
11 Alibaba Cloud -5
12 IBM -5
13 JetBrains nouvel entrant
14 Tencent Cloud -4

Options de déploiement et de personnalisation limitées chez Amazon

Amazon est moins exhaustif que les autres fournisseurs sur le nombre d’IDE pris en charge, avait constaté Gartner l’an dernier. Un défaut résolu : désormais, Amazon Q Developer est au contraire salué pour sa diffusion dans de nombreux environnements. Bon point également sur le volet agentique, en particulier dans le domaine de la modernisation. S’y ajoutent les investissements dans le raisonnement automatisé, déjà distingués l’an dernier. Même chose pour le recueil du feedback client. Amazon a aussi pour lui la qualité de son support à l’exploitation (contrôles de sécurité, mises à jour sans temps d’arrêt, disponibilité des gestionnaires de compte).

En comparaison aux autres hyperscalers ici classés, Amazon déploie moins d’efforts commerciaux centrés sur les assistants de codage. Son business model peut par ailleurs compliquer la planification des coûts et le benchmarking. Et les options de personnalisation (fine-tuning, bibliothèque de prompts…) restent limitées, comme les options de déploiement. Plus globalement, l’offre est optimisée pour l’écosystème AWS, ce qui peut engendrer des coûts en cas de changement de fournisseur. L’IDE Kiro est un palliatif, mais il était encore en version expérimentale au moment où Gartner a effectué son évaluation.

Cognition, moins mature sur l’approche commerciale

Cognition est crédité de bons points pour sa prise en charge exhaustive des langages de programmation et la robustesse de ses intégrations IDE (en plus d’avoir le sien). Gartner apprécie les capacités de son produit sur la personnalisation de code, le test, le débogage et la génération de documentation. Il salue aussi la flexibilité procurée par l’intégration agentique au sein du cycle de développement. Bons points également pour le moteur de raisonnement Cortex et la facilité de déploiement (modèles hybrides).

Difficile, après le départ de l’équipe dirigeante vers Google, de ne pas avoir de doutes sur la viabilité de Windsurf. Et, en parallèle, sur son modèle économique, a fortiori au moment où l’intégration des agents s’accompagne d’une transition du licensing par siège à une tarification à l’usage. Gartner relève, de plus, un manque de ressources qui limite les capacités d’expansion de Cognition au-delà des marchés dev-centric. L’approche commerciale est globalement moins mature chez les autres « leaders », tant sur le channel que sur la verticalisation.

Tarification complexe chez GitHub

GitHub Copilot excelle sur les tâches essentielles (traduction de code, compréhension du runtime, documentation automatique), selon Gartner. Autre point fort : le niveau d’intégration dans le SDLC (disponibilité native dans GitHub et dans Visual Studio Code, notamment). Bons points également pour la gouvernance et l’intégration avec les codebases.

Gartner observe que l’adaptation sectorielle de l’offre est minimale. Il pointe aussi la complexité de la tarification. La multiplicité des SKU autant que l’interaction avec les abonnements GitHub Enterprise contribuent à une forme d’opacité. Il n’est par ailleurs pas toujours évident de s’y retrouver entre les conditions contractuelles de GitHub et celles de Microsoft dans le cadre des offres cross-platform.

GitLab, pas en avance sur le marché

L’an dernier, Gartner avait salué GitLab pour sa stratégie marketing, ainsi que pour la visibilité et l’engagement qui en résultaient. Il avait aussi apprécié le volume de ressources consacrées au développement et au support. C’est toujours le cas, en conséquence de quoi la proportion d’acquisition indrecte de clients est importante. Autres points forts : le niveau d’intégration au sein de la plate-forme GitLab et ma flexibilité du déploiement.

GitLab est moins bien positionné que la concurrence pour ce qui est de la prise en compte du contexte d’entreprise. Il n’est plus globalement pas en avance sur le marché en ce qui concerne un certain nombre de briques (chat, tableaux de bord analytiques, options d’autohébergement). Son message a par ailleurs tendance à se centrer sur l’aspect « IA pour le DevOps » plutôt que sur le coeur fonctionnel, au risque de perdre en notoriété auprès des développeurs.

Traduction, documentation… Google, en retard sur plusieurs usages

Gartner apprécie l’intégration « fluide » de Gemini Code Assistant dans les IDE et dans l’écosystème GCP. Bon point également pour la taficiation, avec un niveau individuel gratuit qui permet d’attirer une base d’utilisateurs. Autres éléments salués : la qualité du support, la robustesse des SLA et les passerlles avec DeepMind, qui favorisent l’adaptation des modèles aux cas d’usage « réels ».

Google est en retard sur les autres « leaders » pour ce qui est de la traduction de code, de la compréhension des runtimes et de la génération de documentation. Il l’est aussi sur le choix des modèles et sur l’adaptation de son offre à des secteurs d’activité comme à des tailles d’entreprises. La tarification manque de transparence, en particulier sur les remises.

Illustration générée par IA

The post Assistants de codage : un marché volatil où les prix sont peu lisibles appeared first on Silicon.fr.

  •  

LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative

À partir du 3 novembre 2025, LinkedIn commencera à utiliser certaines données personnelles de ses membres pour l’entraînement de ses modèles d’intelligence artificielle générative. L’annonce a été faite le 18 septembre par la plateforme, dans un billet officiel de Blake Lawit, son Chief Global Affairs & Legal Officer, suivi d’une notification adressée aux utilisateurs informant d’une mise à jour des conditions d’utilisation.

Les informations utilisées pour entraîner l’IA de la plateforme incluent les données de profil (nom, photo, parcours professionnel et formation, recommandations de compétences, localisation), les messages publics et les réponses aux publications, ainsi que les contributions aux groupes et certains échanges avec les recruteurs. Les questions posées à l’IA de LinkedIn sont également prises en compte.

En revanche, les messages privés et les informations salariales ne feront pas partie des données collectées. LinkedIn précise également que, lorsqu’il existe un doute sur l’âge d’un utilisateur – par exemple en cas de scolarisation dans un établissement secondaire – ses données ne seront pas utilisées, même si l’option de partage est activée.

Les messages privés et les informations salariales ne seront pas collectés

Les membres disposent d’une option leur permettant de refuser l’utilisation de leurs données à des fins d’entraînement. Cette préférence peut être modifiée dans les paramètres du compte, via la section dédiée intitulée « Utiliser mes données pour entraîner les modèles d’IA de création de contenu ».

En septembre 2024, suite à une interpellation de l’ICO, le régulateur britannique, LinkedIn avait mis en pause l’utilisation des données de ses membres au Royaume-Uni pour l’entraînement de ses modèles d’intelligence artificielle, après avoir discrètement activé par défaut le consentement de ses utilisateurs à travers le monde pour cette même utilisation de leurs informations. En parallèle, il avait cessé les collectes de données de ses utilisateurs au Canada, en Chine continentale, à Hong Kong, dans l’espace économique européen et en Suisse.

« Nous sommes heureux que LinkedIn ait pris en compte nos préoccupations et modifié son approche pour permettre aux utilisateurs de s’opposer plus facilement au traitement et de disposer d’une fenêtre plus longue pour le faire.[…] Nous avons clairement indiqué que lorsque les organisations prévoient d’utiliser les informations des utilisateurs pour former des modèles d’IA générative, elles doivent mettre en place des garanties efficaces avant de commencer à utiliser les données personnelles pour la formation des modèles, notamment en fournissant un moyen clair et simple pour que les utilisateurs puissent s’opposer au traitement. » a réagi un porte-parole de l’ICO.

The post LinkedIn intègre les données de ses utilisateurs dans l’entraînement de son IA générative appeared first on Silicon.fr.

  •