Vue lecture

Comment l’Urssaf s’est dotée d’un SIEM puis a réinternalisé son SOC

« Sur une technologie de SIEM, quand le travail est bien fait en amont sur les équipements, on a surtout de la donnée technique. Pas de données à caractère personnel, pas de données sensibles particulières« .

Keran Campeon justifie ainsi le fait que son équipe n’utilise pas la version SecNumCloud de l’offre Sekoia.

L’intéressé est, depuis décembre 2021, responsable du SOC de l’Urssaf Caisse nationale (agence centrale du réseau des Urssaf).

Sur un effectif global d’environ 17 000 collaborateurs, 1300 travaillent à la DSI. Le parc informatique sur l’ensemble du réseau comprend quelque 15 000 serveurs, 22 000 postes de travail et 800 applications, développées en interne.

Une direction adjointe à la DSI porte les thèmes de l’infrastructure, de l’architecture et de la sécurité. Le département SSI y est divisé en deux secteurs, dits tactique et opérationnel. Le premier décline les stratégies de haut niveau en stratégies opérationnelles (écriture d’exigences non fonctionnelles de sécurité, analyse de risques opérationnels au sens régalien du terme, gestion des vulnérabilités/pentests, etc.). Le second comprend, entre autres, des équipes sur la gestion des identités, une équipe intégratrice de solutions techniques… et le SOC.

Ce dernier réunit un peu moins de 20 personnes. Son activité était englobée dans celles d’un centre d’expertise technique jusqu’à la décision, en avril 2017, de créer une équipe dédiée.

2017 : une stack ELK pour commencer

« On démarre à 4 ou 5, et sans outils, déclare Keran Campeon. Il existe une stack ELK qui sert à la production. On s’appuie dessus. On met des tableaux de bord en place. On y ajoute un élément open source : ElastAlert, qui nous permet de faire des règles d’alerting basiques.« 

En 2019, des études de NDR sont lancées. Elles se révèlent concluantes. L’expérimentation qui s’ensuit est néanmoins arrêtée au bout d’un an. Elle répondait à un besoin, mais apportait une vue purement télémétrie réseau. L’Urssaf n’avait alors pas de vision des endpoints (EDR en cours de déploiement). Elle n’avait pas non plus de SIEM. En la matière, un projet avait bien été enclenché à la fin des années 2000, mais ne s’était pas concrétisé. « On avait déployé toute la partie infrastructure et réseau. Mais on n’est jamais allé au bout du sujet sur les endpoints et la supervision système« , reconnaît Keran Campeon. Le projet manquait d’autant plus d’un pilotage bien défini que son initiateur était parti en cours de route. Par ailleurs, l’équipe mobilisée était réduite (3 personnes, non dédiées). Et les technologies de SIEM n’étaient pas les mêmes qu’aujourd’hui (parseurs développés à base de regex).

Il n’était, de surcroît, pas facile de déterminer un périmètre pour le NDR. « Tout étant interconnecté chez nous, on se retrouve vite à devoir projeter un déploiement sur l’intégralité du SI. Avec un prix qui, à l’époque, approche grandement de celui d’un déploiement SIEM [sur ce même périmètre]. » Dans ce contexte, l’Urssaf décide donc de plutôt achever le déploiement de l’EDR, puis de mettre en place le SIEM.

2020 : le choix d’un SOC hybride

Toujours en 2019, les travaux sur la stack ELK permettent de constater que les services Urssaf exposés sur Internet subissent régulièrement des incidents. « Des access brokers venaient […] faire du credential stuffing sur nos portails pour valider des comptes et leur donner de la valeur à la revente, explique Keran Campeon. Quelques jours après il pouvait y avoir de la réutilisation de certains de ces comptes pour des tentatives de fraude. C’est particulièrement apparu [lors de la mise en place de nouvelles offres de services].« 

Fin 2020, une étude est lancée en vue d’une surveillance 24/7 sur ce périmètre grâce à un SOC managé, la gestion du legacy devant reposer sur les équipes internes aux heures ouvrées. Quasiment en parallèle démarre la veille sur une solution de SIEM.

2022 : le début du PoC SIEM

En novembre 2021, le projet de déploiement du SOC hybride est lancé. Le passage en prod sur le service managé intervient en mars 2022. Débute alors le PoC SIEM. 9 solutions sont évaluées sur papier. 3 sont retenues. Parmi elles, un pure player, un éditeur déjà présent sur le SI au niveau de la gestion des vulnérabilités… et Sekoia, arrivé au moment opportun. « On terminait les deux autres PoC. On avait un peu de temps avant de rendre la copie« , précise Keran Campeon.

L’évaluation s’est faite sur 22 critères regroupés en 9 « fonctions ».

Fonction Critères
COLLECTE
  • Intégration de la solution dans le SI
  • Gestion des sources de données
INTERFACE
  • Gestion des accès (AAA)
  • Prise en main de la console
DETECTION
  • Règles de détection
  • Gestion des alertes
  • Threat Intelligence
ANALYSE
  • Contextualisation des données
  • Analyse des incidents
  • Analyse comportementale
  • Accès aux logs bruts
  • Threat hunting
  • Gestion des requêtes
REPONSE
  • SOAR
REPORTING
  • Tableau de bord / Rapport
SUPPORT
  • Support technique
  • Relation client
  • Documentation
DIVERS
  • Marge de progression
  • Souveraineté des données
  • Ressentis évaluateurs
FINANCIER
  • Projection sur 5 ans et 50 000 assets

Techniquement, Sekoia n’était pas forcément au-dessus des autres. Il s’est en revanche distingué sur l’aspect relationnel et le support. « On avait des idées d’évolutions possibles. Ils [les ont] prises très au sérieux. Ils en ont même inscrit dans la roadmap dès la phase de PoC« , se réjouit Keran Campeon. Lequel apprécie aussi l’approche normative de l’éditeur, basée sur des standards : Sigma comme langage de détection, ECS pour les requêtes sur la télémétrie, STIX/TAXII pour la CTI…

La solution du pure player présentait une exploitation complexe et soulevait des difficultés sur la prévision budgétaire (licence à la consommation), en plus de l’absence de cadre d’achat existant.

L’autre solution passée en PoC était en avance technologiquement, mais proposait des scénarios de détection peu évolutifs. Il lui manquait, de surcroît, des sources critiques, comme le WAF. L’Urssaf percevait également qu’elle ne pourrait pas avoir beaucoup d’influence sur l’évolution du produit.

2023 : de l’expérimentation à la généralisation du SIEM

Sekoia sélectionné, une expérimentation d’un an est lancée. Elle est centrée sur les postes utilisateurs, pour couvrir les menaces les plus courantes. Il s’agit alors d’intégrer, au minimum, les événements des contrôleurs de domaine, des antivirus/EDR, des proxys de navigation, de la messagerie (antispams, sandbox) et de l’environnement Office 365. Il s’agit aussi d’améliorer la capacité de réponse aux requêtes judiciaires et de favoriser l’exploitation des IOC tranmis par l’ANSSI.

Les objectifs ont été atteints en quelques mois, nous assure-t-on. Keran Campeon fait remarquer l’ouverture de la plate-forme, « agnostique » des autres éditeurs. Et de souligner que chez certains fournisseurs, des fonctionnalités XDR comme le moteur d’analyse comportementale ne marchent que si on source les briques sous-jacentes chez eux (leur firewall, leur NDR, etc.).

Fin 2023, le déploiement est généralisé sur le périmètre initialement défini pour le SOC interne. À la suite de quoi l’Urssaf envisage d’aller plus loin sur la surveillance de ses applications. L’idée est alors de dépasser la phase initiale axée sur sur le trafic des usagers à travers les logs du WAF, pour couvrir les socles qui portent ces applications (partie système).

2024 : l’Urssaf enclenche la réinternalisation du SOC managé

Rapidement, les dérapages potentiels du le modèle à l’EPS [événements par seconde] sont constatés. Une étude est donc réalisée sur la capacité à réinternaliser ce périmètre. D’autant plus qu’entre-temps, l’équipe a grandi. La démarche est effectivement lancée en novembre 2024. La relation avec le fournisseur du SOC managé ne s’arrête pas totalement : elle bascule vers le sujet CSIRT. En avril 2025, tout est opéré en interne. Au cours de l’été, le déploiement est massifié. La partie navigation des usagers est intégrée.

Pour gérer ses alertes, l’Urssaf a intégré un « petit plus » : un serveur Ollama avec un playbook qui déclenche une analyse des événements sur un LLM. Les équipes du SOC bénéficient ainsi d’un premier récapitulatif. Particulièrement utile pour l’analyse de commandes système avec plein d’arguments, selon Keran Campeon. »

Sekoia a son propre LLM Roy, qu’il héberge en interne. « On l’utilise, mais encore de manière trop ponctuelle« , reconnaît Keran Campeon. Il en souligne néanmoins le potentiel sur la création – partielle, tout au moins – de règles Sigma. « C’est un peu comme quand on utilise un LLM aujourd’hui : ça nous permet surtout de ne pas partir d’une feuille blanche.« 

2026 : basculer le case management sur Sekoia

Roy est aussi intégré au niveau du case management. L’Urssaf a un enjeu fort sur cet aspect : elle espère, d’ici à mi-2026, le basculer sur Sekoia. Elle est satisfaite de son outil actuel, mais la synchronisation de l’information n’est pas évidente à maintenir. Sekoia a, de plus, récemment livré une évolution intéressante : le rapprochement d’alertes semblant correspondre à un incident et la création automatique de cases sur cette base.

Du point de vue de Keran Campeon, les notebooks font partie du sujet de case management. Pour son équipe, ils sont un moyen de décrire des « fiches réflexes » (typologie, critères de sévérité, actions à mener). « On est en discussion pour pouvoir générer, au sein des cases, des champs personnalisés requêtables. On a effectivement un sujet sur les indicateurs à sortir : je dois remonter des informations à mes décideurs.« 

La question s’est posée de faire la bascule dès septembre 2025 (la licence de l’outil de ticketing arrivait à échéance début octobre). « On a hésité tout l’été. Techniquement, pour les analystes, on était prêt. La chose qui nous manquait, c’était cette partie des indicateurs.« 

L’Urssaf a également adopté le detection as code (gestion des règles de détection sur un git). Elle y trouve un intérêt majeur pour la gestion de ses filtres. « Quand une application génère plein d’alertes, on va potentiellement avoir besoin de mettre son identifiant sur plein de règles. Aller le faire en clique-bouton, c’est vite pénible. Copier-coller dans un git, c’est facile« , résume Keran Campeon.

Propos recueillis lors de Assises de la cybersécurité 2025

Photo © Gaël Coto

The post Comment l’Urssaf s’est dotée d’un SIEM puis a réinternalisé son SOC appeared first on Silicon.fr.

  •  

Guillaume Rincé, CTO du Groupe MAIF : « Nous fonctionnons comme un éditeur de logiciels »

À la tête de la stratégie technologique de la MAIF, Guillaume Rincé conduit une transformation en profondeur du système d’information du groupe mutualiste. Entre développement interne des logiciels, engagement fort en faveur de l’open source et réflexion sur la souveraineté numérique, il défend une vision responsable et maîtrisée du numérique.

Dans cet entretien, il revient sur la manière dont la MAIF conjugue innovation, indépendance technologique et valeurs mutualistes, de la gestion du cloud à l’usage raisonné de l’intelligence artificielle générative.

Silicon – Quel est votre périmètre d’activité en tant que CTO de la MAIF ?
Guillaume Rincé – J’ai deux activités principales. D’abord, je définis la stratégie en matière de système d’information pour l’ensemble du groupe et de ses filiales. Ensuite, j’ai la responsabilité des activités technologiques du groupe. Nous fonctionnons de manière matricielle avec des équipages qui regroupent les grands métiers développeurs, ingénieurs, business analystes, designers, architectes, etc. Et puis nous avons des activités de « delivery » organisées en tribus, selon notre vocabulaire, qui correspondent aux différents domaines métiers de la MAIF :  par exemple la tribu « Canaux et flux » ou la tribu « IARD Sinistres ».

J’anime les domaines technologiques et mon collègue Sébastien Agard s’occupe de toute la partie des livrables fonctionnels. Ensuite nous mélangeons nos équipes dans ces tribus qui sont constitués d’équipiers qui viennent des différents métiers du groupe pour réaliser les applications que nous mettons à disposition.

La MAIF est éditeur de ses propres logiciels ?
Oui, nous développons la majorité de nos applications en interne. Nous avons recruté plusieurs centaines de collaborateurs, dont beaucoup de développeurs, pour cela ces dernières années. Nous fonctionnons comme un éditeur de logiciels organisé pour produire nos propres solutions et les mettre en œuvre. Cela nous donne une maîtrise complète de la chaîne, que ce soit en termes de compétences, de ressources ou de processus, y compris le design, qui est clé pour améliorer l’expérience utilisateur.

Dans cette activité d’éditeur, vous vous appuyez beaucoup sur l’open source ?
L’Open Source est une démarche naturelle pour la MAIF, en accord avec notre raison d’être qui est d’œuvrer pour le bien commun. Fabriquer des communs et les partager, c’est complètement en phase avec les valeurs du groupe. Quand je dis “open source”, je ne parle pas d’une techno de container habillée, fournie par un éditeur avec une politique de souscription fermée. Je parle de vraies distributions open source, véritablement libres.
Nous utilisons beaucoup de technologies à travers des Framework comme React ou des bases de données PostgreSQL.

Nous avons une dizaine de produits disponibles sur notre plateforme GitHub (http://maif.github.io), que d’autres peuvent intégrer dans leurs systèmes d’information. Par exemple, nous partageons un API management à l’état de l’art, que nous utilisons nous-mêmes à l’échelle du groupe. Nous le maintenons activement. Nous avons des utilisateurs dans la presse, dans la vente, et dans d’autres domaines, pas seulement en France, mais aux quatre coins du monde.

Nous partageons aussi des technologies de « Feature Flipping » pour activer du code à chaud,ou encore d’explicabilité des algorithmes d’IA et nous contribuons activement à des projets open source, notamment pour maintenir certains composants critiques. Nous avons des personnes qui s’investissent dans différentes technologies. Ce sont souvent des contributions aux « quick fixes ». Nous aimons soutenir des projets que nous utilisons, surtout ceux qui sont importants pour nos systèmes d’information mais qui sont portés par peu de personnes.

Chaque année, nous essayons de soutenir 2 à 3 projets par des dons en euros ou en aidant à financer une librairie. L’idée est de soutenir ceux qui créent ces composants utiles et dont nous bénéficions, en reversant une partie des économies que nous réalisons grâce à l’Open Source.

Comment se déroule l’identification des besoins, le développement et la production des applications ?
L’objectif est que ce soit un sujet de toute l’entreprise, et non pas uniquement de la DSI.
Il faut pouvoir intégrer cette transformation au niveau des métiers qui interagissent avec nous. Dans notre organisation, plusieurs éléments structurent ce processus. Le premier, c’est ce que nous appelons le portefeuille stratégique d’initiatives. L’idée est simple : nous avons un certain nombre d’orientations stratégiques.  Très souvent, derrière ces orientations, se cachent des sujets liés au système d’information, mais pas uniquement. Chaque orientation est portée par ce que nous appelons des leaders d’initiative qui travaillent avec les « business owners » des tribus pour construire le carnet de produits et les évolutions nécessaires à la réalisation de la stratégie.

Des arbitrages se font chaque année entre les différents portefeuilles stratégiques. Ensuite, les tribus organisent la réalisation et coordonnent les actions. Nous avons trois ou quatre « synchros à l’échelle » par an, où l’ensemble des collectifs se réajustent. Nous nous basons sur des principes forts d’agilité et de management par la confiance afin de responsabiliser l’ensemble des équipiers, quel que soit leur rôle, pour que chacun amène sa pierre à l’édifice. Les leaders de chaque feuille de route sont responsables de mener à bien les investissements, les « business owners » des tribus sont responsables de l’agencement dans leurs collectifs et les responsables de tribus s’assurent des livraisons et de la bonne coordination entre les squads produits.

Comment maintenez-vous votre patrimoine applicatif ?

Le maintien technologique à l’état de l’art, c’est quelque chose que nous avons introduit il y a maintenant cinq ans. Nous ne voulons plus de patrimoine qui traîne sans être maintenu, de versions qui ne sont pas à jour, de librairies ou de composants obsolètes sur nos plateformes.
Chaque année, notre patrimoine doit bénéficier d’un bon niveau de maintenance : mises à niveau, sécurité, correctifs…

“Aujourd’hui, il est vivant et a probablement 10 à 15 ans de cycle de vie devant lui. Je ne veux plus lancer des programmes ou projets, livrer un super produit, puis le laisser péricliter doucement pendant dix ans, alors qu’on a investi beaucoup au départ. Nous améliorons en continue les produits, tant sur le plan technique que fonctionnel, en tenant compte des feedbacks des utilisateurs. Pas des révolutions, mais des évolutions qui améliorent l’expérience. Cependant, il faut faire des choix, car nous ne pouvons pas tout faire et ça demande beaucoup de travail dans les collectifs. C’est une grosse partie de notre activité de run.

Quelle est votre politique sur le cloud ?
MAIF a une Charte Numérique publique depuis 2016, dans laquelle nous nous engageons explicitement à garantir la protection des données de nos clients. Tous nos choix découlent de cet engagement.

Nous avons construit deux datacenters où nous hébergeons tout le « cœur de réacteur » et nos bases de données clients pour garder la maîtrise de nos données.  C’est un investissement fort, un socle que nous voulons garder dans nos murs.

Quand nous utilisons le cloud, c’est plutôt pour des flux d’interaction, pour créer des parcours digitaux performants, des parcours mobiles, ou pour interagir avec des partenaires. Nous construisons des applications « stateless », ce qui signifie que les données ne sont pas stockées dans le cloud, en particulier s’il n’est pas souverain. Elles ne font qu’y transiter.
Par exemple, lorsque vous utilisez notre application mobile, vous pouvez transiter par le cloud ;
mais uniquement le temps de votre interaction.

Quelle est votre approche de la souveraineté technologique pour le cloud ?
Il y a 5 ans, nous avons choisi de travailler avec Microsoft Azure, dans un contexte où l’offre de Cloud, au sens des hyperscalers, était essentiellement américaine. Mais aujourd’hui, ce n’est plus suffisant. Nous sommes en train de réfléchir, comme d’autres grandes entreprises européennes, à nous tourner vers d’autres acteurs européens. Nous sommes en phase d’évaluation et je ne peux pas encore dire avec qui nous allons travailler.

Il y a deux ans encore, il n’y avait pas d’offre crédible à grande échelle, pas en matière d’hébergement, mais en termes de stack logiciel pour combiner les services entre eux. Nous avons désormais des véritables acteurs de cloud souverain européen en face des hyperscalers américains.

Ce que nous voulons, c’est pouvoir faire du cloud programmable dans toute sa complexité pour bénéficier d’une vraie richesse de services. Ce n’est pas juste une VM ou un « grand disque ». Ça, nous savons le faire nous-mêmes. Le vrai sujet, c’est d’avoir des fonctionnalités avancées pour développer, orchestrer, et faire tourner nos systèmes de manière fine.

Il y a aujourd’hui des acteurs qui font des technologies construites par de vrais ingénieurs européens, notamment en France. Ça change la donne. Nous espèrons intégrer cette capacité d’ici la fin de l’année, et ainsi disposer de fonctionnalités souveraines, en complément de ce que nous faisons déjà. C’est d’autant plus important avec la question de l’IA générative qui implique des traitements avec des capacités que nous ne pouvons pas forcément intégrer dans nos datacenters, à cause du coût et de la rapidité d’évolution.

Pour faire du génératif, nous aurons besoin d’infrastructures cloud, mais toujours dans des environnements dont nous pouvons garantir la souveraineté, avec un niveau de sécurité équivalent à celui de nos datacenters. Doter notre infrastructure de cette capacité nous permettra de mettre en œuvre du génératif beaucoup plus confortablement, tout en respectant pleinement nos engagements. Et ça, c’est essentiel.

Le Cigref dénonce régulièrement l’inflation des coûts services de cloud et des logiciels. Quel est votre avis sur le sujet ?
En ce qui concerne les coûts du cloud, je suis assez serein. Les acteurs américains sont en forte compétition en dehors des États-Unis, notamment en Europe, ce qui garantit des tarifs relativement stables. Pour moi, il n’y a pas de différence majeure de coût entre le cloud et un datacenter interne bien géré. C’est le seul marché, avec l’IA générative, où il y a une vraie compétition.

En revanche, là où nous sommes très concernés, c’est par les politiques commerciales des éditeurs de logiciels américains. La liste est longue…Nous faisons face à des politiques commerciales qui n’ont aucun sens, avec des augmentations tarifaires justifiées par des discours marketing, mais qui ne reflètent en réalité qu’une stratégie financière pure.
Le but ? Créer un effet de levier pour pousser les clients à migrer vers le cloud, avec de nouvelles souscriptions sur des différents périmètres. Derrière, le calcul est simple : je double, voire triple mes tarifs.  Les clients qui n’ont pas encore beaucoup investi peuvent partir facilement. Mais 70 % sont verrouillés, car il leur faudrait cinq ans pour sortir. Or, ils ont d’autres priorités et sont pris par leurs projets, alors ils restent.

Cela nous choque profondément dans le groupe MAIF : nous sommes une mutuelle, ce que nous payons est directement issu de l’argent de nos sociétaires.
Pour moi, la vraie menace aujourd’hui pour les entreprises européennes, ce n’est pas tant la souveraineté technologique au sens des infrastructure, c’est plutôt cette dépendance aux éditeurs. Nous nous faisons clairement matraquer. Parfois, c’est presque du racket, il faut le dire.

De plus, en tant qu’entreprise mutualiste, nous avons une volonté de soutenir l’économie européenne. Nos achats européens permettent de faire circuler l’argent au sein de l’écosystème européen. Nous cherchons à faire des choix responsables qui développent l’économie de notre écosystème et créent de la richesse en Europe, qui in fine bénéficie à nos clients et concitoyens. Au-delà des craintes géopolitiques, les entreprises doivent aussi faire des choix responsables pour soutenir l’économie.

Vous allez donc pousser plus loin votre stratégie d’éditeur interne ?
Oui. C’est un choix stratégique d’investir dans des hommes et des femmes qui ont les compétences ou qui peuvent les acquérir. Je préfère payer des salaires, renforcer mes équipes,
plutôt que de payer des licences tous les mois, avec la promesse floue que “ça marche tout seul”. Nous, nous ne sommes pas du tout dans cette logique de “cloud as a service magique”.

Le cloud, c’est de la technologie. Et la technologie, ça tombe en panne. Nous faisons le même métier, avec les mêmes outils. Ils ne sont ni meilleurs, ni moins bons que nous. Je pense qu’il faut vraiment démystifier ça.

Ce que nous essayons de faire, c’est de fonctionner de la même manière, parce qu’il y a beaucoup à apprendre de leurs modèles opérationnels. Une des questions que nous nous posons, c’est : « Est-ce que nous professionnalisons encore plus notre logique d’éditeur en interne ? Avec une équipe qui fabrique les logiciels, une qui les met en production et une qui les opère » On pourrait imaginer aller jusque-là.

Comment abordez-vous le sujet de l’IA générative ? Quels sont les cas d’usage que vous avez identifiés ?
Nous essayons de ne pas nous laisser emporter par la hype même si la médiatisation est très forte, dans un sens comme dans l’autre. Nous avons voulu prendre le sujet à bras-le-corps, comprendre ce que c’était, et surtout voir ce que ça pourrait changer dans nos métiers. Nous avons commencé à travailler il y a plus d’un an. À ce stade, nous avons identifié deux priorités. Notre objectif a été de les expérimenter, puis de commencer à les mettre en production.

Le premier sujet, pas très original, c’est la question du soutien à l’activité, notamment l’accès à la connaissance en langage naturel. Ces cas fonctionnent assez bien, mais ils ne sont pas simples à mettre en œuvre si on veut de la pertinence. Parce que dans toutes les entreprises, nous avons des bases de connaissances de qualité variable, souvent avec beaucoup d’historique qu’on ne nettoie quasiment jamais. Si on embarque tout ça sans tri, l’IA mélange tout et produit des résultats peu fiables.

Donc le gros enjeu de ces premiers cas d’usage, c’est l’investissement dans le toilettage des données. Et quand la donnée est propre, on a de très bons résultats. Aujourd’hui, nous avons déployé ça sur plusieurs métiers via un assistant en langage naturel mis à disposition des utilisateurs. Nous avons deux cas d’usage majeurs en production : l’assistance aux méters de la gestion de sinistres et l’assistance aux utilisateurs de la digital workplace, incluant les informations autour de la migration vers Windows 11.

Par ailleurs, nous fournissons à tous les développeurs qui le souhaitent des licences Copilot pour qu’ils puissent coder avec l’IA et voir ce que ça change au quotidien.
Ce qui est essentiel, c’est de maintenir un dialogue fort entre ce que propose l’IA et les pratiques attendues dans l’entreprise.

Aujourd’hui, les usages sont majoritairement liés au soutien à certains métiers, comme prochainement les équipes juridiques, où l’enjeu est fort, avec beaucoup de documentation et de jurisprudence, donc une forte valeur ajoutée. Au fond, notre objectif est de redonner du temps aux métiers pour qu’ils se recentrent sur leur vraie valeur ajoutée.

Quels sont vos points d’attention ?
Il y a beaucoup de questions sur la dimension énergétique et la consommation des modèles, c’est un sujet auquel nous sommes attentifs et qui prendra tout son sens pour les cas d’usages qui vont trouver leur place pérenne en production.

L’autre gros sujet, c’est l’accompagnement au changement. C’est exactement la même chose qu’on vit dans le grand public : est-ce que vous avez réussi aujourd’hui à ne plus utiliser votre moteur de recherche favori et à commencer d’abord par une IA générative ? Souvent, on se rend compte que nous sommes tellement conditionnés qu’on commence par notre moteur de recherche traditionnel puis on se dit qu’on pourrait quand même essayer l’IA. C’est la même chose dans l’entreprise : nos collègues ont tendance à aller vers leur base de connaissances. L’adoption se fait sur 6 à 12 mois, parce qu’il faut déconstruire des pratiques bien ancrées.
Les produits ne sont pas complexes, mais ils ne sont pas simples à designer. Nous sommes arrivés à la conclusion qu’il fallait vraiment un accompagnement qui vient du terrain, avec les équipes terrain.

Autre sujet : on parle aussi de technologies qui sont moins européennes. Ce qui pose une vraie préoccupation parce qu’il faut interagir avec les clients, sous différentes formes, et cela passe par la culture. La culture européenne, et plus encore la langue française, ne sont pas bien représentées dans les données d’entraînement : 99 % des données utilisées viennent des cultures anglo-saxonnes, avec leurs biais politiques ou idéologiques. Nous voulons donc soutenir et encourager des initiatives pour entraîner des modèles sur la culture européenne et les langues européennes, surtout le français, pour avoir par exemple des courriers qui reprennent nos éléments culturels au lieu d’être de simples traductions Nous y sommes très attentifs.

Photo : © Melanie Chaigneau -MAIF

The post Guillaume Rincé, CTO du Groupe MAIF : « Nous fonctionnons comme un éditeur de logiciels » appeared first on Silicon.fr.

  •