Vue normale

Reçu — 1 décembre 2025

Une sécurité sur mesure pour les infrastructures IA

1 décembre 2025 à 10:47

Le rapport intitulé “The State of Generative AI 2025” édité par Palo Alto Networks le montre : les cas d’usage des IA génératives ont explosé en 2024. Le trafic vers ces services s’est accru de 890 % en 2024 et une grande organisation exploite 66 applications d’IA générative en moyenne, dont 10 % peuvent être qualifiées à haut risque.

Qu’il s’agisse de services de traduction, de synthèse de documents, mais aussi de chatbots, moteurs de recherche et outils dédiés aux développeurs, ces IA sont désormais adoptées dans tous les secteurs d’activité.

Pierre Jacob, DG de Magellan Sécurité.

Sécuriser ces infrastructures présente quelques spécificités. Les IA restent des workloads IT standards avec des conteneurs logiciels qu’il faut protéger, mais les LLM présentent des vulnérabilités intrinsèques à l’apprentissage machine. « Pour les entreprises qui souhaitent réaliser l’entraînement de leurs modèles, il est extrêmement important de sécuriser la chaîne d’alimentation des modèles » explique Pierre Jacob, DG de Magellan Sécurité.

Le consultant estime qu’il est relativement facile d’empoisonner un modèle et introduire des biais importants dans son comportement : « Il ne faut qu’un pourcentage finalement assez faible de données pour faire dérailler un modèle. Il est donc extrêmement important de sécuriser soigneusement les infrastructures d’entraînements. »

La Cyber s’invite dans les infrastructures NVidia

NVidia a pleinement pris conscience des risques pesant sur les IA entraînées et exécutées sur ses infrastructures. Le californien a implémenté des fonctions d’informatique confidentielle sur ses architectures Nvidia Hopper et Blackwell, avec la capacité d’entraîner les IA sur des données chiffrées de bout en bout. De même, les fournisseurs de solution de sécurité sont invités à déployer leurs briques de sécurité sur les infrastructures IA.

Au début de l’été, Crowdstrike annonçait l’intégration de sa plateforme Falcon Cloud Security avec les microservices LLM NIM de NVidia, ainsi qu’à NeMo, sa plateforme de développement d’IA. On retrouve cette même volonté de rapprochement avec Nvidia chez Check Point.

Adrien Merveille, CTO France de Check Point Software

« Nous avons signé un partenariat avec Nvidia pour venir directement dans les GPU qui vont assurer l’apprentissage des moteurs d’IA » explique Adrien Merveille, CTO France de Check Point Software. « Cela va permettre d’appliquer les règles de sécurité à la fois pour segmenter les données d’entraînement, contrôler l’accès par les administrateurs et les manipulations mémoire pour éviter les attaques de type Prompt Injection. »

De même, l’éditeur a intégré à son WAF les protections du Top 10 WASP LLM pour protéger les IA contre les types d’attaques connus. Ce classement référence les 10 types d’attaque les plus fréquents sur les LLM, depuis la Prompt Injection, le Data Poisoning, mais aussi le vol de modèle et les vulnérabilités sur la chaîne d’alimentation en données des modèles en phase d’apprentissage ou en production.

Éric Vedel, CISO de Cisco, rappelle que même des LLM téléchargés sur Hugging Face peuvent avoir été piégés et doivent être vérifiés avant d’être mis en production. Cisco pousse en avant sa solution Cisco AI Defence afin de détecter les vulnérabilités dans les modèles. Celle-ci a été officiellement lancée le 15 janvier 2025, mais elle est issue de l’acquisition de l’éditeur Robust Intelligence quelques mois plus tôt.

Éric Vedel, CISO de Cisco

« Cette éditeur avait déjà mis en place ses moyens de protection chez de très gros clients pour lutter contre le Shadow AI en accroissant la visibilités sur les usage de l’IA en interne, de la détection des vulnérabilités dans les modèles mis en œuvre et la mise en place de garde-fous et contremesures contre ces risques liés à l’IA. Chose unique sur le marché, nous avons embarqué cette offre au sein de notre offre SSE (Secure Access Security Edge). »
Cette solution s’inscrit dans la mouvance des solutions d’AI SPM apparues pour sécuriser les modèles et les données.

Palo Alto Networks a récemment pris position sur ce marché avec une plateforme complète entièrement dédiée aux IA et couvrir tous les risques recensés par l’OWASP : « Pour couvrir l’ensemble de ces risques, nous avons fait le choix de créer une nouvelle plateforme, Prisma AIRS » explique Eric Antibi, directeur technique de Palo Alto Networks. « Celle-ci amène tout un ensemble de solutions conçues pour la sécurité de ces architectures complexes et des risques spécifiques qui pèsent sur la GenAI. »

Eric Antibi, directeur technique de Palo Alto Networks.

La suite intègre un module de Model Scanning pour trouver des vulnérabilités dans les modèles, un module de Posture Management pour identifier tout problème de configuration dans l’architecture. Le module de Red Teaming teste en permanence les modèles pour s’assurer que de nouvelles vulnérabilités ne sont pas apparues à l’occasion de mises à jour, par exemple.

Enfin, des modules assurent la sécurité runtime des IA ainsi que celle des agents intelligents. « Prisma AIRS est une plateforme à part entière, néanmoins, la composante réseau est importante dans la sécurité de ces infrastructures, notamment pour surveiller les échanges entre les datasets et les moteurs de LLM. De ce fait, la console d’administration de notre plateforme Network Security est utilisée, mais cela reste des modules différents. »

Si les solutions d’AI SPM sont encore assez nouvelles et encore peu répandues, les équipes sécurité et IA doivent s’en emparer et commencer à monter en maturité et faire évoluer vers le haut leurs politiques de sécurité vis-à-vis des IA.


Pierre Jacob, DG de Magellan Sécurité : «Ne pas s’arc-bouter sur une position unique. »

« Il faut adapter ses choix de LLM aux usages et aux risques. Il est possible de déployer un LLM ou un SLM sur un poste de travail si le cas d’usage impose d’être en mode déconnecté. Les machines Apple se prêtent assez bien au déploiement de SLM en local par exemple. De même, il ne faut pas rejeter un LLM parce qu’il est dans le Cloud public. Il faut avoir une vision architecture et penser la sécurité by design et être capable de jongler avec les modèles, mettre en place des architectures applicatives à base de microservices capables de consommer ses modèles sans en être dépendantes. »

The post Une sécurité sur mesure pour les infrastructures IA appeared first on Silicon.fr.

Reçu — 24 novembre 2025

Comment le Shadow AI fait exploser le risque de fuite de données

24 novembre 2025 à 11:20

Le baromètre 2025 d’IFOP pour Talan a fait apparaître que 43 % des utilisateurs d’IA génératives le font dans leur cadre professionnel. 52 % des utilisateurs en entreprise sont encouragés à le faire, mais seulement 15 % d’entre eux ont été formés et seulement 9 % des salariés disposent d’outils mis à disposition par leur organisation.

Ne pas s’emparer du sujet va mécaniquement pousser les collaborateurs vers ce que l’on appelle désormais le Shadow AI. Une étude menée au quatrième trimestre 2024 par Harmonic Security analysant les prompts envoyés aux principaux LLM a montré que 45,8 % des requêtes risquaient d’exposer des données clients, notamment liées à la facturation et à leur authentification, et 26,8 % des prompts composaient des données RH liées à la paie, à des identifiants personnels…

Outre un nécessaire effort de sensibilisation et de formation, les RSSI doivent mettre en place des outils pour éviter autant que possible toute fuite de données issue de ces nouveaux usages. Ce phénomène du Shadow AI pose avant tout celui de la visibilité : savoir qui fait quoi dans l’organisation.

Bernard Montel, directeur technique EMEA et stratégiste chez Tenable.

Editeur spécialisé dans la découverte des assets numériques des entreprises, Tenable, a intégré cette problématique de fuite de donnée via les IA : « Notre plateforme couvre deux grands cas d’usages liés à l’IA : d’une part le Shadow AI et ce que l’on appelle l’AI SPM (Security Posture Management) » explique Bernard Montel, directeur technique EMEA et stratégiste chez Tenable. Cette brique vise à évaluer le niveau d’exposition de l’IA dans le Cloud et pour accélérer son développement dans ce domaine, Tenable vient de mener l’acquisition de la société Apex, spécialisée dans ces cas d’usage IA.

 

 

Pour Xavier Daspre, directeur technique de Proofpoint, beaucoup d’entreprises ont ouvert les vannes de l’IA générative et doivent maintenant s’équiper pour savoir si leurs collaborateurs diffusent des informations confidentielles vers ces services.

Xavier Daspre, directeur technique de Proofpoint.

L’éditeur travaille sur 3 vecteurs : la messagerie, son domaine historique, le CASB pour la protection des applications Cloud, et la protection endpoint. « Ces deux derniers vecteurs permettent de couvrir les cas d’usage liés à la GenAI. La solution va analyser les données pour trouver, par exemple, les données à caractère personnel et anonymiser le document. »

Proofpoint a réalisé l’acquisition de Normalyze en octobre 2024 et a mis la main sur sa solution DSPM (Data Security Posture Management). Celle-ci identifie les LLM mis en œuvre par les collaborateurs et analyse en temps réel les données qui transitent vers leurs API.

Le SASE apporte une réponse globale

Venu du CASB, Netskope s’est tout naturellement intéressé à la protection des fuites de données à destination des LLM.

« Au départ, toutes les IA génératives comme ChatGPT, Gemini et Copilot étaient des applications SaaS, or nous disposons déjà des outils nécessaires pour intercepter, inspecter et appliquer des politiques au trafic des applications SaaS » argumente Ray Canzanese, directeur du Netskope Threat Labs. « Nous pouvions donc déjà détecter les menaces et les violations de la politique des données et, par exemple, guider les utilisateurs qui utilisent des solutions d’IA non approuvées vers les solutions approuvées. »

Proofpoint a étendu son offre de Cloud Security Posture Management à l’IA et vient concurrencer les offres dites d’AI-SPM qui commencent à apparaître sur le marché, parmi lesquelles celles de Palo Alto Networks, Tenable ou de Wiz.

—————————–

Adrien Porcheron, General Manager France de Cato Networks

« Il faut tenir compte du chiffrement des données. »

« Nous avons ainsi lancé en début d’année 2 nouvelles fonctionnalités liées à notre module DLP pour répondre aux besoins des clients qui doivent gérer l’adoption de l’IA dans leur organisation. Celles qui ne classifient pas toutes leurs données prennent le risque de voir leurs collaborateurs envoyer des informations confidentielles à destination des IA et exposer des données sensibles au monde extérieur.
Un autre aspect dont il faut tenir compte, c’est le chiffrement des données. Les échanges sur Internet sont maintenant très largement chiffrés or les système de DLP classiques n’ont pas la capacité de faire du déchiffrement TLS  « inline ». Ces flux non analysés constituent un risque majeur, car l’entreprise ne contrôle qu’une petite partie du trafic. Nous faisons ce chiffrement en natif dans la plateforme et nous pouvons contrôler l’ensemble des ressources échangées par l’entreprise avec l’extérieur sans devoir déployer de nouvelles ressources. »

———————————

Ray Canzanese, directeur du Netskope Threat Labs

« À ce jour, nous avons étudié plus de 1 500 applications Gen AI distinctes. »

« Avec notre DSPM, nous disposions de tous les éléments nécessaires pour sécuriser les services d’IA générative lorsqu’ils ont commencé à arriver sur le marché. Nous n’avions qu’un petit delta à développer pour les couvrir. Cela nous a donné une longueur d’avance pour couvrir cet espace de manière exhaustive. Notre base de données CCI (Cloud Confidence Index) référence tous les services SaaS et lorsque toutes ces applications d’intelligence artificielle sont arrivées sur le marché, nous les avons simplement ajoutées.
À ce jour, nous avons étudié plus de 1 500 applications Gen AI distinctes. L’avantage que cela nous donne, c’est que si vous êtes un client de Netskope, vous avez un portail très facile pour voir quelles sont ces applications utilisées par les collaborateurs, comment ils les utilisent, qui les utilise, d’où ils les utilisent. Il est ensuite très facile de mettre en place des contrôles pour limiter ce qu’ils sont capables de faire. Certaines applications peuvent être bloquées, d’autres limitées à un usage privé. »

The post Comment le Shadow AI fait exploser le risque de fuite de données appeared first on Silicon.fr.

Reçu — 13 novembre 2025

Le PRA se réinvente à l’heure du Cloud et de l’automatisation

13 novembre 2025 à 12:01

Si aucun fournisseur d’infrastructure n’est totalement à l’abri d’un feu de datacenter ou d’une catastrophe naturelle majeure, la cyberattaque est aujourd’hui la menace n°1 pour les données. Les sauvegardes sont un moyen de redémarrer le SI… si celles-ci n’ont pas été elles-mêmes détruites par l’attaquant !

« Si les sauvegardes peuvent permettre à une entreprise de repartir, il faut encore que celles-ci soient saines , au risque de repartir sur un PRA déjà infecté. Il est donc aujourd’hui indispensable d’intégrer des solutions de sécurité dans les outils de sauvegarde » explique Maxime Baudout, Manager de l’équipe Infrastructure de Jiliti.

Maxime Baudout, Manager de l’équipe Infrastructure de Jiliti

« On retrouve de plus en plus de fonctions cyber  intégrées dans les outils gérant les PRA. Cela va du chiffrement de bout en bout lors d’un PRA externalisé pour garantir que les données ne seront pas lues par le prestataire, à des outils avancés d’inspection des données. » ajoute-t-il.

Illustration de cette convergence entre outils de sauvegarde et cyber, Acronis qui propose désormais une plateforme MSP multi-tenant, pour assurer la sauvegarde des données et la reprise d’activité, l’activité historique de l’éditeur, mais aussi de la cybersécurité avec la protection de la messagerie, de la protection endpoint avec un EDR, du RMM management et du DLP.

Le Cloud, un coup de jeune pour les PRA

L’autre grande tendance forte qui pousse à la refonte des PRA, c’est bien évidemment le Cloud.

Stéphanie Ledoux, PDG et fondatrice d’Alcyconie.

« Les PRA modernes s’appuient de plus en plus sur des solutions hybrides combinant cloud, automatisation, et orchestration des processus de bascule » explique Stéphanie Ledoux, PDG et fondatrice d’Alcyconie. « L’automatisation des tests, la réplication temps réel des données critiques et l’utilisation de plateformes d’orchestration permettent de réduire le temps de bascule et de simplifier les tests réguliers — une étape encore trop souvent négligée. »

Et d’ajouter qu’une approche modulaire des PRA par service ou par périmètre critique doit faciliter aussi leur actualisation. « Ces technologies transforment le PRA en un processus dynamique et non plus en un simple document figé. »

Outre les ressources internes, il est devenu nécessaire d’intégrer à ces PRA les données stockées sur les infrastructures IaaS, PaaS et même SaaS.

« Un plan de reprise d’activité efficace doit pouvoir s’appliquer à l’ensemble de l’infrastructure informatique, quels que soient les environnements utilisés » résume Richard Cassidy, Field CISO EMEA de Rubrik. « Notre solution prend en charge les infrastructures sur site, les environnements cloud, hybrides et SaaS (tels que Microsoft 365 ou Salesforce). L’organisation des sauvegardes est structurée selon des règles de gouvernance adaptées aux priorités de l’entreprise, ce qui permet d’optimiser les processus de sauvegarde, de limiter les coûts d’exploitation et de moderniser les architectures existantes. »

L’éditeur pointe l’intérêt d’une solution Cloud offrant une gestion centralisée et une automatisation basée sur des règles préétablies. Un moyen aussi de contenir les coûts liés à la mise en œuvre d’un PRA. Cette approche contribue à simplifier les opérations informatiques, en s’affranchissant des contraintes associées à des outils anciens ou à des infrastructures complexes. »

Le stockage Cloud S3 est aujourd’hui totalement supporté par les principaux logiciels de sauvegarde et un PRA 100 % Cloud et managé apparaît comme une solution particulièrement intéressante pour les ETI et PME dont les moyens de sauvegarde ne sont pas toujours très fiables.

———————————————————————

Régis Karakozian, directeur Cloud chez KDDI France.

Régis Karakozian, directeur Cloud chez KDDI France 

« L’analyse d’impact métier est cruciale »

« Avant tout, il est crucial d’opérer une analyse d’impact métier (BIA) pour identifier les services critiques, les priorités de reprise, et les délais tolérables d’interruption (RPO/RTO). Cette étape doit se faire en étroite collaboration avec les directions métier, car un PRA n’est pas qu’une question IT.

La documentation du plan, son automatisation, ainsi que la régularité des tests sont aussi essentielles. Un PRA n’a de valeur que s’il est testé régulièrement (au moins 1 fois par an), maintenu à jour et capable d’être activé rapidement. Il faut également prévoir une communication de crise, incluant les parties prenantes internes et externes. »

————————————————————————

Maxime Baudout, Manager de l’équipe Infrastructure de Jiliti

Maxime Baudout, Manager de l’équipe Infrastructure de Jiliti

« L’automatisation permet d’orchestrer un PRA de bout en bout.»

« Les nouvelles technologies ont fait fortement évoluer la gestion des PRA. L’évolution la plus intéressante est pour moi l’automatisation qui permet d’orchestrer un PRA de bout en bout. Cela permet de tester beaucoup plus facilement son PRA et de limiter les erreurs humaines. »

« Le second point clé est l’utilisation du Cloud et de l’hybridation. Il est maintenant facile d’avoir sa production On-Premise et son PRA dans le cloud, ou son infrastructure cloud et le PRA dans un autre Cloud. Cela permet de simplifier grandement les besoins en infrastructure et de limiter les investissements tout en répondant aux exigences réglementaires qui imposent d’avoir son PRA dans un environnement isolé de la production ou distant de X kilomètres. »

—————————————————————————–

Stéphanie Ledoux, PDG et fondatrice d’Alcyconie.

Stéphanie Ledoux, PDG et fondatrice d’Alcyconie

« Externaliser la solution ne doit jamais signifier externaliser la responsabilité de la continuité.»

« Un PRA 100% Cloud, 100% managé peut être pertinent, à condition de bien maîtriser les risques associés. Le cloud managé apporte agilité, scalabilité et externalisation des contraintes techniques. Mais attention aux dépendances critiques, à la localisation des données, à la conformité réglementaire et à la capacité réelle du fournisseur à garantir la disponibilité en cas de crise. Le tout managé ne dispense pas de conserver la gouvernance, le pilotage des tests et la maîtrise des scénarios. »

The post Le PRA se réinvente à l’heure du Cloud et de l’automatisation appeared first on Silicon.fr.

Reçu — 3 novembre 2025

La cyber bouscule le marché du SD-WAN

3 novembre 2025 à 15:17

En quelques années, l’architecture des systèmes d’information a été totalement bousculée. Le SI 100 % privé sécurisé de manière périmètrique a fait place à un écosystème informatique hybride et ouvert. Les collaborateurs y accèdent tant dans les bureaux que depuis leur domicile, tant depuis le laptop de l’entreprise que depuis une tablette ou leur smartphone personnel.

De facto, le rôle du WAN n’est plus d’interconnecter les sites de l’entreprise les uns aux autres, mais de connecter toutes ces ressources, quelle qu’en soit la nature.

Bastien Aerni, vice-president, Strategy & Technology Adoption chez le fournisseur de réseaux managés GTT

Bastien Aerni, Vice President, Strategy & Technology Adoption chez le fournisseur de réseaux managés GTT souligne : « Alors que remplacer MPLS était souvent un point de départ, aujourd’hui, l’adoption du SD-WAN répond à des ambitions plus larges de la part des entreprises. Les grandes organisations recherchent des solutions qui vont au-delà de la “simple” connectivité. Elles recherchent des plateformes capables d’orchestrer les performances, d’intégrer la sécurité et de s’aligner sur les priorités métier. »

Les SD-WAN remplacent peu à peu les liens réseau statiques avec, outre l’atout du coût comparé aux liens MPLS, la capacité à délivrer bien plus de services additionnels, c’est ce que l’on appelle le SASE (Secure Access Service Edge). Le fournisseur délivre la connectivité dans une approche Network as a Service, un service de CDN, de l’optimisation WAN, mais aussi des services de sécurité exécutés dans son Cloud et/ou sur son routeur.

Parmi ces services du CASB, du SWG Cloud, du ZTNA/VPN ou encore du Firewall as a Service. SASE marque une tendance forte vers la consolidation des fonctions réseau et sécurité. Une étude du Gartner de 2024 souligne que d’ici 2027, 65 % des nouveaux contrats de SD-WAN iront vers les offres unifiées SASE délivrées par un seul acteur, contre 20 % actuellement.

Adrien Porcheron, est directeur France de Cato Networks

Adrien Porcheron, directeur France de Cato Networks explique cette évolution : « L’objectif n’est plus seulement d’acheminer le trafic de manière efficace, mais aussi de garantir un accès sécurisé, homogène et maîtrisé aux applications et aux données, quel que soit le contexte d’utilisation. »

Ce pure player du SASE milite pour une offre totalement intégrée, avec une centralisation des fonctions de protection dans une plateforme unique, ce qui évite la multiplication d’équipements physiques ou de briques logicielles hétérogènes.

Outre les mises à jour automatiques, cette centralisation facilite la cohérence des règles, la montée en charge et l’automatisation de certaines fonctions, notamment grâce à l’intelligence artificielle. « L’ensemble du trafic, qu’il soit local, internet ou cloud, est traité dans un même cadre, ce qui améliore la visibilité et réduit les angles morts. Les règles de sécurité sont appliquées de façon homogène, indépendamment de la localisation ou du profil de l’utilisateur. »

Cap sur les ETI !

Les opérateurs réseau ne peuvent rester en marge de cette évolution. Ainsi, Deutsche Telekom s’est allié récemment à Juniper pour proposer une solution SD-WAN aux PME et ETI.

La solution proposée met en œuvre la plateforme Juniper Mist du californien et son IA de surveillance temps réel du réseau et des applications. L’offre est positionnée à partir de 3 sites seulement. En France, Orange s’est tourné vers Palo Alto Networks dès 2023 pour proposer des services SASE.

Alexandre Souillé est le président d’Olfeo.

Autre illustration de ce mouvement, le rapprochement entre Ekinops, fournisseur français de solutions de télécommunications qui a réalisé il y a quelques semaines l’acquisition de l’éditeur de solutions de sécurité Olfeo.
« Ekinops maîtrise l’ensemble de la partie réseau incluant bien entendu la partie SD-WAN » explique Alexandre Souillé, président d’Olfeo. « Ses solutions sont reconnues, ouvertes, fiables et déjà déployées à grande échelle chez des opérateurs et des entreprises à l’échelle internationale. Olfeo vient donc compléter cette architecture avec une brique SSE complète qui inclut les produits Secure Web Gateway, CASB et DLP. »

La cible des deux partenaires est essentiellement les ETI, mais aussi les organisations publiques ou sensibles, soumises à de fortes contraintes réglementaires (santé, éducation, défense, collectivités, énergie…) et les grosses PME multi-sites. L’origine européenne des deux partenaires place cette offre en bonne position sur les appels d’offres qui privilégient les solutions souveraines, ce qui n’est pas le cas de celles opérées par les grands acteurs de la cyber américaine.

The post La cyber bouscule le marché du SD-WAN appeared first on Silicon.fr.

Reçu — 28 octobre 2025

La gestion des identités se replace au cœur du dispositif cyber

28 octobre 2025 à 17:00

Avec l’essor des architectures cloud hybrides, jamais la surface d’attaque n’a été aussi grande. Cette évolution pousse les RSSI à adapter les moyens de protection, mais aussi la DSI à revoir la façon dont sont gérées les identités dans l’entreprise, qu’il s’agisse des identités des utilisateurs, des clients, mais aussi des machines.

25 milliards $, c’est la somme record que le généraliste de la cybersécurité Palo Alto Networks va mettre sur la table pour prendre le contrôle de CyberArk, un expert de la gestion des identités. Cette acquisition montre l’importance prise par les identités sans la sécurisation de systèmes d’information de plus en plus hybridés avec le Cloud public. L’identité est la clé de voûte de ces architectures.

Jean-Christophe Vitu, vice-president et Solutions Engineer EMEA de CyberArk © DR

« L’offre de CyberArk se distingue par son approche holistique de la gestion des identités, couvrant non seulement la gestion des accès privilégiés mais aussi toutes les facettes de la gestion des identités, humaines et non humaines. Nous sommes un acteur capable de gérer des environnements complexes à grande échelle, contrairement à des concurrents qui peuvent être plus spécialisés ou moins évolutifs. » détaille Jean-Christophe Vitu, vice-president et solutions engineer EMEA de CyberArk.

Le renouvellement des solutions « legacy » est lancé

Ce point d’inflexion va s’accompagner d’un renouvellement des plateformes de gestion d’identité déployées à grand peine dans les années 2010.

Allan Camps, Senior Enterprise Account Executive chez Keeper Security © DR

« De nombreux systèmes hérités n’ont tout simplement pas été conçus pour la façon dont les gens travaillent aujourd’hui » estime Allan Camps, Senior Enterprise Account Executive chez Keeper Security, éditeur d’une solution de gestion de mots de passe et de PAM : « Les entreprises doivent composer avec des environnements cloud, des équipes hybrides et un nombre croissant de terminaux. Les outils sur site manquent souvent de la flexibilité et de la visibilité dont les organisations modernes ont besoin, sans parler des fonctionnalités de sécurité nécessaires pour faire face au paysage dynamique des menaces actuelles. »

Les anciennes solutions d’IAM (Identity and Access Management) non conçues pour le Cloud vont laisser la place à des solutions SaaS natives, ce qui va booster ce marché dans les années à venir.

Gilles Casteran, CEO et cofondateur de Memority © DR

Le français Memority s’inscrit dans cette nouvelle génération de plateformes avec ce que l’éditeur appelle une Identity Factory : « Il s’agit d’une solution unifiée permettant d’automatiser et d’orchestrer toutes les typologies d’identités et contrôler les accès de manière sécurisée, fluide et conforme » argumente Gilles Casteran, CEO et cofondateur de Memority.

La plateforme Memority gère les identités et les habilitations et permet d’authentifier et de contrôler l’accès à l’ensemble des services, quels que soient les cas d’usage et le type de population (B2E, B2B, B2C et B2IoT).

La montée en puissance des identités non-humaines

Un autre levier de renouvellement des plateformes IAM historiques consiste à faire face aux NHI, les Non-Human Identity. Jean-Christophe Vitu explique : « Les identités machines sont aujourd’hui 82 fois nombreuses que les identités humaines au sein des entreprises, or ces identités sont encore mal connues et non contrôlées. 42 % d’entre elles disposent d’un accès sensible ou à privilèges et 77 % des entreprises n’ont pas mis en place de contrôles de sécurité de ces identités. »

Frédéric Cluzeau, président de Hermitage Solutions © DR

Ces NHI sont d’ores et déjà critiques de par les privilèges qui leur sont octroyés et l’arrivée des IA agentiques ne fera que rendre leur importance capitale pour le fonctionnement quotidien des entreprises. Frédéric Cluzeau, président de Hermitage Solutions rejoint Jean-Christophe Vitu sur ce point : « Ces NHI, qu’il s’agisse de comptes de services, des clés APIs, d’agents IA et de containers peuvent disposer de droits d’accès et de privilèges très importants sur les données, sans être forcément contrôlées aussi strictement que les identités correspondant à des utilisateurs. » Le distributeur pousse la plateforme Segura une solution de gestion des identités qui a pu démontrer l’efficacité de sa plateforme lors de l’exercice Locked Shields de l’OTAN.

Parmi les grandes tendances qui poussent au remplacement des plateformes de gestion des identités figurent ces identités non humaines, la tendance à la plateformisation et bien entendu l’IA qui a un rôle à jouer, notamment pour détecter les comportements atypiques et aller vers une sécurisation plus proactive des accès et des privilèges.

The post La gestion des identités se replace au cœur du dispositif cyber appeared first on Silicon.fr.

Reçu — 23 octobre 2025

L'IA NE VA PAS NOUS REMPLACER : ELLE VA NOUS EXPLOITER - Corporate - Blast - YouTube

23 octobre 2025 à 11:02

Un excellent épisode de rentrée de l'émission Corporate de Blast !

Je note en particulier deux citations qui m'ont marqué :

Dans La comédie humaine du travail - Danièle Linhart, à propos des ouvriers qui ne voulaient pas initialement s'épuiser au travail pour atteindre une "productivité maximale", et de la stratégie de Taylor (= le taylorisme) :

Sa grande idée, c'est d'interposer un discours faussement scientifique entre les ouvriers et leurs patrons pour faire croire aux travailleurs que leur attitude est déraisonnable.

Et aussi à ce propos, Pierre Naville, sociologue :

Le capital a réussi à faire du progrès technique une idéologie qui masque les procédures nouvelles par lesquelles il poursuit l'exploitation des masses salariées.


Permalien
Reçu — 22 octobre 2025

Quand les ouvriers deviennent patrons | Reportage 2025 | ARTE Regards - YouTube

22 octobre 2025 à 17:13

Dans la Meuse, à Bar-le-Duc, des dizaines de salariés de l’entreprise Bergère de France ont pris le pari de sauver leur société, une des dernières filatures industrielles de France, en la reprenant sous la forme d’une coopérative, une Scop. Avec cette aventure collective, ces employés espèrent sauver leur emploi et un savoir-faire industriel en devenant leur propre patron.


Permalien
Reçu — 20 octobre 2025

La sécurité des IA agentiques pose question

20 octobre 2025 à 14:28

Gartner évoquait un marché devant passer de 5,1 milliards $ en 2024 à 47,1 milliards en 2030… Déjà, Visa et Mastercard proposent des solutions de commerce agentique pour permettre à des agents de réaliser des achats en ligne…

Cette nouvelle approche pose d’évidentes questions de cybersécurité. Si un attaquant venait à prendre le contrôle d’un agent autonome, il pourrait déstabiliser le fonctionnement interne d’une entreprise et, s’il s’agit d’un agent orienté B2C avoir accès aux données personnelles des clients ou vider le compte en banque des clients.

Lors du salon In Cyber 2025, Proofpoint a présenté une interaction entre deux agents sécurisée via sa solution. Xavier Daspre, Directeur technique France de l’éditeur Proofpoint explique son approche : « Les deux agents sont traités comme des postes de travail qui se connectent par échange d’email ou surtout par API vers des services Cloud public. Pour nous, l’approche reste la même. Pour l’instant, le comportement des agents est plus cadré et beaucoup plus facilement discernable, mais cela va être amené à évoluer. Dans les cas d’usage actuels, nos solutions sont déjà prêtes à protéger ce cas d’usage un peu particulier. »

Le côté obscur des agents

Les fournisseurs de services anti-DDoS sont habitués à gérer des bots depuis des années. Ils développent des algorithmes et entraînent des modèles de Machine Learning pour trier le trafic généré par les humains de celui des bots légitimes et des bots illicites.

Pour Sébastien Talha, Directeur régional des ventes de Human Security, les agents sont déjà massivement exploités par les attaquants : « 80 % des attaques utilisent aujourd’hui des robots, car les attaquants ont besoin d’agir à grande échelle » explique le responsable. « L’intervention humaine n’arrive qu’en fin d’attaque, lorsque l’attaquant a besoin de réaliser des opérations complexes. On imagine qu’avec l’IA agentique, cela va disparaître. »

Face aux bots basés sur l’IA, les mécanismes du type mesure de la vitesse de l’utilisateur au clavier, mouvements de la souris ou modèles de navigation pour détecter s’il s’agit d’un humain ou d’un robot ne seront plus suffisants. « L’attaquant peut simuler la vitesse de frappe, enregistrer des déplacements de souris et les rejouer automatiquement. »

Human Security a créé plus de 350 modèles de Machine Learning pour déjouer les attaques par bot et son capteur collecte plus de 2 500 paramètres techniques sur l’utilisateur liés à son réseau, son terminal et son comportement. Il va devoir adapter son approche pour faire face à l’arrivée d’IA agentiques « légitimes ».

MCP,  pilier de la sécurisation

Son concurrent français DataDome mise beaucoup sur l’analyse comportementale pour détecter une fraude lors d’une session, en complément des paramètres techniques comme l’adresse IP, la géolocalisation, le type de terminal. « Dans les aspects comportementaux, on analyse les mouvements de souris, si le comportement, les requêtes et le cheminement de navigation dans la session ne correspond pas au comportement habituel de l’utilisateur sur le site ou l’application » explique Benjamin Barrier, Chief Strategic Officer et cofondateur de DataDome.

« Le comportemental permettra de détecter les IA illégitimes et les IA agentiques qui ont « pignon sur rue », notamment Operator d’OpenAI, mettent en œuvre des protocoles tels que MCP pour nous permettre une authentification forte des agents. C’est la combinaison de ces deux approches qui vont permettre d’atteindre une protection efficace de ces IA agentiques. »

Le prestataire a déjà commencé le référencement des opérateurs d’IA agentiques qui ont pignon sur rue, et travaille sur le protocole MCP (Model Context Protocol) pour sécuriser les échanges. Ce protocole est amené à prendre de plus en plus d’importance dans la sécurisation des IA agentiques, car c’est lui qui permet d’interagir avec l’agent, lui passer des paramètres, que ce soit d’une application vers un LLM, ou d’agent à agent.

Les meilleures pratiques de MCP recommandent l’utilisation de TLS pour les connexions distantes, une validation de tous les messages entrants, la protection des ressources, notamment avec du contrôle d’accès et une gestion stricte des erreurs

The post La sécurité des IA agentiques pose question appeared first on Silicon.fr.

Reçu — 17 octobre 2025

Iris Galerie prend ses clients pour des pigeons ! (enquête) - YouTube

17 octobre 2025 à 11:07

G Milgram vient de diffuser un complément d'enquête très intéressant quelques jours après la diffusion de la 1ère vidéo à ce sujet : Iris Galerie supprime TOUT et le patron répond (c'est lunaire) 😶

J'ai trouvé en particulier très intéressant (et un peu rassurant) le soutien des employés d'Iris Galerie, qui sont indignés de cette manipulation et tout à fait critiques des injonctions et du management de leur direction.

Il faut aussi saluer les journalistes de l'Express qui ont relayé et poursuivi cette enquête.


Permalien
Reçu — 24 septembre 2025

SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence

22 septembre 2025 à 22:00

De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel  » as a service » a essaimé dans toutes les verticales applicatives.

Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?

L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.

Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.

Quatre scénarios économiques pour un nouveau SaaS

L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.

1. L’IA améliore le SaaS

Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.

2. La compression des dépenses

Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques

3. L’IA éclipse le SaaS

Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).

4. L’IA cannibalise le SaaS

Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.

L’émergence d’une nouvelle architecture de valeur

Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.

> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.

> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.

> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.

L’enjeu stratégique des standards sémantiques

Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».

Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.

Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.

Comment préserver la création de valeur

Face à ces transformations, Bain formule cinq recommandations économiques clés.

> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.

> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.

> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.

> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.

> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.

Obsolescence optionnelle, disruption obligatoire

La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.

Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.

Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.

The post SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence appeared first on Silicon.fr.

SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence

22 septembre 2025 à 22:00

De 250 à 400 milliards $ annuel, c’est l’estimation du marché mondial du SaaS selon les sources et le périmètre considéré. Porté par l’essor des infratrustures cloudifiées, le logiciel  » as a service » a essaimé dans toutes les verticales applicatives.

Dans l’édition 2025 de son Technology Report, Bain & Company consacre une analyse sur la manière dont l’intelligence artificielle générative et agentique redessine les contours économiques de ce secteur stratégique. Une mutation technologique quin pose une question fondamentale : assisterons-nous à une expansion du marché ou à une cannibalisation destructrice de valeur ?

L’évolution des coûts des modèles d’IA est le premier indicateur d’une disruption économique. Le modèle de raisonnement d’OpenAI (o3) a vu son coût chuter de 80% en seulement deux mois. Une baisse drastique des coûts, combinée à une amélioration continue de la précision, qui redéfinit l’équation économique du secteur.

Dans un horizon de trois ans, Bain prédit que toute tâche numérique routinière et basée sur des règles pourrait migrer du modèle traditionnel « humain + application » vers « agent IA + interface de programmation (API) ». Cette transition représente un changement majeur dans la création et la capture de valeur économique. Et donc un enjeu vital pour les éditeurs de SaaS.

Quatre scénarios économiques pour un nouveau SaaS

L’analyse de Bain identifie quatre trajectoires économiques distinctes selon le potentiel d’automatisation des tâches utilisateurs et la capacité de pénétration de l’IA dans les flux de travail.

1. L’IA améliore le SaaS

Dans le scénario « AI enhances SaaS », les éditeurs historiques conservent leur avantage concurrentiel. Ces segments sont caractérisés par une faible automatisation et une faible pénétration IA. Les flux reposent sur le jugement humain, une surveillance stricte et des connaissances de domaine profondes (ex : la comptabilité des coûts de projet de Procore ou la randomisation d’essais cliniques de Medidata). Dans ce cas, les éditeurs utilisent l’IA pour augmenter la productivité, protéger les données uniques qui différencient l’offre, et tarifer les économies de temps à un prix supérieur.

2. La compression des dépenses

Le scénario « spending compresses » expose les acteurs établis à de nouveaux risques économiques. Le rôle humain subsiste, mais des agents tiers peuvent se connecter aux API et siphonner la valeur (ex : la création de listes HubSpot ou les tableaux de tâches sur Monday.com). Dans ce scénario, les éditeurs doivent lancer rapidement leurs propres agents, approfondir les intégrations partenaires pour augmenter les coûts de switching, et limiter l’accès aux points d’extrémité critiques

3. L’IA éclipse le SaaS

Dans les « gold mines » où l’IA surpasse le SaaS traditionnel, les entreprises bénéficient d’une avance grâce à des données et des règles exclusives permettant une automatisation complète (ex : l’éditeur de code IA de Cursor). La stratégie des éditeurs sera de construire des solutions avec des agents de bout en bout, former les équipes de vente à vendre des résultats commerciaux, et passer d’une tarification par utilisateur (seat-based) à une tarification basée sur les résultats (outcome-based).

4. L’IA cannibalise le SaaS

Ce sont les champs de bataille (battlegrounds). Les tâches sont faciles à automatiser et à copier (ex : support de niveau 1 d’Intercom, approbation des factures Tipalti, ou approbation des entrées de temps d’ADP). Dans ce scénario, il s’agit de remplacer proactivement l’activité SaaS par l’IA. L’éditeur doit choisir entre devenir la plateforme d’agents neutre ou fournir la donnée unique qui l’alimente. Les gagnants seront ceux qui maîtriseront le mieux l’orchestration des agents.

L’émergence d’une nouvelle architecture de valeur

Selon Bain, on assiste à une restructuration fondamentale de la chaîne de valeur SaaS autour d’une architecture à trois niveaux.

> Les systèmes d’enregistrement forment la base, stockant les données business critiques et gérant les accès. Leur avantage économique réside dans des structures de données uniques et des logiques réglementaires coûteuses à répliquer.

> Les systèmes d’exploitation d’agents orchestrent le travail effectif, planifiant les tâches et invoquant les outils appropriés. L’avantage concurrentiel actuel provient de la rareté des GPU et des chaînes d’outils propriétaires.

> Les interfaces de résultats traduisent les demandes en langage naturel en actions d’agents. Leur pouvoir économique découle de leur intégration dans les routines quotidiennes et de la confiance utilisateur.

L’enjeu stratégique des standards sémantiques

Un élément crucial de l’analyse concerne l’émergence de standards de communication inter-agents. Les protocoles comme MCP d’Anthropic et A2A de Google tentent de standardiser les échanges, créant des dynamiques d’effets de réseau avec des points de bascule rapides et des logiques « winner takes most ».

Bain identifie un enjeu économique majeur : le premier standard sémantique capable d’établir un vocabulaire partagé à l’échelle industrielle pourrait redéfinir l’écosystème IA et diriger une vague significative de création de valeur.

Pour les éditeurs SaaS établis, c’est une opportunité unique de leadership mais elle nécessite de faire des paris stratégiques à haut risque, notamment l’open-sourcing sélectif et l’évolution des modèles de monétisation.

Comment préserver la création de valeur

Face à ces transformations, Bain formule cinq recommandations économiques clés.

> Centraliser l’IA dans la roadmap produit en identifiant les tâches répétitives automatisables et en implémentant des solutions avant que les clients ne cherchent ailleurs. L’objectif : transformer le produit en expérience « faites-le pour moi » avec un ROI démontrable.

> Transformer les données uniques en avantage concurrentiel durable, car si les modèles comme GPT-4o sont ubiquitaires, la valeur réside dans les données propriétaires : patterns d’usage, contenu spécialisé, historique transactionnel.

> Repenser la tarification pour un monde IA-first en abandonnant progressivement les modèles par utilisateur au profit de tarifications basées sur les résultats : tâches accomplies, tickets résolus, outputs IA générés.

> Développer la maîtrise IA à travers l’organisation en faisant de l’IA une capacité centrale plutôt qu’un projet annexe, nécessitant des talents spécialisés et une culture d’innovation.

> Façonner l’écosystème des standards en standardisant les définitions d’objets clés au sein de sa plateforme et en publiant sélectivement des schémas où l’entreprise excelle déjà.

Obsolescence optionnelle, disruption obligatoire

La conclusion de Bain tient en un paradoxe économique saisissant : si la disruption par l’IA est inévitable dans le secteur SaaS, l’obsolescence reste optionnelle. Cette disruption créera tantôt une expansion du marché, tantôt sa commoditisation, favorisant selon les cas les éditeurs historiques ou les nouveaux entrants.

Le message économique est clair : les leaders actuels du SaaS peuvent façonner l’avenir plutôt que le subir, à condition d’adapter leurs investissements et leur stratégie au contexte spécifique de chaque flux de travail, de s’ancrer aux nouvelles couches plateforme, et d’investir dans les lacunes sémantiques affectant leurs développeurs.

Dans cette course à la transformation, la vitesse d’exécution et la justesse des paris stratégiques détermineront qui écrira le prochain chapitre de l’économie SaaS avant que les concurrents ne s’en chargent.

The post SaaS vs IA agentique : 4 scénarios pour éviter l’obsolescence appeared first on Silicon.fr.

Reçu — 23 juillet 2025

Le ripoux du Darknet : épisode du podcast Accros des écrans | France Culture

23 juillet 2025 à 17:18

Christophe, officier de police judiciaire, est recruté comme brigadier à la DGSI. Pendant plusieurs mois, il revend des informations confidentielles sur le darkweb. Enquêteur de police le jour et délinquant la nuit, il raconte cette double vie qui l'a mené en prison.

Passionnante histoire.


Permalien
❌