Vue normale

popEVE : l’IA qui révolutionne le diagnostic des maladies génétiques rares

24 novembre 2025 à 14:23

Les maladies génétiques rares touchent des centaines de millions de personnes dans le monde, mais nombre d’entre elles ne reçoivent jamais de diagnostic précis.

Une équipe de scientifiques du Centre de Régulation Génomique de Barcelone et de la Harvard Medical School vient de franchir une étape décisive avec la création de popEVE, un modèle d’intelligence artificielle capable de détecter si une mutation génétique inconnue est susceptible de causer une maladie.

Une technologie basée sur l’évolution

Publiée dans la revue Nature, cette innovation s’appuie sur des données évolutives provenant de centaines de milliers d’espèces, principalement animales. Le modèle analyse comment les modifications génétiques affectent les instructions données au corps pour produire les protéines, ces éléments fondamentaux du vivant.

« Il existe de nombreuses façons dont des variants génétiques uniques peuvent provoquer des maladies, et pour ce très grand nombre de patients, il y a souvent une terrible pénurie d’informations. », explique Jonathan Frazer, chercheur au Centre de Régulation Génomique de Barcelone. «  Il est difficile de diagnostiquer la maladie, difficile de comprendre comment la traiter. Nous espérons avoir fourni un nouvel outil très général pour guider ce processus.»

Des résultats impressionnants

Les scientifiques se sont concentrés sur les mutations « faux-sens », des changements qui entraînent la substitution d’un seul acide aminé, la sous-unité de base des protéines. En examinant la diversité évolutive des séquences génétiques chez différentes espèces, ils ont pu évaluer si certaines mutations étaient probablement nocives : si des changements génétiques sont absents des archives, cela peut signifier qu’ils sont destructeurs, les organismes qui en souffraient ayant eu de faibles perspectives de survie.

Ces données ont été combinées avec les informations de la UK Biobank et des bases de données génétiques humaines gnomAD, permettant de calibrer les observations animales avec ce que les humains en bonne santé peuvent tolérer comme mutations.

Le test décisif a été mené sur des données génétiques provenant de 31 000 familles dont les enfants souffraient de troubles développement sévères. Dans 513 cas où les jeunes présentaient une mutation génétique complètement nouvelle, popEVE a correctement identifié celle-ci comme le variant le plus dommageable dans leur organisme dans 98% des cas.

Un avantage sur la concurrence

Le modèle a également révélé 123 gènes, souvent actifs dans le cerveau en développement et interagissant physiquement avec des protéines connues pour causer des maladies, mais jamais auparavant liés à des troubles développementaux.

Selon les chercheurs, popEVE surpasse les modèles développés par Google DeepMind, notamment AlphaMissense, tant pour prédire la gravité des maladies que pour s’adapter aux populations d’ascendances non européennes.

Un outil accessible pour tous

Autre atout majeur : popEVE ne nécessite pas de grandes quantités d’énergie pour fonctionner, ce qui le rend particulièrement adapté aux pays à revenus faibles et intermédiaires. Le modèle a déjà été utilisé avec succès sur des patients au Sénégal, notamment pour traiter un patient souffrant d’atrophie musculaire grâce à un supplément en vitamine B2.

« Ce dernier travail permettra une application évolutive à chaque gène », souligne Damian Smedley, professeur de génomique computationnelle à la Queen Mary University de Londres.
« Être capable d’évaluer systématiquement l’impact de tous les variants dans le génome d’un patient est essentiel pour tenir pleinement la promesse du séquençage génomique dans les soins de santé.»

popEVE représente une extension significative des capacités du modèle EVE original, développé en 2021, et sera particulièrement utile pour les patients dont les échantillons génétiques parentaux ne sont pas disponibles. Cette avancée ouvre la voie à un diagnostic plus rapide et plus précis pour des millions de patients souffrant de maladies rares à travers le monde.

The post popEVE : l’IA qui révolutionne le diagnostic des maladies génétiques rares appeared first on Silicon.fr.

{ Tribune Expert } – Comment préparer les agents IA de demain

24 novembre 2025 à 11:33

Les agents d’IA sont en train de redéfinir les modes d’action de l’intelligence artificielle. À la différence des modèles de langage traditionnels, qui sont entraînés sur des ensembles de données statiques, les systèmes agentiques sont dotés de capacités autonomes de navigation, de raisonnement et d’exécution des tâches. Cela leur permet de collecter des données en temps réel, de déclencher des workflows ou de prendre des décisions contextualisées.

Cette évolution de la connaissance vers l’action offre une agilité sans précédent, mais s’accompagne néanmoins de risques complexes.

Une surface d’exposition aux risques élargie

Chaque nouvelle capacité qui permet à un agent d’exécuter une tâche, comme accéder à des données, exécuter des commandes ou s’intégrer avec une API externe, apporte son lot de vulnérabilités potentielles. Car, si l’autonomie s’accompagne d’avantages indiscutables, elle rend la technologie imprévisible. Or, dans le domaine de la sécurité des entreprises, l’absence de prévisibilité est l’ennemi numéro un.

Selon le cabinet Gartner, l’IA agentique représente la principale tendance technologique en 2025 et, selon les prédictions, 33 % des applications d’entreprise disposeront de capacités agentiques sous une forme ou une autre d’ici 2028, alors que cette proportion n’atteignait que 1 % en 2024.

La plupart des vulnérabilités ne viennent pas des modèles d’IA eux-mêmes, mais de la manière dont ceux-ci sont configurés et intégrés par des êtres humains, ou encore des permissions qui leur sont accordées. Les agents qui disposent d’autorisations trop étendues, les API avec un périmètre mal défini et des droits de navigation non contrôlés peuvent amener des agents à exposer par inadvertance des données sensibles ou à déclencher des actions non sécurisées.

Les mécanismes d’authentification traditionnels n’ont pas été conçus pour gérer des interactions entre agents ou entre les agents et les données, ce qui met en évidence la nécessité de définir des standards adaptables qui tiennent compte du contexte, à l’image de la norme ISO 42001.

Pour une autonomie maîtrisée

Pour les entreprises, il ne s’agit plus de se demander si elles sont en mesure de concevoir un agent pour réaliser un objectif donné, mais s’il s’agit véritablement d’une bonne idée.

Tous les workflows n’ont pas besoin d’être autonomes. De nombreux processus d’entreprise sont fondés sur des règles, répétables et auditables, mieux gérés par des automatisations structurées. Les systèmes agentiques, eux, concrétisent leur plein potentiel au sein d’environnements dynamiques dont le contexte évolue rapidement.

Toutefois, le déploiement responsable de tels systèmes nécessite de faire preuve de retenue, d’avoir clairement défini ses objectifs et de disposer d’un socle sécurisé. La sécurité commence par l’application du principe du moindre privilège : les agents doivent uniquement avoir accès à ce dont ils ont besoin et seulement pour la durée nécessaire.

Au fil du temps, les agents peuvent être confrontés à une accumulation des permissions. Des vérifications automatisées régulières, associées à l’analyse comportementale destinée à détecter les anomalies, comme des appels API inattendus ou des activités inhabituelles sur les fichiers, permettent de prévenir ces risques.

Au-delà du contrôle des accès, les intégrations elles-mêmes doivent être sécurisées afin de se prémunir contre les attaques de type prompt injection ou contre l’exécution de scripts malveillants.

Une gouvernance adaptée à un système en constante évolution

Contrairement aux modèles statiques, les systèmes agentiques interagissent en direct avec des données qui évoluent en permanence. Cela soulève la question de la mise en conformité en temps réel, selon laquelle la suppression ou l’anonymisation des données doit pouvoir se conformer dynamiquement aux réglementations en vigueur en matière de confidentialité, à l’image du RGPD. Toutefois, sans traçabilité, la flexibilité n’est rien. Chaque interaction avec les données doit être notée dans des journaux, monitorée et justifiée.

Dans ce contexte, la gouvernance doit être à la fois continue, adaptable et évoluer en fonction de chaque nouvelle interaction et de l’émergence de nouveaux risques.

Garder l’humain impliqué

Sachant que les entreprises intègrent des agents d’IA de plus en plus profondément au cœur de leur fonctionnement opérationnel, la supervision humaine reste indispensable. L’automatisation permet de gagner en scalabilité, en rapidité et en cohérence, mais pour gérer les cas inédits ou ambigus, les analystes humains sont dotés d’une pensée critique, d’un raisonnement éthique et d’une conscience contextuelle que les machines sont incapables d’imiter.

Les architectures les plus robustes associent des audits automatisés, garants de la cohérence, à des audits humains, qui apportent le discernement nécessaire. Ensemble, ces deux niveaux de contrôle assurent des systèmes non seulement autonomes, mais aussi véritablement responsables.

Montrer la voie à suivre

L’IA agentique est destinée à devenir l’une des pierres angulaires des infrastructures d’entreprise et sa capacité à concrétiser ses promesses repose pleinement sur le fait qu’elle soit conçue et déployée de manière responsable. Afin de garantir l’avenir des agents d’IA, il est indispensable de mettre en place une autonomie maîtrisée, intégrer une sécurité centrée sur l’identité (identity-first security), et s’assurer que la gouvernance évolue en même temps que les capacités.

Les agents d’IA de demain ne seront pas jugés sur ce qu’ils sont capables de faire, mais sur leur niveau de sécurisation, leur prévisibilité et leur fiabilité dans un cadre défini par des êtres humains.

* Shobana Sruthi Mohan est Enterprise analyst chez ManageEngine

The post { Tribune Expert } – Comment préparer les agents IA de demain appeared first on Silicon.fr.

Comment le Shadow AI fait exploser le risque de fuite de données

24 novembre 2025 à 11:20

Le baromètre 2025 d’IFOP pour Talan a fait apparaître que 43 % des utilisateurs d’IA génératives le font dans leur cadre professionnel. 52 % des utilisateurs en entreprise sont encouragés à le faire, mais seulement 15 % d’entre eux ont été formés et seulement 9 % des salariés disposent d’outils mis à disposition par leur organisation.

Ne pas s’emparer du sujet va mécaniquement pousser les collaborateurs vers ce que l’on appelle désormais le Shadow AI. Une étude menée au quatrième trimestre 2024 par Harmonic Security analysant les prompts envoyés aux principaux LLM a montré que 45,8 % des requêtes risquaient d’exposer des données clients, notamment liées à la facturation et à leur authentification, et 26,8 % des prompts composaient des données RH liées à la paie, à des identifiants personnels…

Outre un nécessaire effort de sensibilisation et de formation, les RSSI doivent mettre en place des outils pour éviter autant que possible toute fuite de données issue de ces nouveaux usages. Ce phénomène du Shadow AI pose avant tout celui de la visibilité : savoir qui fait quoi dans l’organisation.

Bernard Montel, directeur technique EMEA et stratégiste chez Tenable.

Editeur spécialisé dans la découverte des assets numériques des entreprises, Tenable, a intégré cette problématique de fuite de donnée via les IA : « Notre plateforme couvre deux grands cas d’usages liés à l’IA : d’une part le Shadow AI et ce que l’on appelle l’AI SPM (Security Posture Management) » explique Bernard Montel, directeur technique EMEA et stratégiste chez Tenable. Cette brique vise à évaluer le niveau d’exposition de l’IA dans le Cloud et pour accélérer son développement dans ce domaine, Tenable vient de mener l’acquisition de la société Apex, spécialisée dans ces cas d’usage IA.

 

 

Pour Xavier Daspre, directeur technique de Proofpoint, beaucoup d’entreprises ont ouvert les vannes de l’IA générative et doivent maintenant s’équiper pour savoir si leurs collaborateurs diffusent des informations confidentielles vers ces services.

Xavier Daspre, directeur technique de Proofpoint.

L’éditeur travaille sur 3 vecteurs : la messagerie, son domaine historique, le CASB pour la protection des applications Cloud, et la protection endpoint. « Ces deux derniers vecteurs permettent de couvrir les cas d’usage liés à la GenAI. La solution va analyser les données pour trouver, par exemple, les données à caractère personnel et anonymiser le document. »

Proofpoint a réalisé l’acquisition de Normalyze en octobre 2024 et a mis la main sur sa solution DSPM (Data Security Posture Management). Celle-ci identifie les LLM mis en œuvre par les collaborateurs et analyse en temps réel les données qui transitent vers leurs API.

Le SASE apporte une réponse globale

Venu du CASB, Netskope s’est tout naturellement intéressé à la protection des fuites de données à destination des LLM.

« Au départ, toutes les IA génératives comme ChatGPT, Gemini et Copilot étaient des applications SaaS, or nous disposons déjà des outils nécessaires pour intercepter, inspecter et appliquer des politiques au trafic des applications SaaS » argumente Ray Canzanese, directeur du Netskope Threat Labs. « Nous pouvions donc déjà détecter les menaces et les violations de la politique des données et, par exemple, guider les utilisateurs qui utilisent des solutions d’IA non approuvées vers les solutions approuvées. »

Proofpoint a étendu son offre de Cloud Security Posture Management à l’IA et vient concurrencer les offres dites d’AI-SPM qui commencent à apparaître sur le marché, parmi lesquelles celles de Palo Alto Networks, Tenable ou de Wiz.

—————————–

Adrien Porcheron, General Manager France de Cato Networks

« Il faut tenir compte du chiffrement des données. »

« Nous avons ainsi lancé en début d’année 2 nouvelles fonctionnalités liées à notre module DLP pour répondre aux besoins des clients qui doivent gérer l’adoption de l’IA dans leur organisation. Celles qui ne classifient pas toutes leurs données prennent le risque de voir leurs collaborateurs envoyer des informations confidentielles à destination des IA et exposer des données sensibles au monde extérieur.
Un autre aspect dont il faut tenir compte, c’est le chiffrement des données. Les échanges sur Internet sont maintenant très largement chiffrés or les système de DLP classiques n’ont pas la capacité de faire du déchiffrement TLS  « inline ». Ces flux non analysés constituent un risque majeur, car l’entreprise ne contrôle qu’une petite partie du trafic. Nous faisons ce chiffrement en natif dans la plateforme et nous pouvons contrôler l’ensemble des ressources échangées par l’entreprise avec l’extérieur sans devoir déployer de nouvelles ressources. »

———————————

Ray Canzanese, directeur du Netskope Threat Labs

« À ce jour, nous avons étudié plus de 1 500 applications Gen AI distinctes. »

« Avec notre DSPM, nous disposions de tous les éléments nécessaires pour sécuriser les services d’IA générative lorsqu’ils ont commencé à arriver sur le marché. Nous n’avions qu’un petit delta à développer pour les couvrir. Cela nous a donné une longueur d’avance pour couvrir cet espace de manière exhaustive. Notre base de données CCI (Cloud Confidence Index) référence tous les services SaaS et lorsque toutes ces applications d’intelligence artificielle sont arrivées sur le marché, nous les avons simplement ajoutées.
À ce jour, nous avons étudié plus de 1 500 applications Gen AI distinctes. L’avantage que cela nous donne, c’est que si vous êtes un client de Netskope, vous avez un portail très facile pour voir quelles sont ces applications utilisées par les collaborateurs, comment ils les utilisent, qui les utilise, d’où ils les utilisent. Il est ensuite très facile de mettre en place des contrôles pour limiter ce qu’ils sont capables de faire. Certaines applications peuvent être bloquées, d’autres limitées à un usage privé. »

The post Comment le Shadow AI fait exploser le risque de fuite de données appeared first on Silicon.fr.

L’OTAN signe un accord de plusieurs millions avec Google Cloud

24 novembre 2025 à 10:26

Google Cloud vient de conclure un contrat de plusieurs millions de dollars avec l’Agence de communication et d’information de l’OTAN (NCIA) pour fournir « des capacités cloud souveraines et hautement sécurisées » selon la filiale d’Alphabet. L’intégration de cette technologie doit intervenir dans les mois à venir.

L’accord repose sur Google Distributed Cloud air-gapped, une solution de la gamme Sovereign Cloud de Google. Un choix qui garantit à l’OTAN un niveau élevé de sécurité, d’autonomie et de résilience, quel que soit le volume ou la complexité des données traitées, selon l’hypersacler.

Tara Brady, président de Google Cloud EMEA, affirme que Google Cloud « s’engage à soutenir la mission principale de l’OTAN », en particulier la construction d’une infrastructure numérique robuste et l’adoption des innovations technologiques les plus avancées.

Antonio Calderon, directeur technique de la NCIA, souligne que l’agence cherche à exploiter les technologies de nouvelle génération, y compris l’IA, pour renforcer les capacités opérationnelles et protéger l’environnement numérique de l’Alliance.

Le Google Distributed Cloud air-gapped proposé à l’OTAN est conçu pour les environnements nécessitant des contrôles de la résidence et de la sécurité des données. Entièrement isolée, la plateforme garantit que les données sensibles de la NCIA restent sous contrôle direct et sur territoire souverain de l’OTAN. Elle offrira également des capacités analytiques avancées afin d’améliorer l’efficacité opérationnelle de l’Alliance, de ses alliés et de ses partenaires.

The post L’OTAN signe un accord de plusieurs millions avec Google Cloud appeared first on Silicon.fr.

❌