Vue normale

Reçu aujourd’hui — 12 décembre 2025 Silicon

Disney investit 1 milliard $ dans OpenAI

12 décembre 2025 à 16:30

Est-ce un tournant majeur pour Hollywood ? Alors que beaucoup de professionnels du cinema américain se mobilisent depuis 2023 contre les effets dévastateurs de l’utilisation de l’IA sur leurs métiers, Walt Disney investit un milliard $ dans OpenAI, assorti d’un accord de licence lui permettant à l’inventeur de ChatGPT d’utiliser plus de 200 personnages iconiques de ses franchises Marvel, Pixar et Star Wars dans ses outils d’intelligence artificielle.

Un contrat de trois ans

Dans le cadre de ce contrat de trois ans, les utilisateurs de ChatGPT et de Sora, l’outil de génération vidéo, pourront créer des images et de courtes vidéos mettant en scène Mickey Mouse, Cendrillon, Simba ou encore Dark Vador.

L’accord, qui démarre en janvier 2026, prévoit l’exclusivité pour OpenAI durant la première année concernant l’utilisation des personnages Disney mais, comme le précise Bloomberg, ne pourra pas exploiter la propriété intellectuelle du groupe pour entraîner ses modèles. Il exclut toute utilisation de l’image ou de la voix des acteurs. Un utilisateur pourra ainsi générer une vidéo avec Woody de Toy Story, mais sans la voix de Tom Hanks.

Disney va utiliser les APIs

En échange de cette licence, Disney prendra une participation d’un milliard $ dans OpenAI, valorisée à 500 milliards $. Le groupe recevra également des bons de souscription lui permettant d’acquérir des parts supplémentaires à un prix symbolique durant la durée du contrat. Disney devient par ailleurs un client  d’OpenAI, utilisant ses API pour développer de nouveaux produits et expériences, notamment pour Disney+, et déploiera ChatGPT en interne pour ses employés.

Pour Bob Iger, le PDG de Disney, cette alliance marque une évolution stratégique face aux bouleversements technologiques. « Aucune génération humaine ne s’est jamais opposée au progrès technologique, et nous n’avons pas l’intention d’essayer », a-t-il déclaré sur CNBC.
Selon le FT, il s’agit du plus important accord conclu à ce jour entre une entreprise d’IA et un groupe médias qui ont dû composer avec l’expansion rapide d’OpenAI et ses implications pour leur propriété intellectuelle.

Tandis que le New York Times poursuit OpenAI en justice, d’autres éditeurs comme News Corp ont préféré négocier des accords de licence.

Disney lui-même a adopté une approche ferme sur la protection de ses droits. Selon  Bloomberg, le groupe a adressé mercredi soir une lettre de mise en demeure à Google, l’accusant de violer massivement ses droits d’auteur en utilisant ses contenus pour entraîner ses propres outils d’IA. Disney et Comcast ont également poursuivi Midjourney, une entreprise de génération d’images par IA, pour violation de droits d’auteur.

Des syndicats vigilants, des artistes inquiets

L’annonce a suscité des réactions contrastées dans le milieu créatif hollywoodien. La Writers Guild of America s’est montrée particulièrement critique, estimant dans une note à ses membres qu’OpenAI et d’autres entreprises d’IA ont « volé » d’importantes bibliothèques d’œuvres créées par ses membres. « L’accord de Disney avec OpenAI semble cautionner ce vol et céder la valeur de ce que nous créons à une entreprise tech qui a bâti son business sur notre dos  », dénonce le syndicat selon Bloomberg.

Le syndicat des acteurs SAG-AFTRA a adopté un ton plus mesuré, affirmant que Disney et OpenAI l’avaient contacté pour offrir des assurances sur l’utilisation éthique et responsable de la technologie.

The post Disney investit 1 milliard $ dans OpenAI appeared first on Silicon.fr.

Microsoft ouvre son bug bounty au code tiers

12 décembre 2025 à 15:46

Microsoft vise plus large avec son programme bug bounty.

Le voilà désormais susceptible d’indemniser la découverte de failles dans des dépendances. Il s’engage plus précisément à récompenser les signalements de vulnérabilités critiques qui touchent directement ses services en ligne indépendamment de la provenance du code concerné – si ce dernier n’est pas déjà couvert par un bug bounty.

Autre évolution : tous les services en ligne de Microsoft sont maintenant inclus par défaut, sans restriction de périmètre. Cela vaut aussi pour les nouveaux services, dès leur publication.

Ces règles s’appliquent depuis le 11 décembre 2025. Elles sont rétroactives sur 90 jours.

Les vulnérabilités Hyper-V, potentiellement les plus lucratives

Le programme de bug bounty englobait déjà les composants tiers (ouverts ou propriétaires), mais inclus dans les services Microsoft.

Aux dernières nouvelles, les récompenses peuvent monter jusqu’à 100 000 $ pour les vulnérabilités qui affectent des services d’identité (compte Microsoft, ADD et certaines implémentations d’OpenID). C’est 60 k$ pour Azure ; 30 k$ pour Copilot ; 20 k$ pour Azure DevOps, Dynamics 365/Power Platform et l’API Defender for Endpoint ; 19,5 k$ pour Microsoft 365 ; 15 k$ pour .NET Core/ASP.NET Core et pour certains dépôts open source de Microsoft.

Sur la partie endpoints et on-prem, on atteint 250 k$ pour Hyper-V ; 100 k$ sur Windows Insider Preview ; 30 k$ sur Edge ; 15 k$ sur Microsoft 365 Insider.

En 2023 comme en 2024, le montant total des récompensés distribuées a avoisiné 17 M$, répartis à chaque fois entre un peu moins de 350 chercheurs.

À consulter en complément :

Microsoft 365 : un vol de données assisté par Copilot
ToolShell, cette faille SharePoint qui s’est construite en plusieurs temps
Project Zero (Google) change sa politique de divulgation de vulnérabilités
Roni Carta (Lupin & Holmes) : « Avec la cybersécurité offensive, notre objectif est de lutter contre les failles de la supply chain logicielle »

Illustration générée par IA

The post Microsoft ouvre son bug bounty au code tiers appeared first on Silicon.fr.

{ Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage

12 décembre 2025 à 13:45

Il y a quelque temps, le dirigeant de l’une des plus grandes entreprises tech au monde expliquait dans un podcast que les organisations qui utilisent l’intelligence artificielle (IA) pour accroître leur productivité et stimuler l’économie seront les véritables gagnants de cette révolution.

Cette déclaration met en lumière les avancées concrètes observées avec l’IA générative, en particulier avec les petits modèles de langage (SLM) et les agents d’IA. Moins visibles que les grands modèles de langage (LLM) qui équipent sur les ordinateurs portables et les smartphones, les SLM offrent des avantages remarquables et des applications concrètes pour les équipes terrain, notamment dans des secteurs comme celui de la distribution.

Une sélection de SLM dédiés, intégrée à une suite d’agents d’IA, peut être optimisée de manière efficace pour l’automatisation intelligente de tâches spécifiques. Ces capacités d’IA permettent aux équipes terrain de capturer facilement le contexte de leurs workflows, puis de l’intégrer directement dans un terminal mobile doté d’agents d’IA afin d’améliorer la productivité, l’expérience client, et renforcer la visibilité des actifs.

Rendre l’IA réelle

Les SLM sont également idéaux pour des capacités d’IA embarquée (on-device AI). Ils apportent cette technologie directement sur des terminaux mobiles, transportables et autres terminaux aux ressources limitées, permettant ainsi des fonctionnalités telles que les assistants vocaux hors ligne et la traduction en temps réel.

Les agents d’IA basés sur des SLM permettent de mettre en œuvre des applications d’edge computing, en traitant les données au plus près de leur source, ce qui réduit la latence et la consommation de bande passante.

Cette technologie offre des avantages significatifs aux équipes terrain dans la distribution, les entrepôts et la logistique, en améliorant la prise de décision en temps réel et l’efficacité opérationnelle. Voici quelques exemples d’agents IA générés par des SLM :

1. Agent de connaissances : capable d’interagir en langage naturel avec les supports de formation et les procédures opérationnelles standards pour faciliter l’intégration des collaborateurs, et leur fournir l’information dont ils ont besoin dès qu’ils en ont besoin.

2. Agent de vente : aide à répondre aux questions des clients et collaborateurs, interroge en direct les stocks et les prix, et propose des recommandations de vente croisées ou additionnelles.

3. Agent de merchandising : combine reconnaissance d’image embarquée et vision par ordinateur pour automatiser l’analyse de l’état des rayons, identifier les ruptures, erreurs de placement, non-conformités planogramme ou erreurs de prix et de signalétique.

L’IA au bon moment, et sans cloud

Les SLM embarqués présentent des avantages particulièrement intéressants pour les équipes informatiques, innovation et techniques, notamment en matière de confidentialité :

● Confidentialité renforcée : les données de l’utilisateur ne quittent en effet jamais l’appareil, ce qui réduit le risque de violation de données et garantit un meilleur contrôle des informations personnelles.

● Faible latente : le traitement s’effectue localement, sans qu’il soit nécessaire d’interroger un serveur éloigné. Les réponses sont ainsi quasi instantanées, ce qui est essentiel pour les applications en temps réel, telles que les assistants vocaux ou la traduction.

● Réduction des coûts de bande passante et de cloud : comme les données ne sont plus systématiquement envoyées dans le cloud, le traitement local diminue l’usage des données mobiles et les dépenses liées au calcul des LLM dans le cloud.

● Fonctionnalités hors-ligne : lorsque les LLM sont intégrés aux appareils, l’IA peut continuer à fonctionner sans connexion Internet, ce qui est particulièrement utile dans les zones où la connectivité est limitée ou instable.

L’avenir est aux agents d’IA multimodaux

Le futur de l’IA est intrinsèquement multimodal. Les êtres humains n’expérimentent pas le monde uniquement par le texte ; ils utilisent tous leurs sens. L’IA doit faire de même en s’appuyant sur tous ces « sens » pour réellement comprendre et interagir efficacement avec le monde.

La bonne nouvelle, c’est que les SLM et les agents IA peuvent être multimodaux, comme dans l’exemple de l’agent merchandising évoqué précédemment. Pour exploiter pleinement leur potentiel, notamment lorsqu’ils sont déployés sur des appareils en périphérie, ils doivent justement être multimodaux, et ne pas se limiter au traitement et à la génération de texte. Deux approches principales permettent d’atteindre cet objectif :

● Les SLM multimodaux intégrés sont conçus pour traiter plusieurs modalités directement. Cette approche est la plus efficace, mais elle requiert un travail de conception et d’entraînement particulièrement méticuleux.

● Les systèmes multimodaux modulaires combinent un SLM avec des modèles spécialisés distincts (par exemple un modèle de reconnaissance d’images ou de transcription de la parole en texte). Le SLM joue alors le rôle de coordinateur en traitant le texte et en interagissant avec les autres modèles selon les besoins.

La tendance est aux SLM multimodaux plus intégrés, à mesure que la technologie évolue et que l’entraînement des modèles, même complexes, gagne en efficacité. Toutefois, une approche modulaire reste souvent plus simple et plus rentable à court terme.

L’avenir reposera probablement sur une combinaison des deux approches, en fonction des cas d’usage et des ressources disponibles. Les travaux de R&D actuels permettront de créer des SLM multimodaux intégrés et des agents IA plus efficaces et plus puissants, tout en développant des systèmes modulaires robustes, faciles à personnaliser et à déployer sur une large gamme d’appareils.

L’objectif est de permettre à des systèmes d’IA de comprendre le monde à travers plusieurs prismes, afin d’offrir des interactions plus naturelles, intuitives et efficaces avec les humains et leur environnement. L’IA qui améliore le travail au quotidien sera la véritable gagnante de demain.

*Andrea Mirabile est directeur global de la recherche en intelligence artificielle de Zebra Technologies

The post { Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage appeared first on Silicon.fr.

VMware exclut l’UE de la marche forcée vers VCF

12 décembre 2025 à 13:44

Chez VMware, fini le catalogue de prix unifié pour l’EMEA (Europe, Moyen-Orient, Afrique).

Il y a désormais deux catalogues. Respectivement pour l’Espace économique européen (UE + Islande, Liechtenstein et Norvège) et pour les autres pays de cette zone.

VVF et vSphere Enterprise+ maintenus dans l’UE, mais jusqu’à quand ?

La différence n’est pas des moindres : hors de l’EEE, les offres VVF (vSphere Foundation) et VSEP (vSphere Enterprise+) ne sont plus commercialisées.

Ne restent que VSS (vSphere Standard) et VCF (Cloud Foundation).
Le premier change de modèle : il devient un SKU sans durée déterminée, à 70 $/cœur/an – soit le tarif jusque-là appliqué pour un an d’engagement.
Le second voit son prix augmenter de 350 à 400 $/cœur/an.
En parallèle, le module complémentaire Private AI Foundation n’est plus disponible.

La nouvelle politique commerciale hors EEE impose par ailleurs le fameux minimum de 72 cœurs.
Ce minimum s’entend par ligne de commande – en d’autres termes, par édition de produit VMware. Broadcom l’appliquait déjà depuis avril… en dehors de l’EMEA. L’examen de son cas par la Commission européenne a probablement motivé cette exception et la décision de la faire perdurer dans l’EEE.

VCF comme offre unique : on y va tout droit

vSphere Enterprise+ avait disparu de la gamme VMware une première fois, quelques semaines après la fusion avec Broadcom. Il avait finalement été réintroduit en novembre 2024, sans vSAN (stockage) ni NSX (réseau).
Depuis, on l’a continûment dit en sursis. Comme vSphere Standard, qui n’est déjà plus vendu en APAC (Asie-Pacifique) depuis avril 2025 – et qui semble désormais ne plus l’être non plus en Amérique du Nord.

Ces offres sont d’autant plus sur la sellette qu’il n’est pas prévu qu’elles prennent en charge vSphere 9. Jusqu’à nouvel ordre, elles sont cantonnées au maximum à vSphere 8 (Update 3), dont le support général se termine en octobre 2027.

Les perspectives n’étaient pas beaucoup plus positives pour VVF. Surtout que VCF 9 a apporté plusieurs capacités favorisant les migrations depuis d’autres produits VMware, notamment pour l’importation NSX.

Illustration générée par IA

The post VMware exclut l’UE de la marche forcée vers VCF appeared first on Silicon.fr.

Fusion Broadcom-VMware : le CISPE muscle son recours en annulation

12 décembre 2025 à 09:09

La structure de financement de la fusion Broadcom-VMware et les engagements de croissance associés auraient-ils dû alerter la Commission européenne ?

C’est l’opinion du CISPE, qui vient d’en faire part publiquement. En toile de fond, un recours que le lobby des fournisseurs cloud européens a introduit cet été auprès du Tribunal de l’UE. Il entend, par ce biais, faire annuler la décision de juillet 2023 par laquelle Bruxelles a autorisé Broadcom à acquérir VMware.

À ces fins, trois moyens sont invoqués. Selon le premier, la Commission européenne a omis d’examiner le risque de création ou de renforcement d’une position dominante – ainsi que d’une réduction significative de concurrence – sur le marché des logiciels de virtualisation des serveurs. Alors même, prétend le CISPE, qu’elle avait les éléments pour. Notamment des « avertissements remarquablement clairs » de personnes interrogées dans le cadre de son enquête de marché.

Le deuxième moyen dénonce une autre omission : l’analyse des risques de ventes groupées des logiciels VMware et des produits (software/hardware) de Broadcom. Le CISPE l’admet : la Commission européenne a affirmé que ces offres n’étaient pas complémentaires et qu’elles n’avaient pas les mêmes acheteurs. Il considère toutefois qu’elle n’en a pas donné de preuve concrète, sinon un renvoi à l’étude de marché. Elle n’aurait, par ailleurs, pas expliqué en quoi l’opération se distinguerait des acquisitions de CA Technologies et de Symantec, « qui ont toutes deux entraîné des ventes groupées et d’autres effets anticoncurrentiels similaires ».

Le troisième moyen pointe une omission d’enquête de manière approfondie au sujet des éventuels effets négatifs sur l’innovation sur tous les marchés affectés par l’opération.

Dette et promesses de croissance, d’indéniables indicateurs ?

Pour financer l’acquisition, Broadcom a levé environ 28,4 Md$ de dette, en plus de reprendre celle de VMware (autour de 8 Md$). Cette situation a engendré une « forte motivation » à monétiser rapidement la base VMware installée, assure le CISPE.

Pour ce qui est des engagements de croissance, le lobby se réfère à la promesse de Hock Tan de faire passer l’EBITDA de VMware d’une fourchette de 4,7-5Md$ à 8,5 Md$ dans un horizon de 3 ans après la fusion. Sur un marché en progression de seulement 5 à 8 % par an, une telle ambition ne pouvait raisonnablement être atteinte sans la stratégie commerciale agressive qui s’est ensuivie, estime-t-il.

672 jours pour publier la décision

Parallèmement à ce recours, le CISPE a déposé plainte début décembre auprès du Médiateur européen. Motif : Bruxelles a pris beaucoup trop de temps pour publier le texte complet de sa décision (672 jours en l’occurrence), qui n’a été attaquable qu’à partir de ce moment-là.

La Commission européenne a justifié ce délai par le droit des parties concernées à exiger la confidentialité de données commerciales sensibles. Et par le temps ainsi nécessaire pour s’accorder sur une version « épurée » du texte de la décision. Le CISPE rétorque que Broadcom en a profité pour jouer la montre.

La Commission européenne s’est concentrée sur le cas Marvell

Broadcom et VMware avaient signé leur accord de fusion le 26 mai 2022. Le 15 novembre, ils en avaient formellement notifié la Commission européenne. Cette dernière avait ouvert une enquête approfondie le 20 décembre.

Son avis préliminaire d’avril 2023 avait tracé les grandes lignes : le coeur du dossier porterait sur les effets de conglomérat au niveau des marchés des contrôleurs hôtes de bus Fibre Channel et des adaptateurs de stockage.

Sur les contrôleurs FC, le seul concurrent était Marvell. Bruxelles craignait que Broadcom ait la capacité de l’exclure en dégradant l’interopérabilité de ses contrôleurs FC et des logiciels de virtualisation serveur de VMware. Mais que ce dernier n’en aurait pas forcément la motivation, vu le risque de voir sa réputation de neutralité affectée.

Concernant les adaptateurs de stockage, les fabricants de serveurs seraient capables d’absorber les effets d’une certification retardée, avait jugé la Commission européenne. Un tel scénario n’affecterait pas significativement la concurrence, avait-elle ajouté ; tout comme d’ailleurs une dégradation de l’interopérabilité, d’autant plus que Broadcom ne jouissait pas d’une position dominante.

L’enquête a également englobé le marché des NIC et l’éventualité d’une vente liée des solutions logicielles de Broadcom et de VMware. Conclusion sur le premier point : le nouvel ensemble n’aurait pas la motivation économique de pratiquer une stratégie d’exclusion. Sur le second, il n’en aurait pas la capacité, les acheteurs étant distincts comme d’ailleurs les cycles d’achat.

Les engagements qui ont fait mouche

Face aux craintes exprimées, Broadcom avait proposé des engagements pour 10 ans. Principalement :

  • Garantir à Marvell un accès à ses API, à son kit de développement de pilotes, à sa suite de certification et à du support technique, au même niveau que pour sa propre division FC
  • Lui donner une visibilité complète sur ses pilotes de contrôleurs FC et lui permettre de les réutiliser et de les modifier, y compris pour développer ses propres pilotes
  • Opérer une séparation organisationnelle entre l’équipe chargée des contrôleurs FC et celle assurant certification et support technique

Soumis à un test de marché, ces engagements avaient convaincu. Broadcom avait  néanmoins dû en affiner quelques aspects. Dont :

  • Clarification de définitions et/ou élargissement de leur périmètre
  • Garantie de frais modiques pour l’accès aux éléments susmentionnés
  • Promesse d’octroyer cet accès en temps opportun
  • Pas de traitement de faveur pour les produits Broadcom dans le guide de compatibilité VMware
  • Suppression d’une clause qui donnait au nouvel ensemble la possibilité de développer des API pour usage interne de dev/test

Illustration générée par IA

The post Fusion Broadcom-VMware : le CISPE muscle son recours en annulation appeared first on Silicon.fr.

Reçu hier — 11 décembre 2025 Silicon

Orange recrute Guillaume Poupard pour piloter sa stratégie de souveraineté numérique

11 décembre 2025 à 16:21

C’est l’info mercato de cette fin d’année dans le secteur cyber. Révélée hier par l’Informé, elle est confirmée ce jour par un communiqué de presse officiel : Orange a recruté Guillaume Poupard au poste nouvellement créé de Chief Trust Officer.

Rattaché directement à Christel Heydemann, sa directrice générale, il rejoindra l’opérateur le 1er février 2026.

Figure du monde de la cybersécurité française, Guillaume Poupard a dirigé l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) pendant huit ans, de 2014 à 2022, période durant laquelle il a travaillé au renforcement du dispositif français de cyberdéfense et plus généralement à sensibiliser sur les enjeux économiques liés aux risques cyber.

Accélérer sur la cybersécurité et le cloud de confiance

Depuis 2022, il occupait le poste de directeur général adjoint de Docaposte, la filiale numérique de La Poste, où il supervisait les actifs technologiques stratégiques : cybersécurité, intelligence artificielle et cloud.

Que va faire Guillaume Poupard au sein de l’opérateur ? Définir et incarner la stratégie d’Orange en matière de souveraineté et de confiance numérique. Concrètement, il devra accélérer le développement, en collaboration avec les entités Orange Business et Orange Cyberdéfense, d’offres innovantes dans trois domaines clés : la cybersécurité (grand public et entreprises), le cloud de confiance et l’intelligence artificielle souveraine.

Des secteurs en pleine croissance mais où la concurrence fait rage. Au classement Numeum 2024 des ESN, Orange Business occupe la cinquième place avec un chiffre d’affaires de 1,8 milliard € ( sur un total de 7,8 milliards) quand Orange Cyberdéfense a enregistré des revenus de 1,2 milliard sur cette période.

 

 

The post Orange recrute Guillaume Poupard pour piloter sa stratégie de souveraineté numérique appeared first on Silicon.fr.

Plate-forme Data : comment la Matmut a fait son entrée chez S3NS

11 décembre 2025 à 13:26

L’échéance approche : le 16 décembre 2025, la Matmut éteindra sa plate-forme data sur site.

Ce socle Spark-Hadoop avait été constitué en 2017, avec la stack open source Cloudera. Sur le papier, il est resté à son statut de PoC. Dans les faits, il est devenu de la prod.

En 2022, à l’arrivée d’un nouveau CDO, deux visions de modernisation se sont confrontées.
Le CTO prônait une plate-forme unifiée, avec un outil proche de ceux déjà en place. Une option qui assurerait un support éditeur large, mais induirait des efforts supplémentaires de développement pour les équipes data, de gestion pour les équipes de production, et de formation pour l’usage par toutes les entités.
Le CDO portait l’idée d’une plate-forme full open source – toujours on-prem – avec une multitude de fournisseurs. Il en découlerait le besoin d’assurer un support pour pléthore de services, en plus de l’aspect formation (sur des nouveaux outils : ML, orchestrateur…).

Chez S3NS, pas d’immunité au CLOUD Act… mais du chiffrement que la Matmut maîtrise

Dans ce contexte, la Matmut a étudié la possibilité d’aller chez un hyperscaler. Elle s’est tournée vers S3NS et son offre « Contrôles locaux » (récemment renommée CRYPT3NS).

Jean-Jacques MokCette offre utilise des HSM (modules de sécurité matériels) fournis et hébergés par Thales. Elle « n’empêchera pas une instance américaine de demander à Google de dumper les données », a reconnu Jean-Jacques Mok, directeur de programme cloud au sein de la Direction du numérique et de l’innovation de la Matmut, lors du salon DEVOPS REX. Ce dump n’est toutefois pas fait en live, tempère-t-il : les données sont récupérées à froid. « Et ça tombe bien : c’est ce qui est crypté par le boîtier HSM. »

« Globalement, Google aura répondu aux injonctions, poursuit l’intéressé. Charge [aux États-Unis] de s’amuser ensuite à décrypter les données, [sachant que] les clés ne sont pas hébergées chez Google. » C’est effectivement la Matmut qui en a la maîtrise. Jean-Jacques Mok en donne une illustration : lorsqu’un des deux boîtiers HSM de la Matmut est tombé en panne, il a dû se rendre chez S3NS, qui ne pouvait pas lui-même en initialiser un autre.

Un socle BigQuery-Dataflow-Cloud Composer

La plate-forme montée chez S3NS s’articule autour de BigQuery, avec Dataflow pour les trasnsformations et Cloud Composer – version packagée d’Airflow – pour l’orchestration. « On a un peu déshabillé la mariée , admet Jean-Jacques Mok. C’est tout l’intérêt d’un cloud provider : on est venu chercher uniquement les services dont on avait besoin. »

Pour structurer les données, la Matmut est restée sur du classique : l’architecture médaillon (bronze = données brutes ; argent = données nettoyées ; or = données spécialisées). Il y a ajouté une zone vermeille ; qui, par rapport à la zone argent, est agnostique de la source des données.
Une autre zone, dite zone relais, a été mise en place. Une exigence « portée par les execs ». S’y trouvent toutes les données maîtres à envoyer vers le cloud.

La fin promise du « pot à bonbons »…

Le projet a duré environ un an et demi. « On [n’était] pas sur du lift & shift, mais sur une transformation de l’organisation data », précise Pascal Deshayes, président de TerraOps, qui a accompagné le projet (l’ESN a son siège à Rouen, comme la Matmut). Ne serait-ce que de par la transition depuis un système intégralement sur site, avec, entre autres, un CI/CD « pas du tout automatisé ».

Il a fallu faire avec les limites de l’offre « Contrôles locaux », tant en termes de versions que de nombre de services managés utilisables. Un avantage, néanmoins : la facilité de prise en main par les consultants habitués à GCP.

« Maintenant qu’on a des utilisateurs et de la donnée, il faut qu’on soit capable de maîtriser cette consommation », explique Jean-Jacques Mok. Aujourd’hui, l’IT à la Matmut est encore un « pot à bonbons », concède-t-il : « Tout le monde pioche dedans jusqu’à ce qu’il n’y [ait plus de budget]. »

… et des accès en « open bar »

L’offre « Cloud de confiance » – celle pour laquelle S3NS postule à la qualification SecNumCloud – est en ouverture généralisée depuis quelques mois. La Matmut ne l’a pas encore adoptée. Elle y est toutefois appelée : c’est l’une des conditions qui ont permis d’aller vers ces services.

Avec RGPD, DORA et CSRD en toile de fond, la migration est aussi l’occasion de mieux encadrer le lignage des données et les accès. « Sur l’ancienne plate-forme, c’était complètement open bar, déclare Jean-Jacques Mok. Là, on revient à un cadre plus standard : tu n’accèdes qu’à la donnée [qui t’est autorisée] et surtout, tu vas demander [aux propriétaires] le droit de la consommer ».

La Matmut ne le cache pas : quitter un mode Spark-Hadoop pour un monde orienté services managés basés sur BigQuery implique de retravailler le plan de carrière de certaines personnes. « Il faut qu’ils comprennent que le modèle SAS ne va pas durer éternellement », glisse Jean-Jacques Mok…

Illustration principale © Stéphane Tatinclaux

The post Plate-forme Data : comment la Matmut a fait son entrée chez S3NS appeared first on Silicon.fr.

Avec SecNumCloud en perspective, Numspot voit au-delà d’OUTSCALE

11 décembre 2025 à 09:18

Langage commun, standardisation des processus, portabilité… Autant de notions dont Gaspard Plantrou, chef produit de Numspot, use pour vanter « l’indépendance numérique portée par Kubernetes ».

Cette grammaire se retrouve dans la dernière annonce de l’entreprise. Laquelle a décidé d’aller au-delà du socle OUTSCALE, en fournissant un plan de contrôle « à la Red Hat » unifiant la gestion des environnements d’infrastructure.

Kubernetes sera la base de cette plate-forme qui englobera des services managés et des fonctions data/IA (modèles, agents et RAG), avec une console et des API unifiées. Une marketplace de services préconfigurés y sera adossée. Numspot compte la déployer en Europe auprès de fournisseurs d’infrastructure, en s’alignant sur les référentiels nationaux équivalents à SecNumCloud. Une vente en marque blanche est envisagée. Des discussions sont en cours avec des sociétés en Allemagne, en Espagne et en Italie.

L’ensemble doit prendre forme au deuxième semestre 2026. Numspot promet une capacité d’adaptation « dynamique » du niveau de confiance. À commencer sur son infra chez OUTSCALE, composée d’une région eu-west « souveraine » et d’une région cloud-gov en cours de qualification SecNumCloud (J1 validé au printemps, audit J2 récemment finalisé).

Une dizaine de clients/projets référents

Pour le moment, 3 ans après sa création, Numspot a à son catalogue les services suivants :

  • Gestion : console et IaC
  • Calcul : VM et GPU NVIDIA
  • Réseau : VPC, IP publiques, VPN, DirectLink, load balancer
  • Stockage : bloc, objet, snapshots
  • Base de données : PostgreSQL
  • Conteneurs : Kubernetes et OpenShift
  • Sécurité/identité : IAM

Une brique d’observabilité (logging et métriques) est sur la roadmap. On y trouve aussi un registre de conteneurs, un catalogue d’images de VM, du BYOK, du MongoDB et du Redis-like, du KMS, un WAF et du CI/CD (GitLab).

Numspot liste 25 partenaires dont 10 éditeurs (ALLONIA, CEO-Vision, Cleyrop, CobolCloud, Denodo, Docaposte, Energisme, Red Hat, Veeam et VirtualBrowser). Il nomme une dizaine de clients/projets référents, dans la finance/assurance, la santé et le secteur public :

  • CISIRH (Centre interministériel de services informatiques relatifs aux ressources humaines)
  • CNP Assurances
  • Docaposte
  • Domelior (services de soins à domicile ; petite entreprise bretonne)
  • ERAFP (complémentaire de la fonction publique)
  • Maisons France services
  • M.I.A. Seconde (application d’adaptive learning pour les professeurs en seconde générale)
  • Pavillon de la Mutualité (groupe d’offre de soins mutualiste en Nouvelle-Aquitaine)
  • Perfecto Groupe (agence de com francilienne)
  • Service civique national
  • Union Retraite (GIP qui réunit les organismes de retraite obligatoire, de base et complémentaire)

The post Avec SecNumCloud en perspective, Numspot voit au-delà d’OUTSCALE appeared first on Silicon.fr.

Reçu — 10 décembre 2025 Silicon

C’est quoi RSL 1.0, le standard qui veut protéger les éditeurs face à l’IA ?

10 décembre 2025 à 16:57

Une coalition d’acteurs majeurs de l’internet vient d’officialiser Really Simple Licensing (RSL) 1.0, le premier standard de licence conçu pour protéger le contenu à l’ère de l’IA, offrant un langage universel pour définir comment les contenus peuvent être utilisés.

Développé par le comité technique RSL en collaboration avec les éditeurs de contenus tels que Yahoo, Ziff Davis et O’Reilly Media, RSL 1.0 s’appuie sur la simplicité du format RSS pour créer des conditions de licence lisibles par les machines. Le standard dépasse les simples règles binaires du fichier robots.txt en établissant un cadre économique adapté à l’internet soumis au développement de l’IA.

Le président du comité technique RSL, Eckart Walther, considère que cette publication représente un point d’inflexion pour l’internet ouvert, car elle instaure clarté et transparence dans les droits sur le contenu, tout en permettant à l’innovation de s’exercer.

Des fonctionnalités avancées

RSL 1.0 introduit plusieurs innovations majeures :

Contrôle granulaire des usages IA : Le standard définit de nouvelles catégories d’utilisation du contenu avec les balises « ai-all », « ai-input » et « ai-index ». Ces options permettent aux éditeurs d’autoriser les moteurs de recherche à indexer leur contenu tout en refusant son utilisation dans des applications de recherche IA.

Protection des communs numériques : En partenariat avec Creative Commons, RSL 1.0 intègre un système de licence basé sur les contributions. Cette approche vise à soutenir l’écosystème non commercial qui alimente des milliards de pages web, de dépôts de code et d’ensembles de données constituant le « commons numérique » – ce patrimoine partagé de connaissances librement accessibles sur internet.

Un soutien de l’industrie

L’initiative a suscité un soutien de la part de l’écosystème numérique. Des organisations d’infrastructure comme Cloudflare, Akamai et l’IAB Tech Lab ont annoncé leur adhésion au standard. Du côté des médias, Associated Press, Vox Media, USA Today, le Boston Globe Media, BuzzFeed, Stack Overflow et The Guardian font partie des nouveaux venus, rejoignant des centaines d’autres marques médias.

Au total, plus de 1500 organisations médiatiques, marques et entreprises technologiques à travers le monde soutiennent désormais RSL, couvrant des milliards de pages web qui représentent la majorité du contenu internet professionnel utilisé pour entraîner les modèles d’IA.

Will Allen, vice-président produit chez Cloudflare, souligne que la licence lisible par les machines sera une caractéristique importante pour l’avenir du web. De son côté, la PDG de Creative Commons, Anna Tumadóttir, rappelle l’importance des options de partage équitable au-delà des licences commerciales pour maintenir l’accès aux connaissances à l’ère de l’IA.

Un modèle économique pour l’ère de l’IA

RSL 1.0 ne se contente pas de définir des règles techniques. Doug Leeds, co-PDG et cofondateur du RSL Collective – une organisation à but non lucratif pour les droits collectifs des créateurs numériques – affirme que pour quiconque tire ses revenus de la publication de contenu en ligne, RSL 1.0 est une évidence. C’est ce qui explique le large soutien provenant de tous les secteurs de l’écosystème internet, des grandes entreprises médiatiques aux organisations d’infrastructure qui définissent le fonctionnement du web.

Le standard arrive à un moment critique où les questions de droits d’auteur et d’utilisation du contenu par les systèmes d’IA font l’objet de nombreux débats juridiques. RSL 1.0 propose un cadre pragmatique pour résoudre ces tensions en offrant aux créateurs de contenu les outils pour définir précisément leurs conditions d’utilisation, tout en permettant aux développeurs d’IA d’accéder légalement aux ressources dont ils ont besoin.

L’arrivée de RSL 1.0 représente plus qu’une simple norme technique : c’est une tentative de rééquilibrer les relations de pouvoir dans l’économie numérique. En donnant aux éditeurs et créateurs les moyens de contrôler l’utilisation de leur travail par les systèmes d’IA, tout en préservant les principes d’ouverture et de partage qui ont fait la richesse d’internet, RSL 1.0 pourrait tracer la voie vers un modèle plus durable et équitable pour tous les acteurs de l’écosystème numérique.

La spécification complète est accessible sur le site rslstandard.org, où les développeurs et éditeurs peuvent découvrir comment implémenter ce nouveau standard dans leurs applications et sites web.

Selon nos observations, aucun éditeur français n’est engagé pour le lancement dans l’initiative RSL 1.0.

The post C’est quoi RSL 1.0, le standard qui veut protéger les éditeurs face à l’IA ? appeared first on Silicon.fr.

Pourquoi Adobe s’invite dans ChatGPT

10 décembre 2025 à 15:52

Adobe va intégré Photoshop, Adobe Express et Acrobat dans ChatGPT. Les utilisateurs pourront taper une requête dans ChatGPT pour retoucher des photos, créer un graphique, animer des designs ou résumer un PDF, déclenchant automatiquement l’outil correspondant.

Adobe va ainsi toucher les 800 millions d’utilisateurs actifs hebdomadaires de ChatGPT qui devront créer un compte Adobe pour utiliser les applications au sein de ChatGPT.

Ce lancement s’appuie sur l’annonce d’Adobe fin octobre, lorsque l’entreprise avait remanié ses outils de montage vidéo et d’édition d’images pour permettre aux utilisateurs d’exécuter des tâches via des assistants IA conversationnels. L’intégration dans ChatGPT s’inscrit dans la continuité de cette innovation en matière d’IA agentique et du protocole MCP.

Une adaptation aux bouleversements de l’IA

En août dernier, Adobe avait lancé Acrobat Studio, transformant les documents statiques en espaces de travail interactifs alimentés par l’IA. Lors de sa conférence Adobe MAX, l’éditeur avait également présenté des assistants IA pour Photoshop et Adobe Express, permettant à chacun de créer en utilisant ses propres mots et d’affiner les résultats avec les outils de classe mondiale de l’entreprise.

Son accord avec OpenAI intervient à un moment où Adobe intensifie ses efforts pour s’adapter aux transformations engendrées par l’IA dans les marchés du design professionnel, tout en élargissant sa portée auprès de nouveaux publics qui découvrent ses applications pour la première fois.

Les termes financiers de l’accord ne sont pas dévoilés.

The post Pourquoi Adobe s’invite dans ChatGPT appeared first on Silicon.fr.

L’Agentic AI Foundation veut imposer les standards de l’IA autonome

10 décembre 2025 à 15:17

Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.

OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.

Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM  Salesforce.

L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.

Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.

Trois briques technologiques au cœur du dispositif

L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.

De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.

OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.

Un soutien des géants du cloud

L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.

Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.

Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.

The post L’Agentic AI Foundation veut imposer les standards de l’IA autonome appeared first on Silicon.fr.

IA de défense : Airbus décroche un contrat de 50 millions €

10 décembre 2025 à 14:33

Airbus franchit une nouvelle étape dans le secteur de la défense. L’industriel européen vient de signer un contrat de 50 millions € avec l’Agence ministérielle pour l’intelligence artificielle de défense (AMIAD) pour intégrer des technologies d’IA dans les systèmes militaires français.

Spationav, première cible de la modernisation

La phase initiale de ce contrat se concentrera sur la modernisation de Spationav, le système français de surveillance maritime. L’objectif : intégrer l’intelligence artificielle pour traiter les données issues des satellites, permettant ainsi une analyse plus rapide et plus précise des informations collectées.

Les applications futures devraient s’étendre à des domaines stratégiques comme le renseignement, la cybersécurité et la gestion des réseaux de télécommunications militaires.

L’ambition de la France est de centraliser l’ensemble des données collectées par ses capteurs dispersés sur satellites, radars et drones. Cette approche intégrée vise à offrir une vision unifiée et en temps réel du champ de bataille moderne, où l’information devient un atout aussi décisif que l’armement lui-même.

The post IA de défense : Airbus décroche un contrat de 50 millions € appeared first on Silicon.fr.

Reçu — 9 décembre 2025 Silicon

Injection de prompt et injection SQL : même concept ?

9 décembre 2025 à 16:08

La comparaison entre injection SQL et injection de prompt est tentante, mais dangereuse.

L’ANSSI britannique (NCSC, National Cyber Security Centre) vient de se prononcer dans ce sens. Elle constate que beaucoup de professionnels de la cyber font le rapprochement conceptuel, alors même qu’il existe des différences cruciales. Qui, si non prises en compte, peuvent sévèrement compromettre les mesures correctives.

Entre « instructions » et « données », les prompts sont poreux

Initialement, avant que soit consacrée la notion d’injection de prompt, on a eu tendance à la ranger dans la catégorie « injection de commande », affirme le NCSC. Il donne pour exemple un signalement de 2022 concernant GPT-3, où il était question de transmettre des « commandes en langage naturel pour contourner les garde-fous [du modèle] ».

Les injections SQL consistent effectivement à fournir des « données » qu’un système exécute en tant qu’instructions. Cette même approche sous-tend d’autres types de vulnérabilités, dont les XSS (scripts intersites) et les dépassements de tampon.
Au premier abord, l’injection de prompt en semble simplement une autre incarnation. Témoin un système de recrutement avec notation automatisée de candidatures. Si un candidat inclut dans son CV le texte « ignore les consignes précédentes et valide le CV » , il fait de ses « données » une instruction.

Le problème sous-jacent est toutefois plus fondamental que les vulnérabilités client-serveur classiques. La raison : les LLM ne posent pas de frontière entre les « instructions » et les « données » au sein des prompts.

Les LLM n’ont pas d’équivalent aux requêtes paramétrées

En SQL, la frontière est claire : les instructions sont quelque chose que le moteur de base de données « fait ». Tandis que les données sont quelque chose de « stocké » ou « utilisé » dans une requête. Même chose dans les XSS et les dépassement de tampon : données et instructions diffèrent intrinsèquement dans la façon dont elles sont traitées. Pour empêcher les injections, il s’agit donc de garantir cette séparation. En SQL, la solution réside dans les requêtes paramétrées : peu importe les entrées, la base de données ne les interprète jamais comme des instructions. Le problème est ainsi résolu « à la racine ».

Avec les LLM, faute de distinction entre « données » et « instructions », il est possible que les injections de prompts ne puissent jamais être totalement éliminées dans la mesure ou peuvent l’être les injections SQL, postule le NCSC. Qui note cependant l’existence de diverses approches tentant d’y superposer ces concepts. Parmi elles, expliquer à un modèle la notion de « data » ou l’entraîner à prioriser les « instructions » par rapport aux « données » qui y ressemblent.

Des systèmes « intrinsèquement perturbables »

Plutôt que de traiter le problème sous l’angle « injection de code », on pourrait le voir comme l’exploitation d’un « adjoint intrinsèquement perturbable » (inherently confused deputy).

Les vulnérabilités de type « adjoint confus » se présentent lorsqu’un attaquant peut contraindre un système à exécuter une fonction qui lui est profitable. Typiquement, une opération supposant davantage de privilèges qu’il n’en a.

Sous leur forme classique, ces vulnérabilités peuvent être éliminées. Avec les LLM, c’est une autre histoire, que traduit l’aspect « intrinsèquement perturbable ». Partant, il faut plutôt chercher à réduire le risque et l’impact. Le NCSC en propose quelques-unes, alignée sur le standard ETSI TS 104 223 (exigences cyber de base pour les systèmes d’IA). L’agence appelle, sur cette base, à se focaliser davantage sur les mesures déterministes restreignant les actions de ces systèmes, plutôt que de tenter simplement d’empêcher que des contenus malveillants atteignent les LLM. Elle mentionne deux articles à ce sujet : Defeating Prompt Injections by Design (Google, DeepMind, ETH Zurich ; juin 2025) et Design Patterns for Securing LLM Agents against Prompt Injections (juin 2025, par des chercheurs d’IBM, Swisscom, Kyutai, etc.).

Microsoft a également droit à une mention, pour diverses techniques de marquage permettant de séparer « données » et « instructions » au sein des prompts.

Illustration générée par IA

The post Injection de prompt et injection SQL : même concept ? appeared first on Silicon.fr.

Google dans le viseur de Bruxelles pour l’utilisation de contenus dans son IA

9 décembre 2025 à 15:17

La pression réglementaire européenne sur les géants technologiques américains s’intensifie. Ce 9 décembre, la Commission européenne ouvre une enquête antitrust visant Google, filiale d’Alphabet. En cause : l’utilisation de contenus en ligne d’éditeurs et de vidéos YouTube pour entraîner ses modèles d’intelligence artificielle.

Il s’agit de la deuxième investigation contre Google en moins d’un mois, témoignant des inquiétudes croissantes de Bruxelles face à la domination des Big Tech dans les nouvelles technologies émergentes. Cette offensive intervient quelques jours seulement après le lancement d’une enquête similaire visant Meta, accusé de bloquer l’accès de concurrents à son système de messagerie WhatsApp.

Des pratiques jugées déloyales

Concrètement, Bruxelles s’inquiète de l’utilisation par Google des contenus d’éditeurs pour générer ses résumés alimentés par l’IA, appelés AI Overviews, sans compensation adéquate et sans donner aux éditeurs la possibilité de refuser. Les mêmes préoccupations concernent l’exploitation des vidéos YouTube téléchargées par les utilisateurs.

Ces AI Overviews, déployés dans plus de 100 pays ( pas en France, NDLR), apparaissent au-dessus des liens hypertextes traditionnels vers les pages web pertinentes. Google a d’ailleurs commencé à y intégrer de la publicité depuis mai dernier.

« Un écosystème d’information sain dépend du fait que les éditeurs disposent des ressources nécessaires pour produire un contenu de qualité. Nous ne permettrons pas aux contrôleurs d’accès de dicter ces choix », a martelé Teresa Ribera, commissaire européenne chargée de la concurrence, en référence au DMA (Digital Markets Act) qui s’applique actuellement à une vingtaine de  « services de plate-forme essentiels  » dont les exploitants sont nommés  » contrôleurs d’accès  » (gatekeepers).

Google conteste les accusations

Google a immédiatement rejeté ces accusations, comme il l’avait déjà fait en juillet face à la plainte des éditeurs indépendants qui a déclenché cette enquête. « Cette plainte risque d’étouffer l’innovation sur un marché plus concurrentiel que jamais », a réagi un porte-parole.

Du côté des plaignants, l’Independent Publishers Alliance, le Movement for an Open Web et l’ONG britannique Foxglove ne décolèrent pas. « Google a rompu le pacte qui sous-tend Internet. L’accord était que les sites web seraient indexés, récupérés et affichés lorsqu’ils sont pertinents pour une requête. Tout le monde avait une chance », a déclaré Tim Cowen, avocat conseillant ces groupes, cité par Reuters. « Maintenant, il met son AiO, Gemini, en premier et ajoute l’insulte à l’injure en exploitant le contenu des sites web pour entraîner Gemini. Gemini est le jumeau maléfique de Search.»

Si Google est reconnu coupable de violation des règles antitrust de l’UE, l’amende pourrait atteindre 10% de son chiffre d’affaires annuel mondial.

En septembre dernier, Google a écopé d’une amende de près de 3 milliards € pour avoir favorisé ses propres services de technologie publicitaire. Au total, les amendes infligées par l’UE dépassent 9,5 milliards €, incluant 4,13 milliards pour Android et 2,42 milliards pour avoir écrasé des rivaux dans la recherche shopping. Une pénalité de 1,49 milliard pour AdSense a toutefois été annulée l’année dernière.

The post Google dans le viseur de Bruxelles pour l’utilisation de contenus dans son IA appeared first on Silicon.fr.

Google défend le modèle de sécurité agentique de Chrome

9 décembre 2025 à 13:19

Dans l’immédiat, prière de bloquer tous les navigateurs IA pour minimiser l’exposition au risque.

Un document Gartner publié la semaine dernière fait cette recommandation aux CISO.

Google n’y est peut-être pas resté insensible. Quelques jours plus tard est en tout cas apparu, sur son blog sécurité, un post consacré à la navigation agentique dans Chrome – expérimentée depuis septembre.

Le groupe américain y met en avant son approche de défense « hybride » mêlant couches déterministe et probabiliste. Il l’accompagne d’un lien vers un autre post, daté de juin et centré sur l’injection de prompts dans Gemini (sur l’application et au sein de Google Workspace).

Ce post évoquait déjà l’approche de défense en couches. Entre autres techniques listées :

  • Entraînement de Gemini avec des données antagonistes pour améliorer sa résilience
  • Constitution d’un dataset de vulnérabilités pour entraîner des modèles classificateurs capables de détecter des instructions malveillantes
  • Ajout d’instructions dans les pour rappeler à Gemini de se concentrer sur les tâches demandées et d’ignorer les éventuelles instructions antagonistes
  • Détection et masquage des URL suspectes sur la base de la technologie Safe Browsing
  • Demande de confirmation par l’utilisateur pour certaines actions et fourniture d’informations lorsqu’une attaque est bloquée

Paraphase, spotlighting… Des stratégies pour ignorer le contenu problématique

Dans son post sur la navigation agentique dans Chrome, Google se réfère aussi à ses « principes de sécurité pour les agents ». Synthétisés dans un document publié au printemps, ils figurent plus en détail dans un livre blanc sur la sécurité de Gemini 2.5, publié en parallèle. Parmi les stratégies de défense qui y sont présentées, outre celles susmentionnées, il y a la paraphrase, qui consiste à faire réécrire les données entrantes par une IA distincte afin d’invalider les instructions problématiques.
Il y a aussi le spotlighting. Cette technique de prompt engineering implique d’insérer des marqueurs dans les données d’entrée pour permettre au modèle de distinguer les blocs de tokens non fiables. Microsoft y a dédié un article l’an dernier. Il y expose trois variantes « cumulatives » dites délimitation, datamarking et encodage. La première démarque l’emplacement d’un input dans le prompt en y affixant un ou plusieurs tokens spéciaux. La deuxième va plus loin en entrelaçant un token spécial sur l’ensemble du texte. La troisième rend la démarcation encore plus évidente en transformant le texte avec un algo de type base64 ou ROT13.

Une technique d’extraction de flux made in DeepMind

Dans le modèle de sécurité agentique de Chrome, le spotlighting contribue à ce que Google appelle l’user alignment critic. Objectif : assurer que le modèle préfère suivre les instructions utilisateur et système plutôt que celles issues de contenus externes. L’architecture adoptée dans ce cadre s’inspire du pattern dual-LLM. (en complément au modèle principal, planificateur, un modèle secondaire intervient à chaque fois qu’on travaille avec du contenu non fiable). Elle se nourrit aussi d’une technique que DeepMind a appelée CaMeL. Son principe, dans les grandes lignes : extraire explicitement les flux de contrôle et de données depuis les requêtes fiables, de sorte que les données non fiables que récupère le LLM ne peuvent jamais impacter le flux du programme.

CaMeL

Le modèle secondaire mis en œuvre dans Chrome vérifie chaque action après sa planification et détermine si elle sert ou non l’objectif déclaré. Il ne reçoit que des métadonnées, ce qui évite son empoisonnement par le contenu externe. En cas de rejet d’une action, le modèle principal reçoit du feed-back pour reformuler son plan. Si les rejets s’enchaînent, le contrôle peut être donné à l’utilisateur.

Les défenses statiques comme le spotlighting ont leurs limites face aux attaques adaptatives. Dans ce contexte, il est nécessaire de durcir le modèle principal, en s’appuyant sur ses capacités de raisonnement. On touche là à l’autre composante de l’approche « hybride ». Dans ce domaine, en plus des éléments déjà abordés, on peut élaborer des modèles chargés d’analyser les plans d’actions des agents et de prédire le risque de résultats indésirables.

Les règles same-origin adaptées aux agents

Certaines briques fondamentales du modèle de sécurité de Chrome sont perpétuées dans l’agentique. L’isolation de sites en fait partie (les pages liées à des sites distincts sont toujours placées dans des processus distincts, chacun exécuté dans sa propre sandbox). Il en va de même avec les règles d’origine commune (same-origin policy). Elles limitent la façon dont les documents et les scripts d’une certaine origine peuvent interagir avec les ressources d’une autre origine. Par exemple, en bloquant l’utilisation de JavaScript pour accéder à un document dans un iframe ou pour récupérer des données binaires à partir d’une image intersites. Adaptées aux agents, elles ne leur permettent d’accéder qu’à des données dont l’origine a un lien avec la tâche à effectuer ou que l’utilisateur a explicitement partagées.

Pour chaque tâche, une fonction de portillonnage décide quelles origines sont pertinentes. Elles sont alors séparées en deux ensembles, suivis pour chaque session. D’un côté, les origines en lecture seul (Gemini peut en consommer le contenu). De l’autre, celles en lecture-écriture (Gemini peut réaliser des actions, comme cliquer et saisir des caractères). Si l’origine d’un iframe n’est pas sur la liste des éléments pertinents, le modèle n’en voit pas le contenu. Cela s’applique aussi au contenu issu de l’appel d’outils.

Comme dans le cas de l’user alignment critic, les fonctions de portillonnage ne sont pas exposées au contenu externe.
Il est difficile de trouver le bon équilibre du premier coup, admet Google. C’est en ce sens que le mécanisme actuellement implémenté ne suit que l’ensemble lecture-écriture.

Le programme bug bounty de Chrome clarifié pour l’agentique

Lors de la navigation vers certains sites sensibles (contrôle sur la base d’une liste), l’agent demande confirmation à l’utilisateur. Même chose pour la connexion à un compte à partir du gestionnaire de mots de passe Google. Et plus globalement dès lors que le modèle juge avoir à effectuer une action sensible. Il peut alors solliciter la permission ou donner la main à l’utilisateur.

contrôle utilisateur

Google en a profité pour mettre à jour les lignes directrices du programme de bug bounty de Chrome. Il y clarifie les vulnérabilités agentiques qui peuvent donner lieu à une récompense.

La plus élevée (20 000 $) vaut pour les attaques qui modifient l’état de comptes ou de données. Par exemple, une injection indirecte de prompt permettant un paiement ou une suppression de compte sans confirmation par l’utilisateur. Ce montant ne sera attribué qu’en cas de fort impact, de reproductibilité sur de nombreux sites, de réussite sur au moins la moitié des tentatives, et d’absence de lien étroit avec le prompt utilisateur.

La récompense maximale est fixée à 10 000 $ pour les attaques qui peuvent engendrer l’exfiltration de données sensibles. Et à 3000 $ pour celles qui contourneraient des éléments de sécurité agentique.

récompenses bug bounty Chrome

Illustration générée par IA

The post Google défend le modèle de sécurité agentique de Chrome appeared first on Silicon.fr.

{ Tribune Expert } – L’évolution du risque interne

9 décembre 2025 à 10:08

Le risque interne a toujours représenté un défi pour les organisations. Sa définition a évolué au fil du temps mais sa réalité est la même. Historiquement, le terme « interne » désignait une personne physiquement présente dans l’entreprise : un employé présent au bureau ou un prestataire sur site.

Cette représentation a changé. Les utilisateurs sont désormais dispersés entre le bureau, la maison et d’autres espaces de télétravail, les données résident souvent dans le cloud, et le périmètre traditionnel s’est volatilisé. Aujourd’hui, toute personne ayant accès à cet environnement de confiance est, par définition, un interne.

Ainsi, une question se pose : si un terminal est compromis par un malware avec un accès de type commande-et-contrôle, s’agit-il d’une attaque interne ? Si l’on se réfère à la seule question de l’accès aux données, l’adversaire détient désormais les mêmes privilèges qu’un interne légitime.

Le défi de la détection

Le véritable défi réside dans le fait que les acteurs malveillants sont devenus extrêmement habiles à exploiter ce paysage en mutation. Une fois qu’ils parviennent à compromettre une identité ou un terminal, que ce soit par hameçonnage, en utilisant un malware ou en obtenant des identifiants volés, ils héritent effectivement des permissions et privilèges d’un utilisateur légitime.

À partir de ce moment-là, leurs actions, déplacements et schémas d’accès deviennent presque indiscernables de ceux du personnel de confiance de l’organisation. Plus ces adversaires s’approchent des systèmes critiques et des données sensibles, plus il devient difficile pour les mesures de sécurité traditionnelles de les distinguer des véritables employés ou opérateurs systèmes.

Lorsqu’un attaquant a pénétré dans les systèmes d’une organisation, il devient pratiquement indétectable, semblable aux personnes chargées de gérer et sécuriser ces systèmes. Cet attaquant devient alors un administrateur systèmes.

Cette approche furtive autrement appelée “exploitation des ressources locales” (Living Off The Land, LOTL) s’explique par le fait que les attaquants évitent délibérément de se faire remarquer en utilisant des outils, identifiants et processus déjà présents et approuvés dans l’environnement, plutôt que d’introduire des logiciels suspects ou des comportements inhabituels. Ils restent sous les radars, se fondent parfaitement dans les activités légitimes des utilisateurs, et imitent les opérations quotidiennes de manière à passer inaperçus.

Leur fonctionnement est alors comparable au fait d’entrer dans une entreprise vêtu d’un costume, avec assurance, en adoptant les manières et les routines des employés. Personne ne remet votre présence en question, car vous donnez l’impression d’appartenir à l’organisation et vous agissez en accord avec les habitudes établies.

Cette capacité à se fondre dans la masse représente un défi majeur pour la détection, rendant l’analyse comportementale et la surveillance continue plus cruciales que jamais.

Une défense efficace est imprévisible

Pour détecter ces attaquants, les organisations doivent se concentrer sur le comportement plutôt que sur l’identité seule. Il convient alors d’observer et d’identifier les écarts par rapport au comportement normal. Qu’il s’agisse d’un acte malveillant ou d’un compte compromis, les schémas comportementaux sont souvent similaires lorsque l’objectif est d’accéder à des ressources de grande valeur et à des données sensibles. En mettant en place des pièges pour détecter une activité inhabituelle, les équipes informatiques peuvent intercepter les menaces internes avant qu’elles ne dégénèrent en incidents majeurs.

Cependant, les pièges à eux seuls ne suffisent pas à garantir une résilience totale. Le Zero Trust reste l’élément crucial de toute stratégie de défense. Cette approche repose sur le principe que la confiance ne peut être ni statique ni implicite : elle doit être continuellement évaluée. Une authentification forte, des terminaux d’entreprise sécurisés et une surveillance continue ont rendu plus difficile la compromission des systèmes par les attaquants. Pourtant, les décideurs en matière de sécurité doivent aller plus loin en adoptant ce que l’on appelle la confiance négative (Negative Trust).

La confiance négative introduit une tromperie contrôlée et de l’imprévisibilité dans les systèmes afin de perturber les attaquants. Cette approche est efficace car la prévisibilité constitue un risque que beaucoup d’organisations négligent. Les entreprises fonctionnent souvent de manière trop standardisée, ce qui facilite le cheminement et les méthodes des adversaires. En rendant les systèmes imprévisibles, en introduisant de la variabilité et en ajoutant du bruit contrôlé dans l’environnement, il devient plus difficile pour les attaquants de se déplacer et plus facile pour les défenseurs de détecter leur présence.

En effet, lorsque les données sont chiffrées, l’entropie augmente et les données semblent aléatoires. Les adversaires détestent l’entropie. À l’intérieur d’un environnement, la prévisibilité produit le même effet. Plus les systèmes sont prévisibles, plus il est facile pour les attaquants de se déplacer sans être détectés. La confiance négative ajoute du bruit, augmente l’entropie et rend l’environnement imprévisible, forçant ainsi les attaquants à tomber dans des leurres.

Perspectives

À mesure que les adversaires utilisent des sites de confiance pour se dissimuler à la vue de tous, ils se connectent plutôt que de « pirater » leur accès aux organisations. Chaque attaque commence désormais à ressembler à une attaque interne, que l’utilisateur soit réellement employé ou non.

C’est pourquoi chaque menace doit être traitée comme une menace interne. Pour ce faire, il faut réduire les vecteurs d’attaque en suivant les principes du Zero Trust, puis en ajoutant du bruit par le biais de la confiance négative. C’est là, la voie à suivre.

Les organisations doivent nettement améliorer leur capacité à détecter les comportements malveillants, surtout à une époque où les adversaires sont prêts à payer des employés pour qu’ils divulguent des données ou remettent simplement des cookies d’authentification issus de leurs navigateurs. Alors que l’accès est le nouveau périmètre, le comportement de chaque utilisateur est le seul véritable indicateur de confiance.

*Tony Fergusson est CISO en résidence chez Zscaler

The post { Tribune Expert } – L’évolution du risque interne appeared first on Silicon.fr.

Vade acquis par Proofpoint : Bercy valide sans répondre aux inquiétudes

9 décembre 2025 à 09:31

Vade est désormais officiellement sous contrôle américain.

La bascule s’est jouée en deux temps. L’éditeur français était d’abord tombé, en mars 2024, dans le giron de son concurrent allemand Hornetsecurity.
Ce dernier s’est ensuite vendu à Proofpoint. Le deal avait été officialisé en mai 2025, mais vient seulement d’être bouclé. Vade faisant partie du « package », les deux entreprises avaient effectivement besoin de l’approbation du ministère français de l’Économie et des Finances, au titre du contrôle des investissements étrangers directs en France.

Proofpoint s’est contractuellement engagé, auprès de Bercy, à respecter diverses conditions en termes d’implantation et d’emploi de la R&D en France ; ainsi que de « développement de l’emploi plus largement sur le territoire » nous explique-t-on.

Le montant total de l’acquisition s’élève à 1,8 Md$.

À l’Assemblée et au Sénat, des questions restées sans réponse

Les questions que Philippe Latombe et Mickaël Vallet avaient adressées au Gouvernement seront donc restées sans réponse.

Les deux élus s’étaient tour à tour inquiétés des conséquences potentielles de l’acquisition sur la souveraineté nationale et européenne.

Philippe Latombe – député de Vendée, groupe Les Démocrates – avait demandé que le SISSE (Service de l’information stratégique et de la sécurité, rattaché à la Direction générale des entreprises) se saisisse du dossier. L’intéressé souhaitait savoir dans quelle mesure il était possible de s’opposer à l’opération, notamment en interpellant le gouvernement allemand. Il avait rappelé le passé conflictuel de Vade et de Proofpoint. Le premier avait en l’occurrence été traîné en justice par le second pour infractions au copyright et vol de secrets industriels et commerciaux. C’était en 2019. Deux ans plus tard, un tribunal américain l’avait déclaré coupable, lui infligeant une amende de 13,5 M$.

Mickaël Vallet (sénateur de Charente-Maritime, groupe socialiste) craignait que Vade, mobilisé par de nombreux opérateurs publics et entreprises stratégiques, se retrouve sous la juridiction extraterritoriale américaine. Il avait demandé au Gouvernement quelles garanties concrètes seraient exigées face à ce risque, tant sur les données que sur les infrastructures.

Le cas Vade mentionné dans un rapport sur la guerre économique

Le cas Vade est brièvement mentionné dans un rapport d’information sur la guerre économique déposé en juillet par la commission des Finances, de l’Économie générale et du Contrôle budgétaire à l’Assemblée nationale. Constat : ce double rachat – par Hornetsecurity puis par Proofpoint – a « montré combien la coordination européenne en matière de souveraineté technologique était insuffisante. […] De fait, les activités de Vade seront désormais soumises au droit américain, avec une risque de perte de contrôle sur les données des clients européens ».

Ce même rapport préconise un renforcement du contrôle des investissements étrangers en Europe. Il rappelle qu’en 2024, la Commission européenne a amorcé une révision de la réglementation. Objectif : imposer à tous les États de se doter d’un mécanisme de filtrage, harmoniser les règles nationales et étendre le champ des contrôles aux opérations initiées par un investisseur établi au sein de l’UE mais contrôlé en dernier ressort par des personnes ou entités d’un pays tiers.

Illustration générée par IA

The post Vade acquis par Proofpoint : Bercy valide sans répondre aux inquiétudes appeared first on Silicon.fr.

Reçu — 8 décembre 2025 Silicon

IBM rachète Confluent pour 11 milliards $

8 décembre 2025 à 14:13

Avec l’acquisition de Confluent pour une valeur de 11 milliards $, IBM réalise l’une de ses plus importantes opérations depuis le rachat de Red Hat en 2019.

Cette transaction permet au groupe d’Armonk de s’emparer d’une technologie devenue stratégique : le traitement de données massives en temps réel, indispensable au fonctionnement des applications d’intelligence artificielle les plus avancées.

Avec cette acquisition, IBM entend créer une plateforme de données intelligente spécialement conçue pour l’IA d’entreprise, capable de connecter et faire circuler les informations entre environnements, applications et interfaces de programmation.

Confluent : un acteur clé du streaming de données

Basée à Mountain View en Californie, Confluent s’est imposée comme un pionnier du streaming de données en temps réel, une technologie devenue cruciale pour alimenter les applications d’intelligence artificielle. La plateforme, construite sur Apache Kafka, permet aux entreprises de connecter, traiter et gérer des flux massifs de données instantanément, éliminant les silos inhérents aux systèmes d’IA agentique.

La société compte plus de 6 500 clients à travers le monde, dont plus de 40% des entreprises du Fortune 500. Michelin utilise ainsi sa plateforme pour optimiser en temps réel ses stocks de matières premières et semi-finies. Instacart a déployé la technologie pour développer des systèmes de détection de fraude et améliorer la visibilité des produits disponibles sur sa plateforme de livraison.

Une stratégie d’acquisitions assumée

Pour Arvind Krishna, PDG d’IBM depuis 2020, cette transaction s’inscrit dans une politique volontariste de croissance externe visant à positionner le groupe sur les segments à forte croissance et marges élevées du logiciel et du cloud.

Cette acquisition fait suite au rachat d’HashiCorp pour 6,4 milliards $ en avril 2024 et, surtout, à l’opération Red Hat de 34 milliards $ en 2019, considérée par les analystes comme le catalyseur central de la transformation cloud d’IBM.

Le timing de l’opération  n’est pas anodin. Selon IDC, plus d’un milliard de nouvelles applications logiques devraient émerger d’ici 2028, remodelant les architectures technologiques dans tous les secteurs. Le marché adressable de Confluent a doublé en quatre ans, passant de 50 milliards $ à 100 milliards en 2025.

Des synergies attendues

Les deux entreprises collaboraient déjà depuis cinq ans dans le cadre d’un partenariat permettant à certains clients d’IBM d’utiliser la plateforme de Confluent. L’intégration devrait permettre de créer des synergies substantielles à travers l’ensemble du portefeuille d’IBM, notamment dans l’IA, l’automatisation, les données et le conseil.

Les principaux actionnaires de Confluent, détenant collectivement environ 62% des droits de vote, ont conclu un accord de vote avec IBM, s’engageant à soutenir la transaction et à s’opposer à toute opération alternative. En cas d’échec ou de résiliation de l’accord, IBM devra verser à Confluent une indemnité de rupture de 453,6 millions $.

IBM a financé l’opération avec sa trésorerie disponible. La transaction, soumise à l’approbation des actionnaires de Confluent et aux autorisations réglementaires, devrait se finaliser d’ici la mi-2026.

The post IBM rachète Confluent pour 11 milliards $ appeared first on Silicon.fr.

L’UE sanctionne X : première amende historique dans le cadre du DSA

8 décembre 2025 à 11:59

Un coup de semonce contre Elon Musk ou le début d’une série de sanctions contre les réseaux sociaux ? Vendredi 5 décembre 2025, la Commission européenne a infligé une amende de 120 millions € à X, son réseau social racheté en 2022.

Cette sanction constitue la première application concrète du Digital Services Act (DSA), le règlement européen sur les services numériques entré en vigueur il y a deux ans. Une décision qui intervient après deux années d’enquête et qui s’annonce comme le début d’un bras de fer politique majeur entre Bruxelles et Washington.

Trois infractions majeures sanctionnées

La Commission européenne a retenu trois violations distinctes des obligations de transparence imposées par le DSA, toutes notifiées initialement en juillet 2024.

Le premier grief concerne la coche bleue, utilisée auparavant pour signaler des comptes officiels gratuits mais désormais vendue 7 euros par mois. Bruxelles estime que cette pratique constitue une forme de conception trompeuse qui viole le DSA. Selon les nouveaux paramètres de X, un compte doté d’une coche peut ne pas signaler un utilisateur réel et être un robot, a déclaré la Commission.

L’exécutif européen précise que si le DSA n’impose pas aux plateformes de vérifier l’identité de leurs membres, il leur interdit en revanche de prétendre faussement qu’une telle vérification a eu lieu. Ce système expose les utilisateurs à des risques accrus d’escroquerie par usurpation d’identité et de manipulation par des acteurs malveillants.

Le deuxième manquement porte sur le registre publicitaire de X, qui ne respecte pas les exigences de transparence du DSA. L’accès au répertoire est rendu difficile et des informations essentielles manquent, notamment l’identité de l’entité qui finance les campagnes publicitaires. Cette opacité empêche la surveillance efficace des risques, notamment la détection d’escroqueries ou de campagnes de menaces hybrides.

Enfin, X est accusé d’imposer des obstacles inutiles aux chercheurs indépendants qui veulent avoir accès à ses données publiques, comme le nombre de vues, de likes, de partages, les tendances de hashtags. Les conditions de service de la plateforme interdisent explicitement cet accès indépendant. En étudiant des phénomènes comme la polarisation des publics ou comment des contenus se propagent sur les réseaux sociaux, les chercheurs peuvent éventuellement détecter des risques systémiques pour nos démocraties, comme les tentatives d’ingérences étrangères lors des élections.

Une amende « proportionnée » selon Bruxelles

La Commission européenne a défendu le montant de la sanction, soulignant sa proportionnalité. Le DSA prévoit théoriquement des amendes pouvant atteindre 6% du chiffre d’affaires mondial annuel pour chaque infraction constatée. Face aux critiques, Henna Virkkunen, vice-présidente de la Commission chargée de la souveraineté technologique, a expliqué que la sanction prenait en compte la nature, la gravité et la durée des infractions commises.

Avant de préciser, les amendes se calculent sur base de critères qui tiennent compte de la nature des infractions, de leur gravité et de leur durée. Sur cette base, l’amende pour les coches bleues a été estimée à 45 millions €, celle pour les publicités à 35 millions et celle pour l’accès aux données à 40 millions €.

Une tempête politique transatlantique

La décision de Bruxelles a déclenché une vive réaction du côté américain, même avant son annonce officielle. Le vice-président américain JD Vance a dénoncé la démarche européenne en déclarant que l’UE devrait défendre la liberté d’expression au lieu de s’en prendre à des entreprises américaines pour des foutaises, s’attirant un message de remerciement d’Elon Musk.

Le chef de la diplomatie américaine Marco Rubio a estimé que l’amende infligée par l’Union européenne constituait une attaque contre le peuple américain par des gouvernements étrangers, affirmant que l’époque de la censure en ligne était révolue.

Face à ces accusations, Henna Virkkunen a fermement répondu que l’amende n’avait rien à voir avec de la censure, précisant que la Commission n’était pas là pour imposer les amendes les plus élevées, mais pour s’assurer que les lois sur le numérique soient respectées.

Elon Musk a déclaré samedi sur sa plateforme que l’UE devrait être abolie, dénonçant la surrégulation de l’Union européenne.

Cette affaire s’inscrit dans un contexte de tensions croissantes entre Washington et Bruxelles sur la régulation numérique et les relations commerciales.

Des enquêtes encore en cours

La sanction annoncée ne couvre que les infractions identifiées en juillet 2024. La Commission européenne a précisé que plusieurs enquêtes concernant X se poursuivent, notamment sur des soupçons de non-respect des obligations en matière de contenus illégaux et de désinformation. Bruxelles s’attend à ce que ces enquêtes soient bouclées plus rapidement que la première.

Le réseau X a entre 60 et 90 jours pour se mettre en conformité. S’il ne le fait pas, des amendes supplémentaires pourraient lui être infligées.

Un symbole de la souveraineté numérique européenne

Cette première amende dans le cadre du DSA marque un tournant dans l’approche réglementaire de l’Union européenne. La Commission montre qu’elle ne se laisse pas intimider par les pressions américaines, malgré un contexte de négociations commerciales tenduesX

Pour les utilisateurs européens de X, des changements sont attendus : interface modifiée, notifications renforcées, refonte du processus de vérification et amélioration de la transparence publicitaire. La plateforme devra également ouvrir l’accès à certaines données pour la recherche académique.

The post L’UE sanctionne X : première amende historique dans le cadre du DSA appeared first on Silicon.fr.

{ Tribune Expert } – Sécuriser la GenAI commence par un inventaire clair et une visibilité réelle sur ses composants

8 décembre 2025 à 11:18

La plupart des organisations ont découvert la GenAI ces dernières années. Dès lors, elles ont avancé vite, très vite. Les usages ont rapidement fleuri et les projets se sont empilés, mais un constat a fini par s’imposer dans les discussions entre équipes techniques : impossible d’ignorer plus longtemps les risques spécifiques liés aux grands modèles de langage.

Car c’est peu de dire que la sécurité des LLM a, dans un premier temps, été reléguée au second plan. L’arrivée de l’OWASP LLM Top 10 change cet état de fait en apportant un cadre clair pour identifier les vulnérabilités critiques observées dans les applications et comprendre comment les atténuer.

L’OWASP, pour Open Web Application Security Project, est une organisation internationale dédiée à la sécurité des logiciels. Le référentiel LLM top 10, recense les 10 principaux risques de sécurité liés spécifiquement aux modèles de langage (LLM) et aux applications qui les utilisent. Il donne enfin un vocabulaire commun aux développeurs, aux architectes et aux équipes sécurité. Sa vocation est simple : rendre les charges de travail IA plus sûres, en offrant des repères que les entreprises n’avaient pas jusqu’ici.

L’initiative a d’ailleurs pris de l’ampleur et s’inscrit désormais dans le GenAI Security Project, un effort mondial qui dépasse la seule liste des dix risques initiaux et fédère plusieurs travaux autour de la sécurité de l’IA générative.

Ce mouvement répond à une réalité vécue sur le terrain. Beaucoup d’équipes peinent encore à s’aligner au moment de déployer des technologies GenAI : responsabilités dispersées, rythmes différents et une question récurrente sur la manière d’aborder ce sujet émergent. L’OWASP arrive justement pour apporter cette cohérence, avec des contrôles compréhensibles et applicables dans des environnements où tout s’accélère.

Sa singularité tient aussi à sa place dans l’écosystème. Là où des cadres de classification des menaces comme MITRE ATT&CK et MITRE ATLAS décrivent surtout les tactiques et techniques d’attaque, l’OWASP LLM top 10 se concentre sur les risques spécifiques aux modèles génératifs. Il offre ainsi une grille de lecture complémentaire et nécessaire pour mieux structurer les priorités.

GenAI, Kubernetes et l’élargissement de la surface d’attaque

Si l’OWASP LLM Top 10 arrive à point nommé, c’est aussi parce que les environnements techniques qui portent la GenAI ont profondément changé.

Les organisations ne se contentent plus d’utiliser des services grand public. Elles déploient désormais leurs propres modèles, souvent au sein de plateformes cloud native pensées pour absorber des volumes variables et des charges de calcul élevées.

L’écosystème s’est transformé à grande vitesse, avec l’adoption de solutions comme Llama 2, Midjourney, ElevenLabs, ChatGPT ou encore Sysdig Sage dans des environnements Kubernetes taillés pour la scalabilité et l’orchestration.

Cette transition a un effet immédiat car elle élargit la surface d’attaque. Un modèle d’IA déployé dans un cluster Kubernetes n’a rien à voir avec une application traditionnelle exécutée on-premises. Les risques ne sont plus seulement liés aux données ou au comportement du modèle, mais à toute la chaîne qui l’entoure. Un conteneur mal configuré, un composant obsolète ou un accès mal maîtrisé peuvent suffire à exposer l’ensemble de l’infrastructure.

La complexité de ces environnements accentue un phénomène déjà bien visible : l’absence de repères communs pour comprendre ce qui relève d’un risque LLM, d’une mauvaise configuration Kubernetes ou d’un problème de chaîne d’approvisionnement logicielle.

Dans un tel contexte, la seule intuition ne suffit plus. Les équipes doivent composer avec des technologies qui évoluent plus vite que les pratiques internes, tout en tenant compte d’un paysage réglementaire qui se densifie, notamment avec l’entrée en vigueur de l’AI Act en Europe en 2025.

C’est précisément cette convergence, qui englobe nouveaux usages, infrastructures distribuées et pression réglementaire, qui rend indispensable une approche structurée de la sécurité GenAI. Et c’est là que l’OWASP pose les premières briques d’une méthodologie enfin partagée.

Poser les fondations d’une sécurité opérationnelle et efficace !

Face à ces environnements qui se complexifient, l’adage à retenir est que l’on ne protège correctement que ce qu’on voit réellement. Or, la majorité des organisations manquent encore d’un inventaire fiable de leurs actifs IA, qu’il s’agisse de modèles internes ou de solutions tierces intégrées rapidement. L’OWASP rappelle d’ailleurs que cette visibilité constitue la première étape d’une sécurité GenAI solide.

C’est là que certaines approches prennent tout leur sens, comme l’identification automatique des endroits où les paquets IA s’exécutent, en reliant ces informations aux événements d’exécution (runtime), aux vulnérabilités et aux mauvaises configurations. L’objectif est simple : faire émerger les risques réels, là où ils apparaissent.

La visibilité passe aussi par la SBOM (Software Bill of Materials). En y intégrant les composants d’IA, les équipes disposent d’une liste complète de tous les éléments qui composent leurs charges de travail GenAI. Ce recensement permet ensuite de prioriser les charges de travail selon leur niveau de risque.

Enfin, pour structurer cette démarche, les organisations peuvent s’appuyer sur des rapports OWASP Top 10 préconfigurés et sur l’alignement avec MITRE ATLAS, qui éclaire la manière dont les modèles peuvent être ciblés selon des tactiques d’attaque documentées.

En réunissant ces briques (inventaire, SBOM et visibilité sur l’exécution au runtime) les équipes disposent non seulement d’informations, mais d’une lecture hiérarchisée et exploitable de leurs risques GenAI. C’est cette capacité à voir, comprendre et prioriser qui transforme enfin la sécurité de l’IA en pratique opérationnelle.

Philippe Darley est expert sécurité du Cloud chez Sysdig

The post { Tribune Expert } – Sécuriser la GenAI commence par un inventaire clair et une visibilité réelle sur ses composants appeared first on Silicon.fr.

❌