Vue normale

{ Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage

12 décembre 2025 à 13:45

Il y a quelque temps, le dirigeant de l’une des plus grandes entreprises tech au monde expliquait dans un podcast que les organisations qui utilisent l’intelligence artificielle (IA) pour accroître leur productivité et stimuler l’économie seront les véritables gagnants de cette révolution.

Cette déclaration met en lumière les avancées concrètes observées avec l’IA générative, en particulier avec les petits modèles de langage (SLM) et les agents d’IA. Moins visibles que les grands modèles de langage (LLM) qui équipent sur les ordinateurs portables et les smartphones, les SLM offrent des avantages remarquables et des applications concrètes pour les équipes terrain, notamment dans des secteurs comme celui de la distribution.

Une sélection de SLM dédiés, intégrée à une suite d’agents d’IA, peut être optimisée de manière efficace pour l’automatisation intelligente de tâches spécifiques. Ces capacités d’IA permettent aux équipes terrain de capturer facilement le contexte de leurs workflows, puis de l’intégrer directement dans un terminal mobile doté d’agents d’IA afin d’améliorer la productivité, l’expérience client, et renforcer la visibilité des actifs.

Rendre l’IA réelle

Les SLM sont également idéaux pour des capacités d’IA embarquée (on-device AI). Ils apportent cette technologie directement sur des terminaux mobiles, transportables et autres terminaux aux ressources limitées, permettant ainsi des fonctionnalités telles que les assistants vocaux hors ligne et la traduction en temps réel.

Les agents d’IA basés sur des SLM permettent de mettre en œuvre des applications d’edge computing, en traitant les données au plus près de leur source, ce qui réduit la latence et la consommation de bande passante.

Cette technologie offre des avantages significatifs aux équipes terrain dans la distribution, les entrepôts et la logistique, en améliorant la prise de décision en temps réel et l’efficacité opérationnelle. Voici quelques exemples d’agents IA générés par des SLM :

1. Agent de connaissances : capable d’interagir en langage naturel avec les supports de formation et les procédures opérationnelles standards pour faciliter l’intégration des collaborateurs, et leur fournir l’information dont ils ont besoin dès qu’ils en ont besoin.

2. Agent de vente : aide à répondre aux questions des clients et collaborateurs, interroge en direct les stocks et les prix, et propose des recommandations de vente croisées ou additionnelles.

3. Agent de merchandising : combine reconnaissance d’image embarquée et vision par ordinateur pour automatiser l’analyse de l’état des rayons, identifier les ruptures, erreurs de placement, non-conformités planogramme ou erreurs de prix et de signalétique.

L’IA au bon moment, et sans cloud

Les SLM embarqués présentent des avantages particulièrement intéressants pour les équipes informatiques, innovation et techniques, notamment en matière de confidentialité :

● Confidentialité renforcée : les données de l’utilisateur ne quittent en effet jamais l’appareil, ce qui réduit le risque de violation de données et garantit un meilleur contrôle des informations personnelles.

● Faible latente : le traitement s’effectue localement, sans qu’il soit nécessaire d’interroger un serveur éloigné. Les réponses sont ainsi quasi instantanées, ce qui est essentiel pour les applications en temps réel, telles que les assistants vocaux ou la traduction.

● Réduction des coûts de bande passante et de cloud : comme les données ne sont plus systématiquement envoyées dans le cloud, le traitement local diminue l’usage des données mobiles et les dépenses liées au calcul des LLM dans le cloud.

● Fonctionnalités hors-ligne : lorsque les LLM sont intégrés aux appareils, l’IA peut continuer à fonctionner sans connexion Internet, ce qui est particulièrement utile dans les zones où la connectivité est limitée ou instable.

L’avenir est aux agents d’IA multimodaux

Le futur de l’IA est intrinsèquement multimodal. Les êtres humains n’expérimentent pas le monde uniquement par le texte ; ils utilisent tous leurs sens. L’IA doit faire de même en s’appuyant sur tous ces « sens » pour réellement comprendre et interagir efficacement avec le monde.

La bonne nouvelle, c’est que les SLM et les agents IA peuvent être multimodaux, comme dans l’exemple de l’agent merchandising évoqué précédemment. Pour exploiter pleinement leur potentiel, notamment lorsqu’ils sont déployés sur des appareils en périphérie, ils doivent justement être multimodaux, et ne pas se limiter au traitement et à la génération de texte. Deux approches principales permettent d’atteindre cet objectif :

● Les SLM multimodaux intégrés sont conçus pour traiter plusieurs modalités directement. Cette approche est la plus efficace, mais elle requiert un travail de conception et d’entraînement particulièrement méticuleux.

● Les systèmes multimodaux modulaires combinent un SLM avec des modèles spécialisés distincts (par exemple un modèle de reconnaissance d’images ou de transcription de la parole en texte). Le SLM joue alors le rôle de coordinateur en traitant le texte et en interagissant avec les autres modèles selon les besoins.

La tendance est aux SLM multimodaux plus intégrés, à mesure que la technologie évolue et que l’entraînement des modèles, même complexes, gagne en efficacité. Toutefois, une approche modulaire reste souvent plus simple et plus rentable à court terme.

L’avenir reposera probablement sur une combinaison des deux approches, en fonction des cas d’usage et des ressources disponibles. Les travaux de R&D actuels permettront de créer des SLM multimodaux intégrés et des agents IA plus efficaces et plus puissants, tout en développant des systèmes modulaires robustes, faciles à personnaliser et à déployer sur une large gamme d’appareils.

L’objectif est de permettre à des systèmes d’IA de comprendre le monde à travers plusieurs prismes, afin d’offrir des interactions plus naturelles, intuitives et efficaces avec les humains et leur environnement. L’IA qui améliore le travail au quotidien sera la véritable gagnante de demain.

*Andrea Mirabile est directeur global de la recherche en intelligence artificielle de Zebra Technologies

The post { Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage appeared first on Silicon.fr.

Pourquoi Adobe s’invite dans ChatGPT

10 décembre 2025 à 15:52

Adobe va intégré Photoshop, Adobe Express et Acrobat dans ChatGPT. Les utilisateurs pourront taper une requête dans ChatGPT pour retoucher des photos, créer un graphique, animer des designs ou résumer un PDF, déclenchant automatiquement l’outil correspondant.

Adobe va ainsi toucher les 800 millions d’utilisateurs actifs hebdomadaires de ChatGPT qui devront créer un compte Adobe pour utiliser les applications au sein de ChatGPT.

Ce lancement s’appuie sur l’annonce d’Adobe fin octobre, lorsque l’entreprise avait remanié ses outils de montage vidéo et d’édition d’images pour permettre aux utilisateurs d’exécuter des tâches via des assistants IA conversationnels. L’intégration dans ChatGPT s’inscrit dans la continuité de cette innovation en matière d’IA agentique et du protocole MCP.

Une adaptation aux bouleversements de l’IA

En août dernier, Adobe avait lancé Acrobat Studio, transformant les documents statiques en espaces de travail interactifs alimentés par l’IA. Lors de sa conférence Adobe MAX, l’éditeur avait également présenté des assistants IA pour Photoshop et Adobe Express, permettant à chacun de créer en utilisant ses propres mots et d’affiner les résultats avec les outils de classe mondiale de l’entreprise.

Son accord avec OpenAI intervient à un moment où Adobe intensifie ses efforts pour s’adapter aux transformations engendrées par l’IA dans les marchés du design professionnel, tout en élargissant sa portée auprès de nouveaux publics qui découvrent ses applications pour la première fois.

Les termes financiers de l’accord ne sont pas dévoilés.

The post Pourquoi Adobe s’invite dans ChatGPT appeared first on Silicon.fr.

L’Agentic AI Foundation veut imposer les standards de l’IA autonome

10 décembre 2025 à 15:17

Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.

OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.

Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM  Salesforce.

L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.

Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.

Trois briques technologiques au cœur du dispositif

L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.

De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.

OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.

Un soutien des géants du cloud

L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.

Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.

Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.

The post L’Agentic AI Foundation veut imposer les standards de l’IA autonome appeared first on Silicon.fr.

IA de défense : Airbus décroche un contrat de 50 millions €

10 décembre 2025 à 14:33

Airbus franchit une nouvelle étape dans le secteur de la défense. L’industriel européen vient de signer un contrat de 50 millions € avec l’Agence ministérielle pour l’intelligence artificielle de défense (AMIAD) pour intégrer des technologies d’IA dans les systèmes militaires français.

Spationav, première cible de la modernisation

La phase initiale de ce contrat se concentrera sur la modernisation de Spationav, le système français de surveillance maritime. L’objectif : intégrer l’intelligence artificielle pour traiter les données issues des satellites, permettant ainsi une analyse plus rapide et plus précise des informations collectées.

Les applications futures devraient s’étendre à des domaines stratégiques comme le renseignement, la cybersécurité et la gestion des réseaux de télécommunications militaires.

L’ambition de la France est de centraliser l’ensemble des données collectées par ses capteurs dispersés sur satellites, radars et drones. Cette approche intégrée vise à offrir une vision unifiée et en temps réel du champ de bataille moderne, où l’information devient un atout aussi décisif que l’armement lui-même.

The post IA de défense : Airbus décroche un contrat de 50 millions € appeared first on Silicon.fr.

Google défend le modèle de sécurité agentique de Chrome

9 décembre 2025 à 13:19

Dans l’immédiat, prière de bloquer tous les navigateurs IA pour minimiser l’exposition au risque.

Un document Gartner publié la semaine dernière fait cette recommandation aux CISO.

Google n’y est peut-être pas resté insensible. Quelques jours plus tard est en tout cas apparu, sur son blog sécurité, un post consacré à la navigation agentique dans Chrome – expérimentée depuis septembre.

Le groupe américain y met en avant son approche de défense « hybride » mêlant couches déterministe et probabiliste. Il l’accompagne d’un lien vers un autre post, daté de juin et centré sur l’injection de prompts dans Gemini (sur l’application et au sein de Google Workspace).

Ce post évoquait déjà l’approche de défense en couches. Entre autres techniques listées :

  • Entraînement de Gemini avec des données antagonistes pour améliorer sa résilience
  • Constitution d’un dataset de vulnérabilités pour entraîner des modèles classificateurs capables de détecter des instructions malveillantes
  • Ajout d’instructions dans les pour rappeler à Gemini de se concentrer sur les tâches demandées et d’ignorer les éventuelles instructions antagonistes
  • Détection et masquage des URL suspectes sur la base de la technologie Safe Browsing
  • Demande de confirmation par l’utilisateur pour certaines actions et fourniture d’informations lorsqu’une attaque est bloquée

Paraphase, spotlighting… Des stratégies pour ignorer le contenu problématique

Dans son post sur la navigation agentique dans Chrome, Google se réfère aussi à ses « principes de sécurité pour les agents ». Synthétisés dans un document publié au printemps, ils figurent plus en détail dans un livre blanc sur la sécurité de Gemini 2.5, publié en parallèle. Parmi les stratégies de défense qui y sont présentées, outre celles susmentionnées, il y a la paraphrase, qui consiste à faire réécrire les données entrantes par une IA distincte afin d’invalider les instructions problématiques.
Il y a aussi le spotlighting. Cette technique de prompt engineering implique d’insérer des marqueurs dans les données d’entrée pour permettre au modèle de distinguer les blocs de tokens non fiables. Microsoft y a dédié un article l’an dernier. Il y expose trois variantes « cumulatives » dites délimitation, datamarking et encodage. La première démarque l’emplacement d’un input dans le prompt en y affixant un ou plusieurs tokens spéciaux. La deuxième va plus loin en entrelaçant un token spécial sur l’ensemble du texte. La troisième rend la démarcation encore plus évidente en transformant le texte avec un algo de type base64 ou ROT13.

Une technique d’extraction de flux made in DeepMind

Dans le modèle de sécurité agentique de Chrome, le spotlighting contribue à ce que Google appelle l’user alignment critic. Objectif : assurer que le modèle préfère suivre les instructions utilisateur et système plutôt que celles issues de contenus externes. L’architecture adoptée dans ce cadre s’inspire du pattern dual-LLM. (en complément au modèle principal, planificateur, un modèle secondaire intervient à chaque fois qu’on travaille avec du contenu non fiable). Elle se nourrit aussi d’une technique que DeepMind a appelée CaMeL. Son principe, dans les grandes lignes : extraire explicitement les flux de contrôle et de données depuis les requêtes fiables, de sorte que les données non fiables que récupère le LLM ne peuvent jamais impacter le flux du programme.

CaMeL

Le modèle secondaire mis en œuvre dans Chrome vérifie chaque action après sa planification et détermine si elle sert ou non l’objectif déclaré. Il ne reçoit que des métadonnées, ce qui évite son empoisonnement par le contenu externe. En cas de rejet d’une action, le modèle principal reçoit du feed-back pour reformuler son plan. Si les rejets s’enchaînent, le contrôle peut être donné à l’utilisateur.

Les défenses statiques comme le spotlighting ont leurs limites face aux attaques adaptatives. Dans ce contexte, il est nécessaire de durcir le modèle principal, en s’appuyant sur ses capacités de raisonnement. On touche là à l’autre composante de l’approche « hybride ». Dans ce domaine, en plus des éléments déjà abordés, on peut élaborer des modèles chargés d’analyser les plans d’actions des agents et de prédire le risque de résultats indésirables.

Les règles same-origin adaptées aux agents

Certaines briques fondamentales du modèle de sécurité de Chrome sont perpétuées dans l’agentique. L’isolation de sites en fait partie (les pages liées à des sites distincts sont toujours placées dans des processus distincts, chacun exécuté dans sa propre sandbox). Il en va de même avec les règles d’origine commune (same-origin policy). Elles limitent la façon dont les documents et les scripts d’une certaine origine peuvent interagir avec les ressources d’une autre origine. Par exemple, en bloquant l’utilisation de JavaScript pour accéder à un document dans un iframe ou pour récupérer des données binaires à partir d’une image intersites. Adaptées aux agents, elles ne leur permettent d’accéder qu’à des données dont l’origine a un lien avec la tâche à effectuer ou que l’utilisateur a explicitement partagées.

Pour chaque tâche, une fonction de portillonnage décide quelles origines sont pertinentes. Elles sont alors séparées en deux ensembles, suivis pour chaque session. D’un côté, les origines en lecture seul (Gemini peut en consommer le contenu). De l’autre, celles en lecture-écriture (Gemini peut réaliser des actions, comme cliquer et saisir des caractères). Si l’origine d’un iframe n’est pas sur la liste des éléments pertinents, le modèle n’en voit pas le contenu. Cela s’applique aussi au contenu issu de l’appel d’outils.

Comme dans le cas de l’user alignment critic, les fonctions de portillonnage ne sont pas exposées au contenu externe.
Il est difficile de trouver le bon équilibre du premier coup, admet Google. C’est en ce sens que le mécanisme actuellement implémenté ne suit que l’ensemble lecture-écriture.

Le programme bug bounty de Chrome clarifié pour l’agentique

Lors de la navigation vers certains sites sensibles (contrôle sur la base d’une liste), l’agent demande confirmation à l’utilisateur. Même chose pour la connexion à un compte à partir du gestionnaire de mots de passe Google. Et plus globalement dès lors que le modèle juge avoir à effectuer une action sensible. Il peut alors solliciter la permission ou donner la main à l’utilisateur.

contrôle utilisateur

Google en a profité pour mettre à jour les lignes directrices du programme de bug bounty de Chrome. Il y clarifie les vulnérabilités agentiques qui peuvent donner lieu à une récompense.

La plus élevée (20 000 $) vaut pour les attaques qui modifient l’état de comptes ou de données. Par exemple, une injection indirecte de prompt permettant un paiement ou une suppression de compte sans confirmation par l’utilisateur. Ce montant ne sera attribué qu’en cas de fort impact, de reproductibilité sur de nombreux sites, de réussite sur au moins la moitié des tentatives, et d’absence de lien étroit avec le prompt utilisateur.

La récompense maximale est fixée à 10 000 $ pour les attaques qui peuvent engendrer l’exfiltration de données sensibles. Et à 3000 $ pour celles qui contourneraient des éléments de sécurité agentique.

récompenses bug bounty Chrome

Illustration générée par IA

The post Google défend le modèle de sécurité agentique de Chrome appeared first on Silicon.fr.

IBM rachète Confluent pour 11 milliards $

8 décembre 2025 à 14:13

Avec l’acquisition de Confluent pour une valeur de 11 milliards $, IBM réalise l’une de ses plus importantes opérations depuis le rachat de Red Hat en 2019.

Cette transaction permet au groupe d’Armonk de s’emparer d’une technologie devenue stratégique : le traitement de données massives en temps réel, indispensable au fonctionnement des applications d’intelligence artificielle les plus avancées.

Avec cette acquisition, IBM entend créer une plateforme de données intelligente spécialement conçue pour l’IA d’entreprise, capable de connecter et faire circuler les informations entre environnements, applications et interfaces de programmation.

Confluent : un acteur clé du streaming de données

Basée à Mountain View en Californie, Confluent s’est imposée comme un pionnier du streaming de données en temps réel, une technologie devenue cruciale pour alimenter les applications d’intelligence artificielle. La plateforme, construite sur Apache Kafka, permet aux entreprises de connecter, traiter et gérer des flux massifs de données instantanément, éliminant les silos inhérents aux systèmes d’IA agentique.

La société compte plus de 6 500 clients à travers le monde, dont plus de 40% des entreprises du Fortune 500. Michelin utilise ainsi sa plateforme pour optimiser en temps réel ses stocks de matières premières et semi-finies. Instacart a déployé la technologie pour développer des systèmes de détection de fraude et améliorer la visibilité des produits disponibles sur sa plateforme de livraison.

Une stratégie d’acquisitions assumée

Pour Arvind Krishna, PDG d’IBM depuis 2020, cette transaction s’inscrit dans une politique volontariste de croissance externe visant à positionner le groupe sur les segments à forte croissance et marges élevées du logiciel et du cloud.

Cette acquisition fait suite au rachat d’HashiCorp pour 6,4 milliards $ en avril 2024 et, surtout, à l’opération Red Hat de 34 milliards $ en 2019, considérée par les analystes comme le catalyseur central de la transformation cloud d’IBM.

Le timing de l’opération  n’est pas anodin. Selon IDC, plus d’un milliard de nouvelles applications logiques devraient émerger d’ici 2028, remodelant les architectures technologiques dans tous les secteurs. Le marché adressable de Confluent a doublé en quatre ans, passant de 50 milliards $ à 100 milliards en 2025.

Des synergies attendues

Les deux entreprises collaboraient déjà depuis cinq ans dans le cadre d’un partenariat permettant à certains clients d’IBM d’utiliser la plateforme de Confluent. L’intégration devrait permettre de créer des synergies substantielles à travers l’ensemble du portefeuille d’IBM, notamment dans l’IA, l’automatisation, les données et le conseil.

Les principaux actionnaires de Confluent, détenant collectivement environ 62% des droits de vote, ont conclu un accord de vote avec IBM, s’engageant à soutenir la transaction et à s’opposer à toute opération alternative. En cas d’échec ou de résiliation de l’accord, IBM devra verser à Confluent une indemnité de rupture de 453,6 millions $.

IBM a financé l’opération avec sa trésorerie disponible. La transaction, soumise à l’approbation des actionnaires de Confluent et aux autorisations réglementaires, devrait se finaliser d’ici la mi-2026.

The post IBM rachète Confluent pour 11 milliards $ appeared first on Silicon.fr.

L’UE sanctionne X : première amende historique dans le cadre du DSA

8 décembre 2025 à 11:59

Un coup de semonce contre Elon Musk ou le début d’une série de sanctions contre les réseaux sociaux ? Vendredi 5 décembre 2025, la Commission européenne a infligé une amende de 120 millions € à X, son réseau social racheté en 2022.

Cette sanction constitue la première application concrète du Digital Services Act (DSA), le règlement européen sur les services numériques entré en vigueur il y a deux ans. Une décision qui intervient après deux années d’enquête et qui s’annonce comme le début d’un bras de fer politique majeur entre Bruxelles et Washington.

Trois infractions majeures sanctionnées

La Commission européenne a retenu trois violations distinctes des obligations de transparence imposées par le DSA, toutes notifiées initialement en juillet 2024.

Le premier grief concerne la coche bleue, utilisée auparavant pour signaler des comptes officiels gratuits mais désormais vendue 7 euros par mois. Bruxelles estime que cette pratique constitue une forme de conception trompeuse qui viole le DSA. Selon les nouveaux paramètres de X, un compte doté d’une coche peut ne pas signaler un utilisateur réel et être un robot, a déclaré la Commission.

L’exécutif européen précise que si le DSA n’impose pas aux plateformes de vérifier l’identité de leurs membres, il leur interdit en revanche de prétendre faussement qu’une telle vérification a eu lieu. Ce système expose les utilisateurs à des risques accrus d’escroquerie par usurpation d’identité et de manipulation par des acteurs malveillants.

Le deuxième manquement porte sur le registre publicitaire de X, qui ne respecte pas les exigences de transparence du DSA. L’accès au répertoire est rendu difficile et des informations essentielles manquent, notamment l’identité de l’entité qui finance les campagnes publicitaires. Cette opacité empêche la surveillance efficace des risques, notamment la détection d’escroqueries ou de campagnes de menaces hybrides.

Enfin, X est accusé d’imposer des obstacles inutiles aux chercheurs indépendants qui veulent avoir accès à ses données publiques, comme le nombre de vues, de likes, de partages, les tendances de hashtags. Les conditions de service de la plateforme interdisent explicitement cet accès indépendant. En étudiant des phénomènes comme la polarisation des publics ou comment des contenus se propagent sur les réseaux sociaux, les chercheurs peuvent éventuellement détecter des risques systémiques pour nos démocraties, comme les tentatives d’ingérences étrangères lors des élections.

Une amende « proportionnée » selon Bruxelles

La Commission européenne a défendu le montant de la sanction, soulignant sa proportionnalité. Le DSA prévoit théoriquement des amendes pouvant atteindre 6% du chiffre d’affaires mondial annuel pour chaque infraction constatée. Face aux critiques, Henna Virkkunen, vice-présidente de la Commission chargée de la souveraineté technologique, a expliqué que la sanction prenait en compte la nature, la gravité et la durée des infractions commises.

Avant de préciser, les amendes se calculent sur base de critères qui tiennent compte de la nature des infractions, de leur gravité et de leur durée. Sur cette base, l’amende pour les coches bleues a été estimée à 45 millions €, celle pour les publicités à 35 millions et celle pour l’accès aux données à 40 millions €.

Une tempête politique transatlantique

La décision de Bruxelles a déclenché une vive réaction du côté américain, même avant son annonce officielle. Le vice-président américain JD Vance a dénoncé la démarche européenne en déclarant que l’UE devrait défendre la liberté d’expression au lieu de s’en prendre à des entreprises américaines pour des foutaises, s’attirant un message de remerciement d’Elon Musk.

Le chef de la diplomatie américaine Marco Rubio a estimé que l’amende infligée par l’Union européenne constituait une attaque contre le peuple américain par des gouvernements étrangers, affirmant que l’époque de la censure en ligne était révolue.

Face à ces accusations, Henna Virkkunen a fermement répondu que l’amende n’avait rien à voir avec de la censure, précisant que la Commission n’était pas là pour imposer les amendes les plus élevées, mais pour s’assurer que les lois sur le numérique soient respectées.

Elon Musk a déclaré samedi sur sa plateforme que l’UE devrait être abolie, dénonçant la surrégulation de l’Union européenne.

Cette affaire s’inscrit dans un contexte de tensions croissantes entre Washington et Bruxelles sur la régulation numérique et les relations commerciales.

Des enquêtes encore en cours

La sanction annoncée ne couvre que les infractions identifiées en juillet 2024. La Commission européenne a précisé que plusieurs enquêtes concernant X se poursuivent, notamment sur des soupçons de non-respect des obligations en matière de contenus illégaux et de désinformation. Bruxelles s’attend à ce que ces enquêtes soient bouclées plus rapidement que la première.

Le réseau X a entre 60 et 90 jours pour se mettre en conformité. S’il ne le fait pas, des amendes supplémentaires pourraient lui être infligées.

Un symbole de la souveraineté numérique européenne

Cette première amende dans le cadre du DSA marque un tournant dans l’approche réglementaire de l’Union européenne. La Commission montre qu’elle ne se laisse pas intimider par les pressions américaines, malgré un contexte de négociations commerciales tenduesX

Pour les utilisateurs européens de X, des changements sont attendus : interface modifiée, notifications renforcées, refonte du processus de vérification et amélioration de la transparence publicitaire. La plateforme devra également ouvrir l’accès à certaines données pour la recherche académique.

The post L’UE sanctionne X : première amende historique dans le cadre du DSA appeared first on Silicon.fr.

{ Tribune Expert } – Sécuriser la GenAI commence par un inventaire clair et une visibilité réelle sur ses composants

8 décembre 2025 à 11:18

La plupart des organisations ont découvert la GenAI ces dernières années. Dès lors, elles ont avancé vite, très vite. Les usages ont rapidement fleuri et les projets se sont empilés, mais un constat a fini par s’imposer dans les discussions entre équipes techniques : impossible d’ignorer plus longtemps les risques spécifiques liés aux grands modèles de langage.

Car c’est peu de dire que la sécurité des LLM a, dans un premier temps, été reléguée au second plan. L’arrivée de l’OWASP LLM Top 10 change cet état de fait en apportant un cadre clair pour identifier les vulnérabilités critiques observées dans les applications et comprendre comment les atténuer.

L’OWASP, pour Open Web Application Security Project, est une organisation internationale dédiée à la sécurité des logiciels. Le référentiel LLM top 10, recense les 10 principaux risques de sécurité liés spécifiquement aux modèles de langage (LLM) et aux applications qui les utilisent. Il donne enfin un vocabulaire commun aux développeurs, aux architectes et aux équipes sécurité. Sa vocation est simple : rendre les charges de travail IA plus sûres, en offrant des repères que les entreprises n’avaient pas jusqu’ici.

L’initiative a d’ailleurs pris de l’ampleur et s’inscrit désormais dans le GenAI Security Project, un effort mondial qui dépasse la seule liste des dix risques initiaux et fédère plusieurs travaux autour de la sécurité de l’IA générative.

Ce mouvement répond à une réalité vécue sur le terrain. Beaucoup d’équipes peinent encore à s’aligner au moment de déployer des technologies GenAI : responsabilités dispersées, rythmes différents et une question récurrente sur la manière d’aborder ce sujet émergent. L’OWASP arrive justement pour apporter cette cohérence, avec des contrôles compréhensibles et applicables dans des environnements où tout s’accélère.

Sa singularité tient aussi à sa place dans l’écosystème. Là où des cadres de classification des menaces comme MITRE ATT&CK et MITRE ATLAS décrivent surtout les tactiques et techniques d’attaque, l’OWASP LLM top 10 se concentre sur les risques spécifiques aux modèles génératifs. Il offre ainsi une grille de lecture complémentaire et nécessaire pour mieux structurer les priorités.

GenAI, Kubernetes et l’élargissement de la surface d’attaque

Si l’OWASP LLM Top 10 arrive à point nommé, c’est aussi parce que les environnements techniques qui portent la GenAI ont profondément changé.

Les organisations ne se contentent plus d’utiliser des services grand public. Elles déploient désormais leurs propres modèles, souvent au sein de plateformes cloud native pensées pour absorber des volumes variables et des charges de calcul élevées.

L’écosystème s’est transformé à grande vitesse, avec l’adoption de solutions comme Llama 2, Midjourney, ElevenLabs, ChatGPT ou encore Sysdig Sage dans des environnements Kubernetes taillés pour la scalabilité et l’orchestration.

Cette transition a un effet immédiat car elle élargit la surface d’attaque. Un modèle d’IA déployé dans un cluster Kubernetes n’a rien à voir avec une application traditionnelle exécutée on-premises. Les risques ne sont plus seulement liés aux données ou au comportement du modèle, mais à toute la chaîne qui l’entoure. Un conteneur mal configuré, un composant obsolète ou un accès mal maîtrisé peuvent suffire à exposer l’ensemble de l’infrastructure.

La complexité de ces environnements accentue un phénomène déjà bien visible : l’absence de repères communs pour comprendre ce qui relève d’un risque LLM, d’une mauvaise configuration Kubernetes ou d’un problème de chaîne d’approvisionnement logicielle.

Dans un tel contexte, la seule intuition ne suffit plus. Les équipes doivent composer avec des technologies qui évoluent plus vite que les pratiques internes, tout en tenant compte d’un paysage réglementaire qui se densifie, notamment avec l’entrée en vigueur de l’AI Act en Europe en 2025.

C’est précisément cette convergence, qui englobe nouveaux usages, infrastructures distribuées et pression réglementaire, qui rend indispensable une approche structurée de la sécurité GenAI. Et c’est là que l’OWASP pose les premières briques d’une méthodologie enfin partagée.

Poser les fondations d’une sécurité opérationnelle et efficace !

Face à ces environnements qui se complexifient, l’adage à retenir est que l’on ne protège correctement que ce qu’on voit réellement. Or, la majorité des organisations manquent encore d’un inventaire fiable de leurs actifs IA, qu’il s’agisse de modèles internes ou de solutions tierces intégrées rapidement. L’OWASP rappelle d’ailleurs que cette visibilité constitue la première étape d’une sécurité GenAI solide.

C’est là que certaines approches prennent tout leur sens, comme l’identification automatique des endroits où les paquets IA s’exécutent, en reliant ces informations aux événements d’exécution (runtime), aux vulnérabilités et aux mauvaises configurations. L’objectif est simple : faire émerger les risques réels, là où ils apparaissent.

La visibilité passe aussi par la SBOM (Software Bill of Materials). En y intégrant les composants d’IA, les équipes disposent d’une liste complète de tous les éléments qui composent leurs charges de travail GenAI. Ce recensement permet ensuite de prioriser les charges de travail selon leur niveau de risque.

Enfin, pour structurer cette démarche, les organisations peuvent s’appuyer sur des rapports OWASP Top 10 préconfigurés et sur l’alignement avec MITRE ATLAS, qui éclaire la manière dont les modèles peuvent être ciblés selon des tactiques d’attaque documentées.

En réunissant ces briques (inventaire, SBOM et visibilité sur l’exécution au runtime) les équipes disposent non seulement d’informations, mais d’une lecture hiérarchisée et exploitable de leurs risques GenAI. C’est cette capacité à voir, comprendre et prioriser qui transforme enfin la sécurité de l’IA en pratique opérationnelle.

Philippe Darley est expert sécurité du Cloud chez Sysdig

The post { Tribune Expert } – Sécuriser la GenAI commence par un inventaire clair et une visibilité réelle sur ses composants appeared first on Silicon.fr.

AI Safety Index 2025 : un bilan inquiétant de la sécurité de l’IA

3 décembre 2025 à 16:59

Le Future of Life Institute vient de publier l’édition 2025 de son AI Safety Index, un rapport qui évalue les pratiques de sécurité des principales entreprises développant des intelligences artificielles avancées.

Les conclusions sont sans appel : aucune entreprise n’atteint l’excellence en matière de sécurité, et le secteur dans son ensemble reste dangereusement mal préparé face aux risques existentiels que pourraient poser les IA futures.

Un classement général décevant

Sur les huit entreprises évaluées, aucune n’obtient une note maximale. Le meilleur résultat revient à Anthropic avec un simple C+, suivi d’OpenAI (C) et de Google DeepMind (C-). Les autres acteurs ( xAI, Z.ai, Meta, DeepSeek et Alibaba Cloud) obtiennent des notes nettement inférieures, allant de D à F.

Cette situation révèle que même les leaders du secteur se situent tout au plus dans la moyenne. L’industrie de l’IA, malgré ses ambitions affichées de développer des systèmes toujours plus puissants, est loin de disposer des garde-fous nécessaires.

Anthropic : le meilleur élève, mais encore insuffisant

Malgré certaines critiques, Anthropic demeure l’entreprise la plus responsable selon l’index. Elle se distingue par une gouvernance solide (statut de Public Benefit Corporation), des efforts significatifs en recherche de sécurité, un cadre de sécurité relativement développé et une communication transparente sur les risques.

Toutefois, des faiblesses importantes subsistent. Le rapport souligne notamment l’absence récente d’essais sur l’amélioration des capacités humaines dans le cycle d’évaluation des risques, ainsi qu’un passage par défaut à l’utilisation des interactions des utilisateurs pour l’entraînement des modèles.

Les recommandations adressées à Anthropic incluent la formalisation de seuils de risques mesurables, la documentation de mécanismes concrets d’atténuation, l’amélioration de l’indépendance des évaluations externes et la publication d’une version publique robuste de sa politique de lanceurs d’alerte.

OpenAI : des progrès, mais un écart entre discours et pratique

OpenAI se distingue par un processus d’évaluation des risques plus large que certains concurrents et par la publication, unique parmi ses pairs, d’une politique de lanceur d’alerte (whistleblowing) suite à sa médiatisation.

Néanmoins, le rapport appelle l’entreprise à aller plus loin : rendre ses seuils de sécurité réellement mesurables et applicables, accroître la transparence vis-à-vis des audits externes, et surtout aligner ses positions publiques avec ses engagements internes.

Google DeepMind : des avancées timides

DeepMind montre des progrès en matière de transparence, ayant notamment complété le questionnaire de l’AI Safety Index et partagé des éléments de politique interne, comme son dispositif de « whistleblowing ».

Cependant, les fragilités persistent : l’évaluation des risques reste limitée, la validité des tests externes est jugée faible, et le lien entre la détection de risques et le déclenchement de mesures concrètes demeure flou.

Les autres acteurs : des efforts marginaux

Certaines entreprises ont entamé des démarches d’amélioration. Par exemple, xAI a publié un cadre de sécurité pour ses « IA de frontière », et Meta a formalisé un cadre avec seuils et modélisation des risques.

Mais les évaluations restent superficielles ou incomplètes : les couvertures de risque sont restreintes, les seuils peu crédibles, les mécanismes d’atténuation flous ou absents, et la gouvernance interne insuffisante. On note notamment l’absence de politique de lanceurs d’alerte et un manque d’autorité claire en cas de déclenchement de risques.

Pour les entreprises les moins bien notées, notamment DeepSeek et Alibaba Cloud, les progrès constatés sont très modestes, principalement sur la publication de cadres de sécurité ou la participation à des standards internationaux.

Le talon d’Achille : la sécurité existentielle

Le constat le plus alarmant du rapport concerne la sécurité existentielle, c’est-à-dire la capacité à prévenir des catastrophes majeures comme la perte de contrôle ou le mésalignement (misalignment).

Pour la deuxième édition consécutive, aucune entreprise n’obtient une note supérieure à D dans ce domaine. Cela signifie qu’en dépit des ambitions exprimées par certains acteurs de développer une AGI ou une superintelligence dans la décennie, aucune démarche crédible et concrète de planification pour garantir le contrôle ou l’alignement à long terme n’a été mise en place.

Un membre du comité d’experts qualifie ce décalage entre la cadence des innovations techniques et l’absence de stratégie de sécurité de profondément alarmant.

Cette situation pose plusieurs défis majeurs :

Un risque structurel : Si les entreprises continuent à développer des IA sans plans tangibles de contrôle existentiel, nous pourrions nous diriger vers des systèmes dont le comportement échappe à tout encadrement, posant potentiellement un danger global.

Un problème de gouvernance collective : L’absence d’un standard universel, d’un plan de surveillance indépendant ou d’une régulation contraignante rend la sécurité de l’IA dépendante de la bonne volonté des entreprises.

Une dissonance entre ambitions et préparation : Nombreuses sont les acteurs qui visent l’AGI dans la décennie, mais aucun ne démontre qu’il a envisagé, préparé ou traduit cela en mesures concrètes.

Les recommandations du rapport

Face à ce constat, le rapport formule plusieurs recommandations à destination des entreprises, des régulateurs et des décideurs publics.

D’abord, les entreprises doivent dépasser les déclarations d’intention et produire des plans concrets, chiffrés et mesurables, avec des seuils de risque clairs, des mécanismes d’alerte, des protocoles d’atténuation et une vraie gouvernance interne, idéalement avec une surveillance indépendante..

Ensuite, les entreprises devraient s’engager publiquement à respecter des standards communs, par exemple en adoptant l’AI Act  dans l’Union Européenne ou un code de bonnes pratiques similaire, et en coopérant à des initiatives globales de gouvernance de l’IA.

Enfin, en cas d’intention réelle de développer des IA très puissantes, les acteurs doivent clarifier leurs objectifs et expliquer comment ils comptent garantir le contrôle, l’alignement et la prévention des risques existentiels.

Limites méthodologiques

Il convient de noter que les évaluations reposent sur des éléments publics ou documentés. Il ne s’agit pas d’audits internes secrets, mais d’observations sur ce que les entreprises ont rendu public ou déclaré. Par conséquent, l’index mesure ce que l’on sait des pratiques, ce qui signifie que des efforts internes invisibles pourraient exister sans être capturés.

De plus, l’édition 2025 couvre des pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements récents, lancements de nouveaux modèles ou annonces postérieures à cette date.


AI Safety Index 2025 : la méthodologie


L’AI Safety Index 2025 évalue huit entreprises majeures du secteur : Anthropic, OpenAI, Google DeepMind, xAI, Z.ai, Meta, DeepSeek et Alibaba Cloud.

Sources d’information
Les évaluations reposent exclusivement sur des éléments publics ou documentés fournis par les entreprises. Il ne s’agit pas d’audits internes confidentiels, mais d’une analyse de ce que les entreprises ont choisi de rendre public ou de déclarer officiellement. Certaines entreprises ont complété le questionnaire de l’AI Safety Index, permettant une évaluation plus précise.

Système de notation
Le rapport utilise un système de notation allant de A (excellent) à F (insuffisant), avec des graduations intermédiaires (A+, A, A-, B+, B, etc.). Les notes sont attribuées par domaine d’évaluation, notamment :

  • La gouvernance et la transparence
  • L’évaluation des risques
  • Les mécanismes d’atténuation
  • La sécurité existentielle
  • Les politiques de lanceurs d’alerte
  • L’indépendance des audits externes

Limites reconnues
L’index mesure uniquement ce qui est connu publiquement des pratiques des entreprises. Des efforts internes significatifs pourraient exister sans être capturés par cette évaluation. Le rapport mentionne explicitement ses limites méthodologiques.

L’édition 2025 couvre les pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements, lancements de modèles ou annonces postérieures à cette date de collecte.

The post AI Safety Index 2025 : un bilan inquiétant de la sécurité de l’IA appeared first on Silicon.fr.

Pourquoi OpenAI décrète l’« alerte rouge » face à Google

2 décembre 2025 à 16:24

La pression monte sur OpenAI. Dans un mémo interne envoyé ce lundi et consulté par le Wall Street Journal, Sam Altman convoque une « alerte rouge » pour améliorer la qualité de ChatGPT. Une décision qui implique de reléguer d’autres projets au second plan, dont le développement de la publicité, des agents IA pour le shopping et la santé, ainsi que Pulse, un assistant personnel produisant des actualités matinales personnalisées.

Ce virage stratégique intervient alors que Google vient de reprendre la main technologique. Le géant de Mountain View vient de lancer son modèle Gemini 3, qui a surpassé le GPT-5 d’OpenAI sur les tests de référence de l’industrie. De son côté, Anthropic, autre rival montant, a également dépassé OpenAI avec son modèle Opus 4.5.

Les chiffres témoignent que la dynamique profite à Google qui affirme que sa base d’utilisateurs actifs mensuels est passée de 450 millions en juillet à 650 millions en octobre, dopée notamment par le lancement d’un générateur d’images en août. Plus révélateur encore : d’après Similarweb, les internautes passent désormais plus de temps à discuter avec Gemini qu’avec ChatGPT, même si OpenAI conserve une large avance en nombre d’utilisateurs avec plus de 800 millions d’utilisateurs hebdomadaires.

Un modèle économique sous tension

Le défi pour OpenAI ne se limite pas à la technologie. L’entreprise fait face à un désavantage structurel majeur : elle n’est pas rentable et doit lever des fonds quasiment en continu pour survivre, contrairement à Google qui peut financer ses investissements sur ses revenus courants. Selon ses propres projections financières, OpenAI devra atteindre environ 200 milliards $ de chiffre d’affaires pour devenir profitable en 2030.

Dans son mémo, Sam Altman insiste sur la nécessité d’apporter des améliorations substantielles à ChatGPT, en matière de personnalisation, de rapidité, de fiabilité et de capacité à répondre à un éventail plus large de questions. Pour y parvenir, il a instauré des conférences téléphoniques quotidiennes avec les équipes responsables et encouragé les transferts temporaires entre services.

Cette « alerte rouge » succède à une précédente « alerte orange ». OpenAI utilise un système de trois codes couleur (jaune, orange, rouge) pour hiérarchiser l’urgence des problématiques à traiter.

Malgré ces difficultés, Sam Altman conserve des arguments pour rassurer. Dans son mémo, il a affirmé qu’un nouveau modèle de raisonnement prévu la semaine prochaine surpassera le dernier Gemini de Google. Nick Turley, responsable de ChatGPT, a d’ailleurs souligné lundi soir sur X que l’objectif était de poursuivre la croissance « tout en rendant ChatGPT encore plus intuitif et personnel ».

Reste que cette mobilisation générale confirme ce que beaucoup soupçonnaient : la domination initiale d’OpenAI dans l’IA générative appartient désormais au passé. La course de fond ne fait que commencer.

Illustration : image générée par l’IA

The post Pourquoi OpenAI décrète l’« alerte rouge » face à Google appeared first on Silicon.fr.

SaaS et chiffrement : Microsoft 365 ciblé par un appel à la vigilance

2 décembre 2025 à 15:27

Pour les données sensibles, le SaaS n’est pas admissible, à moins d’apporter ses propres clés de chiffrement.

L’association suisse privatim – qui réunit des autorités de surveillance en matière de protection des données des organes publics – a récemment communiqué cette position. Elle vise plus précisément les solutions de « grands fournisseurs internationaux […], comme […] Microsoft 365 ». Un raisonnement qui tient entre autres à l’existence du CLOUD Act… et aux perspectives d’accès à des données par les autorités américaines sans respect des règles de l’entraide judiciaire internationale.

La plupart des solutions SaaS n’offrent pas encore de véritable chiffrement de bout en bout, fait également remarquer privatim. Qui dénonce aussi une transparence insuffisante des « entreprises opérant à l’échelle mondiale » pour que les autorités suisses puissent vérifier le respect des obligations contractuelles en matière de protection des données. Ce constat, poursuit l’association, vaut autant pour la mise en œuvre de mesures techniques et la gestion des changements, que pour l’engagement et le contrôle des collaborateurs et des sous-traitants.

Microsoft 365 : trois options pour utiliser ses propres clés de chiffrement

Microsoft 365 fournit un chiffrement de base au niveau du volume via BitLocker et DKM (Distributed Key Manager, techno côté client qui utilise un ensemble de clés secrètes). Depuis octobre 2023, c’est de l’AES256-CBC par défaut.

La voie principale pour apporter ses propres clés est l’option Customer Key de Purview. Elle fonctionne avec les licences suivantes :

  • Office 365 E5
  • Microsoft 365 E5
  • Purview Suite (ex-Microsoft 365 E5 Compliance)
  • Microsoft 365 E5 Information Protection & Governance
  • Microsoft 365 Security and Compliance for FLW

Purview Customer Key s’appuie sur le service Azure Key Vault. Au niveau Standard, les clés – générées dans le coffre-fort ou importées – sont protégées par logiciel. Au niveau Premium, elles sont stockées dans des HSM (modules de sécurité matériels). Il existe une option monolocataire dite Managed HSM.

Autre possibilité : le chiffrement à double clé : une sous le contrôle du client, l’autre stockée dans Azure. Une solution à réserver aux données très sensibles, selon Microsoft. Elle condamne effectivement l’accès à des fonctionnalités comme l’eDiscovery, la recherche et l’indexation, les web apps Office, les règles antimalware/antispam qui exigent une visibilité sur les pièces jointes… et Copilot.

Même avec l’option Customer Key, Microsoft conserve une clé maître (« clé de disponibilité », que le client peut demander à activer en cas de perte de ses propres clés.

tarification Azure Key Vault

tarification clés Standard Premium

tarification 3

tarification 4

Illustration principale © Andrei Kholmov – Shutterstock

The post SaaS et chiffrement : Microsoft 365 ciblé par un appel à la vigilance appeared first on Silicon.fr.

Gradium lève 60 millions € pour industrialiser l’IA vocale

2 décembre 2025 à 14:03

Trois mois après sa création en septembre 2025, Gradium annonce officiellement son lancement avec une levée de fonds de 60 millions € en tour d’amorçage. Un montant rare pour une entreprise aussi jeune mais qui témoigne de l’appétit des investisseurs pour les technologies d’IA vocale de nouvelle génération.

Une technologie fondée sur les modèles de langage audio

L’approche technique de Gradium repose sur les modèles de langage audio, équivalents natifs-audio des large language models (LLM) textuels. Cette architecture, initialement inventée par les fondateurs de l’entreprise, permet de traiter la voix de manière native sans passer par une transcription intermédiaire en texte, contrairement aux systèmes traditionnels qui enchaînent reconnaissance vocale, traitement textuel et synthèse vocale.

Cette approche native offre plusieurs avantages techniques : réduction de la latence, préservation de l’expressivité vocale et capacité à gérer n’importe quelle tâche vocale de manière unifiée. Les modèles de langage audio sont désormais devenus le standard dominant de l’industrie depuis leur invention par les fondateurs.

L’équipe fondatrice réunit quatre chercheurs reconnus dans le domaine de l’IA audio : Neil Zeghidour (CEO, ex-Meta et Google DeepMind), Olivier Teboul (CTO, ex-Google Brain), Laurent Mazaré (Chief Coding Officer, ex-Google DeepMind et Jane Street) et Alexandre Défossez (Chief Scientist Officer, ex-Meta). Leur expertise s’appuie sur plus d’une décennie de recherche fondamentale menée notamment au sein de Kyutai, laboratoire de recherche en IA à but non lucratif dont Neil Zeghidour et Laurent Mazaré étaient deux membres fondateurs.

Cette collaboration avec Kyutai se poursuit et constitue un atout stratégique : elle donne à Gradium un accès privilégié aux avancées de la recherche fondamentale, qu’elle peut ensuite transférer rapidement vers des applications commerciales. La technologie sous-jacente de Gradium sera identique à celle de Moshi, l’IA vocale développée par Kyutai, a précisé Neil Zeghidour à Bloomberg.

Un positionnement « qualité-latence-coût »

Gradium affirme résoudre un compromis technique majeur du secteur : les systèmes vocaux actuels obligent généralement à choisir entre qualité d’interaction, faible latence et coût abordable. La startup vise à proposer simultanément une expressivité vocale réaliste, une transcription précise et une interaction à très faible latence, tout en maintenant des prix permettant un déploiement à grande échelle.

Cette proposition de valeur s’adresse en priorité aux développeurs et aux entreprises via une plateforme API. Le service supporte déjà cinq langues au lancement (anglais, français, allemand, espagnol et portugais), avec d’autres en préparation.

Gradium affirme générer ses premiers revenus quelques semaines seulement après sa création. L’entreprise compte déjà des clients dans plusieurs secteurs : gaming, agents IA, service client, apprentissage des langues et santé.

Le tour de seed de 60 millions d’euros a été co-mené par FirstMark Capital et Eurazeo, avec la participation de DST Global Partners, Eric Schmidt (ancien CEO et Chairman de Google), Xavier Niel (Iliad), Rodolphe Saadé (CMA CGM), Korelya Capital et Amplify Partners.

Ce montant positionne Gradium parmi les levées de seed les plus importantes de l’écosystème français et européen, reflétant les attentes du marché sur le potentiel de l’IA vocale. Selon Neil Zeghidour, le secteur en est encore au stade où se trouvaient les chatbots avant l’émergence des LLM : les systèmes existants restent fragiles, coûteux et limités dans leur capacité à proposer des interactions naturelles.

L’ambition affichée de Gradium est de devenir le socle technologique de référence pour la voix à l’échelle mondiale, en faisant de la voix l’interface principale entre humains et machines.

Photo : Les fondateurs de Gradium. De gauche à droite : Olivier Teboul (Chief Technology Officer), Alexandre Défossez (Chief Scientist Officer), Neil Zeghidour (Chief Executive Officer), Laurent Mazaré (Chief Coding Officer) © DR

The post Gradium lève 60 millions € pour industrialiser l’IA vocale appeared first on Silicon.fr.

HSBC signe avec Mistral AI

1 décembre 2025 à 11:26

HSBC a signé un accord pluriannuel avec Mistral AI afin d’intégrer des outils d’intelligence artificielle générative dans l’ensemble de la banque.

HSBC déploiera les modèles commerciaux de Mistral ainsi que leurs futures mises à jour sur une infrastructure auto-hébergée. Cette approche permettra de combiner les capacités technologiques internes du groupe bancaire avec l’expertise de Mistral dans la conception de modèles d’IA.

Les deux entreprises collaboreront au développement de solutions d’IA couvrant plusieurs usages : analyse financière, traduction multilingue, évaluation des risques ou encore communications personnalisées avec les clients.

Selon HSBC, ces outils pourraient réduire de manière significative le temps consacré par les employés aux tâches routinières ; par exemple, les équipes crédit et financement pourront analyser plus rapidement des dossiers complexes et volumineux.

HSBC utilise déjà des centaines de cas d’usage d’IA dans le monde, notamment en matière de détection de fraude, de surveillance des transactions, de conformité et de service client. La banque estime que l’accord avec Mistral AI permettra d’accélérer ses cycles d’innovation et de lancer plus rapidement de nouvelles fonctionnalités reposant sur l’IA.

The post HSBC signe avec Mistral AI appeared first on Silicon.fr.

Après les datasets, Open-R1 cherche à reproduire le pipeline de DeepSeek

27 novembre 2025 à 16:06

Lorsqu’on prépare un dataset mixte pour le fine-tuning, il est possible de tirer parti d’une « propriété additive ».

Le rapport technique du modèle Phi-4 (de Microsoft) comprend une remarque à ce sujet.

La propriété en question permet d’optimiser le mix de données domaine par domaine puis de concaténer les poids qui en résultent, sans perte.
Open-R1 en a fait usage. Le projet, emmené par Hugging Face, a démarré en janvier 2025. Son objectif : créer une reproduction ouverte de DeepSeek-R1, en développant les « pièces manquantes ». À savoir datasets et code d’entraînement.

Le plan est décliné en trois temps :

  • Être capable de distiller un ensemble de données de raisonnement de haute qualité à partir de DeepSeek-R1
  • Répliquer le pipeline d’apprentissage par renforcement de R1-Zero
  • Appliquer cette combinaison à des modèles de base pour en faire des modèles de raisonnement

Les maths d’abord

Open-R1 a d’abord centré ses travaux sur un dataset de raisonnement mathématique : OpenR1-Math-220k. Publié sous licence Apache 2.0, il couvre 400 000 problèmes (2 à 4 traces pour chacun) tirés de NuminaMath-1.5. Filtré, il en conserve 220 000. On l’a divisé en deux parties. L’une, dite « par défaut », regroupe 94 000 problèmes et engendre les meilleures performances. L’autre, dite « étendue », réunit 131 000 problèmes… et ne produit pas d’aussi bons résultats, problablement parce que les questions sont plus simples.

En faisant travailler Qwen-7B-Math-Instruct pour trois cycles sur la partie « par défaut », Hugging Face affirme être parvenu à égaler la performance de DeepSeek-Distill-Qwen-7B. Il a, en l’occurrence, obtenu le même score sur AIME 25 (40) et fait un peu moins bien sur MATH-500 (90,6 vs 91,6).

Le code ensuite

Les travaux se sont ensuite étendus au codage, avec la production d’un dataset basé sur les compétitions CodeForces. Au menu, environ 10 000 problèmes (avec jusqu’à 5 traces), dont 60 % accompagnés de l’explication de la solution correcte par les organisatieurs.

Sur cette base, il a été demandé à R1 de produire des chaînes de pensée (environ 100 000 exemples), aboutissant au dataset CodeForces-CoTs. Publié sous licence ODC-BY, il a servi à affiner Qwen-2.5-Coder-Instruct 7B et 32B. En ont découlé les modèles OlympicCoder. Mis à l’épreuve sur la dernière Olympiade internationale d’informatique, ils ont rivalisé avec des LLM à l’état de l’art (le 32B s’en sortant même mieux que R1.

La science pour finir

Une partie de CodeForces-CoTs (83 000 traces de problèmes Python et C++) et d’OpenR1-Math-220k (la partie « par défaut ») a finalement été combinée à un sous-ensemble du dataset de post-entraînement de Llama Nemotron pour former Mixture-of-Thoughts. Au code et aux maths s’est donc ajoutée la science, pour un total d’environ 350 000 traces. Aucune licence n’a été ajoutée (c’est une demande régulière).

Cette base, appliquée à une variante de Qwen-2.5-Math-7B (fréquence RoPE de base étendue à 300k pour permettre l’entraînement sur une fenêtre de 32k), a produit OpenR1-Distill-7B. Le modèle s’est montré plus performant que R1-Distill-Qwen-7B sur AIME 2024 (52,7 vs 51,3), GPQA Diamond (52,8 vs 52,4) et LiveCodeBench v5 (39,4 vs 37,4). Ces scores s’entendent en pass@1 (un essai, avec 4 à 64 réponses par requête en fonction des tâches), à température 0,6 et top_p 0,95.

Mixture of Thoughts

Illustration principale générée par IA

The post Après les datasets, Open-R1 cherche à reproduire le pipeline de DeepSeek appeared first on Silicon.fr.

IA en santé : Inria et Doctolib s’associent

27 novembre 2025 à 12:58

Inria, l’Institut national de recherche en sciences et technologies du numérique, et Doctolib vont collaborer pour développer des modèles d’intelligence artificielle cliniques fiables et souverains dans le secteur de la santé, indiquent les deux acteurs.
Première étape :  la création d’une équipe de recherche réunissant doctorants, postdoctorants et ingénieurs de recherche des deux organisations pour travailler sur plusieurs axes stratégiques.

Quatre axes de recherche prioritaires

Elle travaillera sur le développement d’une IA médicale de confiance, notamment la protection des données, la transparence et le respect du patient. Les chercheurs s’attacheront  à créer des systèmes capables de suivre le raisonnement médical en comprenant les liens de cause à effet, en croisant symptômes, historique médical, contexte de vie et connaissances médicales pour estimer l’état de santé et son évolution.

Un troisième axe concerne le choix des meilleures actions de santé personnalisées, qu’il s’agisse de dépistages, vaccins ou changements de mode de vie. Cela nécessite des systèmes de raisonnement causal capables d’apprendre de données réelles tout en tenant compte des risques, coûts et préférences individuelles.

Enfin, l’équipe travaillera sur des systèmes capables de motiver durablement les changements de comportement en accompagnant les patients dans la durée, en s’adaptant à leur psychologie et leurs contraintes.

Deux projets en cours

L’équipe a débuté ses travaux sur deux sujets spécifiques. Le premier vise à optimiser le parcours de soins des patients en développant un modèle génératif capable de recommander des séquences optimales d’actions cliniques, afin de réduire l’errance médicale et améliorer la pertinence des soins.

Le second projet concerne l’établissement de diagnostics cliniques assistés par IA. L’équipe développe des méthodes pour quantifier l’incertitude des hypothèses diagnostiques et les faire évaluer par des praticiens sur des cas réels, l’IA restant un outil d’aide sans remplacer le jugement clinique.

Selon François Cuny, Directeur Général Délégué à l’Innovation chez Inria, ce partenariat s’inscrit dans une volonté de renforcer la collaboration entre Inria et les industriels français dans le secteur de la santé, en montant des projets communs, en soutenant les dynamiques entrepreneuriales et en attirant les meilleurs talents internationaux.

« Avec Inria et d’autres instituts de recherche de référence, nous construisons un laboratoire commun vers un système général d’intelligence médicale. Nous visons à créer en France, en Allemagne et en Europe un écosystème ouvert et collaboratif dans lequel les institutions publiques et privées pourront réaliser des avancées cliniques en IA pour améliorer la santé des personnes et celle des professionnels de santé.» explique Stanislas Niox-Chateau, le CEO, sur son compte LinkedIn.

The post IA en santé : Inria et Doctolib s’associent appeared first on Silicon.fr.

Gemini 3 Pro : à J+10, un enthousiasme plus tempéré

27 novembre 2025 à 12:21

Non, Gemini 3 Pro n’est pas partout dans l’écosystème Google. Mais tout de même…

Le groupe américain a été remarquablement prompt à intégrer ce modèle dans ses services. Jusqu’à son moteur de recherche, au niveau du « mode IA ». Initialement aux États-Unis, pour les abonnés Google AI Pro et Ultra. Lesquels auront aussi une avant-première sur le routage automatique des requêtes vers le modèle adéquat.

Un modèle aux réponses plus interactives

Avec Gemini 3 Pro arrivent les « UI génératives ». Le modèle peut, en réponse à des requêtes, afficher une vue de type magazine (visual layout) voire coder un canevas interactif (dynamic view).

Cette capacité n’est pas disponible que dans Google Search. Elle l’est aussi dans l’application Gemini. Le modèle y est accessible pour tous les utilisateurs. Il s’accompagne d’une nouvelle fonctionnalité Gemini Agent, réservée pour le moment aux abonnés AI Ultra. Inspirée de Project Mariner (agent autonome pour la navigation web), elle orchestre les tâches à plusieurs étapes en lien avec les services Google.

Antigravity, vitrine pour le codage agentique

Google a également fait place nette à Gemini 3 Pro dans ses outils développeurs*. Parmi eux, un nouveau venu : Antigravity. Cet IDE est disponible en preview sur Windows, Mac et Linux. À l’interface d’édition de code, il en associe une autre : un centre de contrôle d’agents, articulé en espaces de travail, avec une messagerie centralisée. Sur cette UI, pas de code : les agents produisent des « artefacts » (listes de tâches, plans d’implémentation, résumés des actions réalisées) sur lesquels l’utilisateur peut donner son feed-back sans que l’exécution soit interrompue. Gemini 3 Pro peut faire office de modèle principal – comme Claude Sonnet 4.5 et GPT-OSS – avec deux modes de pensée : dynamique/élevée (high) ou faible (low).

Des niveaux de vision en plus des niveaux de pensée

On retrouve ce réglage – en attendant une option medium supplémentaire – sur l’API Gemini, avec le paramètre thinking_level. Il n’est pas spécifique à Gemini 3 Pro, au contraire du paramètre media-resolution. Celui-ci détermine le nombre maximal de tokens alloués à la vision. Il se règle pour chaque média entrant ou de façon globale. S’il n’est pas défini, des valeurs par défaut sont utilisées (1120 tokens par image, 560 par page de PDF, 70 par frame de vidéo ou 280 pour les vidéos qui contiennent beaucoup de texte).

La tarification de Gemini 3 Pro sur l’API Gemini :

  • En entrée : 2 $ par million de tokens pour les requêtes de moins de 200 000 tokens (4 $ sinon)
  • En sortie : 12 $ par million de tokens pour les requêtes de moins de 200 000 tokens (18 $ sinon)
  • Mise en cache du contexte : 0,20 $ par million de tokens pour les requêtes de moins de 200 000 tokens (0,40 $ sinon) ; stockage : 4,50 $/heure par million de tokens
  • Ancrage Google Search (pas encore disponible) : 5000 requêtes gratuites, puis 14 $ les 1000

Pour rappel, Gemini 2.5 Pro est respectivement à 1,25 et 2,50 $ en entrée ; à 10 et 15 $ en sortie.

Au niveau 1 de l’API, les limites sont à 50 requêtes par minute, 1000 tokens par minute et 1000 requêtes par jour.
Au niveau 2 (au moins 250 $ dépensés), elles montent à 1000 RPM, 5 millions de TPM et 50 000 RPJ. Au niveau 3 (au moins 1000 $), on passe à 2000 RPM et 8 millions de TPM, sans plafond quotidien de requêtes.

Gemini 3 Pro a aussi un mode image, à 2 $ par million de tokens en entrée (texte/image) ; et, en sortie, 12 $ (texte/réflexion) ou 120 $ (images). Il est diffusé dans les produits Google sous la marque Nano Banana Pro (dans la lignée de Nano Banana, fondé sur Gemini 2.5 Flash).

Des éloges… notamment sur le codage

Nano Banana Pro semble avoir plu à Andrej Karpathy, membre fondateur d’OpenAI et ancien directeur de l’IA de Tesla. L’intéressé dit avoir plus globalement une impression positive sur Gemini 3 Pro, entre personnalité, humour, écriture et vibe coding.

Gemini Nano Banana Pro can solve exam questions *in* the exam page image. With doodles, diagrams, all that.

ChatGPT thinks these solutions are all correct except Se_2P_2 should be « diselenium diphosphide » and a spelling mistake (should be « thiocyanic acid » not « thoicyanic »)

:O pic.twitter.com/15oUx8FIqJ

— Andrej Karpathy (@karpathy) November 23, 2025

Marc Benioff, le patron de Salesforce, s’est montré plus emphatique – à son habitude : il ne « reviendra pas en arrière ».

Holy shit. I’ve used ChatGPT every day for 3 years. Just spent 2 hours on Gemini 3. I’m not going back. The leap is insane — reasoning, speed, images, video… everything is sharper and faster. It feels like the world just changed, again. ❤ 🤖 https://t.co/HruXhc16Mq

— Marc Benioff (@Benioff) November 23, 2025

Au rang des impressions positives, beaucoup concernent les capacités de codage agentique.

I asked Gemini 3 Pro to create a 3D LEGO editor.
In one shot it nailed the UI, complex spatial logic, and all the functionality.

We’re entering a new era. pic.twitter.com/Y7OndCB8CK

— Pietro Schirano (@skirano) November 18, 2025

Gemini 3 created this playable maze in just three prompts 🤯🤯🤯

First, it created a top down Gemini maze, and then we asked it to build an app that allows me to upload a pixel maze, and turn it into a playable Three JS scene.

Vibing coding my way through mazes from now on pic.twitter.com/9o3vJhPf4I

— Tulsee Doshi (@tulseedoshi) November 18, 2025

« Utile… lorsqu’il vous écoute »

Ces capacités ne font pas l’unanimité, cependant. Les témoignages dans la communauté Cursor l’illustrent. On y pointe notamment un taux d’hallucinations important et une difficulté à suivre les instructions, en dépit d’aptitudes notables pour la planification, entre autres face à OpenAI Codex. Le phénomène apparaît, selon certains, moins prononcé dans Antigravity.

Divers retours sur le subreddit Gemini mettent pareillement en lumière les hallucinations de Gemini 3 Pro. Par exemple :

  • Confusion de deux offres d’emploi que le modèle devait analyser
  • Attribution répétée des caractéristiques d’un personnage à un autre lors d’une session d’écriture créative
  • Invention de variables sur un exercice visant à créer des outputs basés sur des combinaisons de 4 variables

Gemini 3 Pro est très utile… lorsqu’il vous écoute, résume un utilisateur à propos du suivi des instructions. Il n’est pas seul à constater que le modèle a parfois tendance à l’arbitraire.

D’autres évoquent une certaine paresse, préjudiciable en particulier à l’écriture créative. Le reflet, en quelque sorte, des promesses de Google : un modèle « concis » et « direct », « sans clichés ni flatterie »…

L’effet benchmark

Au-delà des performances que communique Google, Gemini 3 Pro se distingue sur le benchmark LMArena. Il s’est hissé en tête du classement sur plusieurs évaluations. Au dernier pointage :

  • Texte : 1492 points (contre 1482 pour Grok 4.1 Thinking et 1466 pour Claude Opus 4.5)
  • Vision : 1324 points (contre 1249 pour Gemini 2.5 Pro et 1237 pout GPT-4o)
  • Génération d’images : 1242 points (contre 1161 pour Hunyan Image 3.0 de Tencent et 1158 pour Gemini 2.5 Flash)
  • Édition d’images : 1371 points (contre 1330 pour Gemini 2.5 Flash et 1311 pour Seedream 4 de ByteDance)

Les performances de Gemini 3 Pro sont notables sur un autre benchmark : ARC-AGI-2. Celui-ci se focalise sur les connaissances qui sont « innées » chez l’humain ou acquises très tôt dans la vie. Ainsi, il n’inclut par exemple pas de tâches touchant aux langues, qui sont des acquis culturels. Cette approche est censée illustrer les capacités de généralisation. Elle implique, entre autres, des exercices d’interprétation symbolique (comprendre la signification de symboles visuels) et de raisonnement compositionnel (application simultanée de plusieurs règles interdépendantes).

Gemini 3 Pro Deep Think atteint, sur ARC-AGI-2, un score de 45,1 %, pour un coût de 77,16 $ par tâche. L’écart est net avec Claude Opus 4.5 Thinking : qui est toutefois moins onéreux : 37,6 % et 2,40 $ par tâche en 64k ; 30,6 % et 1,29 $ par tâche en 32k ; 22,8 % et 0,79 $ par tâche en 16k. Suivent GPT-5 Pro (18,3 % et 7,14 $ par tâche) et Grok 4 Thinking (16 % et 2,17 $ par tâche).

Gemini 3 Pro Deep Think benchmarks

Congrats to Google on Gemini 3! Looks like a great model.

— Sam Altman (@sama) November 18, 2025

* Gemini 3 Pro est aussi disponible dans la dernière version d’Android Studio (y compris en usage gratuit), dans les SDK Firebase AI Logic (abonnement Blaze ; pas encore possible de régler le niveau de raisonnement) et dans le CLI Gemini (abonnement Ultra et clés d’API Gemini ; à venir dans Gemini Code Assist Enterprise ; liste d’attente pour les autres utilisateurs). Ainsi que dans divers services tiers (Cursor, GitHub, JetBrains, Manus, Replit…).

Illustrations © Google

The post Gemini 3 Pro : à J+10, un enthousiasme plus tempéré appeared first on Silicon.fr.

Plus asynchrone, plus interactif… Les évolutions en cours du protocole MCP

25 novembre 2025 à 13:40

Grâce à MCP, les applications viennent à ChatGPT.

C’est le principe de l’Apps SDK actuellement en preview chez OpenAI. Il permet de fournir des interfaces interactives par l’intermédiaire des serveurs qui utilisent ce protocole.

Le projet MCP-UI, emmené par des ingénieurs de Palo Alto Networks et de Shopify, a la même philosophie.

Voilà que les deux initiatives convergent – avec Anthropic dans la boucle – afin de créer une extension officielle pour MCP. Promesse : pouvoir déclarer des ressources UI, les lier à des outils, les embarquer dans une application, puis gérer la communication bidirectionnelle avec celle-ci. Et éviter ainsi d’avoir à implémenter trop de logique côté client (par exemple pour le rendu d’un graphe à partir de JSON).

L’extension « Applications MCP », telle qu’envisagée, sépare templates et données pour une mise en cache plus efficace. Elle permet aux applications hôtes de contrôler les templates avant de les exécuter. Les communications se font sur JSON-RPC et sont donc auditables. La spec initiale ne gère que le contenu text/html, affiché dans des iframes isolés (sandbox).

Un protocole plus asynchrone

Il fut, pendant un temps, question de publier une nouvelle version de la spécification MCP ce 25 novembre 2025 – soit un an tout juste après l’ouverture du protocole à la communauté. On en est finalement à la release candidate… qui donne cependant une bonne idée des évolutions à venir.

Par rapport à la version précédente (18 juin), on progresse sur la gestion des opérations asynchrones. Une primitive expérimentale « tâche » avec un système d’identifiant a effectivement été ajoutée. En l’interrogeant, on peut, d’une part, suivre l’état d’une tâche exécutée en arrière-plan. De l’autre, accéder aux résultats « en différé », pendant une durée définie par le serveur. L’ancienne et la nouvelle sémantiques sont gérées sur une même méthode RPC.

Du progrès, il y en a aussi sur la découverte de serveurs d’autorisation. La gestion d’OpenID Connect Discovery 1.0 vient compléter celle des métadonnées OAuth 2.0. En parallèle, la stratégie de sélection du champ d’application (scope) est structurée à travers l’en-tête WWW-Authenticate, sur le principe du moindre privilège. Et la spec permet aux clients OAuth d’héberger leurs métadonnées (document JSON) sur une URL HTTPS afin de pouvoir fonctionner avec des serveurs d’autorisation vis-à-vis desquels il n’existe pas de relation préalable.

La version précédente de la spécification avait introduit de quoi envoyer des informations non sensibles par un mécanisme de type formulaire. La nouvelle version vient couvrir la transmission de données sensibles (secrets, opérations de paiement…) avec un mode hors bande fondé sur des URL de confiance qui s’ouvrent dans le navigateur. Avec lui, il n’y a pas besoin d’exposer d’éléments dans le client MCP.

On aura aussi noté la prise en charge des schémas d’énumération à choix multiple, l’ajout d’une convention de nommage des outils et la possibilité d’associer des icônes aux ressources serveur (outils, templates, prompts…).

Vers des « extensions officielles »

Pour favoriser les implémentations sectorielles et/ou adaptées à des cas d’usage, MCP va reconnaître et documenter les plus populaires, en tant qu' »extensions officielles ».

En attendant, le projet en absorbe un autre : MCPB (MCP Bundle). Ce format simplifie la distribution de serveurs locaux et leur installation sur tout client compatible. Il utilise des archives zip combinant un serveur (Node.js, Python ou binaires compilés) et son manifeste, sur un principe similaire à celui des extensions Chrome ou VS Code.

Anthropic est à l’origine de MCPB (ex-DXT, Desktop Extensions), d’abord utilisé exclusivement sur les apps de bureau Claude. Il a décidé d’en ouvrir la spec, l’outillage CLI associé et une implémentation de référence (code utilisé par l’app Claude pour Windows et Mac afin de charger et vérifier des bundles).

Des travaux sont également en cours pour conjuguer stateless et scalabilité. Le protocole Streamable HTTP a apporté une réponse partielle, des problèmes demeurant notamment sur la gestion des sessions.

Illustration générée par IA

The post Plus asynchrone, plus interactif… Les évolutions en cours du protocole MCP appeared first on Silicon.fr.

{ Tribune Expert } – Comment préparer les agents IA de demain

24 novembre 2025 à 11:33

Les agents d’IA sont en train de redéfinir les modes d’action de l’intelligence artificielle. À la différence des modèles de langage traditionnels, qui sont entraînés sur des ensembles de données statiques, les systèmes agentiques sont dotés de capacités autonomes de navigation, de raisonnement et d’exécution des tâches. Cela leur permet de collecter des données en temps réel, de déclencher des workflows ou de prendre des décisions contextualisées.

Cette évolution de la connaissance vers l’action offre une agilité sans précédent, mais s’accompagne néanmoins de risques complexes.

Une surface d’exposition aux risques élargie

Chaque nouvelle capacité qui permet à un agent d’exécuter une tâche, comme accéder à des données, exécuter des commandes ou s’intégrer avec une API externe, apporte son lot de vulnérabilités potentielles. Car, si l’autonomie s’accompagne d’avantages indiscutables, elle rend la technologie imprévisible. Or, dans le domaine de la sécurité des entreprises, l’absence de prévisibilité est l’ennemi numéro un.

Selon le cabinet Gartner, l’IA agentique représente la principale tendance technologique en 2025 et, selon les prédictions, 33 % des applications d’entreprise disposeront de capacités agentiques sous une forme ou une autre d’ici 2028, alors que cette proportion n’atteignait que 1 % en 2024.

La plupart des vulnérabilités ne viennent pas des modèles d’IA eux-mêmes, mais de la manière dont ceux-ci sont configurés et intégrés par des êtres humains, ou encore des permissions qui leur sont accordées. Les agents qui disposent d’autorisations trop étendues, les API avec un périmètre mal défini et des droits de navigation non contrôlés peuvent amener des agents à exposer par inadvertance des données sensibles ou à déclencher des actions non sécurisées.

Les mécanismes d’authentification traditionnels n’ont pas été conçus pour gérer des interactions entre agents ou entre les agents et les données, ce qui met en évidence la nécessité de définir des standards adaptables qui tiennent compte du contexte, à l’image de la norme ISO 42001.

Pour une autonomie maîtrisée

Pour les entreprises, il ne s’agit plus de se demander si elles sont en mesure de concevoir un agent pour réaliser un objectif donné, mais s’il s’agit véritablement d’une bonne idée.

Tous les workflows n’ont pas besoin d’être autonomes. De nombreux processus d’entreprise sont fondés sur des règles, répétables et auditables, mieux gérés par des automatisations structurées. Les systèmes agentiques, eux, concrétisent leur plein potentiel au sein d’environnements dynamiques dont le contexte évolue rapidement.

Toutefois, le déploiement responsable de tels systèmes nécessite de faire preuve de retenue, d’avoir clairement défini ses objectifs et de disposer d’un socle sécurisé. La sécurité commence par l’application du principe du moindre privilège : les agents doivent uniquement avoir accès à ce dont ils ont besoin et seulement pour la durée nécessaire.

Au fil du temps, les agents peuvent être confrontés à une accumulation des permissions. Des vérifications automatisées régulières, associées à l’analyse comportementale destinée à détecter les anomalies, comme des appels API inattendus ou des activités inhabituelles sur les fichiers, permettent de prévenir ces risques.

Au-delà du contrôle des accès, les intégrations elles-mêmes doivent être sécurisées afin de se prémunir contre les attaques de type prompt injection ou contre l’exécution de scripts malveillants.

Une gouvernance adaptée à un système en constante évolution

Contrairement aux modèles statiques, les systèmes agentiques interagissent en direct avec des données qui évoluent en permanence. Cela soulève la question de la mise en conformité en temps réel, selon laquelle la suppression ou l’anonymisation des données doit pouvoir se conformer dynamiquement aux réglementations en vigueur en matière de confidentialité, à l’image du RGPD. Toutefois, sans traçabilité, la flexibilité n’est rien. Chaque interaction avec les données doit être notée dans des journaux, monitorée et justifiée.

Dans ce contexte, la gouvernance doit être à la fois continue, adaptable et évoluer en fonction de chaque nouvelle interaction et de l’émergence de nouveaux risques.

Garder l’humain impliqué

Sachant que les entreprises intègrent des agents d’IA de plus en plus profondément au cœur de leur fonctionnement opérationnel, la supervision humaine reste indispensable. L’automatisation permet de gagner en scalabilité, en rapidité et en cohérence, mais pour gérer les cas inédits ou ambigus, les analystes humains sont dotés d’une pensée critique, d’un raisonnement éthique et d’une conscience contextuelle que les machines sont incapables d’imiter.

Les architectures les plus robustes associent des audits automatisés, garants de la cohérence, à des audits humains, qui apportent le discernement nécessaire. Ensemble, ces deux niveaux de contrôle assurent des systèmes non seulement autonomes, mais aussi véritablement responsables.

Montrer la voie à suivre

L’IA agentique est destinée à devenir l’une des pierres angulaires des infrastructures d’entreprise et sa capacité à concrétiser ses promesses repose pleinement sur le fait qu’elle soit conçue et déployée de manière responsable. Afin de garantir l’avenir des agents d’IA, il est indispensable de mettre en place une autonomie maîtrisée, intégrer une sécurité centrée sur l’identité (identity-first security), et s’assurer que la gouvernance évolue en même temps que les capacités.

Les agents d’IA de demain ne seront pas jugés sur ce qu’ils sont capables de faire, mais sur leur niveau de sécurisation, leur prévisibilité et leur fiabilité dans un cadre défini par des êtres humains.

* Shobana Sruthi Mohan est Enterprise analyst chez ManageEngine

The post { Tribune Expert } – Comment préparer les agents IA de demain appeared first on Silicon.fr.

❌