Vue normale

Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer

18 février 2026 à 11:21

La souveraineté, c’est, entre autres, le « recours aux solutions fournies par des acteurs économiques français ou européens ».

La nouvelle circulaire sur les achats publics numériques établit ce lien, mais pas de manière si directe. D’une part, elle inclut la souveraineté parmi les critères structurants. De l’autre, elle présente la préférence française/européenne comme un des trois axes sur lesquels la souveraineté « s’appuie en particulier », au nom de la « maîtrise des technologies-clés ». Les deux autres axes étant l’immunité au droit européen à portée extraterritoriale et la capacité à substituer des composantes par des solutions alternative.

Une circulaire en attendant la révision du cadre européen

La souveraineté apparaît en deuxième position dans la circulaire – derrière la « performance métier » (réponse aux besoins) et devant la sécurité. Mais le texte n’institue ni hiérarchie, ni pondération entre critères. Il ne contient par ailleurs, toujours en matière de souveraineté, aucune obligation formelle, en dépit des axes mentionnés.

Parmi les éléments imposés sur les autres critères :

  • Prévoir des critères et clauses de sécurité à chaque fois que l’objet du marché le justifie et être vigilant quant à la pérennité du MCO et du MCS
  • Évaluer soigneusement le délai de disponibilité
  • Prendre en compte la réversibilité dans les contrats
  • Intégrer les capacités d’interopérabilité dans les facteurs de choix

Sur le volet adaptabilité/réversibilité, les achats d’outils fondés sur du code ouvert sont « encouragés » dans une optique de transparence de l’action publique. La circulaire recommande plus globalement de privilégier le recours à des produits open source « lorsque c’est pertinent ». Tant pour bénéficier des avancées communautaires que des possibilités accrues de détection et correction de failles de sécurité.

La doctrine de l’État doit encore s’aligner avec les textes européens en préparation sur la commande publique. Dont la révision – en cours – de la directive de 2014, qui vise elle aussi des objectifs d’autonomie stratégique.

Illustration générée par IA

The post Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer appeared first on Silicon.fr.

L’INESIA a sa feuille de route… et son défi de coopération internationale

18 février 2026 à 09:27

« Au besoin », « si nécessaire », « selon les opportunités »… L’INESIA se laisse de la marge dans sa première feuille de route officielle.

Cet institut public pour l’évaluation et la sécurité de l’intelligence artificielle est né début 2025. Le SGDSN (Secrétariat général de la défense et de la sécurité nationale) et la DGE (Direction générale des entreprises) le pilotent. Il fédère l’Inria, le LNE (Laboratoire national de métrologie et d’essais), l’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique).

Derrière l’INESIA, un réseau international

L’INESIA a une roadmap d’autant plus ouverte que son activité s’inscrit dans un réseau international d’AISI (AI Safety Institutes). Au dernier pointage, 9 pays en sont membres : Australie, Canada, Corée du Sud, États-Unis, France, Japon, Kenya, Royaume-Uni et Singapour. L’Union européenne l’est aussi, via son Bureau de l’IA.

Londres et Washington furent les premiers à officialiser la mise en place de leur AISI. C’était en novembre 2023. Aux États-Unis, la structure est hébergée par le NIST, rattaché au département du Commerce. Au Royaume-Uni, l’AISI a pris le relais de la Foundation Model Taskforce, établie en avril de la même année au sein du département gouvernemental pour la Science, l’Innovation et la Technologie – et rebaptisée Frontier AI Taskforce en septembre.

Une coopération formelle entre ces deux AISI avait émergé en avril 2024, « sur au moins une évaluation ». En toile de fond, la pression d’entreprises technologiques – au premier rang desquelles Meta – qui en appelaient à des règles et procédures d’évaluation communes avant d’ouvrir leurs modèles.

Entre-temps, le Japon avait créé son AISI (février 2024), au sein de l’Agence de promotion des technologies de l’information, rattachée au ministère de l’Économie. Le Canada avait suivi en avril. Puis la Corée du Sud et Singapour en mai, lors du Sommet de l’IA de Séoul.

Le réseau international des AISI avait été formalisé à la même occasion. Sa première réunion officielle eut lieu en novembre 2024. La déclaration de mission promettait une « complémentarité » et une « interopérabilité » entre les instituts, sans définir d’objectifs ou de mécanismes spécifiques à cet égard.

De la « sûreté » à la « science de la mesure » : un recentrage des activités

En décembre 2025, le réseau a officialisé le recentrage de ses travaux sur « la science de la mesure et de l’évaluation des IA ». Objectif : s’assurer de suivent le rythme des développements technologiques. Il a changé de nom en parallèle, devenant « International Network for Advanced AI Measurement ». Exit, donc l’aspect « safety ». Le Royaume-Uni a suivi le même chemin, son AI Safety Institute devenant AI Security Institute.

En amont du Sommet de l’IA qui se déroule actuellement en Inde, le réseau a publié une liste de principes d’évaluation sur lesquels ses membres se sont accordés. Parmi elles, dans les grandes lignes :

  • Objectifs clairs
  • Transparence et reproductibilité
  • Adaptation des paramètres au type d’évaluation
  • Processus d’assurance qualité intégré dans la conception et dans les résultats
  • Points-clés compréhensibles par des non-spécialistes
  • Résultats généralisables
  • Prise en compte de la diversité linguistique et culturelle

Des questions restent ouvertes. Entre autres sur l’intérêt d’utiliser des modèles de risque, sur les éléments à partager, sur la flexibilité des modèles de rapports d’évaluation et sur la gestion des systèmes agentiques.

Cybersécurité de l’IA, détection des contenus synthétiques… Des travaux à poursuivre

L’INESIA l’affirme : il avancera « selon le programme de travail du réseau ».

Sa feuille de route 2026-2027 s’articule en trois pôles thématiques – « Appui à la régulation », « Risques systémiques » et « Performance et Fiabilité » – auxquels s’ajoute un axe transversal.

En matière d’appui à la régulation, il s’agira notamment de fournir des outils aux autorités chargées de contrôler les systèmes d’IA à haut risque. L’INESIA compte aussi favoriser les échanges entre ses membres sur les sujets de normalisation, en soutien aux exigences de conformité de l’AI Act.

Ce pôle thématique englobe également la détection de contenus artificiels. Sur ce point, l’INESIA poursuivra les travaux du PEReN et de Viginum (service de vigilance et de protection contre les ingérences numériques étrangères, intégré au SGDSN). Ils se sont traduits par la publication, en source ouverte, de « métadétecteurs » de contenus synthétiques (texte, images). Et d’une bibliothèque pour évaluer ces détecteurs. En ligne de mire, une extension à l’audio et à la vidéo.

L’INESIA doit par ailleurs contribuer au développement de méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA et des produits de cybersécurité qui embarquent de l’IA. Dans ce domaine, il s’appuiera sur un projet que pilote l’ANSSI : SEPIA (Sécurité des produits intégrant de l’IA). Et impliquera l’AMIAD (Agence ministérielle pour l’IA de défense), ainsi que le réseau des CESTI (Centres d’évaluations de la sécurité des technologies de l’information).

Un premier socle d’expérimentations conjointes sur les risques systémiques

Les missions de l’INESIA touchent aussi au développement d’une expertise technique sur l’évaluation et l’atténuation des risques systémiques. En tête de liste, la manipulation de l’information, l’assistance aux attaques informatiques et le développement de NRBC (armes nucléaires, radiologiques, biologiques et chimiques).

De cette expertise devront résulter des protocoles d’évaluation et de détection exploitables à la fois par les développeurs et les régulateurs. Ainsi que des méthodes d’atténuation associées à des outils open source « si opportun ».

La caractérisation et l’atténuation des risques systémiques se portera également sur les systèmes agentiques. Là aussi, l’INESIA n’exclut pas de s’appuyer sur l’existant, que ce soit en termes de protocoles d’évaluation ou d’implémentations.

La poursuite des activités conduites dans le cadre du réseau des AISI vaut aussi sur ce pôle thématique. Le premier livrable avait été publié l’an dernier au Sommet de l’IA. Il rendait compte d’expérimentations conjointes. Menées principalement par Singapour, le Japon et le Royaume-Uni, elles ont testé, d’une part, la robustesse cyber de deux modèles. De l’autre, les réponses fournies en fonction de la langue de l’utilisateur. La France a fourni le jeu de données d’évaluation cyber et mesuré les risques de sécurité pour les interactions en langue française.

La perspective d’une infrastructure d’évaluation des systèmes d’IA

Le pôle « Performance et fiabilité » consiste essentiellement en l’organisation de défis sur des tâches d’évaluation spécifiques.

L’axe transverse inclut de l’animation scientifique et une mutualisation des travaux de veille des membres de l’INESIA. Il comprend surtout l’objectif principal de l’institut : constituer une infrastructure d’évaluation des systèmes d’IA à partir des cas d’usage qui auront été identifiés.

Illustration générée par IA

The post L’INESIA a sa feuille de route… et son défi de coopération internationale appeared first on Silicon.fr.

❌