Vue normale

Pacte sur l’IA : un « répertoire d’alphabétisation » comme principal livrable

6 mars 2026 à 16:47

Pas facile de suivre l’évolution du cadre réglementaire, de sorte qu’il a fallu modulariser les formations.

IDEMIA Public Security en a témoigné en tant que signataire du Pacte sur l’IA.

Depuis septembre 2024, la Commission européenne promeut ce dispositif censé aider à préparer la mise en conformité avec l’AI Act. Les échanges qu’elle a organisés dans ce cadre ont notamment guidé l’élaboration de l’omnibus numérique. Ils ont aussi contribué à alimenter un « répertoire des pratiques d’alphabétisation en matière d’IA ».

Toile de fond à ce répertoire : l’article 4 de l’AI Act. Entré en application en février 2025, il impose aux fournisseurs et aux déployeurs de systèmes d’IA de garantir un « niveau suffisant de maîtrise de l’IA » pour leur personnel. Ainsi que pour quiconque s’occupe du fonctionnant de ces systèmes pour leur compte.

La première version publique de ce répertoire (janvier 2025) réunissait des retours d’expérience d’une quinzaine d’organisations. Aux dernières nouvelles, on en est à 40. Dont deux pour la France : Criteo et, donc, IDEMIA Public Security.

Criteo, entre bootcamps et « cafés IA »

Pour tous les employés qui exploitent l’IA dans leur travail au quotidien, Criteo a mis en place des cours en ligne destinés à l’acquisition des bases et d’un vocabulaire commun. Il y a associé des ambassadeurs aux RH, au juridique, aux achats, aux marketing et à l’IT. Il organise par ailleurs des événéments, dont des « cafés IA » et des webinaires (par exemple sur l’utilisation de Copilot dans Office).

Les personnels techniques ont, de longue date, accès à des bootcamps, mis au goût de l’IA. Suivies sur la base du volontariat, les leçons sont données par des employés qui développent des systèmes d’IA internes ou qui mènent des recherches sur des sujets importants pour Criteo. La première semaine permet – en présentiel à Paris ou bien à distance – de se familiariser avec la stack IA de lamaison et d’appréhender un usage responsable. Les trois suivantes, de réaliser un projet individuel sur un cas d’usage interne, avec supervision par un chercheur et un ingé.

IDEMIA juge la formation en ligne « plus difficile et moins efficace »

Au-delà de ses sessions « Tech Talk » et « Meet the Experts », ses partenariats académiques et sa contribution aux évaluations NIST, IDEMIA Public Security insiste sur la formation de ses clients.
Pour les systèmes non classés à haut risque, la formation est en ligne, en anglais. Le contenu est adapté au niveau d’expertise.
Pour ceux qui entrent dans la catégorie « à haut risque », l’objectif est de former 100 % des clients en personne avant déploiement.

IDEMIA Public Security reconnaît qu’il est délicat de gérer le turnover, des deux côtés. Il considère globalement qu’il est plus difficile et moins efficace de former en ligne, « en particulier pour les systèmes d’IA à haut risque ». S’y ajoute le sujet du maintien des contenus à jour. Il a été décidé de les segmenter afin de pouvoir actualiser des sections spécifiques.

230 adhérents volontaires

Le « répertoire d’alphabétisation » est un des livrables les plus visibles du Pacte sur l’IA. Parmi ses 120 premiers signataires, annoncés en septembre 2024, il y avait une quinzaine d’organisations françaises. Dont Amadeus, Cegid, Dassault Systèmes, Docaposte, Lefebvre Sarrut, Mirakl, Orange, OVHcloud et Sopra Steria. Depuis, 365Talents, l’AFNOR, Capgemini et Groupe Rocher, entre autres, ont rejoint la boucle. Laquelle comprend désormais environ 230 signataires. Près de deux tiers sont européens ; un quart, étatsuniens. La majorité (63 %) sont à la fois fournisseurs et déployeurs. 37 % évoluent dans le logiciel ; 19 %, dans les services IT ; 13 % dans le cloud et/ou les télécoms.

L’adhésion reste volontaire et non contraignante. Elle suppose toujours trois grands engagements :

  • Définir une stratégie de gouvernance de l’IA
  • Cartographier les systèmes susceptibles d’être classés à haut risque
  • Promouvoir la sensibilisation du personnel et plus globalement des parties impliquées

D’autres engagements sont adoptables « à la carte », en fonction de la position occupée dans la chaîne de valeur de l’IA. Par exemple :

  • Identifier les risques pour la santé, la sûreté et les droits fondamentaux
  • Implémenter une journalisation cohérente vis-à-vis des finalités
  • Donner la possibilité d’étiqueter les contenus générés

7 webinaires sous la bannière du Pacte pour l’IA

L’autre catégorie de livrables « visibles » comprend les 7 webinaires que le Bureau de l’IA a organisés jusque-là. Tous sont disponibles en replay.

Le premier (novembre 2024) a exploré les objectifs de l’AI Act, son approche basée sur les risques et les mécanismes de gouvernance qu’il instaure.

Le suivant (décembre 2024) s’est focalisé sur les dispositions qui entreraient en application en février 2025. Ainsi que sur la régulation des modèles d’IA à usage général, qui seraient quant à eux encadrés à partir d’août 2025.

Le troisième webinaire (février 2025) avait abordé les exigences de « maîtrise de l’IA » inscrites à l’article 4. Et le répertoire associé.

En avril 2025, les deux sujets principaux furent les pratiques interdites et la définition des systèmes d’IA. Sur ce dernier point, l’UE venait de publier des lignes directrices.

Des bacs à sable aux gigafactories

Le 5e webinaire, tenu en mai 2025, avait englobé divers dispositifs. Parmi eux, les (giga-)usines d’IA, l’initiative InvestAI et la stratégie pour l’union des données.
Il fut aussi question de la stratégie pour l’application de l’IA, que la Commission européenne adopterait en octobre. Elle se déploie sur trois axes : mise en place d’initiatives phares sectorielles, résolution de défis transversaux et mécanisme de gouvernance unique.

Parmi les initiatives phares, l’UE entend porter, pour les soins de santé, des centres européens de dépistage avancés. Pour la mobilité, une initiative Autonomous Drive Ambition Cities dans le cadre de bancs d’essai transfrontaliers. Pour la culture, des microstudios spécialisés dans la production virtuelle assistée par IA.
Les « défis transversaux » couvrent, dans les grandes lignes, l’attractivité de l’IA pour les PME, la formation d’une main-d’œuvre adaptée et la garantie d’une confiance dans le marché européen.
L’aspect gouvernance unique doit reposer sur la transformation de l’Alliance européenne pour l’IA en forum de coordination.

Lors du 6e webinaire (septembre 2025), il fut à nouveau question des modèles d’IA à usage général. Et du code de bonnes pratiques associé (publié en juillet).

Le dernier webinaire en date (novembre 2025) a traité des dispositifs d’innovation pour les PME. Essentiellement, les bacs à sable réglementaires, les installations sectorielles d’essai et d’expérimentation, la plate-forme unique d’information sur l’AI Act et les pôles européens d’innovation numérique.

Illustration générée par IA

The post Pacte sur l’IA : un « répertoire d’alphabétisation » comme principal livrable appeared first on Silicon.fr.

Guerre en Iran : les datacenters américains dans le viseur

6 mars 2026 à 16:18

Des drones iraniens ont frappé délibérément cette semaine les data centers d’AWS aux Émirats arabes unis et à Bahreïn. Selon le Financial Times (FT), c’est la première fois qu’une opération militaire prend pour cible les infrastructures d’une entreprise technologique américaine de premier plan.

L’agence Fars News, proche des Gardiens de la révolution islamique, a revendiqué ce jeudi des frappes contre des installations d’Amazon et de Microsoft dans la région. Si Microsoft a démenti tout incident opérationnel, AWS a confirmé que deux de ses sites aux Émirats avaient été « directement touchés » par des drones, mettant hors service deux de ses trois zones de disponibilité régionales.

Un data center en Bahreïn a également été atteint lors d’une attaque à proximité. AWS a conseillé à ses clients de migrer leurs données vers d’autres régions, reconnaissant que « l’environnement opérationnel au Moyen-Orient reste imprévisible ».

Des cibles difficiles à défendre

Les data centers présentent des caractéristiques qui en font des cibles vulnérables : des groupes électrogènes diesel, des turbines à gaz, et surtout d’imposants systèmes de refroidissement. « Ce sont des installations tentaculaires, et si vous mettez hors service les refroidisseurs, vous pouvez les mettre entièrement hors ligne », explique au FT Sam Winter-Levy, chercheur à la Carnegie Endowment for International Peace.

Matt Pearl, du think-tank américain CSIS, résume la logique de ces offensvives : « Les Iraniens voient les data centers comme une composante du conflit. C’est une façon d’avoir un impact réel dans la région. »

L’eldorado de l’IA du Golfe remis en question ?

Les conséquences de ces frappes dépassent largement le cadre militaire. Le Golfe avait misé sur son image de havre de stabilité pour attirer des investissements colossaux dans l’intelligence artificielle. L’Arabie saoudite, via son entité Humain, et les Émirats arabes unis, via G42, ont engagé des milliards aux côtés de Nvidia, Amazon et Microsoft pour construire de vastes clusters de data centers.

Abu Dhabi accueille également l’un des gigantesques projets « Stargate «  d’OpenAI. Le mois dernier encore, Microsoft annonçait l’ouverture prochaine d’un nouveau centre Azure en Arabie saoudite.

« Ces frappes pourraient fondamentalement changer le calcul de risque pour les investisseurs privés, les assureurs et les entreprises technologiques elles-mêmes », avertit Jessica Brandt, du Council on Foreign Relations. « Le Golfe s’était vendu comme une alternative sûre à d’autres marchés. Cet argument vient de perdre de sa force. »

Un avertissement mondial

Au-delà des capitaux, c’est le recrutement de personnel d’ingénierie et de construction qui pourrait pâtir du nouveau climat d’insécurité, selon un vétéran américain de l’industrie tech installé dans la région, cité par le FT. Il compare le projet « Stargate » aux usines de fabrication de puces d’Intel en Israël, protégées par l’armée et entourées de défenses anti-aériennes : « Il faut intégrer la protection dès le départ, c’est incontournable pour un projet de cette envergure. »

Reste que l’attaque soulève une question qui dépasse le seul Moyen-Orient. « C’est un avant-goût de ce qui va venir, et ces types d’attaques ne se limiteront pas à cette région », prévient Winter-Levy. À l’heure où les infrastructures numériques deviennent le nerf de la guerre économique et technologique mondiale, leur protection physique s’impose désormais comme un enjeu de souveraineté à part entière.

Ilustration générée par l’IA

The post Guerre en Iran : les datacenters américains dans le viseur appeared first on Silicon.fr.

Vibeware : quand l’IA industrialise la cybercriminalité médiocre

6 mars 2026 à 15:24

Dans une nouvelle analyse consacrée à l’évolution des opérations du groupe APT36 (également connu sous le nom de Transparent Tribe), Bitdefender documente l’émergence d’un modèle de développement de malwares assisté par l’IA que ses chercheurs qualifient de « vibeware ».

L’intelligence artificielle n’a pas encore produit le cyberattaquant omniscient que certains redoutaient. Ce qu’elle produit, en revanche, est peut-être plus insidieux : une chaîne de production automatisée de logiciels malveillants médiocres, jetables, et suffisamment nombreux pour saturer les défenses.

Un nouveau modèle industriel de la menace

Le vibeware désigne une approche du développement de malwares pilotée par l’IA qui privilégie la quantité sur la qualité. L’idée n’est pas de concevoir une cyberattaque brillante, mais d’en produire des dizaines, chaque jour, de manière automatisée.

Des groupes comme APT36, groupe de cybercriminels pakistanais bien documenté, seraient désormais capables de maintenir une cadence d’un nouveau variant de malware par jour. Ce rythme industriel permet de « saturer » la télémétrie défensive standard. Chaque nouveau binaire nécessite une analyse, chaque nouvelle signature doit être établie. Les équipes de sécurité se retrouvent à courir après un flot continu de menaces mineures, au risque de manquer l’essentiel.

Les chercheurs ont qualifié cette stratégie de DDoD pour Distributed Denial of Detection, ou déni de détection distribué. Par analogie avec les attaques DDoS classiques qui submergent un serveur par le volume de requêtes, le DDoD submerge les capacités d’analyse et de détection des équipes cyber avec un flux constant de codes renouvelés. L’objectif n’est pas de surpasser les défenses par le génie technique, mais d’épuiser les défenseurs.

Des langages exotiques pour réinitialiser les détections

L’un des leviers techniques les plus efficaces du vibeware réside dans le recours à des langages de programmation inhabituels. Les moteurs de détection sont, pour la plupart, optimisés pour analyser du code écrit en C++, C# ou .NET. Les attaquants l’ont bien compris.

Grâce aux LLM, il est désormais possible de porter la logique d’un malware existant vers un langage de niche sans disposer d’une expertise préalable. Les langages favorisés par APT36 incluent notamment :

  • Nim : représentant moins de 0,1 % de l’indice TIOBE, ce langage compile en C ou C++ mais utilise un moteur d’exécution unique. Les scanners de sécurité le classent souvent comme « inconnu » plutôt que « malveillant ». Il est utilisé comme enveloppe (wrapper) furtive pour masquer des charges utiles plus anciennes.
  • Zig : utilisé pour des outils comme ZigShell ou ZigLoader, ce langage offre des performances élevées tout en échappant aux signatures comportementales des solutions EDR.
  • Crystal : également trop rare pour disposer de signatures établies dans de nombreux outils de détection de terminaux.

À ces langages de niche s’ajoutent Rust et Go, plus connus mais appréciés pour leur stabilité mémoire lors de tâches intensives comme l’exfiltration massive de données.

L’effet stratégique est double : réinitialisation de la détection ( chaque nouveau langage oblige les outils de sécurité à repartir de zéro) et accessibilité simplifiée par l’IA, qui permet à des attaquants sans expertise spécifique de générer du code fonctionnel dans ces langages.

Living Off Trusted Services : se cacher dans le trafic légitime

Le vibeware excelle également dans l’exploitation des services cloud légitimes pour ses canaux de commande et de contrôle. Cette technique, désignée sous le terme de Living Off Trusted Services (LOTS), consiste à utiliser des plateformes comme Google Sheets, Discord, Slack ou Supabase comme infrastructure C2.

L’exemple le plus documenté est SheetCreep, un malware écrit en C# qui transforme une feuille de calcul Google Drive en véritable tableau de bord d’administration. Son fonctionnement est précis :

  • Le malware interroge régulièrement une feuille de calcul spécifique pour y récupérer des instructions.
  • Les commandes sont encodées en Base64 puis chiffrées via un algorithme DES (mode ECB).
  • Les résultats d’exécution sont renvoyés dans les cellules du tableur via l’API Google Drive.
  • L’infrastructure est organisée en onglets dédiés : unenc_requests, unenc_outputs, unenc_heartbeats, unenc_systems.

D’autres outils de la flotte APT36 s’appuient sur Discord (CrystalShell), Slack (ZigShell), Firebase et Supabase pour la gestion des sessions et le stockage des données volées, ou encore sur Microsoft Graph API via l’infostealer MailCreep.
Azure Front Door est également utilisé pour masquer les communications malveillantes dans du trafic HTTPS légitime.

L’IA joue ici un rôle d’accélérateur décisif : ces plateformes disposent de documentations publiques abondantes et de SDK bien référencés dans les données d’entraînement des LLM. Générer du code d’intégration stable pour Google Sheets ou Discord est devenu trivial, même pour un attaquant sans compétence technique approfondie.

Les limites du vibeware

Il serait inexact de présenter le vibeware comme une rupture technologique car le code généré par l’IA est souvent dérivé, incohérent, et sujet à des erreurs logiques critiques.

Plusieurs cas documentés illustrent ces failles :

  • Des binaires déployés avec l’URL du serveur C2 laissée en « placeholder » (modèle vide), rendant l’exfiltration de données impossible.
  • Des composants qui s’effondrent dès que la logique atteint un niveau de complexité modéré.
  • Dans le cas de CrystalShell, l’absence de protocole de communication entre les bots aurait généré des « broadcast storms » inutiles, et la commande de statut réinitialisait la métrique qu’elle était censée mesurer.
  • Des outils incapables de supprimer leurs propres fichiers temporaires après exécution, facilitant l’analyse forensique post-attaque.

Cette fragilité structurelle explique pourquoi les groupes comme APT36 continuent d’utiliser des frameworks classiques et éprouvés (Cobalt Strike ou Havoc) comme filet de sécurité. Les outils « vibe-coded » ne sont pas encore assez fiables pour porter seuls la responsabilité d’une opération critique.

Par nature, les LLM sont entraînés sur des dépôts publics comme GitHub : ils réorganisent des patterns existants sans inventer de nouvelles méthodologies d’attaque. Ils manquent de véritable compréhension du contexte de sécurité.

Comment se défendre : passer du statique au comportemental

Face au vibeware, une défense basée sur les signatures est structurellement inadaptée. Les recommandations convergent vers une approche dynamique et comportementale.

> Prioriser l’analyse comportementale. L’injection de processus ou le process hollowing restent des constantes, quel que soit le langage utilisé. Les solutions EDR/XDR doivent surveiller ces comportements plutôt que les signatures de binaires. La surveillance des répertoires d’écriture utilisateur (%APPDATA%, %TEMP%) et le scan régulier de la mémoire complètent ce dispositif.

> Auditer les services cloud. Les connexions persistantes vers Discord, Slack ou Google Sheets provenant de binaires non vérifiés doivent être traitées comme des indicateurs de compromission potentiels. Un monitoring strict de ces plateformes s’impose dans les environnements sensibles.

> Compliquer la phase post-intrusion. Les opérations de piratage proprement dites restent manuelles. Réduire la surface d’attaque pour introduire de la friction lors du mouvement latéral, filtrer rigoureusement les fichiers LNK, ZIP ou ISO reçus par email, et maintenir les navigateurs à jour pour bénéficier de mécanismes comme l’App-Bound Encryption (ABE) sont autant de mesures qui forcent l’attaquant à utiliser des méthodes plus lourdes et donc plus détectables.

> S’appuyer sur des SOC ou MDR matures. Compte tenu de la cadence de production des variants (parfois un par jour), seule une surveillance 24/7 permet de distinguer le « bruit » généré par le vibeware des véritables intrusions critiques.

Le vibeware n’est pas l’avènement du cyberattaquant surhumain. C’est l’industrialisation du cyber-médiocre. Et c’est précisément pour cette raison qu’il mérite une attention soutenue.

*Image : © DR
*L’analyse des chercheurs de Bitdefender a révélé la présence récurrente du pseudonyme  « Nightmare  » sur plusieurs systèmes. Ce personnage semble jouer un rôle central dans le développement des malwares assistéw par l’IA

The post Vibeware : quand l’IA industrialise la cybercriminalité médiocre appeared first on Silicon.fr.

Femmes et numérique : malgré les biais, l’IA donne espoir

6 mars 2026 à 13:41

Dans la tech française, le taux de féminisation s’élève à 17 %.

Dans la perspective de la Journée internationale des droits des femmes, les acteurs de l’IT sont nombreux à reprendre cette statistique. Moins à la sourcer.

Elle semble tirée d’un des volets de l’enquête Gender Scan, que réalise Global Contact, un cabinet parisien d’études et de conseil. Plus précisément de l’édition 2022. Les 17 % en question valent pour l’année 2020.

femmes numérique

En fonction des acteurs de l’IT, la formulation varie. Ippon Technologies annonce que les femmes représentent environ 17 % des effectifs de la tech en France. Tandis qu’Acer affirme que 17 % des postes techniques dans l’IT sont occupés par des femmes.
Le premier ajoute que dans ce même secteur, les femmes occupent 10 % des postes à responsabilité. Le second, que seules 3 % des lycéennes choisissent la spécialité numérique et sciences informatiques.

L’IA, ou les deux côtés de la médaille

Chez Tanium, on rappelle qu’à l’échelle mondiale, dans le domaine des technologies, 14 % des cadres supérieurs sont des femmes. On souligne aussi l’opportunité que l’IA présente pour « égaliser les chances » en contribuant à réduire l’épuisement professionnel… y compris pour les femmes qui reprennent le travail. « L’avantage pour les femmes viendra des organisations qui utiliseront l’IA pour renforcer la filière de leadership et non pour la réduire », ajoute Melissa Bischoping, directrice de recherche en sécurité.

iCIMS, éditeur de logiciels RH, voit dans l’IA un « levier puissant » pour objectiver certaines décisions de recrutement, harmoniser les critères et limiter les biais humains.

Il y a deux ans, en marge de la Journée internationale des droits des femmes, l’UNESCO avait elle aussi exprimé des espoirs quant à l’IA. Plus précisément au sujet des LLM open source. Qui, par leur ouverture, pouvaient favoriser l’atténuation des biais embarqués.

Car des biais, il y en avait. Des tests sur GPT-2, Llama 2 et GPT-3.5 avaient révélé, entre autres, une propension à produire des stéréotypes de genre. Par exemple en y associant certains concepts (à « femme », « famille », « enfants » et « mariage » ; à « homme », « entreprise », « cadre », « salaire », « carrière »…). Ou certains emplois (« chauffeur », « enseignant », « jardinier », « employé de banque » pour les hommes ; « serveuse », « intendante », « mannequin », « prostituée » pour les femmes).

« Même de légers préjugés sexistes dans le contenu [généré] peuvent amplifier de manière significative les inégalités dans le monde réel », avait commenté Audrey Azoulay, alors directrice générale de l’UNESCO.

Du freelancing aux perceptions sociétales, une « trajectoire positive »

Ces inégalités se renforcent d’autant plus qu’elles sont visibles, postule Cynthia Overby, directrice des solutions de sécurité informatique chez Rocket Software. Des postes de direction aux conférenciers qui interviennent lors d’événements tech majeurs, le manque de diversité en façade « renforce la perception que l’industrie des technologies n’accueillera pas ceux qui ne correspondent pas à cette image », estime-t-elle.

« Dans les années 80, les femmes étaient beaucoup plus représentées dans les métiers de l’IT, explique LeHibou (plate-forme de freelancing IT). Un basculement s’est produit pendant cette décennie, quand l’informatique est devenue un produit grand public », constate-t-elle.
En 2023, 14 % de ses freelances furent des femmes. Minoritaires, donc, mais sur une « trajectoire positive » (elles étaient 9 % en 2018). Leurs principales fonctions : chef de projet MOA, product owner, consultante AMOA, chef de projet IA et business analyst. Trois de ces métiers ont affiché, en 2023, un taux journalier moyen équivalent à celui des hommes. Mais alors que ces derniers privilégiaient la rémunération, leurs homologues féminines citaient le choix des missions et la quête d’un meilleur équilibre pro/perso comme leurs principales sources de motivation pour faire du freelancing.

La même année, Ironhack (formation au numérique) avait lui aussi évoqué une forme de trajectoire positive. En comparant deux enquêtes sur le panel BuzzPress France, il avait notamment relevé que :

  • 63 % des Français déclaraient que les femmes pouvaient être aussi douées que les hommes dans les métiers liés au numérique (+ 4 points par rapport à 2022)
  • 32 % ne considéraient pas que les femmes n’étaient pas élevées ou éduquées pour s’intéresser à ces métiers (+ 6 points)
  • 49 % seraient prêts à inciter leur fille à choisir un métier dans la tech (+ 7 points)

Au-delà de la diversité, garantir l’inclusion

« Dans un environnement technique, la mixité apporte des regards différents et contribue à un meilleur équilibre collectif », assure Laetitia Martzolff, HR Business Partner chez DEEP France (ex-DIGORA).

Stephanie Aceves, directrice product management chez Tanium, va plus loin. Elle appelle à porter attention aux « qualités uniques » des femmes : « capacité à diriger avec intuition, à résoudre les problèmes avec une vision large et à créer une communauté au sein des équipes ». Au-delà du recrutement diversifié, il faut garantir l’inclusion, ajoute-t-elle. Or, pour un même rôle, on attend plus d’une femme. Souvent, en particulier, qu’elles prennent en main le sujet de la féminisation lorsqu’elles sont seules dans leur équipe.

Dans certains contextes, les femmes doivent encore démontrer leur compétence avec une intensité supérieure, confirme Céline Delaugère. Cette exigence souvent implicite se manifeste dans l’accès au financement, à la visibilité médiatique ou aux postes de décision, résume la fondatrice de MyDataMachine. Elle poursuit : parler de droits des femmes implique de regarder concrètement leurs accès à l’IA, à la data et aux infrastructures numériques, en ce qu’elles façonnent nos sociétés (modèles économiques, usages culturels, équilibres de pouvoir). Et d’appeler à ne plus analyser les parcours féminins à travers des catégories restrictives : scientifique ou créative, technique ou artistique, rationnelle ou sensible… Cette lecture binaire ne correspond plus à la réalité de trajectoires hybrides.

Brevets STEM : le taux de féminisation aussi sous les 20 %

D’après l’Office européen des brevets, dans les STEM, 16,7 % des inventeurs mentionnés dans les demandes de dépôt de brevet en France entre 2018 et 2022 étaient des femmes. Soit à peu près autant que sur la période 2013-2017 (16,4 %). Le Val-de-Marne se distingue. Le taux (25,4 %) y est parmi les plus élevés chez les régions européennes à forte densité d’innovation.

En mathématiques et informatique, l’Institut Mines-Télécoms arrive en tête des établissements d’enseignement supérieur pour le taux de femmes dans les demandes de dépôt de brevet pendant le doctorat (10 %). L’Université Paris Sciences et Lettres domine pour les dépôts ultérieurs (8 %).

Sur l’ensemble des dépôts à l’INPI entre 2021 et 2023, 14 % des inventeurs français étaient des femmes. Le taux atteignait 16 % dans les établissements publics et les entreprises détenues par l’État. Contre 11 % dans les grandes entreprises et 9 % dans les PME. Il avoisinait 30 % dans le secteur de la chimie.

Illustration générée par IA

The post Femmes et numérique : malgré les biais, l’IA donne espoir appeared first on Silicon.fr.

IA militaire : Anthropic officiellement interdit de Pentagone 

6 mars 2026 à 12:07

C’est une première dans l’histoire industrielle américaine : une entreprise nationale se voit infliger le même traitement que l’équipementier chinois Huawei.

Ce jeudi, le secrétaire à la Défense Pete Hegseth a désigné officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » de l’armée américaine. La décision est immédiatement effective : les 200 millions $ de contrats militaires sont désormais obsolètes.

Les conséquences financières restent, pour l’heure, plus limitées que certains l’avaient redouté. La désignation ne s’applique qu’aux usages de Claude dans le cadre direct de contrats passés avec le Pentagone. Microsoft, partenaire important d’Anthropic, a déjà indiqué que ses juristes avaient étudié le texte et conclu que Claude était utilisable dans ses produits commerciaux  (M365, GitHub, Azure AI Foundry)  pour tous les clients non liés à des contrats de défense. Amazon, investisseur majeur dans Anthropic, n’a pas encore réagi officiellement.

Fin du contrat avec Palantir

En revanche, la rupture avec Palantir est immédiate. La plateforme Maven Smart System, que l’armée américaine déploie notamment pour ses opérations en Iran, et qui s’appuie sur des flux construits avec Claude, devra trouver un substitut. Le Trésor et la General Services Administration ont annoncé leur intention de couper tout lien commercial avec Anthropic, en application d’une directive directe de Donald Trump exigeant d’expurger ses solutions de l’ensemble des contrats fédéraux.

Anthropic a annoncé qu’elle contesterait la décision en justice, estimant que la loi  (dite 10 USC 3252) exige du secrétaire à la Guerre de recourir aux « moyens les moins restrictifs nécessaires » pour protéger sa chaîne d’approvisionnement. En attendant le verdict des tribunaux, la scale-up assure qu’elle continuera à fournir ses modèles à l’armée américaine « au coût nominal », et avec le soutien de ses ingénieurs, aussi longtemps que ce sera légalement possible.

Les dégâts d’une note interne

La crise a pris une dimension politique supplémentaire avec la fuite d’une note interne de Dario Amodei, publiée par le site The Information.

Rédigé le jour où Donald Trump avait ordonné l’exclusion d’Anthropic des systèmes fédéraux et où OpenAI avait annoncé in extremis un accord avec le Pentagone, le mémo accusait le gouvernement de sanctionner Anthropic faute d’ « éloges de style dictateur » envers le Président.

Le PDG a fait son mea culpa : « C’était une journée difficile pour la société, et je m’excuse du ton de ce message. Il ne reflète pas mes vues réfléchies. » Il a aussi précisé qu’Anthropic n’était pas à l’origine de la fuite.

Image : © DR

The post IA militaire : Anthropic officiellement interdit de Pentagone  appeared first on Silicon.fr.

❌