Vue lecture

Gouvernance du numérique : le MAGNum 2026 remplace le GAGSI

Disponible depuis le 3 mars 2026,Du GAGSI au MAGNum : une évolution structurelle

Changement de braquet pour la gouvernance du numérique :  le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) 2026 prend la suite du Guide d’Audit de la Gouvernance du Système d’Information (GAGSI 2019), dont il dépasse largement le périmètre initial.

Là où le GAGSI se contentait d’identifier des bonnes pratiques, le MAGNum mesure désormais, de façon structurée et comparable, le niveau de maturité numérique global d’une organisation sur une échelle de 1 à 5.

Du GAGSI au MAGNum : une évolution structurelle

Le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) est le fruit d’un travail collégial mené par une soixantaine d’experts issus des trois associations (auditeurs, DSI, architectes de systèmes d’information, consultants)  réunis au sein d’ateliers thématiques couvrant la stratégie, l’architecture, les données, les risques, l’IA, la cybersécurité, la RSE ou encore la gestion de projets.

Cette montée en ambition s’accompagne d’une refonte thématique pour intégrer les enjeux devenus incontournables depuis la dernière édition : intelligence artificielle, RSE, cybersécurité renforcée, conformité réglementaire et agilité organisationnelle.

« Le travail mené en commun en 2022-2023, qui a permis de clarifier les évolutions de la gouvernance du numérique, nous a convaincus de la nécessité de mettre à jour l’édition 2019. En intégrant le référentiel de mesure de la maturité de la gouvernance développé par ISACA France, nous avons rapproché de manière cohérente l’exercice d’audit et l’évaluation de la maturité », explique Véronique Beaupère, conseil en stratégie et gouvernance des systèmes d’information et administratrice d’ISACA France, qui a codirigé les travaux.

13 vecteurs de gouvernance pour couvrir l’ensemble du numérique

Le modèle s’articule autour de 13 vecteurs clés : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication. Pour chacun, le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.

Le modèle se distingue par l’ajout d’un 13ème vecteur dédié à la RSE, ainsi que par l’intégration systématique de l’IA dans tous les vecteurs, en particulier celui des données.Pour chacun des 13 vecteurs clés  le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.

L’outil intègre une grille de maturité assortie d’une restitution visuelle sous forme de radar, permettant de prioriser les actions, de mesurer les progrès dans le temps et de comparer différentes entités  (entreprises, filiales, business units). Le fichier Excel associé permet de noter le niveau de respect des exigences, de calculer automatiquement la maturité par vecteur et de générer ce radar à destination du management.

Un langage commun entre DG, DSI, métiers et auditeurs

L’un des objectifs affichés du MAGNum est de réconcilier des populations qui, souvent, ne parlent pas le même langage. En proposant un vocabulaire partagé entre les décideurs (DG, DSI, directions métiers), les auditeurs et les opérationnels, le modèle entend aligner gouvernance du numérique et stratégie d’entreprise.

Pour Djilali Kies, pilote du projet pour le Cigref, « nos trois associations, chacune par leurs travaux parallèles, ont acquis la conviction que la maîtrise de la gouvernance du numérique n’est aujourd’hui plus négociable pour les entreprises, c’est devenu un impératif. Nous avons donc décidé de regrouper nos efforts, avec pour objectif d’aller au-delà du guide d’audit et de produire cette fois plutôt un manuel de maturité, un référentiel de bonnes pratiques, un outil qui intègre déjà toutes les évolutions que l’on connaît à date du monde du numérique. »

Du côté des auditeurs internes, Guillaume Cuisset, associé KPMG et membre du Groupe Professionnel « Systèmes d’Information » de l‘IFACI, souligne l’apport concret pour leur pratique : « Maîtriser les questions de gouvernance du numérique est devenu un enjeu très important pour une direction d’audit interne. Ce nouveau modèle de maturité permet à l’auditeur interne de mieux comprendre le fonctionnement de la DSI, d’identifier les causes profondes des dysfonctionnements et de formuler des recommandations plus ciblées. C’est un outil qui va lui permettre de discuter, selon un même champ lexical, avec son DSI, son directeur du numérique, tout en s’appuyant sur un référentiel de bonnes pratiques qui est partagé par les deux métiers, puisqu’il aura été construit collégialement entre nos trois associations. »

Un outil conçu pour les équipes terrain

Le MAGNum repose sur trois principes fondateurs : le pragmatisme (les critères sont issus des retours de terrain des contributeurs), la lisibilité (un vocabulaire accessible à l’IT, aux métiers et aux fonctions support) et la facilité d’usage (des outils simples, y compris pour les non-spécialistes).

In fine, le modèle se positionne à la fois comme un outil de pilotage de la transformation numérique, un support d’objectivation des priorités d’investissement, un référentiel commun de dialogue entre DG, métiers, DSI, conformité et audit, et un moyen d’auto-évaluation régulière de la gouvernance du numérique.

Le MAGNum 2026 est disponible en téléchargement libre (version française) sur l’espace membres d’ISACA France : https://engage.isaca.org/parischapter/espacemembres/publications/publications343

*Les 13 vecteurs clés sont  : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication.

 

The post Gouvernance du numérique : le MAGNum 2026 remplace le GAGSI appeared first on Silicon.fr.

  •  

Numérique en entreprise : les mises en garde de la DGSI

BYOD, IA, réseaux sociaux professionnels, logiciels à usage industriel… Les derniers « flashs ingérence » de la DGSI ont souvent fait la part belle au numérique.

Le service de renseignement avait institué ce format en 2012. Il y présente brièvement des cas réels d’ingérence économique et y associe des préconisations. Le dernier en date (février 2026) évoque les risques de captation d’informations lors de déplacements à l’étranger.

Deepfakes, shadow AI… et due diligence sans vigilance

Le « flash ingérence » précédent (décembre 2025) est consacré à l’usage de l’IA dans le monde professionnel.

L’un des cas présentés est une tentative d’escroquerie par deepfake. Elle a visé le responsable d’un site industriel d’un groupe français. L’intéressé a reçu un appel visio. Son interlocuteur avait l’apparence physique et la voix du dirigeant du groupe. Il n’a cependant pas accédé à la demande qui lui a été faite de transférer des fonds dans le cadre d’un prétendu projet d’acquisition.

Les deux autres cas présentés touchent respectivement à l’usage d’IA sans autorisation et sans vérification. Le premier implique la traduction régulière de documents confidentiels à l’aide d’un outil « grand public » développé par une société étrangère, sans aval de la hiérarchie. Le second concerne le recours à un autre outil d’origine étrangère, pour de la due diligence. La société utilisatrice a systématiquement orienté ses décisions en fonction du retour fait par l’outil, sans contrôle complémentaire.

Des approches indésirables sur les réseaux sociaux professionnels

Le « flash ingérence » précédent (novembre 2025) est dédié aux approches malveillantes sur les réseaux sociaux professionnels.

La DGSI y expose le cas d’une start-up en difficulté financière évoluant dans un secteur sensible. Son dirigeant est aproché par un prétendu cabinet de conseil étranger qui déclare opérer en qualité d’intermédiaire pour un fonds d’investissement. Convaincu, il lui dévoile des informations, dont un projet de conception d’un nouveau produit. Le service juridique de la start-up finit toutefois par détecter la supercherie. Ni le cabinet ni le fonds n’avait d’existence légale. Et on n’en trouvait trace dans aucune base de données de leurs pays d’origine déclarés.

Autre fausse promesse de financement : celle qui a ciblé le responsable d’un centre de recherche. Elle provenait du soi-disant chargé de com d’une célébrité internationale. Elle était d’autant plus crédible que cette célébrité avait récemment effectué des actions de soutien dans le domaine d’activité du centre – actions largement relayées sur les réseaux sociaux. La discussion n’est pas allée plus loin lorsque l’individu a demandé le règlement préalable d’une taxe locale de plusieurs milliers d’euros.

Le troisième cas exposé est celui de salariés piégés par un faux profil. L’escroc s’est d’abord fait passer pour un comptable interne, sans succès (le dirigeant avait repéré la supercherie). Il a eu plus de succès quelques mois plus tard. Avec un autre faux profil, il est parvenu à engager des discussions avec des salariés. Dont un qui lui a révélé des infos stratégiques relatives au calendrier de développement de certaines activités de l’entreprise et à l’état de ses progrès technologiques.

Les points faibles des logiciels industriels

En octobre, il y avait eu un « flash ingérence » concernant les risques associés à l’absence de protection des logiciels à usage industriel.

La DGSI y présente le cas d’une entreprise française développant des systèmes industriels. Un de ses clients avait, avec l’aide d’une entreprise concurrente étrangère, détourné le programme embarqué et l’avait installé sur une machine tierce. Or, ni le programme ni la machine ne bénéficiaient d’une protection par brevet. L’entreprise française avait considéré qu’en déposer un aurait publiquement exposé ses inventions. Le client a justifié la démarche par des temps de livraison jugés trop longs.

Deuxième cas : celui d’une entreprise française commercialisant un logiciel à intégrer dans des machines-outils. Un client étranger, prétextant un défaut de mise à jour, a fait une sauvegarde totale des données et du programme. Ce sans respecter les procédures de l’entreprise française, qui, habituellement, se déplace pour faire elle-même la mise à jour.
En l’absence de possbilité de protection par brevet des logiciels en tant que tels, l’entreprise craint notamment une revente à un concurrent.

La DGSI mentionne aussi un cas d’exfiltration de code source non protégé, survenu dans une entreprise ayant développé un logiciel applicatif pour un secteur industriel de pointe. Deux anciens salariés, qui avaient eu accès à ce code source développé dans le cadre de leurs fonctions, avaient créé une société concurrente pour l’exploiter. Ce quand bien même leurs contrats de travail comprenaient des clauses de confidentialité et de non-concurrence.

Entre phishing et keyloggers, la DGSI n’oublie pas le « facteur humain »

Un peu plus tôt dans l’année était paru un « flash ingérence » intitulé « Le facteur humain, principal vecteur de compromission des systèmes d’information ».

Le premier cas présenté est celui d’un salarié d’une société hébergeant des données sensibles. L’intéressé a accédé à sa messagerie professionnelle à partir d’outils personnels, alors même que la charte informatique de son employeur l’interdisait. Cela a permis à des attaquants de pénétrer le SI puis d’exploiter une faille 0-day.

Autre entreprise, autre salarié, quant à lui approché sur un réseau social professionnel par un soi-disant chargé de recrutement dans un grand groupe étranger. Invité à ouvrir une pièce jointe dans un de ses e-mails, il a ouvert la porte à un virus qui a permis d’extraire des centaines de fichiers sensibles. Ainsi que des fichiers appartenant à son ancien employeur.

La DGSI y ajoute une action malveillante d’un salarié travaillant chez un prestataire d’un grand groupe industriel. Il a installé un keylogger sur une clé USB personnelle. Puis l’a mise à disposition de ses collègues en tant que support de stockage professionnel. Cela lui a permis de récupérer les identifiants des personnes qui l’avaient connectée à leur ordinateur.

Le BYOD, consultants compris

En mars 2025, la DGSI avait publié un « flash ingérence » sur les risques associés à l’utilisation d’outils numériques personnels à des fins professionnelles.

Premier cas évoqué : un salarié ayant utilisé à de multiples reprises son ordinateur personnel pour se connecter à la plate-forme commerciale de son entreprise. Sans dispositif d’anonymisation ni chiffrement des échanges. Un membre de sa famille utilisait régulièrement cet ordinateur. Qui, pendant une courte période, a eu un fonctionnement inhabituel, non expliqué. Plusieurs mois après, le RSSI de la société a constaté que l’identifiant et le mot de passe du salarié étaient sur le darkweb. Faute d’authentification forte sur la plate-forme commerciale, des tiers ont accédé à la base de données clients.

Autre cas : celui d’un consultant d’un prestataire informatique d’une société sensible. À son domicile, il s’est fait voler son ordinateur personnel. Il y avait transféré des données de la société depuis son poste de travail pro. Elles étaient stockées sans protection particulière et l’ordinateur n’était sécurisé que par un mot de passe. Le presta n’avait pas avisé la société de ce transfert de fichiers.

La DGSI mentionne aussi une entreprise qui encourageait le BYOD sans l’avoir encadré clairement. Et sans posséder de systèmes de gestion des appareils mobiles à distance. Elle n’a pas pu déterminer ce qui est arrivé au téléphone d’un salarié lors d’un contrôle aéroportuaire. Les autorités étrangères l’ont saisi, ont obtenu son déverrouillage et l’ont emporté dans une autre pièce…

Illustration générée par IA

The post Numérique en entreprise : les mises en garde de la DGSI appeared first on Silicon.fr.

  •  

DeepIP lève 25 millions $ pour unifier l’IA dans le cycle de vie des brevets

DeepIP, plateforme d’IA dédiée aux brevets, annonce ce 3 mars une levée de fonds de 25 millions $ en Série B, portant son financement total à 40 millions $.

Le tour est co-mené par Korelya Capital, fonds fondé par Fleur Pellerin, ancienne ministre française de l’Économie numérique, et Serena, fonds connu pour avoir accompagné Dataiku. Les investisseurs historiques Balderton (Revolut) et Headline (Mistral AI) participent également à l’opération.

Fondée en 2024 par François-Xavier Leduc et Edouard d’Archimbaud, les deux cofondateurs de Kili Technology, une scale-up spécialisée en IA pour les entreprises du Fortune 500, DeepIP opère depuis New York et Paris.

Le problème que DeepIP cherche à résoudre

Si l’IA a commencé à s’imposer dans la pratique des brevets, la plupart des outils disponibles restent cloisonnés : chaque solution adresse une tâche isolée, obligeant les professionnels à naviguer entre des systèmes déconnectés et à transporter manuellement le contexte d’une étape à l’autre. Dans un domaine où précision et traçabilité sont critiques, cette fragmentation génère des frictions.

« La première vague d’IA appliquée aux brevets s’est principalement concentrée sur l’accélération de tâches individuelles », explique François-Xavier Leduc, CEO de DeepIP. « Or, la pratique des brevets repose sur un travail cumulatif, qui s’inscrit dans la durée, mobilise plusieurs équipes et implique de nombreuses décisions. »

Une intégration dans les outils existants

La réponse de DeepIP consiste à intégrer l’IA directement dans les environnements où le travail brevets s’effectue déjà ; Microsoft Word en tête ainsi que les plateformes de gestion d’actifs de propriété intellectuelle. L’objectif est de ne pas contraindre les équipes à changer leurs outils ou leurs processus. La société indique que cette approche génère jusqu’à 20 % d’adoption supplémentaire et 40 % d’usage en plus par rapport aux outils d’IA autonomes.

La plateforme revendique aujourd’hui plus de 400 cabinets et équipes IP (Propriété Intellectuelle) clients dans 25 juridictions et sur 5 continents, parmi lesquels Greenberg Traurig, Philips, Dexcom et Mewburn Ellis. Au total, plus de 40 000 dossiers auraient été traités via la plateforme.

Ce financement doit notamment permettre d’accélérer le développement de capacités d’IA agentique  afin d’aider les équipes à absorber des volumes croissants sans alourdir leur charge opérationnelle.

Pour Olivier Martret, Partner chez Serena, l’enjeu est aussi structurel : « Le marché mondial de l’IA appliquée aux brevets reste très fragmenté. Un positionnement plateforme est essentiel pour établir un nouveau standard. »

Photo : François-Xavier Leduc (droite) et Edouard d’Archimbaud (gauche) respectivement
CEO et CTO  © DR

The post DeepIP lève 25 millions $ pour unifier l’IA dans le cycle de vie des brevets appeared first on Silicon.fr.

  •  

IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public

Il y a des refus qui coûtent cher. Et d’autres qui rapportent gros. Anthropic vient de vivre la seconde expérience…sur le terrain de la popularité.

En renonçant à un contrat avec le Département de la Défense américain, que son rival OpenAI a accepté dans la foulée, la scale-up dirigée par Dario Amodeï s’est retrouvée propulsée au sommet de l’App Store américain, dépassant ChatGPT pour la première fois de son histoire.

Tout commence début 2026, lorsque le Pentagone cherche à déployer des modèles d’intelligence artificielle sur ses réseaux classifiés. Anthropic est dans la course  jusqu’au moment où l’entreprise comprend que l’accord implique de lever certaines de ses « lignes rouges ».  Pas question pour Dario Amodei et son équipe d’autoriser la surveillance domestique de citoyens américains ni de cautionner le développement d’armes autonomes létales. Anthropic claque la porte. OpenAI, elle, entre.

Une négociation « bâclée » selon Sam Altman

La décision d’OpenAI provoque une réaction en chaîne que personne n’avait vraiment anticipée. À San Francisco comme à Londres, des manifestants s’installent devant les bureaux de la firme de Sam Altman.

Mais le coup le plus inattendu vient de l’intérieur : près de 500 employés d’OpenAI et de Google cosignent une lettre ouverte, intitulée  » Nous ne serons pas divisés »,  exprimant leur soutien aux positions d’Anthropic. Face à la tempête, le PDG d’OpenAI est contraint à une rare autocritique publique, admettant avoir « bâclé » la négociation, et promettant des amendements contractuels en urgence.

Ces amendements, obtenus sous pression, comportent désormais des interdictions explicites : les systèmes d’IA « ne doivent pas être utilisés intentionnellement pour la surveillance domestique » de ressortissants américains.

Les agences de renseignement comme la NSA se voient en outre privées d’accès sans modification contractuelle préalable, une garantie que le Pentagone lui-même a confirmée publiquement. Trop tard, aux yeux de nombreux observateurs.

OpenAI vs Anthropic : une opposition de principes

La progression est spectaculaire. Claude est devenue l’application d’IA gratuite la plus téléchargée sur l’App Store américain, reléguant ChatGPT à la deuxième position et Gemini au-delà. Sur Android, l’application grimpe jusqu’à la septième place générale. Les records quotidiens d’inscriptions s’enchaînent. Et les abonnés payants ont doublé en l’espace d’un an.

Le mouvement dépasse la simple satisfaction d’utilisateurs éclairés. Le groupe QuitGPT appelle activement au boycott de ChatGPT sur les réseaux sociaux, encourageant la désinstallation de l’application. Lors du dernier Super Bowl, Anthropic a diffusé une publicité de 60 secondes vivement commentée, dénonçant avec ironie l’intégration croissante de contenus sponsorisés dans ChatGPT.

OpenAI sous pression

Chez OpenAI, on renégocie désormais sous la contrainte. Les amendements annoncés par Sam Altman ressemblent moins à une position de principe qu’à une gestion de crise. Cela n’empêchera pas la question de fond de revenir : jusqu’où les géants de l’IA civile peuvent-ils s’engager dans des applications militaires sans perdre la confiance du grand public ?

La controverse ouvre également un débat plus large sur la régulation des IA militaires. Les craintes d’armes autonomes létales et de systèmes de « crédit social » inspirés du modèle chinois alimentent un mouvement international qui dépasse la simple querelle de chapelle entre deux poids lourds de l’IA. L’Europe, déjà engagée dans la rédaction de son AI Act, observe attentivement.

Pour Anthropic, le défi est désormais de transformer ce momentum en avantage durable. La scale-up reste à perte, dans une course à l’infrastructure qui exige des milliards de dollars d’investissement. Mais elle a prouvé une chose que peu de ses concurrents auraient osé parier : dans l’économie de l’attention de 2026, les principes peuvent rapporter.

Illustration : photo générée par l’IA

 

 

The post IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public appeared first on Silicon.fr.

  •  

Ookla (Speedtest, Downdetector…) vendu à Accenture

Speedtest et Downdetector devraient bientôt appartenir à Accenture.

L’entreprise de conseil entend acquérir leur maison mère Ookla.

Cette dernière appartient depuis 2014 au groupe Ziff Davis, qui en a fait sa division Connectivity. Elle a dégagé 231 M$ de chiffre d’affaires en 2025. Accenture est prêt à s’en emparer pour environ 5 fois plus (1,2 Md$, en cash).

Né en 2006, Ookla n’avait alors dans son escarcelle que le produit Speedtest (mesure communautaire de la qualité des réseaux). Il y avait ajouté Downdetector (surveillance des perturbations des sites web) en 2018, par une acquisition. La même année, il avait mis la main sur Ekahau (optimisation des réseaux Wi-Fi). RootMetrics (tests réseau en conditions réelles) s’y était ajouté en 2021, également par croissance externe.

À partir de ces produits, Ookla a monté un éventail d’offres B2B : cartes de couverture réseau personnalisées, services marketing pour les opérateurs, intégration d’outils de diagnostic dans les SI, etc.

L’an dernier, Ookla avait officialisé une collaboration avec un concurrent d’Accenture : Deloitte. Ses éléments-clés : aide à la planification pour les fournisseurs d’infras télécoms, mesure de performance pour les opérateurs et suivi des déploiements pour les gouvernements.

Illustration générée par IA

The post Ookla (Speedtest, Downdetector…) vendu à Accenture appeared first on Silicon.fr.

  •  

Codage IA : les langages les plus frugaux en tokens

Dessiner un cuboïde, créer un raccourcisseur d’URL, lire des variables dans un fichier de configuration, implémenter le code de César… Autant de tâches de programmation qui figurent au catalogue de Rosetta Code.

Le projet en réunit plus d’un millier. Il cherche à collecter des solutions dans un maximum de langages. Son dataset a servi de base à une expérimentation dont un des fondateurs de CatchMetrics (optimisation des sites web) a récemment rendu compte. L’objectif était de déterminer quels langages sont frugaux en tokens – et donc susceptibles de moins encombrer la fenêtre de contexte des agents de codage.

Les langages dynamiques (juste) devant les langages fonctionnels

Le travail de comparaison a été confié à Claude Code, à l’appui d’un portage communautaire du tokenizer de GPT-4. L’agent avait, au préalable, sélectionné 19 langages « populaires » et avait récupéré les tâches ayant des solutions dans chacun de ces langages.

L’auteur de l’expérimentation admet les limites et les biais potentiels de son approche, qu’il reconnaît dépourvue de « rigueur scientifique » (pas de communication du prompt, entre autres). Il en souligne toutefois quelques enseignements. Entre autres, la plus grande efficacité des langages dynamiques (Clojure, Julia, Ruby, Perl et Python occupent les 5 premières places). Ne pas avoir à déclarer de types explicites aide, considère-t-il.

L’intéressé s’étonne de l’efficacité de langages fonctionnels comme Haskell et F#. L’un et l’autre consomment à peine plus de tokens que les langages dynamiques. C’est sans doute dû mécanisme d’inférence de types, estime-t-il.

tokens par tâche

La frugalité des langages orientés tableaux

Ses conclusions ont fait réagir. On lui a notamment rappelé les garanties qu’apportent les annotations de type… et le coût – en efforts comme en tokens – nécessaire pour en apporter de comparables dans les langages à typage dynamique.

On lui a aussi suggéré de tester des langages orientés tableaux. Ce qu’il a fait, avec APL et J.
APL se classe au 4e rang, consommant 110 tokens en moyenne. Sa syntaxe concise est un plus. Au contraire de son jeu de caractères, riche en glyphes (⍳, ⍴, ⌽…) auxquels le tokenizer est mal adapté.
Limité à de l’ASCII, J se révèle plus frugal, descendant à 70 tokens de moyenne.

L’expérience a ses limites en ce qu’elle se focalise sur de petites tâches. De même, le tokenizer est fixe, alors qu’on pourrait le réentraîner pour mieux gérer le code. L’auteur ne dit pas ailleurs pas si son comparatif a pris en compte les éventuelles erreurs à l’exécution et les tokens qu’elles ont consommés. Il n’aborde pas non plus les spécificités syntaxiques des langages. Par exemple, le fait que certains intègrent du code de formatage de texte dans des chaînes littérales comptées comme des tokens, tandis que d’autres ont un usage important des espaces – on peut citer les indentations de blocs dans Python – quant à eux possiblement pas comptés comme des tokens.

Illustration générée par IA

The post Codage IA : les langages les plus frugaux en tokens appeared first on Silicon.fr.

  •  

{ Tribune Expert } – La reconversion est l’infrastructure oubliée de la souveraineté technologique

Récemment, la DRH de SAP expliquait publiquement que, dans son groupe, les diplômes perdaient de leur pertinence au profit d’une organisation fondée sur les compétences. Lorsqu’un grand acteur industriel opère un tel basculement, il reconnaît une réalité : le socle de compétences d’une organisation et, par extension, d’un pays, est désormais un actif stratégique. Et ce constat n’a rien d’un slogan : c’est un signal économique.

Or, parler de compétences, c’est nécessairement parler de formation. Et aujourd’hui, parler de formation, c’est, de plus en plus, parler de reconversion. Non pas la reconversion comme
« seconde chance », ni comme simple politique sociale, mais comme une véritable infrastructure de compétitivité.

Sans compétences, pas de souveraineté opérationnelle

La souveraineté numérique se raconte trop souvent comme une affaire de câbles, de centres de données, de cloud, et de réseaux. Tout cela compte bien sûr. Mais une infrastructure n’existe que si elle peut être conçue, exploitée, maintenue et protégée dans la durée. Sans ingénieurs systèmes, sans techniciens réseaux, et sans spécialistes en cybersécurité et IA, la meilleure architecture reste un empilement de briques.

En ce sens, localiser des équipements ne suffit pas si les compétences clés sont introuvables. Dans la cybersécurité, cette tension est documentée : l’ANSSI constate que les employeurs rencontrent toujours de grandes difficultés pour trouver des candidats, avec une hausse des besoins de +49% entre 2019 et 2024 (Observatoire des métiers 2025, ANSSI), malgré le développement des formations. Une souveraineté sans capacité d’exécution reste théorique.

La France dispose pourtant d’un atout considérable, souvent sous-estimé : des millions d’actifs expérimentés, issus de l’industrie, de la logistique, des services ou des fonctions support, qui maîtrisent déjà les environnements complexes, les contraintes opérationnelles et la culture de la responsabilité.

Ces profils peuvent devenir les ingénieurs, techniciens et chefs de projet dont nos infrastructures critiques ont besoin. À condition de construire des passerelles crédibles entre les métiers, de sortir d’une logique de silos entre formation initiale, reconversion et emploi, et de réellement considérer la reconversion professionnelle comme un investissement stratégique.

Former pour l’autonomie plutôt que le diplôme

A ce titre, accélérer les formations est indispensable. Mais à l’ère de l’IA et de cycles technologiques de plus en plus courts, compter uniquement sur la formation initiale ou sur des parcours exclusivement diplômants ne suffit plus. Les compétences deviennent rapidement obsolètes si elles ne sont pas entretenues, confrontées au réel et réactualisées en continu.

La réponse passe en réalité par des parcours professionnalisants, la validation de compétences, des passerelles entre métiers voisins. Des profils industriels peuvent basculer vers la cybersécurité des environnements opérationnels ; des techniciens réseaux vers l’exploitation cloud ; des fonctions support vers la data et le pilotage. L’objectif n’est pas d’accumuler des heures de cours, mais de produire des compétences utilisables, au bon niveau, sur les bons métiers.

La reconversion devient un impératif stratégique

En définitive, la reconversion professionnelle n’est plus un simple sujet de formation ou d’accompagnement social. C’est un impératif stratégique, la seule variable capable de changer d’échelle rapidement. Compter uniquement sur la formation initiale revient à attendre, alors que les besoins sont immédiats.

Il n’y aura pas de souveraineté technologique durable sans une capacité collective à faire évoluer massivement les trajectoires professionnelles vers les métiers qui structurent ces transitions. Cela suppose un pilotage : cartographie des métiers critiques, prérequis clairs, certifications reconnues, articulation formation-emploi, suivi transparent des résultats à six et douze mois.

Cette transformation appelle aussi une responsabilité claire des entreprises. À l’instar de SAP, elles doivent désormais raisonner en termes de compétences plutôt que de diplômes, et reconnaître pleinement la valeur des parcours issus de la reconversion. Ainsi, la reconversion cessera d’être un discours pour devenir un outil de performance au service des entreprises et de la souveraineté.

* Jonathan Pinet est Directeur général de l’École Européenne du Numérique

Photo : © DR

The post { Tribune Expert } – La reconversion est l’infrastructure oubliée de la souveraineté technologique appeared first on Silicon.fr.

  •  

Mathias Michiels nommé Country Manager de Cohesity France

Cohesity renforce son dispositif français. L’éditeur américain, qui se positionne comme leader de la sécurisation des données par l’IA, annonce  la nomination de Mathias Michiels au poste de Country Manager France. Basé à Paris, il prend la tête des équipes commerciales locales avec pour ambition d’accélérer la croissance de Cohesity sur ce marché qu’elle considère comme stratégique.

Un parcours forgé dans les grandes ligues du logiciel

Mathias Michiels arrive avec plus de 15 ans d’expérience dans l’industrie du logiciel. Il a débuté dans la gestion de comptes chez Oracle et SAS Institute, avant de consacrer plus d’une décennie à VMware. Là, il a gravi les échelons jusqu’au poste de Senior Sales Director pour les solutions Tanzu sur la région SEMEA, à la tête d’une équipe transverse de 80 personnes. Un passage qui lui a permis de se forger une expertise reconnue sur les problématiques de cloud hybride, de modernisation applicative et d’espaces de travail numériques.

Cyber-résilience, le mot d’ordre

Sa mission chez Cohesity dépasse le simple pilotage commercial. Mathias Michiels devra imposer un changement de perception sur le marché : faire de Cohesity non pas une solution de protection des données parmi d’autres, mais un partenaire à part entière de la cyber-résilience des organisations capables, selon la promesse de l’entreprise, de survivre aux cyberattaques et d’en ressortir « plus fortes, plus intelligentes et plus fiables ».

Le contexte joue en sa faveur. « Nous sommes à un moment aussi critique pour les entreprises et organisations françaises face à l’accélération des cybermenaces », reconnaît lui-même le nouveau Country Manager. Pour Matthieu Gross, directeur des ventes pour l’Europe du Sud chez Cohesity, « son arrivée marque une étape clé pour notre croissance et notre succès continus dans la région ».

Photo : © DR

The post Mathias Michiels nommé Country Manager de Cohesity France appeared first on Silicon.fr.

  •  

Observabilité native : la nouvelle frontière du Cloud et du DevOps

À l’heure où les infrastructures deviennent de plus en plus éphémères et complexes, les méthodes de monitoring traditionnelles atteignent leurs limites. De l’émergence de l’eBPF, qui permet une visibilité profonde et sans agent au cœur du noyau Linux, à l’adaptation de l’observabilité pour le Serverless, les entreprises basculent vers un modèle « as-Code ».

Cette convergence technologique ne se contente plus de surveiller la disponibilité des services ; elle intègre la donnée de performance dès la conception logicielle (Observability-as-Code), transformant l’infrastructure invisible en un système transparent, automatisé et hautement résilient.

eBPF : Le « super-pouvoir » du noyau

Cet article sur l’eBPF (Extended Berkeley Packet Filter) explique comment cette technologie révolutionne le DevOps. Traditionnellement, pour surveiller un système, il fallait modifier le code de l’application ou charger des modules noyau risqués.

> Le concept : eBPF permet d’exécuter des programmes directement dans le noyau Linux de manière sécurisée, sans changer une seule ligne de code applicatif.

> L’avantage DevOps : Une visibilité totale sur le réseau, la sécurité et les performances avec un impact quasi nul sur les ressources. C’est la fin des agents « lourds » qui ralentissent les serveurs.

A lire : https://www.silicon.fr/cloud-1370/ebpf-devops-225348

Le défi de l’observabilité Serverless

Cet article traite de la complexité du Serverless (comme AWS Lambda). Puisque vous ne gérez plus le serveur, vous perdez l’accès aux métriques matérielles classiques.

> Le problème : Les fonctions sont éphémères (elles apparaissent et disparaissent en quelques millisecondes). Les outils de monitoring classiques sont souvent trop lents pour les capturer.

> La solution : Le traçage distribué. L’accent est mis sur le suivi de la requête à travers tous les services plutôt que sur la santé d’un serveur spécifique.

A lire : https://www.silicon.fr/cloud-1370/observabilite-serverless-225361

L’Observability-as-Code (OaC)

Cet article prône l’intégration de l’observabilité directement dans le cycle de développement, au même titre que l’Infrastructure-as-Code (Terraform, CloudFormation).

> L’idée : Au lieu de configurer manuellement des alertes et des tableaux de bord après le déploiement, vous les définissez dans votre code YAML ou JSON.

> L’objectif : Garantir que chaque nouveau microservice est « né » avec ses propres outils de mesure, évitant ainsi les angles morts lors des mises en production rapides.

A lire :  https://www.silicon.fr/cloud-1370/observability-as-code-225520

The post Observabilité native : la nouvelle frontière du Cloud et du DevOps appeared first on Silicon.fr.

  •  

AMD et Nutanix s’allient autour de l’IA d’entreprise

AMD et Nutanix ont annoncé un partenariat de plusieurs années centré sur le développement de plateformes d’IA agentique prêtes pour la production en entreprise. L’accord prévoit un investissement AMD pouvant atteindre 250 millions $, réparti en deux volets distincts.

Le premier consiste en l’acquisition de 150 millions $ d’actions Nutanix au prix unitaire de 36,26 dollars. Cette opération, soumise aux approbations réglementaires habituelles, devrait être finalisée au deuxième trimestre 2026. Les 100 millions restants seront consacrés à des initiatives conjointes de R&D et de mise sur le marché pour des solutions intégrées. Les revenus issus du partenariat sont attendus à partir de 2027.

Une stack bâtie sur EPYC, Instinct et ROCm

Sur le plan technologique, l’accord prévoit l’intégration du logiciel ROCm et de la plateforme Enterprise AI d’AMD au sein des solutions Nutanix Cloud Platform et Nutanix Kubernetes Platform.

Cette architecture s’appuie sur les processeurs EPYC et les GPU Instinct d’AMD, avec le soutien d’un large écosystème de fabricants de serveurs. La première plateforme d’IA agentique issue de cette collaboration est attendue pour la fin 2026. Elle ciblera les déploiements en data center, en environnement hybride et en edge computing, en mettant l’accent sur l’inférence haute performance et la gestion unifiée du cycle de vie applicatif via Nutanix Enterprise AI.

Le dispositif permettra aux entreprises de déployer des modèles d’IA open-source ou commerciaux sans dépendre d’une stack verticalement intégrée — un positionnement délibérément pensé comme une alternative aux offres fermées qui structurent aujourd’hui le marché.

Contrer la domination des stacks fermés

L’objectif de l’alliance est de concurrencer Nvidia, dont l’écosystème CUDA constitue le standard de facto pour l’IA en entreprise. AMD et Nutanix entendent proposer une autre voie combinant la puissance matérielle des GPU Instinct et des CPU EPYC à l’orchestration logicielle de Nutanix.

Pour AMD, cet accord renforce son offensive dans l’IA d’entreprise, un segment où la société cherche à réduire l’écart avec Nvidia en misant sur l’ouverture de l’écosystème et des performances compétitives en inférence. Pour Nutanix, spécialiste reconnu de l’hyperconvergence et de Kubernetes, le partenariat représente une extension naturelle de son offre vers l’IA accélérée par hardware.

Ce deal s’inscrit dans une dynamique plus large d’alliances autour d’AMD, Meta ayant également annoncé des investissements dans le fondeur. Les analystes anticipent une adoption rapide dès fin 2026, portée par l’écosystème OEM et la demande croissante pour des infrastructures IA multi-tenant et edge computing.

The post AMD et Nutanix s’allient autour de l’IA d’entreprise appeared first on Silicon.fr.

  •  

Digital workplace : le cloud, lieu de conservation plus que de collaboration

Peur de la perte d’historique et du conflit de versions, risque de rupture de la chaîne si quelqu’un télécharge… Autant d’éléments qui peuvent expliquer le recul de la collaboration sur fichiers.

L’OICN (Observatoire de l’infobésité et de la collaboration numérique) contextualise ainsi ce phénomène qu’il a lui-même constaté entre les deux dernières itérations de son référentiel annuel.

Le collectif est né en 2023, sous l’impulsion de Mailoop et de Mazars. Objectif : étudier les impacts sociaux, organisationnels et environnementaux de la surcharge informationnelle. Il réunit aujourd’hui des membres d’organisations comme le Groupe ADP, Dalkia, La Poste, Orange, la CNAF, la Région Normandie et la Ville de Paris.

Beaucoup de conservation, peu de collaboration

L’OICN a publié jusque-là trois éditions de son référentiel, centré sur les usages numériques en milieu professionnel. La dernière se fonde sur l’analyse de métadonnées de 190 millions d’e-mails et de 3 millions de réunions. Elle englobe 17 000 personnes (78 % de collaborateurs, 16 % de managers, 6 % de dirigeants, avec autant d’organisations du public que du privé).

La collaboration sur fichiers reste assez occasionnelle. Sur l’ensemble de l’échantillon, 23 % n’y ont pas recours. Ils ne sont que 1 % à s’y livrer au moins une fois par semaine. Pour la plupart (58 %), c’est moins d’un fois par mois.

Pour autant, la tendance est à converser de nombreux fichiers inutiles : 46 % de ceux stockés n’ont pas été ouverts au cours des 6 derniers mois. L’OICN l’explique, entre autres, par :

  • Illusion du stockage illimité et infini
  • Messagerie électronique vue comme une « mémoire professionnelle »
  • Difficulté à considérer l’information comme périssable

Un collaborateur conserve en moyenne 13 138 e-mails et 2308 fichiers dans le cloud ; un manager, 26 728 e-mails et 5338 fichiers ; un dirigeant, 44 579 e-mails et 13 028 fichiers.

Un usage anecdotique des groupes collaboratifs

L’usage des groupes collaboratifs – type équipes Teams – est encore plus occasionnel. 68 % des collaborateurs ne les utilisent pas, ainsi que 57 % des dirigeants et 52 % des managers. En moyenne, on y poste 2,4 messages par semaine (2,5 pour les collaborateurs, 2,4 pour les managers, 2,1 pour les dirigeants). La quasi-totalité (96 %) sont postés par 10 % des utilisateurs. L’OICN y voit le reflet d’une difficulté à partager de l’information horizontalement sans en conserver le contrôle.

Mis dans la balance avec les e-mails et le chat, ces groupes concentrent une part négligeable du volume de messages envoyés dans les organisations qui ont des outils collaboratifs. En l’occurrence, 0,2 % chez les collaborateurs, 0,1 % chez les managers et moins chez les dirigeants.

Le chat concentre près des trois quarts des messages envoyés (74 %). En un an, le volume a presque doublé (+ 90 %), contrastant avec le recul de l’e-mail (- 57 % de messages).

Le taux d’usage hebdomadaire du chat atteint 71% chez les managers, contre 65 % chez les collaborateurs et 55 % chez les dirigeants. Pour ces derniers, la communication passe toutefois encore majoritairement par l’e-mail (84 %). Même constat chez les managers (52 %), mais pas chez les collaborateurs (38 %).

Réunions : les « tunnels », pas si rares

D’une année à l’autre, le nombre d’e-mails envoyés a diminué. Tandis que le nombre de destinataires et d’e-mails reçus a augmenté. Le développement du distanciel engendre un besoin de traces écrites, déclare l’OICN à ce sujet.

La majorité des dirigeants (72 %) ne passent pas une semaine sans envoyer d’e-mails. Il en va de même pour 52 % des managers et 24 % des collaborateurs.
La part des e-mails envoyés hors de la plage 9 heures – 18 heures va de 14 % pour les collaborateurs à 27 % chez les dirigeants.

Les « tunnels de réunions » (plus de 6 heures dans une journée) arrivent en moyenne 9 fois par an pour les collaborateurs. 20 fois pour les managers, 41 fois pour les dirigeants. À ces niveaux hiérarchiques respectifs, la participation à des réunions consomme environ 6 heures, 12 h 30 et 18 h 30.

Illustration générée par IA

The post Digital workplace : le cloud, lieu de conservation plus que de collaboration appeared first on Silicon.fr.

  •  

OpenAI se raccroche à AWS pour avancer sur l’agentique

On l’a appris il y a quelques jours : OpenAI a bouclé la plus grande levée de fonds de son histoire, à 110 Md$.

Si NVIDIA et SoftBank ont chacun mis 30 milliards, la plus grosse contribution provient d’AWS. Ce dernier a débloqué 50 milliards. Il en injecte 15 pour commencer et prévoit d’octroyer le reste « dans les prochains mois, sous certaines conditions ».

Parallèlement à cet apport financier, OpenAI promet de dépenser 100 Md$ supplémentaires au cours des 8 prochaines années en ressources de calcul chez AWS*. Un engagement qui s’ajoute à un accord à 38 Md$ signé en novembre 2025.

La perspective d’un runtime « spécial AWS »

L’alliance ne s’arrête pas au compute. AWS sera aussi le « distributeur cloud tiers exclusif » pour Frontier, la couche d’orchestration agentique qu’OpenAI a présentée début février.

Les deux entreprises entendent aussi lancer, « dans les prochains mois », un runtime agentique reposant sur les modèles OpenAI et optimisé pour l’infra AWS (natif à Amazon Bedrock). Elles n’en disent pas beaucoup plus, sinon que cet environnement permettra de conserver le contexte (mémoire, identités, outils…), évitant ainsi une orchestration manuelle.

Le partenariat implique également la conception de modèles personnalisés pour les développeurs d’Amazon. En toile de fond, des LLM maison qui ne font pas l’unanimité en interne.

* AWS parle de consommer 2 GW de capacité Trainium. En novembre 2025, il évoquait l’accès à « des centaines de milliers » de GPU. Et une possibilité d’extension à « des dizaines de millions » de CPU. L’annonce mentionnait les configurations UltraServer dotées en GB200 et GB300.

À consulter en complément :

L’AI Factory, grammaire désormais légitime chez AWS ?
OpenAI apprend à penser l’inférence sans NVIDIA
Perplexity se laisse sédurie par Microsoft Foundry… sans lâcher AWS
Comment OpenAI façonne son développement au fil du compute
De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM

Illustration générée par IA

The post OpenAI se raccroche à AWS pour avancer sur l’agentique appeared first on Silicon.fr.

  •  

iPhone 17e : le « cheval de Troie » à 599 $

En apparence, l’iPhone 17e ressemble à une bonne affaire. 599 $ pour un smartphone doté de la puce A19, de 256 gigaoctets de stockage et d’un écran OLED de 6,1 pouces ; soit exactement les performances de l’iPhone 17 standard, pour une centaine d’euros de moins.  Génereux, Apple ? Pas vraiment. Stratège, assurément.

Car derrière ce tarif soigneusement calibré sous la barre psychologique des 600 $ se cache une mécanique bien rodée : celle d’un écosystème conçu pour capter, retenir et monétiser ses utilisateurs sur le long terme.

Le hardware comme appât

Apple ne sacrifie pas ses marges par philanthropie. L’iPhone 17e fait certes quelques concessions, comme le taux de rafraîchissement revu à la baisse et le module photo simplifié,  mais il embarque les technologies maison qui font la différence : modem 5G interne, puce A19 compatible avec Apple Intelligence. Autrement dit, un appareil pleinement fonctionnel pour les usages d’aujourd’hui et de demain, vendu à un prix qui ferme la porte aux offres Android agressives entre 400 et 600 $.

Le doublement du stockage de base, passé de 128 à 256 Go à prix constant, est à cet égard révélateur. Il ne s’agit pas d’une largesse mais d’un calcul : plus de stockage, c’est plus de photos, de vidéos, d’apps, et donc un utilisateur plus engagé, moins enclin à migrer vers la concurrence.

Le vrai business model : les services

Pour comprendre la logique de ce lancement, il faut regarder au-delà du chiffre de vente unitaire. Apple perçoit aujourd’hui une part croissante de ses revenus via ses services : App Store, iCloud+, Apple Music, TV+, Arcade…

L’ARPU, le revenu moyen par utilisateur, y est structurellement supérieur à celui de ses rivaux, grâce à un écosystème verrouillé que les analystes qualifient volontiers de « jardin fermé ».

Chaque nouvel iPhone vendu, même à prix réduit, est une porte d’entrée dans cet univers. Un utilisateur converti à l’iPhone 17e aujourd’hui est un abonné iCloud potentiel demain, un client Apple TV+ après-demain. Sur cinq ans, la valeur vie client d’un acheteur de 17e dépasse largement celle que génère la marge hardware initiale.

Ne pas cannibaliser, mais élargir

Ce qui distingue l’iPhone 17e d’une simple entrée de gamme, c’est sa capacité à élargir le marché sans rogner sur les segments premium. Les iPhone 17 Pro et Pro Max, facturés jusqu’à 1 199 $, continuent d’adresser les consommateurs les moins sensibles au prix. Le 17e, lui, va chercher ceux qui hésitaient encore, les utilisateurs Android en renouvellement, les marchés émergents à pouvoir d’achat limité.

Apple réussit ainsi l’équilibre délicat qu’échouent souvent à tenir ses concurrents : un portefeuille cohérent, sans guerre interne des gammes.

Préparer l’après-smartphone

Il y a enfin une dimension prospective dans ce lancement. Équipé de l’A19 et de 256 Go, le 17e assure une compatibilité optimale avec les usages IA intensifs, la réalité augmentée et les futurs services data-lourds comme les lunettes AR, les interfaces connectées et véhicules autonomes qu’Apple prépare en coulisses. Massifier l’accès à ces technologies en amont, c’est s’assurer une base installée prête à adopter les prochains produits de l’écosystème.

L’iPhone 17e n’est donc pas un aveu de faiblesse d’Apple face à un marché saturé. C’est un investissement à long terme, déguisé en promotion. Tim Cook n’a pas bradé un iPhone. Il a planté un drapeau.

Image : © Apple

The post iPhone 17e : le « cheval de Troie » à 599 $ appeared first on Silicon.fr.

  •  

IA et RGPD : le projet PANAME teste sa bibliothèque d’audit

18 mois pour industrialiser l’audit de confidentialité des LLM : tel était l’objectif de PANAME (Privacy Auditing of AI Models) à son démarrage en juin 2025.

L’ANSSI, la CNIL, le PEReN et le PEPR Cybersécurité portent le projet. Il doit en résulter une bibliothèque logicielle qui unifiera cette évaluation.

Aux dernières nouvelles, le calendrier initial tient toujours : il est question de publier cette bibliothèque à l’automne 2026. En attendant, un appel à manifestation d’intérêt est lancé en vue d’une phase de test. Il court jusqu’au 28 mars. Sont concernées les « entreprises, startups [sic], laboratoires de recherche et institutions » utilisant ou développant des modèles d’IA et basés dans l’UE.

En toile de fond, un avis du CEPD (Contrôleur européen de la protection des données) selon lequel le RGPD s’applique dans de nombreux cas aux modèles d’IA entraînés sur des données personnelles, en raison de leurs capacités de mémorisation. Dans ce contexte, pour conclure au caractère anonyme d’un modèle et ainsi le sortir du champ d’application du règlement, il est très souvent nécessaire de démontrer sa résistance à des attaques en confidentialité.

Trois grandes typologies d’attaques

Les porteurs de PANAME divisent ces attaques en trois catégories. La plus fondamentale est dite « par inférence d’appartenance ». Elle vise à savoir si les données concernant tel individu ont été utilisées pour entraîner tel modèle. On peut s’appuyer sur les scores de confiance (vecteurs de probabilité) que fournissent la plupart des modèles de classification. Puis passer par des modèles proxy (shadow models). L’attaquant entraîne ces derniers sur ses propres données, puis observe comment ils réagissent face à celles incluses (réponse A) et celles exclues (réponse B).Il entraîne ensuite un classifieur d’attaque : une IA qui reconnaît si le comportement du modèle cible ressemble au « A » ou au « B ».

Il existe aussi des attaques par inférence d’attribut. Elles peuvent permettre de récupérer des attributs sensibles lorsqu’on dispose déjà d’une connaissance partielle des données individuelles utilisées pour l’entraînement. Pour cela, le modèle est utilisé comme un oracle, en se basant sur le fait qu’il encode des corrélations fines entre les données d’entraînement. On l’interroge de manière itérative pour tester toutes les valeurs possibles des attributs en question.

Troisième grande catégorie : les attaques par reconstruction. C’est la technique la plus sophistiquée si le modèle cible n’est pas génératif. Avec elle, on régénère une approximation de la donnée brute.
La CNIL donne l’exemple d’une reconstruction de visage. L’attaquant commence par une image composée de « bruit » (pixels gris aléatoires). Il le soumet au modèle. Celui-ci fournit un gradient, indiquant la manière dont on peut l’augmenter (éclaircir tels pixels, assombrir tels autres…). L’attaquant la modifie en conséquence, la soumet à nouveau, et ainsi de suite. Jusqu’à obtenir une reconstruction visuelle, « souvent floue mais identifiable ».

La première phase de tests pour PANAME doit se terminer en juin. Une seconde s’enclenchera ensuite éventuellement avec les « testeurs référents ayant été le plus impliqués dans la première phase ».

À consulter en complément :

IA et RGPD : la CNIL joue les généalogistes
Avec l’AI Act, un nécessaire RGPD 2 ?
Au Parlement européen, la DSI met l’IA en pause
L’IA générative, cette arme cyber qui inquiète l’ANSSI
L’IA devient un élément codifiant du conseil en technologies

Illustration © bestforbest – Adobe Stock

The post IA et RGPD : le projet PANAME teste sa bibliothèque d’audit appeared first on Silicon.fr.

  •  

PC portables : retour sur 2 ans de concepts Lenovo

Ce n’est pas le Yoga Book 9i, mais ça y ressemble.

Plusieurs prototypes de PC portables Lenovo présentés au MWC 2026 inspirent la remarque.

Parmi eux, il y a le Yoga Book Pro 3D. Orienté création, il reprend le double écran installé depuis quelques générations sur les Yoga Book 9i… et y ajoute la 3D autostéréoscopique (sans lunettes). Le panneau supérieur (16:10, 3,2K) affiche le contenu, éventuellement converti à la volée (2D -> 3D) et avec lequel la caméra permet d’interagir (contrôle gestuel). Le panneau inférieur peut basculer entre les modes clavier virtuel et palette graphique. On peut y aimanter des « snap-on pads », accessoires physiques qui font apparaître des menus contextuels (ajustement de la luminosité, du ton…). Le PC, en Core Ultra 7 avec jusqu’à 64 Go de RAM (soudée), embarque une RTX 5070. Il pèse 2,7 kg.

Yoga Book Pro 3D 2

Avec la dernière génération du Yoga Book 9i, le deuxième écran a gagné en modularité. Lenovo reprend l’approche avec le ThinkBook Modular AI PC, en y ajoutant un système de ports interchangeables (USB-A, USB-C, HDMI) fondé sur des connecteurs magnétiques. On reste sur des panneaux de 14 pouces (16:10, 3,8K), avec du Core Ultra 7 255H (Arrow Lake) et 32 Go de RAM. Le PC pèse 1,15 kg en mono-écran ; 1,41 kg avec le deuxième.

ThinkBook Modular AI PC

ThinkBook Modular AI PC 2

La Legion Go Fold est avant tout une console portable, dotée d’un écran 7,7 pouces extensible à 11,6, avec manettes détachables, en Core Ultra 7 258V (Lunar Lake) avec 32 Go de RAM. Mais elle a un mode desktop, avec clavier sans fil. Acer avait présenté le même type d’appareil au CES 2025 (la Nitro Blaze 11), mais ne l’a pas commercialisé jusque-là.

Legion Go Fold 2

Legion Go Fold

Au CES 2026, de l’écran extensible sous toutes ses coutures

Au CES 2026, on avait eu droit au ThinkPad Rollable XD. Son écran 13,3 pouces s’étire verticalement à 15,9 pouces. La partie supérieure a la particularité de s’enrouler sur l’arrière du châssis, permettant d’afficher une petite surface tactile sur la coque extérieure.

ThinkPad Rollable XD 2

ThinkPad Rollable XD

Autre machine présentée au CES 2026 : le Legion Pro Rollable. Ce laptop gaming est basé sur le Legion Pro 7i, avec Core Ultra et GeForce RTX 5090. Il a un écran 16 pouces qui s’étend horizontalement, à 24 pouces. Avec une option intermédiaire à 21,5 pouces censée aider à travailler la vision périphérique.

Legion Pro Rollable 2

Du pliable, du 3D, du rotatif…

À l’automne 2025, lors de son Innovation World, Lenovo avait présenté le ThinkBook Vertiflex. Avec un écran (14 pouces) non pas extensible, mais rotatif, entre paysage et portrait. La machine pèse 1,39 kg pour 18 mm d’épaisseur.

ThinkBook VertiFlex

De l’écran extensible, il y en avait eu au MWC 2025, avec le ThinkBook Flip AI PC. Son panneau 13,1 pouces peut s’étendre verticalement, à 18,1 pouces (3:4, 2000 x 2664). Il peut aussi se replier sur le dos de l’écran principal, donnant une tablette 12,9 pouces. Un élément qui le différencie du ThinkBook Plus Gen 6, que Lenovo vend à partir de 3999 € TTC.

ThinkBook Flip AI PC ThinkBook Flip AI PC 2

Le MWC 2025 avait aussi donné lieu à la présentation d’un PC portable avec écran autostéréoscopique : le ThinkBook 3D Laptop. Lenovo avait également annoncé un prototype doté d’un panneau solaire : le Yoga Solar PC. Promesse : un rendement de 24 % pour – en conditions optimales – récupérer 1 heure de lecture vidéo – locale, 1080p – en 20 minutes.

Lenovo ThinkBook 3D Laptop

Du transparent, du motorisé et de l’encre électronique

L’Innovation Day 2024 avait donné lieu à la présentation de l’Auto Twist AI PC (Core Ultra 7, 32 Go de RAM, 1,27 kg). Son signe particulier : un écran motorisé (13,3 pouces, 2880 x 1800) pivotant automatiquement pour suivre l’utilisateur. Et des commandes en langage naturel pour basculer entre les modes laptop et tablette.

Lenovo Auto Twist AI PC

Au MWC 2024, il y eut le ThinkBook Transparent Display Laptop. La technologie Micro-LED permet de faire varier la transparence de l’écran 13,7 pouces (720p). Comme celle de la zone clavier (tactile), qui peut basculer en mode tablette graphique.

Lenovo ThinkBook Transparent Display Laptop 2

Lenovo ThinkBook Transparent Display Laptop

Au CES 2024, Lenovo avait présenté le ThinkBook 13xGen4 SPE. Ce 13 pouces (3:2, Core Ultra, 32 Go de RAM) a un écran e-ink couleur au dos. Il sert à personnaliser le look de la machine. Vu sa faible consommation d’énergie, il peut rester allumé en permanence.

Lenovo ThinkBook 13x SPE

Illustrations © Lenovo

The post PC portables : retour sur 2 ans de concepts Lenovo appeared first on Silicon.fr.

  •  

IA militaire : OpenAI remplace Anthropic au Pentagone

OpenAI a officialisé un accord avec le Pentagone pour déployer ses modèles d’IA dans des environnements classifiés, en le présentant comme le partenariat “le plus encadré » à ce jour pour des usages militaires de l’IA.

Les grandes lignes de l’accord

OpenAI explique l’avoir conclu  en demandant que des conditions similaires soient proposées à l’ensemble des laboratoires d’IA et affirme que cet accord comporte « plus de garde-fous que tout accord précédent pour des déploiements d’IA classifiés, y compris celui d’Anthropic ».

Le cadre prévoit un usage de ses modèles par le Department of War (DoW, terminologie utilisée par OpenAI) pour « toutes finalités légales », mais accompagné de restrictions contractuelles et techniques qualifiées de “red lines».

Trois “lignes rouges” affichées

OpenAI met en avant trois interdictions explicites qui doivent structurer l’usage de ses technologies par le Pentagone.

  • Pas d’utilisation de la technologie OpenAI pour la surveillance de masse domestique.
  • Pas d’utilisation pour diriger des systèmes d’armes autonomes.
  • Pas d’utilisation pour des décisions automatisées à forts enjeux, comme des systèmes de type “crédit social”.

Selon l’inventeur de ChatGPT, d’autres laboratoires auraient « réduit ou supprimé leurs garde-fous « et misé principalement sur des politiques d’usage, alors que la société revendique un dispositif plus « multi-couches », combinant architecture de déploiement, pile de sûreté (“safety stack”), implication d’experts et clauses contractuelles.

Un déploiement cloud et une “safety stack” contrôlée par OpenAI

L’accord repose sur un déploiement «cloud-only », opéré par OpenAI, sans fourniture de modèles « sans garde-fous » ni de versions non entraînées pour la sûreté. L’entreprise souligne qu’aucun modèle n’est déployé sur des « edge devices”, ce qui, selon elle, limite la possibilité d’un emploi direct dans des armes létales autonomes. Elle indique que cette architecture lui permettra de vérifier de manière indépendante que les lignes rouges ne sont pas franchies, notamment via des classifieurs mis à jour dans le temps.

Le langage contractuel mis en avant

OpenAI publie un extrait clé du contrat pour illustrer la manière dont les garde-fous sont juridiquement encadrés.

  • Le DoW “peut utiliser le système d’IA pour toutes fins légales”, conformément au droit applicable, aux exigences opérationnelles et aux protocoles de sûreté et de supervision.
  • Le système “ne sera pas utilisé pour diriger de manière indépendante des armes autonomes” dans les cas où la loi ou la politique du département exigent un contrôle humain, ni pour assumer d’autres décisions à forts enjeux qui nécessitent l’approbation d’un décideur humain sous les mêmes autorités.
  • Pour les activités de renseignement, tout traitement d’informations privées doit respecter le Quatrième Amendement, le National Security Act de 1947, le FISA, l’Executive Order 12333 et les directives du DoD imposant un objectif de renseignement étranger défini.
  • Le système « ne doit pas être utilisé pour une surveillance non contrainte des informations privées de personnes américaines »et ne peut servir à des activités de maintien de l’ordre intérieur que dans les limites du Posse Comitatus Act et des lois applicables.

OpenAI insiste aussi sur le fait que le contrat référence explicitement les lois et politiques
« telles qu’elles existent aujourd’hui », de manière à empêcher que d’éventuelles évolutions réglementaires futures ne puissent automatiquement élargir les usages de son IA au-delà du cadre actuel.

Des ingénieurs et chercheurs OpenAI “dans la boucle”

L’accord prévoit la présence d’ingénieurs “forward-deployed” d’OpenAI, dûment habilités secret-défense, ainsi que de chercheurs sûreté/alignement eux aussi “dans la boucle”. Leur rôle annoncé est d’aider le gouvernement à intégrer les modèles, de surveiller les usages et de faire évoluer la “safety stack” au fil du temps. OpenAI affirme garder un “contrôle total” sur cette pile de sûreté et répète qu’elle refuse de déployer des modèles sans garde-fous techniques, y compris pour des missions de sécurité nationale.

Motivations stratégiques affichées par OpenAI

OpenAI avance deux principaux arguments pour justifier cet engagement avec le Pentagone.

  • D’une part, l’entreprise estime que l’armée américaine « a absolument besoin de modèles d’IA puissants » pour faire face à des adversaires qui intègrent déjà l’IA dans leurs systèmes. La société explique qu’elle n’avait pas, jusqu’ici, jugé ses propres garde-fous et systèmes assez mûrs pour un déploiement classifié, et qu’elle a travaillé à les renforcer.
  • D’autre part, OpenAI dit vouloir “désescalader” les tensions entre le Department of War et les laboratoires d’IA américains, en demandant notamment que les mêmes termes soient proposés à tous et que le gouvernement tente de “résoudre les choses avec Anthropic”.

Interrogée implicitement sur la désignation d’Anthropic comme « supply chain risk » par les autorités américaines, OpenAI répond qu’elle ne soutient pas cette décision et qu’elle a clairement exprimé cette position au gouvernement.

OpenAI, Anthropic et la question des garde-fous

Dans sa FAQ, OpenAI se positionne par rapport aux arguments d’Anthropic, qui avait détaillé ses propres « red lines » et ses réserves quant à la capacité du Pentagone à les respecter dans les contrats envisagés. OpenAI rappelle partager deux de ces lignes rouges (surveillance de masse domestique, armes pleinement autonomes) et y ajouter une troisième concernant les décisions automatisées à forts enjeux.

L’entreprise explique pourquoi elle juge ces lignes plus exécutoires dans son propre contrat :

  • la surveillance domestique de masse serait explicitement exclue du champ de l’usage légal » dans le texte contractuel,
  • l’architecture cloud décrite ne permettrait pas, selon elle, d’alimenter directement des armes entièrement autonomes faute de déploiement en périphérie.

OpenAI affirme aussi que son accord  « offre plus de garde-fous que les accords précédents, y compris le contrat original d’Anthropic », en combinant contrainte contractuelle, limites techniques et supervision humaine.

Que se passe-t-il en cas de dérive de l’État ?

Sur un terrain plus politique, OpenAI tente de répondre aux inquiétudes récurrentes concernant l’évolution possible du cadre légal ou des pratiques de surveillance.

En cas de violation des termes par l’État, OpenAI indique qu’elle pourrait, comme pour tout contrat, le résilier, même si elle ne « s’attend pas » à ce scénario.

Si le gouvernement modifie ultérieurement les lois ou politiques de défense, l’entreprise souligne que le contrat renvoie explicitement aux normes actuelles, ce qui, selon elle, limite la portée de futurs assouplissements législatifs.

Sur les deux points les plus sensibles, OpenAI assure que l’accord “ne permettra pas” l’usage de ses modèles pour des armes autonomes ni pour de la surveillance de masse de citoyens américains, en invoquant à la fois la safety stack, l’architecture cloud, le langage contractuel et la présence de personnel OpenAI dans la boucle.

The post IA militaire : OpenAI remplace Anthropic au Pentagone appeared first on Silicon.fr.

  •  

Décennie numérique : la France en avance sur les infrastructures, moins sur les usages

Pour la France, pas de chiffres sur l’identification électronique : c’est confidentiel.

Le vide saute aux yeux dans la présentation qu’Eurostat fait des indicateurs de progrès vers les objectifs de la « décennie numérique ».

Fin 2022, l’UE formalisait ces objectifs – et le programme d’action qui va avec – sur quatre axes : infrastructures, compétences, digitalisation des entreprises, numérisation des services publics. Elle entend les atteindre à l’horizon 2030.

Parmi les objectifs, 80 % de citoyens de 16 à 74 ans ayant recours à l’identification électronique (eID). Eurostat l’analyse sur plusieurs dimensions, en distinguant notamment l’accès aux services publics et à ceux proposés par le secteur privé.

La France est le seul État membre de l’UE à ne pas avoir de chiffres pour 2023. Elle en a en revanche pour 2025. Résultat : près de 88 % des 16-74 ans ont utilisé l’eID sur les 12 derniers mois pour accéder à des services en ligne (84 % pour des services du public ; 59 % pour des services du privé).

La France au niveau de l’UE sur les compétences numériques de base

En parallèle des trajectoires idéales pour atteindre les objectifs du programme, l’UE effectue des projections à partir des données historiques. Elles ne sont pas toutes à la hauteur des ambitions. Par exemple concernant la diffusion des compétences numériques « élémentaires » au sein de la population. Y sont inclus, dans les grandes lignes :

  • Recherche et vérification d’informations
  • Communication et collaboration (e-mail, appels audio/vidéo, messagerie instantanée, réseaux sociaux…)
  • Création de contenu (traitement de texte, tableur, édition multimédia)
  • Gestion des données personnelles (cookies, partage de localisation, visibilité en ligne…)
  • Résolution de problèmes (télécharger et paramétrer des logiciels, consulter ses comptes, chercher un emploi…)

En 2023, le taux d’acquisition de ces compétences « élémentaires » atteignait 60 % en France (64 % chez les hommes, 57 % chez les femmes). C’était un peu plus que dans l’ensemble de l’UE (56 % ; 57 % des hommes et 54 % des femmes).
D’après les données de 2015 à 2023, l’UE atteindrait 60 % à l’horizon 2030, loin de son objectif de 80 %.

20 millions de spécialistes des TIC : l’UE s’en éloigne

Autre objectif qui, à ce rythme, pourrait ne pas être atteint : les 20 millions de 16-74 ans employés en tant que spécialistes des TIC. Ce quand bien même la définition est large, sur la base de la classification ISCO-08.

En 2024, la France en était à 1,4 million (80 % d’hommes), soit 4,8 % de ses emplois. L’UE, à 10,3 millions (même proportion d’hommes), soit environ 5 % de ses emplois. Les taux de féminisation les plus élevés – entre 25 et 30 % – sont en Estonie, en Roumanie, en Bulgarie et en Lettonie.
La projection à partir de l’historique 2011-2024 donne 12,4 millions de spécialistes des TIC à l’horizon 2030.

La France en nette avance sur « l’objectif gigabit »

Les choses sont plus avancées sur le taux de foyers couverts par une connectivité gigabit. En France, en 2024, le taux d’abonnements fixes atteignant ce débit s’élevait à 59 %, contre 22 % dans l’UE. La couverture FTTP (FTTH + FTTB) avoisinait 87 % en France et 70 % dans l’UE.
D’après les données 2019-2024, le taux de connectivité gigabit dans l’UE atteindrait 95 % en 2030, s’approchant de l’objectif de 100 %.

Ce même objectif a été fixé pour le taux de zones habitées couvertes par au moins un réseau 5G. Lui serait effectivement atteint (France et UE en étaient déjà à plus de 94 % en 2024).

Pour les licornes, retour jusqu’en 1991

Certains indicateurs ont une valeur absolue. L’UE vise par exemple 10 000 nœuds de calcul périphériques (edge) d’une latence de 20 ms ou moins. Elle pourrait les atteindre, d’après la progression enregistrée entre 2022 à 2024 (cette année-là, la France en comptait 532 ; l’UE, 2257).

Autre objectif à valeur absolue : avoir 1 ordinateur ou simulateur quantique opérationnel. Il a été atteint en 2024. L’UE table, au rythme actuel, sur 5 machines à l’horizon 2030.

Ce pourrait être plus juste concernant le nombre de licornes. L’UE y range les entreprises créées après le 31 décembre 1990 et qui ont fait l’objet d’une introduction en Bourse ou d’une vente commerciale > 1 Md$. Ainsi que celles valorisées > 1 Md$ lors de leur dernier cycle de financement de capital-risque privé. En 2023, la France en comptait 48. L’UE, 286. Elle est partie pour atteindre les 412 (l’objectif étant de 500) si on extrapole l’historique 2008-2024.

Cloud, IA, analytics : trois options pour un objectif

Les choses sont également incertaines pour l’objectif de 75 % d’entreprises utilisant le cloud, l’IA ou l’analyse de données. La France vise moins haut, cherchant à atteindre les 65 %. Elle en était à 44,9 % en 2023.

Par « utiliser le cloud », il faut entendre au moins un service entre logiciels de finance/compta, ERP, CRM, solutions de sécurité, hébergement de bases de données et environnements de développement, test ou déploiement d’applications. En 2023, la France en était à 23 %.
D’après les données 2014-2023, 64 % des entreprises de l’UE seraient dans les clous en 2030.

La catégorie « IA » comprend text mining, reconnaissance vocale, génération de langage naturel, traitement d’images, machine learning pour l’analyse de données, automatisation de processus et systèmes robotisés. En 2024, la France en était à 10 %, contre 13,5 % pour l’UE.
D’après les données 2021-2024, le taux de pénétration dans l’UE atteindrait 36 % en 2030.

L’aspect data analytics a remplacé le big data, inscrit dans les objectifs initiaux. En 2023, il était installé dans 34 % des entreprises en France.
Selon les données 2016-2023, il le serait dans 50 % des entreprises de l’UE à l’horizon 2030.
Pour le moment, les données du secteur public font partie des sources les moins exploitées. Elles le sont en l’occurrence par 6 % des entreprises pratiquant le data analytics, quand 21 % exploitent celles relatives aux transactions commerciales et 14 % celles qui concernent les clients.

Digitalisation des PME : la France en retrait sur plusieurs dimensions

L’UE s’est aussi donné un objectif de 90 % de PME (10-249 salariés) ayant un niveau minimum d’intensité numérique. C’est-à-dire utilisant au moins 4 des 12 technologies de (cf. notre article à ce sujet). En 2024, la France affichait un taux de 68,5 %, contre 73 % pour l’UE. Laquelle n’atteindrait cependant pas son objectif, d’après les projections à partir des données 2021-2024.

Quelques chiffres sur la digitalisation des PME :

  • Utilisation d’ERP : 46 % en France, 42 % dans l’UE (2023)
  • Utilisation d’au moins deux « médias sociaux » (réseaux sociaux, (micro)blogs, wikis…) : 28 % en France, 31 % dans l’UE (2023)
  • Exploitation des services cloud susmentionnés : 22 % en France, 38 % dans l’UE (2023)
  • Recours à l’IA telle que susdéfinie : 9 % en France, 13 % dans l’UE (2024)
  • Usage de la facturation électronique : 30 % en France, 39 % dans l’UE (2024)

Les démarches administratives, moins numérisées qu’à l’échelle de l’UE

Il paraît difficile d’atteindre l’objectif de 100 % des démarches administratives réalisables en ligne, mais l’UE semble pouvoir s’en rapprocher. Autant pour celles qui concernent les « grands événements de la vie » (famille, carrière, études, santé, transport, déménagement, règlement de petits litiges) que pour celles qui touchent à la création et à la gestion d’entreprise.

Pour les premières, la France en était à 71 % en 2024. L’UE en était à 82 % et pourrait, sur la base 2013-2024, atteindre les 92 % en 2030.
Pour les secondes, la France en était à 77 %. L’UE, à 86 %, avec une dynamique qui pourrait permettre d’atteindre 93 % (historique 2013-2024).

Illustration générée par IA

The post Décennie numérique : la France en avance sur les infrastructures, moins sur les usages appeared first on Silicon.fr.

  •  

OpenAI vs Anthropic : comment les géants de la tech financent les deux rivaux

C’est un chiffre qui donne, une nouvelle fois, le vertige. OpenAI a finalisé un tour de table de 110 milliards $, propulsant sa valorisation à 730 milliards, et même 840 milliards post-money. De quoi faire de l’inventeur de ChatGPT, l’une des entreprises les mieux valorisées au monde, avant même une éventuelle introduction en bourse.

Amazon en tête, suivi de SoftBank et Nvidia

Le clou de l’opération, c’est Amazon qui injecte 50 milliards $ dans le tour, soit de loin son plus grand chèque jamais signé pour une seule entreprise. SoftBank et Nvidia complètent le podium avec 30 milliards chacun.

Mais au-delà des chiffres bruts, c’est la nature stratégique de l’accord avec Amazon qui retient l’attention. OpenAI s’engage à utiliser les puces maison d’AWS, les Trainium, et à développer conjointement des modèles sur mesure pour les équipes d’ingénierie d’Amazon. Cerise sur le gâteau : OpenAI promet de dépenser 100 milliards $ supplémentaires sur AWS au cours des huit prochaines années, un engagement colossal qui vient s’ajouter à un précédent accord de 38 milliards signé en novembre dernier.

Microsoft n’est pas écarté

La montée en puissance d’Amazon dans l’orbite d’OpenAI soulève une question naturelle : qu’en est-il de Microsoft, jusqu’ici partenaire historique en matière d’infrastructure ? Les deux entreprises ont tenu à rassurer le marché dans un communiqué commun : « Rien dans les annonces d’aujourd’hui ne modifie en quoi que ce soit les termes de la relation entre Microsoft et OpenAI. » Un message de stabilité qui sonnait presque comme une mise au point.

La guerre des valorisations fait rage

Cette levée intervient dans un contexte de surenchère généralisée entre OpenAI et son grand rival Anthropic qui a levé 30 milliards $ ce mois-ci, auprès d’investisseurs comprenant Nvidia et Microsoft, pour une valorisation de 380 milliards $.

Les deux concurrents ont désormais en commun un même réseau d’investisseurs, un même besoin frénétique de GPUs et de datacenters, et une même logique de financements croisés qui interroge les analystes.

Ces « circular deals », où les fournisseurs de cloud et de semi-conducteurs investissent dans les startups d’IA qui s’engagent en retour à consommer leurs services, sont perçus comme un moyen efficace de sécuriser une infrastructure rare. Mais ils amplifient aussi les risques : si la demande pour l’IA ne justifie pas les valorisations actuelles, les pertes pourraient se propager en cascade.

The post OpenAI vs Anthropic : comment les géants de la tech financent les deux rivaux appeared first on Silicon.fr.

  •  

Décennie numérique : ce que l’UE mesure quand elle parle de digitalisation des entreprises

La « digitalisation des entreprises », c’est quoi au juste ?

Depuis 2015, Eurostat compile un indicateur composite dit « index d’intensité numérique ». L’Union européenne l’exploite dans le cadre de son programme d’action pour la décennie numérique.

Ce programme fut formellement établi en décembre 2022. Il définit des objectifs de transformation numérique à l’horizon 2030, dans 4 domaines : connectivité, compétences numériques, digitalisation des entreprises, digitalisation des services publics.

Le mécanisme de suivi de la progression des États membres se fonde sur une quinzaine de KPI. Dont le pourcentage de PME utilisant au moins 4 des 12 technologies qu’englobe l’index d’Eurostat.

L’UE ne liste pas ces technologies et pour cause : d’année en année, la composition de l’index évolue. La dernière incarnation comprend :

Au moins 50 % des employés ont accès à Internet pour un usage professionnel
Connexion Internet à au moins 30 Mbit/s descendants
Au moins 1 % du CA en e-commerce
Au moins 1 % des ventes réalisées sur le web avec au moins 10 % en B2C
Achat de services cloud
Achat de services cloud « sophistiqués » ou « intermédiaires »
Avoir un site web
Utiliser au moins un réseau social
Faire de l’analyse de données, y compris via un prestataire externe
Utiliser au moins une technologie d’IA
Utiliser un ERP
Utiliser un CRM

Chaque dimension a ses spécificités. Pour le e-commerce, par exemple, on tient compte des achats avec paiement hors ligne. Comme « technologie d’IA », on entend autant les chatbots de service client que le big data à base de machine learning, entre autres.

La sécurité informatique est sortie du radar

Entre 2015 et 2025, les trois premiers sous-indicateurs (accès à Internet, bande passante, e-commence) n’ont pas changé.

Le critère « 1 % de ventes sur le web et au moins 10 % en B2C » n’entrait pas dans l’index en 2018 et 2020. À la place était la pratique du big data sur des données internes ou externes.

Le critère « achat de services cloud » n’a pas toujours été présent, en tout cas sous cette forme. De 2015 à 2020, Eurostat a mesuré le taux d’entreprises fournissant des « appareils portables à connexion Internet mobile » (précision en 2018 et 2019 : réseau cellulaire) à au moins 20 % de leurs employés. En 2022 et 2024, il s’est intéressé à celles qui documentaient leurs mesures, pratiques ou procédures de sécurité informatique.

De 2015 à 2018, ainsi qu’en 2020, le sixième sous-indicateur n’était pas l’achat de services cloud « sophistiqués » ou « intermédiaires », mais le fait d’avoir un site web proposant au moins une des fonctionnalités suivantes :

  • Description de biens et de services
  • Affichage de prix
  • Possibilité pour le visiteur de personnaliser ou de concevoir des biens et services
  • Suivi de commandes
  • Personnalisation du contenu du site pour les visiteurs réguliers

En 2019, 2022 et 2024, pour ce même sous-indicateur, Eurostat a mesuré le taux d’entreprises informant les employés de leurs obligations en matière de sécurité informatique.

À la place du critère « avoir un site web », il y eut, en 2019, 2022 et 2024, « recourir à au moins 3 mesures de sécurité informatique ». En 2021 et 2023, « utiliser au moins deux réseaux sociaux ».

Quand l’IoT, l’impression 3D, la robotique et la pub en ligne étaient des critères

En 2018, il ne s’agissait pas d’utiliser au moins un réseau social, mais d’avoir un site ayant des liens ou des références aux profils sociaux de l’entreprise. En 2020, il s’agissait d’utiliser l’impression 3D. Et en 2022 et 2024, de dispenser au personnel des formations en informatique.

Historiquement, le neuvième sous-indicateur a souvent porté sur l’emploi de spécialistes des TIC (2017, 2018, 2020, 2022, 2024). En 2015 et 2016 aussi, mais avec une option de plus : recourir à des fonctions TIC réalisées principalement par des prestataires externes. En 2019, il fallait utiliser les réseaux sociaux à au moins deux fins. Et en 2021, utiliser l’IoT.

Le sous-indicateur « utiliser au moins une technologie d’IA » est tout nouveau. En 2015 et 2017, Eurostat s’était penché sur les entreprises qui partageaient des données « relatives à la gestion de la supply chain » par voie électronique avec clients ou fournisseurs. En 2016 et 2018, à celles qui achetaient de la pub sur Internet. Et en 2019, à celles qui réalisent des ventes en ligne dans d’autres pays de l’UE. En 2020 et 2022, les entreprises étaient évaluées sur leur utilisation de robots industriels ou de service.

La facturation électronique, indicateur pendant un temps

« Utiliser un ERP » a été présent par intermittence. En 2016, il fallait pratiquer la facturation électronique. En 2018 et 2020, acheter des services cloud de niveau « intermédiaire ou élevé » (« medium-high »). Les versions 2022 et 2024 analysaient la fourniture, aux employés, d’un accès distant à la messagerie électronique, aux documents ou aux applications.

Même présence par intermittence pour « utiliser un CRM ». En 2016, ce sous-indicateur était réservé aux services cloud medium-high. En 2018 et 2020, à la facturation électronique. Eurostat a aussi examiné l’organisation de réunions en ligne, en 2022 et 2024.

Illustration générée par IA

The post Décennie numérique : ce que l’UE mesure quand elle parle de digitalisation des entreprises appeared first on Silicon.fr.

  •  

De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM

A=B donc B=A ? Pour les LLM, ça ne coule pas de source.

En 2023, nous nous étions fait l’écho d’une étude à ce sujet. Laquelle démontrait, dans les grandes lignes, que les modèles auxquels on n’avait pas appris une relation d’équivalence « dans les deux sens » (« A=B » et « B=A ») avaient du mal à la déduire.

Ce phénomène, dit reversal curse (littéralement, « malédiction de l’inversion »), figure dans une taxonomie que proposent trois universitaires américains. Ils y synthétisent l’état de la recherche sur les erreurs de raisonnement des LLM.

Leur ontologie distingue le raisonnement « incarné » (embodied, dépendant d’interactions avec des environnements physiques) et « non incarné » (qui met en jeu des processus cognitifs n’exigeant pas ces interactions). Dans le « non incarné », elle sépare raisonnement formel (qui implique la manipulation de symboles sur la base de règles) et informel (qui relève du jugement intuitif).

Les erreurs sont réparties en trois catégories :

  • Fondamentales (intrinsèques aux architectures et à l’entraînement des modèles)
  • Spécifiques à des applications
  • De robustesse (sensibilité à des variations mineures)

Face aux limites cognitives, imiter l’attention humaine

En matière de raisonnement informel, les erreurs peuvent découler d’un manque d’aptitudes cognitives. Les limites de la mémoire de travail en font partie (notamment le fait qu’une information ancienne peut perturber l’acquisition d’une nouvelle). Le contrôle inhibiteur aussi. Les LLM n’ont pas tous cette faculté à contenir une réaction impulsive. En tout cas au sens où peu importe l’évolution du contexte, ils s’en tiennent souvent à des patterns appris. Dans le même esprit, ils peuvent manquer de flexibilité cognitive. En d’autres termes, d’une capacité à s’adapter à de nouvelles règles et/ou à basculer efficacement entre des tâches. Le raisonnement abstrait – capacité à reconnaître des motifs dans des concepts – peut aussi leur faire défaut (déduction de règles à partir d’exemples, gestion des abstractions temporelles…).

Tous ces éléments se manifestent par des problèmes de robustesse. Ils découlent de limites d’architecture et d’entraînement : dispersion de l’attention, prédiction de tokens qui privilégie les statistiques au raisonnement, etc. S’y ajoute, pour les LLM entraînés exclusivement sur du texte, un manque d’ancrage avec le monde physique et social. Parmi les solutions explorées : insertion des chaînes de pensée dans les prompts, enrichissement de la récupération, fine-tuning avec injection d’interférences et mécanismes imitant l’attention humaine.

Des personnalités pour atténuer les biais

Au-delà du manque d’aptitudes cognitives, il y a les biais. Le contenu de l’information joue. Les LLM tendent à favoriser celle alignée sur leurs croyances ou sur le contexte précédent (reflet du biais de confirmation). Ils se révèlent également sensibles aux biais d’attribution et de négativité. Qui priorisent respectivement le contenu « populaire » et les inputs négatifs.

La présentation de l’information influe aussi. Le biais d’ordre n’épargne effectivement pas les LLM, comme le biais d’ancrage (les données présentées en premier influencent démesurément le raisonnement). S’y ajoute l’effet de cadrage (des prompts équivalents d’un point de vue logique mais formulés différemment produisent des résultats différents).La perspective narrative a également un certain poids.

Au sein de la taxonomie proposée, les erreurs relevant de biais cognitifs sont de l’ordre du fondamental. Résultant des architectures et de l’entraînement/alignement, elles se manifestent par des problèmes de robustesse. Parmi les solutions étudiées : entraînement antagoniste, filtrage des outputs et attribution de personnalités aux modèles.

La difficile acquisition des « soft skills »

Certaines erreurs de raisonnement cognitif ne se manifestent que dans des contextes sociaux spécifiques. Les LLM ne parviennent pas toujours à comprendre les normes sociales et l’état d’esprit d’autrui.

Sur ce dernier point, les difficultés tiennent autant à la compréhension des perceptions qu’à la prédiction des croyances. Le raisonnement que les modèles ont à ce propos apparaît d’autant plus fragile que des modifications mineures dans la formulation d’une tâche suffisent à le perturber. C’est sans compter les déficits sur le plan émotionnel, avec une tendance aux biais d’affect et une compréhension limitée des variations culturelles.

Sur le volet des normes sociales, il arrive que les LLM produisent des jugements contradictoires d’un point de vue éthique. Là aussi, ils se révèlent sensibles à la formulation des tâches, y compris en fonction des langues. Le fine-tuning a tendance à exacerber cette sensibilité.

Dans l’un et l’autre cas, on est sur des limites spécifiques à des applications (tâches relevant de la sûreté et de la confidentialité, en particulier). Elles se traduisent par des problèmes de robustesse – en première ligne, les risques de manipulation. Fine-tuning et apprentissage par renforcement ne constituent souvent des solutions que pour des contextes simples.

Dans les systèmes agentiques, des palliatifs durs à généraliser

Des limites, les LLM en ont aussi au niveau du raisonnement social explicite. Elles se manifestent dans les systèmes de planification agentique. Tendant à trop s’appuyer sur des informations locales ou récentes, les modèles peuvent échouer à développer des stratégies coordonnées sur le long terme.

Ces limites tiennent à la fois à leurs capacités individuelles et à la conception des systèmes agentiques. Ils se manifestent souvent par des problèmes de robustesse. Et sont accentués par les faiblesses de raisonnement social implicite comme par le manque d’aptitudes cognitives.

Parmi les solutions explorées, il y a l’enrichissement des représentations internes (suivi des croyances, validation des hypothèses). Il y a aussi des protocoles de communication avec vérification obligatoire et des agents qui « challengent » les outputs contestables. Toutes ces approches sont néanmoins difficiles à généraliser. L’ingénierie de contexte apparaît comme une méthode alternative plus robuste dans les systèmes agentiques.

Les graphes pour donner des chemins de raisonnement

En matière de raisonnement logique formel, le reversal curse est essentiellement attribué aux objectifs d’entraînement unidirectionnels des modèles transformeurs. Ils induisent en effet un asymétrie structurelle dans les poids. La principale solution explorée dans la littérature scientifique consiste à « augmenter » les données d’entraînement – entre autres par inversion syntaxique de faits et permutation d’unités sémantiques – pour restaurer une symétrie.

La raisonnement compositionnel (combinaison de connaissances) pose aussi des problèmes. On les doit aux incapacités de planification holistique et aux limites de pensée profonde. En guise de solution, outre le prompting à base de chaînes de pensée, est exploré l’entraînement à base de « chemins de raisonnement » structurés en graphes.

La syntaxe peut tout changer

L’exploitation des structures logiques implicites contenues dans les benchmarks peut révéler des problèmes de robustesse. Ce fut l’objet d’études qui ont introduit des modifications préservant la sémantique, comme changer l’ordre des réponses dans un QCM, réorganiser des prémisses ou éditer des éléments secondaires (noms de personnages, par exemple).

Ces transformations structurelles ont été appliquées aux problèmes de mathématiques comme aux benchmarks de code (édition syntaxique de docstrings, renommage de fonctions et de variables, altération de la logique de contrôle de flux…). Pour pallier les limites qu’elles ont fait ressortir, la principale solution consiste à appliquer des perturbations pour diversifier les données d’entraînement. Une technique toutefois difficile à généraliser.

Dans le domaine de l’arithmétique, les limites tiennent beaucoup à l’architecture des modèles (encodage positionnel, tokenisation…). La précision numérique limitée n’aide pas. Comme la tendance à l’usage du raisonnement heuristique (pattern matching).

Une des solutions explorées passe par des jeux de données plus précis, détaillant les étapes de traitement. Une autre imite les stratégies de calcul humaines, par exemple en focalisant l’attention sur le chiffre des unités dans le cadre des multiplications.

Le défi de l’ancrage dans le monde réel

Quantité d’analyses ont démontré le manque de bon sens des LLM sur la physique du monde réel : lois fondamentales, attributs des objets, relations spatiales… Il en résulte des erreurs fondamentales.
Même lorsqu’ils ont les compétences, les modèles échouent souvent à les appliquer à des domaines concrets. On tombe là dans les limites spécifiques à des applications.

Le fine-tuning sur des corpus qui encodent explicitement des connaissances de la physique du monde réel est une solution. L’insertion des chaînes de pensée dans les prompts en est une autre, destinée à stimuler la découverte de relations causales et spatiales plus nuancées. Piste alternative : le recours à des outils externes, tels des simulateurs.

Le manque de « bon sens physique » se reporte sur l’analyse d’images statiques, et plus encore d’environnements 3D. Les LLM ont souvent du mal à dénombrer les objets, décrire leurs relations spatiales et à détecter des anomalies. Ils ont globalement tendance à s’appuyer démesurément sur les données textuelles de leur corpus d’entraînement et sur les scénarios communs qu’ils y ont détectés. On touche là à des problèmes de robustesse, en plus de ceux spécifiques à des applications.
Les solutions étudiées incluent la modification des données d’entraînement pour réduire le biais vers le texte, les mécanismes d’attention à ancrage spatial et l’apprentissage par renforcement pour inculquer ce fameux « bon sens ».

À l’échelle des systèmes agentiques, les plans d’action comprennent parfois des actions impossibles du point de vue de la physique. On tombe là dans des erreurs fondamentales, découlant notamment d’un déficit d’affordance (raisonnement sur ce qui peut arriver à des objets).

Illustration © maylim – Adobe Stock

The post De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM appeared first on Silicon.fr.

  •  
❌