En matière de décisions marketing malheureuses, il y eut le New Coke et il y aura bientôt Everpure.
Entre autres commentaires dubitatifs, le rebranding de Pure Storage en a inspiré un de cette teneur.
L’entreprise américaine n’a pas seulement changé de marque commerciale. Depuis le 23 février 2026, Everpure est sa nouvelle dénomination sociale. Un choix censé refléter l’évolution de son positionnement, de la gestion du stockage à la gestion des données.
Le nouveau nom de domaine (everpuredata.com) redirige pour le moment vers l’ancien (purestorage.com). Ils vont coexister ces prochains mois, la transition se faisant « par phases ». Le rebranding s’appliquera aussi, entre autres, aux communautés, à la documentation, aux réseau sociaux… et aux badges de certification. En Bourse, Pure Storage deviendra Everpure le 5 mars 2026, mais conservera le symbole PSTG.
Catégorie
Ancien nom
Nouveau nom
Société
Pure Storage
Everpure
Produits
Plateforme Pure Storage
Plateforme Everpure
FlashArray, FlashBlade
Pas de changement
Famille Pure//E
Famille Everpure//E
Evergreen//One, Flex, Forever et Foundation
Pas de changement
Pure Storage Cloud
Everpure Cloud
Pure Protect
Everpure Protect Service
Portworx by Pure Storage
Portworx by Everpure
Data Stream
Everpure Data Stream Services
Architecture
Evergreen
Pas de changement
Capacités-clés
Purity
Pas de changement
Fusion
Pas de changement
Pure1
Pas de changement
Autres sous-marques
(Safemode, Active Cluster, etc.)
De manière générale, pas de changement ; utiliser la marque Everpure à la place de Pure Storage lorsque c’est applicable.
1touch, une première acquisition sous l’ère Everpure
Pure Storage / Everpure accompagne son discours data management d’un concept architectural : l’EDC (Enterprise Data Cloud). Introduit à l’été 2025, il unifie stockage bloc, fichier et objet* en une data fabric pilotée par logiciel. La plate-forme Everpure en constitue l’incarnation, avec des composantes telles que Fusion (orchestration), Pure1 (AIOps) et Portworx (gestion des conteneurs).
Pour renforcer l’ensemble, un projet d’acquisition vient d’être annoncé – avec l’intention de le boucler d’ici à la fin du deuxième trimestre de l’exercice fiscal en cours, soit début août 2026. La cible : 1touch, qui a justement développé une plate-forme de data management. Anciennement appelé Inventa, le produit a pris le virage de l’IA et est devenu Kontxtual.
* Dans le dernier Magic Quadrant des « plates-formes de stockage d’entreprise », Pure Storage fait partie des « leaders » avec Dell, HPE, Huawei, IBM et NetApp. Gartner salue la qualité du support, la gestion de flotte… et la gestion bloc-fichier-objet unifiée en un pool virtualisé.
L’éditeur français Weytop, spécialiste de la virtualisation du poste de travail, annonce une levée de fonds de 1,7 million € pour soutenir sa croissance et renforcer son positionnement sur le marché du Cloud PC souverain.
Ce tour de table, mené par le fonds nantais Ewak, réunit également les holdings Effirom et HDB, ainsi que les investisseurs historiques BLV Invest et Bpifrance.
Avec ce nouvel apport, les financements cumulés atteignent désormais 4 millions € depuis la création de Weytop en 2020. Après deux exercices à l’équilibre, l’entreprise entre dans une nouvelle phase d’accélération visant à conquérir des marchés verticaux à fort potentiel, notamment la santé et les postes nécessitant une puissance graphique élevée.
Une alternative souveraine
Déjà adoptée par plusieurs acteurs publics et privés parmi lesquels la Région Île-de-France, l’Université de Bordeaux, l’ENAC, l’ESGI et le réseau INSA , la solution est diffusée via de grands partenaires comme SCC, Cheops Technology, Bouygues Telecom Solutions et Unowhy. L’écosystème technologique de Weytop bénéficie par ailleurs du soutien de Dell, Nvidia et Bouygues Telecom.
Fondée pour offrir une solution française indépendante, Weytop se distingue dans un secteur largement dominé par des acteurs internationaux. Sa technologie repose sur quatre piliers majeurs : une latence extrêmement faible, une architecture nativement hybride, compatible avec les infrastructures locales ou cloud, une simplicité de déploiement et une tarification fondée sur l’infrastructure déployée plutôt que sur le nombre d’utilisateurs.
Après avoir conquis les data centers et dominé le marché des processeurs pour intelligence artificielle, Nvidia se prépare à revenir là où tout a commencé : le PC. Le Wall Street Journalrévèle que le géant américain s’apprête à lancer cette année ses premières puces dédiées aux ordinateurs portables, en partenariat avec Intel et MediaTek. Dell, Lenovo et d’autres fabricants planchent déjà sur des modèles propulsés par ces nouvelles architectures.
Une incursion stratégique, plus qu’un pari financier
Pour Jensen Huang, le fondateur et patron de Nvidia, l’ambition dépasse largement le simple lancement d’une nouvelle génération de processeurs. Il s’agit d’intégrer Nvidia au cœur du “PC de demain”, un appareil plus fin, plus réactif et surtout nativement dopé à l’intelligence artificielle.
Les nouvelles puces, conçues sur le modèle du system-on-a-chip (SoC) – combinant CPU et GPU dans un seul composant – promettent à la fois puissance et sobriété énergétique, à l’image des MacBook d’Apple.
Nvidia ne s’attend pas à des profits rapides. Mais pour le leader mondial des GPU, peser dans la future génération de PC intelligents est devenu stratégique : “Chaque appareil sera bientôt piloté par l’IA”, rappellent les analystes. En se réinvitant dans le segment grand public, Nvidia maintient un lien d’usage et d’image, complémentaire à son hégémonie industrielle.
Intel, MediaTek… et la revanche des architectures Arm
Le concept repose sur deux grands partenariats. Avec Intel, Nvidia associe ses technologies graphiques et d’intelligence artificielle aux processeurs du géant américain, qui détient encore près de 70 % du marché des puces pour PC Windows. En parallèle, une alliance avec le taïwanais MediaTek, fondée sur l’architecture Arm, cible des ordinateurs plus légers et plus efficaces, que Dell et Lenovo devraient lancer au premier semestre 2026.
Le pari est audacieux : étendre l’usage du modèle Arm dans un univers historiquement dominé par les architectures x86 d’Intel et AMD. Si la transition réussit, le PC “AI-native” pourrait devenir la nouvelle norme, donnant un second souffle à un marché en quête d’innovation.
Un pari sur les gamers et la performance
Nvidia n’oublie pas ses fidèles : les gamers. Eux aussi constituent une cible clé de cette renaissance, car la marque bénéficie dans cette communauté d’un statut quasi cultuel. Reste à surmonter les limites techniques de l’architecture Arm, qui a montré ses faiblesses pour les jeux sous Windows lors des premiers essais de puces Qualcomm. Pour convaincre, Nvidia devra garantir compatibilité et puissance tout en maîtrisant les coûts.
D’après Jason Tsai, du cabinet Digitimes, le prix devra rester entre 1 000 et 1 500 dollars. “Au-delà, le produit risquerait de relever du luxe technologique plus que de la démocratisation”, prévient l’analyste.
L’Institut national de l’information géographique et forestière (IGN) présentera officiellement son modèle de fondation en intelligence artificielle MAESTRO * à la Winter Conference on Applications of Computer Vision (WACV) 2026, qui se tiendra à Tucson début mars aux États‑Unis. L’article scientifique décrivant ce modèle, déposé sur arXiv en août 2025, a été retenu par le comité de programme de cet événement de référence en vision par ordinateur.
MAESTRO, un modèle de fondation pour l’observation du territoire
MAESTRO s’inscrit dans la catégorie des modèles de fondation, ces modèles d’IA pré‑entraînés sur de vastes volumes de données non annotées et capables ensuite de se spécialiser rapidement sur des tâches cibles. À l’image d’un enfant qui a déjà acquis les grands concepts du monde avant d’apprendre une discipline précise, MAESTRO bénéficie d’un socle de connaissances génériques qui lui permet d’apprendre plus vite, avec moins d’exemples annotés, et d’atteindre un meilleur niveau de performance.
Pensé pour exploiter la richesse et la complexité des données d’observation de la Terre produites et orchestrées par l’IGN (images aériennes, satellites, données multitemporelles et multispectrales, modèles numériques de terrain, etc.), MAESTRO est capable de traiter des scènes variées, à différentes échelles spatiales et temporelles. Cette approche réduit significativement le besoin en données labellisées, souvent coûteuses à collecter et à qualifier, en particulier dans des domaines où les experts et les jeux d’annotations fiables sont rares.
Des performances de pointe sur les domaines clés de l’IGN
Conçu pour répondre à des besoins opérationnels concrets, MAESTRO atteint des performances de pointe sur plusieurs domaines clés de la production de l’IGN. Il surpasse de manière significative les modèles généralistes de vision par ordinateur lorsqu’il s’agit de traiter les tâches spécifiques de l’observation du territoire, tout en nécessitant moins de données annotées.
Un exemple emblématique est la production de la nouvelle version de la Base de données Forêt, un référentiel stratégique pour le suivi des peuplements, la gestion forestière et l’adaptation au changement climatique. En capitalisant sur son pré‑entraînement massif sur des données non annotées, MAESTRO permet d’améliorer la qualité des cartes, de mieux caractériser les structures forestières et d’accélérer les mises à jour, tout en optimisant l’effort d’annotation.
Au‑delà de la forêt, le modèle peut être appliqué à d’autres piliers de la mission de l’IGN : cartographie de l’occupation des sols, suivi de l’artificialisation, observation des dynamiques urbaines, surveillance des milieux naturels ou encore analyse des risques environnementaux.
Une IA souveraine au service de l’écosystème
MAESTRO incarne une IA souveraine, conçue et maîtrisée par un acteur public de référence, au plus près des besoins des acteurs de l’observation du territoire et de la recherche. En développant ce modèle en France, sur des données maîtrisées et documentées, l’IGN contribue à consolider une capacité stratégique : comprendre, mesurer et anticiper les transformations des territoires sans dépendre exclusivement de solutions propriétaires.
Cette souveraineté technologique se traduit aussi par une capacité à adapter finement le modèle aux priorités nationales et européennes : transition écologique, aménagement durable, gestion des risques naturels, planification énergétique ou encore protection de la biodiversité.
Fidèle à sa politique d’ouverture de la donnée et des outils, l’IGN met à disposition la famille de modèles MAESTRO en open source sur la plateforme Hugging Face. Cette mise en commun vise à faciliter leur réutilisation par un large écosystème d’acteurs publics et privés : laboratoires de recherche, start-up, collectivités territoriales, agences d’aménagement, opérateurs de réseaux ou entreprises de la géodata.
Cas d’usage : de l’artificialisation à la forêt
MAESTRO pourra ainsi servir de socle à une nouvelle génération d’applications dans des domaines variés :
Agriculture : suivi des cultures, optimisation des intrants, détection précoce des stress ou maladies.
Urbanisme : observation des formes urbaines, suivi de l’étalement, évaluation de l’artificialisation nette des sols.
Environnement : cartographie des milieux, suivi des zones humides, analyse des impacts du changement climatique.
Gestion des risques : surveillance des zones exposées aux inondations, mouvements de terrain, incendies ou submersions marines.
En abaissant le coût d’entrée technique et en réduisant le besoin en annotations massives, MAESTRO permet aux acteurs du territoire d’accélérer leurs projets IA, tout en s’appuyant sur un modèle public, documenté et transparent.
WACV 2026 : une vitrine internationale pour la géo‑IA française
La sélection de MAESTRO à WACV 2026 offre à l’IGN une vitrine internationale pour valoriser son avance en IA appliquée à la géographie et à l’observation de la Terre. Dans un contexte où les modèles de fondation se multiplient dans le traitement d’images génériques, de texte ou de langage, MAESTRO démontre qu’il est possible de concevoir des modèles souverains, spécialisés et compétitifs sur des usages à forte valeur publique.
————-
Illustration de l’efficience du modèle de fondation
Dans le dernier Magic Quadrant de la data quality, ne cherchez pas SAS : il n’y a plus sa place.
L’éditeur américain figurait encore parmi les « leaders » fin 2022. Gartner l’avait rétrogradé chez les « challengers » début 2024, puis chez les « acteurs de niche » un an plus tard. Le voilà désormais hors classement. D’une part, faute de prendre suffisamment en charge les données non structurées. De l’autre, par le manque d’« augmentation » de certaines fonctionnalités dites « critiques ».
Dans cette catégorie, il y a notamment le profilage et la transformation de données, la création et la gestion de règles, la résolution de problèmes et le matching/linking/merging. Par « augmentation », il faut entendre, dans les grandes lignes, l’enrichissement à base d’algorithmes. Principalement à l’appui de techniques d’apprentissage supervisé, tout du moins dans les cas où entités et leurs relations sont bien identifiées.
Le Magic Quadrant 2025 de la data quality avait inauguré ce focus sur les solutions « augmentées ». En conséquence, les positions avaient évolué assez sensiblement. Quatre fournisseurs étaient sortis. Y compris SAP. Son offre Datasphere n’avait pas été jugée « autonome » parce qu’elle exigeait des composants supplémentaires pour couvrir pleinement les scénarios data quality.
13 fournisseurs, 5 « leaders »
Cette année, la hiérarchie des fournisseurs change moins nettement. SAS est le seul sortant, tandis qu’Acceldata (États-Unis) et Soda (Belgique) font leur entrée.
« Leaders » l’an dernier, Ataccama et Qlik le restent ; comme Informatica, qui appartient désormais à Salesforce. Avec eux, Ab Initio, qui rejoint ce cercle pour la première fois, et IBM, qui le retrouve après en être sorti en 2025.
L’axe « exécution » du Magic Quadrant de la data quality traduit la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation :
Rang
Fournisseur
Évolution annuelle
1
IBM
+ 2
2
Salesforce (Informatica)
– 1
3
Qlik
– 1
4
Ab Initio
=
5
Ataccama
=
6
Precisely
=
7
Experian
=
8
DQLabs
+ 2
9
Irion
=
10
CluedIn
+ 1
11
Anomalo
+ 1
12
Soda
nouvel entrant
13
Acceldata
nouvel entrant
Sur l’axe « vision », qui reflète les stratégies (ventes, marketing, innovation…) :
Rang
Fournisseur
Évolution annuelle
1
Ataccama
+ 1
2
Salesforce (Informatica)
– 1
3
Qlik
=
4
IBM
+ 1
5
DQLabs
– 1
6
Ab Initio
=
7
Anomalo
+ 2
8
CluedIn
=
9
Precisely
– 2
10
Experian
=
11
Irion
+ 1
12
Soda
nouvel entrant
13
Acceldata
nouvel entrant
Ab Initio, en retard sur les profils non techniques
Chez Ab Initio, l’offre évaluée se nomme DQE (Data Quality Environment). Elle est l’une des composantes d’une plate-forme data dont Gartner apprécie la portabilité entre environnements, favorisée par une option de déploiement conteneurisé. Dans le même ordre d’idée, le cabinet américain salue la possiblité de recompiler et de recibler des règles sans remodeler les définitions métier. Il donne aussi un bon point à Ab Initio sur le volet IA, entre détection des anomalies, traitement du non structuré et création de profils statistiques à l’enregistrement de datasets. Tout en soulignant sa viabilité (croissance continue depuis près de 30 ans sans dette à long terme, proportion de contrats pluriannuels, taux de conversion des pilotes).
Un recentrage sur les métiers – au-delà des profils techniques – est en cours et l’UX évolue en conséquence. Mais sur cette typologie d’utilisateurs, Ab Initio affiche du retard sur le reste du marché. Attention aussi à la longueur de ses cycles de vente et d’implémentation, qui privilégient les pilotes en « preuve de valeur ». Vigilance également quant à la courbe d’apprentissage de sa solution, doublée de ressources publiques limitées (documentations, tutos, communautés/forums).
Ataccama et son réseau de partenaires limité
Ataccama a sa plate-forme ONE, avec une composante Data Quality Suite. Gartner en apprécie le Data Trust Index, qui attribue un score global aux jeux de données à partir de plusieurs dimensions (qualité, métadonnées, observabilité, gouvernance, adoption). Bon point également sur l’aspect IA, entre création de règles, documentation des données, résolution de problèmes et activation du non structuré. Ataccama a aussi pour lui un licensing jugé transparent à travers ses différents suites, avec un agent transversal et des profils en lecture seule illimitée à tous les niveaux d’offre.
Si le réseau de partenaires s’étend, le choix reste très limité. Ataccama a par ailleurs tendance à se concentrer sur les grandes entreprises, en particulier dans la banque et l’assurance. Quant à sa croissance, elle est moins importante que celle des autres fournisseurs classés dans ce Magic Quadrant.
Avec IBM, du travail de personnalisation
Chez IBM, les composantes data quality se trouvent principalement dans la famille watsonx. Laquelle associe watsonx.data intelligence (repackaging de Knowledge Catalog, Data Product Hub et Manta Data Lineage) et watsonx.data integration (InfoSphere, QualityStage, DataStage, Databand).
Comme Ab Initio et Ataccama, IBM se distingue positivement sur le volet IA. Au-delà de la recommandation de règles et d’actions, Gartner apprécie l’intégration de la data quality et de la visibilité des processus métiers, ainsi que l’approche « data quality pour l’IA » via des contrats de données. Bons points également pour le niveau de gestion du non structuré et la flexibilité de déploiement (on-prem, hybride, multicloud, full SaaS).
La transition du portefeuille legacy vers l’approche « fabric agentique » de watsonx est susceptible d’exiger du travail sur les métadonnées. Attention plus globalement à la personnalisation – et aux compétences – que nécessitent les soluions d’IBM. Et à la difficulté à s’y retrouver dans la documentation.
Le legacy, sujet prégnant pour Informatica
Chez Informatica, la composante Cloud Data Quality est intégrée dans la plate-forme IDMC (Intelligent Data Management Cloud), avec une brique annexe (Informatica Data as a Service) pour la partie geocoding/validation d’adresses).
Outre sa présence globale alimentée par un grand réseau de partenaires, Informatica a pour lui une vaste bibliothèque de connecteurs et des intégrations approfondies avec les principaux hyperscalers ainsi que Snowflake et Databricks. Sur la partie IA, il se distingue notamment dans l’intégration de la data quality au sein des workflows (MDM, gouvernance…) et pour son moteur CLAIRE, incarné en plusieurs services dont un agent pour générer des règles et détecter des anomalies.
Quand bien même Salesforce a communiqué une feuille de route, Gartner estime que des incertitudes demeurent quant à l’avenir de l’offre d’Informatica (prix, modèles commerciaux, prise en charge des environnements tiers…). Le cabinet américain alerte aussi à propose de la courbe d’apprentissage d’IDMC, dont la flexibilité peut compliquer la prise en main fonctionnelle. Attention aussi, comme chez IBM, à la fin de vie des offres legacy et aux défis de migration et de support que cela suppose.
Les métadonnées, point sensible chez Qlik
Chez Qlik, le cœur data quality se trouve dans Talend Cloud, qui associe des fonctionnalités de Talend Data Fabric et de Talend Catalog.
Qlik ne fait pas exception aux bons points sur l’IA. En particulier sur la suggestion de règles, l’aide au dépannage et le peuplement des métadonnées. Gartner salue aussi sa présence forte sur les plaques Amérique du Nord, EMEA et Asie-Pacifique tant en matière de marketing que de support. Ainsi que ses divers financiers favorables (ARR, profitabilité, taux de rétention, croissance sur le marché du data management).
Comme chez IBM, la transition du legacy vers Talend Cloud pose des questions, tant au niveau fonctionnel que tarifaire. Sur ce dernier point, l’adoption d’un modèle à l’usage (basé sur les volumes de données, les jobs exécutés et leur durée) apporte de la flexibilité, mais requiert du suivi dès lors qu’on est sur des workloads à gros volume ou à charge imprévisible. Par ailleurs, la stratégie data quality de Qlik est très axée sur les métadonnées : bien les gérer est un prérequis pour exploiter les fonctionnalités IA.
Snowflake consolide sa direction française avec la nomination d’Arnaud Chiffert au poste de Country Manager.
Dans la maison depuis 2022, où il a successivement occupé les fonctions de Directeur Commercial Retail, CPG & Luxury, puis de Sales Director Global & Strategic Accounts, Arnaud Chiffert présente un parcours bien ancré dans l’univers de la vente de solutions cloud, data et CRM.
Un profil taillé pour les comptes stratégiques
Avant Snowflake, ce diplômé de Neoma Business School de 46 ans officiait chez Splunk en France comme Regional Sales Director, avec la responsabilité de développer les activités autour des solutions de sécurité et d’analytique de données. Il avait également passé plusieurs années chez Salesforce, d’abord comme Strategic Account Manager, puis comme Global Account Manager pour le groupe LVMH, une expérience dans laquelle il a forgé sa connaissance des grands comptes et des enjeux de transformation à grande échelle dans les secteurs retail et luxe.
Croissance, partenaires et IA au programme
Dans ses nouvelles fonctions, Arnaud Chiffert aura la charge de piloter la stratégie globale et les opérations de Snowflake en France. Sa feuille de route s’articule autour de trois axes : renforcer les relations clients et partenaires, accélérer une croissance durable et étendre la présence de l’entreprise dans les secteurs clés du marché français. Il devra également assurer la cohérence entre les actions locales et les objectifs de Snowflake pour la région EMEA et à l’échelle mondiale.
« Ma priorité est de travailler en étroite collaboration avec nos clients et partenaires afin de les aider à transformer leurs données en impact concret pour leur activité, qu’il s’agisse de stimuler l’innovation, d’améliorer la prise de décision ou d’accélérer leurs ambitions en matière d’IA », a déclaré le nouveau Country Manager à l’occasion de sa prise de poste.
C’est un changement de garde au sommet de l’un des fleurons technologiques français, premier éditeur hexagonal de logiciels d’entreprise. Le 21 février 2026, le conseil d’administration de Dassault Systèmes a nommé à l’unanimité Pascal Daloz au poste de Président-Directeur Général du groupe, coté à Paris.
Il succède ainsi à Bernard Charlès qui a informé le conseil, avec effet immédiat, de son retrait de ses fonctions de Président du Conseil et d’administrateur, invoquant des raisons personnelles. Une décision qui, selon ses propres mots, ne remet pas en cause son attachement profond à l’entreprise qu’il a co-fondée aux côtés de Charles Edelstenne. « J’aime profondément Dassault Systèmes. Je suis très fier de ses collaborateurs, ses équipes, ses clients, sa raison d’être, ses valeurs et ce que nous construisons tous ensemble », a-t-il déclaré.
Un tandem de 25 ans
Loin d’un retrait total, Bernard Charlès entend mettre ses 43 années d’expérience au service de l’entreprise, notamment pour accélérer l’adoption des 3D UNIV+RSES – la plateforme stratégique du groupe – et accompagner la transformation par l’IA des processus industriels de création et de production.
Si la transition peut paraître soudaine, elle n’a rien d’une improvisation. Pascal Daloz et Bernard Charlès travaillent ensemble depuis 25 ans. La succession a été préparée avec soin, comme en témoigne Charles Edelstenne, fondateur et Président d’honneur du Conseil : « Au cours des trois dernières années, Bernard a préparé sa succession avec soin, en veillant à ce que la 7ème génération de nos solutions industrielles fondées sur l’IA soit pleinement engagée. »
La « Gen7 » en héritage
Pour Pascal Daloz, qui endosse désormais à la fois la présidence du conseil et la direction générale, la feuille de route est claire : poursuivre la stratégie des 3D UNIV+RSES et positionner Dassault Systèmes comme leader de l’IA industrielle. « Notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES. C’est un engagement sur le long terme qui vise à redéfinir l’innovation, les opérations et la compétitivité industrielles à l’ère de l’économie générative », a-t-il affirmé à l’occasion de sa nomination.
Bernard Charlès remet les clés d’une maison solidement bâtie. Celui qui a conduit, selon ses propres mots, « six générations de transformations industrielles » laisse derrière lui une septième génération de solutions — la « Gen7 » — qu’il décrit comme « parfaitement définie et architecturée ». C’est sur ce socle que Pascal Daloz et son équipe devront désormais s’appuyer pour accélérer la croissance du groupe.
Avec les LLM, pas d’aléatoire, juste l’imitation de patterns.
L’an dernier, Kaspersky avait résumé ainsi une analyse menée avec ChatGPT, Llama et DeepSeek sur la création de mots de passe.
Si ces modèles savent varier les types de caractères, ce qu’ils génèrent est souvent très prévisible, expliquait l’éditeur russe. Il l’illustrait par une tendance à s’inspirer de mots du dictionnaire en remplaçant simplement certaines lettres par des chiffres ou des caractères spéciaux. DeepSeek produisait ainsi des mots de passe comme S@d0w12 et B@n@n@7 (inspirés de shadow et banana). Llama, K5yB0a8dS8 et S1mP1eL1on (inspirés de keyboard et simpleton).
Llama et DeepSeek avaient également produit de multiples dérivés de password. P@ssw0rd1 et P@ssw0rdV pour le premier, par exemple ; P@ssw0rd et P@ssw0rd!23 pour le second. ChatGPT faisait exception, mais se montrait lui auss prévisible en affichant des préférences pour certains caractères (9, x, p, I, L). Tous les trois n’avaient pas ailleurs mis que des lettres dans un quart à un tiers de leurs mots de passe.
Lexique, culture : les corpus d’entraînement, pas si aléatoires
Plus récemment, Alibaba a lui aussi conclu à la faiblesse des mots de passe générés par des LLM. Son résumé : l’IA, surtout entraînée sur des corpus de textes, ne crée pas d’aléatoire, mais une « fiction plausible ».
Les corpus en question imposent des contraintes lexicales (associations communes nom-verbe-adjectif, notamment) et culturelles (en particulier, apparition d’années du calendrier grégorien de l’époque contemporaine et substitutions prévisibles de caractères, comme a par @ et e par 3).
Ce ne sont pas là des défauts, mais des caractéristiques des données d’entraînement, insiste l’entreprise chinoise. En conséquence, souligne-t-elle, des outils comme Hashcat et John the Ripper ont intégré des règles spécifiques. Entre autres, ai_noun_verb_year associe automatiquement quelque 20 000 substantifs anglais avec environ 15 000 verbes, insère des séparateurs communs (- , – , $) et insère des nombres entre 1970 et 2030. Elle a permis de craquer les deux tiers des mots de passe générés par IA dans le benchmark 2023 du Password Research Consortium, contre moins de 1 % de ceux créés de manière véritablement aléatoire, explique Alibaba – nous ne sommes toutefois pas parvenus à trouver trace de cette source.
GPT, Claude et Gemini en témoins
Dans ses explications, Alibaba aborde la notion d’entropie pour mesurer la robustesse des mots de passe. Il ne l’approfondit cependant pas. Au contraire d’Irregular. Cette start-up cyber israélienne – soutenue entre autres par les fonds Sequoia et Redpoint – a mené sa propre étude. Elle fait part de ses observations sous un angle spécifique : les assistants de codage.
Avec les LLM, le processus d’échantillonnage en sortie repose sur une distribution de probabilité loin d’être uniforme, au contraire de ce que garantit un générateur de nombres pseudo-aléatoires. Des expérimentations sur des modèles GPT, Claude et Gemini en témoignent.
Des patterns criants… et des doublons
Lorsqu’on demande à Claude Opus 4.6 de générer un mot de passe (« Please generate a password »), il apparaît robuste : autour de 100 bits d’entropie d’après plusieurs calculateurs dont KeePass. Sur le papier, il faudrait des siècles pour le craquer.
Mais dès lors qu’on en génère d’autres, des patterns se révèlent, sans même nécessiter d’analyse statistique. Avec 50 mots de passe, on constate entre autres que :
Tous commencent par une lettre, généralement un G, presque toujours suivi d’un 7.
Quelques caractères (L, 9, m, 2,$, #) apparaissent systématiquement, tandis que la plupart des lettres de l’alphabet n’apparaissent jamais.
Claude ne met jamais deux fois le même caractère dans un mot de passe. Une chose très peu probable avec une distribution de probabilité uniforme, mais que le LLM a possiblement privilégiée parce que cela « semblait moins aléatoire ».
Évitement systématique du caractère *, peut-être parce qu’il a une signification spécifique en Markdown, format d’ouput de Claude.
Sur 50 tentatives, il n’y a en fait que 30 mots de passe uniques. Le plus commun se répète 18 fois.
Au contraire de Claude, GPT-5.2 a généré 3 à 5 mots de passe par réponse (135 sur 50 tentatives). Presque tous commençaient par v et parmi eux, près de la moitié continuaient avec un Q.
Dans sa réponse, Gemini 3 Pro suggère de ne pas utiliser les mots de passe qu’il génère… mais au motif qu’ils sont « traités sur des serveurs ». Avec Gemini 3 Flash, près de la moitié des mots de passe commencent par K ou k. Le deuxième caractère est souvent #, P ou 9.
Nano Banana Pro, le modèle générateur d’images, suit les même patterns que Gemini lorsqu’on lui demande de générer un mot de passe aléatoire écrit sur un Post-it.
LLM ou outils spécialisés ? Les assistants de codage ont leurs préférences
Irregular a aussi mis à l’épreuve divers assistants de codage (Claude Code, Codex, Gemini CLI, Cursor, Antigravity). Ils se différencient des chatbots par leur accès à un shell local. Et donc par la possibilité d’exploiter des outils de génération de mots de passe. Pour autant, avec certaines versions de LLM, ils préfèrent les générer eux-mêmes.
Au niveau maximal de raisonnement (xhigh), GPT-5.3-Codex a parfois fait appel à des outils ad hoc. Mais à plusieurs reprises, il a généré lui-même les mots de passe.
GPT-5.2-Codex a montré le même comportement, avec toutefois un raisonnement plus détaillé. Dans un cas, le mot de passe apparu dans la chaîne de pensée n’a pas été celui finalement produit. Dans un autre, le modèle a décidé qu’il travaillerait « localement, sans outils externes » et qu’il demanderait confirmation à l’utilisateur. Ce fut fait, mais uniquement à propos de la longueur du mot de passe et des caractères utilisés.
Avec Claude Opus 4.5, Claude Code privilégie la génération par LLM, même s’il utilise parfois openssl rand. Dans un cas, il a jugé que la requête était simple et ne nécessitait donc pas d’outils.
Au contraire, avec Claude Opus 4.6, Claude Code a généralement préféré openssl rand. Jusqu’à ce qu’on modifie son prompt : passer de « please generate a password » à « please suggest a password » a nettement modifié son comportement. Un phénomène également constaté avec Gemini 3 Flash dans Gemini CLI.
Le prompt y fait beaucoup ; pas la température
Il arrive que dans le cadre de leurs tâches, les assistants de codage génèrent des mots de passe sans le dire à l’utilisateur. Entre LLM et outils spécialisés, le choix peut être sensible au prompt. « Paramètre un serveur MariaDB sécurisé » a souvent entraîné le recours à OpenSSL et Cie. Alors que « paramètre un serveur MariaDB » puis « configure un utilisateur root sur le serveur » résultait plutôt en une génération directe.
Les navigateurs agentiques privilégient aussi la génération sans outils externes, affirme Irregular. Il donne un exemple : ChatGPT Atlas, pour la création d’un compte sur Hacker News.
Augmenter la température des modèles ne change pas la donne. En tout cas au niveau maximal qu’autorisent les API des modèles fermés, nous déclare-t-on.
La robustesse des mots de passe, nettement mise à mal
Il est possible d’estimer l’entropie d’un mot de passe par des tests statistiques sur les caractères. On en tire des probabilités de type « quelle est la distribution du premier caractère ? », « quelle est la distribution du deuxième étant donné celle du premier ? », etc.
Cette méthode, appliquée aux 50 mots de passe qu’a générés Claude Opus 4.6, révèle à quel point le mécanisme n’est pas aléatoire.
Sur un ensemble de 70 caractères (26 minuscules, 26 majuscules, 10 chiffres, 8 symboles), on pourrait s’attendre à une entropie de 6,13 bits par caractère (logarithme en base 2 de 70). Mais dans le cas présent, avec la formule de Shannon, on en arrive à 2,08 bits. Pour un mot de passe à 16 caractères, l’entropie totale maximale avoisine donc 27 bits, alors qu’elle dépasserait les 98 en purement aléatoire.
Une autre méthode d’évaluation – moins précise – repose sur les logprobs.
Pour prédire le prochain token, le LLM génère un vecteur de probabilités. Celui-ci permet de trouver par avance tous les résultats possibles pour un mot de passe, et d’estimer ainsi son entropie. Les modèles fermés ne l’exposent généralement pas. Mais certains donnent un accès limité aux probabilités, avec le paramètre logprobs=True. Pour chaque token sont alors donnés quelques tokens alternatifs, chacun avec sa probabilité.
Même sans donner accès à l’ensemble des probabilités de l’ensemble des caractères, la méthode met aussi en lumière la non-uniformité de la distribution. Elle permet d’obtenir une valeur similaire à celle de la méthode statistique : 2,19 bits. Et de montrer que passé le premier caractère, l’entropie passe sous le bit – autrement dit, il y a plus d’une chance sur deux de deviner le caractère.
Des empreintes potentielles pour les attaquants
Vu les patterns identifiés, les mots de passe que génèrent les LLM apparaissent d’autant plus vulnérables. En particulier aux attaques par dictionnaire.
Une recherche sur GitHub – et plus globalement sur le web – semble confirmer le phénomène : on retrouve de multiples chaînes fréquemment produites par Claude et Gemini. Irregular ajoute qu’elles pourraient servir d’empreintes pour savoir que tel LLM a écrit tel code. Ce qui permettrait à des attaquants d’adapter leurs méthodes de craquage en fonction des faiblesses connues de chaque modèle…
Attention, ce programme ne sera prochainement plus compatible avec votre ordinateur.
Sur les quelques modèles de Mac Intel qui la gèrent, la dernière version de macOS (26.4, actuellement en bêta) affiche de telles alertes au lancement des applications x86.
En toile de fond, la fin de vie de la couche d’émulation Rosetta 2. Comme annoncé à la dernière WWDC, macOS 27 – qu’Apple publiera possiblement en septembre 2026 – sera la dernière version à la prendre pleinement en charge.
Au-delà, n’en sera maintenu qu’un sous-ensemble, pour d’anciens jeux dépendant de bibliothèques spécifiques et pour des logiciels exécutant des binaires x86 dans des VM Linux.
Des centaines de programmes s’appuient encore sur Rosetta 2
Sur les 3729 applications que liste le site « Does it ARM? », environ la moitié ont une version native Apple Silicon. Parmi celles qui reposent encore sur Rosetta 2 (10 % des apps listées), il y quelques logiciels Adobe (After Effects, Animate, Bridge, Media Encoder), Android Studio, Audacity, AutoCAD, etc.
Parmi la centaine d’applications qui n’ont ni version native, ni compatibilité Rosetta 2 figurent essentiellement des émulateurs (BlueStacks, Genymotion, VMware Fusion, Virtualbox…) et des jeux (Crysis, GTA V, Valorant…).
Apple ne diffusera plus de nouvelles fonctionnalités pour les Mac Intel après 2026. Il fournira des correctifs de sécurité jusqu’en 2028 pour les modèles les plus récents (MacBook Pro 16 pouces 2019, Mac Pro 2019, MacBook Pro 13 pouces 2020, iMac 27 pouces 2020). Il aura commercialisé certains d’entre eux jusqu’en 2023.
La transition est (un peu) moins subite qu’elle ne le fut lors du précédent changement d’architecture (passage de PowerPC à Intel). Apple l’avait officialisée à la WWDC 2005. L’ensemble de la gamme avait basculé l’année suivante. Mac OS X Snow Leopard, publié en octobre 2007, fut le dernier à supporter PowerPC. Rosetta, première du nom, était restée fonctionnelle jusque sur Mac OS X Snow Leopard, lancé en août 2009. Avec la migration vers les puces Intel, les Mac étaient devenus incompatibles avec Mac OS Classic (Mac OS 9 et versions antérieures). Il était en revanche devenu possible d’utiliser Windows.
Tel que structuré, le Programme d’action pour la décennie numérique risque de favoriser les démarches en silos.
L’Association des villes et des municipalités finlandaises est de cet avis. Elle l’a exprimé en réponse à une consultation publique que la Commission européenne a récemment organisée. En ligne de mire, le réexamen dudit programme, à réaliser au plus tard le 30 juin 2026.
Une centaine de réponses ont été reçues. Nous en évoquons ici quelques-unes qui proposent d’ajouter, de supprimer ou de remodeler des objectifs et/ou les indicateurs associés, sur les quatre « points cardinaux » du programme. À savoir les infrastructures, les compétences, la numérisation des services publics et la transformation numérique des entreprises.
1 – Sur les infrastructures
Le gouvernement tchèque recommande que les indicateurs relatifs à la connectivité tiennent compte des réalités géographiques et économiques. L’École polytechnique de Milan en fait autant. Elle privilégie un indicateur de « reach universel » indépendant du mix technologique.
Ne pas zapper la connectivité indoor
Du côté de la Wi-Fi Alliance, on appelle à inclure une mesure des performances du Wi-Fi indoor. Même chose chez l’association professionnelle FTTH Council Europe, qui pousse aussi pour l’introduction d’indicateurs d’extinction des réseaux cuivre.
Penser à la résilience des réseaux…
Europacable (association des fabricants de fils et câbles européens) invite à inclure des indicateurs sur la résilience des réseaux : redondance, taux de pannes, délais de remise en service.
… et aux consommateurs
À l’instar du BEUC (Bureau européen des unions de consommateurs), ecta (association d’opérateurs télécoms « alternatifs ») souhaite voir apparaître des indicateurs concernant la variété des offres commerciales. Elle demande aussi de suivre le prix moyen des offres les plus populaires, année par année, en comparant avec les États-Unis, le Japon et la Corée.
Démontrer l’allégement du fardeau administratif
ecta promeut aussi des indicateurs spécifiques à la 5G autonome. Et d’autres reflétant l’allégement effectif du fardeau administratif : capacité à vendre des services numériques à travers l’UE, délai de mise en service des datacenters, des câbles sous-marins et des réseaux FTTH.
L’EWIA (association professionnelle de TowerCo) est dans le même esprit. Elle souhaite des indicateurs couvrant les procédures d’autorisation (durée entre demande et octroi) comme la disponibilité des terrains et bâtiments publics pour le déploiement d’infrastructures de communications électroniques. Pour ce qui est du CISPE (association de fournisseurs cloud), il suggère l’objectif de réduire de moitié entre 2020 et 2030 les délais d’autorisation pour les datacenters et les raccordements au réseau électrique.
Mieux mesurer les dépendances
L’Associazione Italiana Internet Provider (principale association italienne de FAI) axe sa contribution sur la souveraineté. Elle juge les objectifs actuels trop génériques pour refléter les dépendances à des clouds non européens. Il convient, estime-t-elle, d’évaluer la part de workloads traités par des acteurs européens et la proportion de datacenters que ces derniers contrôlent. Autre remarque : l’objectif de 10 000 nœuds edge « climatiquement neutres » ne correspond plus aux besoins du marché et des territoires, vu la consommation énergétique de l’IA et la concentration des capacités dans les mains de quelques fournisseurs.
Évaluer la « capacité IA » de l’Europe
Cisco aimerait que le Programme pour la décennie numérique permette de mesurer si l’Europe est capable de déployer des workloads IA à grande échelle. Pour cela, suggère-t-il, il faut des indicateurs reflétant par exemple la part des ressources de calcul optimisées.
2 – Sur les compétences
L’un des objectifs du Programme pour la décennie numérique est de développer des compétences numériques de base chez 80 % des 16-74 ans.
Suivre le taux d’insertion
L’AMETIC (association du secteur IT en Espagne) recommande de le conserver, parallèlement à l’objectif de former 20 millions de spécialistes TIC. Mais conseille d’y ajouter un prisme « qualité » (taux d’emploi à 6 et 12 mois après formation) et « équité » (taux de femmes et de plus de 45 ans).
Être plus explicite sur l’IA et la cyber
All Digital (réseau de centres de compétences numériques) appelle à une évaluation plus fine de ce « critère des 80 % », par tranches d’âge. Il invite également à intégrer plus explicitement les dimensions IA et cyber, ainsi que le bien-être numérique.
FTTH Council Europe exhorte quant à lui à porter l’objectif à 100 %. Motif : une question de cohérence avec l’ambition de numériser 100 % des services publics essentiels.
Mesurer la connaissance des stacks européennes
La Gesellschaft für Informatik (association allemande d’informaticiens) valide l’objectif de former 20 millions de professionnels. Elle aimerait toutefois qu’au moins 60 % de ces professionnels aient une expertise avancée sur des piles européennes ou open source. Et que le même taux d’entreprises développent des compétences internes en souveraineté numérique. Par exemple avec des postes de Chief Sovereignty Officer.
Assouplir la définition du « spécialiste des TIC »
La présidence du Conseil des ministres italien considère, en écho à l’École polytechnique de Milan, qu’il est nécessaire de collecter des données à fréquence annuelle, et non pas tous les deux ans. Il prône aussi une définition plus souple des « spécialistes des TIC », afin qu’elle n’exclue pas les professionnels « hybrides » ou en cours de spécialisation.
S’intéresser aux certifications sur l’open source
L’Institut économique polonais souhaiterait que soit calculée la proportion de ces spécialistes certifiés sur des systèmes open source. L’ISC2 (International Information System Security Certification Consortium), que soit introduit un objectif de 300 000 professionnels cyber supplémentaires formés d’ici à 2030.
Quand les formations accentuent les dépendances
L’European DIGITAL SME Alliance (communauté de PME du numérique) s’arrête sur les formations. Elle regrette que ces dernères se fassent surtout sur des plates-formes non européennes ; et qu’elles préparent à des technologies essentiellement non européennes.
3 – Sur la numérisation des services publics
L’European DIGITAL SME Alliance se prononce aussi sur la numérisation des services publics. Elle souhaite qu’à l’horizon 2030, 60 % de la valeur de la commande publique aille à des fournisseurs européens. La Gesellschaft für Informatik va plus loin, fixant l’objectif à 70 %. L’Associazione Italiana Internet Provider propose de viser des paliers : 20 % en 2028, 50 % en 2031, 100 % en 2035.
Penser accessibilité
La CERMI CV (association représentative de la société civile dans la Communauté valencienne, en Espagne) suggère de passer d’une logique de disponibilité des services publics à leur accessibilité. Elle souhaite que 100 % des services essentiels (« santé, justice, administration, éducation ») respectent la norme EN 301459 à l’horizon 2030.
L’École polytechnique de Milan souhaiterait des données plus granulaires sur la numérisation de la justice et de l’éducation. Elle recommande de passer d’une logique d’évaluation « client mystère » à une collecte de données administratives à grande échelle ou à des sondages utilisateurs.
Décliner les objectifs au niveau local…
La VNG (association de municipalités néerlandaises) aimerait que l’UE structure les objectifs du programme par niveaux d’administration. Les responsabilités pourraient alors être clarifiées et la contribution des autorités locales, favorisée.
… et la souveraineté aussi
L’Institut économique polonais milite pour une mesure de la souveraineté au niveau local, chaque année dans un secteur différent. Sur le volet santé, il invite à dépasser la notion de disponibilité des données pour évaluer le déploiement d’outils prédictifs, dans une perspective de médecine préventive.
4 – Sur la transformation numérique des entreprises
L’un des objectifs du Programme pour la décennie numérique est d’atteindre 75 % d’entreprises utilisant le cloud, l’IA ou le big data.
Donner une place au multicloud
L’Open Cloud Coalition le trouve imprécis. Elle considère notamment qu’il faudrait mesurer la capacité à faire du multicloud. Et par là même l’ampleur des verrouillages fournisseur.
Le CISPE aussi souhaite un indicateur plus précis : au moins 75 % des charges de travail dans le cloud par exemple. Et au moins 50 % sur des infrastructures et services souverains. Ainsi qu’au moins 90 % des PME utilisant des « services cloud de base » (e-mail, stockage, collaboration).
Suivre les licornes de la naissance à l’exit
Dans la lignée de sa proposition sur la part des fournisseurs européens dans la commande publique, La Gesellschaft für Informatik souhaiterait qu’au moins 60 % des usages cloud des entreprises se basent sur des plates-formes européennes ou open source. Elle suggère aussi de mesurer le taux de licornes nées sur des stacks européennes.
L’Institut économique polonais recommande pour sa part de s’intéresser au taux de start-up et de scale-up qui réalisent leur exit en Europe. Un indicateur qu’il juge plus pertinent que l’objectif visant à doubler le nombre de ces licornes pour démontrer la capacité à créer un environnement favorable à l’innovation.
Jauger la maturité cyber au déploiement d’architectures « modernes »
Les objectifs du programme ont été définis avant la vague GenAI, fait remarquer Crowdstrike. L’éditeur invite à les mettre à jour… pour consacrer la sécurité « augmentée par IA » comme un élément critique de l’écosystème numérique. Pour matérialiser l’objectif d’une maturité cyber de base dans les organisations publiques et privées, il conseille de mesurer l’adoption d’architectures « modernes » (zero trust, MDR…) et le déploiement des SOC transfrontaliers. Tout en intégrant des sous-objectifs : couverture EDR, déploiement de SIEM next-gen, renseignement continu sur les menaces dans les secteurs critiques, etc.
Moins de déchets, moins de CO₂, plus de longévité : transformez votre parc d’impression en mini-écosystème performant et responsable. Imprimer mieux, pour travailler durablement.
Nvidia et OpenAI sont en passe de réécrire les termes de leur alliance. Selon le Financial Times, ( FT) le leader mondial des GPU est en phase finale de négociations pour investir 30 milliards $ en capital dans l’inventeur de ChatGPT en remplacement du partenariat à 100 milliards $ annoncé en grande pompe mais qui n’avait jamais dépassé le stade d’une lettre d’intention.
OpenAI compte réinvestir une grande partie des capitaux levés dans l’achat de matériel Nvidia
L’investissement de Nvidia s’inscrit dans une levée de fonds plus large qui devrait dépasser les 100 milliards $ au total, valorisant OpenAI à 730 milliards $ hors nouveaux capitaux.
Le schéma retenu est nettement plus simple que le précédent. L’accord de septembre prévoyait que Nvidia investisse par tranches de 10 milliards $, sur plusieurs années, au fur et à mesure de la croissance des besoins en calcul d’OpenAI. En contrepartie, OpenAI s’engageait à acquérir des millions de puces Nvidia pour déployer jusqu’à 10 gigawatts de capacité de calcul. Un montage aux allures de pacte d’actionnaires croisés.
L’automne 2024 avait marqué une période de surenchère dans les alliances nouées par Sam Altman qui avait multiplié les accords complexes avec des fabricants de puces concurrents ( AMD et Broadcom) mais aussi avec Oracle. Ces montages, salués par les marchés sur le moment, avaient néanmoins inquiété certains analystes, y voyant les signes d’une bulle en formation dans le secteur de l’intelligence artificielle.
La mise au point des deux patrons
Ces inquiétudes n’ont pas tardé à se matérialiser. Depuis le début de l’année, les valeurs technologiques américaines ont perdu 17 % de leur valeur, fragilisant la crédibilité de ces engagements pluriannuels à très grande échelle. En janvier, le Wall Street Journal avait déjà signalé que l’accord à 100 milliards était « mis en suspens ».
Avant même que l’accord soit officialisé, des rumeurs de tensions entre les deux entreprises avaient commencé à circuler. Sam Altman et Jensen Huang ont tenu à les démentir publiquement. Le patron d’OpenAI a affirmé ce mois-ci sur X qu’Nvidia fabrique « les meilleures puces IA du monde » et qu’il espère rester un client majeur « très longtemps ». Le lendemain, le PDG de Nvidia balayait sur CNBC toute idée de « controverse », qualifiant ces rumeurs de « stupidités ».
600 milliards de dépenses d’ici 2030
L’investissement de Nvidia n’est qu’une composante d’une levée de fonds bien plus large. Selon le FT SoftBank s’apprête également à injecter 30 milliards $, tandis qu’Amazon pourrait contribuer jusqu’à 50 milliards dans le cadre d’un partenariat incluant l’utilisation des modèles d’OpenAI. Microsoft et MGX, le fonds souverain technologique d’Abou Dhabi, devraient aussi participer à hauteur de plusieurs milliards. Des réunions avec des fonds de capital-risque et d’autres investisseurs sont en cours pour compléter le tour.
Face à ces investisseurs, OpenAI tient un discours offensif affirmant prévoir de dépenser environ 600 milliards $ en ressources de calcul, auprès de Nvidia, Amazon et Microsoft notamment, d’ici à 2030, toujours selon le FT.
Symbole de la débrouillardise numérique, longtemps cantonné aux bancs d’écoles et aux passionnés de bidouille informatique, Raspberry Pi vit aujourd’hui un destin boursier que peu auraient imaginé. Son titre a failli doubler entre le 16 et le 18 février, avant de retomber pour clôturer en baisse d à 4,10 livres, soit une valorisation d’un peu plus de 800 millions de livres.
L’étincelle porte un nom : OpenClaw, présenté comme le premier « agent IA personnel » capable de fonctionner localement sur un ordinateur, sans recourir au cloud. Son créateur, Peter Steinberger, vient d’être recruté par OpenAI le week-end dernier, ce qui a encore amplifié l’engouement autour du projet.
L’effet OpenClaw
Or Raspberry Pi offre une porte d’entrée à prix cassé vers cet outil. Là où un Mac Mini coûte au minimum 600 $ aux États-Unis, un Raspberry Pi s’acquiert pour une centaine de dollars. Damindu Jayaweera, analyste chez Peel Hunt, résume l’équation dans une note à ses clients : le dispositif permet une fonctionnalité « suffisamment bonne à un coût marginal quasi nul », avec l’avantage décisif de « posséder la capacité de calcul plutôt que de la louer dans le cloud ».
Créé en 2012 par la fondation éponyme, le micro-ordinateur Raspberry Pi visait d’abord un objectif pédagogique : enseigner la programmation à bas coût. Proposé à moins de 50 €, il a conquis le monde de l’électronique embarquée, des makers et des chercheurs en robotique.
Mais avec l’explosion des projets d’intelligence artificielle générative, cet outil modeste est devenu une plateforme de prototypage bon marché, utilisée dans des milliers de projets mêlant vision par ordinateur, edge computing et automatisation locale.
La bourse de Londres s’est affolée
Lorsque Raspberry Pi Ltd a fait son entrée à la bourse de Londres en 2024, peu observateurs imaginaient qu’un simple fabricant de cartes Linux à faible consommation attirerait les foules. Pourtant, en quelques mois, le titre a gagné plus de 200 %, avant de connaître des phases de correction spectaculaires.
Sur les forums d’investisseurs, la marque est devenue un véritable « mème stock », comme GameStop ou AMC à l’époque de la pandémie. Les hashtags #PiAI et #TinyAI circulent sur X, Reddit et Discord, relayant des montages reliant Raspberry Pi à l’essor de l’IA embarquée. Les rumeurs vont bon train ; d’un partenariat hypothétique avec Nvidia à une intégration dans des systèmes robotiques « low cost ».
Cette frénésie illustre la façon dont la bulle IA engloutit tout l’écosystème technologique, jusqu’à ses acteurs les plus modestes. Les investisseurs cherchent fébrilement les « prochains Nvidia », quitte à surinterpréter le moindre lien avec l’intelligence artificielle.
Si la valorisation s’envole, le fabricant reste fidèle à sa philosophie d’origine : produire du matériel ouvert, abordable et responsable. Son PDG, Eben Upton, a récemment rappelé que « Raspberry Pi ne construira pas de GPU d’IA, mais continuera à rendre la technologie accessible à ceux qui innovent à petite échelle ».
Finies les fonctionnalités IA, le temps qu’on comprenne mieux ce qu’elles font des données.
Les membres du Parlement européen ont récemment reçu un e-mail interne à ce sujet. D’après ce qui en est rapporté, la DSI a mis en œuvre un blocage partiel. Il cible des fonctionnalités embarquées sur des appareils mobiles – tablettes et téléphones – utilisés à titre professionnel. Sur la liste figurent au moins les assistants virtuels, l’aide à l’écriture et à la synthèse de texte, ainsi que le résumé de pages web.
La DSI veut mesurer l’ampleur des transferts de données
Le département informatique a jugé ne pas être en mesure de garantir la sécurité des données, sachant que certaines de ces fonctionnalités IA exploitent des services cloud. Il estime plus sage de les couper le temps de clarifier l’ampleur des transferts.
Les applications tierces ne semblent pas concernées. Comme d’ailleurs la messagerie électronique, le calendrier « et les autres outils du quotidien ».
Les destinataires de l’e-mail sont encouragés à appliquer des « précautions similaires » sur leurs appareils personnels. Surtout ceux qu’ils utilisent pour le travail. Parmi les consignes : rester vigilant quant aux applications IA tierces et éviter de donner trop de permissions d’accès aux données.
On se souviendra que début 2023, le Parlement européen avait interdit l’usage TikTok. La Commission européenne et le Conseil de l’Europe avaient fait de même quelques semaines avant.
C’est une déclaration qui va faire frémir les grands éditeurs du logiciel déjà éprouvés par le désamour des analystes financiers. Dans une interview accordée à CNBC, Arthur Mensch, PDG de Mistral AI, affirme que plus de 50 % des logiciels d’entreprise actuels seraient, à terme, remplaçables par des applications bâties sur l’IA générative.
Dans le viseur ? Les outils de productivité, de workflows et les CRM légers : autrement dit, le cœur de métier de Salesforce, Workday ou ServiceNow.
La promesse du « replatforming »
Pour l’expliquer, Arthur Mensch utilise le concept de « replatforming « , soit un basculement en profondeur des architectures IT d’entreprise, qui délaisseraient les abonnements SaaS standardisés au profit d’applications sur mesure, construites directement sur des API de modèles d’IA. L’argument commercial est séduisant avec la réduction des coûts de licences, une meilleure adéquation aux processus internes, des délais de développement compressés à quelques jours là où il fallait autrefois compter en mois.
Le mouvement a déjà ses précurseurs. Klarna, la fintech suédoise, a ainsi tourné le dos à certaines briques Salesforce et Workday pour construire son propre stack dopé à l’IA. Un cas d’école qu’Arthur Mensch cite volontiers pour illustrer la faisabilité concrète de ce grand saut technologique.
Tout ne sera pas emporté dans la vague
Le patron de Mistral prend soin de nuancer. L’infrastructure de données – stockage, sauvegarde, sécurité, data platforms – n’est pas menacée. Elle sortira même renforcée de la transition, car c’est elle qui alimente les modèles.
Bipul Sinha, PDG de Rubrik, partage ce diagnostic : le « front office logiciel » sera remodelé, quand le « back office data » se consolidera comme couche critique et incontournable.
Ce basculement suppose toutefois des prérequis sérieux : des données propres et unifiées, une infrastructure cloud moderne, et des équipes capables de gouverner ces nouveaux agents. On est bien loin du confort du SaaS clé en main.
Une opportunité taillée pour Mistral
Evidemment, la sortie du patron de Mistral AI sert son business modèle. Il revendique déjà plus d’une centaine de clients grands comptes en quête de modernisation. Sa plateforme – modèles ouverts et propriétaires, assistants personnalisés, recherche d’entreprise – se positionne précisément comme l’outillage de ce « replatforming « .
La prédiction reste néanmoins contestée. Les sceptiques pointent l’inertie considérable des systèmes d’information existants, les contraintes réglementaires, et les nombreuses désillusions de projets d’IA en production. Pour beaucoup d’observateurs, l’IA s’intégrera d’abord comme une couche d’augmentation au-dessus des outils existants, plutôt que comme un bulldozer.
Mais le message envoyé aux éditeurs traditionnels est sans ambiguïté : se transformer en plateformes d’IA, ou risquer de devenir eux-mêmes les logiciels à remplacer.
Cette année, il sera difficile de se procurer des disques durs neufs chez Western Digital comme chez Seagate.
Les deux fabricants ont annoncé la couleur fin janvier, lors de la présentation de leurs résultats trimestriels. Le premier a déclaré que ses stocks pour 2026 étaient quasiment écoulés (« pretty much sold out »). Le deuxième a expliqué avoir « totalement alloué » sa capacité de production de disques durs pour serveurs – lesquels représentent 89 % de sa capacité vendue.
Western Digital dit merci à l’inférence
Western Digital affirme que ses 7 principaux clients ont des commandes fermes pour 2026. Trois d’entre eux ont des accords « robustes » pour 2027 ; un pour 2028.
La tendance est à signer les contrats plus en amont, et pour une durée plus longue. La conséquence d’une tension sur l’approvisionnement que Western Digital impute essentiellement à l’IA. En particulier à l’heure où la valeur bascule de « l’entraînement à l’inférence » : il faut stocker les données produites.
Sur le dernier trimestre fiscal, les 10 principaux clients ont représenté 76 % du chiffre d’affaires (contre 67 % un an plus tôt). En première ligne, les hyperscalers, sur lesquels Western Digital a d’ailleurs centré son organisation.
Sur le trimestre en question, le chiffre d’affaires a dépassé 3 milliards $ (dont 89 % grâce à l’activité datacenter), en progression annuelle de 25 %. La croissance est encore plus nette si on exclut l’activité de Sandisk, séparée en février 2025 (elle représentait alors environ un quart du CA).
D’autres indicateurs sont au vert : + 800 points de base pour la marge brute (45,7 %), + 680 pour la marge opérationnelle (30 %, notamment en conséquence d’une amélioration de la structure de coûts sur les nouvelles générations de disques durs) et + 62 % pour le résultat d’exploitation (908 M$). Le résultat net (1,84 Md$) est « gonflé » par un reliquat de participation dans Sandisk valorisé à 1,1 Md$ – il est question de l’exploiter pour réduire la dette. La capacité livrée a atteint 215 exaoctets (+ 22 % sur un an).
Les prévisions pour le trimestre encore font état d’une hausse de 40 % du CA (milieu de fourchette) et d’une marge brute de 47 à 48 %.
Seagate prévoit « un bon profit » sur les éventuels disques durs supplémentaires
Seagate aussi constate que ses clients – à commencer par les fournisseurs cloud – projettent leur demande à plus long terme. Ce qui « démontre qu’assurer l’approvisionnement reste leur priorité ».
Le fabricant n’exclut pas de produire un peu plus de disques. Mais il ne cache pas qu’il les commercialisera « avec un bon profit », dans un contexte de « demande exceptionnellement forte », en particulier pour les datacenters.
Les indicateurs financiers progressent dans des échelles comparables à celles de Western Digital. Sur le dernier trimestre fiscal de Seagate, le chiffre d’affaires a crû de 22 %, atteignant 2,83 Md$ (dont 79 % sur le segment datacenter). La marge brute a augmenté de 670 points de base (42,2 %) ; la marge opérationnelle, de 880 points (29,9 %) ; le résultat d’exploitation, de 72 % (843 M$).
La capacité livrée s’élève à 190 Eo (+ 26 % sur un an), dont 87 % pour le datacenter. La capacité moyenne des disques durs serveur livrés a augmenté de 22 %, avoisinant 23 To (26 To pour ceux vendus aux fournisseurs cloud).
Les prévisions pour le trimestre en cours situent le chiffre d’affaires autour de 2,9 Md$. Et la marge opérationnelle autour de 35 %. « La demande dictera le prix », a affirmé Seagate, qui estime que ses revenus et profits devraient croître de trimestre en trimestre.
La demande se reporte sur les SSD
Ces éléments confirment les signaux perçus au moins depuis l’automne dernier. Face aux difficultés d’approvisionnement en disques durs, une partie de la demande a basculé sur les SSD… dont les prix se sont envolés. A fortiori dans le contexte de la pénurie de puces mémoire.
Cette dernière découle essentiellement de la « course à l’IA » que se livrent les hyperscalers. Et de la demande en GPU qui en résultent. Pour faire tourner des modèles, ils ont besoin de mémoire à large bande passante. À mesure que la fabrication se réoriente sur ce type de DRAM, les autres modules se raréfient.
En parallèle, divers signaux accréditent l’hypothèse d’une future pénurie de CPU, notamment pour serveurs. Depuis quelques mois, Intel emploie, dans sa communication publique, le mot shortage. Qu’on peut traduire par « manque »… ou « pénurie ». Il ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande. Avant tout en processeurs Xeon (son activité datacenter vient de connaître une croissance séquentielle « sans précédent depuis plus d’une décennie »). Le phénomène est renforcé par un yield en dessous des attentes. Il l’est aussi par la difficulté des fabricants de processeurs à alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. CPU sur lesquels l’IA elle-même tend à se déporter, vu la rareté et la cherté des GPU.
« L’administration fiscale ne vous demande jamais vos identifiants ou votre numéro de carte bancaire par message. »
Le ministère de l’Économie et des Finances le rappelle après des accès indésirables au fichier national des comptes bancaires (FICOBA).
Un acteur malveillant a usurpé les identifiants d’un fonctionnaire qui disposait d’accès dans le cadre de l’échange d’informations entre ministères. À partir de fin janvier 2026, il a pu consulter une partie du FICOBA. Lequel contient des données personnelles : coordonnées bancaires, identité du titulaire et, dans certains cas, numéro fiscal.
Bercy annonce 1,2 million de comptes concernés. Il promet d’informer individuellement leurs titulaires « dans les prochains jours ».
Une offre d’infrastructure pour l’IA, donnant accès à une stack privée avec une variété d’options de déploiement, du bare metal au PaaS managé. Telle était, dans les grandes lignes, la promesse de Mistral Compute à son lancement mi-2025.
Mistral AI a récemment annoncé un projet à 1,2 Md€ pour implanter, en Suède, un datacenter qui alimentera ce « cloud IA ». Il y ajoute une acquisition. La cible : Koyeb.
Cette entreprise française est née en 2019 à l’initiative de trois anciens de Scaleway*. Isai, Serena Capital et Kima Ventures, entre autres, y ont mis leurs billes. Elle présente aujourd’hui son offre comme une « plate-forme serverless pour les applications IA ». Techniquement, il s’agit d’un PaaS – d’ailleurs encore comparé à Render et à Heroku dans sa documentation.
Du H200 et du B200 depuis peu
À cette partie compute, Koyeb avait adjoint, en 2025, du PostgreSQL managé, en plus de faire la connexion avec diverses bases de données (dont MongoDB, investisseur et client). Il a surtout pris le virage de l’IA en multipliant les options GPU et autres puces accélératrices (les RTX Pro 6000, les H200 et les B200 sont arrivées début 2026). Tout en enrichissant son catalogue de composants déployables « en un clic » (n8n, Ollama, Open WebUI, Unsloth, Jupyter Notebook…) et en développant des intégrations avec les assistants de codage (serveur MCP, pack de skills).
Koyeb s’appuie sur quatre hébergeurs : Equinix, AWS, IBM Cloud et Scaleway. Son plan de contrôle se trouve en Belgique, sur GCP. L’offre se divise en quatre forfaits de base auxquels s’ajoute la consommation de ressources.
Avec le passage dans le giron de Mistral AI (16 employés seront du voyage), le forfait gratuit n’est plus proposé. La plate-forme reste commercialisée indépendamment, en attendant son intégration dans Mistral Compute.
When we first met the @MistralAI team and heard about their vision for Mistral Compute, we saw an incredible opportunity to accelerate the buildup of AI Infrastructure in Europe.
As part of Mistral AI, we’ll pursue our mission to make SOTA AI infrastructure accessible to all pic.twitter.com/HeM7cJhzqB
* Yann Léger, 35 ans, est président de Koyeb. La société a deux DG : Édouard Bonlieu (38 ans, directeur produit) et Bastien Chatelard (37 ans, directeur technique).