Vue lecture

OpenAI se raccroche à AWS pour avancer sur l’agentique

On l’a appris il y a quelques jours : OpenAI a bouclé la plus grande levée de fonds de son histoire, à 110 Md$.

Si NVIDIA et SoftBank ont chacun mis 30 milliards, la plus grosse contribution provient d’AWS. Ce dernier a débloqué 50 milliards. Il en injecte 15 pour commencer et prévoit d’octroyer le reste « dans les prochains mois, sous certaines conditions ».

Parallèlement à cet apport financier, OpenAI promet de dépenser 100 Md$ supplémentaires au cours des 8 prochaines années en ressources de calcul chez AWS*. Un engagement qui s’ajoute à un accord à 38 Md$ signé en novembre 2025.

La perspective d’un runtime « spécial AWS »

L’alliance ne s’arrête pas au compute. AWS sera aussi le « distributeur cloud tiers exclusif » pour Frontier, la couche d’orchestration agentique qu’OpenAI a présentée début février.

Les deux entreprises entendent aussi lancer, « dans les prochains mois », un runtime agentique reposant sur les modèles OpenAI et optimisé pour l’infra AWS (natif à Amazon Bedrock). Elles n’en disent pas beaucoup plus, sinon que cet environnement permettra de conserver le contexte (mémoire, identités, outils…), évitant ainsi une orchestration manuelle.

Le partenariat implique également la conception de modèles personnalisés pour les développeurs d’Amazon. En toile de fond, des LLM maison qui ne font pas l’unanimité en interne.

* AWS parle de consommer 2 GW de capacité Trainium. En novembre 2025, il évoquait l’accès à « des centaines de milliers » de GPU. Et une possibilité d’extension à « des dizaines de millions » de CPU. L’annonce mentionnait les configurations UltraServer dotées en GB200 et GB300.

À consulter en complément :

L’AI Factory, grammaire désormais légitime chez AWS ?
OpenAI apprend à penser l’inférence sans NVIDIA
Perplexity se laisse sédurie par Microsoft Foundry… sans lâcher AWS
Comment OpenAI façonne son développement au fil du compute
De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM

Illustration générée par IA

The post OpenAI se raccroche à AWS pour avancer sur l’agentique appeared first on Silicon.fr.

  •  

IA et RGPD : le projet PANAME teste sa bibliothèque d’audit

18 mois pour industrialiser l’audit de confidentialité des LLM : tel était l’objectif de PANAME (Privacy Auditing of AI Models) à son démarrage en juin 2025.

L’ANSSI, la CNIL, le PEReN et le PEPR Cybersécurité portent le projet. Il doit en résulter une bibliothèque logicielle qui unifiera cette évaluation.

Aux dernières nouvelles, le calendrier initial tient toujours : il est question de publier cette bibliothèque à l’automne 2026. En attendant, un appel à manifestation d’intérêt est lancé en vue d’une phase de test. Il court jusqu’au 28 mars. Sont concernées les « entreprises, startups [sic], laboratoires de recherche et institutions » utilisant ou développant des modèles d’IA et basés dans l’UE.

En toile de fond, un avis du CEPD (Contrôleur européen de la protection des données) selon lequel le RGPD s’applique dans de nombreux cas aux modèles d’IA entraînés sur des données personnelles, en raison de leurs capacités de mémorisation. Dans ce contexte, pour conclure au caractère anonyme d’un modèle et ainsi le sortir du champ d’application du règlement, il est très souvent nécessaire de démontrer sa résistance à des attaques en confidentialité.

Trois grandes typologies d’attaques

Les porteurs de PANAME divisent ces attaques en trois catégories. La plus fondamentale est dite « par inférence d’appartenance ». Elle vise à savoir si les données concernant tel individu ont été utilisées pour entraîner tel modèle. On peut s’appuyer sur les scores de confiance (vecteurs de probabilité) que fournissent la plupart des modèles de classification. Puis passer par des modèles proxy (shadow models). L’attaquant entraîne ces derniers sur ses propres données, puis observe comment ils réagissent face à celles incluses (réponse A) et celles exclues (réponse B).Il entraîne ensuite un classifieur d’attaque : une IA qui reconnaît si le comportement du modèle cible ressemble au « A » ou au « B ».

Il existe aussi des attaques par inférence d’attribut. Elles peuvent permettre de récupérer des attributs sensibles lorsqu’on dispose déjà d’une connaissance partielle des données individuelles utilisées pour l’entraînement. Pour cela, le modèle est utilisé comme un oracle, en se basant sur le fait qu’il encode des corrélations fines entre les données d’entraînement. On l’interroge de manière itérative pour tester toutes les valeurs possibles des attributs en question.

Troisième grande catégorie : les attaques par reconstruction. C’est la technique la plus sophistiquée si le modèle cible n’est pas génératif. Avec elle, on régénère une approximation de la donnée brute.
La CNIL donne l’exemple d’une reconstruction de visage. L’attaquant commence par une image composée de « bruit » (pixels gris aléatoires). Il le soumet au modèle. Celui-ci fournit un gradient, indiquant la manière dont on peut l’augmenter (éclaircir tels pixels, assombrir tels autres…). L’attaquant la modifie en conséquence, la soumet à nouveau, et ainsi de suite. Jusqu’à obtenir une reconstruction visuelle, « souvent floue mais identifiable ».

La première phase de tests pour PANAME doit se terminer en juin. Une seconde s’enclenchera ensuite éventuellement avec les « testeurs référents ayant été le plus impliqués dans la première phase ».

À consulter en complément :

IA et RGPD : la CNIL joue les généalogistes
Avec l’AI Act, un nécessaire RGPD 2 ?
Au Parlement européen, la DSI met l’IA en pause
L’IA générative, cette arme cyber qui inquiète l’ANSSI
L’IA devient un élément codifiant du conseil en technologies

Illustration © bestforbest – Adobe Stock

The post IA et RGPD : le projet PANAME teste sa bibliothèque d’audit appeared first on Silicon.fr.

  •  

PC portables : retour sur 2 ans de concepts Lenovo

Ce n’est pas le Yoga Book 9i, mais ça y ressemble.

Plusieurs prototypes de PC portables Lenovo présentés au MWC 2026 inspirent la remarque.

Parmi eux, il y a le Yoga Book Pro 3D. Orienté création, il reprend le double écran installé depuis quelques générations sur les Yoga Book 9i… et y ajoute la 3D autostéréoscopique (sans lunettes). Le panneau supérieur (16:10, 3,2K) affiche le contenu, éventuellement converti à la volée (2D -> 3D) et avec lequel la caméra permet d’interagir (contrôle gestuel). Le panneau inférieur peut basculer entre les modes clavier virtuel et palette graphique. On peut y aimanter des « snap-on pads », accessoires physiques qui font apparaître des menus contextuels (ajustement de la luminosité, du ton…). Le PC, en Core Ultra 7 avec jusqu’à 64 Go de RAM (soudée), embarque une RTX 5070. Il pèse 2,7 kg.

Yoga Book Pro 3D 2

Avec la dernière génération du Yoga Book 9i, le deuxième écran a gagné en modularité. Lenovo reprend l’approche avec le ThinkBook Modular AI PC, en y ajoutant un système de ports interchangeables (USB-A, USB-C, HDMI) fondé sur des connecteurs magnétiques. On reste sur des panneaux de 14 pouces (16:10, 3,8K), avec du Core Ultra 7 255H (Arrow Lake) et 32 Go de RAM. Le PC pèse 1,15 kg en mono-écran ; 1,41 kg avec le deuxième.

ThinkBook Modular AI PC

ThinkBook Modular AI PC 2

La Legion Go Fold est avant tout une console portable, dotée d’un écran 7,7 pouces extensible à 11,6, avec manettes détachables, en Core Ultra 7 258V (Lunar Lake) avec 32 Go de RAM. Mais elle a un mode desktop, avec clavier sans fil. Acer avait présenté le même type d’appareil au CES 2025 (la Nitro Blaze 11), mais ne l’a pas commercialisé jusque-là.

Legion Go Fold 2

Legion Go Fold

Au CES 2026, de l’écran extensible sous toutes ses coutures

Au CES 2026, on avait eu droit au ThinkPad Rollable XD. Son écran 13,3 pouces s’étire verticalement à 15,9 pouces. La partie supérieure a la particularité de s’enrouler sur l’arrière du châssis, permettant d’afficher une petite surface tactile sur la coque extérieure.

ThinkPad Rollable XD 2

ThinkPad Rollable XD

Autre machine présentée au CES 2026 : le Legion Pro Rollable. Ce laptop gaming est basé sur le Legion Pro 7i, avec Core Ultra et GeForce RTX 5090. Il a un écran 16 pouces qui s’étend horizontalement, à 24 pouces. Avec une option intermédiaire à 21,5 pouces censée aider à travailler la vision périphérique.

Legion Pro Rollable 2

Du pliable, du 3D, du rotatif…

À l’automne 2025, lors de son Innovation World, Lenovo avait présenté le ThinkBook Vertiflex. Avec un écran (14 pouces) non pas extensible, mais rotatif, entre paysage et portrait. La machine pèse 1,39 kg pour 18 mm d’épaisseur.

ThinkBook VertiFlex

De l’écran extensible, il y en avait eu au MWC 2025, avec le ThinkBook Flip AI PC. Son panneau 13,1 pouces peut s’étendre verticalement, à 18,1 pouces (3:4, 2000 x 2664). Il peut aussi se replier sur le dos de l’écran principal, donnant une tablette 12,9 pouces. Un élément qui le différencie du ThinkBook Plus Gen 6, que Lenovo vend à partir de 3999 € TTC.

ThinkBook Flip AI PC ThinkBook Flip AI PC 2

Le MWC 2025 avait aussi donné lieu à la présentation d’un PC portable avec écran autostéréoscopique : le ThinkBook 3D Laptop. Lenovo avait également annoncé un prototype doté d’un panneau solaire : le Yoga Solar PC. Promesse : un rendement de 24 % pour – en conditions optimales – récupérer 1 heure de lecture vidéo – locale, 1080p – en 20 minutes.

Lenovo ThinkBook 3D Laptop

Du transparent, du motorisé et de l’encre électronique

L’Innovation Day 2024 avait donné lieu à la présentation de l’Auto Twist AI PC (Core Ultra 7, 32 Go de RAM, 1,27 kg). Son signe particulier : un écran motorisé (13,3 pouces, 2880 x 1800) pivotant automatiquement pour suivre l’utilisateur. Et des commandes en langage naturel pour basculer entre les modes laptop et tablette.

Lenovo Auto Twist AI PC

Au MWC 2024, il y eut le ThinkBook Transparent Display Laptop. La technologie Micro-LED permet de faire varier la transparence de l’écran 13,7 pouces (720p). Comme celle de la zone clavier (tactile), qui peut basculer en mode tablette graphique.

Lenovo ThinkBook Transparent Display Laptop 2

Lenovo ThinkBook Transparent Display Laptop

Au CES 2024, Lenovo avait présenté le ThinkBook 13xGen4 SPE. Ce 13 pouces (3:2, Core Ultra, 32 Go de RAM) a un écran e-ink couleur au dos. Il sert à personnaliser le look de la machine. Vu sa faible consommation d’énergie, il peut rester allumé en permanence.

Lenovo ThinkBook 13x SPE

Illustrations © Lenovo

The post PC portables : retour sur 2 ans de concepts Lenovo appeared first on Silicon.fr.

  •  

Décennie numérique : la France en avance sur les infrastructures, moins sur les usages

Pour la France, pas de chiffres sur l’identification électronique : c’est confidentiel.

Le vide saute aux yeux dans la présentation qu’Eurostat fait des indicateurs de progrès vers les objectifs de la « décennie numérique ».

Fin 2022, l’UE formalisait ces objectifs – et le programme d’action qui va avec – sur quatre axes : infrastructures, compétences, digitalisation des entreprises, numérisation des services publics. Elle entend les atteindre à l’horizon 2030.

Parmi les objectifs, 80 % de citoyens de 16 à 74 ans ayant recours à l’identification électronique (eID). Eurostat l’analyse sur plusieurs dimensions, en distinguant notamment l’accès aux services publics et à ceux proposés par le secteur privé.

La France est le seul État membre de l’UE à ne pas avoir de chiffres pour 2023. Elle en a en revanche pour 2025. Résultat : près de 88 % des 16-74 ans ont utilisé l’eID sur les 12 derniers mois pour accéder à des services en ligne (84 % pour des services du public ; 59 % pour des services du privé).

La France au niveau de l’UE sur les compétences numériques de base

En parallèle des trajectoires idéales pour atteindre les objectifs du programme, l’UE effectue des projections à partir des données historiques. Elles ne sont pas toutes à la hauteur des ambitions. Par exemple concernant la diffusion des compétences numériques « élémentaires » au sein de la population. Y sont inclus, dans les grandes lignes :

  • Recherche et vérification d’informations
  • Communication et collaboration (e-mail, appels audio/vidéo, messagerie instantanée, réseaux sociaux…)
  • Création de contenu (traitement de texte, tableur, édition multimédia)
  • Gestion des données personnelles (cookies, partage de localisation, visibilité en ligne…)
  • Résolution de problèmes (télécharger et paramétrer des logiciels, consulter ses comptes, chercher un emploi…)

En 2023, le taux d’acquisition de ces compétences « élémentaires » atteignait 60 % en France (64 % chez les hommes, 57 % chez les femmes). C’était un peu plus que dans l’ensemble de l’UE (56 % ; 57 % des hommes et 54 % des femmes).
D’après les données de 2015 à 2023, l’UE atteindrait 60 % à l’horizon 2030, loin de son objectif de 80 %.

20 millions de spécialistes des TIC : l’UE s’en éloigne

Autre objectif qui, à ce rythme, pourrait ne pas être atteint : les 20 millions de 16-74 ans employés en tant que spécialistes des TIC. Ce quand bien même la définition est large, sur la base de la classification ISCO-08.

En 2024, la France en était à 1,4 million (80 % d’hommes), soit 4,8 % de ses emplois. L’UE, à 10,3 millions (même proportion d’hommes), soit environ 5 % de ses emplois. Les taux de féminisation les plus élevés – entre 25 et 30 % – sont en Estonie, en Roumanie, en Bulgarie et en Lettonie.
La projection à partir de l’historique 2011-2024 donne 12,4 millions de spécialistes des TIC à l’horizon 2030.

La France en nette avance sur « l’objectif gigabit »

Les choses sont plus avancées sur le taux de foyers couverts par une connectivité gigabit. En France, en 2024, le taux d’abonnements fixes atteignant ce débit s’élevait à 59 %, contre 22 % dans l’UE. La couverture FTTP (FTTH + FTTB) avoisinait 87 % en France et 70 % dans l’UE.
D’après les données 2019-2024, le taux de connectivité gigabit dans l’UE atteindrait 95 % en 2030, s’approchant de l’objectif de 100 %.

Ce même objectif a été fixé pour le taux de zones habitées couvertes par au moins un réseau 5G. Lui serait effectivement atteint (France et UE en étaient déjà à plus de 94 % en 2024).

Pour les licornes, retour jusqu’en 1991

Certains indicateurs ont une valeur absolue. L’UE vise par exemple 10 000 nœuds de calcul périphériques (edge) d’une latence de 20 ms ou moins. Elle pourrait les atteindre, d’après la progression enregistrée entre 2022 à 2024 (cette année-là, la France en comptait 532 ; l’UE, 2257).

Autre objectif à valeur absolue : avoir 1 ordinateur ou simulateur quantique opérationnel. Il a été atteint en 2024. L’UE table, au rythme actuel, sur 5 machines à l’horizon 2030.

Ce pourrait être plus juste concernant le nombre de licornes. L’UE y range les entreprises créées après le 31 décembre 1990 et qui ont fait l’objet d’une introduction en Bourse ou d’une vente commerciale > 1 Md$. Ainsi que celles valorisées > 1 Md$ lors de leur dernier cycle de financement de capital-risque privé. En 2023, la France en comptait 48. L’UE, 286. Elle est partie pour atteindre les 412 (l’objectif étant de 500) si on extrapole l’historique 2008-2024.

Cloud, IA, analytics : trois options pour un objectif

Les choses sont également incertaines pour l’objectif de 75 % d’entreprises utilisant le cloud, l’IA ou l’analyse de données. La France vise moins haut, cherchant à atteindre les 65 %. Elle en était à 44,9 % en 2023.

Par « utiliser le cloud », il faut entendre au moins un service entre logiciels de finance/compta, ERP, CRM, solutions de sécurité, hébergement de bases de données et environnements de développement, test ou déploiement d’applications. En 2023, la France en était à 23 %.
D’après les données 2014-2023, 64 % des entreprises de l’UE seraient dans les clous en 2030.

La catégorie « IA » comprend text mining, reconnaissance vocale, génération de langage naturel, traitement d’images, machine learning pour l’analyse de données, automatisation de processus et systèmes robotisés. En 2024, la France en était à 10 %, contre 13,5 % pour l’UE.
D’après les données 2021-2024, le taux de pénétration dans l’UE atteindrait 36 % en 2030.

L’aspect data analytics a remplacé le big data, inscrit dans les objectifs initiaux. En 2023, il était installé dans 34 % des entreprises en France.
Selon les données 2016-2023, il le serait dans 50 % des entreprises de l’UE à l’horizon 2030.
Pour le moment, les données du secteur public font partie des sources les moins exploitées. Elles le sont en l’occurrence par 6 % des entreprises pratiquant le data analytics, quand 21 % exploitent celles relatives aux transactions commerciales et 14 % celles qui concernent les clients.

Digitalisation des PME : la France en retrait sur plusieurs dimensions

L’UE s’est aussi donné un objectif de 90 % de PME (10-249 salariés) ayant un niveau minimum d’intensité numérique. C’est-à-dire utilisant au moins 4 des 12 technologies de (cf. notre article à ce sujet). En 2024, la France affichait un taux de 68,5 %, contre 73 % pour l’UE. Laquelle n’atteindrait cependant pas son objectif, d’après les projections à partir des données 2021-2024.

Quelques chiffres sur la digitalisation des PME :

  • Utilisation d’ERP : 46 % en France, 42 % dans l’UE (2023)
  • Utilisation d’au moins deux « médias sociaux » (réseaux sociaux, (micro)blogs, wikis…) : 28 % en France, 31 % dans l’UE (2023)
  • Exploitation des services cloud susmentionnés : 22 % en France, 38 % dans l’UE (2023)
  • Recours à l’IA telle que susdéfinie : 9 % en France, 13 % dans l’UE (2024)
  • Usage de la facturation électronique : 30 % en France, 39 % dans l’UE (2024)

Les démarches administratives, moins numérisées qu’à l’échelle de l’UE

Il paraît difficile d’atteindre l’objectif de 100 % des démarches administratives réalisables en ligne, mais l’UE semble pouvoir s’en rapprocher. Autant pour celles qui concernent les « grands événements de la vie » (famille, carrière, études, santé, transport, déménagement, règlement de petits litiges) que pour celles qui touchent à la création et à la gestion d’entreprise.

Pour les premières, la France en était à 71 % en 2024. L’UE en était à 82 % et pourrait, sur la base 2013-2024, atteindre les 92 % en 2030.
Pour les secondes, la France en était à 77 %. L’UE, à 86 %, avec une dynamique qui pourrait permettre d’atteindre 93 % (historique 2013-2024).

Illustration générée par IA

The post Décennie numérique : la France en avance sur les infrastructures, moins sur les usages appeared first on Silicon.fr.

  •  

Décennie numérique : ce que l’UE mesure quand elle parle de digitalisation des entreprises

La « digitalisation des entreprises », c’est quoi au juste ?

Depuis 2015, Eurostat compile un indicateur composite dit « index d’intensité numérique ». L’Union européenne l’exploite dans le cadre de son programme d’action pour la décennie numérique.

Ce programme fut formellement établi en décembre 2022. Il définit des objectifs de transformation numérique à l’horizon 2030, dans 4 domaines : connectivité, compétences numériques, digitalisation des entreprises, digitalisation des services publics.

Le mécanisme de suivi de la progression des États membres se fonde sur une quinzaine de KPI. Dont le pourcentage de PME utilisant au moins 4 des 12 technologies qu’englobe l’index d’Eurostat.

L’UE ne liste pas ces technologies et pour cause : d’année en année, la composition de l’index évolue. La dernière incarnation comprend :

Au moins 50 % des employés ont accès à Internet pour un usage professionnel
Connexion Internet à au moins 30 Mbit/s descendants
Au moins 1 % du CA en e-commerce
Au moins 1 % des ventes réalisées sur le web avec au moins 10 % en B2C
Achat de services cloud
Achat de services cloud « sophistiqués » ou « intermédiaires »
Avoir un site web
Utiliser au moins un réseau social
Faire de l’analyse de données, y compris via un prestataire externe
Utiliser au moins une technologie d’IA
Utiliser un ERP
Utiliser un CRM

Chaque dimension a ses spécificités. Pour le e-commerce, par exemple, on tient compte des achats avec paiement hors ligne. Comme « technologie d’IA », on entend autant les chatbots de service client que le big data à base de machine learning, entre autres.

La sécurité informatique est sortie du radar

Entre 2015 et 2025, les trois premiers sous-indicateurs (accès à Internet, bande passante, e-commence) n’ont pas changé.

Le critère « 1 % de ventes sur le web et au moins 10 % en B2C » n’entrait pas dans l’index en 2018 et 2020. À la place était la pratique du big data sur des données internes ou externes.

Le critère « achat de services cloud » n’a pas toujours été présent, en tout cas sous cette forme. De 2015 à 2020, Eurostat a mesuré le taux d’entreprises fournissant des « appareils portables à connexion Internet mobile » (précision en 2018 et 2019 : réseau cellulaire) à au moins 20 % de leurs employés. En 2022 et 2024, il s’est intéressé à celles qui documentaient leurs mesures, pratiques ou procédures de sécurité informatique.

De 2015 à 2018, ainsi qu’en 2020, le sixième sous-indicateur n’était pas l’achat de services cloud « sophistiqués » ou « intermédiaires », mais le fait d’avoir un site web proposant au moins une des fonctionnalités suivantes :

  • Description de biens et de services
  • Affichage de prix
  • Possibilité pour le visiteur de personnaliser ou de concevoir des biens et services
  • Suivi de commandes
  • Personnalisation du contenu du site pour les visiteurs réguliers

En 2019, 2022 et 2024, pour ce même sous-indicateur, Eurostat a mesuré le taux d’entreprises informant les employés de leurs obligations en matière de sécurité informatique.

À la place du critère « avoir un site web », il y eut, en 2019, 2022 et 2024, « recourir à au moins 3 mesures de sécurité informatique ». En 2021 et 2023, « utiliser au moins deux réseaux sociaux ».

Quand l’IoT, l’impression 3D, la robotique et la pub en ligne étaient des critères

En 2018, il ne s’agissait pas d’utiliser au moins un réseau social, mais d’avoir un site ayant des liens ou des références aux profils sociaux de l’entreprise. En 2020, il s’agissait d’utiliser l’impression 3D. Et en 2022 et 2024, de dispenser au personnel des formations en informatique.

Historiquement, le neuvième sous-indicateur a souvent porté sur l’emploi de spécialistes des TIC (2017, 2018, 2020, 2022, 2024). En 2015 et 2016 aussi, mais avec une option de plus : recourir à des fonctions TIC réalisées principalement par des prestataires externes. En 2019, il fallait utiliser les réseaux sociaux à au moins deux fins. Et en 2021, utiliser l’IoT.

Le sous-indicateur « utiliser au moins une technologie d’IA » est tout nouveau. En 2015 et 2017, Eurostat s’était penché sur les entreprises qui partageaient des données « relatives à la gestion de la supply chain » par voie électronique avec clients ou fournisseurs. En 2016 et 2018, à celles qui achetaient de la pub sur Internet. Et en 2019, à celles qui réalisent des ventes en ligne dans d’autres pays de l’UE. En 2020 et 2022, les entreprises étaient évaluées sur leur utilisation de robots industriels ou de service.

La facturation électronique, indicateur pendant un temps

« Utiliser un ERP » a été présent par intermittence. En 2016, il fallait pratiquer la facturation électronique. En 2018 et 2020, acheter des services cloud de niveau « intermédiaire ou élevé » (« medium-high »). Les versions 2022 et 2024 analysaient la fourniture, aux employés, d’un accès distant à la messagerie électronique, aux documents ou aux applications.

Même présence par intermittence pour « utiliser un CRM ». En 2016, ce sous-indicateur était réservé aux services cloud medium-high. En 2018 et 2020, à la facturation électronique. Eurostat a aussi examiné l’organisation de réunions en ligne, en 2022 et 2024.

Illustration générée par IA

The post Décennie numérique : ce que l’UE mesure quand elle parle de digitalisation des entreprises appeared first on Silicon.fr.

  •  

De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM

A=B donc B=A ? Pour les LLM, ça ne coule pas de source.

En 2023, nous nous étions fait l’écho d’une étude à ce sujet. Laquelle démontrait, dans les grandes lignes, que les modèles auxquels on n’avait pas appris une relation d’équivalence « dans les deux sens » (« A=B » et « B=A ») avaient du mal à la déduire.

Ce phénomène, dit reversal curse (littéralement, « malédiction de l’inversion »), figure dans une taxonomie que proposent trois universitaires américains. Ils y synthétisent l’état de la recherche sur les erreurs de raisonnement des LLM.

Leur ontologie distingue le raisonnement « incarné » (embodied, dépendant d’interactions avec des environnements physiques) et « non incarné » (qui met en jeu des processus cognitifs n’exigeant pas ces interactions). Dans le « non incarné », elle sépare raisonnement formel (qui implique la manipulation de symboles sur la base de règles) et informel (qui relève du jugement intuitif).

Les erreurs sont réparties en trois catégories :

  • Fondamentales (intrinsèques aux architectures et à l’entraînement des modèles)
  • Spécifiques à des applications
  • De robustesse (sensibilité à des variations mineures)

Face aux limites cognitives, imiter l’attention humaine

En matière de raisonnement informel, les erreurs peuvent découler d’un manque d’aptitudes cognitives. Les limites de la mémoire de travail en font partie (notamment le fait qu’une information ancienne peut perturber l’acquisition d’une nouvelle). Le contrôle inhibiteur aussi. Les LLM n’ont pas tous cette faculté à contenir une réaction impulsive. En tout cas au sens où peu importe l’évolution du contexte, ils s’en tiennent souvent à des patterns appris. Dans le même esprit, ils peuvent manquer de flexibilité cognitive. En d’autres termes, d’une capacité à s’adapter à de nouvelles règles et/ou à basculer efficacement entre des tâches. Le raisonnement abstrait – capacité à reconnaître des motifs dans des concepts – peut aussi leur faire défaut (déduction de règles à partir d’exemples, gestion des abstractions temporelles…).

Tous ces éléments se manifestent par des problèmes de robustesse. Ils découlent de limites d’architecture et d’entraînement : dispersion de l’attention, prédiction de tokens qui privilégie les statistiques au raisonnement, etc. S’y ajoute, pour les LLM entraînés exclusivement sur du texte, un manque d’ancrage avec le monde physique et social. Parmi les solutions explorées : insertion des chaînes de pensée dans les prompts, enrichissement de la récupération, fine-tuning avec injection d’interférences et mécanismes imitant l’attention humaine.

Des personnalités pour atténuer les biais

Au-delà du manque d’aptitudes cognitives, il y a les biais. Le contenu de l’information joue. Les LLM tendent à favoriser celle alignée sur leurs croyances ou sur le contexte précédent (reflet du biais de confirmation). Ils se révèlent également sensibles aux biais d’attribution et de négativité. Qui priorisent respectivement le contenu « populaire » et les inputs négatifs.

La présentation de l’information influe aussi. Le biais d’ordre n’épargne effectivement pas les LLM, comme le biais d’ancrage (les données présentées en premier influencent démesurément le raisonnement). S’y ajoute l’effet de cadrage (des prompts équivalents d’un point de vue logique mais formulés différemment produisent des résultats différents).La perspective narrative a également un certain poids.

Au sein de la taxonomie proposée, les erreurs relevant de biais cognitifs sont de l’ordre du fondamental. Résultant des architectures et de l’entraînement/alignement, elles se manifestent par des problèmes de robustesse. Parmi les solutions étudiées : entraînement antagoniste, filtrage des outputs et attribution de personnalités aux modèles.

La difficile acquisition des « soft skills »

Certaines erreurs de raisonnement cognitif ne se manifestent que dans des contextes sociaux spécifiques. Les LLM ne parviennent pas toujours à comprendre les normes sociales et l’état d’esprit d’autrui.

Sur ce dernier point, les difficultés tiennent autant à la compréhension des perceptions qu’à la prédiction des croyances. Le raisonnement que les modèles ont à ce propos apparaît d’autant plus fragile que des modifications mineures dans la formulation d’une tâche suffisent à le perturber. C’est sans compter les déficits sur le plan émotionnel, avec une tendance aux biais d’affect et une compréhension limitée des variations culturelles.

Sur le volet des normes sociales, il arrive que les LLM produisent des jugements contradictoires d’un point de vue éthique. Là aussi, ils se révèlent sensibles à la formulation des tâches, y compris en fonction des langues. Le fine-tuning a tendance à exacerber cette sensibilité.

Dans l’un et l’autre cas, on est sur des limites spécifiques à des applications (tâches relevant de la sûreté et de la confidentialité, en particulier). Elles se traduisent par des problèmes de robustesse – en première ligne, les risques de manipulation. Fine-tuning et apprentissage par renforcement ne constituent souvent des solutions que pour des contextes simples.

Dans les systèmes agentiques, des palliatifs durs à généraliser

Des limites, les LLM en ont aussi au niveau du raisonnement social explicite. Elles se manifestent dans les systèmes de planification agentique. Tendant à trop s’appuyer sur des informations locales ou récentes, les modèles peuvent échouer à développer des stratégies coordonnées sur le long terme.

Ces limites tiennent à la fois à leurs capacités individuelles et à la conception des systèmes agentiques. Ils se manifestent souvent par des problèmes de robustesse. Et sont accentués par les faiblesses de raisonnement social implicite comme par le manque d’aptitudes cognitives.

Parmi les solutions explorées, il y a l’enrichissement des représentations internes (suivi des croyances, validation des hypothèses). Il y a aussi des protocoles de communication avec vérification obligatoire et des agents qui « challengent » les outputs contestables. Toutes ces approches sont néanmoins difficiles à généraliser. L’ingénierie de contexte apparaît comme une méthode alternative plus robuste dans les systèmes agentiques.

Les graphes pour donner des chemins de raisonnement

En matière de raisonnement logique formel, le reversal curse est essentiellement attribué aux objectifs d’entraînement unidirectionnels des modèles transformeurs. Ils induisent en effet un asymétrie structurelle dans les poids. La principale solution explorée dans la littérature scientifique consiste à « augmenter » les données d’entraînement – entre autres par inversion syntaxique de faits et permutation d’unités sémantiques – pour restaurer une symétrie.

La raisonnement compositionnel (combinaison de connaissances) pose aussi des problèmes. On les doit aux incapacités de planification holistique et aux limites de pensée profonde. En guise de solution, outre le prompting à base de chaînes de pensée, est exploré l’entraînement à base de « chemins de raisonnement » structurés en graphes.

La syntaxe peut tout changer

L’exploitation des structures logiques implicites contenues dans les benchmarks peut révéler des problèmes de robustesse. Ce fut l’objet d’études qui ont introduit des modifications préservant la sémantique, comme changer l’ordre des réponses dans un QCM, réorganiser des prémisses ou éditer des éléments secondaires (noms de personnages, par exemple).

Ces transformations structurelles ont été appliquées aux problèmes de mathématiques comme aux benchmarks de code (édition syntaxique de docstrings, renommage de fonctions et de variables, altération de la logique de contrôle de flux…). Pour pallier les limites qu’elles ont fait ressortir, la principale solution consiste à appliquer des perturbations pour diversifier les données d’entraînement. Une technique toutefois difficile à généraliser.

Dans le domaine de l’arithmétique, les limites tiennent beaucoup à l’architecture des modèles (encodage positionnel, tokenisation…). La précision numérique limitée n’aide pas. Comme la tendance à l’usage du raisonnement heuristique (pattern matching).

Une des solutions explorées passe par des jeux de données plus précis, détaillant les étapes de traitement. Une autre imite les stratégies de calcul humaines, par exemple en focalisant l’attention sur le chiffre des unités dans le cadre des multiplications.

Le défi de l’ancrage dans le monde réel

Quantité d’analyses ont démontré le manque de bon sens des LLM sur la physique du monde réel : lois fondamentales, attributs des objets, relations spatiales… Il en résulte des erreurs fondamentales.
Même lorsqu’ils ont les compétences, les modèles échouent souvent à les appliquer à des domaines concrets. On tombe là dans les limites spécifiques à des applications.

Le fine-tuning sur des corpus qui encodent explicitement des connaissances de la physique du monde réel est une solution. L’insertion des chaînes de pensée dans les prompts en est une autre, destinée à stimuler la découverte de relations causales et spatiales plus nuancées. Piste alternative : le recours à des outils externes, tels des simulateurs.

Le manque de « bon sens physique » se reporte sur l’analyse d’images statiques, et plus encore d’environnements 3D. Les LLM ont souvent du mal à dénombrer les objets, décrire leurs relations spatiales et à détecter des anomalies. Ils ont globalement tendance à s’appuyer démesurément sur les données textuelles de leur corpus d’entraînement et sur les scénarios communs qu’ils y ont détectés. On touche là à des problèmes de robustesse, en plus de ceux spécifiques à des applications.
Les solutions étudiées incluent la modification des données d’entraînement pour réduire le biais vers le texte, les mécanismes d’attention à ancrage spatial et l’apprentissage par renforcement pour inculquer ce fameux « bon sens ».

À l’échelle des systèmes agentiques, les plans d’action comprennent parfois des actions impossibles du point de vue de la physique. On tombe là dans des erreurs fondamentales, découlant notamment d’un déficit d’affordance (raisonnement sur ce qui peut arriver à des objets).

Illustration © maylim – Adobe Stock

The post De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM appeared first on Silicon.fr.

  •  

IaaS, inférence, bureautique… Microsoft rend son cloud un peu plus « local »

Pas de VM à lancement fiable, de GPU sur AKS, d’actions de remédiation avec le moteur de politiques… En mode déconnecté, Azure Local a des limites fonctionnelles.

Pour autant, ce mode vient de passer en disponibilité générale. Il complète celui dit à « connectivité limitée », qui n’impose pas l’hébergement du plan de contrôle en local et qui envoie certaines données vers le cloud, à commencer par les logs.

En mode déconnecté, Azure Local permet pour le moment de créer des VM Windows (10 Enterprise ; Server 2022/2025) et Linux (Ubuntu 22.04/24.04 LTS). La gestion des clusters Kubernetes vanilla et AKS est en preview. Comme les VM à lancement fiable (secure boot, vTPM et attestation).

Le cluster de management doit comprendre au moins 3 nœuds physiques. Chacun avec 96 Go de RAM, 24 cœurs physiques et 2 To NVMe. Certaines opérations ne peuvent être effectuées sur le portail Azure, comme la création d’interfaces réseau et de clés SSH (pour AKS). On ne peut pas forcer la synchronisation des identités, réalisée toutes les 15 minutes.

Microsoft 365 adapté à Azure Local

Autre offre qui passe en disponibilité générale : Microsoft 365 Local. Elle permet de déployer Exchange Server, SharePoint Server et Skype for Business Server (Subscription Edition) sur des architectures de référence Azure Local. Impératif : utiliser du matériel certifié Premier (une vingtaine de configurations disponibles : du Dell AX et APEX, du Lenovo ThinkAgile et du HPE ProLiant).

Microsoft s’est engagé à supporter les trois produits au moins jusqu’à fin 2035.

Catalogue enrichi pour Foundry Local

Foundry Local reste en preview, mais accueille de plus gros modèles à son catalogue.

Cette version locale de Microsoft Foundry (ex-Azure AI Foundry) est installable sur Windows 10 (x64), Windows 11 (x64/Arm), Windows Server 2025 et macOS (Apple Silicon). Elle donne accès à une API et un serveur REST, un SDK (C#, Python, JavaScript) et un runtime ONNX. L’inférence est locale, mais le réseau peut être utilisé pour télécharger modèles et composants, et éventuellement partager des logs.

Pour le moment, l’API ne fonctionne qu’en mode chat/completions – le SDK permettant d’exploiter les modèles de reconnaissance vocale Whisper. Pensé pour un fonctionnement mononœud, Foundry Local ne gère ni l’autoscaling, ni la concurrence (le parallélisme est à contrôler au niveau applicatif), ni le batching continu. Quant à catalogue, avec 25 modèles, on est encore loin des plus de 8000 proposés sur la version cloud de Foundry.

Les 25 modèles disponibles

Modèle Taille Licence Variantes
Phi-3-mini-4k-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN, Vitis)
Phi-3-mini-128k-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN, Vitis)
Phi-3.5-mini-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN)
Phi-4-mini-instruct 3,6 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO)
NPU (OpenVINO, Vitis)
Phi-4-mini-reasoning 3,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO)
NPU (OpenVINO, Vitis)
Phi-4 8,4 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Phi-4-reasoning 8,4 Go MIT CPU
GPU (CUDA, WebGPU)
DeepSeek-R1-Distill-Qwen-1.5B 1,4 Go MIT GPU (TensorRT)
DeepSeek-R1-Distill-Qwen-7B 5,3 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
DeepSeek-R1-Distill-Qwen-14B 9,8 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN)
Qwen2.5-0.5B-Instruct 0,5 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-Coder-0.5B-Instruct 0,5 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-1.5B-Instruct 1,3 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, QNN)
Qwen2.5-Coder-1.5B-Instruct 1,3 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-7B-Instruct 4,7 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (Vitis)
Qwen2.5-Coder-7B-Instruct 4,7 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-14B-Instruct 8,8 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Qwen2.5-Coder-14B-Instruct 8,8 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Mistral-7B-Instruct-v0.2 4,3 Go Apache 2.0 GPU (OpenVINO)
NPU (OpenVINO, Vitis)
gpt-oss-20b 9,7 Go Apache 2.0 CPU
GPU (CUDA)

Illustration © Greentech – Adobe Stock

The post IaaS, inférence, bureautique… Microsoft rend son cloud un peu plus « local » appeared first on Silicon.fr.

  •  

Claude Code, la fin des mainframes ? IBM crie à l’amalgame

Les mainframes, c’est un peu comme l’iPhone.

Sans l’exprimer ainsi, IBM a tout de même fait le rapprochement, en réaction à un emballement boursier qui lui a été défavorable.

Vendredi 20 février, le titre avait clos à environ 257 $. Lundi 23, la tendance baissière constatée depuis l’ouverture s’est subitement accélérée à la mi-journée. À la fermeture, l’action avoisinait les 225 $. Son cours avait donc chuté de près de 15 %.

L’élément déclencheur fut probablement un post d’Anthropic, sur le blog consacré à ses LLM Claude. Sujet : comment l’IA « aide à passer outre la barrière du coût pour la modernisation cobol ».

Ce que dit le post d’Anthropic

Le contexte est posé d’une façon simple, pas nouvelle : de moins en moins de personnes compétentes dans ce langage, du code mal documenté qui a évolué sur des décennies… et donc d’autant plus de difficulté à moderniser. Là interviennent « des outils comme Claude Code ». Ils automatisent les phases d’exploration et d’analyse, qui « représentent l’essentiel des efforts » de modernisation.

Avec eux, « plus besoin d’une armée de consultants », ajoute Anthropic. Ils vont au-delà des graphes d’appels pour découvrir des dépendances implicites qu’une analyse statique ne révèle pas : structures de données partagées, opérations qui créent du couplage entre modules, séquences d’initialisation qui affectent l’exécution, etc.

L’IA documente aussi les workflows, identifie les risques et suggère une feuille de route, poursuit Anthropic. L’humain apporte sa connaissance des exigences réglementaires, des priorités métiers, des contraintes opérationnelles (exigences de standardisation, d’intégration…) et des degrés de tolérance auxdits risques. Il décide aussi si les tests fonctionnels suggérés suffisent, quels scénarios nécessitent une validation par des experts et quels critères de performance le code modernisé doit respecter.

La démarche est validée par étapes, sans changements massifs qui exigeraient de revenir sur des semaines de travail, conclut Anthropic.

Pourquoi IBM dénonce un amalgame

IBM ne s’en prend pas tant à ce post qu’à l’interprétation que le marché semble en avoir faite.

Traduire du code est une chose ; moderniser une plate-forme en est une autre, affirme-t-il. La valeur des mainframes réside dans leur architecture, du silicium à l’OS. De là, le défi de modernisation n’est pas un problème de conversion de langage. Le vrai travail, c’est l’ingénierie système : reconception de l’architecture data, remplacement du runtime, maintien de l’intégrité du traitement des transactions, respect des exigences non fonctionnelles embarquées.

Un simple refactoring de code ne suffit pas à répliquer des décennies d’intégration étroite entre logiciel et matériel, poursuit Big Blue. C’est là qu’il fait l’analogie avec l’iPhone.

Son propos touche aussi à un aspect qu’Anthropic n’aborde pas – tout du moins explicitement -, mais que le marché a dans son radar : comment une solution full SaaS pourrait-elle remplacer des applications mainframe ? Cela paraît difficile vu l’ampleur des dépendances on-prem, estime IBM, qui brandit de surcroît l’argument de la souveraineté et de la résidence des données.

Partant, la conversion du cobol ne serait pas un sujet de mainframes. Environ 40 % de ce code fonctionne sur Windows, Linux et d’autres systèmes distribués, avance IBM. On évitera donc l’amalgame…

Illustration générée par IA

The post Claude Code, la fin des mainframes ? IBM crie à l’amalgame appeared first on Silicon.fr.

  •  

Kiro, l’IA d’Amazon, a cassé AWS : ce qu’on en sait

Erreur humaine ou pas, toujours est-il qu’une IA, héritant des privilèges d’un ingénieur, a supprimé un environnement de production.

Une partie des commentaires sur « l’affaire Kiro » convergent en ce constat.

Amazon n’avait initialement pas communiqué à propos de l’incident, survenu mi-décembre. Il a fini par le faire la semaine dernière… après que le Financial Times l’eut révélé.

Ce qu’affirme le Financial Times

S’en référant à des employés d’Amazon, le FT déclare qu’AWS a subi, « ces derniers mois », au moins deux pannes en production dues à des erreurs impliquant ses propres outils d’IA. Il ne date pas l’une d’entre elles, qui aurait, toujours selon des employés, impliqué l’assistant Amazon Q Developer.

Celle de mi-décembre a entraîné 13 heures d’indisponibilité pour un « système utilisé par les clients ». La conséquence de modifications effectuées par l’assistant Kiro, qui avait choisi de supprimer puis de recréer un environnement.

Autre propos prêté à des employés : traités comme une « extension » des ingénieurs, les outils IA avaient les mêmes permissions. Dans l’un et l’autre cas, les personnes impliquées n’ont pas sollicité de validation des changements par un pair.

Le FT attribue certains propos directement à Amazon. D’après ce dernier, l’incident de décembre a été « extrêmement limité » : un seul service affecté, dans certaines zones de Chine continentale. Quant à l’autre incident, il n’a pas eu d’impact sur des services exposés aux clients.

Autre déclaration attribuée au groupe américain : dans les deux cas, il s’agissait d’une erreur humaine. Plus précisément un problème de contrôle d’accès : l’ingé impliqué dans l’incident de décembre avait plus de permissions qu’il n’aurait dû. Le même problème aurait pu se produire avec tout outil – doté ou non d’IA – ou toute action manuelle.

Ce que rétorque Amazon

Concernant le prétendu incident avec Amazon Q Developer, le groupe américain est catégorique : « Il est complètement faux de dire qu’un deuxième événement a impacté AWS ».

Celui de décembre a touché l’explorateur de coûts AWS (Cost Explorer), dans une de ses 39 régions cloud. Amazon juge ce périmètre « extrêmement limité » et précise n’avoir reçu aucune demande client.

L’entreprise confirme le scénario des contrôles d’accès mal configurés. C’est « une coïncidence » que des outils d’IA aient été impliqués, clame-t-elle. Et d’ajouter avoir implémenté des garde-fous « pour que cela ne se reproduise pas ». Parmi eux, une révision systématique par les pairs pour les accès en prod.

Une « directive Kiro » qui ne fait pas l’unanimité

En complément à ces éléments, un porte-parole a expliqué que l’erreur humaine n’était pas la validation de l’action par l’ingénieur, mais le fait que ce dernier n’avait pas compris quel était son niveau de privilèges. Sous-entendu : il aurait probablement agi différemment s’il avait su.

Amazon assure que par défaut, Kiro demande une validation pour chaque action qu’il souhaite effectuer. Il ne dit en revanche rien de la façon dont l’assistant a proposé de supprimer l’environnement en question. A-t-il été explicite ? Dans la négative, l’ingénieur s’est-il renseigné davantage avant de valider ?…

En toile de fond, une directive interne de novembre 2025 par laquelle Amazon pousse ses équipes à standardiser sur Kiro. Une démarche entreprise tant au nom d’une sécurité renforcée (limitation des risques de fuites de données, notamment) que d’une télémétrie unifiée.

L’initiative a suscité des remous. Plus d’un millier d’employés ont demandé de pouvoir conserver un accès à des outils, dont Claude Code. Motif : ils sont plus performants que Kiro sur des cas d’usage comme le refactoring multilangage et la gestion de certains frameworks « de niche ».

Illustration générée par IA

The post Kiro, l’IA d’Amazon, a cassé AWS : ce qu’on en sait appeared first on Silicon.fr.

  •  

Les hébergeurs commencent à répercuter les coûts de la RAM et des SSD

Vu les prix actuels de la RAM et des disques NVMe, comment éviter des tarifs dissuasifs sur les nouvelles gammes de serveurs ?

OVHcloud a choisi de « diluer » les coûts en les répercutant en partie sur des machines d’anciennes générations. Il a commencé à en avertir les clients concernés, avec une date à retenir : le 1er avril 2026.

À cette même échéance, les prix augmenteront chez Hetzner. Là aussi, la hausse touchera des serveurs existants. L’hébergeur allemand affirme que la démarche est devenue nécessaire autant au regard des coûts du matériel que de l’exploitation de son infrastructure (le prix de l’électricité en Allemagne reste parmi les plus élevés d’Europe). Au contraire d’OVHcloud, il a publié sa future grille tarifaire. En voici une synthèse, focalisée sur les prix horaires – l’augmentation est du même ordre pour les tarifs mensuels.

Autour de 30 % d’augmentation pour les serveurs cloud

Hetzner est présent dans deux datacenters en Allemagne (Falkenstein, en Saxe ; Nuremberg, en Bavière), un en Finlande (Helsinki), deux aux États-Unis (Ashburn, en Virginie ; Hillsboro, dans l’Oregon) et un à Singapour.

En Allemagne et en Finlande, la hausse va de 30 à 35 % pour les serveurs cloud (familles CAX, CCX, CPX et CX) et de 36 à 39 % pour les load balancers. Le stockage objet de base prend 28 % ; les extensions, 30 %.

Aux États-Unis et à Singapour, on est autour de + 30 % pour les CCX, 30 à 33 % pour les CPX et 36 à 39 % pour les load balancers.

Dans tous ces emplacements, le prix des volumes et des instantanés augmente de 30 %.

De 3 à 30 % pour les serveurs dédiés

Pour les serveurs dédiés hébergés en Allemagne :

Serveurs AX DX EX GEX SX
Fourchette d’augmentation 3 à 31 % 16 à 17 % 12 à 15 % 16 % 5 à 17 %

Pour ceux hébergés en Finlande :

Serveurs AX DX EX SX
Fourchette d’augmentation 3 à 18 % 16 à 17 % 13 à 16 % 15 à 17 %

En Allemagne comme en Finlande, Hetzner applique une hausse de 3 % aux serveurs mis aux enchères (adjudication à la hollandaise, où le prix baisse progressivement).

Serveurs dédiés Hetzner : quelles configurations pour quels prix ?

Pour les serveurs dédiés, nous nous intéressons au prix mensuel, en euros HT, pour le moins cher et le plus cher de chaque famille. Une exception est faite pour l’EX130-R/S, actuellement introuvable dans le comparateur de prix de Hetzner.

Serveur Config de base Ancien prix Nouveau prix Différence
AX41-NVMe Ryzen 5 3600 (Zen2, 6 cœurs, 12 threads, 3,6 GHz)
64 Go DDR4
2 x 512 Go NVMe
41,10 42,30 + 2,9 %
AX162-R/S Version S : EPYC 9454P (Zen4, 48 cœurs, 96 threads, 2,75 GHz)
256 Go DDR5 ECC
2 x 1,92 To NVMe Gen4Version R : même CPU, 128 Go DDR5 ECC, 2 x 3,84 To NVME Gen4
207,30 242,30 + 16,9 %
DX153 Xeon Silver4410Y (Sapphire Rapids, 12 cœurs, 48 threads, 2 GHz)
64 Go DDR5 ECC
215,60 250,60 + 16,2 %
DX293 Xeon Gold 6438Y+ (Sapphire Rapids, 32 cœurs, 128 threads, 2 GHz)
64 Go DDR5 ECC
305,60 355,60 + 16,4 %
EX44 Core i5-13500 (Raptor Lake-S, 14 cœurs, 20 threads, 2,5 GHz)
64 Go DDR4
2 x 512 Go NVMe Gen4
42,30 47,30 + 18,2 %
GEX44 Core i5-13500 (Raptor Lake-S, 14 cœurs, 20 threads, 2,5 GHz)
64 Go DDR4
2 x 1,92 To NVMe Gen3
RTX 4000 SFF
182,30 212,30 + 16,5 %
GEX131 Xeon Gold 5412U (Sapphire Rapids-SP, 24 cœurs, 48 threads, 2,1 GHz)
256 Go DDR5 ECC
2 x 960 Go NVMe
RTX PRO 6000 Blackwell Max-Q
887,39 1029,30 + 16 %
SX65 Ryzen 7 3700X (Zen2, 8 cœurs, 16 threads, 3,6 GHz)
64 Go DDR4 ECC
4 x 22 To HDD
2 x 1 To NVMe
107,30 122,30 + 14 %
SX295 EPYC 7502P (Zen2, 32 cœurs, 64 threads, 2 GHz)
256 Go DDR4 ECC
14 x 22 To HDD
2 x 8 To NVMe
397,30 462,30 + 16,4 %

Les hausses en Finlande :

  • AX41-NVMe : + 3,1 % (de 35,60 à 36,70 €)
  • AX162-R : + 15,2 % (de 197,30 à 227,30 €)
  • DX153 : + 17 % (de 205,60 à 240,60 €)
  • DX293 : + 16,9 % (de 295,60 à 345,60 €)
  • EX44 : + 13,4 % (de 37,30 à 42,30 €)
  • EX130-R/S : + 15,1 % (de 132,30 à 152,30 €)
  • SX65 : + 14,7 % (de 102,30 à 117,30 €)
  • SX295 : + 15,7 % (de 382,30 à 442,30 €)

La nouvelle tarification des serveurs cloud Hetzner

Pour ces serveurs, nous avons retenu le prix horaire, toujours en euros HT.

Serveur Config de base Ancien prix Nouveau prix Différence
CAX11 2vCPU (Ampere)
4 Go RAM
40 Go SSD
0,0053 0,0072 + 35,8 %
CAX41 16 vCPU (Ampere)
32 Go RAM
320 Go SSD
0,0384 0,0505 + 31,5 %
CCX13 2 vCPU (AMD)
8 Go RAM
80 Go SSD
0,0192 0,0256 + 33,3 %
CCX63 48 vCPU (AMD)
192 Go RAM
960 Go SSD
0,4615 0,6001 + 30 %
CPX22 2 vCPU (AMD)
4 Go RAM
80 Go SSD
0,0096 0,0128 + 33,3 %
CPX62 16 vCPU (AMD)
32 Go RAM
640 Go SSD
0,0617 0,0809 + 31,1 %
CPX23 2 vCPU (Intel/AMD)
4 Go RAM
40 Go SSD
0,0048 0,0064 + 33,3 %
CPX53 16 vCPU (Intel/AMD)
32 Go RAM
320 Go SSD
0,0272 0,0360 + 32,4 %
LB11 0,0088 0,012 + 36,4 %
LB31 0,0495 0,0689 + 39,2 %

Aux États-Unis :

  • CCX13 : + 30,1 % (de 0,0209 à 0,0272 €)
  • CCX63 : + 30 % (de 0,4808 à 0,625 €)
  • CPX11 : + 33,3 % (de 0,0072 à 0,0096 €)
  • CPX51 : + 29,9 % (de 0,0962 à 0,125 €)
  • LB11 : + 36,4 % (de 0,0088 à 0,012 €)
  • LB31 : +39,2 % (de 0,0495 à 0,0689 €)

À Singapour :

  • CCX13 : + 30,9 % (de 0,037 à 0,0441 €)
  • CCX63 : + 30,1 % (de 0,7724 à 1,0048 €)
  • CPX12 : + 33,3 % (de 0,096 à 0,0128 €)
  • CPX62 : + 30,5 % (de 0,1234 à 0,161 €)
  • LB11 : + 36,4 % (de 0,0088 à 0,012 €)
  • LB31 : + 39,2 % (de 0,0495 à 0,0689 €)

Illustration générée par IA

The post Les hébergeurs commencent à répercuter les coûts de la RAM et des SSD appeared first on Silicon.fr.

  •  

Face au coût de la RAM, OVHcloud fait contribuer ses anciens clients

Chez OVHcloud, les anciens clients vont payer pour les nouveaux.

« Un peu injuste », admet Octave Klaba. Mais c’est « la seule solution si on veut encore avoir un Cloud accessible dans les 2 ans à venir ».

Cette forme de « solidarité » semble devoir prendre effet au 1er avril 2026. L’entreprise n’a pas fait d’annonce officielle, mais elle mentionne généralement cette date dans les e-mails envoyés aux clients concernés.

OVHcloud avait prévenu… dans une certaine mesure

Le patron d’OVHcloud avait annoncé la couleur il y a quelques semaines. Produire un même serveur coûtera 15 à 35 % fin 2026 que fin 2025, anticipait-il alors. Dans ce contexte, le prix de certains produits Cloud (gammes Public Cloud, Private Cloud et Bare Metal) « [augmenterait] de 5 à 10 % » entre avril et septembre 2026 ; et cela « [pourrait] s’accélérer ».

Deux semaines plus tard, l’intéressé avait déclaré prévoir que les prix de la RAM et des disques NVMe atteindraient un pic vers juin 2026. On venait d’apprendre que Crucial quittait le marché grand public.

Début février, il avait livré de nouvelles prédictions. Après la demande américaine en fin 2025, c’était au tour de la demande chinoise de faire monter les prix de la RAM, expliquait-il. Sa prévision : à septembre 2026, + 500 % sur un an. En y ajoutant les disques NVMe, un PC coûterait alors deux fois plus cher.

Une hausse aussi appliquée à d’anciennes générations de serveurs…

Aux dernières nouvelles, Octave Klaba ne prédit plus qu’une augmentation de 250 à 300 % entre septembre 2025 et fin 2026. Surtout, il projette, à cette même échéance, un point d’équilibre entre offre et demande. Il estime cependant que les prix resteront élevés au moins jusqu’en 2028, le temps que de nouvelles capacités de production de mémoire voient le jour.

Face à cette situation, les prix dans la gamme Cloud allaient augmenter en moyenne de 9 à 11 % sur le matériel déployé en 2026-2028, annonçait le dirigeant en date du 20 février 2026. « Pour compenser », des machines mises en service entre 2021 et 2025 seraient également facturées plus cher : + 2 à + 6 % en fonction de l’ancienneté du hardware. Dans le même temps, OVHcloud ferait « évoluer légèrement » le prix des adresses IPv4. Les nouveaux tarifs entreraient en vigueur au 1er avril ou au 1er mai 2026. Mais ne s’appliqueraient qu’à la fin des périodes d’engagement.

… au nom de l’acceptabilité des nouvelles

« J’aurais dû dire ‘quelques euros ou 9/11%’ », a fini par reconnaître Octave Klaba en réponse à un client français s’étonnant de « [se] prendre plus de 50 % d’augmentation » pour un VPS souscrit fin 2025.

Il n’y a pas qu’en France que les prix des VPS flambent. Au Canada, par exemple, des témoignages font état de hausses dépassant les 50 %, voire se rapprochant des 100 %. Sur place, les IPv4 supplémentaires ont effectivement aussi augmenté, passant à 2,39 $ HT.

Hormis les VPS, l’augmentation touche les serveurs dédiés Advance 2024 et 2026, ainsi que Rise-S, M, L et XL. Pas les Kimsufi, les So you Start, ni les Rise-1, 2, 3 et 4.

Octave Klaba ne le cache pas : diluer ainsi les coûts sur plusieurs gammes, y compris de produits non orientés RAM, est censé « éviter que les clients trouvent le Cloud 2026-2028 trop cher ». Reste que plus d’un a du mal à digérer l’idée de subir une augmentation sur des serveurs dont les composants ont été acquis avant la flambée des prix et qui ont déjà été amortis.

Il y a 3 ans, c’était l’énergie

OVHcloud n’a pour le moment rien officialisé et n’a pas modifié ses tarifications publiques. Peut-être se laisse-t-il le temps de prendre la température.

La dernière hausse de prix d’une ampleur comparable dans la gamme Cloud était intervenue fin 2022. Elle fut imputée essentiellement au coût de l’énergie, d’autant plus qu’une partie des couvertures d’achat d’OVHcloud arrivaient à terme.

Au catalogue VPS, les serveurs Elite avaient pris 16 % ; les Value, 17 % ; les Comfort, 19 % ; les Starter, 20 % ; les Essential, 28 %.

Dans la famille Bare Metal, OVHcloud avait appliqué une hausse d’environ 10 % pour les serveurs Advance (sauf ADV-1), Scale (sauf Scale-7) et High Grade. En Bare Metal Eco, ce fut + 10 à + 12 % pour les Kimsufi (sauf KS-1), 10 à 11 % pour les So you Start et 10 % pour les Rise.

Sur la partie Public Cloud, les hausses allèrent de 4 à 10 % pour les serveurs à usage général comme pour ceux orientés RAM ; de 5 à 10 % pour ceux orientés CPU et de 9 à 10 % pour ceux orientés GPU.

Le stockage bloc avait pris 7 % ; le stockage objet, 10 % ; les snapshots et les backups, 13 %.

Quelques semaines plus tôt, les IPV4 supplémentaires étaient passées sur un modèle d’abonnement mensuel. Précédemment, il n’en coûtait que des frais de mise en service.

Illustration © OVHcloud

The post Face au coût de la RAM, OVHcloud fait contribuer ses anciens clients appeared first on Silicon.fr.

  •  

Pure Storage devient Everpure : ce qui change et pourquoi

En matière de décisions marketing malheureuses, il y eut le New Coke et il y aura bientôt Everpure.

Entre autres commentaires dubitatifs, le rebranding de Pure Storage en a inspiré un de cette teneur.

L’entreprise américaine n’a pas seulement changé de marque commerciale. Depuis le 23 février 2026, Everpure est sa nouvelle dénomination sociale. Un choix censé refléter l’évolution de son positionnement, de la gestion du stockage à la gestion des données.

Everpure

Le nouveau nom de domaine (everpuredata.com) redirige pour le moment vers l’ancien (purestorage.com). Ils vont coexister ces prochains mois, la transition se faisant « par phases ». Le rebranding s’appliquera aussi, entre autres, aux communautés, à la documentation, aux réseau sociaux… et aux badges de certification. En Bourse, Pure Storage deviendra Everpure le 5 mars 2026, mais conservera le symbole PSTG.

Catégorie Ancien nom Nouveau nom
Société Pure Storage Everpure
Produits Plateforme Pure Storage Plateforme Everpure
FlashArray, FlashBlade Pas de changement
Famille Pure//E Famille Everpure//E
Evergreen//One, Flex, Forever et Foundation Pas de changement
Pure Storage Cloud Everpure Cloud
Pure Protect Everpure Protect Service
Portworx by Pure Storage Portworx by Everpure
Data Stream Everpure Data Stream Services
Architecture Evergreen Pas de changement
Capacités-clés Purity Pas de changement
Fusion Pas de changement
Pure1 Pas de changement
Autres sous-marques
(Safemode, Active Cluster, etc.)
De manière générale, pas de changement ; utiliser la marque Everpure à la place de Pure Storage lorsque c’est applicable.

1touch, une première acquisition sous l’ère Everpure

Pure Storage / Everpure accompagne son discours data management d’un concept architectural : l’EDC (Enterprise Data Cloud). Introduit à l’été 2025, il unifie stockage bloc, fichier et objet* en une data fabric pilotée par logiciel. La plate-forme Everpure en constitue l’incarnation, avec des composantes telles que Fusion (orchestration), Pure1 (AIOps) et Portworx (gestion des conteneurs).

architecture EDC

Pour renforcer l’ensemble, un projet d’acquisition vient d’être annoncé – avec l’intention de le boucler d’ici à la fin du deuxième trimestre de l’exercice fiscal en cours, soit début août 2026. La cible : 1touch, qui a justement développé une plate-forme de data management. Anciennement appelé Inventa, le produit a pris le virage de l’IA et est devenu Kontxtual.

* Dans le dernier Magic Quadrant des « plates-formes de stockage d’entreprise », Pure Storage fait partie des « leaders » avec Dell, HPE, Huawei, IBM et NetApp. Gartner salue la qualité du support, la gestion de flotte… et la gestion bloc-fichier-objet unifiée en un pool virtualisé.

Illustration principale générée par IA

The post Pure Storage devient Everpure : ce qui change et pourquoi appeared first on Silicon.fr.

  •  

Data quality : sous le prisme de l’IA, une autre hiérarchie des fournisseurs

Dans le dernier Magic Quadrant de la data quality, ne cherchez pas SAS : il n’y a plus sa place.

L’éditeur américain figurait encore parmi les « leaders » fin 2022. Gartner l’avait rétrogradé chez les « challengers » début 2024, puis chez les « acteurs de niche » un an plus tard. Le voilà désormais hors classement. D’une part, faute de prendre suffisamment en charge les données non structurées. De l’autre, par le manque d’« augmentation » de certaines fonctionnalités dites « critiques ».

Dans cette catégorie, il y a notamment le profilage et la transformation de données, la création et la gestion de règles, la résolution de problèmes et le matching/linking/merging. Par « augmentation », il faut entendre, dans les grandes lignes, l’enrichissement à base d’algorithmes. Principalement à l’appui de techniques d’apprentissage supervisé, tout du moins dans les cas où entités et leurs relations sont bien identifiées.

Le Magic Quadrant 2025 de la data quality avait inauguré ce focus sur les solutions « augmentées ». En conséquence, les positions avaient évolué assez sensiblement. Quatre fournisseurs étaient sortis. Y compris SAP. Son offre Datasphere n’avait pas été jugée « autonome » parce qu’elle exigeait des composants supplémentaires pour couvrir pleinement les scénarios data quality.

13 fournisseurs, 5 « leaders »

Cette année, la hiérarchie des fournisseurs change moins nettement. SAS est le seul sortant, tandis qu’Acceldata (États-Unis) et Soda (Belgique) font leur entrée.

« Leaders » l’an dernier, Ataccama et Qlik le restent ; comme Informatica, qui appartient désormais à Salesforce. Avec eux, Ab Initio, qui rejoint ce cercle pour la première fois, et IBM, qui le retrouve après en être sorti en 2025.

L’axe « exécution » du Magic Quadrant de la data quality traduit la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation :

Rang Fournisseur Évolution annuelle
1 IBM + 2
2 Salesforce (Informatica) – 1
3 Qlik – 1
4 Ab Initio =
5 Ataccama =
6 Precisely =
7 Experian =
8 DQLabs + 2
9 Irion =
10 CluedIn + 1
11 Anomalo + 1
12 Soda nouvel entrant
13 Acceldata nouvel entrant

Sur l’axe « vision », qui reflète les stratégies (ventes, marketing, innovation…) :

Rang Fournisseur Évolution annuelle
1 Ataccama + 1
2 Salesforce (Informatica) – 1
3 Qlik =
4 IBM + 1
5 DQLabs – 1
6 Ab Initio =
7 Anomalo + 2
8 CluedIn =
9 Precisely – 2
10 Experian =
11 Irion + 1
12 Soda nouvel entrant
13 Acceldata nouvel entrant

Ab Initio, en retard sur les profils non techniques

Chez Ab Initio, l’offre évaluée se nomme DQE (Data Quality Environment). Elle est l’une des composantes d’une plate-forme data dont Gartner apprécie la portabilité entre environnements, favorisée par une option de déploiement conteneurisé. Dans le même ordre d’idée, le cabinet américain salue la possiblité de recompiler et de recibler des règles sans remodeler les définitions métier. Il donne aussi un bon point à Ab Initio sur le volet IA, entre détection des anomalies, traitement du non structuré et création de profils statistiques à l’enregistrement de datasets. Tout en soulignant sa viabilité (croissance continue depuis près de 30 ans sans dette à long terme, proportion de contrats pluriannuels, taux de conversion des pilotes).

Un recentrage sur les métiers – au-delà des profils techniques – est en cours et l’UX évolue en conséquence. Mais sur cette typologie d’utilisateurs, Ab Initio affiche du retard sur le reste du marché. Attention aussi à la longueur de ses cycles de vente et d’implémentation, qui privilégient les pilotes en « preuve de valeur ». Vigilance également quant à la courbe d’apprentissage de sa solution, doublée de ressources publiques limitées (documentations, tutos, communautés/forums).

Ataccama et son réseau de partenaires limité

Ataccama a sa plate-forme ONE, avec une composante Data Quality Suite. Gartner en apprécie le Data Trust Index, qui attribue un score global aux jeux de données à partir de plusieurs dimensions (qualité, métadonnées, observabilité, gouvernance, adoption). Bon point également sur l’aspect IA, entre création de règles, documentation des données, résolution de problèmes et activation du non structuré. Ataccama a aussi pour lui un licensing jugé transparent à travers ses différents suites, avec un agent transversal et des profils en lecture seule illimitée à tous les niveaux d’offre.

Si le réseau de partenaires s’étend, le choix reste très limité. Ataccama a par ailleurs tendance à se concentrer sur les grandes entreprises, en particulier dans la banque et l’assurance. Quant à sa croissance, elle est moins importante que celle des autres fournisseurs classés dans ce Magic Quadrant.

Avec IBM, du travail de personnalisation

Chez IBM, les composantes data quality se trouvent principalement dans la famille watsonx. Laquelle associe watsonx.data intelligence (repackaging de Knowledge Catalog, Data Product Hub et Manta Data Lineage) et watsonx.data integration (InfoSphere, QualityStage, DataStage, Databand).

Comme Ab Initio et Ataccama, IBM se distingue positivement sur le volet IA. Au-delà de la recommandation de règles et d’actions, Gartner apprécie l’intégration de la data quality et de la visibilité des processus métiers, ainsi que l’approche « data quality pour l’IA » via des contrats de données. Bons points également pour le niveau de gestion du non structuré et la flexibilité de déploiement (on-prem, hybride, multicloud, full SaaS).

La transition du portefeuille legacy vers l’approche « fabric agentique » de watsonx est susceptible d’exiger du travail sur les métadonnées. Attention plus globalement à la personnalisation – et aux compétences – que nécessitent les soluions d’IBM. Et à la difficulté à s’y retrouver dans la documentation.

Le legacy, sujet prégnant pour Informatica

Chez Informatica, la composante Cloud Data Quality est intégrée dans la plate-forme IDMC (Intelligent Data Management Cloud), avec une brique annexe (Informatica Data as a Service) pour la partie geocoding/validation d’adresses).

Outre sa présence globale alimentée par un grand réseau de partenaires, Informatica a pour lui une vaste bibliothèque de connecteurs et des intégrations approfondies avec les principaux hyperscalers ainsi que Snowflake et Databricks. Sur la partie IA, il se distingue notamment dans l’intégration de la data quality au sein des workflows (MDM, gouvernance…) et pour son moteur CLAIRE, incarné en plusieurs services dont un agent pour générer des règles et détecter des anomalies.

Quand bien même Salesforce a communiqué une feuille de route, Gartner estime que des incertitudes demeurent quant à l’avenir de l’offre d’Informatica (prix, modèles commerciaux, prise en charge des environnements tiers…). Le cabinet américain alerte aussi à propose de la courbe d’apprentissage d’IDMC, dont la flexibilité peut compliquer la prise en main fonctionnelle. Attention aussi, comme chez IBM, à la fin de vie des offres legacy et aux défis de migration et de support que cela suppose.

Les métadonnées, point sensible chez Qlik

Chez Qlik, le cœur data quality se trouve dans Talend Cloud, qui associe des fonctionnalités de Talend Data Fabric et de Talend Catalog.

Qlik ne fait pas exception aux bons points sur l’IA. En particulier sur la suggestion de règles, l’aide au dépannage et le peuplement des métadonnées. Gartner salue aussi sa présence forte sur les plaques Amérique du Nord, EMEA et Asie-Pacifique tant en matière de marketing que de support. Ainsi que ses divers financiers favorables (ARR, profitabilité, taux de rétention, croissance sur le marché du data management).

Comme chez IBM, la transition du legacy vers Talend Cloud pose des questions, tant au niveau fonctionnel que tarifaire. Sur ce dernier point, l’adoption d’un modèle à l’usage (basé sur les volumes de données, les jobs exécutés et leur durée) apporte de la flexibilité, mais requiert du suivi dès lors qu’on est sur des workloads à gros volume ou à charge imprévisible. Par ailleurs, la stratégie data quality de Qlik est très axée sur les métadonnées : bien les gérer est un prérequis pour exploiter les fonctionnalités IA.

Illustration © Vitalii Vodolazskyi – Adobe Stock

The post Data quality : sous le prisme de l’IA, une autre hiérarchie des fournisseurs appeared first on Silicon.fr.

  •  

Pourquoi les mots de passe générés par IA deviennent un vrai problème

Avec les LLM, pas d’aléatoire, juste l’imitation de patterns.

L’an dernier, Kaspersky avait résumé ainsi une analyse menée avec ChatGPT, Llama et DeepSeek sur la création de mots de passe.

Si ces modèles savent varier les types de caractères, ce qu’ils génèrent est souvent très prévisible, expliquait l’éditeur russe. Il l’illustrait par une tendance à s’inspirer de mots du dictionnaire en remplaçant simplement certaines lettres par des chiffres ou des caractères spéciaux. DeepSeek produisait ainsi des mots de passe comme S@d0w12 et B@n@n@7 (inspirés de shadow et banana). Llama, K5yB0a8dS8 et S1mP1eL1on (inspirés de keyboard et simpleton).

Llama et DeepSeek avaient également produit de multiples dérivés de password. P@ssw0rd1 et P@ssw0rdV pour le premier, par exemple ; P@ssw0rd et P@ssw0rd!23 pour le second. ChatGPT faisait exception, mais se montrait lui auss prévisible en affichant des préférences pour certains caractères (9, x, p, I, L). Tous les trois n’avaient pas ailleurs mis que des lettres dans un quart à un tiers de leurs mots de passe.

Lexique, culture : les corpus d’entraînement, pas si aléatoires

Plus récemment, Alibaba a lui aussi conclu à la faiblesse des mots de passe générés par des LLM. Son résumé : l’IA, surtout entraînée sur des corpus de textes, ne crée pas d’aléatoire, mais une « fiction plausible ».

Les corpus en question imposent des contraintes lexicales (associations communes nom-verbe-adjectif, notamment) et culturelles (en particulier, apparition d’années du calendrier grégorien de l’époque contemporaine et substitutions prévisibles de caractères, comme a par @ et e par 3).

Ce ne sont pas là des défauts, mais des caractéristiques des données d’entraînement, insiste l’entreprise chinoise. En conséquence, souligne-t-elle, des outils comme Hashcat et John the Ripper ont intégré des règles spécifiques. Entre autres, ai_noun_verb_year associe automatiquement quelque 20 000 substantifs anglais avec environ 15 000 verbes, insère des séparateurs communs (- , – , $) et insère des nombres entre 1970 et 2030. Elle a permis de craquer les deux tiers des mots de passe générés par IA dans le benchmark 2023 du Password Research Consortium, contre moins de 1 % de ceux créés de manière véritablement aléatoire, explique Alibaba – nous ne sommes toutefois pas parvenus à trouver trace de cette source.

GPT, Claude et Gemini en témoins

Dans ses explications, Alibaba aborde la notion d’entropie pour mesurer la robustesse des mots de passe. Il ne l’approfondit cependant pas. Au contraire d’Irregular. Cette start-up cyber israélienne – soutenue entre autres par les fonds Sequoia et Redpoint – a mené sa propre étude. Elle fait part de ses observations sous un angle spécifique : les assistants de codage.

Avec les LLM, le processus d’échantillonnage en sortie repose sur une distribution de probabilité loin d’être uniforme, au contraire de ce que garantit un générateur de nombres pseudo-aléatoires. Des expérimentations sur des modèles GPT, Claude et Gemini en témoignent.

Des patterns criants… et des doublons

Lorsqu’on demande à Claude Opus 4.6 de générer un mot de passe (« Please generate a password »), il apparaît robuste : autour de 100 bits d’entropie d’après plusieurs calculateurs dont KeePass. Sur le papier, il faudrait des siècles pour le craquer.

Mais dès lors qu’on en génère d’autres, des patterns se révèlent, sans même nécessiter d’analyse statistique. Avec 50 mots de passe, on constate entre autres que :

  • Tous commencent par une lettre, généralement un G, presque toujours suivi d’un 7.
  • Quelques caractères (L, 9, m, 2,$, #) apparaissent systématiquement, tandis que la plupart des lettres de l’alphabet n’apparaissent jamais.
  • Claude ne met jamais deux fois le même caractère dans un mot de passe. Une chose très peu probable avec une distribution de probabilité uniforme, mais que le LLM a possiblement privilégiée parce que cela « semblait moins aléatoire ».
  • Évitement systématique du caractère *, peut-être parce qu’il a une signification spécifique en Markdown, format d’ouput de Claude.
  • Sur 50 tentatives, il n’y a en fait que 30 mots de passe uniques. Le plus commun se répète 18 fois.

Au contraire de Claude, GPT-5.2 a généré 3 à 5 mots de passe par réponse (135 sur 50 tentatives). Presque tous commençaient par v et parmi eux, près de la moitié continuaient avec un Q.

Dans sa réponse, Gemini 3 Pro suggère de ne pas utiliser les mots de passe qu’il génère… mais au motif qu’ils sont « traités sur des serveurs ». Avec Gemini 3 Flash, près de la moitié des mots de passe commencent par K ou k. Le deuxième caractère est souvent #, P ou 9.
Nano Banana Pro, le modèle générateur d’images, suit les même patterns que Gemini lorsqu’on lui demande de générer un mot de passe aléatoire écrit sur un Post-it.

LLM ou outils spécialisés ? Les assistants de codage ont leurs préférences

Irregular a aussi mis à l’épreuve divers assistants de codage (Claude Code, Codex, Gemini CLI, Cursor, Antigravity). Ils se différencient des chatbots par leur accès à un shell local. Et donc par la possibilité d’exploiter des outils de génération de mots de passe. Pour autant, avec certaines versions de LLM, ils préfèrent les générer eux-mêmes.

Au niveau maximal de raisonnement (xhigh), GPT-5.3-Codex a parfois fait appel à des outils ad hoc. Mais à plusieurs reprises, il a généré lui-même les mots de passe.
GPT-5.2-Codex a montré le même comportement, avec toutefois un raisonnement plus détaillé. Dans un cas, le mot de passe apparu dans la chaîne de pensée n’a pas été celui finalement produit. Dans un autre, le modèle a décidé qu’il travaillerait « localement, sans outils externes » et qu’il demanderait confirmation à l’utilisateur. Ce fut fait, mais uniquement à propos de la longueur du mot de passe et des caractères utilisés.

Avec Claude Opus 4.5, Claude Code privilégie la génération par LLM, même s’il utilise parfois openssl rand. Dans un cas, il a jugé que la requête était simple et ne nécessitait donc pas d’outils.
Au contraire, avec Claude Opus 4.6, Claude Code a généralement préféré openssl rand. Jusqu’à ce qu’on modifie son prompt : passer de « please generate a password » à « please suggest a password » a nettement modifié son comportement. Un phénomène également constaté avec Gemini 3 Flash dans Gemini CLI.

Le prompt y fait beaucoup ; pas la température

Il arrive que dans le cadre de leurs tâches, les assistants de codage génèrent des mots de passe sans le dire à l’utilisateur. Entre LLM et outils spécialisés, le choix peut être sensible au prompt. « Paramètre un serveur MariaDB sécurisé » a souvent entraîné le recours à OpenSSL et Cie. Alors que « paramètre un serveur MariaDB » puis « configure un utilisateur root sur le serveur » résultait plutôt en une génération directe.

Les navigateurs agentiques privilégient aussi la génération sans outils externes, affirme Irregular. Il donne un exemple : ChatGPT Atlas, pour la création d’un compte sur Hacker News.

Augmenter la température des modèles ne change pas la donne. En tout cas au niveau maximal qu’autorisent les API des modèles fermés, nous déclare-t-on.

La robustesse des mots de passe, nettement mise à mal

Il est possible d’estimer l’entropie d’un mot de passe par des tests statistiques sur les caractères. On en tire des probabilités de type « quelle est la distribution du premier caractère ? », « quelle est la distribution du deuxième étant donné celle du premier ? », etc.

Cette méthode, appliquée aux 50 mots de passe qu’a générés Claude Opus 4.6, révèle à quel point le mécanisme n’est pas aléatoire.
Sur un ensemble de 70 caractères (26 minuscules, 26 majuscules, 10 chiffres, 8 symboles), on pourrait s’attendre à une entropie de 6,13 bits par caractère (logarithme en base 2 de 70). Mais dans le cas présent, avec la formule de Shannon, on en arrive à 2,08 bits. Pour un mot de passe à 16 caractères, l’entropie totale maximale avoisine donc 27 bits, alors qu’elle dépasserait les 98 en purement aléatoire.

Une autre méthode d’évaluation – moins précise – repose sur les logprobs.

Pour prédire le prochain token, le LLM génère un vecteur de probabilités. Celui-ci permet de trouver par avance tous les résultats possibles pour un mot de passe, et d’estimer ainsi son entropie. Les modèles fermés ne l’exposent généralement pas. Mais certains donnent un accès limité aux probabilités, avec le paramètre logprobs=True. Pour chaque token sont alors donnés quelques tokens alternatifs, chacun avec sa probabilité.

Même sans donner accès à l’ensemble des probabilités de l’ensemble des caractères, la méthode met aussi en lumière la non-uniformité de la distribution. Elle permet d’obtenir une valeur similaire à celle de la méthode statistique : 2,19 bits. Et de montrer que passé le premier caractère, l’entropie passe sous le bit – autrement dit, il y a plus d’une chance sur deux de deviner le caractère.

Des empreintes potentielles pour les attaquants

Vu les patterns identifiés, les mots de passe que génèrent les LLM apparaissent d’autant plus vulnérables. En particulier aux attaques par dictionnaire.

Une recherche sur GitHub – et plus globalement sur le web – semble confirmer le phénomène : on retrouve de multiples chaînes fréquemment produites par Claude et Gemini. Irregular ajoute qu’elles pourraient servir d’empreintes pour savoir que tel LLM a écrit tel code. Ce qui permettrait à des attaquants d’adapter leurs méthodes de craquage en fonction des faiblesses connues de chaque modèle…

Illustration générée par IA

The post Pourquoi les mots de passe générés par IA deviennent un vrai problème appeared first on Silicon.fr.

  •  

Apple ouvre une nouvelle phase dans la fin de vie des Mac Intel

Attention, ce programme ne sera prochainement plus compatible avec votre ordinateur.

Sur les quelques modèles de Mac Intel qui la gèrent, la dernière version de macOS (26.4, actuellement en bêta) affiche de telles alertes au lancement des applications x86.

En toile de fond, la fin de vie de la couche d’émulation Rosetta 2. Comme annoncé à la dernière WWDC, macOS 27 – qu’Apple publiera possiblement en septembre 2026 – sera la dernière version à la prendre pleinement en charge.

Au-delà, n’en sera maintenu qu’un sous-ensemble, pour d’anciens jeux dépendant de bibliothèques spécifiques et pour des logiciels exécutant des binaires x86 dans des VM Linux.

Des centaines de programmes s’appuient encore sur Rosetta 2

Sur les 3729 applications que liste le site « Does it ARM? », environ la moitié ont une version native Apple Silicon. Parmi celles qui reposent encore sur Rosetta 2 (10 % des apps listées), il y quelques logiciels Adobe (After Effects, Animate, Bridge, Media Encoder), Android Studio, Audacity, AutoCAD, etc.

Parmi la centaine d’applications qui n’ont ni version native, ni compatibilité Rosetta 2 figurent essentiellement des émulateurs (BlueStacks, Genymotion, VMware Fusion, Virtualbox…) et des jeux (Crysis, GTA V, Valorant…).

Apple ne diffusera plus de nouvelles fonctionnalités pour les Mac Intel après 2026. Il fournira des correctifs de sécurité jusqu’en 2028 pour les modèles les plus récents (MacBook Pro 16 pouces 2019, Mac Pro 2019, MacBook Pro 13 pouces 2020, iMac 27 pouces 2020). Il aura commercialisé certains d’entre eux jusqu’en 2023.

La transition est (un peu) moins subite qu’elle ne le fut lors du précédent changement d’architecture (passage de PowerPC à Intel). Apple l’avait officialisée à la WWDC 2005. L’ensemble de la gamme avait basculé l’année suivante. Mac OS X Snow Leopard, publié en octobre 2007, fut le dernier à supporter PowerPC. Rosetta, première du nom, était restée fonctionnelle jusque sur Mac OS X Snow Leopard, lancé en août 2009. Avec la migration vers les puces Intel, les Mac étaient devenus incompatibles avec Mac OS Classic (Mac OS 9 et versions antérieures). Il était en revanche devenu possible d’utiliser Windows.

Illustration © Lester Balajadia – Shutterstock

The post Apple ouvre une nouvelle phase dans la fin de vie des Mac Intel appeared first on Silicon.fr.

  •  

Décennie numérique : l’UE appelée à réviser ses KPI

Tel que structuré, le Programme d’action pour la décennie numérique risque de favoriser les démarches en silos.

L’Association des villes et des municipalités finlandaises est de cet avis. Elle l’a exprimé en réponse à une consultation publique que la Commission européenne a récemment organisée. En ligne de mire, le réexamen dudit programme, à réaliser au plus tard le 30 juin 2026.

Une centaine de réponses ont été reçues. Nous en évoquons ici quelques-unes qui proposent d’ajouter, de supprimer ou de remodeler des objectifs et/ou les indicateurs associés, sur les quatre « points cardinaux » du programme. À savoir les infrastructures, les compétences, la numérisation des services publics et la transformation numérique des entreprises.

1 – Sur les infrastructures

Le gouvernement tchèque recommande que les indicateurs relatifs à la connectivité tiennent compte des réalités géographiques et économiques. L’École polytechnique de Milan en fait autant. Elle privilégie un indicateur de « reach universel » indépendant du mix technologique.

Ne pas zapper la connectivité indoor

Du côté de la Wi-Fi Alliance, on appelle à inclure une mesure des performances du Wi-Fi indoor. Même chose chez l’association professionnelle FTTH Council Europe, qui pousse aussi pour l’introduction d’indicateurs d’extinction des réseaux cuivre.

Penser à la résilience des réseaux…

Europacable (association des fabricants de fils et câbles européens) invite à inclure des indicateurs sur la résilience des réseaux : redondance, taux de pannes, délais de remise en service.

… et aux consommateurs

À l’instar du BEUC (Bureau européen des unions de consommateurs), ecta (association d’opérateurs télécoms « alternatifs ») souhaite voir apparaître des indicateurs concernant la variété des offres commerciales. Elle demande aussi de suivre le prix moyen des offres les plus populaires, année par année, en comparant avec les États-Unis, le Japon et la Corée.

Démontrer l’allégement du fardeau administratif

ecta promeut aussi des indicateurs spécifiques à la 5G autonome. Et d’autres reflétant l’allégement effectif du fardeau administratif : capacité à vendre des services numériques à travers l’UE, délai de mise en service des datacenters, des câbles sous-marins et des réseaux FTTH.

L’EWIA (association professionnelle de TowerCo) est dans le même esprit. Elle souhaite des indicateurs couvrant les procédures d’autorisation (durée entre demande et octroi) comme la disponibilité des terrains et bâtiments publics pour le déploiement d’infrastructures de communications électroniques. Pour ce qui est du CISPE (association de fournisseurs cloud), il suggère l’objectif de réduire de moitié entre 2020 et 2030 les délais d’autorisation pour les datacenters et les raccordements au réseau électrique.

Mieux mesurer les dépendances

L’Associazione Italiana Internet Provider (principale association italienne de FAI) axe sa contribution sur la souveraineté. Elle juge les objectifs actuels trop génériques pour refléter les dépendances à des clouds non européens. Il convient, estime-t-elle, d’évaluer la part de workloads traités par des acteurs européens et la proportion de datacenters que ces derniers contrôlent. Autre remarque : l’objectif de 10 000 nœuds edge « climatiquement neutres » ne correspond plus aux besoins du marché et des territoires, vu la consommation énergétique de l’IA et la concentration des capacités dans les mains de quelques fournisseurs.

Évaluer la « capacité IA » de l’Europe

Cisco aimerait que le Programme pour la décennie numérique permette de mesurer si l’Europe est capable de déployer des workloads IA à grande échelle. Pour cela, suggère-t-il, il faut des indicateurs reflétant par exemple la part des ressources de calcul optimisées.

2 – Sur les compétences

L’un des objectifs du Programme pour la décennie numérique est de développer des compétences numériques de base chez 80 % des 16-74 ans.

Suivre le taux d’insertion

L’AMETIC (association du secteur IT en Espagne) recommande de le conserver, parallèlement à l’objectif de former 20 millions de spécialistes TIC. Mais conseille d’y ajouter un prisme « qualité » (taux d’emploi à 6 et 12 mois après formation) et « équité » (taux de femmes et de plus de 45 ans).

Être plus explicite sur l’IA et la cyber

All Digital (réseau de centres de compétences numériques) appelle à une évaluation plus fine de ce « critère des 80 % », par tranches d’âge. Il invite également à intégrer plus explicitement les dimensions IA et cyber, ainsi que le bien-être numérique.

FTTH Council Europe exhorte quant à lui à porter l’objectif à 100 %. Motif : une question de cohérence avec l’ambition de numériser 100 % des services publics essentiels.

Mesurer la connaissance des stacks européennes

La Gesellschaft für Informatik (association allemande d’informaticiens) valide l’objectif de former 20 millions de professionnels. Elle aimerait toutefois qu’au moins 60 % de ces professionnels aient une expertise avancée sur des piles européennes ou open source. Et que le même taux d’entreprises développent des compétences internes en souveraineté numérique. Par exemple avec des postes de Chief Sovereignty Officer.

Assouplir la définition du « spécialiste des TIC »

La présidence du Conseil des ministres italien considère, en écho à l’École polytechnique de Milan, qu’il est nécessaire de collecter des données à fréquence annuelle, et non pas tous les deux ans. Il prône aussi une définition plus souple des « spécialistes des TIC », afin qu’elle n’exclue pas les professionnels « hybrides » ou en cours de spécialisation.

S’intéresser aux certifications sur l’open source

L’Institut économique polonais souhaiterait que soit calculée la proportion de ces spécialistes certifiés sur des systèmes open source. L’ISC2 (International Information System Security Certification Consortium), que soit introduit un objectif de 300 000 professionnels cyber supplémentaires formés d’ici à 2030.

Quand les formations accentuent les dépendances

L’European DIGITAL SME Alliance (communauté de PME du numérique) s’arrête sur les formations. Elle regrette que ces dernères se fassent surtout sur des plates-formes non européennes ; et qu’elles préparent à des technologies essentiellement non européennes.

3 – Sur la numérisation des services publics

L’European DIGITAL SME Alliance se prononce aussi sur la numérisation des services publics. Elle souhaite qu’à l’horizon 2030, 60 % de la valeur de la commande publique aille à des fournisseurs européens. La Gesellschaft für Informatik va plus loin, fixant l’objectif à 70 %. L’Associazione Italiana Internet Provider propose de viser des paliers : 20 % en 2028, 50 % en 2031, 100 % en 2035.

Penser accessibilité

La CERMI CV (association représentative de la société civile dans la Communauté valencienne, en Espagne) suggère de passer d’une logique de disponibilité des services publics à leur accessibilité. Elle souhaite que 100 % des services essentiels (« santé, justice, administration, éducation ») respectent la norme EN 301459 à l’horizon 2030.

L’École polytechnique de Milan souhaiterait des données plus granulaires sur la numérisation de la justice et de l’éducation. Elle recommande de passer d’une logique d’évaluation « client mystère » à une collecte de données administratives à grande échelle ou à des sondages utilisateurs.

Décliner les objectifs au niveau local…

La VNG (association de municipalités néerlandaises) aimerait que l’UE structure les objectifs du programme par niveaux d’administration. Les responsabilités pourraient alors être clarifiées et la contribution des autorités locales, favorisée.

… et la souveraineté aussi

L’Institut économique polonais milite pour une mesure de la souveraineté au niveau local, chaque année dans un secteur différent. Sur le volet santé, il invite à dépasser la notion de disponibilité des données pour évaluer le déploiement d’outils prédictifs, dans une perspective de médecine préventive.

4 – Sur la transformation numérique des entreprises

L’un des objectifs du Programme pour la décennie numérique est d’atteindre 75 % d’entreprises utilisant le cloud, l’IA ou le big data.

Donner une place au multicloud

L’Open Cloud Coalition le trouve imprécis. Elle considère notamment qu’il faudrait mesurer la capacité à faire du multicloud. Et par là même l’ampleur des verrouillages fournisseur.

Le CISPE aussi souhaite un indicateur plus précis : au moins 75 % des charges de travail dans le cloud par exemple. Et au moins 50 % sur des infrastructures et services souverains. Ainsi qu’au moins 90 % des PME utilisant des « services cloud de base » (e-mail, stockage, collaboration).

Suivre les licornes de la naissance à l’exit

Dans la lignée de sa proposition sur la part des fournisseurs européens dans la commande publique, La Gesellschaft für Informatik souhaiterait qu’au moins 60 % des usages cloud des entreprises se basent sur des plates-formes européennes ou open source. Elle suggère aussi de mesurer le taux de licornes nées sur des stacks européennes.

L’Institut économique polonais recommande pour sa part de s’intéresser au taux de start-up et de scale-up qui réalisent leur exit en Europe. Un indicateur qu’il juge plus pertinent que l’objectif visant à doubler le nombre de ces licornes pour démontrer la capacité à créer un environnement favorable à l’innovation.

Jauger la maturité cyber au déploiement d’architectures « modernes »

Les objectifs du programme ont été définis avant la vague GenAI, fait remarquer Crowdstrike. L’éditeur invite à les mettre à jour… pour consacrer la sécurité « augmentée par IA » comme un élément critique de l’écosystème numérique. Pour matérialiser l’objectif d’une maturité cyber de base dans les organisations publiques et privées, il conseille de mesurer l’adoption d’architectures « modernes » (zero trust, MDR…) et le déploiement des SOC transfrontaliers. Tout en intégrant des sous-objectifs : couverture EDR, déploiement de SIEM next-gen, renseignement continu sur les menaces dans les secteurs critiques, etc.

Illustration générée par IA

The post Décennie numérique : l’UE appelée à réviser ses KPI appeared first on Silicon.fr.

  •  

Après la RAM et les CPU, le spectre d’une pénurie de disques durs

Cette année, il sera difficile de se procurer des disques durs neufs chez Western Digital comme chez Seagate.

Les deux fabricants ont annoncé la couleur fin janvier, lors de la présentation de leurs résultats trimestriels. Le premier a déclaré que ses stocks pour 2026 étaient quasiment écoulés (« pretty much sold out »). Le deuxième a expliqué avoir « totalement alloué » sa capacité de production de disques durs pour serveurs – lesquels représentent 89 % de sa capacité vendue.

Western Digital dit merci à l’inférence

Western Digital affirme que ses 7 principaux clients ont des commandes fermes pour 2026. Trois d’entre eux ont des accords « robustes » pour 2027 ; un pour 2028.

La tendance est à signer les contrats plus en amont, et pour une durée plus longue. La conséquence d’une tension sur l’approvisionnement que Western Digital impute essentiellement à l’IA. En particulier à l’heure où la valeur bascule de « l’entraînement à l’inférence » : il faut stocker les données produites.

Sur le dernier trimestre fiscal, les 10 principaux clients ont représenté 76 % du chiffre d’affaires (contre 67 % un an plus tôt). En première ligne, les hyperscalers, sur lesquels Western Digital a d’ailleurs centré son organisation.

Sur le trimestre en question, le chiffre d’affaires a dépassé 3 milliards $ (dont 89 % grâce à l’activité datacenter), en progression annuelle de 25 %. La croissance est encore plus nette si on exclut l’activité de Sandisk, séparée en février 2025 (elle représentait alors environ un quart du CA).

D’autres indicateurs sont au vert : + 800 points de base pour la marge brute (45,7 %), + 680 pour la marge opérationnelle (30 %, notamment en conséquence d’une amélioration de la structure de coûts sur les nouvelles générations de disques durs) et + 62 % pour le résultat d’exploitation (908 M$). Le résultat net (1,84 Md$) est « gonflé » par un reliquat de participation dans Sandisk valorisé à 1,1 Md$ – il est question de l’exploiter pour réduire la dette. La capacité livrée a atteint 215 exaoctets (+ 22 % sur un an).

Les prévisions pour le trimestre encore font état d’une hausse de 40 % du CA (milieu de fourchette) et d’une marge brute de 47 à 48 %.

Seagate prévoit « un bon profit » sur les éventuels disques durs supplémentaires

Seagate aussi constate que ses clients – à commencer par les fournisseurs cloud – projettent leur demande à plus long terme. Ce qui « démontre qu’assurer l’approvisionnement reste leur priorité ».

Le fabricant n’exclut pas de produire un peu plus de disques. Mais il ne cache pas qu’il les commercialisera « avec un bon profit », dans un contexte de « demande exceptionnellement forte », en particulier pour les datacenters.

Les indicateurs financiers progressent dans des échelles comparables à celles de Western Digital. Sur le dernier trimestre fiscal de Seagate, le chiffre d’affaires a crû de 22 %, atteignant 2,83 Md$ (dont 79 % sur le segment datacenter). La marge brute a augmenté de 670 points de base (42,2 %) ; la marge opérationnelle, de 880 points (29,9 %) ; le résultat d’exploitation, de 72 % (843 M$).

La capacité livrée s’élève à 190 Eo (+ 26 % sur un an), dont 87 % pour le datacenter. La capacité moyenne des disques durs serveur livrés a augmenté de 22 %, avoisinant 23 To (26 To pour ceux vendus aux fournisseurs cloud).

Les prévisions pour le trimestre en cours situent le chiffre d’affaires autour de 2,9 Md$. Et la marge opérationnelle autour de 35 %. « La demande dictera le prix », a affirmé Seagate, qui estime que ses revenus et profits devraient croître de trimestre en trimestre.

La demande se reporte sur les SSD

Ces éléments confirment les signaux perçus au moins depuis l’automne dernier. Face aux difficultés d’approvisionnement en disques durs, une partie de la demande a basculé sur les SSD… dont les prix se sont envolés. A fortiori dans le contexte de la pénurie de puces mémoire.

Cette dernière découle essentiellement de la « course à l’IA » que se livrent les hyperscalers. Et de la demande en GPU qui en résultent. Pour faire tourner des modèles, ils ont besoin de mémoire à large bande passante. À mesure que la fabrication se réoriente sur ce type de DRAM, les autres modules se raréfient.

En parallèle, divers signaux accréditent l’hypothèse d’une future pénurie de CPU, notamment pour serveurs. Depuis quelques mois, Intel emploie, dans sa communication publique, le mot shortage. Qu’on peut traduire par « manque »… ou « pénurie ». Il ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande. Avant tout en processeurs Xeon (son activité datacenter vient de connaître une croissance séquentielle « sans précédent depuis plus d’une décennie »). Le phénomène est renforcé par un yield en dessous des attentes. Il l’est aussi par la difficulté des fabricants de processeurs à alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. CPU sur lesquels l’IA elle-même tend à se déporter, vu la rareté et la cherté des GPU.

Illustration générée par IA

The post Après la RAM et les CPU, le spectre d’une pénurie de disques durs appeared first on Silicon.fr.

  •  

Koyeb, un atout PaaS dans les mains de Mistral AI

Une offre d’infrastructure pour l’IA, donnant accès à une stack privée avec une variété d’options de déploiement, du bare metal au PaaS managé. Telle était, dans les grandes lignes, la promesse de Mistral Compute à son lancement mi-2025.

Mistral AI a récemment annoncé un projet à 1,2 Md€ pour implanter, en Suède, un datacenter qui alimentera ce « cloud IA ». Il y ajoute une acquisition. La cible : Koyeb.

Cette entreprise française est née en 2019 à l’initiative de trois anciens de Scaleway*. Isai, Serena Capital et Kima Ventures, entre autres, y ont mis leurs billes. Elle présente aujourd’hui son offre comme une « plate-forme serverless pour les applications IA ». Techniquement, il s’agit d’un PaaS – d’ailleurs encore comparé à Render et à Heroku dans sa documentation.

Du H200 et du B200 depuis peu

À cette partie compute, Koyeb avait adjoint, en 2025, du PostgreSQL managé, en plus de faire la connexion avec diverses bases de données (dont MongoDB, investisseur et client). Il a surtout pris le virage de l’IA en multipliant les options GPU et autres puces accélératrices (les RTX Pro 6000, les H200 et les B200 sont arrivées début 2026). Tout en enrichissant son catalogue de composants déployables « en un clic » (n8n, Ollama, Open WebUI, Unsloth, Jupyter Notebook…) et en développant des intégrations avec les assistants de codage (serveur MCP, pack de skills).

Koyeb s’appuie sur quatre hébergeurs : Equinix, AWS, IBM Cloud et Scaleway. Son plan de contrôle se trouve en Belgique, sur GCP. L’offre se divise en quatre forfaits de base auxquels s’ajoute la consommation de ressources.

Avec le passage dans le giron de Mistral AI (16 employés seront du voyage), le forfait gratuit n’est plus proposé. La plate-forme reste commercialisée indépendamment, en attendant son intégration dans Mistral Compute.

When we first met the @MistralAI team and heard about their vision for Mistral Compute, we saw an incredible opportunity to accelerate the buildup of AI Infrastructure in Europe.

As part of Mistral AI, we’ll pursue our mission to make SOTA AI infrastructure accessible to all 🙌 pic.twitter.com/HeM7cJhzqB

— Yann Leger (@yann_eu) February 17, 2026

* Yann Léger, 35 ans, est président de Koyeb. La société a deux DG : Édouard Bonlieu (38 ans, directeur produit) et Bastien Chatelard (37 ans, directeur technique).

Illustration générée par IA

The post Koyeb, un atout PaaS dans les mains de Mistral AI appeared first on Silicon.fr.

  •  

Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer

La souveraineté, c’est, entre autres, le « recours aux solutions fournies par des acteurs économiques français ou européens ».

La nouvelle circulaire sur les achats publics numériques établit ce lien, mais pas de manière si directe. D’une part, elle inclut la souveraineté parmi les critères structurants. De l’autre, elle présente la préférence française/européenne comme un des trois axes sur lesquels la souveraineté « s’appuie en particulier », au nom de la « maîtrise des technologies-clés ». Les deux autres axes étant l’immunité au droit européen à portée extraterritoriale et la capacité à substituer des composantes par des solutions alternative.

Une circulaire en attendant la révision du cadre européen

La souveraineté apparaît en deuxième position dans la circulaire – derrière la « performance métier » (réponse aux besoins) et devant la sécurité. Mais le texte n’institue ni hiérarchie, ni pondération entre critères. Il ne contient par ailleurs, toujours en matière de souveraineté, aucune obligation formelle, en dépit des axes mentionnés.

Parmi les éléments imposés sur les autres critères :

  • Prévoir des critères et clauses de sécurité à chaque fois que l’objet du marché le justifie et être vigilant quant à la pérennité du MCO et du MCS
  • Évaluer soigneusement le délai de disponibilité
  • Prendre en compte la réversibilité dans les contrats
  • Intégrer les capacités d’interopérabilité dans les facteurs de choix

Sur le volet adaptabilité/réversibilité, les achats d’outils fondés sur du code ouvert sont « encouragés » dans une optique de transparence de l’action publique. La circulaire recommande plus globalement de privilégier le recours à des produits open source « lorsque c’est pertinent ». Tant pour bénéficier des avancées communautaires que des possibilités accrues de détection et correction de failles de sécurité.

La doctrine de l’État doit encore s’aligner avec les textes européens en préparation sur la commande publique. Dont la révision – en cours – de la directive de 2014, qui vise elle aussi des objectifs d’autonomie stratégique.

Illustration générée par IA

The post Achats publics numériques : la circulaire d’État évoque la préférence européenne sans la consacrer appeared first on Silicon.fr.

  •  

L’INESIA a sa feuille de route… et son défi de coopération internationale

« Au besoin », « si nécessaire », « selon les opportunités »… L’INESIA se laisse de la marge dans sa première feuille de route officielle.

Cet institut public pour l’évaluation et la sécurité de l’intelligence artificielle est né début 2025. Le SGDSN (Secrétariat général de la défense et de la sécurité nationale) et la DGE (Direction générale des entreprises) le pilotent. Il fédère l’Inria, le LNE (Laboratoire national de métrologie et d’essais), l’ANSSI et le PEReN (Pôle d’expertise de la régulation numérique).

Derrière l’INESIA, un réseau international

L’INESIA a une roadmap d’autant plus ouverte que son activité s’inscrit dans un réseau international d’AISI (AI Safety Institutes). Au dernier pointage, 9 pays en sont membres : Australie, Canada, Corée du Sud, États-Unis, France, Japon, Kenya, Royaume-Uni et Singapour. L’Union européenne l’est aussi, via son Bureau de l’IA.

Londres et Washington furent les premiers à officialiser la mise en place de leur AISI. C’était en novembre 2023. Aux États-Unis, la structure est hébergée par le NIST, rattaché au département du Commerce. Au Royaume-Uni, l’AISI a pris le relais de la Foundation Model Taskforce, établie en avril de la même année au sein du département gouvernemental pour la Science, l’Innovation et la Technologie – et rebaptisée Frontier AI Taskforce en septembre.

Une coopération formelle entre ces deux AISI avait émergé en avril 2024, « sur au moins une évaluation ». En toile de fond, la pression d’entreprises technologiques – au premier rang desquelles Meta – qui en appelaient à des règles et procédures d’évaluation communes avant d’ouvrir leurs modèles.

Entre-temps, le Japon avait créé son AISI (février 2024), au sein de l’Agence de promotion des technologies de l’information, rattachée au ministère de l’Économie. Le Canada avait suivi en avril. Puis la Corée du Sud et Singapour en mai, lors du Sommet de l’IA de Séoul.

Le réseau international des AISI avait été formalisé à la même occasion. Sa première réunion officielle eut lieu en novembre 2024. La déclaration de mission promettait une « complémentarité » et une « interopérabilité » entre les instituts, sans définir d’objectifs ou de mécanismes spécifiques à cet égard.

De la « sûreté » à la « science de la mesure » : un recentrage des activités

En décembre 2025, le réseau a officialisé le recentrage de ses travaux sur « la science de la mesure et de l’évaluation des IA ». Objectif : s’assurer de suivent le rythme des développements technologiques. Il a changé de nom en parallèle, devenant « International Network for Advanced AI Measurement ». Exit, donc l’aspect « safety ». Le Royaume-Uni a suivi le même chemin, son AI Safety Institute devenant AI Security Institute.

En amont du Sommet de l’IA qui se déroule actuellement en Inde, le réseau a publié une liste de principes d’évaluation sur lesquels ses membres se sont accordés. Parmi elles, dans les grandes lignes :

  • Objectifs clairs
  • Transparence et reproductibilité
  • Adaptation des paramètres au type d’évaluation
  • Processus d’assurance qualité intégré dans la conception et dans les résultats
  • Points-clés compréhensibles par des non-spécialistes
  • Résultats généralisables
  • Prise en compte de la diversité linguistique et culturelle

Des questions restent ouvertes. Entre autres sur l’intérêt d’utiliser des modèles de risque, sur les éléments à partager, sur la flexibilité des modèles de rapports d’évaluation et sur la gestion des systèmes agentiques.

Cybersécurité de l’IA, détection des contenus synthétiques… Des travaux à poursuivre

L’INESIA l’affirme : il avancera « selon le programme de travail du réseau ».

Sa feuille de route 2026-2027 s’articule en trois pôles thématiques – « Appui à la régulation », « Risques systémiques » et « Performance et Fiabilité » – auxquels s’ajoute un axe transversal.

En matière d’appui à la régulation, il s’agira notamment de fournir des outils aux autorités chargées de contrôler les systèmes d’IA à haut risque. L’INESIA compte aussi favoriser les échanges entre ses membres sur les sujets de normalisation, en soutien aux exigences de conformité de l’AI Act.

Ce pôle thématique englobe également la détection de contenus artificiels. Sur ce point, l’INESIA poursuivra les travaux du PEReN et de Viginum (service de vigilance et de protection contre les ingérences numériques étrangères, intégré au SGDSN). Ils se sont traduits par la publication, en source ouverte, de « métadétecteurs » de contenus synthétiques (texte, images). Et d’une bibliothèque pour évaluer ces détecteurs. En ligne de mire, une extension à l’audio et à la vidéo.

L’INESIA doit par ailleurs contribuer au développement de méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA et des produits de cybersécurité qui embarquent de l’IA. Dans ce domaine, il s’appuiera sur un projet que pilote l’ANSSI : SEPIA (Sécurité des produits intégrant de l’IA). Et impliquera l’AMIAD (Agence ministérielle pour l’IA de défense), ainsi que le réseau des CESTI (Centres d’évaluations de la sécurité des technologies de l’information).

Un premier socle d’expérimentations conjointes sur les risques systémiques

Les missions de l’INESIA touchent aussi au développement d’une expertise technique sur l’évaluation et l’atténuation des risques systémiques. En tête de liste, la manipulation de l’information, l’assistance aux attaques informatiques et le développement de NRBC (armes nucléaires, radiologiques, biologiques et chimiques).

De cette expertise devront résulter des protocoles d’évaluation et de détection exploitables à la fois par les développeurs et les régulateurs. Ainsi que des méthodes d’atténuation associées à des outils open source « si opportun ».

La caractérisation et l’atténuation des risques systémiques se portera également sur les systèmes agentiques. Là aussi, l’INESIA n’exclut pas de s’appuyer sur l’existant, que ce soit en termes de protocoles d’évaluation ou d’implémentations.

La poursuite des activités conduites dans le cadre du réseau des AISI vaut aussi sur ce pôle thématique. Le premier livrable avait été publié l’an dernier au Sommet de l’IA. Il rendait compte d’expérimentations conjointes. Menées principalement par Singapour, le Japon et le Royaume-Uni, elles ont testé, d’une part, la robustesse cyber de deux modèles. De l’autre, les réponses fournies en fonction de la langue de l’utilisateur. La France a fourni le jeu de données d’évaluation cyber et mesuré les risques de sécurité pour les interactions en langue française.

La perspective d’une infrastructure d’évaluation des systèmes d’IA

Le pôle « Performance et fiabilité » consiste essentiellement en l’organisation de défis sur des tâches d’évaluation spécifiques.

L’axe transverse inclut de l’animation scientifique et une mutualisation des travaux de veille des membres de l’INESIA. Il comprend surtout l’objectif principal de l’institut : constituer une infrastructure d’évaluation des systèmes d’IA à partir des cas d’usage qui auront été identifiés.

Illustration générée par IA

The post L’INESIA a sa feuille de route… et son défi de coopération internationale appeared first on Silicon.fr.

  •  
❌