Vue lecture

Décennie numérique : ce que l’UE mesure quand elle parle de digitalisation des entreprises

La « digitalisation des entreprises », c’est quoi au juste ?

Depuis 2015, Eurostat compile un indicateur composite dit « index d’intensité numérique ». L’Union européenne l’exploite dans le cadre de son programme d’action pour la décennie numérique.

Ce programme fut formellement établi en décembre 2022. Il définit des objectifs de transformation numérique à l’horizon 2030, dans 4 domaines : connectivité, compétences numériques, digitalisation des entreprises, digitalisation des services publics.

Le mécanisme de suivi de la progression des États membres se fonde sur une quinzaine de KPI. Dont le pourcentage de PME utilisant au moins 4 des 12 technologies qu’englobe l’index d’Eurostat.

L’UE ne liste pas ces technologies et pour cause : d’année en année, la composition de l’index évolue. La dernière incarnation comprend :

Au moins 50 % des employés ont accès à Internet pour un usage professionnel
Connexion Internet à au moins 30 Mbit/s descendants
Au moins 1 % du CA en e-commerce
Au moins 1 % des ventes réalisées sur le web avec au moins 10 % en B2C
Achat de services cloud
Achat de services cloud « sophistiqués » ou « intermédiaires »
Avoir un site web
Utiliser au moins un réseau social
Faire de l’analyse de données, y compris via un prestataire externe
Utiliser au moins une technologie d’IA
Utiliser un ERP
Utiliser un CRM

Chaque dimension a ses spécificités. Pour le e-commerce, par exemple, on tient compte des achats avec paiement hors ligne. Comme « technologie d’IA », on entend autant les chatbots de service client que le big data à base de machine learning, entre autres.

La sécurité informatique est sortie du radar

Entre 2015 et 2025, les trois premiers sous-indicateurs (accès à Internet, bande passante, e-commence) n’ont pas changé.

Le critère « 1 % de ventes sur le web et au moins 10 % en B2C » n’entrait pas dans l’index en 2018 et 2020. À la place était la pratique du big data sur des données internes ou externes.

Le critère « achat de services cloud » n’a pas toujours été présent, en tout cas sous cette forme. De 2015 à 2020, Eurostat a mesuré le taux d’entreprises fournissant des « appareils portables à connexion Internet mobile » (précision en 2018 et 2019 : réseau cellulaire) à au moins 20 % de leurs employés. En 2022 et 2024, il s’est intéressé à celles qui documentaient leurs mesures, pratiques ou procédures de sécurité informatique.

De 2015 à 2018, ainsi qu’en 2020, le sixième sous-indicateur n’était pas l’achat de services cloud « sophistiqués » ou « intermédiaires », mais le fait d’avoir un site web proposant au moins une des fonctionnalités suivantes :

  • Description de biens et de services
  • Affichage de prix
  • Possibilité pour le visiteur de personnaliser ou de concevoir des biens et services
  • Suivi de commandes
  • Personnalisation du contenu du site pour les visiteurs réguliers

En 2019, 2022 et 2024, pour ce même sous-indicateur, Eurostat a mesuré le taux d’entreprises informant les employés de leurs obligations en matière de sécurité informatique.

À la place du critère « avoir un site web », il y eut, en 2019, 2022 et 2024, « recourir à au moins 3 mesures de sécurité informatique ». En 2021 et 2023, « utiliser au moins deux réseaux sociaux ».

Quand l’IoT, l’impression 3D, la robotique et la pub en ligne étaient des critères

En 2018, il ne s’agissait pas d’utiliser au moins un réseau social, mais d’avoir un site ayant des liens ou des références aux profils sociaux de l’entreprise. En 2020, il s’agissait d’utiliser l’impression 3D. Et en 2022 et 2024, de dispenser au personnel des formations en informatique.

Historiquement, le neuvième sous-indicateur a souvent porté sur l’emploi de spécialistes des TIC (2017, 2018, 2020, 2022, 2024). En 2015 et 2016 aussi, mais avec une option de plus : recourir à des fonctions TIC réalisées principalement par des prestataires externes. En 2019, il fallait utiliser les réseaux sociaux à au moins deux fins. Et en 2021, utiliser l’IoT.

Le sous-indicateur « utiliser au moins une technologie d’IA » est tout nouveau. En 2015 et 2017, Eurostat s’était penché sur les entreprises qui partageaient des données « relatives à la gestion de la supply chain » par voie électronique avec clients ou fournisseurs. En 2016 et 2018, à celles qui achetaient de la pub sur Internet. Et en 2019, à celles qui réalisent des ventes en ligne dans d’autres pays de l’UE. En 2020 et 2022, les entreprises étaient évaluées sur leur utilisation de robots industriels ou de service.

La facturation électronique, indicateur pendant un temps

« Utiliser un ERP » a été présent par intermittence. En 2016, il fallait pratiquer la facturation électronique. En 2018 et 2020, acheter des services cloud de niveau « intermédiaire ou élevé » (« medium-high »). Les versions 2022 et 2024 analysaient la fourniture, aux employés, d’un accès distant à la messagerie électronique, aux documents ou aux applications.

Même présence par intermittence pour « utiliser un CRM ». En 2016, ce sous-indicateur était réservé aux services cloud medium-high. En 2018 et 2020, à la facturation électronique. Eurostat a aussi examiné l’organisation de réunions en ligne, en 2022 et 2024.

Illustration générée par IA

The post Décennie numérique : ce que l’UE mesure quand elle parle de digitalisation des entreprises appeared first on Silicon.fr.

  •  

De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM

A=B donc B=A ? Pour les LLM, ça ne coule pas de source.

En 2023, nous nous étions fait l’écho d’une étude à ce sujet. Laquelle démontrait, dans les grandes lignes, que les modèles auxquels on n’avait pas appris une relation d’équivalence « dans les deux sens » (« A=B » et « B=A ») avaient du mal à la déduire.

Ce phénomène, dit reversal curse (littéralement, « malédiction de l’inversion »), figure dans une taxonomie que proposent trois universitaires américains. Ils y synthétisent l’état de la recherche sur les erreurs de raisonnement des LLM.

Leur ontologie distingue le raisonnement « incarné » (embodied, dépendant d’interactions avec des environnements physiques) et « non incarné » (qui met en jeu des processus cognitifs n’exigeant pas ces interactions). Dans le « non incarné », elle sépare raisonnement formel (qui implique la manipulation de symboles sur la base de règles) et informel (qui relève du jugement intuitif).

Les erreurs sont réparties en trois catégories :

  • Fondamentales (intrinsèques aux architectures et à l’entraînement des modèles)
  • Spécifiques à des applications
  • De robustesse (sensibilité à des variations mineures)

Face aux limites cognitives, imiter l’attention humaine

En matière de raisonnement informel, les erreurs peuvent découler d’un manque d’aptitudes cognitives. Les limites de la mémoire de travail en font partie (notamment le fait qu’une information ancienne peut perturber l’acquisition d’une nouvelle). Le contrôle inhibiteur aussi. Les LLM n’ont pas tous cette faculté à contenir une réaction impulsive. En tout cas au sens où peu importe l’évolution du contexte, ils s’en tiennent souvent à des patterns appris. Dans le même esprit, ils peuvent manquer de flexibilité cognitive. En d’autres termes, d’une capacité à s’adapter à de nouvelles règles et/ou à basculer efficacement entre des tâches. Le raisonnement abstrait – capacité à reconnaître des motifs dans des concepts – peut aussi leur faire défaut (déduction de règles à partir d’exemples, gestion des abstractions temporelles…).

Tous ces éléments se manifestent par des problèmes de robustesse. Ils découlent de limites d’architecture et d’entraînement : dispersion de l’attention, prédiction de tokens qui privilégie les statistiques au raisonnement, etc. S’y ajoute, pour les LLM entraînés exclusivement sur du texte, un manque d’ancrage avec le monde physique et social. Parmi les solutions explorées : insertion des chaînes de pensée dans les prompts, enrichissement de la récupération, fine-tuning avec injection d’interférences et mécanismes imitant l’attention humaine.

Des personnalités pour atténuer les biais

Au-delà du manque d’aptitudes cognitives, il y a les biais. Le contenu de l’information joue. Les LLM tendent à favoriser celle alignée sur leurs croyances ou sur le contexte précédent (reflet du biais de confirmation). Ils se révèlent également sensibles aux biais d’attribution et de négativité. Qui priorisent respectivement le contenu « populaire » et les inputs négatifs.

La présentation de l’information influe aussi. Le biais d’ordre n’épargne effectivement pas les LLM, comme le biais d’ancrage (les données présentées en premier influencent démesurément le raisonnement). S’y ajoute l’effet de cadrage (des prompts équivalents d’un point de vue logique mais formulés différemment produisent des résultats différents).La perspective narrative a également un certain poids.

Au sein de la taxonomie proposée, les erreurs relevant de biais cognitifs sont de l’ordre du fondamental. Résultant des architectures et de l’entraînement/alignement, elles se manifestent par des problèmes de robustesse. Parmi les solutions étudiées : entraînement antagoniste, filtrage des outputs et attribution de personnalités aux modèles.

La difficile acquisition des « soft skills »

Certaines erreurs de raisonnement cognitif ne se manifestent que dans des contextes sociaux spécifiques. Les LLM ne parviennent pas toujours à comprendre les normes sociales et l’état d’esprit d’autrui.

Sur ce dernier point, les difficultés tiennent autant à la compréhension des perceptions qu’à la prédiction des croyances. Le raisonnement que les modèles ont à ce propos apparaît d’autant plus fragile que des modifications mineures dans la formulation d’une tâche suffisent à le perturber. C’est sans compter les déficits sur le plan émotionnel, avec une tendance aux biais d’affect et une compréhension limitée des variations culturelles.

Sur le volet des normes sociales, il arrive que les LLM produisent des jugements contradictoires d’un point de vue éthique. Là aussi, ils se révèlent sensibles à la formulation des tâches, y compris en fonction des langues. Le fine-tuning a tendance à exacerber cette sensibilité.

Dans l’un et l’autre cas, on est sur des limites spécifiques à des applications (tâches relevant de la sûreté et de la confidentialité, en particulier). Elles se traduisent par des problèmes de robustesse – en première ligne, les risques de manipulation. Fine-tuning et apprentissage par renforcement ne constituent souvent des solutions que pour des contextes simples.

Dans les systèmes agentiques, des palliatifs durs à généraliser

Des limites, les LLM en ont aussi au niveau du raisonnement social explicite. Elles se manifestent dans les systèmes de planification agentique. Tendant à trop s’appuyer sur des informations locales ou récentes, les modèles peuvent échouer à développer des stratégies coordonnées sur le long terme.

Ces limites tiennent à la fois à leurs capacités individuelles et à la conception des systèmes agentiques. Ils se manifestent souvent par des problèmes de robustesse. Et sont accentués par les faiblesses de raisonnement social implicite comme par le manque d’aptitudes cognitives.

Parmi les solutions explorées, il y a l’enrichissement des représentations internes (suivi des croyances, validation des hypothèses). Il y a aussi des protocoles de communication avec vérification obligatoire et des agents qui « challengent » les outputs contestables. Toutes ces approches sont néanmoins difficiles à généraliser. L’ingénierie de contexte apparaît comme une méthode alternative plus robuste dans les systèmes agentiques.

Les graphes pour donner des chemins de raisonnement

En matière de raisonnement logique formel, le reversal curse est essentiellement attribué aux objectifs d’entraînement unidirectionnels des modèles transformeurs. Ils induisent en effet un asymétrie structurelle dans les poids. La principale solution explorée dans la littérature scientifique consiste à « augmenter » les données d’entraînement – entre autres par inversion syntaxique de faits et permutation d’unités sémantiques – pour restaurer une symétrie.

La raisonnement compositionnel (combinaison de connaissances) pose aussi des problèmes. On les doit aux incapacités de planification holistique et aux limites de pensée profonde. En guise de solution, outre le prompting à base de chaînes de pensée, est exploré l’entraînement à base de « chemins de raisonnement » structurés en graphes.

La syntaxe peut tout changer

L’exploitation des structures logiques implicites contenues dans les benchmarks peut révéler des problèmes de robustesse. Ce fut l’objet d’études qui ont introduit des modifications préservant la sémantique, comme changer l’ordre des réponses dans un QCM, réorganiser des prémisses ou éditer des éléments secondaires (noms de personnages, par exemple).

Ces transformations structurelles ont été appliquées aux problèmes de mathématiques comme aux benchmarks de code (édition syntaxique de docstrings, renommage de fonctions et de variables, altération de la logique de contrôle de flux…). Pour pallier les limites qu’elles ont fait ressortir, la principale solution consiste à appliquer des perturbations pour diversifier les données d’entraînement. Une technique toutefois difficile à généraliser.

Dans le domaine de l’arithmétique, les limites tiennent beaucoup à l’architecture des modèles (encodage positionnel, tokenisation…). La précision numérique limitée n’aide pas. Comme la tendance à l’usage du raisonnement heuristique (pattern matching).

Une des solutions explorées passe par des jeux de données plus précis, détaillant les étapes de traitement. Une autre imite les stratégies de calcul humaines, par exemple en focalisant l’attention sur le chiffre des unités dans le cadre des multiplications.

Le défi de l’ancrage dans le monde réel

Quantité d’analyses ont démontré le manque de bon sens des LLM sur la physique du monde réel : lois fondamentales, attributs des objets, relations spatiales… Il en résulte des erreurs fondamentales.
Même lorsqu’ils ont les compétences, les modèles échouent souvent à les appliquer à des domaines concrets. On tombe là dans les limites spécifiques à des applications.

Le fine-tuning sur des corpus qui encodent explicitement des connaissances de la physique du monde réel est une solution. L’insertion des chaînes de pensée dans les prompts en est une autre, destinée à stimuler la découverte de relations causales et spatiales plus nuancées. Piste alternative : le recours à des outils externes, tels des simulateurs.

Le manque de « bon sens physique » se reporte sur l’analyse d’images statiques, et plus encore d’environnements 3D. Les LLM ont souvent du mal à dénombrer les objets, décrire leurs relations spatiales et à détecter des anomalies. Ils ont globalement tendance à s’appuyer démesurément sur les données textuelles de leur corpus d’entraînement et sur les scénarios communs qu’ils y ont détectés. On touche là à des problèmes de robustesse, en plus de ceux spécifiques à des applications.
Les solutions étudiées incluent la modification des données d’entraînement pour réduire le biais vers le texte, les mécanismes d’attention à ancrage spatial et l’apprentissage par renforcement pour inculquer ce fameux « bon sens ».

À l’échelle des systèmes agentiques, les plans d’action comprennent parfois des actions impossibles du point de vue de la physique. On tombe là dans des erreurs fondamentales, découlant notamment d’un déficit d’affordance (raisonnement sur ce qui peut arriver à des objets).

Illustration © maylim – Adobe Stock

The post De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM appeared first on Silicon.fr.

  •  

IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non

{ Mise à jour } – Dario Amodei n’aura pas attendu la date limite de l’ultimatum, ce 27 février, fixé par Pete Hegseth, secrétaire à la Défense.

Dans un long communiqué, le PDG d’Anthropic a donné sa réponse dès hier après-midi ( à l’heure californienne) : c’est Non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit Dario Amodei.

Et de poursuivre : « Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit-il, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

Pour clarifier son refus, Mario Amodei rappelle sa doctrine sur l’IA militaire: « Nous soutenons l’utilisation de l’IA pour des missions légitimes de renseignement et de contre-espionnage à l’étranger. Mais l’utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques », écrit-il en estimant que cette pratique « représente un risque grave et inédit pour nos libertés fondamentales ».

Autre sujet de désaccord : les armes autonomes.  Le PDG précise « Sans un contrôle adéquat, on ne peut compter sur des armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement qualifiées. Leur déploiement doit être encadré par des garde-fous appropriés, qui n’existent pas actuellement ». Et d’ajouter qu’aucun de ces sujets n’avaient  « constitué, jusqu’à présent, un obstacle à l’accélération de l’adoption et de l’utilisation de nos modèles au sein de nos forces armées ».

Il relève aussi que « Ces deux menaces sont incohérentes : l’une nous qualifie de risque pour la sécurité, la seconde fait de Claude un élément essentiel pour la sécurité nationale. »

Le refus d’obtempérer aux menaces de Pete Hegseth d’une désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » étant désormais acté, le Ministère de la Guerre va-t-il mettre sa menace à exécution ? .

——————————————————————-

La bataille sans précédent qui se joue en ce moment entre le Pentagone et Anthropic prend une nouvelle tournure. Selon des informations exclusives d’Axios, le département de la Défense a contacté ce mercredi deux géants de l’industrie de défense – Boeing et Lockheed Martin – pour évaluer leur dépendance au modèle d’IA Claude. Une première étape vers une éventuelle désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».

Cette sanction, habituellement réservée aux entreprises issues de pays adversaires, comme le chinois Huawei, n’a jamais été appliquée à une firme technologique américaine de premier plan. L’appliquer à Anthropic constituerait un précédent historique.

Claude au cœur des systèmes classifiés

L’enjeu est considérable. Claude est aujourd’hui le seul modèle d’IA opérant dans les systèmes classifiés de l’armée américaine. Selon Axios, il aurait été mobilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, via le partenariat d’Anthropic avec Palantir, et pourrait à terme être engagé dans d’éventuelles opérations militaires en Iran.

Si le Pentagone salue les performances de Claude, il est en revanche « furieux » qu’Anthropic refuse de lever ses garde-fous pour autoriser une utilisation aux fins de « toutes missions légales ». La startup tient notamment à bloquer le recours à son IA pour la surveillance de masse des citoyens américains ou pour le développement d’armements autonomes, c’est-à-dire capables de tirer sans intervention humaine.

Un ultimatum fixé au 27 février

La tension a culminé le 24 février lors d’une réunion particulièrement tendue. Le secrétaire à la Défense Pete Hegseth aurait fixé un ultimatum au PDG d’Anthropic, Dario Amodei : se plier aux exigences du Pentagone d’ici le 27 février. Faute de quoi, l’administration aurait recours soit au Defense Production Act, une loi permettant de contraindre des entreprises privées à servir les intérêts nationaux, soit à la désignation de « risque pour la chaîne d’approvisionnement ».

« Ce sera une vraie galère à démêler, et nous allons faire en sorte qu’ils paient le prix de nous avoir forcé la main », a déclaré à Axios un haut responsable de la Défense, évoquant cette possible désignation.

Du côté d’Anthropic, on préfère minimiser les tensions. Un porte-parole a décrit la réunion comme « une continuation de conversations de bonne foi sur notre politique d’utilisation, afin de garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement dans le cadre de ce que nos modèles peuvent faire de manière fiable et responsable ». Aucun commentaire n’a été formulé sur la possible désignation de risque.

La concurrence s’engouffre dans la brèche

Pendant ce temps, les concurrents se positionnent. xAI, la société d’IA d’Elon Musk, vient de signer un accord pour intégrer les systèmes classifiés de l’armée, sous la clause d’« usage légal complet » qu’Anthropic a précisément refusée. Google et OpenAI, dont les modèles sont déjà présents dans les systèmes non classifiés, seraient en négociations pour franchir le même pas. Selon une source citée par Axios, le Gemini de Google représente déjà « une solide alternative » à Claude dans plusieurs cas d’usage militaires.

Une désignation de risque serait un coup sévère pour Anthropic si elle conduisait les entreprises partenaires de l’État à retirer Claude de leurs infrastructures. Mais la scale-up pourrait aussi y trouver un bénéfice inattendu : être perçue, aux yeux de ses clients et de ses talents, comme l’entreprise qui a tenu bon face aux pressions d’une course aux armements dans l’IA. La date limite approche.

 

Article mis à jour le 27 février avec la position de refus d’Anthropic

The post IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non appeared first on Silicon.fr.

  •  

Accenture et Mistral AI s’allient autour d’une IA générative «souveraine »

Accenture et Mistral AI annoncent une collaboration stratégique sur plusieurs années, visant à accompagner les organisations en Europe et à l’international dans le déploiement d’IA avancée à grande échelle. Les deux entreprises co‑développeront des solutions « enterprise‑grade » destinées à répondre à des cas d’usage concrets dans différents secteurs, avec la promesse de résultats mesurables.

Le dispositif s’appuie sur la combinaison des modèles de Mistral AI et des capacités d’Accenture en architecture, gouvernance et passage à l’échelle des systèmes d’IA dans des environnements complexes. L’objectif affiché est de permettre aux entreprises de capter rapidement de la valeur, dans un cadre sécurisé et conforme aux exigences réglementaires propres à chaque région.

L’« autonomie stratégique », axe clé du discours

Le partenariat est explicitement présenté comme un levier d’« autonomie stratégique » pour les clients, en s’appuyant sur des modèles dits « souverains » développés par Mistral AI. Pour Accenture, cela permet de proposer des solutions combinant performance de pointe et maîtrise complète des données et des modèles par ses clients.

Ce positionnement répond aux attentes d’entreprises européènnes soucieuses de limiter leur dépendance aux grands fournisseurs extra‑européens de modèles d’IA, tout en respectant des cadres réglementaires comme l’AI Act. L’association entre un intégrateur mondial et un champion européen de l’IA open‑weight s’inscrit dans la stratégie plus large de Mistral AI de multiplier des alliances structurantes avec des grands comptes et plateformes.

Accenture, intégrateur et client de Mistral AI

Dans le cadre de l’accord, Accenture devient également client de Mistral AI et prévoit d’équiper ses équipes des modèles et produits de la start‑up, notamment Mistral AI Studio. Les technologies de Mistral seront intégrées dans les propres opérations d’Accenture, afin d’alimenter les solutions délivrées aux clients et d’industrialiser les usages internes de l’IA.

Cette double casquette, intégrateur et utilisateur,  a vocation à accélérer l’acculturation des équipes d’Accenture aux outils de Mistral AI et à enrichir le retour d’expérience sur les déploiements à grande échelle.

L’accord ne se limite pas au volet technologique et inclut la création de programmes dédiés de formation et de certification à destination des clients. Ces parcours doivent fournir les compétences nécessaires pour déployer, affiner et opérer des solutions alimentées par Mistral AI à grande échelle, tout en adressant les enjeux de gouvernance.

The post Accenture et Mistral AI s’allient autour d’une IA générative «souveraine » appeared first on Silicon.fr.

  •  

IaaS, inférence, bureautique… Microsoft rend son cloud un peu plus « local »

Pas de VM à lancement fiable, de GPU sur AKS, d’actions de remédiation avec le moteur de politiques… En mode déconnecté, Azure Local a des limites fonctionnelles.

Pour autant, ce mode vient de passer en disponibilité générale. Il complète celui dit à « connectivité limitée », qui n’impose pas l’hébergement du plan de contrôle en local et qui envoie certaines données vers le cloud, à commencer par les logs.

En mode déconnecté, Azure Local permet pour le moment de créer des VM Windows (10 Enterprise ; Server 2022/2025) et Linux (Ubuntu 22.04/24.04 LTS). La gestion des clusters Kubernetes vanilla et AKS est en preview. Comme les VM à lancement fiable (secure boot, vTPM et attestation).

Le cluster de management doit comprendre au moins 3 nœuds physiques. Chacun avec 96 Go de RAM, 24 cœurs physiques et 2 To NVMe. Certaines opérations ne peuvent être effectuées sur le portail Azure, comme la création d’interfaces réseau et de clés SSH (pour AKS). On ne peut pas forcer la synchronisation des identités, réalisée toutes les 15 minutes.

Microsoft 365 adapté à Azure Local

Autre offre qui passe en disponibilité générale : Microsoft 365 Local. Elle permet de déployer Exchange Server, SharePoint Server et Skype for Business Server (Subscription Edition) sur des architectures de référence Azure Local. Impératif : utiliser du matériel certifié Premier (une vingtaine de configurations disponibles : du Dell AX et APEX, du Lenovo ThinkAgile et du HPE ProLiant).

Microsoft s’est engagé à supporter les trois produits au moins jusqu’à fin 2035.

Catalogue enrichi pour Foundry Local

Foundry Local reste en preview, mais accueille de plus gros modèles à son catalogue.

Cette version locale de Microsoft Foundry (ex-Azure AI Foundry) est installable sur Windows 10 (x64), Windows 11 (x64/Arm), Windows Server 2025 et macOS (Apple Silicon). Elle donne accès à une API et un serveur REST, un SDK (C#, Python, JavaScript) et un runtime ONNX. L’inférence est locale, mais le réseau peut être utilisé pour télécharger modèles et composants, et éventuellement partager des logs.

Pour le moment, l’API ne fonctionne qu’en mode chat/completions – le SDK permettant d’exploiter les modèles de reconnaissance vocale Whisper. Pensé pour un fonctionnement mononœud, Foundry Local ne gère ni l’autoscaling, ni la concurrence (le parallélisme est à contrôler au niveau applicatif), ni le batching continu. Quant à catalogue, avec 25 modèles, on est encore loin des plus de 8000 proposés sur la version cloud de Foundry.

Les 25 modèles disponibles

Modèle Taille Licence Variantes
Phi-3-mini-4k-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN, Vitis)
Phi-3-mini-128k-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN, Vitis)
Phi-3.5-mini-instruct 2,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN)
Phi-4-mini-instruct 3,6 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO)
NPU (OpenVINO, Vitis)
Phi-4-mini-reasoning 3,1 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO)
NPU (OpenVINO, Vitis)
Phi-4 8,4 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Phi-4-reasoning 8,4 Go MIT CPU
GPU (CUDA, WebGPU)
DeepSeek-R1-Distill-Qwen-1.5B 1,4 Go MIT GPU (TensorRT)
DeepSeek-R1-Distill-Qwen-7B 5,3 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
DeepSeek-R1-Distill-Qwen-14B 9,8 Go MIT CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (QNN)
Qwen2.5-0.5B-Instruct 0,5 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-Coder-0.5B-Instruct 0,5 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-1.5B-Instruct 1,3 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, QNN)
Qwen2.5-Coder-1.5B-Instruct 1,3 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-7B-Instruct 4,7 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (Vitis)
Qwen2.5-Coder-7B-Instruct 4,7 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
NPU (OpenVINO, Vitis)
Qwen2.5-14B-Instruct 8,8 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Qwen2.5-Coder-14B-Instruct 8,8 Go Apache 2.0 CPU
GPU (CUDA, WebGPU, OpenVINO, TensorRT)
Mistral-7B-Instruct-v0.2 4,3 Go Apache 2.0 GPU (OpenVINO)
NPU (OpenVINO, Vitis)
gpt-oss-20b 9,7 Go Apache 2.0 CPU
GPU (CUDA)

Illustration © Greentech – Adobe Stock

The post IaaS, inférence, bureautique… Microsoft rend son cloud un peu plus « local » appeared first on Silicon.fr.

  •  

Claude Code, la fin des mainframes ? IBM crie à l’amalgame

Les mainframes, c’est un peu comme l’iPhone.

Sans l’exprimer ainsi, IBM a tout de même fait le rapprochement, en réaction à un emballement boursier qui lui a été défavorable.

Vendredi 20 février, le titre avait clos à environ 257 $. Lundi 23, la tendance baissière constatée depuis l’ouverture s’est subitement accélérée à la mi-journée. À la fermeture, l’action avoisinait les 225 $. Son cours avait donc chuté de près de 15 %.

L’élément déclencheur fut probablement un post d’Anthropic, sur le blog consacré à ses LLM Claude. Sujet : comment l’IA « aide à passer outre la barrière du coût pour la modernisation cobol ».

Ce que dit le post d’Anthropic

Le contexte est posé d’une façon simple, pas nouvelle : de moins en moins de personnes compétentes dans ce langage, du code mal documenté qui a évolué sur des décennies… et donc d’autant plus de difficulté à moderniser. Là interviennent « des outils comme Claude Code ». Ils automatisent les phases d’exploration et d’analyse, qui « représentent l’essentiel des efforts » de modernisation.

Avec eux, « plus besoin d’une armée de consultants », ajoute Anthropic. Ils vont au-delà des graphes d’appels pour découvrir des dépendances implicites qu’une analyse statique ne révèle pas : structures de données partagées, opérations qui créent du couplage entre modules, séquences d’initialisation qui affectent l’exécution, etc.

L’IA documente aussi les workflows, identifie les risques et suggère une feuille de route, poursuit Anthropic. L’humain apporte sa connaissance des exigences réglementaires, des priorités métiers, des contraintes opérationnelles (exigences de standardisation, d’intégration…) et des degrés de tolérance auxdits risques. Il décide aussi si les tests fonctionnels suggérés suffisent, quels scénarios nécessitent une validation par des experts et quels critères de performance le code modernisé doit respecter.

La démarche est validée par étapes, sans changements massifs qui exigeraient de revenir sur des semaines de travail, conclut Anthropic.

Pourquoi IBM dénonce un amalgame

IBM ne s’en prend pas tant à ce post qu’à l’interprétation que le marché semble en avoir faite.

Traduire du code est une chose ; moderniser une plate-forme en est une autre, affirme-t-il. La valeur des mainframes réside dans leur architecture, du silicium à l’OS. De là, le défi de modernisation n’est pas un problème de conversion de langage. Le vrai travail, c’est l’ingénierie système : reconception de l’architecture data, remplacement du runtime, maintien de l’intégrité du traitement des transactions, respect des exigences non fonctionnelles embarquées.

Un simple refactoring de code ne suffit pas à répliquer des décennies d’intégration étroite entre logiciel et matériel, poursuit Big Blue. C’est là qu’il fait l’analogie avec l’iPhone.

Son propos touche aussi à un aspect qu’Anthropic n’aborde pas – tout du moins explicitement -, mais que le marché a dans son radar : comment une solution full SaaS pourrait-elle remplacer des applications mainframe ? Cela paraît difficile vu l’ampleur des dépendances on-prem, estime IBM, qui brandit de surcroît l’argument de la souveraineté et de la résidence des données.

Partant, la conversion du cobol ne serait pas un sujet de mainframes. Environ 40 % de ce code fonctionne sur Windows, Linux et d’autres systèmes distribués, avance IBM. On évitera donc l’amalgame…

Illustration générée par IA

The post Claude Code, la fin des mainframes ? IBM crie à l’amalgame appeared first on Silicon.fr.

  •  

HP plombé par la flambée des puces mémoire

Pendant que les géants du cloud engloutissent des capacités de mémoire pour alimenter leurs data centers, les fabricants comme HP font les frais de cette ruée. Si le constructeur américain d’ordinateurs et d’imprimantes a publié mardi des résultats trimestriels supérieurs aux attentes,  il indique s’attendre à ce que ses bénéfices annuels se situent « en bas de la fourchette » de sa guidance, soit autour de 2,90 $ par action sur les 2,90 à 3,20 $ annoncés.

Plus préoccupant encore, HP anticipe un recul des livraisons de PC « à deux chiffres » sur l’ensemble de l’exercice fiscal 2026, en ligne avec les tendances du secteur.

La mémoire, talon d’Achille du secteur

Au cœur de ces turbulences : la pénurie de puces mémoire. En novembre dernier, HP estimait que les composants mémoire et stockage représentaient 15 à 18 % du coût de fabrication de ses ordinateurs. Ce ratio devrait grimper à 35 % sur l’ensemble de l’exercice fiscal. La directrice financière Karen Parkhill a précisé lors d’une conférence téléphonique avec les analystes que les prix de la mémoire avaient pratiquement doublé en l’espace d’un trimestre  et que de nouvelles hausses sont attendues. La pénurie devrait persister au-delà de l’exercice 2026.

Face à cette situation, HP dit avoir engagé plusieurs mesures correctives : diversification de ses fournisseurs, ajustement de certains produits pour réduire leur consommation de mémoire, et hausse des prix de vente. « Nous avons une solide expérience dans la gestion des cycles de matières premières », a déclaré Bruce Broussard, le directeur général par intérim, en tentant de rassurer.

Tarifs douaniers et transition au sommet

La volatilité des composants n’est pas le seul défi. HP doit également composer avec la politique commerciale de l’administration Trump. Le groupe a largement relocalisé sa production hors de Chine pour les produits destinés au marché nord-américain, une anticipation des droits de douane qui s’avère payante à court terme. HP indique ne pas s’attendre à ce que les nouvelles mesures tarifaires américaines pèsent immédiatement sur ses activités, tout en précisant qu’il « continue de dialoguer avec l’administration sur ces sujets ».

La situation est par ailleurs compliquée par un changement de direction inattendu. Début mars, PayPal a débauché Enrique Lores, le PDG d’HP, pour en prendre les rênes. C’est donc Bruce Broussard, administrateur du conseil, qui assure l’intérim pendant que le groupe cherche un successeur permanent.

Des signaux positifs à ne pas négliger

Le tableau n’est pas entièrement sombre. HP note une demande soutenue en Europe et en Asie, portée par le cycle de renouvellement lié à Windows 11. Le segment premium, tant professionnel que grand public, tire les prix moyens de vente vers le haut. Et les PC dotés de fonctionnalités d’intelligence artificielle représentaient plus de 35 % des livraisons au premier trimestre, contre 30 % le trimestre précédent, une adoption en accélération qui redonne des couleurs au groupe.

HP a par ailleurs lancé un programme de réduction des coûts sur plusieurs années, visant un milliard de dollars d’économies annuelles d’ici 2028, même si ce plan s’accompagne de charges de restructuration dans l’immédiat.

Un trimestre solide, une année difficile

Sur le plan strictement comptable, le premier trimestre fiscal ( clos le 31 janvier) est plutôt encourageant. Le chiffre d’affaires a progressé de 6,9 % à 14,44 milliards $. La division Personal Systems, qui regroupe les PC grand public et professionnels, a enregistré une hausse de 11 % de ses revenus à 10,25 milliards $, portée notamment par un bond de 16 % des ventes grand public. L’impression, en revanche, recule de 2 % à 4,19 milliards.

The post HP plombé par la flambée des puces mémoire appeared first on Silicon.fr.

  •  

Kiro, l’IA d’Amazon, a cassé AWS : ce qu’on en sait

Erreur humaine ou pas, toujours est-il qu’une IA, héritant des privilèges d’un ingénieur, a supprimé un environnement de production.

Une partie des commentaires sur « l’affaire Kiro » convergent en ce constat.

Amazon n’avait initialement pas communiqué à propos de l’incident, survenu mi-décembre. Il a fini par le faire la semaine dernière… après que le Financial Times l’eut révélé.

Ce qu’affirme le Financial Times

S’en référant à des employés d’Amazon, le FT déclare qu’AWS a subi, « ces derniers mois », au moins deux pannes en production dues à des erreurs impliquant ses propres outils d’IA. Il ne date pas l’une d’entre elles, qui aurait, toujours selon des employés, impliqué l’assistant Amazon Q Developer.

Celle de mi-décembre a entraîné 13 heures d’indisponibilité pour un « système utilisé par les clients ». La conséquence de modifications effectuées par l’assistant Kiro, qui avait choisi de supprimer puis de recréer un environnement.

Autre propos prêté à des employés : traités comme une « extension » des ingénieurs, les outils IA avaient les mêmes permissions. Dans l’un et l’autre cas, les personnes impliquées n’ont pas sollicité de validation des changements par un pair.

Le FT attribue certains propos directement à Amazon. D’après ce dernier, l’incident de décembre a été « extrêmement limité » : un seul service affecté, dans certaines zones de Chine continentale. Quant à l’autre incident, il n’a pas eu d’impact sur des services exposés aux clients.

Autre déclaration attribuée au groupe américain : dans les deux cas, il s’agissait d’une erreur humaine. Plus précisément un problème de contrôle d’accès : l’ingé impliqué dans l’incident de décembre avait plus de permissions qu’il n’aurait dû. Le même problème aurait pu se produire avec tout outil – doté ou non d’IA – ou toute action manuelle.

Ce que rétorque Amazon

Concernant le prétendu incident avec Amazon Q Developer, le groupe américain est catégorique : « Il est complètement faux de dire qu’un deuxième événement a impacté AWS ».

Celui de décembre a touché l’explorateur de coûts AWS (Cost Explorer), dans une de ses 39 régions cloud. Amazon juge ce périmètre « extrêmement limité » et précise n’avoir reçu aucune demande client.

L’entreprise confirme le scénario des contrôles d’accès mal configurés. C’est « une coïncidence » que des outils d’IA aient été impliqués, clame-t-elle. Et d’ajouter avoir implémenté des garde-fous « pour que cela ne se reproduise pas ». Parmi eux, une révision systématique par les pairs pour les accès en prod.

Une « directive Kiro » qui ne fait pas l’unanimité

En complément à ces éléments, un porte-parole a expliqué que l’erreur humaine n’était pas la validation de l’action par l’ingénieur, mais le fait que ce dernier n’avait pas compris quel était son niveau de privilèges. Sous-entendu : il aurait probablement agi différemment s’il avait su.

Amazon assure que par défaut, Kiro demande une validation pour chaque action qu’il souhaite effectuer. Il ne dit en revanche rien de la façon dont l’assistant a proposé de supprimer l’environnement en question. A-t-il été explicite ? Dans la négative, l’ingénieur s’est-il renseigné davantage avant de valider ?…

En toile de fond, une directive interne de novembre 2025 par laquelle Amazon pousse ses équipes à standardiser sur Kiro. Une démarche entreprise tant au nom d’une sécurité renforcée (limitation des risques de fuites de données, notamment) que d’une télémétrie unifiée.

L’initiative a suscité des remous. Plus d’un millier d’employés ont demandé de pouvoir conserver un accès à des outils, dont Claude Code. Motif : ils sont plus performants que Kiro sur des cas d’usage comme le refactoring multilangage et la gestion de certains frameworks « de niche ».

Illustration générée par IA

The post Kiro, l’IA d’Amazon, a cassé AWS : ce qu’on en sait appeared first on Silicon.fr.

  •  

Meta mise des dizaines de milliards sur les GPU d’AMD

Meta et AMD ont signé un accord pluriannuel portant sur le déploiement de jusqu’à 6 gigawatts de puissance de calcul dédiée aux centres de données d’IA du groupe, à base de GPU Instinct et de CPU optimisés pour l’IA. Cette capacité sera déployée progressivement sur plusieurs années, à partir de la seconde moitié de 2026, ce qui en fait l’un des plus grands projets d’infrastructure IA au monde.

Les premiers déploiements s’appuieront sur l’architecture rack Helios, co‑conçue par Meta et AMD dans le cadre de l’Open Compute Project, afin d’optimiser densité, efficacité énergétique et intégration logicielle.

AMD fournit des GPU de nouvelle génération (MI450) et des CPU EPYC de 6ème génération, dimensionnés pour les charges d’inférence à grande échelle, en complément des capacités de training déjà en place chez Meta.

Objectif : diversifier et optimiser l’infrastructure IA

Cette montée en puissance d’AMD arrive alors que Meta reste l’un des plus gros clients de Nvidia, avec un parc équivalent à plusieurs centaines de milliers de GPU H100 et futurs Blackwell pour l’entraînement de modèles de fondation. En introduisant massivement les GPU Instinct d’AMD dans ses data centers, Meta cherche à diversifier ses fournisseurs, réduire son exposition au seul écosystème CUDA et optimiser le coût total de possession de ses clusters IA.

Les GPU Instinct sont déjà utilisés par Meta sur certaines charges, et AMD met en avant des gains de performance par watt et de TCO sur des modèles largement déployés, qu’il s’agisse de recommandation, de vision ou de LLM.

L’accord avec Meta inclut en plus des GPU « customisés » pour les workloads du groupe, élément présenté comme un différenciateur face à Nvidia, qui ne met pas en avant ce degré de personnalisation dans ses grands contrats.

Un socle pour la “personal superintelligence”

Meta affirme vouloir bâtir une infrastructure capable de soutenir une « superintelligence personnelle » accessible à grande échelle, ce qui suppose des capacités massives pour l’entraînement et l’inférence de modèles multimodaux auprès de milliards d’utilisateurs.

Les 6 GW de puissance IA visés doivent alimenter les futures générations d’algorithmes de recommandation, d’assistants conversationnels, d’outils créatifs et de modération de contenu sur Facebook, Instagram, WhatsApp et les services de réalité mixte.

Pour tenir cette ambition, Meta prévoit la construction ou la conversion de 30 centres de données, dont 26 situés aux États‑Unis, conçus nativement pour les charges d’IA à forte intensité GPU et l’optimisation énergétique. La standardisation autour d’architectures communes comme Helios et Open Compute doit faciliter le scaling rapide, la maintenance et la co‑conception de nouvelles générations de racks avec AMD.

Un mécanisme de warrants qui aligne Meta et AMD

Au‑delà des équipements, l’accord comprend un mécanisme de warrant de performance donnant à Meta le droit d’acquérir jusqu’à 160 millions d’actions AMD, soit environ 10% du capital, sous conditions. Les tranches de ce warrant se débloquent à mesure que Meta reçoit les livraisons d’Instinct (1 GW, puis jusqu’à 6 GW), que certaines barrières de cours sont franchies par AMD et que des objectifs techniques et commerciaux sont atteints par les deux partenaires.

Ce montage crée un alignement fort : plus l’infrastructure AMD réussit chez Meta, plus Meta a intérêt à devenir actionnaire significatif d’AMD, et plus AMD bénéficie d’un client récurrent de très grande taille. Dans un contexte où AMD a déjà mis en place un dispositif similaire avec OpenAI pour ses futures générations de GPU MI450, ce schéma actionnarial renforce la place du fondeur comme alternative de référence à Nvidia dans le cloud IA.

Un message au marché des semi‑conducteurs IA

Pour AMD, ce contrat « à plusieurs dizaines de milliards de dollars » sur plusieurs années constitue un jalon majeur dans sa quête de parts de marché face à Nvidia sur le segment des GPU IA haut de gamme. L’annonce a d’ailleurs propulsé le titre AMD en forte hausse en pré‑marché, même si la réaction de Meta est restée plus mesurée, les investisseurs arbitrant entre l’ampleur des capex IA et la création de valeur à long terme.

The post Meta mise des dizaines de milliards sur les GPU d’AMD appeared first on Silicon.fr.

  •  

Les hébergeurs commencent à répercuter les coûts de la RAM et des SSD

Vu les prix actuels de la RAM et des disques NVMe, comment éviter des tarifs dissuasifs sur les nouvelles gammes de serveurs ?

OVHcloud a choisi de « diluer » les coûts en les répercutant en partie sur des machines d’anciennes générations. Il a commencé à en avertir les clients concernés, avec une date à retenir : le 1er avril 2026.

À cette même échéance, les prix augmenteront chez Hetzner. Là aussi, la hausse touchera des serveurs existants. L’hébergeur allemand affirme que la démarche est devenue nécessaire autant au regard des coûts du matériel que de l’exploitation de son infrastructure (le prix de l’électricité en Allemagne reste parmi les plus élevés d’Europe). Au contraire d’OVHcloud, il a publié sa future grille tarifaire. En voici une synthèse, focalisée sur les prix horaires – l’augmentation est du même ordre pour les tarifs mensuels.

Autour de 30 % d’augmentation pour les serveurs cloud

Hetzner est présent dans deux datacenters en Allemagne (Falkenstein, en Saxe ; Nuremberg, en Bavière), un en Finlande (Helsinki), deux aux États-Unis (Ashburn, en Virginie ; Hillsboro, dans l’Oregon) et un à Singapour.

En Allemagne et en Finlande, la hausse va de 30 à 35 % pour les serveurs cloud (familles CAX, CCX, CPX et CX) et de 36 à 39 % pour les load balancers. Le stockage objet de base prend 28 % ; les extensions, 30 %.

Aux États-Unis et à Singapour, on est autour de + 30 % pour les CCX, 30 à 33 % pour les CPX et 36 à 39 % pour les load balancers.

Dans tous ces emplacements, le prix des volumes et des instantanés augmente de 30 %.

De 3 à 30 % pour les serveurs dédiés

Pour les serveurs dédiés hébergés en Allemagne :

Serveurs AX DX EX GEX SX
Fourchette d’augmentation 3 à 31 % 16 à 17 % 12 à 15 % 16 % 5 à 17 %

Pour ceux hébergés en Finlande :

Serveurs AX DX EX SX
Fourchette d’augmentation 3 à 18 % 16 à 17 % 13 à 16 % 15 à 17 %

En Allemagne comme en Finlande, Hetzner applique une hausse de 3 % aux serveurs mis aux enchères (adjudication à la hollandaise, où le prix baisse progressivement).

Serveurs dédiés Hetzner : quelles configurations pour quels prix ?

Pour les serveurs dédiés, nous nous intéressons au prix mensuel, en euros HT, pour le moins cher et le plus cher de chaque famille. Une exception est faite pour l’EX130-R/S, actuellement introuvable dans le comparateur de prix de Hetzner.

Serveur Config de base Ancien prix Nouveau prix Différence
AX41-NVMe Ryzen 5 3600 (Zen2, 6 cœurs, 12 threads, 3,6 GHz)
64 Go DDR4
2 x 512 Go NVMe
41,10 42,30 + 2,9 %
AX162-R/S Version S : EPYC 9454P (Zen4, 48 cœurs, 96 threads, 2,75 GHz)
256 Go DDR5 ECC
2 x 1,92 To NVMe Gen4Version R : même CPU, 128 Go DDR5 ECC, 2 x 3,84 To NVME Gen4
207,30 242,30 + 16,9 %
DX153 Xeon Silver4410Y (Sapphire Rapids, 12 cœurs, 48 threads, 2 GHz)
64 Go DDR5 ECC
215,60 250,60 + 16,2 %
DX293 Xeon Gold 6438Y+ (Sapphire Rapids, 32 cœurs, 128 threads, 2 GHz)
64 Go DDR5 ECC
305,60 355,60 + 16,4 %
EX44 Core i5-13500 (Raptor Lake-S, 14 cœurs, 20 threads, 2,5 GHz)
64 Go DDR4
2 x 512 Go NVMe Gen4
42,30 47,30 + 18,2 %
GEX44 Core i5-13500 (Raptor Lake-S, 14 cœurs, 20 threads, 2,5 GHz)
64 Go DDR4
2 x 1,92 To NVMe Gen3
RTX 4000 SFF
182,30 212,30 + 16,5 %
GEX131 Xeon Gold 5412U (Sapphire Rapids-SP, 24 cœurs, 48 threads, 2,1 GHz)
256 Go DDR5 ECC
2 x 960 Go NVMe
RTX PRO 6000 Blackwell Max-Q
887,39 1029,30 + 16 %
SX65 Ryzen 7 3700X (Zen2, 8 cœurs, 16 threads, 3,6 GHz)
64 Go DDR4 ECC
4 x 22 To HDD
2 x 1 To NVMe
107,30 122,30 + 14 %
SX295 EPYC 7502P (Zen2, 32 cœurs, 64 threads, 2 GHz)
256 Go DDR4 ECC
14 x 22 To HDD
2 x 8 To NVMe
397,30 462,30 + 16,4 %

Les hausses en Finlande :

  • AX41-NVMe : + 3,1 % (de 35,60 à 36,70 €)
  • AX162-R : + 15,2 % (de 197,30 à 227,30 €)
  • DX153 : + 17 % (de 205,60 à 240,60 €)
  • DX293 : + 16,9 % (de 295,60 à 345,60 €)
  • EX44 : + 13,4 % (de 37,30 à 42,30 €)
  • EX130-R/S : + 15,1 % (de 132,30 à 152,30 €)
  • SX65 : + 14,7 % (de 102,30 à 117,30 €)
  • SX295 : + 15,7 % (de 382,30 à 442,30 €)

La nouvelle tarification des serveurs cloud Hetzner

Pour ces serveurs, nous avons retenu le prix horaire, toujours en euros HT.

Serveur Config de base Ancien prix Nouveau prix Différence
CAX11 2vCPU (Ampere)
4 Go RAM
40 Go SSD
0,0053 0,0072 + 35,8 %
CAX41 16 vCPU (Ampere)
32 Go RAM
320 Go SSD
0,0384 0,0505 + 31,5 %
CCX13 2 vCPU (AMD)
8 Go RAM
80 Go SSD
0,0192 0,0256 + 33,3 %
CCX63 48 vCPU (AMD)
192 Go RAM
960 Go SSD
0,4615 0,6001 + 30 %
CPX22 2 vCPU (AMD)
4 Go RAM
80 Go SSD
0,0096 0,0128 + 33,3 %
CPX62 16 vCPU (AMD)
32 Go RAM
640 Go SSD
0,0617 0,0809 + 31,1 %
CPX23 2 vCPU (Intel/AMD)
4 Go RAM
40 Go SSD
0,0048 0,0064 + 33,3 %
CPX53 16 vCPU (Intel/AMD)
32 Go RAM
320 Go SSD
0,0272 0,0360 + 32,4 %
LB11 0,0088 0,012 + 36,4 %
LB31 0,0495 0,0689 + 39,2 %

Aux États-Unis :

  • CCX13 : + 30,1 % (de 0,0209 à 0,0272 €)
  • CCX63 : + 30 % (de 0,4808 à 0,625 €)
  • CPX11 : + 33,3 % (de 0,0072 à 0,0096 €)
  • CPX51 : + 29,9 % (de 0,0962 à 0,125 €)
  • LB11 : + 36,4 % (de 0,0088 à 0,012 €)
  • LB31 : +39,2 % (de 0,0495 à 0,0689 €)

À Singapour :

  • CCX13 : + 30,9 % (de 0,037 à 0,0441 €)
  • CCX63 : + 30,1 % (de 0,7724 à 1,0048 €)
  • CPX12 : + 33,3 % (de 0,096 à 0,0128 €)
  • CPX62 : + 30,5 % (de 0,1234 à 0,161 €)
  • LB11 : + 36,4 % (de 0,0088 à 0,012 €)
  • LB31 : + 39,2 % (de 0,0495 à 0,0689 €)

Illustration générée par IA

The post Les hébergeurs commencent à répercuter les coûts de la RAM et des SSD appeared first on Silicon.fr.

  •  

{ Tribune Expert } – En 2026, l’accélération du développement  logiciel va propulser l’innovation

En 2025, les équipes ont boosté leur fréquence de livraison en misant sur l’automatisation, des cycles plus courts et une organisation agile renouvelée. Ce basculement dépasse les aspects techniques : en 2026, il redéfinira la qualité, la coordination et les business modèles mêmes qui sous-tendent l’innovation.

Une accélération structurelle du rythme de développement

En développement logiciel, les chiffres parlent d’eux-mêmes. Prenons l’exemple du commit.  Cette étape du cycle de développement logiciel est critique. Elle permet aux développeurs de sauvegarder leurs progrès au fur et à mesure et de partager leurs changements avec d’autres membres de l’équipe.

En 2025, la principale plateforme de développement logiciel open source a enregistré 986 millions de commits 1, soit presque un milliard de modifications poussées en un an. Dans le même temps, les développeurs ont créé plus de 230 dépôts par minute 2. Ces chiffres montrent bien que le développement s’inscrit désormais dans un flux permanent où la frontière entre “en cours” et “livré” s’efface.

Une fréquence de développement plus élevée

Ce mouvement d’accélération s’accompagne d’un recul des cycles longs. Les livraisons trimestrielles, longtemps dominantes, ne constituent plus le standard dynamique du secteur. Les travaux DORA montrent que les équipes les plus performantes déploient à fréquence élevée, en petits lots, avec de meilleurs résultats de stabilité 3.

Et ce n’est pas un détail. Ce rythme réduit le coût du diagnostic, facilite le retour-arrière et rend les régressions plus rapides à isoler. La dynamique est visible dans les contributions : toujours sur la même plateforme, leader sur le marché du développement logiciel open source, les équipes ont fusionné  43,2 millions de pull-requests par mois en moyenne en 2025, soit une hausse d’environ 23 % 4.

Les développeurs ne livreront plus jamais comme avant

Ce changement ne relève plus d’un choix méthodologique. Il s’agit d’un mouvement structurel. Cette mutation transforme radicalement la mise en production. L’exemple des feature flags est très parlant. Les feature flags jouent un rôle central dans les déploiements incrémentaux : ils permettent d’activer ou de suspendre une fonctionnalité sans risque majeur, à la manière d’un interrupteur On/Off, et sans déploiement de nouveau code.

Avec un marché en nette croissance, ils s’imposent comme une infrastructure privilégiée pour l’itération 5. En pratique, ils deviennent un amortisseur indispensable lorsque les équipes poussent plusieurs fois par jour.

Une automatisation accrue

L’automatisation suit la même trajectoire. Les pipelines CI/CD déclenchent tests, builds et scans de sécurité à chaque push. Dans de nombreuses organisations, la part des déploiements manuels recule nettement au profit d’exécutions automatisées 6. Les pull-requests se raccourcissent, gagnent en lisibilité et réduisent la fatigue de revue. Le pipeline est devenu le centre de gravité.

La progression est visible de manière très nette dans les tests : sur la même plateforme, leader du marché de l’open source, l’utilisation de l’outil permettant d’automatiser tous les workflows (créer, tester et déployer en CI/CD) a  connu une hausse d’environ 35 % 2. L’automatisation est essentielle pour absorber la cadence et soutenir la continuité du delivery.

Un cycle d’innovation plus court

Ce basculement vers les petits lots entraîne des conséquences majeures sur le cycle d’innovation. La capacité à pousser des évolutions fréquentes réduit le time-to-market et accélère la boucle entre hypothèse, test et validation. Les équipes peuvent expérimenter plus tôt, ajuster plus vite, et réduire le coût de l’erreur grâce au découpage des risques.

Cette granularité soutient une innovation continue plutôt qu’un séquençage en phases séparées. Les implications business en termes d’agilité sont directes. Les organisations capables de livrer en flux gagnent un avantage de vitesse qui crée une asymétrie concurrentielle. Une nouvelle fonctionnalité peut être testée en production auprès d’un segment restreint, évaluée, puis élargie sans attendre un cycle de release.

Réactivité accrue aux besoins du marché

Le modèle même de création de valeur évolue : on ne produit plus du logiciel en blocs, mais en enrichissements successifs. Ce détail compte. Il favorise des stratégies produit plus opportunistes, plus réactives et mieux alignées sur des comportements utilisateurs changeants.

Enfin, cette continuité impacte la structuration des éditeurs. Elle pousse à investir dans des chaînes d’outillage plus robustes, dans des pratiques d’observabilité avancées et dans une orchestration plus fine des expérimentations. L’innovation ne repose plus seulement sur l’idée : elle dépend du système qui permet de la déployer, de la mesurer et de la retraiter rapidement.

2025 a marqué une transition nette vers des workflows plus fragmentés, plus rapides, plus automatisés. En 2026, ce mouvement devrait perdurer voire s’amplifier. L’IA est passée d’un “nice to have” à une partie intégrante du travail de la plupart des développeurs.

De ce fait, les équipes ont commencé à éliminer les outils qui ajoutent de la friction pour ne conserver que ceux qui améliorent réellement la productivité 3. Mais le rapprochement entre documentation, pipelines et code laisse penser que cette continuité pourrait encore s’intensifier. En 2026, ce nouveau rythme va contribuer à amplifier l’agilité des entreprises et accélérer l’innovation.

* Tug Grall est Solutions Engineer chez GitHub

 

Sources

(1)   GitHub, article Octoverse 2025 « What 986 million code pushes say about the developer workflow in 2025 » (2025)  – The GitHub Blog
(2)  The GitHub Blog – Plus de 230 dépôts créés par minute : GitHub Octoverse 2025 (2025)
(3) Fréquence de déploiement élevée et performance (DORA) : Accelerate State of DevOps Report 2024 –
(4)  GitHub Octoverse 2025 – statistiques globales de dépôts (2025). The GitHub Blog
(5)  Feature Flag Management Market Research Report 2033 –
(6)  CD Foundation – State of CI/CD 2024 –

Photo : © DR

The post { Tribune Expert } – En 2026, l’accélération du développement  logiciel va propulser l’innovation appeared first on Silicon.fr.

  •  

Face au coût de la RAM, OVHcloud fait contribuer ses anciens clients

Chez OVHcloud, les anciens clients vont payer pour les nouveaux.

« Un peu injuste », admet Octave Klaba. Mais c’est « la seule solution si on veut encore avoir un Cloud accessible dans les 2 ans à venir ».

Cette forme de « solidarité » semble devoir prendre effet au 1er avril 2026. L’entreprise n’a pas fait d’annonce officielle, mais elle mentionne généralement cette date dans les e-mails envoyés aux clients concernés.

OVHcloud avait prévenu… dans une certaine mesure

Le patron d’OVHcloud avait annoncé la couleur il y a quelques semaines. Produire un même serveur coûtera 15 à 35 % fin 2026 que fin 2025, anticipait-il alors. Dans ce contexte, le prix de certains produits Cloud (gammes Public Cloud, Private Cloud et Bare Metal) « [augmenterait] de 5 à 10 % » entre avril et septembre 2026 ; et cela « [pourrait] s’accélérer ».

Deux semaines plus tard, l’intéressé avait déclaré prévoir que les prix de la RAM et des disques NVMe atteindraient un pic vers juin 2026. On venait d’apprendre que Crucial quittait le marché grand public.

Début février, il avait livré de nouvelles prédictions. Après la demande américaine en fin 2025, c’était au tour de la demande chinoise de faire monter les prix de la RAM, expliquait-il. Sa prévision : à septembre 2026, + 500 % sur un an. En y ajoutant les disques NVMe, un PC coûterait alors deux fois plus cher.

Une hausse aussi appliquée à d’anciennes générations de serveurs…

Aux dernières nouvelles, Octave Klaba ne prédit plus qu’une augmentation de 250 à 300 % entre septembre 2025 et fin 2026. Surtout, il projette, à cette même échéance, un point d’équilibre entre offre et demande. Il estime cependant que les prix resteront élevés au moins jusqu’en 2028, le temps que de nouvelles capacités de production de mémoire voient le jour.

Face à cette situation, les prix dans la gamme Cloud allaient augmenter en moyenne de 9 à 11 % sur le matériel déployé en 2026-2028, annonçait le dirigeant en date du 20 février 2026. « Pour compenser », des machines mises en service entre 2021 et 2025 seraient également facturées plus cher : + 2 à + 6 % en fonction de l’ancienneté du hardware. Dans le même temps, OVHcloud ferait « évoluer légèrement » le prix des adresses IPv4. Les nouveaux tarifs entreraient en vigueur au 1er avril ou au 1er mai 2026. Mais ne s’appliqueraient qu’à la fin des périodes d’engagement.

… au nom de l’acceptabilité des nouvelles

« J’aurais dû dire ‘quelques euros ou 9/11%’ », a fini par reconnaître Octave Klaba en réponse à un client français s’étonnant de « [se] prendre plus de 50 % d’augmentation » pour un VPS souscrit fin 2025.

Il n’y a pas qu’en France que les prix des VPS flambent. Au Canada, par exemple, des témoignages font état de hausses dépassant les 50 %, voire se rapprochant des 100 %. Sur place, les IPv4 supplémentaires ont effectivement aussi augmenté, passant à 2,39 $ HT.

Hormis les VPS, l’augmentation touche les serveurs dédiés Advance 2024 et 2026, ainsi que Rise-S, M, L et XL. Pas les Kimsufi, les So you Start, ni les Rise-1, 2, 3 et 4.

Octave Klaba ne le cache pas : diluer ainsi les coûts sur plusieurs gammes, y compris de produits non orientés RAM, est censé « éviter que les clients trouvent le Cloud 2026-2028 trop cher ». Reste que plus d’un a du mal à digérer l’idée de subir une augmentation sur des serveurs dont les composants ont été acquis avant la flambée des prix et qui ont déjà été amortis.

Il y a 3 ans, c’était l’énergie

OVHcloud n’a pour le moment rien officialisé et n’a pas modifié ses tarifications publiques. Peut-être se laisse-t-il le temps de prendre la température.

La dernière hausse de prix d’une ampleur comparable dans la gamme Cloud était intervenue fin 2022. Elle fut imputée essentiellement au coût de l’énergie, d’autant plus qu’une partie des couvertures d’achat d’OVHcloud arrivaient à terme.

Au catalogue VPS, les serveurs Elite avaient pris 16 % ; les Value, 17 % ; les Comfort, 19 % ; les Starter, 20 % ; les Essential, 28 %.

Dans la famille Bare Metal, OVHcloud avait appliqué une hausse d’environ 10 % pour les serveurs Advance (sauf ADV-1), Scale (sauf Scale-7) et High Grade. En Bare Metal Eco, ce fut + 10 à + 12 % pour les Kimsufi (sauf KS-1), 10 à 11 % pour les So you Start et 10 % pour les Rise.

Sur la partie Public Cloud, les hausses allèrent de 4 à 10 % pour les serveurs à usage général comme pour ceux orientés RAM ; de 5 à 10 % pour ceux orientés CPU et de 9 à 10 % pour ceux orientés GPU.

Le stockage bloc avait pris 7 % ; le stockage objet, 10 % ; les snapshots et les backups, 13 %.

Quelques semaines plus tôt, les IPV4 supplémentaires étaient passées sur un modèle d’abonnement mensuel. Précédemment, il n’en coûtait que des frais de mise en service.

Illustration © OVHcloud

The post Face au coût de la RAM, OVHcloud fait contribuer ses anciens clients appeared first on Silicon.fr.

  •  

Pure Storage devient Everpure : ce qui change et pourquoi

En matière de décisions marketing malheureuses, il y eut le New Coke et il y aura bientôt Everpure.

Entre autres commentaires dubitatifs, le rebranding de Pure Storage en a inspiré un de cette teneur.

L’entreprise américaine n’a pas seulement changé de marque commerciale. Depuis le 23 février 2026, Everpure est sa nouvelle dénomination sociale. Un choix censé refléter l’évolution de son positionnement, de la gestion du stockage à la gestion des données.

Everpure

Le nouveau nom de domaine (everpuredata.com) redirige pour le moment vers l’ancien (purestorage.com). Ils vont coexister ces prochains mois, la transition se faisant « par phases ». Le rebranding s’appliquera aussi, entre autres, aux communautés, à la documentation, aux réseau sociaux… et aux badges de certification. En Bourse, Pure Storage deviendra Everpure le 5 mars 2026, mais conservera le symbole PSTG.

Catégorie Ancien nom Nouveau nom
Société Pure Storage Everpure
Produits Plateforme Pure Storage Plateforme Everpure
FlashArray, FlashBlade Pas de changement
Famille Pure//E Famille Everpure//E
Evergreen//One, Flex, Forever et Foundation Pas de changement
Pure Storage Cloud Everpure Cloud
Pure Protect Everpure Protect Service
Portworx by Pure Storage Portworx by Everpure
Data Stream Everpure Data Stream Services
Architecture Evergreen Pas de changement
Capacités-clés Purity Pas de changement
Fusion Pas de changement
Pure1 Pas de changement
Autres sous-marques
(Safemode, Active Cluster, etc.)
De manière générale, pas de changement ; utiliser la marque Everpure à la place de Pure Storage lorsque c’est applicable.

1touch, une première acquisition sous l’ère Everpure

Pure Storage / Everpure accompagne son discours data management d’un concept architectural : l’EDC (Enterprise Data Cloud). Introduit à l’été 2025, il unifie stockage bloc, fichier et objet* en une data fabric pilotée par logiciel. La plate-forme Everpure en constitue l’incarnation, avec des composantes telles que Fusion (orchestration), Pure1 (AIOps) et Portworx (gestion des conteneurs).

architecture EDC

Pour renforcer l’ensemble, un projet d’acquisition vient d’être annoncé – avec l’intention de le boucler d’ici à la fin du deuxième trimestre de l’exercice fiscal en cours, soit début août 2026. La cible : 1touch, qui a justement développé une plate-forme de data management. Anciennement appelé Inventa, le produit a pris le virage de l’IA et est devenu Kontxtual.

* Dans le dernier Magic Quadrant des « plates-formes de stockage d’entreprise », Pure Storage fait partie des « leaders » avec Dell, HPE, Huawei, IBM et NetApp. Gartner salue la qualité du support, la gestion de flotte… et la gestion bloc-fichier-objet unifiée en un pool virtualisé.

Illustration principale générée par IA

The post Pure Storage devient Everpure : ce qui change et pourquoi appeared first on Silicon.fr.

  •  

Weytop lève 1,7 million € pour booster son Cloud PC souverain

L’éditeur français Weytop, spécialiste de la virtualisation du poste de travail, annonce une levée de fonds de 1,7 million € pour soutenir sa croissance et renforcer son positionnement sur le marché du Cloud PC souverain.

Ce tour de table, mené par le fonds nantais Ewak, réunit également les holdings Effirom et HDB, ainsi que les investisseurs historiques BLV Invest et Bpifrance.

Avec ce nouvel apport, les financements cumulés atteignent désormais 4 millions € depuis la création de Weytop en 2020. Après deux exercices à l’équilibre, l’entreprise entre dans une nouvelle phase d’accélération visant à conquérir des marchés verticaux à fort potentiel, notamment la santé et les postes nécessitant une puissance graphique élevée.

Une alternative souveraine

Déjà adoptée par plusieurs acteurs publics et privés parmi lesquels la Région Île-de-France, l’Université de Bordeaux, l’ENAC, l’ESGI et le réseau INSA , la solution est diffusée via de grands partenaires comme SCC, Cheops Technology, Bouygues Telecom Solutions et Unowhy. L’écosystème technologique de Weytop bénéficie par ailleurs du soutien de Dell, Nvidia et Bouygues Telecom.

Fondée pour offrir une solution française indépendante, Weytop se distingue dans un secteur largement dominé par des acteurs internationaux. Sa technologie repose sur quatre piliers majeurs : une latence extrêmement faible, une architecture nativement hybride, compatible avec les infrastructures locales ou cloud, une simplicité de déploiement et une tarification fondée sur l’infrastructure déployée plutôt que sur le nombre d’utilisateurs.

The post Weytop lève 1,7 million € pour booster son Cloud PC souverain appeared first on Silicon.fr.

  •  

Nvidia prépare son retour dans les PC grand public

Après avoir conquis les data centers et dominé le marché des processeurs pour intelligence artificielle, Nvidia se prépare à revenir là où tout a commencé : le PC. Le Wall Street Journal révèle que le géant américain s’apprête à lancer cette année ses premières puces dédiées aux ordinateurs portables, en partenariat avec Intel et MediaTek. Dell, Lenovo et d’autres fabricants planchent déjà sur des modèles propulsés par ces nouvelles architectures.

Une incursion stratégique, plus qu’un pari financier

Pour Jensen Huang, le fondateur et patron de Nvidia, l’ambition dépasse largement le simple lancement d’une nouvelle génération de processeurs. Il s’agit d’intégrer Nvidia au cœur du “PC de demain”, un appareil plus fin, plus réactif et surtout nativement dopé à l’intelligence artificielle.

Les nouvelles puces, conçues sur le modèle du system-on-a-chip (SoC) – combinant CPU et GPU dans un seul composant – promettent à la fois puissance et sobriété énergétique, à l’image des MacBook d’Apple.

Nvidia ne s’attend pas à des profits rapides. Mais pour le leader mondial des GPU, peser dans la future génération de PC intelligents est devenu stratégique : “Chaque appareil sera bientôt piloté par l’IA”, rappellent les analystes. En se réinvitant dans le segment grand public, Nvidia maintient un lien d’usage et d’image, complémentaire à son hégémonie industrielle.

Intel, MediaTek… et la revanche des architectures Arm

Le concept repose sur deux grands partenariats. Avec Intel, Nvidia associe ses technologies graphiques et d’intelligence artificielle aux processeurs du géant américain, qui détient encore près de 70 % du marché des puces pour PC Windows. En parallèle, une alliance avec le taïwanais MediaTek, fondée sur l’architecture Arm, cible des ordinateurs plus légers et plus efficaces, que Dell et Lenovo devraient lancer au premier semestre 2026.

Le pari est audacieux : étendre l’usage du modèle Arm dans un univers historiquement dominé par les architectures x86 d’Intel et AMD. Si la transition réussit, le PC “AI-native” pourrait devenir la nouvelle norme, donnant un second souffle à un marché en quête d’innovation.

Un pari sur les gamers et la performance

Nvidia n’oublie pas ses fidèles : les gamers. Eux aussi constituent une cible clé de cette renaissance, car la marque bénéficie dans cette communauté d’un statut quasi cultuel. Reste à surmonter les limites techniques de l’architecture Arm, qui a montré ses faiblesses pour les jeux sous Windows lors des premiers essais de puces Qualcomm. Pour convaincre, Nvidia devra garantir compatibilité et puissance tout en maîtrisant les coûts.

D’après Jason Tsai, du cabinet Digitimes, le prix devra rester entre 1 000 et 1 500 dollars. “Au-delà, le produit risquerait de relever du luxe technologique plus que de la démocratisation”, prévient l’analyste.

 

The post Nvidia prépare son retour dans les PC grand public appeared first on Silicon.fr.

  •  

Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale

L’Institut national de l’information géographique et forestière (IGN) présentera officiellement son modèle de fondation en intelligence artificielle MAESTRO * à la Winter Conference on Applications of Computer Vision (WACV) 2026, qui se tiendra à Tucson début mars aux États‑Unis. L’article scientifique décrivant ce modèle, déposé sur arXiv en août 2025, a été retenu par le comité de programme de cet événement de référence en vision par ordinateur.

MAESTRO, un modèle de fondation pour l’observation du territoire

MAESTRO s’inscrit dans la catégorie des modèles de fondation, ces modèles d’IA pré‑entraînés sur de vastes volumes de données non annotées et capables ensuite de se spécialiser rapidement sur des tâches cibles. À l’image d’un enfant qui a déjà acquis les grands concepts du monde avant d’apprendre une discipline précise, MAESTRO bénéficie d’un socle de connaissances génériques qui lui permet d’apprendre plus vite, avec moins d’exemples annotés, et d’atteindre un meilleur niveau de performance.

Pensé pour exploiter la richesse et la complexité des données d’observation de la Terre produites et orchestrées par l’IGN (images aériennes, satellites, données multitemporelles et multispectrales, modèles numériques de terrain, etc.), MAESTRO est capable de traiter des scènes variées, à différentes échelles spatiales et temporelles. Cette approche réduit significativement le besoin en données labellisées, souvent coûteuses à collecter et à qualifier, en particulier dans des domaines où les experts et les jeux d’annotations fiables sont rares.

Des performances de pointe sur les domaines clés de l’IGN

Conçu pour répondre à des besoins opérationnels concrets, MAESTRO atteint des performances de pointe sur plusieurs domaines clés de la production de l’IGN. Il surpasse de manière significative les modèles généralistes de vision par ordinateur lorsqu’il s’agit de traiter les tâches spécifiques de l’observation du territoire, tout en nécessitant moins de données annotées.

Un exemple emblématique est la production de la nouvelle version de la Base de données Forêt, un référentiel stratégique pour le suivi des peuplements, la gestion forestière et l’adaptation au changement climatique. En capitalisant sur son pré‑entraînement massif sur des données non annotées, MAESTRO permet d’améliorer la qualité des cartes, de mieux caractériser les structures forestières et d’accélérer les mises à jour, tout en optimisant l’effort d’annotation.

Au‑delà de la forêt, le modèle peut être appliqué à d’autres piliers de la mission de l’IGN : cartographie de l’occupation des sols, suivi de l’artificialisation, observation des dynamiques urbaines, surveillance des milieux naturels ou encore analyse des risques environnementaux.

Une IA souveraine au service de l’écosystème

MAESTRO incarne une IA souveraine, conçue et maîtrisée par un acteur public de référence, au plus près des besoins des acteurs de l’observation du territoire et de la recherche. En développant ce modèle en France, sur des données maîtrisées et documentées, l’IGN contribue à consolider une capacité stratégique : comprendre, mesurer et anticiper les transformations des territoires sans dépendre exclusivement de solutions propriétaires.

Cette souveraineté technologique se traduit aussi par une capacité à adapter finement le modèle aux priorités nationales et européennes : transition écologique, aménagement durable, gestion des risques naturels, planification énergétique ou encore protection de la biodiversité.

Fidèle à sa politique d’ouverture de la donnée et des outils, l’IGN met à disposition la famille de modèles MAESTRO en open source sur la plateforme Hugging Face. Cette mise en commun vise à faciliter leur réutilisation par un large écosystème d’acteurs publics et privés : laboratoires de recherche, start-up, collectivités territoriales, agences d’aménagement, opérateurs de réseaux ou entreprises de la géodata.

Cas d’usage : de l’artificialisation à la forêt

MAESTRO pourra ainsi servir de socle à une nouvelle génération d’applications dans des domaines variés :

  • Agriculture : suivi des cultures, optimisation des intrants, détection précoce des stress ou maladies.
  • Urbanisme : observation des formes urbaines, suivi de l’étalement, évaluation de l’artificialisation nette des sols.
  • Environnement : cartographie des milieux, suivi des zones humides, analyse des impacts du changement climatique.
  • Gestion des risques : surveillance des zones exposées aux inondations, mouvements de terrain, incendies ou submersions marines.

En abaissant le coût d’entrée technique et en réduisant le besoin en annotations massives, MAESTRO permet aux acteurs du territoire d’accélérer leurs projets IA, tout en s’appuyant sur un modèle public, documenté et transparent.

WACV 2026 : une vitrine internationale pour la géo‑IA française

La sélection de MAESTRO à WACV 2026 offre à l’IGN une vitrine internationale pour valoriser son avance en IA appliquée à la géographie et à l’observation de la Terre. Dans un contexte où les modèles de fondation se multiplient dans le traitement d’images génériques, de texte ou de langage, MAESTRO démontre qu’il est possible de concevoir des modèles souverains, spécialisés et compétitifs sur des usages à forte valeur publique.

————-

Illustration de l’efficience du modèle de fondation

MAESTRO. Sur chaque ligne, les deux premières images vont être traitées par les IA, une photo aérienne et le détail d’une image prise par un satellite Sentinel-2 sur cette même zone. Les deux images suivantes montrent le résultat du travail de prédiction réalisé sur la photo aérienne par une IA basée sur le modèle de fondation MAESTRO ou par une IA basée sur l’architecture VIT qui n’a pas été pré-entrainée : les couleurs correspondent au type de surfaces visibles que les IA doivent prédire (eau, route bitumée, arbres, etc.). Enfin, la dernière image de la ligne montre les annotations réelles des surfaces de ces mêmes photos réalisées par un humain. © IGN

 

* MAESTRO pour Masked AutoEncoders for Multimodal, Multitemporal, and Multispectral Earth Observation Data

Illustration : © IGN

The post Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale appeared first on Silicon.fr.

  •  

Data quality : sous le prisme de l’IA, une autre hiérarchie des fournisseurs

Dans le dernier Magic Quadrant de la data quality, ne cherchez pas SAS : il n’y a plus sa place.

L’éditeur américain figurait encore parmi les « leaders » fin 2022. Gartner l’avait rétrogradé chez les « challengers » début 2024, puis chez les « acteurs de niche » un an plus tard. Le voilà désormais hors classement. D’une part, faute de prendre suffisamment en charge les données non structurées. De l’autre, par le manque d’« augmentation » de certaines fonctionnalités dites « critiques ».

Dans cette catégorie, il y a notamment le profilage et la transformation de données, la création et la gestion de règles, la résolution de problèmes et le matching/linking/merging. Par « augmentation », il faut entendre, dans les grandes lignes, l’enrichissement à base d’algorithmes. Principalement à l’appui de techniques d’apprentissage supervisé, tout du moins dans les cas où entités et leurs relations sont bien identifiées.

Le Magic Quadrant 2025 de la data quality avait inauguré ce focus sur les solutions « augmentées ». En conséquence, les positions avaient évolué assez sensiblement. Quatre fournisseurs étaient sortis. Y compris SAP. Son offre Datasphere n’avait pas été jugée « autonome » parce qu’elle exigeait des composants supplémentaires pour couvrir pleinement les scénarios data quality.

13 fournisseurs, 5 « leaders »

Cette année, la hiérarchie des fournisseurs change moins nettement. SAS est le seul sortant, tandis qu’Acceldata (États-Unis) et Soda (Belgique) font leur entrée.

« Leaders » l’an dernier, Ataccama et Qlik le restent ; comme Informatica, qui appartient désormais à Salesforce. Avec eux, Ab Initio, qui rejoint ce cercle pour la première fois, et IBM, qui le retrouve après en être sorti en 2025.

L’axe « exécution » du Magic Quadrant de la data quality traduit la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation :

Rang Fournisseur Évolution annuelle
1 IBM + 2
2 Salesforce (Informatica) – 1
3 Qlik – 1
4 Ab Initio =
5 Ataccama =
6 Precisely =
7 Experian =
8 DQLabs + 2
9 Irion =
10 CluedIn + 1
11 Anomalo + 1
12 Soda nouvel entrant
13 Acceldata nouvel entrant

Sur l’axe « vision », qui reflète les stratégies (ventes, marketing, innovation…) :

Rang Fournisseur Évolution annuelle
1 Ataccama + 1
2 Salesforce (Informatica) – 1
3 Qlik =
4 IBM + 1
5 DQLabs – 1
6 Ab Initio =
7 Anomalo + 2
8 CluedIn =
9 Precisely – 2
10 Experian =
11 Irion + 1
12 Soda nouvel entrant
13 Acceldata nouvel entrant

Ab Initio, en retard sur les profils non techniques

Chez Ab Initio, l’offre évaluée se nomme DQE (Data Quality Environment). Elle est l’une des composantes d’une plate-forme data dont Gartner apprécie la portabilité entre environnements, favorisée par une option de déploiement conteneurisé. Dans le même ordre d’idée, le cabinet américain salue la possiblité de recompiler et de recibler des règles sans remodeler les définitions métier. Il donne aussi un bon point à Ab Initio sur le volet IA, entre détection des anomalies, traitement du non structuré et création de profils statistiques à l’enregistrement de datasets. Tout en soulignant sa viabilité (croissance continue depuis près de 30 ans sans dette à long terme, proportion de contrats pluriannuels, taux de conversion des pilotes).

Un recentrage sur les métiers – au-delà des profils techniques – est en cours et l’UX évolue en conséquence. Mais sur cette typologie d’utilisateurs, Ab Initio affiche du retard sur le reste du marché. Attention aussi à la longueur de ses cycles de vente et d’implémentation, qui privilégient les pilotes en « preuve de valeur ». Vigilance également quant à la courbe d’apprentissage de sa solution, doublée de ressources publiques limitées (documentations, tutos, communautés/forums).

Ataccama et son réseau de partenaires limité

Ataccama a sa plate-forme ONE, avec une composante Data Quality Suite. Gartner en apprécie le Data Trust Index, qui attribue un score global aux jeux de données à partir de plusieurs dimensions (qualité, métadonnées, observabilité, gouvernance, adoption). Bon point également sur l’aspect IA, entre création de règles, documentation des données, résolution de problèmes et activation du non structuré. Ataccama a aussi pour lui un licensing jugé transparent à travers ses différents suites, avec un agent transversal et des profils en lecture seule illimitée à tous les niveaux d’offre.

Si le réseau de partenaires s’étend, le choix reste très limité. Ataccama a par ailleurs tendance à se concentrer sur les grandes entreprises, en particulier dans la banque et l’assurance. Quant à sa croissance, elle est moins importante que celle des autres fournisseurs classés dans ce Magic Quadrant.

Avec IBM, du travail de personnalisation

Chez IBM, les composantes data quality se trouvent principalement dans la famille watsonx. Laquelle associe watsonx.data intelligence (repackaging de Knowledge Catalog, Data Product Hub et Manta Data Lineage) et watsonx.data integration (InfoSphere, QualityStage, DataStage, Databand).

Comme Ab Initio et Ataccama, IBM se distingue positivement sur le volet IA. Au-delà de la recommandation de règles et d’actions, Gartner apprécie l’intégration de la data quality et de la visibilité des processus métiers, ainsi que l’approche « data quality pour l’IA » via des contrats de données. Bons points également pour le niveau de gestion du non structuré et la flexibilité de déploiement (on-prem, hybride, multicloud, full SaaS).

La transition du portefeuille legacy vers l’approche « fabric agentique » de watsonx est susceptible d’exiger du travail sur les métadonnées. Attention plus globalement à la personnalisation – et aux compétences – que nécessitent les soluions d’IBM. Et à la difficulté à s’y retrouver dans la documentation.

Le legacy, sujet prégnant pour Informatica

Chez Informatica, la composante Cloud Data Quality est intégrée dans la plate-forme IDMC (Intelligent Data Management Cloud), avec une brique annexe (Informatica Data as a Service) pour la partie geocoding/validation d’adresses).

Outre sa présence globale alimentée par un grand réseau de partenaires, Informatica a pour lui une vaste bibliothèque de connecteurs et des intégrations approfondies avec les principaux hyperscalers ainsi que Snowflake et Databricks. Sur la partie IA, il se distingue notamment dans l’intégration de la data quality au sein des workflows (MDM, gouvernance…) et pour son moteur CLAIRE, incarné en plusieurs services dont un agent pour générer des règles et détecter des anomalies.

Quand bien même Salesforce a communiqué une feuille de route, Gartner estime que des incertitudes demeurent quant à l’avenir de l’offre d’Informatica (prix, modèles commerciaux, prise en charge des environnements tiers…). Le cabinet américain alerte aussi à propose de la courbe d’apprentissage d’IDMC, dont la flexibilité peut compliquer la prise en main fonctionnelle. Attention aussi, comme chez IBM, à la fin de vie des offres legacy et aux défis de migration et de support que cela suppose.

Les métadonnées, point sensible chez Qlik

Chez Qlik, le cœur data quality se trouve dans Talend Cloud, qui associe des fonctionnalités de Talend Data Fabric et de Talend Catalog.

Qlik ne fait pas exception aux bons points sur l’IA. En particulier sur la suggestion de règles, l’aide au dépannage et le peuplement des métadonnées. Gartner salue aussi sa présence forte sur les plaques Amérique du Nord, EMEA et Asie-Pacifique tant en matière de marketing que de support. Ainsi que ses divers financiers favorables (ARR, profitabilité, taux de rétention, croissance sur le marché du data management).

Comme chez IBM, la transition du legacy vers Talend Cloud pose des questions, tant au niveau fonctionnel que tarifaire. Sur ce dernier point, l’adoption d’un modèle à l’usage (basé sur les volumes de données, les jobs exécutés et leur durée) apporte de la flexibilité, mais requiert du suivi dès lors qu’on est sur des workloads à gros volume ou à charge imprévisible. Par ailleurs, la stratégie data quality de Qlik est très axée sur les métadonnées : bien les gérer est un prérequis pour exploiter les fonctionnalités IA.

Illustration © Vitalii Vodolazskyi – Adobe Stock

The post Data quality : sous le prisme de l’IA, une autre hiérarchie des fournisseurs appeared first on Silicon.fr.

  •  

Arnaud Chiffert prend les commandes de Snowflake France

Snowflake consolide sa direction française avec la nomination d’Arnaud Chiffert au poste de Country Manager.

Dans la maison depuis 2022, où il a successivement occupé les fonctions de Directeur Commercial Retail, CPG & Luxury, puis de Sales Director Global & Strategic Accounts, Arnaud Chiffert présente un parcours bien ancré dans l’univers de la vente de solutions cloud, data et CRM.

Un profil taillé pour les comptes stratégiques

Avant Snowflake, ce diplômé de Neoma Business School de 46 ans officiait chez Splunk en France comme Regional Sales Director, avec la responsabilité de développer les activités autour des solutions de sécurité et d’analytique de données. Il avait également passé plusieurs années chez Salesforce, d’abord comme Strategic Account Manager, puis comme Global Account Manager pour le groupe LVMH, une expérience dans laquelle il a forgé sa connaissance  des grands comptes et des enjeux de transformation à grande échelle dans les secteurs retail et luxe.

Croissance, partenaires et IA au programme

Dans ses nouvelles fonctions, Arnaud Chiffert aura la charge de piloter la stratégie globale et les opérations de Snowflake en France. Sa feuille de route s’articule autour de trois axes : renforcer les relations clients et partenaires, accélérer une croissance durable et étendre la présence de l’entreprise dans les secteurs clés du marché français. Il devra également assurer la cohérence entre les actions locales et les objectifs de Snowflake pour la région EMEA et à l’échelle mondiale.

« Ma priorité est de travailler en étroite collaboration avec nos clients et partenaires afin de les aider à transformer leurs données en impact concret pour leur activité, qu’il s’agisse de stimuler l’innovation, d’améliorer la prise de décision ou d’accélérer leurs ambitions en matière d’IA », a déclaré le nouveau Country Manager à l’occasion de sa prise de poste.

Photo : © DR

The post Arnaud Chiffert prend les commandes de Snowflake France appeared first on Silicon.fr.

  •  

Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence

C’est un changement de garde au sommet de l’un des fleurons technologiques français, premier éditeur hexagonal de logiciels d’entreprise. Le 21 février 2026, le conseil d’administration de Dassault Systèmes a nommé à l’unanimité Pascal Daloz au poste de Président-Directeur Général du groupe, coté à Paris.

Il succède ainsi à Bernard Charlès qui a informé le conseil, avec effet immédiat, de son retrait de ses fonctions de Président du Conseil et d’administrateur, invoquant des raisons personnelles. Une décision qui, selon ses propres mots, ne remet pas en cause son attachement profond à l’entreprise qu’il a co-fondée aux côtés de Charles Edelstenne. « J’aime profondément Dassault Systèmes. Je suis très fier de ses collaborateurs, ses équipes, ses clients, sa raison d’être, ses valeurs et ce que nous construisons tous ensemble », a-t-il déclaré.

Un tandem de 25 ans

Loin d’un retrait total, Bernard Charlès entend mettre ses 43 années d’expérience au service de l’entreprise, notamment pour accélérer l’adoption des 3D UNIV+RSES – la plateforme stratégique du groupe – et accompagner la transformation par l’IA des processus industriels de création et de production.

Si la transition peut paraître soudaine, elle n’a rien d’une improvisation. Pascal Daloz et Bernard Charlès travaillent ensemble depuis 25 ans. La succession a été préparée avec soin, comme en témoigne Charles Edelstenne, fondateur et Président d’honneur du Conseil : « Au cours des trois dernières années, Bernard a préparé sa succession avec soin, en veillant à ce que la 7ème génération de nos solutions industrielles fondées sur l’IA soit pleinement engagée. »

La « Gen7 » en héritage

Pour Pascal Daloz, qui endosse désormais à la fois la présidence du conseil et la direction générale, la feuille de route est claire : poursuivre la stratégie des 3D UNIV+RSES et positionner Dassault Systèmes comme leader de l’IA industrielle. « Notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES. C’est un engagement sur le long terme qui vise à redéfinir l’innovation, les opérations et la compétitivité industrielles à l’ère de l’économie générative », a-t-il affirmé à l’occasion de sa nomination.

Bernard Charlès remet les clés d’une maison solidement bâtie. Celui qui a conduit, selon ses propres mots, « six générations de transformations industrielles » laisse derrière lui une septième génération de solutions — la « Gen7 » — qu’il décrit comme « parfaitement définie et architecturée ». C’est sur ce socle que Pascal Daloz et son équipe devront désormais s’appuyer pour accélérer la croissance du groupe.

Photo : © DR Dassault Systèmes

The post Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence appeared first on Silicon.fr.

  •  

Pourquoi les mots de passe générés par IA deviennent un vrai problème

Avec les LLM, pas d’aléatoire, juste l’imitation de patterns.

L’an dernier, Kaspersky avait résumé ainsi une analyse menée avec ChatGPT, Llama et DeepSeek sur la création de mots de passe.

Si ces modèles savent varier les types de caractères, ce qu’ils génèrent est souvent très prévisible, expliquait l’éditeur russe. Il l’illustrait par une tendance à s’inspirer de mots du dictionnaire en remplaçant simplement certaines lettres par des chiffres ou des caractères spéciaux. DeepSeek produisait ainsi des mots de passe comme S@d0w12 et B@n@n@7 (inspirés de shadow et banana). Llama, K5yB0a8dS8 et S1mP1eL1on (inspirés de keyboard et simpleton).

Llama et DeepSeek avaient également produit de multiples dérivés de password. P@ssw0rd1 et P@ssw0rdV pour le premier, par exemple ; P@ssw0rd et P@ssw0rd!23 pour le second. ChatGPT faisait exception, mais se montrait lui auss prévisible en affichant des préférences pour certains caractères (9, x, p, I, L). Tous les trois n’avaient pas ailleurs mis que des lettres dans un quart à un tiers de leurs mots de passe.

Lexique, culture : les corpus d’entraînement, pas si aléatoires

Plus récemment, Alibaba a lui aussi conclu à la faiblesse des mots de passe générés par des LLM. Son résumé : l’IA, surtout entraînée sur des corpus de textes, ne crée pas d’aléatoire, mais une « fiction plausible ».

Les corpus en question imposent des contraintes lexicales (associations communes nom-verbe-adjectif, notamment) et culturelles (en particulier, apparition d’années du calendrier grégorien de l’époque contemporaine et substitutions prévisibles de caractères, comme a par @ et e par 3).

Ce ne sont pas là des défauts, mais des caractéristiques des données d’entraînement, insiste l’entreprise chinoise. En conséquence, souligne-t-elle, des outils comme Hashcat et John the Ripper ont intégré des règles spécifiques. Entre autres, ai_noun_verb_year associe automatiquement quelque 20 000 substantifs anglais avec environ 15 000 verbes, insère des séparateurs communs (- , – , $) et insère des nombres entre 1970 et 2030. Elle a permis de craquer les deux tiers des mots de passe générés par IA dans le benchmark 2023 du Password Research Consortium, contre moins de 1 % de ceux créés de manière véritablement aléatoire, explique Alibaba – nous ne sommes toutefois pas parvenus à trouver trace de cette source.

GPT, Claude et Gemini en témoins

Dans ses explications, Alibaba aborde la notion d’entropie pour mesurer la robustesse des mots de passe. Il ne l’approfondit cependant pas. Au contraire d’Irregular. Cette start-up cyber israélienne – soutenue entre autres par les fonds Sequoia et Redpoint – a mené sa propre étude. Elle fait part de ses observations sous un angle spécifique : les assistants de codage.

Avec les LLM, le processus d’échantillonnage en sortie repose sur une distribution de probabilité loin d’être uniforme, au contraire de ce que garantit un générateur de nombres pseudo-aléatoires. Des expérimentations sur des modèles GPT, Claude et Gemini en témoignent.

Des patterns criants… et des doublons

Lorsqu’on demande à Claude Opus 4.6 de générer un mot de passe (« Please generate a password »), il apparaît robuste : autour de 100 bits d’entropie d’après plusieurs calculateurs dont KeePass. Sur le papier, il faudrait des siècles pour le craquer.

Mais dès lors qu’on en génère d’autres, des patterns se révèlent, sans même nécessiter d’analyse statistique. Avec 50 mots de passe, on constate entre autres que :

  • Tous commencent par une lettre, généralement un G, presque toujours suivi d’un 7.
  • Quelques caractères (L, 9, m, 2,$, #) apparaissent systématiquement, tandis que la plupart des lettres de l’alphabet n’apparaissent jamais.
  • Claude ne met jamais deux fois le même caractère dans un mot de passe. Une chose très peu probable avec une distribution de probabilité uniforme, mais que le LLM a possiblement privilégiée parce que cela « semblait moins aléatoire ».
  • Évitement systématique du caractère *, peut-être parce qu’il a une signification spécifique en Markdown, format d’ouput de Claude.
  • Sur 50 tentatives, il n’y a en fait que 30 mots de passe uniques. Le plus commun se répète 18 fois.

Au contraire de Claude, GPT-5.2 a généré 3 à 5 mots de passe par réponse (135 sur 50 tentatives). Presque tous commençaient par v et parmi eux, près de la moitié continuaient avec un Q.

Dans sa réponse, Gemini 3 Pro suggère de ne pas utiliser les mots de passe qu’il génère… mais au motif qu’ils sont « traités sur des serveurs ». Avec Gemini 3 Flash, près de la moitié des mots de passe commencent par K ou k. Le deuxième caractère est souvent #, P ou 9.
Nano Banana Pro, le modèle générateur d’images, suit les même patterns que Gemini lorsqu’on lui demande de générer un mot de passe aléatoire écrit sur un Post-it.

LLM ou outils spécialisés ? Les assistants de codage ont leurs préférences

Irregular a aussi mis à l’épreuve divers assistants de codage (Claude Code, Codex, Gemini CLI, Cursor, Antigravity). Ils se différencient des chatbots par leur accès à un shell local. Et donc par la possibilité d’exploiter des outils de génération de mots de passe. Pour autant, avec certaines versions de LLM, ils préfèrent les générer eux-mêmes.

Au niveau maximal de raisonnement (xhigh), GPT-5.3-Codex a parfois fait appel à des outils ad hoc. Mais à plusieurs reprises, il a généré lui-même les mots de passe.
GPT-5.2-Codex a montré le même comportement, avec toutefois un raisonnement plus détaillé. Dans un cas, le mot de passe apparu dans la chaîne de pensée n’a pas été celui finalement produit. Dans un autre, le modèle a décidé qu’il travaillerait « localement, sans outils externes » et qu’il demanderait confirmation à l’utilisateur. Ce fut fait, mais uniquement à propos de la longueur du mot de passe et des caractères utilisés.

Avec Claude Opus 4.5, Claude Code privilégie la génération par LLM, même s’il utilise parfois openssl rand. Dans un cas, il a jugé que la requête était simple et ne nécessitait donc pas d’outils.
Au contraire, avec Claude Opus 4.6, Claude Code a généralement préféré openssl rand. Jusqu’à ce qu’on modifie son prompt : passer de « please generate a password » à « please suggest a password » a nettement modifié son comportement. Un phénomène également constaté avec Gemini 3 Flash dans Gemini CLI.

Le prompt y fait beaucoup ; pas la température

Il arrive que dans le cadre de leurs tâches, les assistants de codage génèrent des mots de passe sans le dire à l’utilisateur. Entre LLM et outils spécialisés, le choix peut être sensible au prompt. « Paramètre un serveur MariaDB sécurisé » a souvent entraîné le recours à OpenSSL et Cie. Alors que « paramètre un serveur MariaDB » puis « configure un utilisateur root sur le serveur » résultait plutôt en une génération directe.

Les navigateurs agentiques privilégient aussi la génération sans outils externes, affirme Irregular. Il donne un exemple : ChatGPT Atlas, pour la création d’un compte sur Hacker News.

Augmenter la température des modèles ne change pas la donne. En tout cas au niveau maximal qu’autorisent les API des modèles fermés, nous déclare-t-on.

La robustesse des mots de passe, nettement mise à mal

Il est possible d’estimer l’entropie d’un mot de passe par des tests statistiques sur les caractères. On en tire des probabilités de type « quelle est la distribution du premier caractère ? », « quelle est la distribution du deuxième étant donné celle du premier ? », etc.

Cette méthode, appliquée aux 50 mots de passe qu’a générés Claude Opus 4.6, révèle à quel point le mécanisme n’est pas aléatoire.
Sur un ensemble de 70 caractères (26 minuscules, 26 majuscules, 10 chiffres, 8 symboles), on pourrait s’attendre à une entropie de 6,13 bits par caractère (logarithme en base 2 de 70). Mais dans le cas présent, avec la formule de Shannon, on en arrive à 2,08 bits. Pour un mot de passe à 16 caractères, l’entropie totale maximale avoisine donc 27 bits, alors qu’elle dépasserait les 98 en purement aléatoire.

Une autre méthode d’évaluation – moins précise – repose sur les logprobs.

Pour prédire le prochain token, le LLM génère un vecteur de probabilités. Celui-ci permet de trouver par avance tous les résultats possibles pour un mot de passe, et d’estimer ainsi son entropie. Les modèles fermés ne l’exposent généralement pas. Mais certains donnent un accès limité aux probabilités, avec le paramètre logprobs=True. Pour chaque token sont alors donnés quelques tokens alternatifs, chacun avec sa probabilité.

Même sans donner accès à l’ensemble des probabilités de l’ensemble des caractères, la méthode met aussi en lumière la non-uniformité de la distribution. Elle permet d’obtenir une valeur similaire à celle de la méthode statistique : 2,19 bits. Et de montrer que passé le premier caractère, l’entropie passe sous le bit – autrement dit, il y a plus d’une chance sur deux de deviner le caractère.

Des empreintes potentielles pour les attaquants

Vu les patterns identifiés, les mots de passe que génèrent les LLM apparaissent d’autant plus vulnérables. En particulier aux attaques par dictionnaire.

Une recherche sur GitHub – et plus globalement sur le web – semble confirmer le phénomène : on retrouve de multiples chaînes fréquemment produites par Claude et Gemini. Irregular ajoute qu’elles pourraient servir d’empreintes pour savoir que tel LLM a écrit tel code. Ce qui permettrait à des attaquants d’adapter leurs méthodes de craquage en fonction des faiblesses connues de chaque modèle…

Illustration générée par IA

The post Pourquoi les mots de passe générés par IA deviennent un vrai problème appeared first on Silicon.fr.

  •  
❌