Vue normale

Reçu aujourd’hui — 20 novembre 2025 Silicon

JUPITER atteint l’exascale : que fait-on avec ce supercalculateur ?

20 novembre 2025 à 17:09

Avec JUPITER, l’Europe entre dans l’ère exascale.

Cette promesse faite début septembre à l’inauguration du supercalculateur est validée dans le dernier TOP500. Le système a atteint 1 exaflops tout rond, soit un milliard de milliard d’opérations par seconde en précision 64 bits.

Une telle puissance favorise – voire conditionne – la mise en œuvre des projets qui ont obtenu du temps de calcul. Aux dernières nouvelles, ils sont une centaine, sélectionnés principalement par deux voies. D’un côté, un « programme d’accès anticipé »
porté par EuroHPC. De l’autre, une « compétition IA »
organisée par le Gauss Centre for Supercomputing (GSC), qui réunit les trois centres de calcul nationaux allemands.

Une simulation quantique à 50 qubits

L’un de ces centres – le JSC, situé à Juliers, en Rhénanie-du-Nord-Westphalie – héberge JUPITER. À l’occasion de l’inauguration, il avait mis en avant deux projets, consacrés respectivement à la simulation quantique et climatique.

Le premier vient d’atteindre son objectif : simuler un ordinateur quantique universel à 50 qubits, avec une version compilée de l’algorithme de Shor (factorisation d’entiers) et un recuit quantique du modèle de Hubbard (interaction entre électrons). Il bat ainsi le record précédent de 48 qubits, établi par une autre équipe du JSC sur le superordinateur K (aujourd’hui décommissionné ; il était localisé au Japon).

L’architecture mémoire hybride des puces NVIDIA GH200 qui composent la partition JUPITER Booster y a contribué. Le logiciel de simulation a été adapté pour en tirer parti. Plus précisément, pour permettre des débordements temporaires vers la mémoire CPU avec une perte minimale de performance.

D’autres innovations y ont été greffées. Dont une méthode d’encodage des octets divisant par 8 la quantité de mémoire nécessaire. Et un algorithme dynamique optimisant en continu les échanges de données.

Le deuxième projet doit approfondir des travaux conduits sur le supercalculateur Alps (Suisse) par l’Institut Max-Planck de météorologie. Il s’agit d’optimiser le modèle climatique ICON pour le faire passer à l’échelle sur les 24 000 GPU de JUPITER, afin d’aboutir à des simulations sur une échelle de plusieurs décennies, à une résolution de l’ordre du km, et en incluant le cycle carbone complet.

Des projets que l’exascale rend réalisables

Dans le domaine de la physique, l’exascale bénéficiera par exemple à l’université de Bonn, dans son projet d’étude de la formation des éléments lourds, vu le nombre de particules impliquées. Il s’agira, en particulier, d’explorer les propriétés des objets les plus denses de l’Univers : les étoiles à neutrons.

L’université de Cologne estime elle aussi avoir besoin d’une puissance exaflopique, dans le cadre d’un projet touchant à la dynamique des liquides biologiques. Elle souhaite comprendre l’organisation des micro-organismes actifs (algues, bactéries, spermatozoïdes…) et les structures qui se forment à des échelles bien plus grandes. Des applications sont envisagées dans la robotique en essaim, la capture du carbone et les biocarburants.

L’université de Hambourg perçoit également un bénéfice à l’exascae dans son étude de la turbulence magnétohydrodynamique (comportement d’un fluide porteur de charges électriques en présence de champs électromagnétiques), vu l’extrême gamme dynamique induite.

Pour l’université de Ratisbonne, un supercalculateur exaflopique est synonyme de boîtes spatio-temporelles plus grandes pour l’étude de la physique des quarks et des gluons. Et de précision accrue à basse énergie.

Davantage de précision spatiale et temporelle

À l’université de technologie de Darmstadt, on s’intéresse à la dynamique de combustion de l’hydrogène, très différente de celle des carburants conventionnels. L’exascale doit permettre de descendre à l’échelle de la nanoseconde et de capturer la structure des flammes turbulentes au micromètre près.

De par les échelles de temps qu’implique son projet d’étude de l’interaction onde de choc – couche limite, l’université de Stuttgart entend aussi trouver un bénéfice dans l’exascale. Comprendre ce phénomène est crucial pour améliorer la conception des cellules et des systèmes de propulsion des aéronefs… et, au bout, réduire l’empreinte carbone.

L’Institut Max-Planck de biophysique mise sur JUPITER pour la simulation dynamique des pores nucléaires, qui font partie des plus grands complexes protéiques. Comprendre comment y est régulé le transport moléculaire promet des débouchés thérapeutiques et dans les nanotechnologies.

JUPITER va former une flopée de LLM

Quelques projets sélectionnés par EuroHPC visent à développer des modèles d’IA. Par exemple à l’université Louis-et-Maximilien de Munich : des modèles de diffusion « légers » pour générer de la vidéo. L’exascale doit permettre d’entraîner sur de gros datasets et ouvrir la voie à des LLM capables de généraliser bien au-delà de leurs données d’entraînement.

Des projets de LLM, il y en a à foison parmi ceux qu’a retenus le GSC. Celui que projette la PME française Dragon LLM (ex-Lingua Custodia ; voir notre article à son sujet) en fait partie. Celui de Tilde aussi. L’entreprise lettone vise un LLM focalisé sur les langues baltiques et d’Europe de l’Est. Elle mise sur JUPITER pour générer des données synthétiques grâce à des modèles open weight.

L’université d’Édimbourg attend elle aussi beaucoup en matière de génération de données synthétiques. En particulier de longs documents et de chaînes de pensée, son projet étant censé produire des modèles de raisonnement.

Du côté de la Bibliothèque nationale de Suède, on projette un LLM spécial langues scandinaves. On compte sur JUPITER pour pouvoir entraîner de plus gros modèles et exploiter de plus gros datasets.

Chez Multiverse Computing (Espagne), on travaille sur des techniques de compression des modèles, avec un focus sur DeepSeek-R1 (671 milliards de paramètres). Textgain (Belgique) s’appuie quant à lui sur le projet CaLICO (modèle de modération de contenu) pour développer des encodeurs de texte capables de créer efficacement des représentations contextualisées. Il espère que la puissance de JUPITER lui permettra d’aller chercher des sources qu’il n’a pas exploitées jusque-là, comme les réseaux sociaux.

Le GSC a aussi sélectionné le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), qui porte un projet de modélisation de la Terre à résolution kilométrique. Il a également accordé du temps de calcul à l’université Sapienza de Rome et au Cryprus Institute. La première a un projet d’étude de l’échauffement et de la traînée aérodynamique dans les véhicules super et hypersoniques. Le second s’intéresse à la chromodynamique quantique pour analyser la structure des constituants fondamentaux de la matière.

La partition Rhea toujours en attente

La construction de JUPITER avait démarré en décembre 2023.

Au printemps 2024, un « modèle réduit » (JEDI, JUPITER Exascale Development Instrument) avait été mis en service. Ayant permis de développer la stack de gestion du supercalculateur, il a fini par se hisser en tête du Green500, à 72,7 Gflops/W.

Un premier stade d’évolution avait été atteint fin 2024 avec la mise en service de JETI (JUPITER Exascale Transition Instrument). Cette itération à 10 racks représentait 1/12 de la puissance finale attendue. Elle avait atteint 83 Pflops au TOP500, se classant 18e.

La partition Booster était apparue dans ce même TOP500 en juin 2025, avec une performance de 793 Pflops.

Une partition Cluster, fournie par ParTec (Allemagne), doit encore être ajoutée. Elle a pris du retard, concomitamment au processeur censé l’équiper : le Rhea-1 du français SiPearl.

Illustration © Forschungszentrum Jülich / Sascha Kreklau

The post JUPITER atteint l’exascale : que fait-on avec ce supercalculateur ? appeared first on Silicon.fr.

Palo Alto reprend Chronosphere pour 3,35 milliards $

20 novembre 2025 à 12:49

Palo Alto Networks rachète Chronosphere,  spécialisée dans la gestion et la surveillance des environnements cloud, pour  3,35 milliards $ en numéraire et en actions destinées à remplacer les attributions existantes. L’opération reste soumise aux approbations réglementaires.

Chronosphere, fondée en 2019 et basée à New York, fournit une plateforme conçue pour gérer de très grands volumes de données cloud. Son revenu récurrent annuel dépassait 160 millions $ fin septembre 2025.

Chronosphere sera intégrée à sa plateforme Cortex AgentiX pour appliquer des agents IA aux données collectées afin d’identifier les problèmes de performance et d’en analyser automatiquement les causes. Selon Palo Alto, cette approche vise à faire évoluer les fonctions d’observabilité vers des mécanismes de remédiation automatisée.

Cette acquisition intervient quelques mois après le rachat de CyberArk pour environ 25 milliards $. Les actionnaires de CyberArk ont approuvé la transaction, et les deux opérations devraient être finalisées au second semestre de l’exercice fiscal 2026, sous réserve des conditions habituelles.

The post Palo Alto reprend Chronosphere pour 3,35 milliards $ appeared first on Silicon.fr.

Développement d’applications IA : une demande sectorielle pour l’heure insatisfaite

20 novembre 2025 à 12:14

Des modèles spécialisés aux templates d’applications, la demande en solutions sectorielles est croissante, mais le marché n’est pas encore mature.

Gartner fait la remarque dans son premier Magic Quadrant des « plates-formes de développement d’applications IA ».

Il est tentant d’y voir la continuité de celui consacré aux « services d’IA cloud pour les développeurs » (dernière édition : avril 2024). La majorité des fournisseurs classés dans l’un se retrouvent d’ailleurs dans l’autre. À commencer par les quatre désignés « leaders » : AWS, Google, IBM et Microsoft.

D’un Magic Quadrant à l’autre, l’idée reste la même : les solutions évaluées permettent d’intégrer de l’IA dans des applications. La terminologie évolue néanmoins pour englober la notion de plate-forme. Un mouvement que Gartner a suivi ces derniers temps pour quantité d’autres marchés (gouvernance des données et stockage d’entreprise, par exemple).

La gouvernance, critère obligatoire ; pas l’observabilité

Les briques fonctionnelles à fournir impérativement étaient, dans les grandes lignes : développement avec et sans code, ancrage, garde-fous, catalogue de modèles, déploiement, gouvernance et évaluations.

Les éléments suivants n’étaient pas obligatoires :

  • Gestion de la sécurité et du risque (DLP, sandbox, IAM…)
  • Routage intelligent des prompts (selon cas d’usage, performance et coût)
  • Passerelle IA (pour la continuité d’activité)
  • Observabilité
  • Techniques « avancées » d’ancrage (graphes de connaissances, chunking, reranking…)
  • Composabilité (intégration de solutions tierces)
  • Gestion des protocoles émergents (MCP, A2A, etc.)
  • Simulation
  • Catalogues et marketplaces d’outils, de données et d’agents

Il fallait aussi respecter quelques seuils business. Principalement, avoir dégagé au moins 100 M$ de CA en 2024 avec les offres concernées ou bien être en mesure de revendiquer au moins 500 organisations clientes.

Ces seuils ont coûté leur place à Cohere, CrewAI, Dify, Live Tech et WRITER, qui ont cependant tous droit à une « mention honorable ». Même situation pour H2O.ai, qui figurait dans le dernier Magic Quadrant des services d’IA cloud pour les développeurs.

11 fournisseurs, 4 « leaders »

Les offreurs sont jugés sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre censé refléter la capacité à répondre effectivement à la demande du marché (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

Sur cet axe « exécution », la situation est la suivante :

Rang Fournisseur
1 Google
2 AWS
3 Microsoft
4 IBM
5 Volcano Engine
6 Alibaba Cloud
7 Palantir
8 Tencent Cloud
9 LangChain
10 OpenAI
11 CoreWeave

Sur l’axe « vision » :

Rang Fournisseur
1 Microsoft
2 Google
3 AWS
4 OpenAI
5 IBM
6 Volcano Engine
7 Alibaba Cloud
8 Palantir
9 Tencent Cloud
10 CoreWeave
11 LangChain

Des 11 fournisseurs classés, 4 n’étaient pas présents dans le Magic Quadrant des services d’IA cloud pour les développeurs :

  • CoreWeave, avec son offre Weights & Biases (issue de l’acquisition de la société éponyme)
  • LangChain, avec ses frameworks LangChain et LangGraph ainsi que sa plate-forme commerciale LangSmith
  • Palantir avec son Artificial Intelligence Platform, commercialisée avec Palantir Foundry
  • Volcano Engine, avec son offre Volcano Ark

AWS doit mieux communiquer sur la valeur métier

AWS a été évalué sur son offre Bedrock (hors AgentCore, lancé après les derniers relevés de Gartner).

Sa stratégie sectorielle fait mouche auprès du cabinet américain, entre agents prêts à l’emploi, modèles spécialisés (TelClaude pour les télécoms, par exemple) et gestion de formats de données comme FHIR (Fast Healthcare Interoperability Resources) ou ODSU (Open Subsurface Data Universe). Bon point également pour une brique que Gartner a déjà saluée en d’autres occasions : la vérification par raisonnement automatisé.

AWS gagnerait à améliorer sa communication sur la valeur métier, ainsi qu’auprès de certains secteurs de marché, estime Gartner. Qui souligne par ailleurs le risque potentiel lié au choix de s’appuyer sur de l’« innovation organique » et des partenariats (AWS acquiert moins de technologies IA et recrute moins de talents que la concurrence).

Google peut progresser sur le déploiement et la gouvernance

Avec Vertex AI, Google propose un licensing « parmi les plus flexibles » entre les fournisseurs classés au Magic Quadrant. Gartner note les promotions accordées aux start-up, les programmes académiques et les partenariats d’intégration (Accenture, Cognizant, Deloitte, Onix et Quantiphi sont cités). Il rappelle aussi que Google est à l’origine du protocole A2A – lancé en 2025 puis confié à la Fondation Linux – et qu’il permet de déployer Vertex AI sur site et en périphérie.

Les utilisateurs de Vertex AI ont tendance à le noter moins bien que les solutions concurrentes concernant les capacités de déploiement et de gouvernance. Quant au modèle économique, encore principalement fondé sur une facturation, sa transition vers du SaaS avec débit garanti est lente, entraînant un risque de perte de compétitivité. Google doit aussi gagner en notoriété avec des campagnes plus ciblées, estime Gartner.

IBM, en retard sur la multimodalité

Avec watsonx, IBM est salué pour son marketing, tant de par sa capacité à cibler divers profils et métiers que de par sa présence sur les réseaux sociaux… et son sponsoring sportif (F1, Wimbledon). Autre point positif : son positionnement « ouvert » dont témoignent, selon Gartner, les modèles Granite (open-weight, licence Apache2) et le framework BeeAI.

Les scores attribués par les clients sont plus faibles que chez les autres « leaders » sur l’observabilité et les agents prêts à l’emploi. IBM a par ailleurs du retard sur la gestion de la multimodalité et sur les certifications de conformité dans certaines régions géographiques.

Microsoft, encore largement branché à OpenAI

Microsoft a efficacement communiqué le rebranding d’Azure AI en Azure AI Foundry, juge Gartner, qui salue aussi une bonne communication autour des outils pour les développeurs. Sur le plan fonctionnel, le cabinet américain apprécie les capacités d’orchestration et de développement multimodal. Ainsi que l’extension du catalogue de ressources et des options de déploiement.

Les scores attribués par les clients sont inférieurs à ceux des autres « leaders » sur la partie services et support. Ils le sont aussi sur le prix. Gartner y ajoute une dépendance encore importante aux technologies d’OpenAI.

Illustration générée par IA

The post Développement d’applications IA : une demande sectorielle pour l’heure insatisfaite appeared first on Silicon.fr.

Le partenariat SAP-Mistral AI trouve un relais dans l’administration publique

20 novembre 2025 à 09:23

La collaboration entre SAP et Mistral AI devient une affaire d’États.

La France et l’Allemagne ont annoncé leur intention d’établir un partenariat public-privé avec les deux sociétés. Elles promettent la signature d’un accord-cadre contraignant d’ici à mi-2026.

À partir de là, et jusqu’en 2030, des cas d’usage seront déployés dans les administrations publiques. Il est notamment question d’automatiser des workflows financiers – en particulier le classement des factures et les contrôles d’audit. On nous parle aussi d’agents pour :

  • Aide à la décision et conformité
  • Rédaction, simulatin de scénarios et justification budgétaire
  • Contrôle d’éligibilité et aide au remplissage des formulaires pour les citoyens

Pour piloter l’initiative, Paris et Berlin entendent convoquer un comité dédié au Consortium franco-allemand pour l’infrastructure européenne. Un EDIC dont on n’avait pas entendu parler jusque-là.

Le partenariat se traduira aussi par des labos communs d’innovation en matière d’IA-ERP. Il est ouvert à d’autres fournisseurs européens.

SAP et Mistral AI, officiellement alliés depuis juin 2024

Mistral AI se montre plus emphatique : il évoque l’ambition de livrer « une stack IA souveraine pour l’Allemagne et l’Europe », en intégrant ses modèles dans l’AI Foundation de SAP et en codéveloppant des solutions sectorielles.

Dans la pratique, plusieurs modèles ont déjà été intégrés dans cette couche de conception et d’orchestration qui repose sur l’offre SAP BTP (Business Technology Platform). Parmi eux, Mistral Large 2. Son intégration fut l’un des premiers temps forts du « partenariat multiannuel » que les deux entreprises avaient annoncé en juin 2024.

La prochaine phase va consister à intégrer Mistral AI Studio et Le Chat dans l’AI Foundation. Ils voisineront avec des LLM de Cohere, d’IBM et de NVIDIA, tous hébergés sur l’infra SAP. Ainsi qu’avec d’autres accessibles par API via Bedrock, Vertex AI et Azure OpenAI.

Les Chemins de fer suisses, un client référent pour Mistral AI sur SAP

L’intégration de Mistral Large sur SAP a un client référent : les Chemins de fer suisses. Le modèle est intégré dans les workflows via le portail SAP Build Work Zone et Microsoft Teams. Il apporte un support utilisateur multilingue (allemand, français, italien) dans le contexte d’une migration vers S/4HANA.

Aux dernières nouvelles, le projet semblait devoir se porter sur l’automatisation des achats, à travers les capacités d’appel d’outils et de fonctions de Mistral AI. Était aussi évoqué Agent Accruals. Ce service de tenue de journal comptable fait partie de la quinzaine d’agents Joule que SAP a promis de rendre disponibles d’ici à mi-2026.

Illustration © BMDS/Woithe

The post Le partenariat SAP-Mistral AI trouve un relais dans l’administration publique appeared first on Silicon.fr.

Agent 365 : après l’orchestration, Microsoft promet l’encadrement de l’IA agentique

20 novembre 2025 à 07:11

Quel modèle économique pour Agent 365 ?
On avait peu de certitudes avant son officialisation. On n’en a pas beaucoup plus après*.

La composition de l’offre est plus claire. Microsoft adapte des produits existants – essentiellement Entra, Purview et Defender – pour constituer un « plan de contrôle des agents IA ». En premier lieu, ceux créés avec ses outils (Agent Framework, Copilot Studio, Azure AI Foundry, Semantic Kernel). Mais aussi ceux conçus avec certains frameworks tiers (pour le moment, OpenAI Agents, Claude Code et LangGraph).

Le SDK qui établit le lien avec ces frameworks n’apporte ni la logique, ni l’orchestration. En cela, il est dit complémentaire au SDK Microsoft 365 Agents, en permettant principalement de :

  • Doter les agents d’une identité à l’échelle de l’écosystème Microsoft
  • Leur permettre de répondre à des événements dans ce même écosystème
  • Les superviser sur une base OpenTelemetry
  • Les connecter à des outils (serveurs MCP pour Word, SharePoint/OneDrive, Teams, Outlook, Dataverse/Dynamics 365 et Copilot Search)

Un nouveau profil d’« utilisateur agentique »

Certaines composantes d’Agent 365 étaient déjà en phase expérimentale, à l’image d’Entra Agent ID. Cette brique adosse à l’annuaire un registre où sont consignées toutes les instances d’agents. Chacune a une relation directe avec une identité agentique ; et, éventuellement, avec un « utilisateur agentique ».

registre d'agents

Le mode « utilisateur agentique » est une nouveauté d’Agent 365. Il complète la possibilité d’utiliser un agent au nom d’un utilisateur humain (délégation des tokens et des permissions) ou comme une application indépendante (attribution d’une identité de workload). Il permet, par exemple, qu’un agent soit invoqué dans les apps Microsoft via les mentions (@) ou ait sa propre adresse e-mail et son stockage OneDrive… sous réserve de disposer des bonnes licences.

C’est à un admin d’attribuer ces licences, au moment d’activer des agents. Plus précisément des instances d’agents, créées à partir de templates approuvés au préalable et publiés soit dans le magasin Microsoft 365 Copilot, soit dans le catalogue d’apps de Teams.

Quoique complémentaire à Microsoft 365, Agent 365 en est distinct sur le plan commercial. Il est pour le moment en bêta publique, dans le cadre du programme Frontier (accès anticipé aux fonctionnalités IA).

* Il y a quelques indices, comme le fait que la protection des identités d’agents est « incluse dans Entra P2 pendant la preview« .

Illustration principale générée par IA

The post Agent 365 : après l’orchestration, Microsoft promet l’encadrement de l’IA agentique appeared first on Silicon.fr.

Reçu hier — 19 novembre 2025 Silicon

Microsoft et Nvidia vont investir 15 milliards € dans Anthropic

19 novembre 2025 à 17:07

Microsoft et Nvidia prévoient d’investir jusqu’à 15 milliards $ dans Anthropic, respectivement 5 milliards et 10 milliards. Parallèlement, l’inventeur de Claude s’engage à acheter pour 30 milliards $ de capacité de calcul auprès de Microsoft.

Satya Nadella, CEO de Microsoft, a indiqué que les deux sociétés deviendraient « de plus en plus clientes l’une de l’autre », en précisant que Microsoft continuerait à considérer OpenAI comme « un partenaire critique ».

Microsoft rendra les modèles Claude accessibles aux clients d’Azure AI Foundry. Cela fera de Claude le seul modèle de pointe disponible sur les trois principaux fournisseurs de cloud ( AWS, Microsoft Azure et Google Cloud).

Anthropic prévoit d’utiliser jusqu’à 1 gigawatt de capacité de calcul reposant sur les architectures Grace Blackwell et Vera Rubin de Nvidia. Des spécialistes du secteur estiment qu’un gigawatt de capacité de calcul dédiée à l’IA peut représenter un coût allant de 20 à 25 milliards de dollars.

Les équipes d’ingénierie de Nvidia travailleront avec celles d’Anthropic pour assurer une meilleure intégration entre les futurs modèles et les futures générations de puces.
Cependant, Anthropic continuera de s’appuyer principalement sur AWS. Rappelons qu’Amazon a déjà investi 8 milliards $ dans la scale-up.

The post Microsoft et Nvidia vont investir 15 milliards € dans Anthropic appeared first on Silicon.fr.

L’UE propose d’assouplir ses règles sur l’IA et le RGPD

19 novembre 2025 à 16:07

La Commission européenne a présenté ce mercredi un ensemble de modifications appelé « Omnibus numérique » (Digital Omnibus) visant à alléger la réglementation numérique qui s’applique aux 27 États membres de l’UE, dans un contexte de pression pour améliorer sa compétitivité face aux États-Unis et à la Chine dans le domaine de l’intelligence artificielle.

Ces propositions nécessitent l’approbation des pays de l’Union européenne et du Parlement européen.

Report de l’application des règles sur l’IA à haut risque

Les entreprises utilisant des systèmes d’IA considérés comme « à haut risque » bénéficieraient d’un délai supplémentaire de 16 mois avant l’entrée en vigueur des réglementations strictes. La date d’application serait ainsi repoussée de août 2026 à décembre 2027.

Les systèmes d’IA à haut risque concernent les domaines des forces de l’ordre, de l’éducation, de la justice, de l’asile et de l’immigration, des services publics, de la gestion du personnel, des infrastructures critiques comme l’eau, le gaz ou l’électricité, ainsi que l’utilisation de données biométriques.

Modifications ciblées de la loi sur l’IA

La Commission propose également des amendements spécifiques à la loi sur l’IA qui prévoient :

Simplifications pour les PME : Extension de certaines simplifications accordées aux petites et moyennes entreprises et aux petites entreprises de taille intermédiaire, notamment des exigences de documentation technique simplifiées, permettant d’économiser au moins 225 millions € par an.

Élargissement des mesures de conformité : Davantage d’innovateurs pourront utiliser des « sandboxes » réglementaires (environnements de test contrôlés), y compris une sandbox au niveau de l’UE à partir de 2028, ainsi que davantage de tests en conditions réelles, notamment dans des secteurs clés comme l’automobile.

Renforcement de la supervision : Les pouvoirs de l’Office AI seront renforcés et la surveillance des systèmes d’IA construits sur des modèles d’IA à usage général sera centralisée, réduisant ainsi la fragmentation de la gouvernance.

Facilitation de l’accès aux données personnelles

La proposition vise à clarifier le moment où des données cessent d’être considérées comme « personnelles » au regard de la législation sur la vie privée. Selon le texte, des informations anonymisées ne seraient pas considérées comme des données personnelles si l’entité qui les traite n’a pas les moyens de réidentifier la personne concernée.

Les entreprises seraient autorisées à utiliser de vastes ensembles de données pour l’entraînement de systèmes d’IA, même s’ils contiennent des informations personnelles sensibles comme des données de santé ou biométriques, à condition de faire des efforts raisonnables pour les supprimer.

Amélioration de l’accès aux données pour l’innovation

L’Omnibus numérique vise à améliorer l’accès aux données en tant que moteur clé de l’innovation, en simplifiant les règles relatives aux données :

Consolidation de la législation : Regroupement des règles européennes sur les données via le Data Act, fusionnant quatre textes législatifs en un seul pour une clarté juridique accrue.

Exemptions ciblées : Introduction d’exemptions ciblées à certaines règles du Data Act concernant le changement de fournisseur cloud pour les PME et petites entreprises de taille intermédiaire, générant environ 1,5 milliard d’euros d’économies ponctuelles.

Nouveaux outils de conformité : Fourniture de nouvelles orientations sur la conformité au Data Act via des clauses contractuelles types pour l’accès et l’utilisation des données, ainsi que des clauses contractuelles standard pour les contrats de cloud computing.

Soutien aux entreprises d’IA européennes : Déblocage de l’accès à des ensembles de données de haute qualité et récentes pour l’IA, renforçant le potentiel d’innovation global des entreprises dans toute l’UE.

Réformer le RGPD

Des amendements ciblés au Règlement général sur la protection des données (RGPD) harmoniseront, clarifieront et simplifieront certaines règles pour stimuler l’innovation et soutenir la conformité des organisations, tout en maintenant intact le cœur du RGPD et le plus haut niveau de protection des données personnelles.

Les amendements visent à moderniser les règles relatives aux cookies pour améliorer l’expérience des utilisateurs en ligne. Les bannières de consentement aux cookies apparaîtraient beaucoup moins fréquemment.

Les utilisateurs pourraient définir leurs préférences en matière de cookies une seule fois, soit par un simple clic valable six mois, soit via les paramètres de leur navigateur ou système d’exploitation applicables à tous les sites web. Certaines fonctions basiques des sites, comme le comptage des visiteurs, ne nécessiteraient plus de fenêtres de consentement.

Les sites web devraient toutefois toujours obtenir un consentement explicite avant d’accéder aux données stockées sur les appareils des utilisateurs, comme la localisation ou l’historique de navigation.

Simplification des rapports de cybersécurité

L’ Omnibus numérique introduit un point d’entrée unique où les entreprises peuvent remplir toutes leurs obligations de déclaration d’incidents. Actuellement, les entreprises doivent signaler les incidents de cybersécurité en vertu de plusieurs lois, notamment la directive NIS2, le RGPD et la loi sur la résilience opérationnelle numérique (DORA). L’interface sera développée avec des garanties de sécurité robustes et fera l’objet de tests approfondis pour garantir sa fiabilité et son efficacité.

Allègement des contraintes administratives pour les PME

Les petites et moyennes entreprises développant ou utilisant des systèmes d’IA feraient face à des exigences de documentation considérablement réduites, ce qui pourrait leur faire économiser au moins 225 millions d’euros par an, selon la Commission.

Les petites entreprises seraient également exemptées de certaines règles relatives au changement de fournisseur cloud, leur permettant d’économiser environ 1,5 milliard d’euros en coûts de conformité ponctuels.

Le plan prévoit aussi la création d’un « European Business Wallet », un passeport numérique fonctionnant dans les 27 États membres de l’UE, permettant aux entreprises de signer et d’horodater numériquement des documents et de gérer des dépôts administratifs à travers l’Europe. La Commission estime que cet outil pourrait éliminer jusqu’à 150 milliards € de coûts administratifs annuels une fois largement adopté.

Un contexte de critiques et de pressions

Cette proposition intervient après une mobilisation des entreprises technologiques européennes et américaines, de l’administration Trump et de membres du bloc pour réformer des réglementations jugées excessives et mal définies.

Dans un rapport de 2024 sur la compétitivité européenne, l’ancien Premier ministre italien Mario Draghi avait identifié l’étendue de la réglementation numérique du bloc comme un frein aux performances des entreprises technologiques locales.

Le président français Emmanuel Macron et le chancelier allemand Friedrich Merz ont apporté leur soutien à certaines parties de la proposition lors d’un sommet sur la souveraineté numérique à Berlin cette semaine.

Des groupes de la société civile ont toutefois mis en garde contre le fait que ces changements favoriseraient les intérêts des grandes entreprises technologiques et affaibliraient les protections de la vie privée en place depuis deux décennies. Les responsables de la Commission maintiennent que les modifications préserveraient les normes strictes de confidentialité de la région.

The post L’UE propose d’assouplir ses règles sur l’IA et le RGPD appeared first on Silicon.fr.

Adobe rachète Semrush pour 1,9 milliard $

19 novembre 2025 à 14:31

Adobe renforce son offre de services de marketing en ligne avec l’acquisition de Semrush  pour un montant de 1,9 milliard $ en numéraire.

La transaction devrait se finaliser au cours du premier semestre 2026, selon Adobe. Le rachat de Semrush constitue la première acquisition annoncée par Adobe depuis l’échec de l’achat de Figma, évalué à 20 milliards $ en 2022.

Semrush propose des outils permettant aux entreprises d’analyser et d’optimiser leur présence en ligne, notamment via le référencement naturel, la publicité numérique et les réseaux sociaux. L’intégration de Semrush devrait permettre à Adobe d’offrir aux spécialistes du marketing une vision plus complète de la manière dont leur marque est perçue sur les moteurs de recherche traditionnels, les grands modèles de langage (LLM) et l’ensemble du web. Parmi ses clients, Semrush compte des entreprises comme TikTok et Amazon.

Si Adobe est principalement connue pour ses logiciels de création graphique et de gestion documentaire, son offre comprend également des solutions marketing et analytiques. L »éditeur  a annoncé en octobre que certains de ses outils d’édition vidéo et d’image pourraient bientôt être contrôlés via des commandes en langage naturel, en partenariat avec OpenAI, le créateur de ChatGPT.

Malgré sa position de leader dans le domaine des logiciels créatifs, Adobe connaît une année 2025 difficile sur les marchés financiers. Son action a chuté de plus de 27 % depuis le début de l’année, les investisseurs étant préoccupés par la capacité de la société à monétiser efficacement ses fonctionnalités basées sur l’intelligence artificielle dans un secteur de la conception numérique de plus en plus concurrentiel.

Pour Semrush, le rachat intervient après plusieurs années de croissance post-introduction en bourse, la société étant cotée à New York depuis 2021.

Anil Chakravarthy, président de la division Digital Experience Business d’Adobe, a déclaré que l’acquisition de Semrush constituait « une manière naturelle de continuer à se développer dans un domaine très important pour nos clients existants », en particulier dans le contexte de l’essor de l’IA et des LLM pour le marketing en ligne.

The post Adobe rachète Semrush pour 1,9 milliard $ appeared first on Silicon.fr.

OVHcloud en Allemagne : ce qu’il y a en attendant la région 3-AZ

19 novembre 2025 à 14:25

Le 3-AZ en Allemagne, c’est pour bientôt.

OVHcloud l’a officialisé à l’occasion du Sommet sur la souveraineté numérique européenne.

L’événement étant organisé à Berlin, l’annonce était de circonstance. Elle a largement éclipsé l’ouverture du 3-AZ dans un autre pays : l’Italie. Cette architecture à trois zones de disponibilité a effectivement été déployée sur la région cloud de Milan (eu-south-mil). Pour le moment sur la partie IaaS. DBaaS et Kubernetes managé doivent suivre « très bientôt », si on en croit la roadmap Public Cloud.

Le 3-AZ est également disponible à Paris (région eu-west-par), depuis avril 2024.

Une base établie dans la région de Francfort

En Allemagne, OVHcloud avait ouvert son premier datacenter en 2017, au nord-ouest de Francfort, dans la ville de Limburg-sur-la-Lahn (Hesse). Le bâtiment était auparavant une imprimerie. Une connexion directe à Bruxelles, Strasbourg et Prague avait été établie.

Limburg Francfort OVHcloud

L’ensemble fut agrandi par deux fois, en 2018 puis en 2021, faisant passer la surface informatique à environ 2500 m2. Depuis, un autre datacenter – de 6000 m2 – a vu le jour dans la même ville. La première pierre fut posée en 2022. Cette année-là, le siège avait déménagé à Cologne (Rhénanie-du-Nord-Westphalie). Il était resté implanté à Sarrebruck (Sarre) depuis la création, en 2006, de la filiale allemande – dont Henryk Klaba, frère d’Octave, fut le premier DG.

Datacenter à Kehl, cloud de confiance avec T-Systems… Des projets qui n’ont pas abouti

OVH eut un projet de datacenter à Kehl, ville limitrophe de la France. Il l’avait évoqué en 2013 à l’occasion de l’inauguration de son deuxième datacenter de conteneurs à Strasbourg (SBG4, qui serait touché à la marge lors de l’incendie de 2021). Il était question d’héberger jusqu’à 10 000 serveurs. L’idée ne s’est pas concrétisée.

Kehl OVHcloud

D’autres projets en Allemagne n’ont pas abouti, à l’image de la collaboration annoncée en 2020 avec T-Systems, filiale de Deutsche Telekom. Promesse : développer, pour 2021, un cloud de confiance sur base OpenStack respectant les principes de Gaia-X. Le gouvernement français, par la voie de Bruno Le Maire et de Cédric O, s’en était félicité.

T-Systems a aujourd’hui sa propre offre OpenStack (Open Telekom Cloud), sans qu’apparaissent de liens technologiques ni commerciaux avec OVHcloud.

De la police nationale à la sécurité sociale, des contrats référents pour OVHcloud

Dans son annonce du 3-AZ en Allemagne, OVHcloud mentionne quatre clients : Commerz Real, ITSC, la Bundesagentur für Arbeit (littéralement « Agence fédérale de l’emploi ») et la Bundespolizei (police nationale).

Le contrat avec Commerz Bank a été annoncé cette année. La société de gestion d’actifs, spécialisée dans les investissements immobiliers et les énergies renouvelables, va héberger « une part importante » de son infrastructure chez OVHcloud.

La police nationale a quant à elle décidé d’héberger chez OVHcloud son nouveau programme de formation, autour d’une solution de visio développée par une société allemande. Le contrat, également annoncé cette année, court sur 5 ans.

Le deal avec l’Agence fédérale pour l’emploi a été signé en 2024. Deux autres organismes de la sécurité sociale allemande sont parties au contrat, qui porte sur une plate-forme multicloud gérée par Computacenter. AWS, Google et Microsoft sont dans la boucle, aux côtés de deux fournisseurs allemands (IONOS, StackIT), un polonais (CloudFerro)… et OVHcloud. Le projet s’étale sur 4 ans, pour 100 M€ d’investissement.

Pour ce qui est d’ITSC (fournisseur de services IT), il avait organisé, en 2023, un appel d’offres public qu’OVHcloud avait remporté. Il s’agissait de migrer dans le cloud le traitement, la sauvegarde et le stockage des données de santé qu’une quarantaine de caisses d’assurance maladie d’entreprise.

La même année, OVHcloud avait remporté un appel d’offres organisé par le Deutsches Zentrum für Luft- und Raumfahrt (Centre allemand pour l’aéronautique et l’astronautique). Il s’agissait d’héberger l’infrastructure d’un projet porté par ce dernier : COOPERANTS (Collaborative Processes and Services for Aeronautics and Space). Son objectif : constituer, dans le respect des principes de Gaia-X, un data space européen pour l’industrie aérospatiale.

Illustration principale (datacenter de Roubaix 5) © OVHcloud

The post OVHcloud en Allemagne : ce qu’il y a en attendant la région 3-AZ appeared first on Silicon.fr.

Stratégie IA : la France en tête du peloton européen…mais loin du compte

19 novembre 2025 à 11:29

Sept ans après le lancement de sa stratégie nationale pour l’intelligence artificielle, la France se hisse au cinquième rang mondial du Global AI Index. Un succès en trompe-l’œil, selon la Cour des comptes, qui épingle dans un rapport publié ce 19 novembre une politique publique certes volontariste, mais largement en-deçà de ses ambitions initiales et de l’ampleur de la révolution en marche.

Un budget amputé d’un tiers et une exécution laborieuse

Les chiffres parlent d’eux-mêmes. Pour la phase 2023-2025, baptisée « phase d’accélération », l’État aura finalement programmé 1,055 milliard €, soit un tiers de moins que les 1,5 milliard initialement annoncés en novembre 2021. Pire encore : au 30 juin 2025, seuls 35% de ces crédits avaient été consommés (289 millions € de paiements effectifs), traduisant la lenteur du démarrage des dispositifs.

Les chiffres de la première phase (2018-2022) ne sont guère plus encourageants : sur 1,527 milliard programmés, seuls 1,272 milliard ont finalement été engagés. Plus inquiétant, la Cour pointe un «suivi lacunaire» des crédits et des « difficultés à identifier la part des financements généralistes rattachables à la SNIA ». Bref, l’État peine à suivre ses propres dépenses en matière d’IA.

Cette mauvaise exécution budgétaire illustre un problème structurel : la nécessité de réallouer en urgence des moyens pour soutenir le développement de l’IA générative, «enjeu qui n’avait pas été anticipé à la veille de la révolution ChatGPT», souligne les sages de la rue Cambon.

Le dispositif phare des « IA Clusters », doté du budget le plus élevé (360 millions € après une réduction de 90 millions), n’a vu ses premiers engagements concrétisés qu’à la fin 2024, trois ans après son annonce.

La recherche, unique point fort

Dans ce tableau mitigé, un secteur tire son épingle du jeu : la recherche.

La France compte désormais plus de 4 000 chercheurs travaillant sur l’IA et se hisse au troisième rang mondial en matière de recherche et formation dans ce domaine. Les instituts d’excellence (3IA) créés depuis 2018 commencent à porter leurs fruits : quatre pôles à Paris, Nice, Grenoble et Toulouse regroupent 150 chaires de recherche et ont noué plus d’une centaine de partenariats industriels. En quatre ans, ce réseau a réuni 500 chercheurs, financé près de 500 doctorants et formé chaque année plus de 13 000 personnes.

Le supercalculateur Jean Zay, installé sur le plateau de Saclay en 2019 et progressivement étendu, constitue l’autre réussite emblématique. Avec une puissance de calcul portée à 37 pétaflop/s, il permet à de nombreuses équipes d’accéder à des infrastructures de calcul pour développer des systèmes d’IA à coûts réduits. Bonus écologique : son système de récupération de chaleur chauffe l’équivalent de 1 000 logements, une première en Europe à cette échelle.

Le pays peut également se targuer d’avoir vu émerger une dizaine d’acteurs positionnés sur l’IA générative en quelques mois, là où il n’en comptait qu’un seul début 2023. Plus de 1 000 startups sont désormais actives dans le domaine, ayant levé près de 2 milliards € en 2024. Seize licornes françaises intègrent l’intelligence artificielle dans leur proposition de valeur. La France est devenue le premier pays européen en nombre de projets d’investissement étrangers dans l’IA et le premier hébergeur européen de centres de recherche des leaders mondiaux du secteur.

Mais ces réussites comportent leurs limites. L’effet structurel des dispositifs n’a pas toujours été favorisé : le recours à une « succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », a créé une fragmentation et nui à la cohérence d’ensemble. Le processus de sélection des instituts 3IA a écarté des acteurs majeurs comme l’Université Paris-Saclay. Et l’attractivité internationale des talents reste limitée, faute de salaires compétitifs et de mesures d’accompagnement à l’installation.

Les angles morts d’une stratégie à géométrie variable

Mais ces succès masquent des carences béantes. Premier angle mort pointé par la Cour :  «l’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes ». Entreprises, administrations, citoyens : tous ont été largement négligés par une stratégie trop centrée sur l’excellence scientifique.

Les PME et ETI, qui devraient constituer le cœur de cible de la diffusion de l’IA dans l’économie, n’ont bénéficié que de « dispositifs très modestes » : le programme « IA Booster », censé accompagner les entreprises, n’a reçu que 10 millions € de budget, soit à peine 1% de l’enveloppe totale. Résultat : « l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’ont pas eu lieu ». Un constat d’échec pour une phase censée précisément viser cet objectif.

Deuxième faille majeure : la formation. Les 128 millions € initialement prévus pour l’enseignement supérieur hors doctorat dans la première phase n’ont jamais été dépensés. « Le retard pris en matière d’adaptation à l’IA de l’ensemble des formations initiales et continues n’a pas été rattrapé », déplore la juridiction. Plus grave encore, l’annulation en 2023 du programme « numérique et éducation » (77 millions €), pourtant annoncé par le Premier ministre en octobre 2021, a fait perdre « plusieurs années » dans la transformation des apprentissages par l’IA.

L’administration à la traîne

Paradoxe ultime : l’État, architecte de cette stratégie, reste lui-même « globalement en retard » dans sa propre transformation numérique. « En dépit d’initiatives ponctuelles », la Cour constate que l’adoption de l’IA par l’administration publique demeure « très décevante ».

Quelques expérimentations ont certes vu le jour : le « Lab IA » a accompagné 25 projets dans les administrations d’État, l’appel à projets « transformation publique » a financé 46 projets liés à l’IA (pour 80 millions €). Mais ces initiatives sont restées « isolées » et leur « effet transformatif très circonscrit ». Les services publics peinent à déployer des cas d’usage, faute de formation des agents, de budgets dédiés et d’une véritable volonté politique.

Le fiasco emblématique de cette inertie : la plateforme des données de santé (Health Data Hub). Lancée en 2019 avec 80 millions € de financement, elle devait révolutionner la recherche médicale en regroupant toutes les données de santé françaises. Mais le choix d’héberger ces données sensibles sur le cloud de Microsoft a déclenché une polémique sur la souveraineté. Suspendu par le Conseil d’État en octobre 2020, le projet n’a fonctionné qu’au ralenti pendant près de cinq ans. Il a fallu attendre juillet 2025 pour qu’un marché public soit lancé pour un « hébergement souverain », avec une mise en service annoncée pour… l’été 2026.

Un pilotage baroque

La gouvernance de cette politique publique relève, selon les magistrats, d’un «jeu complexe entre de nombreux acteurs ». Pas moins de cinq ministères, l’Inria, le CNRS, Bpifrance et un coordonnateur national se partagent les responsabilités, sans véritable chef d’orchestre. Cette fragmentation nuit à la cohérence d’ensemble et à la rapidité de mise en œuvre.

Le coordonnateur national, pourtant censé piloter l’ensemble, « ne dispose que d’une équipe très restreinte » avec  «pour l’essentiel un adjoint ». Son rattachement a d’ailleurs changé trois fois en sept ans : d’abord à la direction du numérique de l’État (2018-2020), puis à la direction générale des entreprises du ministère de l’Économie (depuis 2020), avant qu’une ministre déléguée spécifique à l’IA soit nommée en décembre 2024.

Le suivi des crédits s’avère lui-même « lacunaire », rendant difficile une évaluation précise des résultats. Comble de la légèreté méthodologique, la Cour note que la deuxième phase a été  «lancée sans évaluation préalable » de la première, malgré les 1,3 milliard € dépensés entre 2018 et 2022. Les administrations ont eu « les plus grandes difficultés à reconstituer des données budgétaires cohérentes et fiables» lors du contrôle de la Cour.

La course contre la Chine et les États-Unis

Ces faiblesses interrogent d’autant plus que la compétition mondiale s’intensifie. Si la France peut légitimement se comparer à ses concurrents européens, le fossé avec les États-Unis et la Chine demeure abyssal. Ces deux superpuissances investissent des montants sans commune mesure : l’administration Biden a annoncé 32 milliards $ pour l’IA sur cinq ans, tandis que Pékin consacre des sommes estimées à plus de 100 milliards $.

Dans ce contexte, les 2,4 milliards € mobilisés par la France sur sept ans apparaissent dérisoires. Le risque est réel de voir le pays décrocher dans une course où la capacité d’investissement et la vitesse d’exécution font la différence.

Dix recommandations pour changer de braquet

Face à ce constat, la Cour formule dix recommandations destinées à «permettre à la politique publique de l’intelligence artificielle de changer d’échelle ». Premier chantier : renforcer le pilotage interministériel par la création d’un secrétariat général ad hoc d’ici fin 2025.

Les magistrats appellent aussi à « accroître les capacités de calcul » via de nouveaux partenariats public-privé, à «anticiper les évolutions du marché de l’emploi », et surtout à
« accompagner l’accélération et la massification de l’adoption par les entreprises ». Objectif affiché : faire entrer les PME dans l’ère de l’IA dans les cinq prochaines années.

La question des données, jusqu’ici négligée, doit également devenir une priorité : qualité, accès, protection et stockage souverain constituent des enjeux stratégiques majeurs. De même, la Cour insiste sur la nécessité de  « construire une ambition réaliste » sur les composants électroniques, secteur dans lequel l’Europe accuse un retard considérable face aux Asiatiques et aux Américains.

Une troisième phase déjà lancée

Le gouvernement n’a pas attendu ce rapport pour réagir. Une troisième phase de la stratégie nationale a été annoncée en février 2025 lors du sommet de Paris sur l’IA, un événement qui a confirmé la place particulière de la France sur la scène internationale. Les contours de cette nouvelle phase, précisés dans les mois suivants, visent notamment à corriger les défauts identifiés.

Mais la Cour reste sceptique : « Considérer que les priorités sur lesquels la SNIA a remporté de premiers succès ne nécessitent plus d’attention serait une erreur eu égard aux dynamiques très rapides d’évolution du paysage de l’IA». Les magistrats appellent à ne pas relâcher l’effort sur la recherche tout en comblant les retards accumulés ailleurs.

Une course contre la montre

Au-delà des querelles de chiffres et de gouvernance, la Cour souligne surtout l’urgence de la situation. «La révolution induite par cette technologie à usage général atteint une magnitude à laquelle peu d’autres ruptures technologiques dans l’Histoire peuvent être comparées», martèle le rapport. L’IA  «n’est plus une affaire réservée à des spécialistes, elle touche tous les champs du savoir, l’économie et toute la société».

Cette accélération impose un changement radical de paradigme. La France a certes réussi à créer « une dynamique réelle » et à se hisser « en tête du peloton européen ». Mais pour rester dans la course face aux géants américains et chinois, et surtout pour transformer en profondeur son économie et son modèle social, elle devra impérativement combler ses lacunes.

Le prochain sommet de l’IA, prévu en février 2026, constituera un test décisif. La France saura-t-elle passer des promesses aux actes ? Répondre présent à ce rendez-vous suppose une mobilisation sans précédent de tous les acteurs – État, entreprises, universités, collectivités locales – et surtout une volonté politique au long cours. Car dans cette révolution, comme le rappelle la Cour, « les années qui viennent seront critiques ». Le temps presse.

The post Stratégie IA : la France en tête du peloton européen…mais loin du compte appeared first on Silicon.fr.

Panne Cloudflare : ce qui s’est passé dans le système anti-bots

19 novembre 2025 à 10:19

Cloudflare est formel : ce 18 novembre, il a subi sa « pire panne depuis 2019 ».

Cette dernière avait été déclenchée par le déploiement d’une règle WAF pour la détection XSS. Un problème de regex avait entraîné une surconsommation CPU sur les nœuds qui géraient le trafic HTTP(S). Le proxy principal était tombé, comme le CDN.

Le système de gestion des bots mis K.-O. par un changement de configuration

Cette fois, l’incident a pris racine dans un changement de permissions sur une base de données ClickHouse. L’idée était, dans les grandes lignes, de rendre explicite un accès jusque-là accordé implicitement aux utilisateurs lors des requêtes de tables système.

Faute d’un filtrage approprié, une requête s’est mise à générer des colonnes en double. Cette requête provenait d’un des modules du proxy principal : celui dédié à la gestion des bots.

Ce module exploite, entre autres, un modèle d’apprentissage automatique qui attribue un score à chaque requête. Il s’appuie sur un fichier de configuration réunissant des features (caractéristiques individuelles utilisées pour prédire si une requête est ou non automatisée).

Ce fichier est régulièrement rafraîchi – à intervalle de quelques minutes – et diffusé sur le réseau Cloudflare.
La version « doublonnée » a dépassé la limite de 200 features paramétrée dans le système de gestion des bots pour éviter la surconsommation de mémoire. Le module est ainsi passé en erreur, affectant tout le trafic qui en dépendait.

Des pannes en cascade et un tableau de bord inaccessible

D’autres services exploitant le proxy principal ont été touchés. Notamment Workers KV (magasin clé-valeur) et Turnstile (alternative aux CAPTCHA).
L’indisponibilité de ce dernier a empêché les connexions au tableau de bord – à moins d’avoir une session active.
Cloudflare Access (contrôle d’accès) a aussi connu des problèmes d’authentification.
En parallèle, la consommation CPU des systèmes de débogage et d’observabilité a accru la latence du CDN.

Vers 14 heures, soit une heure et demie après le début de l’incident, un correctif fut déployé sur Workers KV afin de contourner le proxy. Les taux d’erreurs sur les services aval se sont réduits.

D’autres difficultés ont été recensées par la suite, après la restauration d’une version saine du fichier de features. Le backlog de tentatives de connexion, combiné aux retries, a submergé le dashboard.

Cloudflare a d’abord cru à une attaque

Jusqu’à l’application du correctif pour Workers RV, le système a eu un comportement particulier : à plusieurs reprises, il a brièvement récupéré. Et pour cause : il arrivait qu’un fichier sain soit généré, en fonction de la partie du cluster sur laquelle s’exécutait la requête du service de gestion des bots.

Ce comportement a compliqué l’identification du problème. Jusqu’à ce que, finalement, tous les nœuds ClickHouse se mettent à générer le mauvais fichier.
Cloudflare a un temps pensé à une attaque, d’autant plus que sa page de statut, qui n’a pas de dépendance à ses services, était aussi tombée. Mais il s’agissait d’une « coïncidence »…

L’acheminement du trafic était largement revenu à la normale vers 15 h 30. Passé 18 heures, tous les systèmes de Cloudflare fonctionnaient normalement.

En conséquence de cette panne mondiale, l’entreprise promet de renforcer le contrôle de l’ingestion des fichiers que ses systèmes génèrent (mise sur le même plan que les fichiers générés par les utilisateurs). Elle compte aussi supprimer la possibilité que des dumps et autres rapports d’erreur épuisent les ressources système. Et réviser les modes d’échec pour les conditions d’erreur sur tous les modules de son proxy principal.

Illustration générée par IA

The post Panne Cloudflare : ce qui s’est passé dans le système anti-bots appeared first on Silicon.fr.

Reçu — 18 novembre 2025 Silicon

Cloudflare, un autre pilier d’Internet en panne après AWS et Azure

18 novembre 2025 à 17:39

« Quand l’un [des] ‘gardiens du web’ vacille, c’est toute notre vie numérique qui s’arrête. »

La panne mondiale de Cloudflare a inspiré ce commentaire à mc2i.

Le cabinet de conseil n’est pas le seul à s’inquiéter de la dépendance d’Internet à des infrastructures portées par une poignée d’acteurs. Il l’est d’autant moins après les incidents majeurs qui ont récemment affecté AWS et Azure.

Chez le premier, quantité de services ont été perturbés en conséquence d’un souci de résolution DNS sur une base de données.
Chez le second, le problème est parti d’un état invalide introduit par un changement de configuration sur le CDN Azure Front Door.

Un bug dans le système de contrôle des bots

Cloudflare avait d’abord évoqué un « pic de trafic inhabituel »* vers un de ses services – et expliqué que le reste du trafic en avait pâti.

Son CTO est ensuite allé plus loin. À l’en croire, un changement de configuration a enclenché un « bug latent » dans un service concourant au contrôle des bots. S’en sont suivis des effets en cascade. « Ce n’était pas une attaque« , a-t-il ajouté.

Il était 12 h 20 en France, ce 18 novembre, quand l’incident a démarré. Cloudflare l’a signalé sur sa page de statut une demi-heure plus tard.

Vers 14 heures, on nous annonçait que le problème était identifié. Le déploiement d’un correctif restaurant l’accès au tableau de bord Cloudflare était officialisé vers 15 h 30. Une étape importante donnant aux clients la possibilité d’implémenter des mécanismes de contournement.

Quelques minutes plus tard, l’entreprise avait dit estimer que l’incident était résolu. C’est à ce moment-là que son CTO s’était exprimé.

Cloudflare a par la suite reconnu que certains clients pourraient encore rencontrer des problèmes de connexion ou d’utilisation du tableau de bord. Puis déclaré que les scores attribués aux bots seraient impactés par intermittence le temps de la récupération.

À 17 h 30, la situation continuait de s’améliorer, mais n’était pas encore pleinement revenue à la normale. À 18 h 15, la latence et le taux d’erreurs revenaient à des « niveaux normaux ».

ChatGPT, Claude, Gemini, Le Chat, Perplexity… Silence chez les chatbots

Touché, Canva a fait partie des clients qui ont explicitement attribué la responsabilité à Cloudflare. Touché tant sur ChatGPT que sur Sora et sur son API, OpenAI a simplement parlé d’un « fournisseur tiers ». Même chose pour Discord, qui a toutefois précisé que ce fournisseur rencontrait un « problème majeur »…

Également affecté, Coinbase a considéré que l’incident (« latence ou performance de connexion dégradée pour certains utilisateurs ») était résolu à 16 h 38. Chez Twilio, c’était fait une demi-heure plus tôt (problèmes de login pour les utilisateurs de Twilio et de Sengrid), à peu près en même temps que chez Sage (problèmes d’accès à certains produits).

ChatGPT n’a pas été le seul chatbot perturbé. Gemini (Google), Claude (Anthropic), Le Chat (Mistral AI) et Perplexity AI, entre autres, l’ont aussi été.

Un autre incident notable chez Cloudflare en juin 2025

Cloudflare avait connu une autre panne notable le 12 juin 2025. À la racine, une panne dans une dépendance externe. Elle a perturbé un service sur lequel beaucoup d’autres s’appuient : Workers KV.

Plus de 90 % des requêtes vers ce magasin clé-valeur ont produit des réponses 500 ou 503. Parmi les services aval touchés :

  • Access (contrôle d’accès), qui ne pouvait pas récupérer des informations de configuration et d’identité
  • Gateway (passerelle web), qui ne pouvait pas traiter certaines requêtes
  • WARP (VPN), dépendant d’Access
  • Browser Isolation (navigateur sécurisé), dépendant de Gateway pour certaines sessions
  • Turnstile (alternative aux CAPTCHA)
  • Images, qui ne pouvait plus gérer les téléversements par lots

Il avait fallu environ 3 heures pour résoudre le problème. Claude et Gemini en avaient souffert. Gmail aussi, ainsi que Snapchat, Spotify, Twitch, etc.

* Ce n’est pas le pic qui a été qualifié d’inhabituel, mais le trafic (« peak of unusual traffic »). Une formulation qui aurait pu faire penser à une attaque.

Illustration © Hywards – Shutterstock

The post Cloudflare, un autre pilier d’Internet en panne après AWS et Azure appeared first on Silicon.fr.

L’UE ouvre une enquête sur AWS et Microsoft Azure

18 novembre 2025 à 15:01

La Commission européenne lance trois enquêtes de marché sur les offres d’AWS et Microsoft Azure dans le cadre du Digital Markets Act (DMA) dont l’objectif est de limiter le pouvoir des grandes entreprises technologiques, désignées comme « contrôleurs d’accès » , et de garantir des conditions de concurrence équitables pour les rivaux plus petits.

Les investigations se décomposent en trois volets distincts :

Désignation en tant que « contrôleurs d’accès ». A travers deux enquêtes, la Commission va évaluer si Amazon Web Services (AWS) et Microsoft Azure doivent être désignés comme « contrôleurs d’accès » pour leurs services cloud.Si cette désignation est confirmée, ces services cloud seraient ajoutés à la liste des services de plateforme essentiels pour lesquels Amazon et Microsoft sont déjà considérés comme contrôleurs d’accès.

Efficacité du DMA dans le cloud. Cette troisième enquête vise à évaluer l’efficacité des obligations actuelles du DMA pour lutter contre les pratiques déloyales ou anticoncurrentielles dans le secteur du Cloud. L’examen porte notamment sur les obstacles à l’interopérabilité, l’accès limité aux données pour les entreprises utilisatrices, les services de vente liée et de groupage, ainsi que les clauses contractuelles potentiellement déséquilibrées.

Les  critères de la DMA

Le DMA, entré en vigueur en 2023, définit un « contrôleur d’accès » comme une entreprise proposant un service de plateforme essentiel, avec plus de 45 millions d’utilisateurs actifs mensuels et une capitalisation boursière d’au moins 75 milliards € (86,87 milliards $). AWS est le plus grand fournisseur de cloud au niveau mondial, avec 30 %de parts de marché, suivi par Microsoft Azure (20%) et Google Cloud (13 %).

Les entreprises désignées comme « contrôleurs d’accès » sont tenues de rendre leurs services interopérables avec ceux de leurs concurrents et ne peuvent pas favoriser leurs propres services au détriment de ceux de leurs rivaux. En cas de violation du DMA, les entreprises encourent des amendes pouvant atteindre 10 % de leur chiffre d’affaires annuel mondial.

La cheffe de l’antitrust de l’UE, Teresa Ribera, a déclaré que la Commission cherchera également à déterminer si « les règles existantes du règlement sur les marchés numériques doivent être mises à jour afin que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques dans le secteur de l’informatique en nuage ».

Un porte-parole de Microsoft a indiqué que l’entreprise était prête à contribuer à l’enquête.

Du côté d’AWS, on estime que « désigner les fournisseurs de cloud comme contrôleurs d’accès ne vaut pas le risque d’étouffer l’invention ou d’augmenter les coûts pour les entreprises européennes ».

La Commission veut conclure les deux enquêtes sur la désignation d’AWS et Azure dans un délai de 12 mois. L’enquête sur l’application du DMA aux marchés du cloud donnera lieu à la publication d’un rapport final dans un délai de 18 mois.

The post L’UE ouvre une enquête sur AWS et Microsoft Azure appeared first on Silicon.fr.

TOP500 : les 22 supercalculateurs français classés

18 novembre 2025 à 14:54

Et le plus puissant des supercalculateurs est… toujours El Capitan.

À 5 mois d’intervalle, les positions sont restées figées dans le peloton de tête du TOP500. Pour trouver le premier mouvement, il faut descendre à la 15e place. En juin, elle était occupée par un système localisé au Japon (ABCI 3.0, de l’Institut national des sciences et technologies). Elle l’est désormais par un système situé aux États-Unis (Discovery 6, d’ExxonMobil).

22 des supercalculateurs classés se trouvent sur le territoire français. Les voici, avec leur Rmax (performance maximale pour le plus gros problème tournant sur la machine) et leur Rpeak (performance théorique).

EXA1-HE (26e)

C’est la dernière extension du supercalculateur EXA1, localisé à Bruyères-le-Châtel (Essonne) et utilisé pour la simulation nucléaire au sein de la branche militaire du CEA. Elle a été livrée en 2024.

Architecture BullSequana XH3000 avec puces NVIDIA GH200 (72 cœurs à 3 GHz).
Rmax : 90,79 petaflops (Rpeak : 171,26 Pflops) sur 548 352 cœurs.  Consommation : 1,77 MW.

Les classements précédents d’EXA1-HE au TOP500 :

  • Juin 2024 : 17e (configuration à 389 232 cœurs)
  • Novembre 2024 : 22e
  • Juin 2025 : 23e (passage à 548 352 cœurs)

Jean Zay H100 (40e)

Extension GPU installée en 2024 sur ce supercalculateur mis en service 5 ans plus tôt à l’IDRIS (plateau de Saclay, Essonne).

Architecture BullSequana avec CPU Intel Xeon Platinum 8468 (Sapphire Rapids ; 48 cœurs à 2,1 GHz) et GPU NVIDIA H100 SXM5-80.
Rmax : 52,18 Pflops (Rpeak : 71,42 Pflops) sur 227 136 cœurs.

Les classements précédents de Jean Zay H100 au TOP500 :

  • Novembre 2024 : 27e
  • Juin 2025 : 35e

Adastra (45e)

Ce supercalculateur a été acquis par la France via GENCI en 2022 et inauguré en 2023. Il se trouve au CINES (Montpellier).

Base HPE Cray EX235a, avec CPU AMD EPYC 3e génération (64 cœurs à 2 GHz) et GPU AMD Instinct MI250X.
Rmax : 46,1 Pflops (Rpeak : 61,61 Pflops) sur 319 072 cœurs. Consommation : 921 kW.

Les classements précédents d’Adastra au TOP500 :

  • Juin 2022 : 10e
  • Novembre 2022 : 11e
  • Juin 2023 : 12e
  • Novembre 2023 : 17e
  • Juin 2024 : 20e
  • Novembre 2024 : 30e
  • Juin 2025 : 40e

EXA1-HF (77e)

Cette partition d’EXA1 est en service depuis 2021.

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 23,24 Pflops (Rpeak : 31,76 Pflops) sur 810 240 cœurs. Consommation : 4,96 MW.

Les classements précédents d’EXA1-HF au TOP500 :

  • Juin 2022 : 17e
  • Novembre 2022 : 20e
  • Juin 2023 : 22e
  • Novembre 2023 : 30e
  • Juin 2024 : 36e
  • Novembre 2024 : 55e
  • Juin 2025 : 70e

Pangea III (104e)

Ce supercalculateur de TotalEnergies localisé à Pau est en service depuis 2019.

Base IBM Power System AC922, avec CPU POWER9 (18 cœurs à 3,45 GHz) et GPU NVIDIA Volta GV100.
Rmax : 17,86 Pflops (Rpeak : 25,03 Pflops) sur 291 024 cœurs. Consommation : 1,37 MW.

Les classements précédents de Pangea III au TOP500 :

  • 11e puis 15e en 2019
  • 15e puis 18e en 2020
  • 21e puis 29e en 2021
  • 33e puis 37e en 2022
  • 39e puis 48e en 2023
  • 60e puis 75e en 2024
  • Juin 2025 : 92e

Tera 1000-2 (146e)

Cette partition fut mise en service en 2017-2018 sur le supercalculateur Tera 1000 du CEA (localisation : Bruyères-le-Châtel).

Base BullSequana X1000, avec CPU Intel Xeon Phi 7250 (Knights Landing ; 68 cœurs à 1,4 GHz).
Rmax : 11,97 Pflops (Rpeak : 23,4 Pflops) sur 561 408 cœurs. Consommation : 3,18 MW.

Les classements précédents de Tera 1000-2 au TOP500 :

  • 14e puis 16e en 2018
  • 18e puis 17e en 2019
  • 20e puis 24e en 2020
  • 34e puis 42e en 2021
  • 45e puis 49e en 2022
  • 54e puis 65e en 2023
  • 82e puis 101e en 2024
  • Juin 2025 : 123e

ROMEO 2025 (172e)

Supercalculateur de l’université de Reims Champagne-Ardenne, installé en 2024 et inauguré cette année.

Base BullSequana XH3000, avec puces NVIDIA GH200.
Rmax : 9,86 Pflops (Rpeak : 16,32 Pflops) sur 47 328 cœurs. Consommation : 160 kW.

Les classements précédents de ROMEO 2025 au TOP500 :

  • Novembre 2024 : 122e
  • Juin 2025 : 148e

Taranis (199e)

Supercalculateur de Météo France installé en 2020 à Toulouse et inauguré en 2021.

Base BullSequana XH2000, avec CPU AMD EPYC 7742 (2e génération ; 64 cœurs à 2,25 GHz).
Rmax : 8,19 Pflops (Rpeak : 10,32 Pflops) sur 294 912 cœurs. Consommation : 1,67 MW.

Les classements précédents de Taranis au TOP500 :

  • Novembre 2020 : 30e
  • 49e puis 58e en 2021
  • 63e puis 69e en 2022
  • 78e puis 92e en 2023
  • 115e puis 141e en 2024
  • Juin 2025 : 168e

Belenos (210e)

Supercalculateur « jumeau » de Taranis, inauguré en parallèle, également à Toulouse.

Même architecture et même configuration processeur.
Rmax : 7,68 Pflops (Rpeak : 10,47 Pflops). Consommation : 1,66 MW.

Les classements précédents de Belenos au TOP500 :

  • 29e puis 34e en 2020
  • 55e puis 64e en 2021
  • 71e puis 78e en 2022
  • 87e puis 103e en 2023
  • 125e puis 152e en 2024
  • Juin 2025 : 180e

Joliot-Curie Rome (222e)

Partition du supercalculateur Joliot-Curie, installé depuis 2019 au TGCC (Bruyères-le-Châtel).

Base BullSequana XH2000, avec CPU AMD EPYC Rome 7H12 (3e génération ; 64 cœurs).
Rmax : 6,99 Pflops (Rpeak : 12,94 Pflops) sur 197 120 cœurs. Consommation : 1,44 MW.

Les classements précédents de Joliot-Curie Rome au TOP500 :

  • Novembre 2019 : 59e (configuration à 160 000 cœurs)
  • 33e puis 38e en 2020 (configuration à 197 120 cœurs)
  • 59e puis 69e en 2021
  • 77e puis 83e en 2022
  • 92e puis 109e en 2023
  • 132e puis 162e en 2024
  • Juin 2025 : 191e

SELENA (262e)

Ce supercalculateur EDF est entré en production cette année.

Base BullSequana XH3000, avec CPU AMD EPYC 9354 (4e génération ; 32 cœurs à 3,25 GHz).
Rmax : 5,42 Pflops (Rpeak : 5,5 Pflops) sur 107 940 cœurs. Consommation : 1,16 MW.

Topaze GPU (278e)

Partition GPU de Topaze, supercalculateur en service depuis 2021 au CCRT (CEA, Bruyères-le-Châtel).

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz) et GPU NVIDIA A100.
Rmax : 5,07 Pflops (Rpeak : 6,23 Pflops) sur 42 000 cœurs.

Les classements précédents de Topaze GPU au TOP500 :

  • Novembre 2021 : 198e (configuration à 26 880 cœurs)
  • 217e puis 241e en 2022
  • 280e puis 317e en 2023
  • 175e puis 208e en 2024 (configuration à 42 000 cœurs)
  • Juin 2025 : 244e

Jean Zay (292e)

Partition étendue (GPU).

Base HPE SGI 8600, avec CPU Intel Xeon Gold 6248 (Cascade Lake ; 20 cœurs à 2,5 GHz) et GPU NVIDIA Tesla V100 SXM2.
Rmax : 4,48 Pflops (Rpeak : 7,35 Pflops) sur 93 960 cœurs.

Les classements précédents de cette partition au TOP500 :

  • 42e puis 46e en 2019
  • 54e puis 64e en 2020
  • 92e puis 105e en 2021
  • 114e puis 124e en 2022
  • 135e puis 166e en 2023
  • 190e puis 223e en 2024
  • Juin 2025 : 260e

CRONOS (300e)

Autre supercalculateur d’EDF, passé en production en 2021.

Base BullSequana X, avec CPU Intel Xeon Platinum 8260 (Cascade Lake ; 24 cœurs à 2,4 GHz).
Rmax : 4,3 Pflops (Rpeak : 7,14 Pflops) sur 81 600 cœurs. Consommation : 1,23 MW.

Les classements précédents de CRONOS au TOP500 :

  • Novembre 2020 : 67e
  • 96e puis 109e en 2021
  • 118e puis 128e en 2022
  • 139e puis 170e en 2023
  • 194e puis 230e en 2024
  • Juin 2025 : 269e

Joliot-Curie SKL (319e)

Partition de Joliot-Curie qui doit être démantelée cette année.

Base BullSequana X1000, avec CPU Intel Xeon Platinum 8168 (Skylake ; 24 cœurs à 2,7 GHz).
Rmax : 4,07 Pflops (Rpeak : 6,64 Pflops) sur 79 488 cœurs. Consommation : 917 kW.

Les classements précédents de Joliot-Curie SKL au TOP500 :

  • 34e puis 40e en 2018
  • 47e puis 52e en 2019
  • 61e puis 72e en 2020
  • 101e puis 113e en 2021
  • 124e puis 133e en 2022
  • 154e puis 183e en 2023
  • 207e puis 245e en 2024
  • Juin 2025 : 285e

hotlum (339e)

Supercalculateur installé en 2022 chez HPE.

Base Cray EX, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 3,81 Pflops (Rpeak : 4,58 Pflops) sur 116 736 cœurs.

Les classements précédents de hotlum au TOP500 :

  • 146e puis 159e en 2022
  • 187e puis 222e en 2023
  • 252e puis 291e en 2024
  • Juin 2025 : 331e

THX.A.B (362e)

Supercalculateur installé en 2022 chez Atos.

Base BullSequana XH2000, avec CPU Intel Xeon Platinum 8358 (Ice Lake ; 32 cœurs à 2,6 GHz) et GPU NVIDIA A100 SXM4-64.
Rmax : 3,5 Pflops (Rpeak : 4,98 Pflops) sur 25 056 cœurs. Consommation : 86 kW.

Les classements précédents de THX.A.B en TOP500 :

  • 146e puis 159e en 2022
  • 187e puis 222e en 2023
  • 252e puis 291e en 2024
  • Juin 2025 : 331e

Topaze CPU (377e)

Partition CPU de Topaze.

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 3,26 Pflops (Rpeak : 4,34 Pflops) sur 110 592 cœurs.

Les classements précédents de Topaze CPU au TOP500 :

  • Novembre 2021 : 140e
  • 154e puis 170e en 2022
  • 201e puis 237e en 2023
  • 267e puis 306e en 2024
  • Juin 2025 : 346e

Jean Zay (420e)

Partition CPU de Jean Zay.

Base HPE SGI 8600, avec CPU Intel Xeon Gold 6248 (Cascade Lake ; 20 cœurs à 2,5 GHz).
Rmax : 3,05 Pflops (Rpeak : 4,87 Pflops) sur 61 120 cœurs.

Les classements précédents de cette partition au TOP500 :

  • 72e puis 79e en 2019
  • 91e puis 108e en 2020
  • 140e puis 163e en 2021
  • 178e puis 203e en 2022
  • 237e puis 273e en 2023
  • 309e puis 350e en 2024
  • Juin 2025 : 391e

KAIROS (422e)

Supercalculateur installé cette année à l’université de Toulouse.

Base BullSequana XH3000, avec puces NVIDIA GH200 (72 cœurs à 3 GHz).
Rmax : 3,05 Pflops (Rpeak : 3,42 Pflops) sur 13 056 cœurs. Consommation : 46 kW.

AMD Ouranos (428e)

Supercalculateur installé cette année chez Atos.

Base BullSequana XH3000, avec CPU AMD EPYC 4e génération (24 cœurs à 1,8 GHz) et GPU AMD Instinct MI300A.
Rmax : 2,99 Pflops (Rpeak : 3,97 Pflops) sur 16 632 cœurs. Consommation : 48 kW.

Les classements précédents d’AMD Ouranos au TOP500 :

  • Juin 2025 : 399e

Spartan3 (462e)

Supercalculateur installée en 2021 chez Atos.

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 2,75 Pflops (Rpeak : 3,61 Pflops) sur 92 160 cœurs.

Les classements précédents de Spartan3 au TOP500 :

  • 157e puis 193e en 2021
  • 212e puis 236e en 2022
  • 275e puis 312e en 2023
  • 348e puis 391e en 2024
  • Juin 2025 : 434e

Illustration générée par IA

The post TOP500 : les 22 supercalculateurs français classés appeared first on Silicon.fr.

Amazon Leo : lancement officiel et recours juridique en France

18 novembre 2025 à 12:14

Après sept années de développement, Amazon vient d’officialiser le changement de nom de son projet de constellation de satellites.

Le « Projet Kuiper », qui n’était qu’un nom de code interne inspiré de la ceinture d’astéroïdes située au-delà de Neptune, devient Amazon Leo, en référence à l’orbite terrestre basse (Low Earth Orbit) où évoluent ses satellites.

Ce changement de marque intervient à un moment charnière : Amazon a déjà déployé plus de 150 satellites en orbite et compte déjà des clients professionnels tels que JetBlue, L3Harris ou Sky Brasil. Le groupe prévoit plus de 80 missions supplémentaires pour constituer sa constellation complète, avec l’objectif d’atteindre 1 600 satellites d’ici la fin juillet 2026.

Une offre à trois niveaux

L’offre d’Amazon Leo se décline en trois formules: Leo Nano ( vitesses jusqu’à 100 Mbps), Leo Pro ( jusqu’à 400 Mbps) et Leo Ultra (jusqu’à 1 Gbps). Aucune grille tarifaire n’est communiquée.

La France doit faire partie des premiers pays où le service sera commercialisé, avec un lancement envisagé dès fin 2025 ou début 2026.

Amazon Leo arrive sur un marché où SpaceX dispose d’une avance considérable. Starlink compte déjà plus de 10 000 satellites en orbite et dessert plus de 2 millions de clients. Amazon a d’ailleurs dû faire appel à SpaceX pour certains de ses lancements : 3 missions via Falcon 9 ont permis de placer 72 satellites en orbite, illustrant le paradoxe de devoir collaborer avec son principal concurrent.

Un recours devant le Conseil d’État

L’arrivée d’Amazon Leo en France ne se fait pas sans opposition. Le syndicat CFE-CGC Télécoms a déposé un recours en annulation devant le Conseil d’État contre la décision (n° 2025-1347) de l’autorité de régulation des télécoms qui a accordé, en juillet, une autorisation d’utilisation de fréquences radioélectriques à Amazon Kuiper.

Le syndicat, représentant les personnels du secteur des télécommunications, soulève plusieurs préoccupations majeures.

Sur la concurrence et la souveraineté, la CFE-CGC Télécoms estime que l’ARCEP n’a pas mesuré la menace que représente Amazon Kuiper sur l’équilibre du marché français.
Le syndicat dénonce une distorsion de concurrence car les constellations satellitaires comme Starlink et Amazon Leo peuvent rentabiliser leurs satellites à l’échelle de plusieurs pays et ne sont pas soumises aux mêmes obligations que les opérateurs terrestres français.

Sur l’impact économique, elle estime que le déploiement de ces réseaux satellitaires fragilise les gros investissements réalisés par les opérateurs français, notamment dans la fibre optique, et met en péril l’emploi et l’expertise technique dans l’hexagone. Enfin, le syndicat déplore l’absence d’analyse par le régulateur de l’impact environnemental des constellations satellitaires, notamment concernant l’envoi de satellites en orbite basse, leur faible durée de vie et la problématique croissante des débris spatiaux.

«  Ce recours gracieux est un signal d’alerte pour forcer le législateur à réguler les services satellitaires car c’est tout l’écosystème français des Télécoms qui est en jeu. Ne rien demander aux acteurs américains et laisser peser sur les opérateurs français taxes et obligations nous semble en effet irresponsable » déclare Kathleen Beaude, Présidente, et Sébastien Crozier, Vice-Président du syndicat.

Au-delà du cas français, la multiplication des constellations de satellites soulève des inquiétudes croissantes. Avec des milliers de satellites déployés par Starlink, Amazon Leo, OneWeb et d’autres projets, les spécialistes alertent sur les risques accrus de collisions, l’explosion du nombre de débris spatiaux, les menaces pour les missions habitées et les perturbations pour les observations astronomiques.

The post Amazon Leo : lancement officiel et recours juridique en France appeared first on Silicon.fr.

Cloud souverain : Blue acquiert Openhost

18 novembre 2025 à 10:46

Blue, opérateur de cloud souverain, annonce l’acquisition d’Openhost, une société basée à Nantes spécialisée dans les solutions Microsoft 365 et Azure.

Cette opération va enrichir l’offre de cloud hybride de Blue, qui combine l’hébergement privé dans son nouveau centre de données à Nantes avec la possibilité d’un débordement vers le cloud public Azure.

L’acquisition, avec 13 collaborateurs d’Openhost certifiés Microsoft, apporte à Blue une équipe spécialisée dans l’orchestration d’architectures hybrides. Celles-ci comprennent des charges de travail privées hébergées dans le datacenter nantais de Blue (certifié ISO 27001 et Hébergeur de Données de Santé) et un débordement vers le cloud public Microsoft Azure « on premise »  en fonction des besoins.

Blue a pour objectif d’atteindre 55 millions € de chiffre d’affaires en 2025, contre 45 millions € en 2024, avec  l’ouverture de son nouveau centre de données à Nantes (fin de 2025) en complément de son datacenter à Rennes.

The post Cloud souverain : Blue acquiert Openhost appeared first on Silicon.fr.

Après DeepSeek, quelle marge de progression pour l’apprentissage par renforcement ?

18 novembre 2025 à 07:38

Plutôt qu’un juge humain, une vérification déterministe : le RLVR (Reinforcement Learning with Verifiable Rewards) repose sur ce principe.

DeepSeek-R1 et OpenAI o1, entre autres, en ont démontré les bénéfices. Mais les possibilités de mise à l’échelle sont limitées du fait de la dépendance à des problèmes conçus par l’humain et à des récompenses spécifiques à chaque domaine.

Chez Meta, on est en tout cas parti de ce postulat pour développer SPICE (Self-Play in Corpus Environment).

Un modèle, deux rôles, un corpus documentaire

Cette technique d’apprentissage par renforcement fait jouer au modèle deux rôles antagonistes. L’un consiste à générer les problèmes (« challenger »). L’autre, à les résoudre (« résolveur »).

La génération des problèmes a la particularité d’être ancrée sur un corpus documentaire. Le challenger n’utilise que cette source ; pas ses propres connaissances. Le résolveur n’a pas accès au corpus, ce qui assure une asymétrie de l’information.

Un mécanisme de récompense fait progresser le challenger et le résolveur. Le premier a pour mission de créer des problèmes qui challengent au maximum le second, tout en restant résolvables.

Les documents sont bruts, sans questions ou étiquettes prédéfinies. Les problèmes prennent la forme de QCM (avec 4 réponses) ou de questions ouvertes. Cette diversité est censée permettre une vérification interdomaines sans outils spécialisés.

Les deux rôles sont instanciés avec vLLM, sur la base de l’architecture Oat. Quatre modèles de base sont expérimentés : Qwen3-4B-Base, Qwen3-8B-Base, OctoThinker-3B-Hybrid-Base et OctoThinker-8B-Hybrid-Base. Le renforcement se fait sur 20 000 documents. Il est axé sur deux disciplines : mathématiques (utilisation du dataset Nemotron-CC-Math) et raisonnement général (NaturalReasoning). La température est laissée à 1.0.

Ni trop simple, ni trop compliqué : un système de récompense pour trouver le bon équilibre

Avec chaque document, on effectue 1024 tentatives pour générer des questions, puis on en sélectionne aléatoirement une valide. Pour chacune, on retient 8 réponses. On en calcule la variance pour déterminer la récompense du challenger. Cette dernière est maximale lorsque le taux de réussite du résolveur atteint 50 % (témoignant de questions ni trop faciles, ni trop difficiles). Pour vérifier l’équivalence de chaque réponse par rapport à la gold answer (réponse de référence), le framework simple-evals est utilisé, avec GPT-4o.

La performance de SPICE est comparée à celles :

  • Des modèles de base (Base Model)
  • De systèmes utilisant un challenger « plus fort » (Qwen3-32B-Instruct) et où le modèle n’est entraîné que sur le rôle de résolveur (Strong Challenger)
  • D’un système antagoniste non ancré sur un corpus (R-Zero)
  • De ce même type de système, et avec des problèmes portant exclusivement sur la génération de code Python (Absolute Zero)

Entre les modèles de base et SPICE, l’écart va de 5,7 à 11,9 points selon les modèles.

évaluation quantitative

3,2 points en performance globale : la (modeste) contribution du corpus documentaire

On constate une amélioration mutuelle. Pour en témoigner, Meta avance deux indicateurs « en miroir ».
D’un côté, à résolveur fixe (checkpoint après 200 étapes), le taux de réussite passe de 55 à 35 % à mesure que le challenger progresse.
De l’autre, à challenger fixe (checkpoint après 200 étapes), le taux de réussite du résolveur passe de 55 à 85 %.
Qualitativement parlant, plus on avance dans l’entraînement, plus les problèmes générés sont complexes.

challenger et reasoner fixes

Sans ancrage sur corpus, la performance globale moyenne atteint 40,7 %. Avec, elle monte à 43,9 % (+ 3,2 points).

ablation challenger et corpus

NaturalReasoning utilisé seul engendre des gains plus importants que Nemotron-CC-Math seul. Mais combiner les deux datasets produit les meilleurs résultats.

type de corpus

Le gain en mathématiques est plus important avec uniquement des questions ouvertes. Au global, néanmoins, il vaut mieux y associer le format QCM.

type de tâche

La technique de récompense par calcul de variance produit de meilleurs résultats que :

  • Absolute Zero, où la récompense vaut (1 – taux de réussite moyen du résolveur)
  • Threshold, où la récompense vaut 1 pour les tâches « relativement résolvable » ; 0 pour celles à 0 ou 100 % de réussite
  • R-Zero, qui récompense les problèmes produisant des réponses équitablement réparties

type de récompense

Illustration principale générée par IA

The post Après DeepSeek, quelle marge de progression pour l’apprentissage par renforcement ? appeared first on Silicon.fr.

Reçu — 17 novembre 2025 Silicon

Apple accélère la préparation de l’après Tim Cook

17 novembre 2025 à 14:50

La succession de Tim Cook entre-elle dans une phase décisive chez Apple ? La réponse est Oui selon le Financial Times, qui cite plusieurs sources proches des discussions internes, le conseil d’administration et les cadres dirigeants du groupe ont intensifié leurs travaux de planification en vue d’un départ du CEO dès l’année prochaine.

John Ternus, responsable de l’ingénierie matérielle, se profile comme le successeur le plus probable, bien qu’aucune décision définitive n’ait été prise à ce stade. Cette accélération des préparatifs ne serait pas motivée par des difficultés opérationnelles : Apple anticipe au contraire une forte dynamique commerciale pour l’iPhone lors des fêtes de fin d’année. Sollicité par le Financial Times, le groupe n’a pas souhaité commenter.

John Ternus, successeur favori

Selon le quotidien britannique, Apple devrait attendre la publication de ses résultats de fin janvier avant toute annonce officielle. Cette chronologie permettrait à la nouvelle direction de prendre ses marques avant deux rendez-vous majeurs : la conférence développeurs de juin et la présentation traditionnelle de l’iPhone en septembre. Ce calendrier reste toutefois susceptible d’évoluer.

Tim Cook, qui vient de fêter ses 65 ans, est aux commandes d’Apple depuis 2011. Sous sa direction, sa capitalisation boursière a bondi de 350 milliards $ à plus de 4 000 milliards aujourd’hui. 

Ces discussions interviennent dans un contexte de mouvement au sein de l’équipe dirigeante. Luca Maestri a quitté son poste de directeur financier début 2024, tandis que Jeff Williams, directeur des opérations, a annoncé son départ prévu pour juillet, rapporte le Financial Times.

La nomination éventuelle de John Ternus replacerait un profil technique à la tête du groupe, alors qu’Apple peine à conquérir de nouveaux marchés et affiche un retard face à ses concurrents dans le domaine de l’intelligence artificielle. Tim Cook a toujours privilégié une succession interne et évoqué l’existence de plans détaillés sur le sujet.

Photo : © Apple

The post Apple accélère la préparation de l’après Tim Cook appeared first on Silicon.fr.

Gestion des actifs numériques : la GenAI ne rend pas les prix plus lisibles

17 novembre 2025 à 14:19

Si la GenAI contribue à « raviver » les solutions de gestion des actifs numériques (DAM), elle s’y diffuse de manière très inégale.

Le constat était ressorti, il y a près d’un an, du Magic Quadrant consacré à ce marché.

L’analyse de Gartner dépeignait la situation à octobre 2024.
Au sujet de cette diffusion très inégale de la GenAI, le cabinet américain évoquait les fournisseurs qui n’en proposaient pas encore pour la création de contenu ; ceux qui étaient « en retard » sur ces mêmes capacités ; ceux qui avaient plus globalement « du mal à suivre le rythme » ; et ceux chez qui la GenAI avait un prix non négligeable.

Cette remarque ne figure plus dans la nouvelle édition du Magic Quadrant du DAM. Gartner met, au contraire, l’accent sur la généralisation de certaines briques. Par exemple, la création de contenu assistée par IA. La majorité des fournisseurs classés (13 sur 17) en proposent nativement. Soit grâce à des modèles propriétaires, soit en embarquant des LLM ouverts.

La manipulation de contenu assistée par IA est également devenue standard. En parallèle, les fonctionnalités touchant à la vidéo (création, édition, localisation linguistique) se répandent. On voit aussi émerger une adaptation automatisée des contenus aux canaux de diffusion. Et la possibilité, pour le client, d’apporter ses propres modèles.
L’intégration de MCP, vu comme un levier de standardisation et d’encadrement de la production de contenu, est en revanche encore limitée. Au moment où Gartner a effectué ses relevés, un tiers des offreurs avaient commencé à implémenter le protocole, ou tout moins déclaraient envisager de le faire.

Adobe et Orange Logic, nouveaux « leaders »

Sur le plan fonctionnel, le cahier des charges pour figurer dans le dernier Magic Quadrant du DAM imposait, dans les grandes lignes :

  • L’ingestion des actifs, leur organisation (tagging et taxonomie) et leur mise à disposition
  • Gestion des droits numériques
  • Planification de workflows
  • Intégration avec des solutions marketing – ce métier étant le premier public

La capacité à répondre effectivement à la demande du marché (expérience client, marketing, qualité des produits/services…) est restituée sur l’axe dit « exécution ». Les fournisseurs s’y positionnent comme suit :

Rang Fournisseur Évolution annuelle
1 Aprimo =
2 Bynder =
3 Storyteq =
4 Adobe + 4
5 OpenText + 4
6 Frontlify nouvel entrant
7 Smarsheet – 2
8 Orange Logic – 4
9 Hyland – 3
10 Acquia – 3
11 Cloudinary =
12 Sitecore – 2
13 CELUM – 1
14 PhotoShelter nouvel entrant
15 MediaValet – 1
16 Wedia nouvel entrant
17 Fotoware – 4

Sur l’axe « vision », qui reflète les stratégies (commercial, marketing, produit, sectorielle, géographique…), la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 Storyteq + 1
2 Aprimo – 1
3 Cloudinary =
4 Orange Logic + 4
5 Bynder – 1
6 Sitecore – 1
7 Adobe =
8 OpenText – 2
9 Acquia – 1
10 Frontlify nouvel entrant
11 PhotoShelter nouvel entrant
12 CELUM =
13 Wedia nouvel entrant
14 MediaValet – 1
15 Hyland – 6
16 Smartsheet – 5
17 Fotoware – 3

Il y a un an, ils étaient trois dans le carré des « leaders » : Aprimo, Bynder et Storyteq. Adobe et Orange Logic les y ont rejoints.

Quels produits pour quels usages ? L’offre d’Adobe suscite des incertitudes

Gartner salue les possibilités d’Adobe Experience Manager Assets sur l’aspect workflows de création (soumission, approbation, intégration de l’IA Firefly). Il apprécie également les fonctionnalités de gouvernance et de contrôle d’accès, basées sur les rôles et les attributs. Et souligne qu’Adobe est l’un des porteurs de la Content Authenticity Initiative. Bon point également pour le réseau de partenaires (ils sont 4200 certifiés).

Le jugement est moins positif quant aux capacités agentiques. Gartner l’illustre par l’absence d’un agent capable de contrôler les actifs à l’ingestion. Il appelle aussi à la vigilance sur la tarification. D’une part, parce que l’accès à des fonctionnalités avancées (rendu temps réel, expériences 3D…) nécessite un add-on. De l’autre, à cause du nombre limité de licences utilisateur incluses de base dans les différents niveaux d’offre. Le cabinet américain note également de potentielles incertitudes sur les produits auxquels recourir en fonction des cas d’usage. Un « manque de clarté » qui peut compliquant l’adoption et la mise en action.

Aprimo et la GenAI : vigilance sur le modèle à la consommation

Il y a un an, Aprimo avait été crédité d’un bon point pour la continuité offerte dans la gestion du contenu entre les outils marketing et les autres logiciels d’entreprise. Gartner avait aussi apprécié ses « starter packs » sectoriels avec workflows et taxonomies préconfigurés. Il avait également salué les capacités de son produit en matière de recherche, de tagging et de templating.

Le focus GenAI avait valu à Aprimo un mauvais point, en ce qu’il était susceptible de limiter les investissements dans le cœur fonctionnel. La tarification de la GenAI était autre point noir : l’add-on donnant accès aux fonctionnalités les plus avancées (entraînement personnalisé pour le tagging, génération d’images, traduction…) pouvait faire augmenter le TCO d’un tiers. Gartner avait aussi regretté le nombre limité d’événements physiques à destination des clients.

Cette fois, l’IA vaut un bon point à Aprimo, entre recherche sémantique, métadonnées prédictives et révision automatisée du contenu. Gartner y ajoute le niveau de performance et de fiabilité de la plate-forme. Ainsi que les fonctionnalités de conformité (certifications sectorielles, pistes d’audit immuables, vérifications assistées par IA).

Le module complémentaire pour la GenAI avancée reste un problème, mais sous un autre angle : son modèle à la consommation, qui rend potentiellement les coûts moins prévisibles. Pour ce qui est de la stratégie AI-first, elle est susceptible de « challenger » les organisations peu matures, tant par la cadence de diffusion de l’IA que par le périmètre concerné. Les clients ayant des besoins hors Amérique du Nord et EMEA resteront par ailleurs vigilants quant à la présence physique limitée d’Aprimo et de ses ressources de support sur les autres plaques géographiques.

Chez Bynder, une double tarification à bien étudier

Il y a un an, l’offre de Bynder avait fait mouche auprès de Gartner sur le plan fonctionnel. Notamment sur la détection de visages et le système de mise en quarantaine des contenus avant approbation. Les capacités d’analyse de l’usage des actifs avaient aussi été saluées. Comme la relation client (événements réguliers, roadmap accessible à tous, webinars lors de la sortie de mises à jour).

Les investissements en IA ont produit moins de fonctionnalités que chez la concurrence, avait regretté Gartner. Il y avait ajouté un manque de transparence sur le packaging des fonctionnalités constituant des add-on. Tout en signalant l’absence de roadmaps sectorielles et d’améliorations ciblées sur des verticales (Bynder a opté pour une approche horizontale avec adaptation aux cas d’usage).

Cette fois, l’un des bons points va aux capacités de création et de mise en œuvre d’agents IA. Qui, combinés à l’API, favorisent la création de contenus par d’autres métiers que le marketing. Bynder se distingue aussi sur la distribution des contenus, autant par leur adaptation à chaque canal que par l’exhaustivité du catalogue de connecteurs. Il a aussi pour la la qualité de son support à l’implémentation (blueprints, formations par rôle, conseils de gouvernance, taxonomies sur étagère, templates personnalisables…).

À un an d’intervalle, Gartner note toujours que la feuille de route sectorielle est limitée. Il trouve aussi à redire sur la partie analytics, du fait que les dashboards doivent être configurés via un mix d’API et d’intégrations pour obtenir des recommandations réellement « activables ». Quant à la tarification, basée soit sur le nombre d’assets soit sur le volume de stockage, elle implique de bien évaluer la structure de sa bibliothèque de contenus.

Orange Logic : gare aux délais d’implémentation

Comme Bynder, Orange Logic se distingue sur l’automatisation agentique. Il en est de même sur la recherche conversationnelle – avec exploitation du contexte : profils d’utilisateurs, relations entre assets, analyse des frames dans les vidéos, etc. Gartner salue aussi son concepteur visuel de workflows, jugé convivial (user-friendly).

Comme chez Aprimo, la présence physique est limitée hors Amérique du Nord. Le processus d’implémentation s’avère par ailleurs plus long que chez la concurrence. Et les modules optionnels (3D, gestion des droits, concepteur de sites sans code…), souvent indispensables dans les grandes entreprises, peuvent faire monter la facture.

Avec Storyteq, le modèle à la connexion peut coûter cher

Il y a un an, Gartner avait présenté Storyteq comme le fournisseur proposant le plus de capacités d’assistance par IA pour la création et l’édition de contenus. Il y avait ajouté les fonctionnalités de vision par ordinateur pour améliorer la recherche d’assets et la disponibilité d’un CMS en self-service. Tout en soulignant l’étendue des partenariats conseil et ISV.

Le prix de la GenAI était un point noir, même si la tarification d’ensemble demeurait flexible. Gartner avait aussi fait remarquer les travaux préparatoires que certaines fonctionnalités GenAI supposaient pour pouvoir fonctionner à l’échelle. Et affirmé que la présence physique de Storyteq restait largement concentrée en EMEA, en plus d’un focus historique sur les services d’agence et d’une absence de programme de reconnaissance client.

Cette fois, la stratégie sectorielle fait mouche: Storyteq a des équipes dédiées à la santé, l’automobile, la finance et le retail, entre autres. Il y couple des packs associant workflows, schémas et exemples de conformité. Son offre se distingue aussi sur les services professionnels et le support technique. Ainsi que sur la conception d’agents sans code et l’exploitation de l’IA pour la protection des contenus (gestion dynamique du consentement, détection de données personnelles, audit de conformité continu).

Beaucoup d’intégrations avec des systèmes externes sont facturées à la connexion. Pour qui souhaite organiser un écosystème, les coûts peuvent vite enfler. Pour ce qui est de la présence physique, elle reste largement concentrée en Amérique du Nord et en EMEA, malgré l’acquisition de PureRed. Quant aux investissements marketing, ils sont moins importants que chez la concurrence, résultant en une visibilité limitée.

Illustration © Danloe – Adobe Stock

The post Gestion des actifs numériques : la GenAI ne rend pas les prix plus lisibles appeared first on Silicon.fr.

Akira : l’évolution d’un ransomware qui chiffre jusqu’aux VM Nutanix

17 novembre 2025 à 09:45

Au-delà d’Hyper-V et d’ESXi, Akira a aussi chiffré des VM Nutanix.

Le bulletin que la CISA consacre à ce ransomware vient d’être mis à jour pour intégrer cette information… entre autres.

La version initiale datait d’avril 2024. Un an et demi plus tard, les techniques ont évolué sur toute la ligne, de l’accès initial à l’extorsion. Quant au chiffrement de VM Nutanix*, il a été constaté dans le cadre d’un incident survenu en juin 2025. Au début de la chaîne d’attaque, il semble y avoir eu la faille CVE-2024-40766 (contrôle d’accès défaillant dans les pare-feu SonicWall).

Des accès initiaux via Veeam

La version d’avril 2024 évoquait un accès initial via des VPN sans MFA. Essentiellement de marque Cisco, était-il précisé, avec deux vulnérabilités citées. L’une et l’autre localisées dans l’interface web d’ASA (Adaptitve Security Appliance) et de FTD (Firepower Threat Defense). La première (CVE-2020-3259) permet de récupérer du contenu en mémoire sans authentification. La deuxième (CVE-2023-20269) ouvre la voie à des attaques de force brute ou à la mise en place de sessions VPN SSL avec un utilisateur non autorisé.

D’après la nouvelle version du bulletin, à laquelle a contribué l’OFAC (Office anti-cybercriminalité français), l’arsenal d’accès initial s’est diversifié. Avec notamment :

  • CVE-2020-3580, autre vulnérabilité sur l’interface web d’ASA et FTD, permettant un XSS sans authentification
  • CVE-2023-28252, faille dans le CLFS (service de journalisation Windows utilisé par les programmes s’exécutant en mode utilisateur ou noyau), utilisée pour l’élévation de privilèges
  • CVE-2024-37085 (contournement d’authentification dans ESXi via Active Directory)
  • CVE-2023-27532 et CVE-2024-40711, qui touchent toutes les deux Veeam Backup & Replication (la première permet d’exfiltrer des authentifiants chiffrés depuis la base de données de config ; la deuxième ouvre la porte à une RCE par désérialisation de données malicieuses)

Zemana AntiMalware détourné pour stopper les antivirus

Sur la phase de reconnaissance, la mise à jour du bulletin ajoute peu d’éléments. Sinon l’utilisation de nltest /dclist: et de nltest /DOMAIN_TRUSTS.

Parmi les outils dont se servent les affiliés d’Akira figurent NetScan, Advanced IP Scanner et SoftPerfect. Mimikatz et LaZagne aussi, pour récupérer des authentifiants.

La version initiale signalait le recours à un outil légitime (Zemana AntiMalware) pour stopper les processus liés à des antivirus.

La mise à jour y ajoute l’exploitation d’outils d’accès distant tels AnyDesk et LogMeIn pour établir une persistance et se fondre dans l’activité admin.

La protection des disques virtuels neutralisée

La version initiale du bulletin apportait peu d’informations sur la manière dont les affiliés d’Akira obtenaient des privilèges.

La mise à jour en dit davantage, entre exploitation de services comme Veeam.Backup.MountService.exe et ajout de nouveaux comptes utilisateurs au groupe admin.
Elle mentionne un incident dans lequel la protection VMDK a été contournée en éteignant temporairement la VM du contrôleur de domaine. Les VMDK ont alors été copiés et attachés à une nouvelle VM. Cela a permis d’extraire le fichier NTDS.dit et la hive SYSTEM (groupe logique de clés, sous-clés et valeurs de registre) ; pour, au bout, compromettre un compte d’administrateur de domaine.

Un chiffrement hybride et personnalisable

Quantité d’outils ont été mis à profit pour l’exfiltration de données. 7-zip et WinRAR en font partie, comme FileZilla, RClone et WinSCP.

Pour établir des canaux de commande et de contrôle, AnyDesk, Cloudflare Tunnels, MobaXterm, Ngrok et RustDesk ont été mis à contribution.

Dans certain cas, à peine 2 heures se sont écoulées entre l’accès initial et l’exfiltration.

Le schéma de chiffrement utilisé par Akira était pour l’essentiel déjà établi en avril 2024. Hybride, il associe un cipher ChaCha20 et un système à clé RSA publique. L’ensemble permet un chiffrement total ou partiel, tout en le personnalisant selon le type et la taille de fichiers.

Afin de compliquer la récupération et l’analyse forensique, des commandes PowerShell sont utilisées pour supprimer les copies VSS.

Des options pour ne cibler que les VM

La première version d’Akira était écrite en C++. Sa deuxième incarnation, repérée à l’été 2023, est écrite en Rust. Elle est dotée d’une couche de protection supplémentaire compliquant l’analyse dynamique. Ainsi que d’une gestion des threads, améliorant l’efficacité du processus de chiffrement. Elle peut par ailleurs être déployée exclusivement contre les VM (paramètre vmonly) et stopper ces dernières (stopvm).

Akira est associé aux groupes connus sous le nom de Gold Sahara, Howling Scorpius, Punk Spider et Storm-1567. Il pourrait avoir des liens avec feu Conti.

* Lors d’une récente conférence, Gartner a prédit qu’à l’horizon 2028, 35 % des workloads VMware seraient passés sur une autre plate-forme. Le cabinet américain a suggéré d’envisager en premier lieu Nutanix. Pas tant pour les prix que pour les capacités fonctionnelles.

Illustration générée par IA

The post Akira : l’évolution d’un ransomware qui chiffre jusqu’aux VM Nutanix appeared first on Silicon.fr.

❌