Vue normale

Cloudflare, un autre pilier d’Internet en panne après AWS et Azure

18 novembre 2025 à 17:39

« Quand l’un [des] ‘gardiens du web’ vacille, c’est toute notre vie numérique qui s’arrête. »

La panne mondiale de Cloudflare a inspiré ce commentaire à mc2i.

Le cabinet de conseil n’est pas le seul à s’inquiéter de la dépendance d’Internet à des infrastructures portées par une poignée d’acteurs. Il l’est d’autant moins après les incidents majeurs qui ont récemment affecté AWS et Azure.

Chez le premier, quantité de services ont été perturbés en conséquence d’un souci de résolution DNS sur une base de données.
Chez le second, le problème est parti d’un état invalide introduit par un changement de configuration sur le CDN Azure Front Door.

Un bug dans le système de contrôle des bots

Cloudflare avait d’abord évoqué un « pic de trafic inhabituel »* vers un de ses services – et expliqué que le reste du trafic en avait pâti.

Son CTO est ensuite allé plus loin. À l’en croire, un changement de configuration a enclenché un « bug latent » dans un service concourant au contrôle des bots. S’en sont suivis des effets en cascade. « Ce n’était pas une attaque« , a-t-il ajouté.

Il était 12 h 20 en France, ce 18 novembre, quand l’incident a démarré. Cloudflare l’a signalé sur sa page de statut une demi-heure plus tard.

Vers 14 heures, on nous annonçait que le problème était identifié. Le déploiement d’un correctif restaurant l’accès au tableau de bord Cloudflare était officialisé vers 15 h 30. Une étape importante donnant aux clients la possibilité d’implémenter des mécanismes de contournement.

Quelques minutes plus tard, l’entreprise avait dit estimer que l’incident était résolu. C’est à ce moment-là que son CTO s’était exprimé.

Cloudflare a par la suite reconnu que certains clients pourraient encore rencontrer des problèmes de connexion ou d’utilisation du tableau de bord. Puis déclaré que les scores attribués aux bots seraient impactés par intermittence le temps de la récupération.

À 17 h 30, la situation continuait de s’améliorer, mais n’était pas encore pleinement revenue à la normale. À 18 h 15, la latence et le taux d’erreurs revenaient à des « niveaux normaux ».

ChatGPT, Claude, Gemini, Le Chat, Perplexity… Silence chez les chatbots

Touché, Canva a fait partie des clients qui ont explicitement attribué la responsabilité à Cloudflare. Touché tant sur ChatGPT que sur Sora et sur son API, OpenAI a simplement parlé d’un « fournisseur tiers ». Même chose pour Discord, qui a toutefois précisé que ce fournisseur rencontrait un « problème majeur »…

Également affecté, Coinbase a considéré que l’incident (« latence ou performance de connexion dégradée pour certains utilisateurs ») était résolu à 16 h 38. Chez Twilio, c’était fait une demi-heure plus tôt (problèmes de login pour les utilisateurs de Twilio et de Sengrid), à peu près en même temps que chez Sage (problèmes d’accès à certains produits).

ChatGPT n’a pas été le seul chatbot perturbé. Gemini (Google), Claude (Anthropic), Le Chat (Mistral AI) et Perplexity AI, entre autres, l’ont aussi été.

Un autre incident notable chez Cloudflare en juin 2025

Cloudflare avait connu une autre panne notable le 12 juin 2025. À la racine, une panne dans une dépendance externe. Elle a perturbé un service sur lequel beaucoup d’autres s’appuient : Workers KV.

Plus de 90 % des requêtes vers ce magasin clé-valeur ont produit des réponses 500 ou 503. Parmi les services aval touchés :

  • Access (contrôle d’accès), qui ne pouvait pas récupérer des informations de configuration et d’identité
  • Gateway (passerelle web), qui ne pouvait pas traiter certaines requêtes
  • WARP (VPN), dépendant d’Access
  • Browser Isolation (navigateur sécurisé), dépendant de Gateway pour certaines sessions
  • Turnstile (alternative aux CAPTCHA)
  • Images, qui ne pouvait plus gérer les téléversements par lots

Il avait fallu environ 3 heures pour résoudre le problème. Claude et Gemini en avaient souffert. Gmail aussi, ainsi que Snapchat, Spotify, Twitch, etc.

* Ce n’est pas le pic qui a été qualifié d’inhabituel, mais le trafic (« peak of unusual traffic »). Une formulation qui aurait pu faire penser à une attaque.

Illustration © Hywards – Shutterstock

The post Cloudflare, un autre pilier d’Internet en panne après AWS et Azure appeared first on Silicon.fr.

TOP500 : les 22 supercalculateurs français classés

18 novembre 2025 à 14:54

Et le plus puissant des supercalculateurs est… toujours El Capitan.

À 5 mois d’intervalle, les positions sont restées figées dans le peloton de tête du TOP500. Pour trouver le premier mouvement, il faut descendre à la 15e place. En juin, elle était occupée par un système localisé au Japon (ABCI 3.0, de l’Institut national des sciences et technologies). Elle l’est désormais par un système situé aux États-Unis (Discovery 6, d’ExxonMobil).

22 des supercalculateurs classés se trouvent sur le territoire français. Les voici, avec leur Rmax (performance maximale pour le plus gros problème tournant sur la machine) et leur Rpeak (performance théorique).

EXA1-HE (26e)

C’est la dernière extension du supercalculateur EXA1, localisé à Bruyères-le-Châtel (Essonne) et utilisé pour la simulation nucléaire au sein de la branche militaire du CEA. Elle a été livrée en 2024.

Architecture BullSequana XH3000 avec puces NVIDIA GH200 (72 cœurs à 3 GHz).
Rmax : 90,79 petaflops (Rpeak : 171,26 Pflops) sur 548 352 cœurs.  Consommation : 1,77 MW.

Les classements précédents d’EXA1-HE au TOP500 :

  • Juin 2024 : 17e (configuration à 389 232 cœurs)
  • Novembre 2024 : 22e
  • Juin 2025 : 23e (passage à 548 352 cœurs)

Jean Zay H100 (40e)

Extension GPU installée en 2024 sur ce supercalculateur mis en service 5 ans plus tôt à l’IDRIS (plateau de Saclay, Essonne).

Architecture BullSequana avec CPU Intel Xeon Platinum 8468 (Sapphire Rapids ; 48 cœurs à 2,1 GHz) et GPU NVIDIA H100 SXM5-80.
Rmax : 52,18 Pflops (Rpeak : 71,42 Pflops) sur 227 136 cœurs.

Les classements précédents de Jean Zay H100 au TOP500 :

  • Novembre 2024 : 27e
  • Juin 2025 : 35e

Adastra (45e)

Ce supercalculateur a été acquis par la France via GENCI en 2022 et inauguré en 2023. Il se trouve au CINES (Montpellier).

Base HPE Cray EX235a, avec CPU AMD EPYC 3e génération (64 cœurs à 2 GHz) et GPU AMD Instinct MI250X.
Rmax : 46,1 Pflops (Rpeak : 61,61 Pflops) sur 319 072 cœurs. Consommation : 921 kW.

Les classements précédents d’Adastra au TOP500 :

  • Juin 2022 : 10e
  • Novembre 2022 : 11e
  • Juin 2023 : 12e
  • Novembre 2023 : 17e
  • Juin 2024 : 20e
  • Novembre 2024 : 30e
  • Juin 2025 : 40e

EXA1-HF (77e)

Cette partition d’EXA1 est en service depuis 2021.

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 23,24 Pflops (Rpeak : 31,76 Pflops) sur 810 240 cœurs. Consommation : 4,96 MW.

Les classements précédents d’EXA1-HF au TOP500 :

  • Juin 2022 : 17e
  • Novembre 2022 : 20e
  • Juin 2023 : 22e
  • Novembre 2023 : 30e
  • Juin 2024 : 36e
  • Novembre 2024 : 55e
  • Juin 2025 : 70e

Pangea III (104e)

Ce supercalculateur de TotalEnergies localisé à Pau est en service depuis 2019.

Base IBM Power System AC922, avec CPU POWER9 (18 cœurs à 3,45 GHz) et GPU NVIDIA Volta GV100.
Rmax : 17,86 Pflops (Rpeak : 25,03 Pflops) sur 291 024 cœurs. Consommation : 1,37 MW.

Les classements précédents de Pangea III au TOP500 :

  • 11e puis 15e en 2019
  • 15e puis 18e en 2020
  • 21e puis 29e en 2021
  • 33e puis 37e en 2022
  • 39e puis 48e en 2023
  • 60e puis 75e en 2024
  • Juin 2025 : 92e

Tera 1000-2 (146e)

Cette partition fut mise en service en 2017-2018 sur le supercalculateur Tera 1000 du CEA (localisation : Bruyères-le-Châtel).

Base BullSequana X1000, avec CPU Intel Xeon Phi 7250 (Knights Landing ; 68 cœurs à 1,4 GHz).
Rmax : 11,97 Pflops (Rpeak : 23,4 Pflops) sur 561 408 cœurs. Consommation : 3,18 MW.

Les classements précédents de Tera 1000-2 au TOP500 :

  • 14e puis 16e en 2018
  • 18e puis 17e en 2019
  • 20e puis 24e en 2020
  • 34e puis 42e en 2021
  • 45e puis 49e en 2022
  • 54e puis 65e en 2023
  • 82e puis 101e en 2024
  • Juin 2025 : 123e

ROMEO 2025 (172e)

Supercalculateur de l’université de Reims Champagne-Ardenne, installé en 2024 et inauguré cette année.

Base BullSequana XH3000, avec puces NVIDIA GH200.
Rmax : 9,86 Pflops (Rpeak : 16,32 Pflops) sur 47 328 cœurs. Consommation : 160 kW.

Les classements précédents de ROMEO 2025 au TOP500 :

  • Novembre 2024 : 122e
  • Juin 2025 : 148e

Taranis (199e)

Supercalculateur de Météo France installé en 2020 à Toulouse et inauguré en 2021.

Base BullSequana XH2000, avec CPU AMD EPYC 7742 (2e génération ; 64 cœurs à 2,25 GHz).
Rmax : 8,19 Pflops (Rpeak : 10,32 Pflops) sur 294 912 cœurs. Consommation : 1,67 MW.

Les classements précédents de Taranis au TOP500 :

  • Novembre 2020 : 30e
  • 49e puis 58e en 2021
  • 63e puis 69e en 2022
  • 78e puis 92e en 2023
  • 115e puis 141e en 2024
  • Juin 2025 : 168e

Belenos (210e)

Supercalculateur « jumeau » de Taranis, inauguré en parallèle, également à Toulouse.

Même architecture et même configuration processeur.
Rmax : 7,68 Pflops (Rpeak : 10,47 Pflops). Consommation : 1,66 MW.

Les classements précédents de Belenos au TOP500 :

  • 29e puis 34e en 2020
  • 55e puis 64e en 2021
  • 71e puis 78e en 2022
  • 87e puis 103e en 2023
  • 125e puis 152e en 2024
  • Juin 2025 : 180e

Joliot-Curie Rome (222e)

Partition du supercalculateur Joliot-Curie, installé depuis 2019 au TGCC (Bruyères-le-Châtel).

Base BullSequana XH2000, avec CPU AMD EPYC Rome 7H12 (3e génération ; 64 cœurs).
Rmax : 6,99 Pflops (Rpeak : 12,94 Pflops) sur 197 120 cœurs. Consommation : 1,44 MW.

Les classements précédents de Joliot-Curie Rome au TOP500 :

  • Novembre 2019 : 59e (configuration à 160 000 cœurs)
  • 33e puis 38e en 2020 (configuration à 197 120 cœurs)
  • 59e puis 69e en 2021
  • 77e puis 83e en 2022
  • 92e puis 109e en 2023
  • 132e puis 162e en 2024
  • Juin 2025 : 191e

SELENA (262e)

Ce supercalculateur EDF est entré en production cette année.

Base BullSequana XH3000, avec CPU AMD EPYC 9354 (4e génération ; 32 cœurs à 3,25 GHz).
Rmax : 5,42 Pflops (Rpeak : 5,5 Pflops) sur 107 940 cœurs. Consommation : 1,16 MW.

Topaze GPU (278e)

Partition GPU de Topaze, supercalculateur en service depuis 2021 au CCRT (CEA, Bruyères-le-Châtel).

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz) et GPU NVIDIA A100.
Rmax : 5,07 Pflops (Rpeak : 6,23 Pflops) sur 42 000 cœurs.

Les classements précédents de Topaze GPU au TOP500 :

  • Novembre 2021 : 198e (configuration à 26 880 cœurs)
  • 217e puis 241e en 2022
  • 280e puis 317e en 2023
  • 175e puis 208e en 2024 (configuration à 42 000 cœurs)
  • Juin 2025 : 244e

Jean Zay (292e)

Partition étendue (GPU).

Base HPE SGI 8600, avec CPU Intel Xeon Gold 6248 (Cascade Lake ; 20 cœurs à 2,5 GHz) et GPU NVIDIA Tesla V100 SXM2.
Rmax : 4,48 Pflops (Rpeak : 7,35 Pflops) sur 93 960 cœurs.

Les classements précédents de cette partition au TOP500 :

  • 42e puis 46e en 2019
  • 54e puis 64e en 2020
  • 92e puis 105e en 2021
  • 114e puis 124e en 2022
  • 135e puis 166e en 2023
  • 190e puis 223e en 2024
  • Juin 2025 : 260e

CRONOS (300e)

Autre supercalculateur d’EDF, passé en production en 2021.

Base BullSequana X, avec CPU Intel Xeon Platinum 8260 (Cascade Lake ; 24 cœurs à 2,4 GHz).
Rmax : 4,3 Pflops (Rpeak : 7,14 Pflops) sur 81 600 cœurs. Consommation : 1,23 MW.

Les classements précédents de CRONOS au TOP500 :

  • Novembre 2020 : 67e
  • 96e puis 109e en 2021
  • 118e puis 128e en 2022
  • 139e puis 170e en 2023
  • 194e puis 230e en 2024
  • Juin 2025 : 269e

Joliot-Curie SKL (319e)

Partition de Joliot-Curie qui doit être démantelée cette année.

Base BullSequana X1000, avec CPU Intel Xeon Platinum 8168 (Skylake ; 24 cœurs à 2,7 GHz).
Rmax : 4,07 Pflops (Rpeak : 6,64 Pflops) sur 79 488 cœurs. Consommation : 917 kW.

Les classements précédents de Joliot-Curie SKL au TOP500 :

  • 34e puis 40e en 2018
  • 47e puis 52e en 2019
  • 61e puis 72e en 2020
  • 101e puis 113e en 2021
  • 124e puis 133e en 2022
  • 154e puis 183e en 2023
  • 207e puis 245e en 2024
  • Juin 2025 : 285e

hotlum (339e)

Supercalculateur installé en 2022 chez HPE.

Base Cray EX, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 3,81 Pflops (Rpeak : 4,58 Pflops) sur 116 736 cœurs.

Les classements précédents de hotlum au TOP500 :

  • 146e puis 159e en 2022
  • 187e puis 222e en 2023
  • 252e puis 291e en 2024
  • Juin 2025 : 331e

THX.A.B (362e)

Supercalculateur installé en 2022 chez Atos.

Base BullSequana XH2000, avec CPU Intel Xeon Platinum 8358 (Ice Lake ; 32 cœurs à 2,6 GHz) et GPU NVIDIA A100 SXM4-64.
Rmax : 3,5 Pflops (Rpeak : 4,98 Pflops) sur 25 056 cœurs. Consommation : 86 kW.

Les classements précédents de THX.A.B en TOP500 :

  • 146e puis 159e en 2022
  • 187e puis 222e en 2023
  • 252e puis 291e en 2024
  • Juin 2025 : 331e

Topaze CPU (377e)

Partition CPU de Topaze.

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 3,26 Pflops (Rpeak : 4,34 Pflops) sur 110 592 cœurs.

Les classements précédents de Topaze CPU au TOP500 :

  • Novembre 2021 : 140e
  • 154e puis 170e en 2022
  • 201e puis 237e en 2023
  • 267e puis 306e en 2024
  • Juin 2025 : 346e

Jean Zay (420e)

Partition CPU de Jean Zay.

Base HPE SGI 8600, avec CPU Intel Xeon Gold 6248 (Cascade Lake ; 20 cœurs à 2,5 GHz).
Rmax : 3,05 Pflops (Rpeak : 4,87 Pflops) sur 61 120 cœurs.

Les classements précédents de cette partition au TOP500 :

  • 72e puis 79e en 2019
  • 91e puis 108e en 2020
  • 140e puis 163e en 2021
  • 178e puis 203e en 2022
  • 237e puis 273e en 2023
  • 309e puis 350e en 2024
  • Juin 2025 : 391e

KAIROS (422e)

Supercalculateur installé cette année à l’université de Toulouse.

Base BullSequana XH3000, avec puces NVIDIA GH200 (72 cœurs à 3 GHz).
Rmax : 3,05 Pflops (Rpeak : 3,42 Pflops) sur 13 056 cœurs. Consommation : 46 kW.

AMD Ouranos (428e)

Supercalculateur installé cette année chez Atos.

Base BullSequana XH3000, avec CPU AMD EPYC 4e génération (24 cœurs à 1,8 GHz) et GPU AMD Instinct MI300A.
Rmax : 2,99 Pflops (Rpeak : 3,97 Pflops) sur 16 632 cœurs. Consommation : 48 kW.

Les classements précédents d’AMD Ouranos au TOP500 :

  • Juin 2025 : 399e

Spartan3 (462e)

Supercalculateur installée en 2021 chez Atos.

Base BullSequana XH2000, avec CPU AMD EPYC 7763 (3e génération ; 64 cœurs à 2,45 GHz).
Rmax : 2,75 Pflops (Rpeak : 3,61 Pflops) sur 92 160 cœurs.

Les classements précédents de Spartan3 au TOP500 :

  • 157e puis 193e en 2021
  • 212e puis 236e en 2022
  • 275e puis 312e en 2023
  • 348e puis 391e en 2024
  • Juin 2025 : 434e

Illustration générée par IA

The post TOP500 : les 22 supercalculateurs français classés appeared first on Silicon.fr.

Après DeepSeek, quelle marge de progression pour l’apprentissage par renforcement ?

18 novembre 2025 à 07:38

Plutôt qu’un juge humain, une vérification déterministe : le RLVR (Reinforcement Learning with Verifiable Rewards) repose sur ce principe.

DeepSeek-R1 et OpenAI o1, entre autres, en ont démontré les bénéfices. Mais les possibilités de mise à l’échelle sont limitées du fait de la dépendance à des problèmes conçus par l’humain et à des récompenses spécifiques à chaque domaine.

Chez Meta, on est en tout cas parti de ce postulat pour développer SPICE (Self-Play in Corpus Environment).

Un modèle, deux rôles, un corpus documentaire

Cette technique d’apprentissage par renforcement fait jouer au modèle deux rôles antagonistes. L’un consiste à générer les problèmes (« challenger »). L’autre, à les résoudre (« résolveur »).

La génération des problèmes a la particularité d’être ancrée sur un corpus documentaire. Le challenger n’utilise que cette source ; pas ses propres connaissances. Le résolveur n’a pas accès au corpus, ce qui assure une asymétrie de l’information.

Un mécanisme de récompense fait progresser le challenger et le résolveur. Le premier a pour mission de créer des problèmes qui challengent au maximum le second, tout en restant résolvables.

Les documents sont bruts, sans questions ou étiquettes prédéfinies. Les problèmes prennent la forme de QCM (avec 4 réponses) ou de questions ouvertes. Cette diversité est censée permettre une vérification interdomaines sans outils spécialisés.

Les deux rôles sont instanciés avec vLLM, sur la base de l’architecture Oat. Quatre modèles de base sont expérimentés : Qwen3-4B-Base, Qwen3-8B-Base, OctoThinker-3B-Hybrid-Base et OctoThinker-8B-Hybrid-Base. Le renforcement se fait sur 20 000 documents. Il est axé sur deux disciplines : mathématiques (utilisation du dataset Nemotron-CC-Math) et raisonnement général (NaturalReasoning). La température est laissée à 1.0.

Ni trop simple, ni trop compliqué : un système de récompense pour trouver le bon équilibre

Avec chaque document, on effectue 1024 tentatives pour générer des questions, puis on en sélectionne aléatoirement une valide. Pour chacune, on retient 8 réponses. On en calcule la variance pour déterminer la récompense du challenger. Cette dernière est maximale lorsque le taux de réussite du résolveur atteint 50 % (témoignant de questions ni trop faciles, ni trop difficiles). Pour vérifier l’équivalence de chaque réponse par rapport à la gold answer (réponse de référence), le framework simple-evals est utilisé, avec GPT-4o.

La performance de SPICE est comparée à celles :

  • Des modèles de base (Base Model)
  • De systèmes utilisant un challenger « plus fort » (Qwen3-32B-Instruct) et où le modèle n’est entraîné que sur le rôle de résolveur (Strong Challenger)
  • D’un système antagoniste non ancré sur un corpus (R-Zero)
  • De ce même type de système, et avec des problèmes portant exclusivement sur la génération de code Python (Absolute Zero)

Entre les modèles de base et SPICE, l’écart va de 5,7 à 11,9 points selon les modèles.

évaluation quantitative

3,2 points en performance globale : la (modeste) contribution du corpus documentaire

On constate une amélioration mutuelle. Pour en témoigner, Meta avance deux indicateurs « en miroir ».
D’un côté, à résolveur fixe (checkpoint après 200 étapes), le taux de réussite passe de 55 à 35 % à mesure que le challenger progresse.
De l’autre, à challenger fixe (checkpoint après 200 étapes), le taux de réussite du résolveur passe de 55 à 85 %.
Qualitativement parlant, plus on avance dans l’entraînement, plus les problèmes générés sont complexes.

challenger et reasoner fixes

Sans ancrage sur corpus, la performance globale moyenne atteint 40,7 %. Avec, elle monte à 43,9 % (+ 3,2 points).

ablation challenger et corpus

NaturalReasoning utilisé seul engendre des gains plus importants que Nemotron-CC-Math seul. Mais combiner les deux datasets produit les meilleurs résultats.

type de corpus

Le gain en mathématiques est plus important avec uniquement des questions ouvertes. Au global, néanmoins, il vaut mieux y associer le format QCM.

type de tâche

La technique de récompense par calcul de variance produit de meilleurs résultats que :

  • Absolute Zero, où la récompense vaut (1 – taux de réussite moyen du résolveur)
  • Threshold, où la récompense vaut 1 pour les tâches « relativement résolvable » ; 0 pour celles à 0 ou 100 % de réussite
  • R-Zero, qui récompense les problèmes produisant des réponses équitablement réparties

type de récompense

Illustration principale générée par IA

The post Après DeepSeek, quelle marge de progression pour l’apprentissage par renforcement ? appeared first on Silicon.fr.

❌