Le déploiement instantané, c’est pratique, mais rarement indispensable.
Cloudflare contextualise ainsi sa décision d’appliquer aux changements de configuration le même processus de contrôle que pour le code.
Lors de mises à jour logicielles, chaque version binaire a plusieurs étapes de validation à franchir. Toute équipe possédant un service doit définir un plan de déploiement, des indicateurs de réussite/échec et les actions à entreprendre en cas de problème. Un système automatisé exécute ce plan et déclenche si nécessaire une restauration, en alertant éventuellement l’équipe.
Ce mécanisme sera également appliqué aux changements de configuration d’ici à fin mars sur toute la prod, nous promet-on.
En toile de fond, les deux pannes importantes survenues le 18 novembre et le 5 décembre 2025. L’un et l’autre furent déclenchées par un changement de configuration (dans le classificateur de bots pour la première ; dans un outil de sécurité pour la seconde).
Isoler les défaillances
Cloudflare a un autre engagement d’ici à fin mars : réviser les contrats d’interface entre chaque produit et service critique, pour mieux anticiper et isoler les défaillances.
L’incident de novembre est un exemple en la matière. Deux interfaces-clés auraient pu être gérées différemment, estime Cloudflare. D’une part, celle qui lisait le fichier de configuration (il aurait dû exister un ensemble de valeur par défaut validées permettant au trafic de continuer à circuler). De l’autre, celle située entre le logiciel central et le module de gestion des bots (en cas de défaillance de ce dernier, le trafic n’aurait pas dû être bloqué par défaut).
Éliminer – ou contourner – les dépendances circulaires
Cloudflare entend aussi supprimer les dépendances circulaires, ou tout du moins permettre de les « contourner » rapidement en cas d’incident. Exemple : lors de l’incident de novembre, l’indisponibilité de Turnstile (alternative aux CAPTCHA) a empêché les clients d’accéder au tableau de bord à moins qu’ils eussent une session active ou un jeton d’API.
En parallèle, il est question de faire évoluer les procédures internes de type break glass (élévations temporaires de privilèges) pour avoir accès aux bons outils le plus rapidement possible.
Un « code orange » pour la deuxième fois
Pour mettre en place ce plan de résilience, Cloudflare a décrété un « code orange ». Cette procédure permet de réorienter la plupart des ressources techniques vers la résolution d’un incident. Elle a été mise en œuvre une fois par le passé. C’était fin 2023, après une panne de courant dans un des principaux datacenters de Cloudflare (PDX01, dans l’Oregon), hébergeant le plan de contrôle de nombreux services. Le déclencheur : des opérations de maintenance réalisées par l’exploitant du réseau électrique et qui avaient entraîné un défaut de terre dans l’installation.
> VMware exclut l’UE de la marche forcée vers VCF
VMware franchit un nouveau cap dans le resserrement de son offre autour de VCF, mais fait – jusqu’à nouvel ordre – une exception pour l’UE.
> Panne Cloudflare : ce qui s’est passé dans le système anti-bots
La panne chez Cloudflare a été déclenchée par une erreur de configuration dans une base de données alimentant le système de gestion des bots. A lire ici
Data & IA
> L’Agentic AI Foundation veut imposer les standards de l’IA autonome
OpenAI, Anthropic et Block s’allient au sein de l’Agentic AI Foundation (AAIF), pour éviter la fragmentation d’un marché stratégique. Plusieurs poids lourds de l’IT participent à l’initiative. A lire ici
> Stratégie IA : la France en tête du peloton européen…mais loin du compte
Le rapport de la Cour des comptes révèle les failles d’une stratégie nationale sur IA, ambitieuse mais sous-financée. A lire ici
> AI Safety Index 2025 : un bilan inquiétant de la sécurité de l’IA
Le Future of Life Institute tire la sonnette d’alarme : aucune des huit grandes entreprises d’IA évaluées n’obtient une note satisfaisante en matière de sécurité. A lire ici
Cybersécurité
> Comment le Shadow AI fait exploser le risque de fuite de données
Si les grandes entreprises ont cadré les usages de l’IA générative, le risque de voir leurs collaborateurs développer des pratiques de Shadow AI en utilisant des modèles américains ou chinois est bien réel. A lire ici
> Quand un rapport de l’ANSSI révélait les défaillances cyber du Louvre
Les défaillances du dispositif de cybersécurité du Louvre, pourtant signalées depuis près de dix ans, n’ont jamais été pleinement corrigées. A lire ici
Business
> Pourquoi OpenAI décrète l’« alerte rouge » face à Google Bousculée par les dernières avancées de Google et d’Anthropic, OpenAI suspend ses projets annexes pour sauver le soldat ChatGPT. A lire ici
> Les pétrodollars à l’assaut de l’IA
Les géants pétroliers et les fonds souverains du Golfe accélèrent leurs investissements dans l’intelligence artificielle pour peser sur l’ordre technologique mondial. A lire ici
> Ce que le nouveau statut d’OpenAI change dans sa relation avec Microsoft
Avec sa transformation en « public benefit corporation », OpenAI rebat les cartes de son partenariat stratégique avec Microsoft. A lire ici
Ce matin, sur la Toile, il était plus probable que d’habitude de tomber sur des erreurs 500.
En cause, un problème chez Cloudflare. Sans commune mesure, néanmoins, avec l’incident du 18 novembre ; en tout cas par sa durée : moins d’une heure*.
L’entreprise en a d’abord attribué la cause à une mise à jour de son WAF. L’objectif, a-t-elle expliqué, était d’atténuer la vulnérabilité React rendue publique la semaine dernière.
À la racine, un problème de journalisation
Cette vulnérabilité, on ne peut plus critique (score CVSS : 10), se trouve dans les composants serveur React. Plus précisément au niveau de la logique qui permet à un client d’appeler ces composants. Par un traitement non sécurisé des entrées, elle ouvre la voie à l’exécution distante de code sans authentification. Les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des packages react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack sont touchées.
À défaut de pouvoir agir directement sur ces packages, Cloudflare avait déployé, le 2 décembre, une règle WAF. « Un simple pansement », avait rappelé son CTO, ayant constaté l’émergence de variantes de l’exploit.
Concernant l’incident de ce matin, l’intéressé a apporté une précision, en attendant un compte rendu plus détaillé : le problème est né d’une désactivation de journalisation destinée à atténuer les effets de la vulnérabilité…
* Ticket ouvert à 9 h 56. Déploiement du correctif officialisé à 10 h 12. Incident considéré comme résolu à 10 h 20.
Un incident réseau chez Cloudflare, société spécialisée dans la sécurité web, a perturbé le trafic Internet et entraîné la panne de plusieurs sites hier à la mi-journée. Parmi les plateformes touchées, X (anciennement Twitter) figure comme le service le plus important à avoir cessé de fonctionner. D’autres sites ont également rencontré des problèmes. Cloudflare indique […]
Un incident réseau chez Cloudflare, société spécialisée dans la sécurité web, a perturbé le trafic Internet et entraîné la panne de plusieurs sites hier à la mi-journée. Parmi les plateformes touchées, X (anciennement Twitter) figure comme le service le plus important à avoir cessé de fonctionner. D’autres sites ont également rencontré des problèmes. Cloudflare indique […]