Les chefs d’entreprise ne peuvent pas se permettre de choisir entre cybersécurité et productivité. Chaque cyberattaque, qu’il s’agisse d’un ransomware dans un hôpital ou de la récente violation de France Travail, met en évidence la faiblesse des mots de passe et l’obsolescence des logiciels, et nous rappelle que des protocoles solides de sécurité des données, […]
Bouygues Telecom nomme Georgina Lopez au poste de directrice des systèmes d’information (DSI). Dans le cadre de ses nouvelles fonctions, elle aura pour mission de garantir une qualité de service du système d’information conforme aux attentes des clients internes et externes, d’accompagner les évolutions du SI nécessaires au succès de l’opérateur sur son marché, et d’améliorer en continu la performance et l’agilité des systèmes, notamment grâce à des architectures et méthodes innovantes et à l’exploitation du potentiel de l’intelligence artificielle.
Titulaire d’un diplôme d’ingénieur, Georgina Lopez a rejoint Bouygues Telecom en 1999. Elle y a occupé plusieurs postes managériaux au sein des directions techniques, des systèmes d’information, du réseau et de l’entreprise. En 2022, elle est nommée responsable de la Direction Produits et Services, en charge des solutions de connectivité et de télévision pour les clients Grand Public. À ce poste, elle pilote notamment le lancement de la nouvelle Bbox WiFi 7 début 2025.
Engagée de longue date en faveur de la diversité et de l’inclusion, Georgina Lopez est présidente depuis 2020 du réseau féminin Bouygt’elles. Cette initiative vise à renforcer la représentativité des femmes au sein des instances de management de Bouygues Telecom et dans les filières techniques, en cohérence avec les valeurs portées par l’entreprise.
Les dirigeants européens croient-ils sincèrement que les chars russes défileront bientôt à Varsovie ou à Berlin ? Ou leur ébriété guerrière vise-t-elle surtout à légitimer une politique qu'ils présentent comme la seule possible mais dont ils savent l'impopularité : l'austérité pour le peuple, (…)
/ Médias, Presse, Désinformation, Russie, Europe, Conflit russo-ukrainien 2022-
InterCERT France, qui rassemble plus de 120 équipes de détection et réponse à incidents cyber sur le territoire national, a procédé au renouvellement de son Conseil d’administration. Les membres ont élu Thibaud Binétruy, responsable du CSIRT-Suez, à sa présidence.
Le bureau est complété par Anthony Charreau (CERT Crédit Mutuel Euro-Information) au poste de Vice-président et Julien Mongenet (Thales-CERT) comme Trésorier. Le Conseil compte également trois autres administrateurs : Valérie Couché (C2MI), Tristan Pinceaux (CERT ALMOND CWATCH) et Maxime Lambert (CERT-Formind).
Un parcours dans la cyberdéfense opérationnelle
Thibaud Binétruy apporte 17 ans d’expérience dans la cybersécurité, dont 11 années dédiées à la cyberdéfense opérationnelle. Après avoir débuté comme auditeur et pentester, il a rejoint le CERT Société Générale où il a découvert la communauté InterCERT. Il a ensuite évolué dans les secteurs de la défense et de l’aérospatiale chez Safran avant de prendre la direction du CSIRT du groupe Suez en 2022.
Cette transition intervient après le mandat de Frédéric Le Bastard (CERT La Poste), qui a accompagné la structuration de l’association depuis sa création en octobre 2021. Le Conseil d’administration lui a attribué le titre de membre Honoraire en reconnaissance de son action.
Face à l’évolution des menaces cyber, la nouvelle gouvernance entend renforcer la culture de prévention et intensifier les échanges de retours d’expérience entre les membres. L’association souhaite également mettre l’accent sur la santé mentale des professionnels de la cyber, confrontés à des situations de stress et de pression opérationnelle quotidiennes.
C’est l’info mercato de cette fin d’année dans le secteur cyber. Révélée hier par l’Informé, elle est confirmée ce jour par un communiqué de presse officiel : Orange a recruté Guillaume Poupard au poste nouvellement créé de Chief Trust Officer.
Rattaché directement à Christel Heydemann, sa directrice générale, il rejoindra l’opérateur le 1er février 2026.
Figure du monde de la cybersécurité française, Guillaume Poupard a dirigé l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) pendant huit ans, de 2014 à 2022, période durant laquelle il a travaillé au renforcement du dispositif français de cyberdéfense et plus généralement à sensibiliser sur les enjeux économiques liés aux risques cyber.
Accélérer sur la cybersécurité et le cloud de confiance
Depuis 2022, il occupait le poste de directeur général adjoint de Docaposte, la filiale numérique de La Poste, où il supervisait les actifs technologiques stratégiques : cybersécurité, intelligence artificielle et cloud.
Que va faire Guillaume Poupard au sein de l’opérateur ? Définir et incarner la stratégie d’Orange en matière de souveraineté et de confiance numérique. Concrètement, il devra accélérer le développement, en collaboration avec les entités Orange Business et Orange Cyberdéfense, d’offres innovantes dans trois domaines clés : la cybersécurité (grand public et entreprises), le cloud de confiance et l’intelligence artificielle souveraine.
Des secteurs en pleine croissance mais où la concurrence fait rage. Au classement Numeum 2024 des ESN, Orange Business occupe la cinquième place avec un chiffre d’affaires de 1,8 milliard € ( sur un total de 7,8 milliards) quand Orange Cyberdéfense a enregistré des revenus de 1,2 milliard sur cette période.
Israël a perdu les faveurs de l'opinion publique américaine ? Conscient du péril, le premier ministre Benyamin Netanyahou a annoncé l'ouverture d'un « huitième front », la « bataille pour la vérité », afin de reconquérir les cœurs et les esprits. Tel-Aviv n'avait jamais négligé ce terrain, mais (…)
/ Israël, Désinformation, Médias, Information, Technologies de l'information
Le site des Centers for Disease Control and Prevention (Wikipédia) a une page sur l'absence de lien entre les vaccins et les troubles du spectre de l'autisme. Elle est désormais un cas d'école de désinformation.
Aleksey Volkov plaide coupable pour son rôle dans les attaques Yanluowang. Enquête sur le marché noir des accès initiaux et la désinformation dans le cybercrime....
Une nouvelle puissance se cristallise à Washington. Plus pressée, plus idéologisée, plus privatisée que tous les complexes militaro-industriels antérieurs, la tech autoritaire ébranle les fondations de la démocratie comme jamais cela ne s'était vu depuis les débuts du numérique. La Silicon (…)
/ Technologie, Technologies de l'information, Démocratie, Défense
Partout dans le monde, des gouvernements font ruisseler des centaines de milliards pour développer une « intelligence artificielle (IA) souveraine » — un oxymore, tant cette technologie dépend des industries américaines. Dopée par les tensions internationales, la souveraineté est devenue une (…)
/ Technologie, Technologies de l'information, États-Unis, Finance, Géopolitique
Le Portail des médias indépendants est un projet conçu et animé par l’équipe de Basta ! (en savoir plus sur Basta !). Il est édité par Alter-médias, une association à but non lucratif, financé en grande partie par les dons de plus de 5000 lectrices et lecteurs chaque année.
Le principe du Portail des médias indépendants est d’offrir une alternative à Google actualités, grâce à un fil d’actualité dédié uniquement aux articles de médias indépendants fiables, sélectionnés chaque jour « à la main » par notre équipe de journalistes.
Dernière mise à jour le 1 septembre 2025 Que l’on aime réparer, restaurer, repeindre, vendre, dépanner. Que l’on aime les moteurs thermiques ou les moteurs électriques. Que l’on soit passionné depuis toujours, qu’on ait le goût...
Réflexion issue d’une discussion sur le Discord de Cuistops concernant le fait que Talos pourrait ne pas être le meilleur point de départ pour s’attaquer à cette technologie d’infrastructure qui a balayé le monde de l’orchestration de containers en une petite dizaine d’années. Pour illustrer pourquoi il n’y a pas de réponse absolue à cette question, je me suis dit que vous décrire mon parcours concernant l’univers des containers et Kubernetes en particulier (aussi bien au niveau perso que pro) serait éclairant sur certains points.
Aux origines : Docker
Le moins qu’on puisse dire, c’est que mon entrée dans l’univers des containers, en particulier via docker, n’était pas brillante. Je conserve avec malice le premier billet que j’ai consacré à ce sujet en 2016 pour illustrer à quel point je me trompais sur la technologie, que je n’avais jusque là pas vraiment vu, encore moins au niveau professionnel. J’ai heureusement rattrapé cette erreur depuis, aussi bien à la faveur de formations au travail (merci Thomas Perelle ) qu’au niveau perso, où mes propres expérimentations m’ont conduit à partager ma découverte et mon utilisation de Docker Swarm. J’ai bien rattrapé le coup, hein ?
D’ailleurs, Swarm a été pour moi la découverte de la notion d’orchestration. Que j’ai pu creuser cette fois au niveau pro en 2018 après un premier tout petit pas vers l’univers Kubernetes par la porte OpenShift à la faveur d’un workshop de deux jours par un collègue qui sera réellement un mentor pour les années suivantes, Julien Francoz. Je n’ai malheureusement pas gardé grand chose de ce workshop, étant donné que je n’avais aucune plateforme de ce type dans mon pôle client, encore moins de Kubernetes. Tout juste on commençait à avoir des clients qui cherchaient à déployer leurs applis en mode container sur des serveurs classiques, avec Docker. Sans pratique, la théorie s’efface vite, d’autant qu’en 2018, les usages « domestiques » n’étaient pas légion, donc les articles de blog non plus, encore moins autour d’Openshift. C’est en 2019 que tout change.
2019 : La découverte de Kube, de la containerisation d’applications, d’Azure, de terraform (tout en même temps)
Je vous passe le contexte de comment j’en suis arrivé à cette situation intense qui aura duré 5 mois, mais oui, j’ai découvert Kubernetes d’une façon un peu particulière : service cloud managé, sur Azure, el famoso « AKS« , à devoir migrer des applications précédemment hébergées sur des serveurs virtuels Debian dépassés, avec un cluster déployé manuellement qu’on a tenté de « terraformer » après-coup, avec toute la « qualité » de l’API d’Azure d’alors. Et je remercie encore Julien d’avoir pris autant de temps à me soutenir dans cet apprentissage express (la notion de mentor n’était pas galvaudée, clairement).
Moi pendant la migration du client sur Kubernetes
Service cloud Managé veut dire qu’on ne gère pas certains aspects importants de la vie d’un cluster : tout le control plane est masqué, vous ne voyez que les nœuds, vous ne vous occupez pas trop de certains aspects comme la rotation des certificats, les mises à jour sont automatisées (vous indiquez une version cible, le service s’occupe de la montée de version du control plane, puis des nœuds un par un), et vous bénéficiez d’intégrations avec le reste de l’infra du fournisseur, au niveau du réseau, du stockage, des capacités comme l’autoscaling (vous augmentez et réduisez automatiquement le nombre de nœuds en fonction de la charge ou des réservations de ressources des pods à déployer). L’installation se fait en trois/quatre clics via l’interface web, une ligne de commande avec l’utilitaire maison, ou un peu plus de lignes de code si on le fait via un outil d’infrastructure as code.
Bref, c’est cool, ça permet de se concentrer sur les aspects opérationnels des applications déployées, mais même comme ça, je vous avoue que AKS tel que Microsoft le proposait n’était pas toujours une sinécure. Azure lui-même était pénible, avec des VMs qui mettaient plusieurs minutes à démarrer (quand les concurrents tournaient autour de la minute). Et comme on ne gère pas le control plane, on rate tout un pan de l’architecture et de la gestion de Kubernetes et de ses composants sous-jacents. En plus à l’époque, l’image de l’OS utilisé pour les nœuds était basée sur Ubuntu, pas le plus léger et le « gaspillage » de ressources était réel, au-delà de Kubernetes lui-même.
J’aurais l’occasion de passer encore quelques années, pratiquement trois, à déployer d’autres projets AKS pour d’autres clients, ce qui m’a permis de constater, il faut savoir aussi le reconnaitre, comment Microsoft a cravaché pour amener un niveau de qualité sur le service bien plus en phase avec ce qu’on attend d’un tel fournisseur. Rotation automatique des certificats via les mises à jour (c’était pas le cas, la commande de rotation était à lancer à la main), amélioration générale d’Azure sur les temps de démarrage des nœuds, efficacité des mises à jour, intégrations avancées au niveau réseau (Calico, Istio, etc)… Ce qui n’empêche pas certains pains avec entre autres une API qui accepte certaines valeurs pourtant non supportées et qui m’ont forcé à redéployer des clusters from scratch parce que la communication entre les nœuds étaient devenue impossible (réponse du support : « on va mettre à jour la doc pour indiquer les valeurs supportées »; bravo…). Par la suite, j’ai découvert et encore plus adoré exploiter et déployer du GKE, le service équivalent de Google Cloud; il m’aura permis au passage d’apprendre comment fonctionnait ce fournisseur et tout ce qu’il fait de mieux que Microsoft (et parfois d’AWS). Au point de passer la certification « Professional Architect » au bout de 4 mois seulement de pratiques.
Kube à la maison
Cette expérience en particulier avec Azure ne m’aura pas empêché pas de tomber amoureux de la technologie, au point de remiser Docker Swarm, et de migrer sur K3S. Là aussi un choix particulier, conçu pour les machines très légères, puisque ciblant les Raspberry Pi, j’ai malgré tout fait le déploiement du flemmard, même si j’ai privilégié un déploiement semi-automatisé avec un playbook/role Ansible, et un seul nœud comme control plane (qui était le seul mode de déploiement supporté alors).
Particularité de k3s, regrouper tous les composants « core » de Kubernetes dans un seul binaire, une petite prouesse à la base de son empreinte mémoire réduite, mais pas que : un des éléments les plus critiques d’un cluster, la base de données ETCD, la « mémoire » du cluster, est remplacée par SQlite, bien plus léger, mais évidemment limité à une seul nœud, et moins enclin aux problèmes des bases de données plus complexe. Bien que le mode « multi-master » ait été implémenté par la suite, au passage à mes Raspberry Pi 4, j’ai quand même conservé le même mode de fonctionnement. J’ai eu l’occasion de détailler pas mal de choses concernant K3S sur ce blog, je ne vais donc pas m’étendre beaucoup plus.
Reste qu’à l’occasion d’une volonté de refonte, accélérée par la mort successive des cartes SD des Raspi après 4 ans de bons et loyaux services, j’ai décidé de revenir à un Kubernetes un peu moins simplifié, en partant sur un autre choix particulier, Talos Linux, qui aura fini en machine virtuelle suite à une déconvenue de matériel et de limitations électriques, que je me suis pris en pleine poire en plein live Twitch. Talos propose un déploiement Kubernetes beaucoup plus standardisé dans ses composants de base, mais dont la gestion des nœuds est très particulière : pas d’OS à proprement parler, juste le noyau et une API qui permet de pratiquer toutes les opérations sur la gestion de ces nœuds : pas de SSH, pas de CLI directe, l’utilitaire talosctl est là pour configurer les nœuds à l’envi, permettant de les ajouter/retirer d’un cluster en un clin d’œil, un aspect très important dans une gestion d’infrastructure au sens large (comprendre, en entreprise). Toute la configuration de base se fait au travers de fichiers de configuration YAML, à l’instar de Kubernetes lui-même, permettant une approche « intégration continue » et un versionnement via git.
Actuellement, je me débats avec certains paramétrages par défaut orientés sécurité entre autres qui peuvent limiter/bloquer certains usages sans attention particulière. Il est vrai que par défaut, Kubernetes est une plateforme particulièrement ouverte avec peu de gardes-fous, et c’est à chacun d’adapter cet aspect en fonction de son propre contexte, ce qui amène à devoir exploiter nombre d’extensions et contrôleurs additionnels pour y parvenir. Et comme souvent, la sécurité à un prix…
Et la question de départ ?
On le voit, au final je n’ai que peu choisi comment j’ai découvert et abordé la technologie et son déploiement « dans le monde réel », et j’ai démarré par certaines abstractions qui font que si je m’étais retrouvé face à un cluster « vanilla » (kubeadm, kubespray), et un problème lié au control plane, j’aurais été plus en peine que quelqu’un ayant directement attaqué « the hard way » (z’avez la ref ?). Et d’un certain côté c’est certainement encore le cas encore aujourd’hui, ce qui me vaudrait d’être recalé au recrutement chez Lucca ou Enix. Le livre à venir teasé par Denis Germain (qui ne s’appellera pas 50 Nuances de Kubernetes, ce qui aurait été bien trop cool comme titre) montre bien la diversité d’approches qui ont chacune leurs spécificités, avec la plupart des services dit « managés » abstrayant une bonne partie des composants et concepts de bas-niveau pour vous concentrer sur vos applications ou celles de vos clients.
Est-ce que l’une d’elles est meilleure qu’une autre ? Je considère toujours que la théorie est importante, jusqu’à un certain point, dans la mesure où si on n’a pas de le contrôle sur les éléments, ne pas savoir comment ils fonctionnent de manière sous-jacente n’est pas toujours une grosse tare : ce n’est pas de notre ressort que d’y mettre les mains. Imaginez une corruption de base ETCD sur un service managé. Ma seule préoccupation sera d’être capable éventuellement de restaurer tout ce que j’y ai mis au départ – mes déploiements d’applications, mes secrets, mes CRDs, etc- , là où la préoccupation du provider, sera de réparer cette corruption; dans le pire des cas, s’il n’aura pas été capable de restaurer le service avec un minimum de pertes, il s’agira de restaurer tout ça sur un nouveau cluster.
Nous vivons également dans un monde connecté à la plus grande base de connaissances du monde : Le Web. Je n’ai pas besoin de connaitre l’intégralité des arcanes du moindre bout de logiciel, quelque soit son niveau dans l’environnement où j’évolue, pour être capable de l’exploiter au quotidien, voire de le réparer. Les connaissances déjà acquises sont évidemment importantes, parce qu’elles permettent de définir un état d’esprit, un mode de réflexion, qui est la plupart du temps applicable aux autres technologies que vous rencontrerez. Mais si je rencontre un problème que je n’ai pas déjà vu par le passé, une recherche sur le web m’amène généralement soit à la solution, soit à une piste à creuser pour déterminer la cause. Dès lors, il n’y a pas de réponses simples à apporter à la question « par où démarrer », parce qu’elle peut dépendre aussi de la « fin ».
Par où on attaque ?
Faire un cluster à la mano avec tous les composants en mode « the hard way » ne sert pratiquement à rien si après on évolue dans un contexte de service managé. À l’inverse, un service managé est intéressant en ce sens qu’il permet de gérer les interactions avec d’autres services du fournisseur, et donc le mode de fonctionnement de celui-ci. Sur Kube lui-même vous manquez des choses, mais vous avez quand même pas mal de concepts à intégrer. Est-ce moins pertinent ? Pas forcément si c’est ce que vous manipulez tous les jours. Dans le même esprit, « the hard way » est probablement la pire méthode pour gérer le quotidien sur de l’infra qu’on gère, même si pour le coup on a toutes les tripes du cluster sur la table. On privilégiera donc très vite d’autres outils plus automatisés pour la gestion habituelle. N’est-ce pas tout aussi pertinent de démarrer directement avec ces solutions pour intégrer plus rapidement leurs concepts ?
Par où commencer Kubernetes ? J’ai envie de dire, par la solution qui vous rendra curieux. C’est tout le sel de l’apprentissage, comme de la recherche scientifique, où chaque réponse qu’on trouve amène d’autres questions, tout aussi passionnantes. D’autant plus que quand on démarre, on est amené à faire, défaire, refaire, à comparer. Notre univers informatique au sens large bouge tout le temps, la « galaxie » Kubernetes n’est pas en reste, il y a toujours des dizaines d’angles d’attaque possible, et à de très rares exceptions près, il n’y en a pas nécessairement une qui est plus mauvaise qu’une autre. Et d’autres apparaitront régulièrement, ce qui représente de nouvelles réponses possibles à cette question. Il ne faut pas avoir peur de se faire plaisir de différentes manières
Formez vous à l’OSINT avec OpenFacto
OpenFacto est une association loi 1901 dont l’objectif est de fédérer et de promouvoir la scène OSINT francophone.
Flippant.
À partir de simples photos, des animations plus vraies que nature sont réalisées.
Ce qui est maintenant certain, c'est qu'on ne peut plus croire du tout, ce que l'on voit sur les écrans.
L'adage "Je ne crois que ce que je vois" est mort et enterré.
— Permalink