Doomsday Scoreboard
(Permalink)
Et que s'appelerio "Un don" !
— Permalink
«
ElleElle ne représente aucune menace, et pourtant elle a été lourdement attaquée dans la nuit du 23 au 24 septembre. La flottille humanitaire internationale, comprenant 51 bateaux, se dirige depuis plusieurs semaines vers Gaza dans l’objectif de briser le blocus imposé par Israël, qui multiplie les massacres dans l’enclave palestinienne. « J’étais à bord du Zéphyro, un petit voilier qui a été le plus endommagé par l’attaque. On était sept à bord. Ils ont commencé à bombarder entre minuit et 5 heures, les bombes sont tombées uniquement sur les plus petits voiliers », raconte Noé Gauchard, assistant parlementaire de l’eurodéputée Emma Fourreau (La France insoumise).
Il évoque de « petits drones très rapides » et sans lumière, planant au-dessus des bateaux et larguant des explosifs. « Douze bateaux ont été touchés, quatre ont eu des dégâts matériels », poursuit le militant LFI. Le voilier sur lequel il voyageait ne peut plus continuer : son foc a été endommagé. « La bombe a cassé un câble en acier qui est tombé sur nous, ça aurait pu faire des dégâts humains. Le Zéphyro va partir au port, en Crète, où les dégâts vont être examinés. » Les équipes du voilier ont depuis été réparties sur d’autres bateaux. Pour Noé Gauchard, il ne s’agit plus d’« intimidation » venant d’Israël, mais de « sabotage ».
»
vid{264b93c4a3a4d80dafcc27fd6e4ad7f6302c34d253cd12a3fd161a5e78c50555}
— Permalink
Dernière mise à jour le 16 septembre 2025 La Nuit du Code est un marathon de programmation organisé pour les élèves de différents niveaux scolaires, allant du cours moyen au post-bac. Les participants, en...
L’article La Nuit du Code 2026 : Préparez vos élèves au plus grand marathon de programmation éducatif est apparu en premier sur Les Outils Tice.
Nos ordinateurs regorgent de données précieuses : photos de famille, documents professionnels, et souvenirs inestimables. Pourtant, une panne matérielle, une erreur humaine ou une cyberattaque peuvent entraîner la perte irrémédiable de ces informations. Selon une étude, 39 % des utilisateurs n’ont pas de solution de sauvegarde en place, s’exposant ainsi à des risques considérables.
Si vous sauvegardez déjà vos fichiers sur un disque dur externe ou un NAS, c’est un bon début. Cependant, ces méthodes peuvent s’avérer insuffisantes en cas de sinistre majeur, comme un incendie ou un cambriolage. Pour une protection optimale, les services de sauvegarde cloud illimitée pour PC et Mac offrent une solution fiable et sécurisée, garantissant la préservation de vos données en toutes circonstances.
Dans cet article, nous vous présentons les meilleurs services de sauvegarde en ligne illimitée pour 2025, afin de vous aider à choisir la solution la mieux adaptée à vos besoins et assurer ainsi la sécurité de vos informations numériques.
Ces services proposent un service de sauvegarde illimité dans le cloud de tous vos documents stockés sur votre ordinateur ou des disques externes à un prix très abordable :
Carbonite offre également une sauvegarde illimitée avec plusieurs plans disponibles. Le plan Plus permet la sauvegarde des disques externes USB, tandis que le plan Prime inclut l’envoi de vos sauvegardes par transporteur en cas de perte de vos données, ce qui est particulièrement utile pour la restauration de grandes quantités de données.
Carbonite offre un stockage illimité pour un seul ordinateur par abonnement. Les utilisateurs ayant besoin de sauvegarder leurs disques externes ou nécessitant une restauration rapide via un support physique se tourneront vers les formules Plus ou Prime. Carbonite est ainsi une alternative robuste à Backblaze, même si Backblaze propose nativement certaines fonctionnalités que Carbonite réserve à ses plans supérieurs.

Livedrive est reconnu pour sa convivialité. Il propose un plan de sauvegarde de base offrant la sauvegarde illimitée dans le cloud pour Mac / PC. Il permet également la sauvegarde de plusieurs appareils et offre de nombreuses fonctionnalités supplémentaires. Comme la synchronisation de fichiers et l’accès depuis un mobile.
Livedrive est reconnu pour sa simplicité et la possibilité d’augmenter le nombre d’appareils sauvegardés selon les besoins. Pour un usage familial ou professionnel, la synchronisation multi-postes et la consultation des fichiers depuis un smartphone sont particulièrement pratiques.

Mon service préféré pour sauvegarder de 250GB à 5TB ![]()
Acronis True Image offre une combinaison de sauvegarde en ligne ET de cybersécurité. Bien qu’il ne propose pas de stockage illimité, je l’ai quand même ajouté dans ce classement des meilleures solution de sauvegarde illimité. Il permet des sauvegardes complètes de vos appareils jusqu’à 5TB comprenant le disque et l’image système, avec des fonctionnalités de sécurité avancées.
Bien qu’il ne s’agisse pas d’une solution de sauvegarde illimitée, Acronis se démarque par son aspect sécurité renforcée. Il convient parfaitement aux utilisateurs voulant à la fois protéger leur PC/Mac des menaces et disposer d’une sauvegarde locale et Cloud fiable. J’ai rédigé un article complet pour présenter Acronis True Image si tu veux en savoir plus.
J’aime beaucoup la solution Acronis que je connais parfaitement puisque je sauvegarde SysKB avec Acronis via mon hébergeur IONOS
Pour votre usage personnel vous pouvez opter pour la version Premium avec des packs de 1 à 5TB. Si vous n’avez pas plus de 5TB à sauvegarder Acronis répondra donc à vos attentes pour un coût inférieur à une solution illimitée. Notez enfin que Acronis True Image permet aussi de sauvegarder des VPS ou vos données M365.


Backblaze propose une sauvegarde illimitée pour un ordinateur à un tarif compétitif. Il se distingue par sa simplicité d’utilisation et sa capacité à sauvegarder automatiquement tous les fichiers. Y compris ceux des disques externes connectés. De plus, Backblaze offre des options de restauration flexibles. Notamment l’envoi de vos données sur une clé ou un disque USB en cas de perte de vos données.
Backblaze a longtemps été considérée comme la meilleure offre de sauvegarde de poste de travail. Ceci grâce à son rapport qualité-prix et sa transparence. Malheureusement les prix ne cessent d’augmenter années après année chez Backblaze alors qu’il est impossible de sauvegarder son NAS.

La où les autres solutions comme Backblaze, Carbonite ou Livedrive permettent la sauvegarde illimitée sur un seul appareil par abonnement, IDrive se démarque et permet de sauvegarder un nombre illimité de dispositifs. En revanche l’espace de stockage n’est pas illimité mais facturé par pallier de 5 TB, 10TB, 20 TB, 50 TB et même 100 TB. Le choix de cette offre dépendra donc de votre nombre d’ordinateur et de la volumétrie globale à sauvegarder. Si vous n’avez qu’un seul PC l’offre est pertinente jusqu’à 5 TB. IDrive offre des fonctionnalités intéressantes. Notamment la synchronisation multi-appareils, la sauvegarde mobile et la rétention de versions, conservant jusqu’à 30 versions de chaque fichier sauvegardé.
IDrive n’est pas illimité, mais se facture en fonction du volume total de stockage souhaité. Cela peut être très avantageux si vous avez plusieurs ordinateurs à sauvegarder et ne dépassez pas le quota souscrit. C’est donc une solution plus flexible pour les utilisateurs multi-appareils. Avec une excellente réputation dans le domaine de la sauvegarde sur le Cloud.

En explorant ces options, vous pourrez déterminer le service de sauvegarde cloud le mieux adapté à vos besoins spécifiques, garantissant ainsi la sécurité et l’accessibilité de vos données en toutes circonstances.
Carbonite et LiveDrive sont les 2 meilleures solutions de sauvegarde illimitée dans le Cloud de ce classement. J’ai une préférence personnelle pour Carbonite pour sa simplicité et son tarif de base attractif.
Il faut également préciser que d’un point de vue réseau Carbonite est extrêmement performant. La sauvegarde initiale de tous vos fichiers dans le cloud est une tâche immense. Elle prendra du temps si vous avez plusieurs TB à sauvegarder. Carbonite progresse très vite car il commence par les fichiers les plus petits, ce qui est plutôt une bonne approche à mon sens.

Les mots clés de l’article : Sauvegarder son PC, Sauvegarder son Mac, Sauvegarde sur le Cloud / EndPoint Backup Solution / Sauvegarde en ligne / Meilleures solutions de sauvegardes illimitées pour ordinateurs personnels / Backblaze / IDrive / Acronis True Image / Mozy / Crashplan / CommVault EndPoint / Veeam Backup / SOS Online Backup / Carbonite / Protection des données / Ransomwares
Cet article original intitulé Top 5 des meilleurs services de sauvegarde cloud illimitée pour PC et Mac pour 2026 a été publié la première sur SysKB.
Un chouette billet de blog de Julie qui reprend ses études en M2 de sociologie.
J'ai hâte de lire la suite !
Petits rappel de base sur les milliardaires qui essaie de monter le reste de la population les un contre les autres pour que l'on ne regarde pas tout ce que les milliardaire nous volent.
Une autre manière de le dire : https://bsky.app/profile/wearthepeace.bsky.social/post/3lxu5djik2s2o
Deux siècles ont suffi à l’humanité pour dérégler le climat et enclencher une hausse des températures aux effets potentiellement dramatiques. Dans ce format visuel, « Le Monde » retrace cette évolution et les mécanismes à l’œuvre dans ce bouleversement.
Entre T-shirts personnalisés, casquettes uniques et textiles customisés, la presse à chaud VEVOR 2-en-1 promet de transformer vos idées en créations concrètes. Compacte, équipée d’une plaque de 38 x 38 cm et d’un module pour casquettes, elle vise à séduire aussi bien les makers, les autoentrepreneurs, les fablabs ou associations en quête d’une solution abordable […]
Cet article Test presse à chaud VEVOR 2-en-1 : personnalisation de T-shirts et casquettes a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....
Windows 10 arrive en fin de support dans moins de deux mois, est-ce qu'il faut cesser de l'utiliser dès le premier jour hors-support ? Dans le cas contraire, que peut-on faire pour en améliorer la sécurité si on souhaite le garder encore un moment ?
Un guide de sécurisation et de maximisation de la vie privée sur Android, tout en gardant un équilibre entre utilisabilité du système et protection trop contraignante à l'usage.
Réflexion issue d’une discussion sur le Discord de Cuistops concernant le fait que Talos pourrait ne pas être le meilleur point de départ pour s’attaquer à cette technologie d’infrastructure qui a balayé le monde de l’orchestration de containers en une petite dizaine d’années. Pour illustrer pourquoi il n’y a pas de réponse absolue à cette question, je me suis dit que vous décrire mon parcours concernant l’univers des containers et Kubernetes en particulier (aussi bien au niveau perso que pro) serait éclairant sur certains points.
Le moins qu’on puisse dire, c’est que mon entrée dans l’univers des containers, en particulier via docker, n’était pas brillante. Je conserve avec malice le premier billet que j’ai consacré à ce sujet en 2016 pour illustrer à quel point je me trompais sur la technologie, que je n’avais jusque là pas vraiment vu, encore moins au niveau professionnel. J’ai heureusement rattrapé cette erreur depuis, aussi bien à la faveur de formations au travail (merci Thomas Perelle
) qu’au niveau perso, où mes propres expérimentations m’ont conduit à partager ma découverte et mon utilisation de Docker Swarm. J’ai bien rattrapé le coup, hein ?
D’ailleurs, Swarm a été pour moi la découverte de la notion d’orchestration. Que j’ai pu creuser cette fois au niveau pro en 2018 après un premier tout petit pas vers l’univers Kubernetes par la porte OpenShift à la faveur d’un workshop de deux jours par un collègue qui sera réellement un mentor pour les années suivantes, Julien Francoz. Je n’ai malheureusement pas gardé grand chose de ce workshop, étant donné que je n’avais aucune plateforme de ce type dans mon pôle client, encore moins de Kubernetes. Tout juste on commençait à avoir des clients qui cherchaient à déployer leurs applis en mode container sur des serveurs classiques, avec Docker. Sans pratique, la théorie s’efface vite, d’autant qu’en 2018, les usages « domestiques » n’étaient pas légion, donc les articles de blog non plus, encore moins autour d’Openshift. C’est en 2019 que tout change.
Je vous passe le contexte de comment j’en suis arrivé à cette situation intense qui aura duré 5 mois, mais oui, j’ai découvert Kubernetes d’une façon un peu particulière : service cloud managé, sur Azure, el famoso « AKS« , à devoir migrer des applications précédemment hébergées sur des serveurs virtuels Debian dépassés, avec un cluster déployé manuellement qu’on a tenté de « terraformer » après-coup, avec toute la « qualité » de l’API d’Azure d’alors. Et je remercie encore Julien d’avoir pris autant de temps à me soutenir dans cet apprentissage express (la notion de mentor n’était pas galvaudée, clairement).
Service cloud Managé veut dire qu’on ne gère pas certains aspects importants de la vie d’un cluster : tout le control plane est masqué, vous ne voyez que les nœuds, vous ne vous occupez pas trop de certains aspects comme la rotation des certificats, les mises à jour sont automatisées (vous indiquez une version cible, le service s’occupe de la montée de version du control plane, puis des nœuds un par un), et vous bénéficiez d’intégrations avec le reste de l’infra du fournisseur, au niveau du réseau, du stockage, des capacités comme l’autoscaling (vous augmentez et réduisez automatiquement le nombre de nœuds en fonction de la charge ou des réservations de ressources des pods à déployer). L’installation se fait en trois/quatre clics via l’interface web, une ligne de commande avec l’utilitaire maison, ou un peu plus de lignes de code si on le fait via un outil d’infrastructure as code.
Bref, c’est cool, ça permet de se concentrer sur les aspects opérationnels des applications déployées, mais même comme ça, je vous avoue que AKS tel que Microsoft le proposait n’était pas toujours une sinécure. Azure lui-même était pénible, avec des VMs qui mettaient plusieurs minutes à démarrer (quand les concurrents tournaient autour de la minute). Et comme on ne gère pas le control plane, on rate tout un pan de l’architecture et de la gestion de Kubernetes et de ses composants sous-jacents. En plus à l’époque, l’image de l’OS utilisé pour les nœuds était basée sur Ubuntu, pas le plus léger et le « gaspillage » de ressources était réel, au-delà de Kubernetes lui-même.
J’aurais l’occasion de passer encore quelques années, pratiquement trois, à déployer d’autres projets AKS pour d’autres clients, ce qui m’a permis de constater, il faut savoir aussi le reconnaitre, comment Microsoft a cravaché pour amener un niveau de qualité sur le service bien plus en phase avec ce qu’on attend d’un tel fournisseur. Rotation automatique des certificats via les mises à jour (c’était pas le cas, la commande de rotation était à lancer à la main), amélioration générale d’Azure sur les temps de démarrage des nœuds, efficacité des mises à jour, intégrations avancées au niveau réseau (Calico, Istio, etc)… Ce qui n’empêche pas certains pains avec entre autres une API qui accepte certaines valeurs pourtant non supportées et qui m’ont forcé à redéployer des clusters from scratch parce que la communication entre les nœuds étaient devenue impossible (réponse du support : « on va mettre à jour la doc pour indiquer les valeurs supportées »; bravo…). Par la suite, j’ai découvert et encore plus adoré exploiter et déployer du GKE, le service équivalent de Google Cloud; il m’aura permis au passage d’apprendre comment fonctionnait ce fournisseur et tout ce qu’il fait de mieux que Microsoft (et parfois d’AWS). Au point de passer la certification « Professional Architect » au bout de 4 mois seulement de pratiques.
Cette expérience en particulier avec Azure ne m’aura pas empêché pas de tomber amoureux de la technologie, au point de remiser Docker Swarm, et de migrer sur K3S. Là aussi un choix particulier, conçu pour les machines très légères, puisque ciblant les Raspberry Pi, j’ai malgré tout fait le déploiement du flemmard, même si j’ai privilégié un déploiement semi-automatisé avec un playbook/role Ansible, et un seul nœud comme control plane (qui était le seul mode de déploiement supporté alors).
Particularité de k3s, regrouper tous les composants « core » de Kubernetes dans un seul binaire, une petite prouesse à la base de son empreinte mémoire réduite, mais pas que : un des éléments les plus critiques d’un cluster, la base de données ETCD, la « mémoire » du cluster, est remplacée par SQlite, bien plus léger, mais évidemment limité à une seul nœud, et moins enclin aux problèmes des bases de données plus complexe. Bien que le mode « multi-master » ait été implémenté par la suite, au passage à mes Raspberry Pi 4, j’ai quand même conservé le même mode de fonctionnement. J’ai eu l’occasion de détailler pas mal de choses concernant K3S sur ce blog, je ne vais donc pas m’étendre beaucoup plus.
Reste qu’à l’occasion d’une volonté de refonte, accélérée par la mort successive des cartes SD des Raspi après 4 ans de bons et loyaux services, j’ai décidé de revenir à un Kubernetes un peu moins simplifié, en partant sur un autre choix particulier, Talos Linux, qui aura fini en machine virtuelle suite à une déconvenue de matériel et de limitations électriques, que je me suis pris en pleine poire en plein live Twitch. Talos propose un déploiement Kubernetes beaucoup plus standardisé dans ses composants de base, mais dont la gestion des nœuds est très particulière : pas d’OS à proprement parler, juste le noyau et une API qui permet de pratiquer toutes les opérations sur la gestion de ces nœuds : pas de SSH, pas de CLI directe, l’utilitaire talosctl est là pour configurer les nœuds à l’envi, permettant de les ajouter/retirer d’un cluster en un clin d’œil, un aspect très important dans une gestion d’infrastructure au sens large (comprendre, en entreprise). Toute la configuration de base se fait au travers de fichiers de configuration YAML, à l’instar de Kubernetes lui-même, permettant une approche « intégration continue » et un versionnement via git.
Actuellement, je me débats avec certains paramétrages par défaut orientés sécurité entre autres qui peuvent limiter/bloquer certains usages sans attention particulière. Il est vrai que par défaut, Kubernetes est une plateforme particulièrement ouverte avec peu de gardes-fous, et c’est à chacun d’adapter cet aspect en fonction de son propre contexte, ce qui amène à devoir exploiter nombre d’extensions et contrôleurs additionnels pour y parvenir. Et comme souvent, la sécurité à un prix…
On le voit, au final je n’ai que peu choisi comment j’ai découvert et abordé la technologie et son déploiement « dans le monde réel », et j’ai démarré par certaines abstractions qui font que si je m’étais retrouvé face à un cluster « vanilla » (kubeadm, kubespray), et un problème lié au control plane, j’aurais été plus en peine que quelqu’un ayant directement attaqué « the hard way » (z’avez la ref ?). Et d’un certain côté c’est certainement encore le cas encore aujourd’hui, ce qui me vaudrait d’être recalé au recrutement chez Lucca ou Enix. Le livre à venir teasé par Denis Germain (qui ne s’appellera pas 50 Nuances de Kubernetes, ce qui aurait été bien trop cool comme titre) montre bien la diversité d’approches qui ont chacune leurs spécificités, avec la plupart des services dit « managés » abstrayant une bonne partie des composants et concepts de bas-niveau pour vous concentrer sur vos applications ou celles de vos clients.
Est-ce que l’une d’elles est meilleure qu’une autre ? Je considère toujours que la théorie est importante, jusqu’à un certain point, dans la mesure où si on n’a pas de le contrôle sur les éléments, ne pas savoir comment ils fonctionnent de manière sous-jacente n’est pas toujours une grosse tare : ce n’est pas de notre ressort que d’y mettre les mains. Imaginez une corruption de base ETCD sur un service managé. Ma seule préoccupation sera d’être capable éventuellement de restaurer tout ce que j’y ai mis au départ – mes déploiements d’applications, mes secrets, mes CRDs, etc- , là où la préoccupation du provider, sera de réparer cette corruption; dans le pire des cas, s’il n’aura pas été capable de restaurer le service avec un minimum de pertes, il s’agira de restaurer tout ça sur un nouveau cluster.
Nous vivons également dans un monde connecté à la plus grande base de connaissances du monde : Le Web. Je n’ai pas besoin de connaitre l’intégralité des arcanes du moindre bout de logiciel, quelque soit son niveau dans l’environnement où j’évolue, pour être capable de l’exploiter au quotidien, voire de le réparer. Les connaissances déjà acquises sont évidemment importantes, parce qu’elles permettent de définir un état d’esprit, un mode de réflexion, qui est la plupart du temps applicable aux autres technologies que vous rencontrerez. Mais si je rencontre un problème que je n’ai pas déjà vu par le passé, une recherche sur le web m’amène généralement soit à la solution, soit à une piste à creuser pour déterminer la cause. Dès lors, il n’y a pas de réponses simples à apporter à la question « par où démarrer », parce qu’elle peut dépendre aussi de la « fin ».
Faire un cluster à la mano avec tous les composants en mode « the hard way » ne sert pratiquement à rien si après on évolue dans un contexte de service managé. À l’inverse, un service managé est intéressant en ce sens qu’il permet de gérer les interactions avec d’autres services du fournisseur, et donc le mode de fonctionnement de celui-ci. Sur Kube lui-même vous manquez des choses, mais vous avez quand même pas mal de concepts à intégrer. Est-ce moins pertinent ? Pas forcément si c’est ce que vous manipulez tous les jours. Dans le même esprit, « the hard way » est probablement la pire méthode pour gérer le quotidien sur de l’infra qu’on gère, même si pour le coup on a toutes les tripes du cluster sur la table. On privilégiera donc très vite d’autres outils plus automatisés pour la gestion habituelle. N’est-ce pas tout aussi pertinent de démarrer directement avec ces solutions pour intégrer plus rapidement leurs concepts ?
Par où commencer Kubernetes ? J’ai envie de dire, par la solution qui vous rendra curieux. C’est tout le sel de l’apprentissage, comme de la recherche scientifique, où chaque réponse qu’on trouve amène d’autres questions, tout aussi passionnantes. D’autant plus que quand on démarre, on est amené à faire, défaire, refaire, à comparer. Notre univers informatique au sens large bouge tout le temps, la « galaxie » Kubernetes n’est pas en reste, il y a toujours des dizaines d’angles d’attaque possible, et à de très rares exceptions près, il n’y en a pas nécessairement une qui est plus mauvaise qu’une autre. Et d’autres apparaitront régulièrement, ce qui représente de nouvelles réponses possibles à cette question. Il ne faut pas avoir peur de se faire plaisir de différentes manières ![]()

Just a quick blog post about Wordpress configuration, mostly as a reminder to myself.
If you manage a public website, you probably want it to include some HTML metadata: it is important for referencing your website in search engines, as well as to provide a nice "preview miniature" on social …
Parmi les 34 saints originaux, au moins trois ont acquis une grande popularité dans l’Europe médiévale : sainte Eugénie, sainte Euphrosyne et saint Marinos. Tous trois sont nés femmes, mais se sont coupé les cheveux et ont revêtu des vêtements masculins pour vivre comme des hommes et entrer dans des monastères.
Donc il y a 3 saintes qui se sont travesties pour entrer dans des monastères réservés aux hommes... Rien n'indique qu'elles se considéraient comme des hommes. Potentiellement elles se faisaient passer pour des hommes afin d'avoir les mêmes droits qu'eux, comme entrer dans un monastère...
Mais citons le résumé de l’œuvre sur laquelle s'appuie l'article :
In this book, the author explores medieval society's fascination with the cross-dressed woman. The author examines a wide variety of religious, literary, and historical sources, which record interpretations of sartorial attempts to overcome gender hierarchy and also illustrate, mainly through the device of inversion, a remarkably sustained desire to examine and reexamine the nature of social gender identities.
Que l'on peut traduire par :
Dans ce livre, l'auteur explore la fascination de la société médiévale pour la femme travestie. L'auteur examine une grande variété de sources religieuses, littéraires et historiques, qui enregistrent des interprétations de tentatives vestimentaires visant à surmonter la hiérarchie des sexes et illustrent également, principalement par le biais de l'inversion, un désir remarquablement soutenu d'examiner et de réexaminer la nature des identités sociales de genre.
Donc il faut surmonter la hiérarchie des sexes "bien connu". Le patriarcat ayant été un standard dans l'histoire sans discussion possible apparemment. Ensuite, il y a interprétation, rien n'indique qu'à l'époque on souhaitait "examiner la nature des identités sociales de genre" (si tant est qu'une telle chose existe).
Je vais me commander le livre, mon a priori étant, comme toute cette soupe anglo-saxonne depuis une décennie, qu'il s'agit d'un ouvrage totalement orienté politiquement et qui déforme le passé pour servir un propos.
Sûrement encore une tentative idéologique de réécrire l'histoire, de projeter sa propre morale chronocentrée afin de légitimer le présent et influencer l'avenir.
La plateforme des pétitions de l'Assemblée nationale permet aux citoyens d'adresser des pétitions à l'Assemblée nationale et de signer des pétitions déjà déposées.
Je m’oppose donc à la Loi Duplomb.
Par cette pétition, je demande :
- Son abrogation immédiate ;
- La révision démocratique des conditions dans lesquelles elle a été adoptée ;
- La consultation citoyenne des acteurs de la santé, de l’agriculture, de l’écologie et du droit.
Je garde ça sous le coude.
via @Brihx
— Permalink