Vous sprintez dans Maintenance avec le HUD qui clignote et un représentant de Traxus qui vous attend à l’autre bout du contrat. J’ai observé la porte verrouillée pendant un moment, pesant l’option d’une approche bruyante contre un piratage patient. Soit vous obtenez les explosifs et terminez le travail, soit vous revenez les mains vides. La […]
Le match s’est terminé avec un clang métallique et mon écran s’est rempli de rouge—puis tout le monde dans le chat de l’équipe a commencé à taper la même plainte. Je me suis adossé et j’ai ressenti ce petit soulagement tendu que vous ressentez lorsqu’un développeur écoute réellement. À midi, les premières notes de patch […]
Je me souviens de la première fois où je me suis faufilé sur la passerelle de Bio-Recherche : un seul faux pas et toute la course s’effondre. Vous pouvez sentir la carte se compresser autour de cet objectif : prendre l’échantillon, l’analyser, s’en aller. Je vais vous guider à travers une course unique et fiable […]
De longues années de développement pour réinventer un mythe de 1994 : voilà la tâche qu'avait Bungie avec Marathon. Le jeu promettait de bouleverser les codes de l'extraction shooter. Pourtant, après l'excitation des premiers lancements et une bonne vingtaine d'heures de jeu au compteur, l'enthousiasme initial laisse place à une pointe de désillusion.
🔩 Like builtins, but boltons. 250+ constructs, recipes, and snippets which extend (and rely on nothing but) the Python standard library. Nothing like Michael Bolton. - mahmoud/boltons
J’ai quitté la crête et j’ai regardé un camion diesel s’installer dans le marais comme un lent battement de cœur. Vous sentez la carte se resserrer : un camion manqué et la faction n’acceptera pas votre fret. J’ai parcouru cet itinéraire jusqu’à ce que les arrêts soient de la mémoire musculaire ; suivez ces étapes […]
Vous atterrissez dans le Périmètre avec un contrat clignotant dans votre inventaire. J’ai vu un petit terminal sur un balcon d’Overflow passer de l’état inactif à occupé dès que je l’ai touché. Manquez ce terminal et la chaîne Selection Pressures 2 reste obstinément bloquée devant vous. J’ai effectué cette tâche NuCaloric suffisamment de fois pour […]
"Can it run DOOM?" est depuis les années 90 le test de Turing officieux de n'importe quel support informatique. Calculatrices, imprimantes, tondeuses à gazon, tests de grossesse, tout y est passé ! Cette semaine, une startup australienne a répondu à cette question ultime avec... des neurones humains vivants. Pong, c'était de l'échauffement Cortical Labs n'en […]
J’ai lancé Marathon le premier jour, cliqué sur le Pass de Récompenses, et senti la pièce se faire silencieuse. D’autres joueurs publiaient déjà des captures d’écran et des plaintes sur Reddit—en colère, perplexes et étrangement résignés. Les chiffres de lancement brillaient sur Steam ; le pass, lui, non. Steam et le nombre de joueurs dressent […]
Je suis tombé dans le Marais Sinistre avec mon HUD clignotant et mon pouls audible par-dessus les communications. Vous pouvez sentir le compte à rebours de l’événement se resserrer au moment où le Confinement commence, et un Pack Anti-Virus inutilisé semble criminel. Ce petit consommable était ma bouée de sauvetage dans la tempête, et le […]
Je me suis faufilé à travers le Contrôle Aérien avec mon pouls accordé au marqueur d’objectif. Le deuxième étage sentait l’ozone et les vieilles conversations radio ; quelqu’un m’avait déjà devancé sur la moitié du parcours. Au moment où j’ai trouvé le Transpondeur, la course me semblait inévitable. J’ai fait Truth/Lies 1 suffisamment de fois […]
SunFounder m’a envoyé cette carte PiPower 5 pour la tester sur le Raspberry Pi. Il s’agit d’une UPS (Uninterruptible Power Supply), c’est-à-dire d’une alimentation secourue : en cas de coupure du secteur, la batterie prend le relais pour éviter un arrêt brutal du système. La PiPower 5 sert donc à protéger la carte, la carte […]
iCloud, c'est sympa pour stocker vos photos et vos documents... jusqu'au jour où comme moi, vous décidez de vous barrer. Parce que récupérer vos 200 Go de fichiers en masse depuis le cloud d'Apple (plusieurs To pour moi), c'est pas vraiment ce qu'il y a de plus simple (genre, y'a pas de bouton "tout télécharger"). J'ai bien essayé de demander un export de mes datas à Apple et pour la partie iCloud Drive, j'ai juste eu des espèces de CSV bizarres mais pas mes documents.
Heureusement, pour s'extraire des griffes de l'entreprise de Cupertino, y'a un outil Python parfait pour ça.
iFetch
, c'est un utilitaire en ligne de commande qui va se connecter à votre compte iCloud Drive et tout rapatrier en local. Le truc gère la 2FA (parce que bon, en 2026, si vous n'avez pas de 2FA activée quand c'est possible, vous méritez d'être envahi de puces de lit), les téléchargements parallèles avec 4 workers par défaut, et surtout les updates différentiels.
En gros, seuls les morceaux de fichiers qui ont changé sont re-téléchargés, du coup, sur un dossier de 50 Go déjà synchro, ça passe en quelques secondes au lieu de tout re-pomper. Et si ça plante au milieu, pas de panique, l'outil reprend là où il s'est arrêté grâce à un système de checkpointing.
Y'a aussi un truc malin, c'est le système de profils. Vous créez un fichier JSON avec des règles d'inclusion et d'exclusion, genre "tous les PDF du dossier Documents sauf ceux du dossier Private" et hop, en une commande et c'est plié.
Le support des dossiers partagés est aussi de la partie (le fameux --list-shared), y'a un système de plugins pour ceux qui veulent étendre le bazar, et même un historique de versions avec rollback automatique. Pas mal pour un outil libre !
Pour l'installer, après c'est du classique. Virtualenv Python, pip install pyicloud tqdm requests keyring, et vous stockez vos identifiants via icloud --username=votre@email.com qui balance tout ça dans le trousseau système (Keychain sur macOS, libsecret sur Linux). D'ailleurs, si vous êtes du genre à
sauvegarder vos dotfiles dans iCloud
, c'est l'outil parfait pour faire le chemin inverse.
...et ça mouline !! Vous pouvez même monter jusqu'à 8 workers pour aller plus vite (--max-workers=8), configurer les retries (--max-retries=5) ou juste lister le contenu sans rien télécharger avec --list. Attention, si vous avez des noms de fichiers avec des caractères spéciaux (genre des accents ou des espaces... merci macOS, groumpf), vérifiez bien que tout est passé après le transfert.
Alors oui, c'est CLI only, donc oubliez l'interface graphique. La doc mériterait un petit coup de polish et surtout, si votre session 2FA expire en plein transfert... faut relancer l'auth. Ça casse pas le téléchargement en cours, mais bon, c'est un peu "chiant".
Bon au final, pour un projet open source sous licence MIT, c'est plutôt du solide. Et si vous voulez
chiffrer vos sauvegardes
une fois récupérées en local, y'a des solutions pour ça aussi.
Bref, c'est simple, ça fait le job et c'est gratuit. Que demande le peuple à part du matos Apple moins cher, lool ?
Marathon, le nouveau jeu de Bungie, vous donne envie, mais son genre vous refroidit, voire vous rebute franchement ? « Extraction shooter » ? Euh, non merci. « Jeu multi sans solo » ? Très peu pour moi. J'étais moi aussi dans ce vilain état d'esprit, pétri de tristesse et d'amertume, mais j'ai tout de même sauté le pas il y a quelques jours. Et je ne le regrette pas.
Ansible, c'est bien. Mais du YAML à perte de vue pour configurer trois serveurs c'est pas non plus l'idéal. Hé bien ça tombe bien car y'a maintenant
pyinfra
, qui fait tout pareil sauf qu'on écrit du Python. En gros, votre script de déploiement c'est juste du code Python normal avec des imports, des boucles, des conditions... tout ça, tout ça...
Ce projet existe depuis 2014, il est sous licence MIT et côté perfs, c'est de ce que j'ai lu, jusqu'à 10 fois plus rapide qu'Ansible sur des déploiements massifs (genre plusieurs milliers de machines). Bon, sur le papier c'est bien, mais en fait ça dépend surtout de votre infra SSH et de la latence réseau.
Alors ça marche comment ?
Hé bien vous installez le bazar avec uv tool install pyinfra et hop, vous pouvez déjà lancer des commandes sur vos serveurs comme ceci :
Ça fonctionne en SSH sur le port 22, sur des conteneurs Docker, ou même en local. Le truc est complètement agentless, du coup pas besoin d'installer quoi que ce soit sur les machines cibles. Suffit d'un accès shell POSIX tout ce qu'il y a de plus classique et c'est réglé.
Bon, ça c'est pour l'ad-hoc mais en fait le vrai kiff, ce sont les opérations déclaratives. Je vous montre... Vous créez un fichier deploy.py et dedans, vous mettez ça :
from pyinfra.operations import apt, systemd
apt.packages(
name="Install nginx",
packages=["nginx"],
)
systemd.service(
name="Ensure nginx is running",
service="nginx.service",
running=True,
enabled=True,
)
C'est du bon vieux Python sans DSL bizarre (Domain-Specific Language), pas d'indentation YAML qui vous pète entre les doigts à 3h du mat parce qu'il manque un espace. Et si vous voulez une boucle ? bah for. Une condition ? bah if. Ou encore importer
boto3 pour causer avec AWS
depuis votre Debian 12 ? No problemo !
Et pour cibler vos machines, suffit de créer un fichier inventory.py comme ceci :
Puis ensuite un petit : pyinfra inventory.py deploy.py et c'est parti mon kiki. L'outil gère le parallélisme sur 50 serveurs, les diffs (pour voir ce qui va changer AVANT d'appliquer), et le mode dry-run pour les plus prudents.
Côté intégrations, ça cause avec Terraform, Docker, Vagrant... et comme c'est du Python, vous avez accès à tout l'écosystème. Genre, vous voulez checker l'état d'une API avant de déployer ? Un import requests et c'est plié. La doc sur
docs.pyinfra.com
est plutôt complète, et y'a même la gestion des secrets intégrée avec variables d'environnement, fichiers chiffrés, HashiCorp Vault ou AWS Secrets Manager.
Ça tourne depuis Linux et macOS (et Windows via WSL), mais les cibles doivent être des systèmes POSIX donc pas de déploiement natif sur Windows. Et si votre inventaire contient 3 000 machines avec des configs SSH différentes... bon courage pour le debug en cas de souci (le mode -vvv aide, mais bon...).
Bref, si vous en avez marre du YAML et que Python c'est votre truc, allez jeter un oeil.
Un canal présenté comme "CVE Exchange" diffuse vulnérabilités, PoC et contenus offensifs. Quand un malveillant ouvre un espace pour faciliter les attaques.
Tout récemment, je voulais utiliser un module RFM69 sur un Compute Module 5 (autrement dit l'équivalent d'un Raspberry-Pi 5) faisant fonctionner un logiciel écrit Python.
Une API MicroPython sous Python
Ecrivant de nombreux pilotes pour MicroPython (Python pour MicroContrôleur), je me suis dit qu'il devait être possible de réutiliser le code MicroPython du RFM69 sous Python sans devoir réécrire tout-ou-une-partie du code pour qu'il fonctionne sur Raspberry-Pi.
Le problème, c'est que Python n'a aucune idée de ce qu'est l'API MicroPython (celle utilisée par MicroPython pour accéder directement à la couche matérielle).
Il existe cependant des moyens d'accéder au matériel depuis Python mais c'est sans aucun rapport avec l'API exposée MicroPython.
L'idée c'est de recréer l'API MicroPython sous Python pour permettre l'utilisation du RFM69 depuis Python:
Ajouter les déclarations d'encodage (nécessaire à Python)
L'image ci-dessous se présente le module RFM69HCW 433MHz . Ce module permet de transmettre des données sur un réseau numérique utilisant le ondes-radios comme medium de transfert. C'est un peu le protocole internet appliqué à la radio.
Comme le Pilote est développé sous le précepte "Plateform Agnostic Driver" de sorte à pouvoir fonctionner indépendamment de la plateforme MicroPython cible.
Les connexions suivantes sont établies entre le module RFM69 et le GPIO Raspberry-Pi.
La broche CS (chip select) est branchée sur le GPIO 25 alors qu'il existe les broches CE0 (GPIO8) et CE1 (GPIO7).
Le problème ici est que CE0 et CE1 sont automatiquement gérés par le système d'exploitation alors que sous MicroPython, c'est le code utilisateur qui gère l'état du signal CS.
Dans le cas présent, la gestion automatique de CE0 et CE1 empêche l'utilisation du burst_read sur le module RFM69 raison pour laquelle le GPIO25 est utilisé comme signal CS (ce signal étant contrôlé par le code utilisateur).
Récupérer l'exemple test_config.py utilisé pour tester la communication avec le module RFM69. Nous y ajoutons également l'information d'encodage dans le fichier.
Couche de compatibilité Python --> MicroPython
Création des fichiers machine.py et micropython.py pour accueillir les classes Pin & SPI ainsi que la déclaration de la fonction const()
Le script le plus intéressant est hack_time.py car celui-ci permet d'ajouter les fonctions MicroPython (ticks_ms, ticks_diff, sleep_ms, etc) manquantes dans Python.
Il ne reste plus qu'a adapter le script d'exemple pour créer l'instance du bus SPI (sur le RPi) et passer le tout à la bibliothèque MicroPython originale.
#!/usr/bin/python
# -*- coding: utf-8 -*-
from machine import SPI, Pin
import hack_time
from rfm69 import RFM69
# Machine.py for Raspberry-Pi 5
spi = SPI( 0 )
nss = Pin( 25, Pin.OUT, value=True ) # Do not use the RPI CE0/CE1, it is not compatible with the Burst_Read of RFM69
rst = Pin( 18, Pin.OUT, value=False )
rfm = RFM69( spi=spi, nss=nss, reset=rst )
rfm.frequency_mhz = 433.1
....
Le bus SPI est rattaché au bus matériel SPI0 & CE0.
Une broche Enabled (nss) alternative est utilisé avec le GPIO25 pour contrôler les transactions du bus SPI. La broche CE0 du GPIO est donc ignorée.
Enfin, le GPIO 10 est utilisé pour réinitialisé le module RFM69.
Au final, la création de l'instance RFM69 et le restant du code (y compris la bibliothèque RFM69) est identique entre MicroPython et Python (sur RPi5).
L'exécution de l'exemple sur le Raspberry-Pi 5 produit le résultat attendu (identique lorsqu'il est exécuté sur un Pico).
test_config.py : exécution de la bibliothèque MicroPython RFM69 sur Raspberry-Pi 5
Ressources
MicroPython-API-for-Python experiment is published on GitHub.