Vue normale

Fournitures explosives dans Marathon : Guide d’entretien occidental (ROI 2)

13 mars 2026 à 20:08

Vous sprintez dans Maintenance avec le HUD qui clignote et un représentant de Traxus qui vous attend à l’autre bout du contrat. J’ai observé la porte verrouillée pendant un moment, pesant l’option d’une approche bruyante contre un piratage patient. Soit vous obtenez les explosifs et terminez le travail, soit vous revenez les mains vides. La […]

Le post Fournitures explosives dans Marathon : Guide d’entretien occidental (ROI 2) est apparu en premier sur Moyens I/O.

Le premier patch post-lancement de Marathon nerf une IA difficile ; d’autres correctifs arrivent bientôt

13 mars 2026 à 14:32

Le match s’est terminé avec un clang métallique et mon écran s’est rempli de rouge—puis tout le monde dans le chat de l’équipe a commencé à taper la même plainte. Je me suis adossé et j’ai ressenti ce petit soulagement tendu que vous ressentez lorsqu’un développeur écoute réellement. À midi, les premières notes de patch […]

Le post Le premier patch post-lancement de Marathon nerf une IA difficile ; d’autres correctifs arrivent bientôt est apparu en premier sur Moyens I/O.

Analyse d’échantillons de contagion dans Marathon : Guide des pressions de sélection 4

12 mars 2026 à 23:00

Je me souviens de la première fois où je me suis faufilé sur la passerelle de Bio-Recherche : un seul faux pas et toute la course s’effondre. Vous pouvez sentir la carte se compresser autour de cet objectif : prendre l’échantillon, l’analyser, s’en aller. Je vais vous guider à travers une course unique et fiable […]

Le post Analyse d’échantillons de contagion dans Marathon : Guide des pressions de sélection 4 est apparu en premier sur Moyens I/O.

On a joué 20 heures à Marathon : l’extraction shooter de Bungie semble déjà à bout de souffle

12 mars 2026 à 10:55

De longues années de développement pour réinventer un mythe de 1994 : voilà la tâche qu'avait Bungie avec Marathon. Le jeu promettait de bouleverser les codes de l'extraction shooter. Pourtant, après l'excitation des premiers lancements et une bonne vingtaine d'heures de jeu au compteur, l'enthousiasme initial laisse place à une pointe de désillusion.

Guide contractuel marathon DCON : Échantillons inertes et données organiques (SP3)

11 mars 2026 à 23:48

J’ai quitté la crête et j’ai regardé un camion diesel s’installer dans le marais comme un lent battement de cœur. Vous sentez la carte se resserrer : un camion manqué et la faction n’acceptera pas votre fret. J’ai parcouru cet itinéraire jusqu’à ce que les arrêts soient de la mémoire musculaire ; suivez ces étapes […]

Le post Guide contractuel marathon DCON : Échantillons inertes et données organiques (SP3) est apparu en premier sur Moyens I/O.

Demande et installation des protocoles T-Scan dans Overflow (Guide Marathon SP2)

11 mars 2026 à 20:08

Vous atterrissez dans le Périmètre avec un contrat clignotant dans votre inventaire. J’ai vu un petit terminal sur un balcon d’Overflow passer de l’état inactif à occupé dès que je l’ai touché. Manquez ce terminal et la chaîne Selection Pressures 2 reste obstinément bloquée devant vous. J’ai effectué cette tâche NuCaloric suffisamment de fois pour […]

Le post Demande et installation des protocoles T-Scan dans Overflow (Guide Marathon SP2) est apparu en premier sur Moyens I/O.

Des neurones humains cultivés en laboratoire jouent à DOOM (oui, vraiment.)

11 mars 2026 à 16:37
"Can it run DOOM?" est depuis les années 90 le test de Turing officieux de n'importe quel support informatique. Calculatrices, imprimantes, tondeuses à gazon, tests de grossesse, tout y est passé ! Cette semaine, une startup australienne a répondu à cette question ultime avec... des neurones humains vivants. Pong, c'était de l'échauffement Cortical Labs n'en […]

Joueurs de Marathon dénoncent le Passe de Combat comme le Pire Rapport Qualité-Prix

11 mars 2026 à 14:08

J’ai lancé Marathon le premier jour, cliqué sur le Pass de Récompenses, et senti la pièce se faire silencieuse. D’autres joueurs publiaient déjà des captures d’écran et des plaintes sur Reddit—en colère, perplexes et étrangement résignés. Les chiffres de lancement brillaient sur Steam ; le pass, lui, non. Steam et le nombre de joueurs dressent […]

Le post Joueurs de Marathon dénoncent le Passe de Combat comme le Pire Rapport Qualité-Prix est apparu en premier sur Moyens I/O.

Comment obtenir et utiliser des packs d’antivirus dans Marathon

11 mars 2026 à 03:32

Je suis tombé dans le Marais Sinistre avec mon HUD clignotant et mon pouls audible par-dessus les communications. Vous pouvez sentir le compte à rebours de l’événement se resserrer au moment où le Confinement commence, et un Pack Anti-Virus inutilisé semble criminel. Ce petit consommable était ma bouée de sauvetage dans la tempête, et le […]

Le post Comment obtenir et utiliser des packs d’antivirus dans Marathon est apparu en premier sur Moyens I/O.

Comment pirater un transpondeur de contrôle de vol dans Marathon (Vérité/Mensonges 1)

11 mars 2026 à 01:16

Je me suis faufilé à travers le Contrôle Aérien avec mon pouls accordé au marqueur d’objectif. Le deuxième étage sentait l’ozone et les vieilles conversations radio ; quelqu’un m’avait déjà devancé sur la moitié du parcours. Au moment où j’ai trouvé le Transpondeur, la course me semblait inévitable. J’ai fait Truth/Lies 1 suffisamment de fois […]

Le post Comment pirater un transpondeur de contrôle de vol dans Marathon (Vérité/Mensonges 1) est apparu en premier sur Moyens I/O.

iFetch - L'outil pour quitter iCloud sans rien perdre

Par : Korben
9 mars 2026 à 10:34

iCloud, c'est sympa pour stocker vos photos et vos documents... jusqu'au jour où comme moi, vous décidez de vous barrer. Parce que récupérer vos 200 Go de fichiers en masse depuis le cloud d'Apple (plusieurs To pour moi), c'est pas vraiment ce qu'il y a de plus simple (genre, y'a pas de bouton "tout télécharger"). J'ai bien essayé de demander un export de mes datas à Apple et pour la partie iCloud Drive, j'ai juste eu des espèces de CSV bizarres mais pas mes documents.

Heureusement, pour s'extraire des griffes de l'entreprise de Cupertino, y'a un outil Python parfait pour ça.

iFetch , c'est un utilitaire en ligne de commande qui va se connecter à votre compte iCloud Drive et tout rapatrier en local. Le truc gère la 2FA (parce que bon, en 2026, si vous n'avez pas de 2FA activée quand c'est possible, vous méritez d'être envahi de puces de lit), les téléchargements parallèles avec 4 workers par défaut, et surtout les updates différentiels.

En gros, seuls les morceaux de fichiers qui ont changé sont re-téléchargés, du coup, sur un dossier de 50 Go déjà synchro, ça passe en quelques secondes au lieu de tout re-pomper. Et si ça plante au milieu, pas de panique, l'outil reprend là où il s'est arrêté grâce à un système de checkpointing.

Y'a aussi un truc malin, c'est le système de profils. Vous créez un fichier JSON avec des règles d'inclusion et d'exclusion, genre "tous les PDF du dossier Documents sauf ceux du dossier Private" et hop, en une commande et c'est plié.

Le support des dossiers partagés est aussi de la partie (le fameux --list-shared), y'a un système de plugins pour ceux qui veulent étendre le bazar, et même un historique de versions avec rollback automatique. Pas mal pour un outil libre !

Pour l'installer, après c'est du classique. Virtualenv Python, pip install pyicloud tqdm requests keyring, et vous stockez vos identifiants via icloud --username=votre@email.com qui balance tout ça dans le trousseau système (Keychain sur macOS, libsecret sur Linux). D'ailleurs, si vous êtes du genre à sauvegarder vos dotfiles dans iCloud , c'est l'outil parfait pour faire le chemin inverse.

Côté utilisation, c'est super sobre :

python ifetch/cli.py Documents/Photos ~/Downloads/icloud-photos

...et ça mouline !! Vous pouvez même monter jusqu'à 8 workers pour aller plus vite (--max-workers=8), configurer les retries (--max-retries=5) ou juste lister le contenu sans rien télécharger avec --list. Attention, si vous avez des noms de fichiers avec des caractères spéciaux (genre des accents ou des espaces... merci macOS, groumpf), vérifiez bien que tout est passé après le transfert.

Alors oui, c'est CLI only, donc oubliez l'interface graphique. La doc mériterait un petit coup de polish et surtout, si votre session 2FA expire en plein transfert... faut relancer l'auth. Ça casse pas le téléchargement en cours, mais bon, c'est un peu "chiant".

Bon au final, pour un projet open source sous licence MIT, c'est plutôt du solide. Et si vous voulez chiffrer vos sauvegardes une fois récupérées en local, y'a des solutions pour ça aussi.

Bref, c'est simple, ça fait le job et c'est gratuit. Que demande le peuple à part du matos Apple moins cher, lool ?

Merci à Lorenper pour le lien !

Je ne suis pas un joueur multi, mais j’ai adoré Marathon

8 mars 2026 à 18:31

Marathon, le nouveau jeu de Bungie, vous donne envie, mais son genre vous refroidit, voire vous rebute franchement ? « Extraction shooter » ? Euh, non merci. « Jeu multi sans solo » ? Très peu pour moi. J'étais moi aussi dans ce vilain état d'esprit, pétri de tristesse et d'amertume, mais j'ai tout de même sauté le pas il y a quelques jours. Et je ne le regrette pas.

pyinfra - Du Python au lieu du YAML pour gérer vos serveurs

Par : Korben
6 mars 2026 à 10:35

Ansible, c'est bien. Mais du YAML à perte de vue pour configurer trois serveurs c'est pas non plus l'idéal. Hé bien ça tombe bien car y'a maintenant pyinfra , qui fait tout pareil sauf qu'on écrit du Python. En gros, votre script de déploiement c'est juste du code Python normal avec des imports, des boucles, des conditions... tout ça, tout ça...

Ce projet existe depuis 2014, il est sous licence MIT et côté perfs, c'est de ce que j'ai lu, jusqu'à 10 fois plus rapide qu'Ansible sur des déploiements massifs (genre plusieurs milliers de machines). Bon, sur le papier c'est bien, mais en fait ça dépend surtout de votre infra SSH et de la latence réseau.

Alors ça marche comment ?

Hé bien vous installez le bazar avec uv tool install pyinfra et hop, vous pouvez déjà lancer des commandes sur vos serveurs comme ceci :

pyinfra mon-serveur.net exec -- echo "hello world"

Ça fonctionne en SSH sur le port 22, sur des conteneurs Docker, ou même en local. Le truc est complètement agentless, du coup pas besoin d'installer quoi que ce soit sur les machines cibles. Suffit d'un accès shell POSIX tout ce qu'il y a de plus classique et c'est réglé.

Bon, ça c'est pour l'ad-hoc mais en fait le vrai kiff, ce sont les opérations déclaratives. Je vous montre... Vous créez un fichier deploy.py et dedans, vous mettez ça :

from pyinfra.operations import apt, systemd

apt.packages(
 name="Install nginx",
 packages=["nginx"],
)

systemd.service(
 name="Ensure nginx is running",
 service="nginx.service",
 running=True,
 enabled=True,
)

C'est du bon vieux Python sans DSL bizarre (Domain-Specific Language), pas d'indentation YAML qui vous pète entre les doigts à 3h du mat parce qu'il manque un espace. Et si vous voulez une boucle ? bah for. Une condition ? bah if. Ou encore importer boto3 pour causer avec AWS depuis votre Debian 12 ? No problemo !

Et pour cibler vos machines, suffit de créer un fichier inventory.py comme ceci :

targets = ["@docker/ubuntu", "mon-serveur.net", "autre-serveur.net"]

Puis ensuite un petit : pyinfra inventory.py deploy.py et c'est parti mon kiki. L'outil gère le parallélisme sur 50 serveurs, les diffs (pour voir ce qui va changer AVANT d'appliquer), et le mode dry-run pour les plus prudents.

Côté intégrations, ça cause avec Terraform, Docker, Vagrant... et comme c'est du Python, vous avez accès à tout l'écosystème. Genre, vous voulez checker l'état d'une API avant de déployer ? Un import requests et c'est plié. La doc sur docs.pyinfra.com est plutôt complète, et y'a même la gestion des secrets intégrée avec variables d'environnement, fichiers chiffrés, HashiCorp Vault ou AWS Secrets Manager.

Ça tourne depuis Linux et macOS (et Windows via WSL), mais les cibles doivent être des systèmes POSIX donc pas de déploiement natif sur Windows. Et si votre inventaire contient 3 000 machines avec des configs SSH différentes... bon courage pour le debug en cas de souci (le mode -vvv aide, mais bon...).

Bref, si vous en avez marre du YAML et que Python c'est votre truc, allez jeter un oeil.

Merci à Letsar pour la découverte !

Marathon : Bungie sort l’artillerie anti-triche avec du Permaban à vie !

24 février 2026 à 11:02

MarathonÀ l’approche du Server Slam de Marathon, Bungie détaille l’architecture réseau et les protections anti-triche de son shooter d’extraction.

Cet article Marathon : Bungie sort l’artillerie anti-triche avec du Permaban à vie ! a été publié en premier par GinjFo.

Raspberry-Pi 5: API MicroPython pour Python

 Bonjour à tous,

Tout récemment, je voulais utiliser un module RFM69 sur un Compute Module 5 (autrement dit l'équivalent d'un Raspberry-Pi 5) faisant fonctionner un logiciel écrit Python.

Une API MicroPython sous Python

Ecrivant de nombreux pilotes pour MicroPython (Python pour MicroContrôleur), je me suis dit qu'il devait être possible de réutiliser le code MicroPython du RFM69 sous Python sans devoir réécrire tout-ou-une-partie du code pour qu'il fonctionne sur Raspberry-Pi.
 
Le problème, c'est que Python n'a aucune idée de ce qu'est l'API MicroPython (celle utilisée par MicroPython pour accéder directement à la couche matérielle).
 
Il existe cependant des moyens d'accéder au matériel depuis Python mais c'est sans aucun rapport avec l'API exposée MicroPython.

L'idée c'est de recréer l'API MicroPython sous Python pour permettre l'utilisation du RFM69 depuis Python:
 

Le module RFM69

L'image ci-dessous se présente le module RFM69HCW 433MHz . Ce module permet de transmettre des données sur un réseau numérique utilisant le ondes-radios comme medium de transfert. C'est un peu le protocole internet appliqué à la radio.

RFM69HCW 433MHz

Comme le Pilote est développé sous le précepte "Plateform Agnostic Driver" de sorte à pouvoir fonctionner indépendamment de la plateforme MicroPython cible.

esp8266-upy - Plateform Agnostic Micrpython Driver

Ce module se branche sur un bus SPI, il est donc possible de le connecter sur GPIO d'un Raspberry-Pi 5 (ou du Compute Module 5).

Source: Raspberry-pi.ovh

Brancher RFM69 sur GPIO

Les connexions suivantes sont établies entre le module RFM69 et le GPIO Raspberry-Pi.

La broche CS (chip select) est branchée sur le GPIO 25 alors qu'il existe les broches CE0 (GPIO8) et CE1 (GPIO7). 

Le problème ici est que CE0 et CE1 sont automatiquement gérés par le système d'exploitation alors que sous MicroPython, c'est le code utilisateur qui gère l'état du signal CS.

Dans le cas présent, la gestion automatique de CE0 et CE1 empêche l'utilisation du burst_read sur le module RFM69 raison pour laquelle le GPIO25 est utilisé comme signal CS (ce signal étant contrôlé par le code utilisateur).

Prototype

Compatibilité avec Python

Commençons par récupérer la bibliothèque MicroPython du RFM69 depuis le dépôt esp8266-upy pour y ajouter l'encodage du fichier (important pour Python).

Ajout de l'encodage dans le bibliothèque RFM69

Récupérer l'exemple test_config.py utilisé pour tester la communication avec le module RFM69. Nous y ajoutons également l'information d'encodage dans le fichier.

Couche de compatibilité Python --> MicroPython

Création des fichiers machine.py et micropython.py pour accueillir les classes Pin & SPI ainsi que la déclaration de la fonction const()


Le script le plus intéressant est hack_time.py car celui-ci permet d'ajouter les fonctions MicroPython (ticks_ms, ticks_diff, sleep_ms, etc) manquantes dans Python.

#!/usr/bin/python
# -*- coding: utf-8 -*-
""" hack_time.py : mimic the MicroPython alike specific methods """
import time

def _sleep_us( us ):
	time.sleep( us*0.000001 )

def _sleep_ms( ms ):
	time.sleep( ms*0.001 )

def _ticks_ms():
	return int(time.time()*1000)

def _ticks_diff( v1, v2 ):
	return v1-v2

time.sleep_us = _sleep_us
time.sleep_ms = _sleep_ms
time.ticks_ms = _ticks_ms
time.ticks_diff = _ticks_diff

Il ne reste plus qu'a adapter le script d'exemple pour créer l'instance du bus SPI (sur le RPi) et passer le tout à la bibliothèque MicroPython originale.

#!/usr/bin/python
# -*- coding: utf-8 -*-

from machine import SPI, Pin
import hack_time
from rfm69 import RFM69

# Machine.py for Raspberry-Pi 5
spi = SPI( 0 )
nss = Pin( 25, Pin.OUT, value=True )  # Do not use the RPI CE0/CE1, it is not compatible with the Burst_Read of RFM69
rst = Pin( 18, Pin.OUT, value=False )

rfm = RFM69( spi=spi, nss=nss, reset=rst )
rfm.frequency_mhz = 433.1
....

Le bus SPI est rattaché au bus matériel SPI0 & CE0. 

Une broche Enabled (nss) alternative est utilisé avec le GPIO25 pour contrôler les transactions du bus SPI. La broche CE0 du GPIO est donc ignorée.

Enfin, le GPIO 10 est utilisé pour réinitialisé le module RFM69.

Au final, la création de l'instance RFM69 et le restant du code (y compris la bibliothèque RFM69) est identique entre MicroPython et Python (sur RPi5).

L'exécution de l'exemple sur le Raspberry-Pi 5 produit le résultat attendu (identique lorsqu'il est exécuté sur un Pico).

test_config.py : exécution de la bibliothèque
MicroPython RFM69 sur Raspberry-Pi 5

Ressources

  • MicroPython-API-for-Python experiment is published on GitHub.


❌