Vue normale

Boxarr : le Box Office dans Radarr

Par : Aerya
19 octobre 2025 à 08:13

Contrairement aux listes qui se basent soit sur les contenus à venir soit sur des contenus filtrés (diffuseurs, notes etc), Boxarr se concentre sur le Box Office de chaque semaine aka les films ayant généré le plus de revenu (donc forcément mainstream).

boxarr4

Pratique, beau, avec ajout automatique ou non, voire même tri par catégories pour Radarr, Boxarr consomme peu et est sympathique.

Attention, basé sur https://www.boxofficemojo.com/ pour les données, il faut le débloquer dans AdGuardHome selon les listes que vous utilisez.

boxarr3

Ça s’installe évidemment en Docker en 2.2

services:
  boxarr:
    image: ghcr.io/iongpt/boxarr:latest
    container_name: boxarr
    ports:
      - 9278:8888
    volumes:
      - /mnt/user/appdata/boxarr:/config
    restart: always
    environment:
      - TZ=Europe/Paris
    labels:
      - com.centurylinklabs.watchtower.enable=true

La configuration est succincte et ne supporte, pour l’instant, qu’une instance Radarr.

boxarr5
boxarr6

Par défaut ça recherche le Box Office chaque mercredi dans la nuit et ne prend en compte que la semaine en cours. Pour avoir un historique et éventuellement ajouter à Radarr des médias « oubliés », on peut lancer une MàJ des semaines passées.

boxarr7

Voici pour la semaine passée par exemple

boxarr8

Je n’ai pas configuré l’ajout automatique à Radarr pour ne pas avoir les dessins animés et autres trucs pour enfants comme les 2 exemples ici.

Et dans Radarr, le tag demandé est bien appliqué.

boxarr9

On peut parcourir par semaines ou directement les médias et les filtrer.

boxarr10
boxarr11

C’est pas indispensable mais Boxarr est un utilitaire sympathique.
Merci DemonAngeX d’en avoir parlé, j’avais pas terminé et oublié l’article ^^’

Loading

DevOps Live Paris 2025 : conférences, solutions et retours d’expérience

17 octobre 2025 à 08:32

Les 5 et 6 novembre 2025, Paris Expo Porte de Versailles accueillera DevOps Live Paris, l’un des cinq salons intégrés du Tech Show Paris, un événement européen dédié aux architectures cloud, à la cybersécurité, à la data et aux infrastructures critiques.

DevOps Live Tech Show Paris les 5 et 6 novembre 2025

L’événement offre :

  • un programme centré sur la pratique et le partage (320 conférences techniques et 275 exposants)
  • un salon tourné vers les solutions

Un programme centré sur la pratique et le partage

L’édition 2025 mettra en avant les approches concrètes du DevOps moderne : automatisation, IA, sécurité intégrée, observabilité et culture d’équipe.
Plus de 320 conférences techniques et 275 exposants permettront d’explorer les solutions et retours d’expérience des équipes qui opèrent à l’échelle.

Parmi les conférences phares :
FinOps et DevOps : développement piloté par les coûts dans un monde cloud-économiqueÉmilie-Brenda Naoussi (Air France)
DevSecOps sans le buzz : comment industrialiser la sécurité sans ralentir la livraisonAyoub Houkmi (Vestiaire Collective)
Culture DevOps : au-delà de l’architecture, la clé de systèmes innovants et durablesJoël Guimfack (Laboratoire Native SAS)

D’autres sessions aborderont :
• le DevOps augmenté par l’IA et les agents intelligents,
• la sécurité des containers (0 CVE dans vos containers : et si c’était possible ?),
• ou encore la mise en place de plateformes LLMOps pour le développement d’agents conversationnels.

Un salon tourné vers les solutions

Au-delà des conférences, DevOps Live Paris est aussi un espace de démonstration et d’expérimentation.

Les visiteurs pourront rencontrer des acteurs clés de l’écosystème tels que : Scafe, CBTW, Chainguard, Mindflow, Scalingo ou encore Spectrum Group / Atlassian…

C’est l’occasion d’échanger directement avec les équipes techniques derrière les outils et plateformes qui façonnent la chaîne CI/CD, la sécurité applicative et l’automatisation cloud.

Avec un seul badge, l’accès est ouvert à l’ensemble du Tech Show Paris : Cloud & AI Infrastructure, Cloud & Cyber Security Expo, Data & AI Leaders Summit et Data Centre World.

👉 Inscrivez-vous ici : https://www.techshowparis.fr/linuxfr

Pour les entreprises et projets issus de la communauté souhaitant rejoindre l’événement, une opportunité de stand à tarif préférentiel est proposée, incluant également une visibilité renforcée sur nos réseaux et supports de communication. Il suffit de contacter l’équipe organisatrice pour en bénéficier. Contactez-nous.

NdM: LinuxFr est partenaire média de l’événement. Benoît Sibaud modérera la table ronde du jeudi 6 novembre 10h00 – 10h45 « FinOps et DevOps : Développement piloté par les coûts dans un monde cloud-économique ».
Annonce de la table ronde

Commentaires : voir le flux Atom ouvrir dans le navigateur

Des vacances au clair de lune (ou comment faire son Geforce Now privé)

Par : Seboss666
15 octobre 2025 à 16:33

Il aura fallu beaucoup trop de temps pour que ça se produise, et je l’aurai travaillé au corps une paire de fois le gaillard, mais voilà, ceci est le premier billet invité de l’unique, l’irremplaçable Pierre-Marie ! Parce que c’était à la fois trop con comme cible de jeu, mais surtout trop rigolo vu le mix de technos abordées, parce qu’on va parler de Pokemon, de Sunshine/Moonlight (le titre ne ment pas), de wakeonlan, de Kubernetes, de Fission. Oui, tout ça en même temps. Vous comprenez mon enthousiasme ?

La puissance des algorithmes de ciblage

Au détour de mon scrolling sur X, je suis tombé sur un post parlant de jeux vidéos (l’algorithme est bien foutu) et sur une injonction à s’inscrire sur PokeMMO.
Pas fan hardcore de Pokémon, j’ai quand même bien poncé les deux premières gen et me suis tenté à la troisième.
Je fais partie des gens qui n’attendent plus grand chose de Game Freak qui, selon moi, ressort en boucle les mêmes jeux sans vraiment d’innovation.
Au contraire, côté développement non officiel, on retrouve des jeux dérivés comme Pokémon Showdown, qui malgré que ce ne soit pas mon style de jeu, attire une grande communauté et qui aurait pu donner des idées à Nintendo pour renouveler la licence.
J’ai, par exemple, plus apprécié le rom hack Pokémon Adventures Red Chapter basé sur l’excellent manga Pokémon La Grande Aventure que le remake Let’s Go Evoli.
Bref, je suis donc allé voir ce qu’était ce PokeMMO, et me suis motivé pour me lancer dessus. Ça tombe bien, je pars 2 semaines en vacances et il faudra bien occuper mes soirées au coin de la clim. (article commencé au mois de Juillet). PokeMMO propose un installer pour Windows, Linux, iOS, Android et même un package pour OS alternatif (j’ai vu pas mal de gens qui installaient ça sur une console portable de type Retroid).
Personnellement, j’ai à ma disposition une PsVita et une Switch, toutes deux libérées et qui me servent lors de mes sessions retrogaming. L’option téléphone/tablette est pour moi rédhibitoire ne possédant pas de manette compatible et aimant beaucoup trop les boutons physiques pour jouer au tactile.
Installer Android sur Switch me semblant trop fastidieux, j’ai décidé de partir sur une autre voie. Étant obligé d’être connecté pour jouer quoi qu’il arrive (le O de MMO, hein), je me penche sur Moonlight, que j’avais déjà testé il y presque 10 ans. Il y a des clients pour Switch et PsVita (et pour beaucoup d’autres OS/appareils) donc ça pourrait correspondre à mes besoins.

Installation de Sunshine/Moonlight

Moonlight, pour vulgariser, c’est un client non-officiel pour le protocole Nvidia Gamestream qui vient se connecter à un ordinateur distant pour le contrôler à distance. Il a la force de supporter les contrôleurs locaux et de transmettre au PC distant à la manière d’un Steam Link. Pour pouvoir streamer vers un client Moonlight, il faut un serveur sur la machine cible. Le logiciel Nvidia GeForce Experience permet cela mais la « nouveauté » par rapport à mon essai d’il y a 10 ans, c’est le serveur Sunshine qui permet de s’affranchir du logiciel de Nvidia.

L’installation de Sunshine se fait via l’installateur dédié à la distribution cible en quelques secondes. Une fois installé, Sushine se configure via une interface web accessible en local. Elle permet de gérer les différents clients (appairage, suppression…), les différentes applications et les options de streaming (encodage, bitrate…).

Le première étape est de créer un couple utilisateur/motdepasse pour protéger l’accès à cette interface.

Interface de configuration de Sunshine: Creation du mot de passe

Par défaut, Sunshine propose deux applications: Bureau et Steam Big Picture (même si Steam n’est pas installé sur le système)

Interface de configuration de Sunshine: Applications

J’installe donc PokeMMO et le configure comme Application dans Sunshine. Je reprends simplement les valeurs trouvées dans le raccourci Bureau qui a été crée lors de l’installation. Il détecte même la miniature automatiquement.

Interface de configuration de Sunshine: Création de l’application PokeMMO

J’installe le client Moonlight sur les deux appareils. Le client détecte automatiquement le PC supportant Sunshine et affiche un code d’appairage à entrer dans Sunshine.

Interface de Moonlight: Détection

Interface de configuration de Moonlight: Appairage

Interface de Sunshine: appairage

L’appairage se déroule sans problème et je peux tester le stream en local.

Interface de Moonlight: Écran d’accueil

Je lance l’application Bureau et ça me permet de confirmer qu’il est bien possible d’ouvrir une session Windows à distance.

Interface de Moonlight: Bureau

Pour le stream distant, il faut juste s’assurer que Upnp est activé sur le routeur et cocher une case dans la configuration de Sunshine.

Interface de configuration de Sunshine: Activation de l’Upnp

(ndr: sinon il faut définir les ports et ouvrir manuellement/créer les redirections de port; l’IP fixe pour le PC de jeu est fortement recommandée dans ce cas)

Fini ?

On aurait pu s’arrêter là, mais bon, je suis pas fan de laisser tourner le PC H24 pendant 2 semaines juste pour l’utiliser quelques heures. Moonlight propose une fonctionnalité bien pratique de Wake On LAN pour démarrer un ordinateur à distance, mais voilà, ça ne fonctionne qu’en réseau local (en même temps c’est dans le nom).
Il faut donc trouver le moyen de le faire fonctionner à distance. J’ai plusieurs dispositifs à ma disposition.
Mon routeur PfSense permet de d’envoyer des paquets WoL mais uniquement via l’interface, pas d’API disponible. Il faudrait se connecter à l’interface via VPN pour lancer la commande. C’est trop lourd et pas assez flexible.
Solution suivante, utiliser le cluster k3s qui tourne à la maison.

Utilisation de k3s

On teste la faisabilité du process en lançant un pod temporaire contenant la commande wakeonlan mais ça ne fonctionne pas car l’appareil ciblé n’est pas sur le LAN du cluster k3s comme l’est le pod.
En cherchant un peu, on trouve qu’il faut configurer le pod pour qu’il tourne dans le réseau hôte, le réseau des nœuds.

kubectl run tmp --rm -it --image nixery.dev/shell/wakeonlan -it --overrides='{"kind":"Pod", "apiVersion":"v1", "spec": {"hostNetwork":\ntrue}}' -- wakeonlan a1:b2:c3:d4:e5:f6

Et ça marche !!

Reste à trouver le moyen de lancer ça simplement, via un appel HTTP par exemple. Je viens justement de déployer un système de micro-services : Fission.
Fission permet de déployer des fonctions de micro-services à la manière d’un système Serverless comme Lambda. Ça me permettrait de recevoir une requête HTTP avec en paramètre l’adresse MAC cible et d’envoyer la requête WoL avec un simple code python.

Installation de Fission

L’installation de Fission est simple si on passe par leur chart Helm. On a juste à surcharger quelques valeurs grâce au fichier values.yml suivant.

## Fission chart configuration
##

## routerServiceType to consider while creating Fission Router service.
## For minikube, set this to NodePort, elsewhere use LoadBalancer or ClusterIP.
##
routerServiceType: ClusterIP

## defaultNamespace represents the namespace in which Fission custom resources will be created by the Fission user.
## This is different from the release namespace.
## Please consider setting `additionalFissionNamespaces` if you want more than one namespace to be used for Fission custom resources.
##
defaultNamespace: fission

# Add Fission helm repo
helm repo add fission-charts https://fission.github.io/fission-charts
# Install CRDs 
kubectl create -k "github.com/fission/fission/crds/v1?ref=v1.21.0"
# Install Fission
helm install fission fission-charts/fission-all -f values.yml -n fission --create-namespace
# Install Fission CLI binary
curl -Lo fission https://github.com/fission/fission/releases/download/v1.21.0/fission-v1.21.0-linux-amd64 && chmod +x fission && sudo mv fission /usr/local/bin/

Configuration de Fission

La documentation fission nous apprend qu’on peut modifier les spécifications des pods. Il y a même un tutoriel pour déployer un exemple.

# On créé un dossier dédié
mkdir wol-fn
cd wol-fn
# On initialise le dossier specs
fission spec init
# On créé l'environnement qui fera touner le code python
fission -n fission env create --spec --name python-wol --image ghcr.io/fission/python-env --builder ghcr.io/fission/python-builder
# On créé le dossier de la fonction
mkdir wol
# On créé un fichier requirements.txt avec le module python dont nous avons besoin
echo "wakeonlan" > wol/requirements.txt
# On créé le fichier contenant le code python à exécuter
touch wol/wol.py

from flask import request
from wakeonlan import send_magic_packet
import re

def main():
    mac = request.args.get('mac')
    if mac is None:
        return "Please send a MAC address"
    else:
        if re.match("[0-9a-f]{2}([-:]?)[0-9a-f]{2}(\\1[0-9a-f]{2}){4}$", mac.lower()):
            send_magic_packet(mac)
            return "Sending magic packet to 255.255.255.255 with broadcast 255.255.255.255 MAC %s port 9" % (mac)
        else:
            return "%s is not a valid MAC format" % (mac)

On créé la spécification pour la fonction qui décrit quel code doit être exécuté et le trigger HTTP qui détermine quelle URL déclenche son exécution.

# On créé la spécification pour la fonction
fission -n fission function create --spec --name wol-fn --env python-wol --src "wol/*" --entrypoint wol.main
# On créé la spécification pour la route.
# Avec les annotations permettant de créer l'ingress rule sur Traefik
fission -n fission route create --spec --name wol-fn-get --method GET --url /wake --function wol-fn --createingress --ingressrule "test.domain.tld=/wake" --ingressannotation "kubernetes.io/ingress.class=traefik" --ingressannotation "traefik.ingress.kubernetes.io/router.entrypoints=websecure" --ingressannotation 'traefik.ingress.kubernetes.io/router.tls="true"' --ingressannotation "traefik.ingress.kubernetes.io/router.tls.certresolver=letsencrypt"

On a maintenant un dossier contenant la fonction et son environnement standard.

wol-fn
├── specs
│   ├── README
│   ├── env-python-wol.yaml
│   ├── fission-deployment-config.yaml
│   ├── function-wol-fn.yaml
│   └── route-wol-fn-get.yaml
└── wol
    ├── requirements.txt
    └── wol.py

On va modifier le fichier env-python-wol.yaml pour ajouter notre configuration spécifique.

---
apiVersion: fission.io/v1
kind: Environment
metadata:
  creationTimestamp: null
  name: python-wol
spec:
  builder:
    command: build
    container:
      name: builder
      resources: {}
    image: ghcr.io/fission/python-builder
    podspec:
      containers:
      - name: builder
        resources: {}
  imagepullsecret: ""
  keeparchive: false
  poolsize: 3
  resources: {}
  runtime:
    container:
      name: python-wol
      resources: {}
    image: ghcr.io/fission/python-env
    podspec:
      containers:
      - name: python-wol
        resources: {}
+     hostNetwork: true
+     dnsPolicy: ClusterFirstWithHostNet
  version: 3

La directive hostNetwork permet comme vu plus haut de faire tourner le pod sur le réseau hôte.
Avec juste cette modification, on a une erreur à l’exécution du code parce que le pod n’arrive pas à aller chercher l’archive contenant le code de la fonction sur le stockage partagé de Fission.

{
    "level": "error",
    "ts": "2025-08-22T15:55:03.884Z",
    "logger": "generic_pool_manager.generic_pool.fetcher_client",
    "caller": "client/client.go:114",
    "msg": "error specializing/fetching/uploading package, retrying",
    "error": "Internal error - error fetching deploy package: failed to download url : Get \"http://storagesvc.fission/v1/archive?id=%2Ffission%2Ffission-functions%2Ffc6798a9-95c3-47cb-8797-28f842162f83\": dial tcp: lookup storagesvc.fission on 9.9.9.9:53: no such host",
    "url": "http://X.X.X.X:8000/specialize",
    "stacktrace": "github.com/fission/fission/pkg/fetcher/client.sendRequest\n\tpkg/fetcher/client/client.go:114\ngithub.com/fission/fission/pkg/fetcher/client.(*client).Specialize\n\tpkg/fetcher/client/client.go:56\ngithub.com/fission/fission/pkg/executor/executortype/poolmgr.(*GenericPool).specializePod\n\tpkg/executor/executortype/poolmgr/gp.go:467\ngithub.com/fission/fission/pkg/executor/executortype/poolmgr.(*GenericPool).getFuncSvc\n\tpkg/executor/executortype/poolmgr/gp.go:553\ngithub.com/fission/fission/pkg/executor/executortype/poolmgr.(*GenericPoolManager).GetFuncSvc\n\tpkg/executor/executortype/poolmgr/gpm.go:242\ngithub.com/fission/fission/pkg/executor.(*Executor).createServiceForFunction\n\tpkg/executor/executor.go:239\ngithub.com/fission/fission/pkg/executor.(*Executor).serveCreateFuncServices.func1\n\tpkg/executor/executor.go:143"
}

On voit qu’il cherche à contacter storagesvc.fission et qu’il n’arrive pas à résoudre ce hostname, ce qui est normal étant donné qu’il s’agit d’un nom interne au cluster et que le pod tourne désormais sur le hostNetwork. La directive dnsPolicy: ClusterFirstWithHostNet permet de forcer d’essayer la résolution en interne au cluster avant de tenter en externe sur le hostNetwork et résout ce problème.

Il ne reste qu’à déployer.

# On vérifie la syntaxe
fission spec validate
# On déploie
fission spec apply --wait
# On test via Fission CLI
fission -n fission function test --name wol-fn --method GET -q "mac=a1:b2:c3:d4:e5:f6"
# On test via HTTP depuis l'extérieur
curl "https://test/domain.tld/wake?mac=a1:b2:c3:d4:e5:f6"

Pour faire simple, ajouter l’URL en raccourci sur le téléphone et en un clic, le PC est démarré. Personnellement, je l’ai intégré dans mon Home Assistant avec un bouton dédié.

Home Assistant Dashboard

Finalisation de la configuration

Celui qu’on adore détester

Il reste deux ou trois détails à régler. Par défaut, depuis Windows 10, quand on arrête le système, il se place en réalité dans un mode de veille prolongée pour permettre un démarrage plus rapide. Hors le *Wake On LAN* ne fonctionne pas sur ce mode de sommeil. Microsoft documente ça très bien ici. Il y est également expliqué comment désactiver ce mode pour pouvoir rétablir un mode d’extinction « normal ».

Je vous les remets à l’identique:

  • Dans Panneau de configuration, ouvrez l’élément Options d’alimentation
  • Sélectionnez le lien Choisir ce que les boutons d’alimentation font
  • Désactivez la case à cocher Activer le démarrage rapide (recommandé)
  • Sélectionnez Enregistrez les paramètres.

Une fois cette modification effectuée, le Wake On LAN est complètement fonctionnel.

La fin

Et donc, puisqu’on a abordé le sujet, comment se passe l’extinction ? Vous vous rappelez ? le but de tout ce foutoir, c’était d’éviter de garder le PC allumé pendant deux semaines. On a parlé du démarrage, mais quid de l’arrêt ?

Le plus simple est de lancer une session Bureau dans Moonlight et d’aller cliquer sur le menu Démarrer puis le bouton Arrêter comme à la maison. Mais on peut aussi déclarer des applications dans Sunshine et il exécutera la commande associée à cette application.

J’ai donc créer une application nommée Shutdown qui lance la commande suivante shutdown /s /f /t 0.

Interface de configuration de Sunshine: Shutdown Application

Quand elle est lancée depuis le client Moonlight, elle éteint le PC distant.

Feedback et Conclusion

Puisque je suis rentré depuis, je peux débriefer ces 2 semaines d’utilisation, ça fonctionne super, le seul défaut que j’ai eu est qu’une fois le Shutdown n’a pas fonctionné et je ne l’ai pas vu tout de suite. Les fois suivantes, j’ai juste eu à bien vérifier le status dans le menu.

Interface de Moonlight: PC démarré

Interface de Moonlight: PC éteint

À part ça, super expérience ! Bien sur je n’ai pas cherché à jouer à des jeux très performants, mais ça a suffi à mes besoins, même en 4G. Je n’ai pas non plus poussé jusqu’à tenter de jouer sur la 4G en voiture, mais je pense que ça aurait pu marcher.
Je continue à l’utiliser, même à la maison, pour jouer dans le canapé plutôt que devant le PC.

Interface de Moonlight: PokeMMO


Alors, avouez que c’est pas mal en termes de bricolages inutiles donc indispensables, il était donc nécessaire de partager ça avec le plus grand nombre ? (enfin au moins les lecteurs de ce blog)

Alors que Windows 10 a atteint sa fin de vie, Zorin OS Linux a saisi cette occasion pour lancer officiellement sa version 18, une alternative moderne pour un système d'exploitation compatible et à jour

15 octobre 2025 à 16:35
Alors que Windows 10 a atteint sa fin de vie, Zorin OS Linux a saisi cette occasion pour lancer officiellement sa version 18, une alternative moderne pour un système d'exploitation compatible et à jour

Alors que Windows 10 a finalement atteint la fin de sa durée de vie (avec une année supplémentaire de mises à jour de sécurité gratuites pour les utilisateurs de l'UE), Zorin OS a profité de l'occasion pour lancer officiellement sa version 18 tant attendue, une alternative moderne pour les utilisateurs...

Quand l’Histoire nous enseigne la cybersécurité

Par : UnderNews
15 octobre 2025 à 14:14

À l’occasion du Cyber Mois 2025, dont la thématique interrogeante « Et si l’Histoire avait été bouleversée par de mauvaises pratiques cyber ? » nous invite à une réflexion profonde, nous mesurons à quel point la sécurité numérique constitue aujourd’hui un enjeu civilisationnel. Cette treizième édition nous rappelle avec justesse que les défaillances en matière […]

The post Quand l’Histoire nous enseigne la cybersécurité first appeared on UnderNews.

De simple fournisseur à partenaire de confiance : un tiers des PME européennes cherchent un prestataire capable de leur fournir une stratégie de cybersécurité à long terme

Par : UnderNews
15 octobre 2025 à 12:53

La dernière enquête de Kaspersky, menée auprès des décideurs en matière de cybersécurité dans les PME revient sur les défis quotidiens et les idées reçues des responsables informatiques des PME, ainsi que l’impact de ces obstacles sur leur collaboration avec des partenaires extérieurs. Le rapport montre qu’un tiers des petites et moyennes entreprises européennes (33 […]

The post De simple fournisseur à partenaire de confiance : un tiers des PME européennes cherchent un prestataire capable de leur fournir une stratégie de cybersécurité à long terme first appeared on UnderNews.

Les Français, indulgents avec leurs propres données, intransigeants envers les entreprises qui échouent à les protéger

Par : UnderNews
14 octobre 2025 à 12:11

Malgré des pratiques personnelles de cybersécurité limitées, un tiers des consommateurs se dit prêts à sanctionner une organisation en cas d’incident entraînant une fuite de données sensibles. Tribune – Une récente enquête menée par Commvault, l’un des principaux fournisseurs de solutions de cyber-résilience et de protection des données pour les environnements cloud hybrides, révèle que […]

The post Les Français, indulgents avec leurs propres données, intransigeants envers les entreprises qui échouent à les protéger first appeared on UnderNews.

Canonical publie Ubuntu 25.10 avec GNOME 49 comme bureau par défaut, le noyau Linux 6.17 pour une compatibilité plus large avec les systèmes ARM64 et RISC-V, et le chiffrement TPM pour plus de sécurité

13 octobre 2025 à 17:29
Canonical publie Ubuntu 25.10 avec GNOME 49 comme bureau par défaut, le noyau Linux 6.17 pour une compatibilité plus large avec les systèmes ARM64 et RISC-V, et le chiffrement TPM pour plus de sécurité

Ubuntu 25.10 « Questing Quokka » est officiellement disponible sous la forme d'une version à court terme prise en charge jusqu'en juillet 2026, avec une mise à niveau directe vers Ubuntu 26.04 LTS en avril prochain. Cette version introduit GNOME 49 comme bureau par défaut, fonctionnant exclusivement...

Linux 6.18 améliorera HID avec un pavé tactile haptique et la prise en charge DualSense, cette dernière version du noyau Linux renforce également les mesures de sécurité

9 octobre 2025 à 10:12
Linux 6.18 améliorera HID avec un pavé tactile haptique et la prise en charge DualSense, cette dernière version du noyau Linux renforce également les mesures de sécurité

Linux 6.18 améliore le sous-système HID avec la prise en charge du pavé tactile haptique pour des appareils tels que l'Elan 2703, piloté par Google pour Chrome OS, ainsi que l'amélioration de la gestion audio Sony DualSense, la flexibilité HID-BPF, le renforcement de la sécurité des ioctls hidraw, le retour de force PIDFF et la...

Banni de Reddit ?!

Par : Aerya
6 octobre 2025 à 04:35

3d45a8df 581b 4af8 a40a 47e5a60d63c5


Je ne parcours le Web que via VPN, AirVPN principalement, et j’en déduis que ça m’a fait bannir de Reddit 🙁

Sauf que ça prévient pas, c’est assez raide leur truc : compte bloqué et tous les posts/commentaires supprimés.

reddit2
reddit4


Mon compte datait certes de moins d’un mois mais avait des stats correctes. Pas de troll là-bas, contrairement à certains que j’ai pu lire et qui sont bien actifs.

reddit
reddit1

Je repostais certains articles, en sus de commenter à droite à gauche. J’ai été intrigué de voir mes tentatives bloquées dans des subs où je n’avais pas l’habitude de poster. Mais je venais chercher des conseils pour un dév informatique.
Puis quand j’ai voulu reposter mon article sur CineSync, c’était clair : plus rien ne passait. Et pour cause, compte « révoqué ».

reddit3


Je peux vivre sans poster sur Reddit, ce qui me vexe c’est le ban sans justification. Ça doit venir de mon âge, j’ai été banni que de BTN comme tout l’arbre d’invités auquel j’appartenais, je suis pas habitué ^^


J’ai expliqué mon cas mais ne me fais pas trop d’illusions…

reddit5

Loading

CineSync : organiser ses librairies sans les arrs

Par : Aerya
5 octobre 2025 à 11:16

Les *arrs c’est du « chinois » pour vous ? Vous n’avez pas de machine assez puissante pour les faire tourner en sus d’un lecteur ? Vous voulez faire simple ?


CineSync, qui s’installe en Docker et peut tourner sur des machines peu puissantes avec 1 core et 1GB de RAM, permet, via une clé API (gratuite) TMDB, d’indexer et trier un dossier de fichiers en vrac (films et séries uniquement). Ça trie et organise via des symlinks (liens qui ne prennent aucune place) pour pouvoir ensuite profiter de ça via Plex/Jellyfin/Emby/Kodi ou un lecteur type VLC. Ce n’est pas un lecteur, juste un organiseur.

Pratique si vous avez accès à un FTP, un remote rClone, des APIs RealDebrid, AllDebrid ou TorBox, un montage NFS/sshFS… enfin n’importe quel espace de stockage avec des films et séries.

EDIT 06.10.25 : DjNiklos insiste à juste titre sur le fait qu’on peut combiner les dossiers sources en les séparant par des ,

Monitoring manuel ou automatique évidemment.

Je le teste avec mon montage AllDebrid de Decypharr, le dossier _ _ all _ _ où tous les fichiers sont en vrac. Le travail peut prendre un peu de temps selon la quantité de fichiers à traiter, les ressources allouées (cores/RAM) et les options demandées.

cinesync3

Et ça donne ce genre de tri (j’ai aucun contenu pour enfants mais ça les met à part également)

root@StreamBox:/mnt/Bibliothèques# ls CineSync/
4KMovies  4KShows  CineSync  Movies  Shows
cinesync4

Le dossier CineSync = Collections, quand on demande leur création

Y’a plus qu’à indexer ça avec son lecteur favoris ou y accéder avec VLC ou autre et c’est nickel !

🔄 Supervision et automatisation en temps réel

CineSync intègre des fonctions avancées de surveillance et d’automatisation en temps réel, assurant une bibliothèque multimédia toujours parfaitement organisée — sans aucune intervention manuelle.
Son interface web moderne offre un contrôle complet sur les paramètres d’automatisation et la supervision en direct de toutes les activités de traitement.


🧠 Système de surveillance intelligent

  • Détection instantanée : des algorithmes avancés repèrent immédiatement les nouveaux fichiers via les événements du système de fichiers.
  • Mode auto-traitement : activez ou désactivez le traitement automatique directement depuis l’interface web, pour un fonctionnement totalement mains libres.
  • Intégration streaming : les serveurs multimédias (Plex, Jellyfin, Emby) sont mis à jour en temps réel pour des bibliothèques toujours à jour.
  • Prévention des doublons : le système évite intelligemment le retraitement des mêmes contenus.

🤖 Flux de travail automatisés

  • Analyse initiale intelligente : un scan complet et une réorganisation de la bibliothèque au démarrage.
  • Surveillance continue : détection en temps réel des nouveaux fichiers, avec intervalles configurables.
  • Traitement en lot : gestion efficace de multiples fichiers grâce au traitement parallèle.
  • Récupération automatique : nouvelle tentative sur les opérations échouées, avec temporisation exponentielle.

📊 Tableau de bord en temps réel

  • Statistiques en direct : visualisez instantanément la progression et l’état de la bibliothèque.
  • Suivi des ajouts récents : traçabilité automatique des contenus récemment ajoutés.
  • File d’attente visible : surveillance graphique des opérations en cours et à venir.

La surveillance en temps réel de CineSync est désormais une fonctionnalité native des scripts et images Docker, assurant une intégration fluide dans votre flux de travail.
Grâce à elle, la gestion de votre médiathèque devient automatique et sans effort.


⚙ Automatisation personnalisable

  • Planification flexible : configurez les intervalles de surveillance et les horaires de traitement.
  • Règles spécifiques par contenu : appliquez des logiques différentes pour les films, séries, animés ou contenus jeunesse.
  • Nettoyage intelligent : suppression automatique des liens symboliques cassés et des entrées orphelines dans la base de données.

🔗 Intégration avec les serveurs multimédias

  • Jellyfin / Emby : actualisation instantanée via des liens symboliques compatibles inotify.
  • Plex : mise à jour automatique des bibliothèques grâce à l’API Plex.
  • Streaming direct : accès en temps réel aux contenus organisés par plusieurs méthodes.

Le système d’automatisation de CineSync transforme la gestion des médias d’une corvée manuelle en un processus fluide, intelligent et permanent.


🎯 Séparation intelligente des contenus

  • Contenu jeunesse : détection automatique des médias familiaux via les classifications TMDB (G, PG, TV-Y, TV-G, TV-PG) et les genres familiaux.
  • Organisation 4K : détection et séparation automatique des contenus UHD dans des dossiers dédiés.
  • Classification animés : gestion spécifique pour les animés, avec tri distinct entre films et séries.
  • Tri par résolution : classement intelligent selon la qualité vidéo (720p, 1080p, 4K, etc.).

📁 Options d’organisation flexibles

  • Structure CineSync : organisation simplifiée en dossiers Movies et Shows.
  • Préservation de la structure source : possibilité de conserver les arborescences d’origine.
  • Nommage personnalisé : configuration libre des noms de dossiers selon le type de contenu.
  • Regroupement par collections : organisation automatique des sagas et franchises dans des répertoires communs.

Ça s’installe simplement en Docker :

services:
  cinesync:
    image: sureshfizzy/cinesync:latest
    container_name: cinesync
    restart: unless-stopped
    environment:
      - PUID=0
      - PGID=0
    ports:
      - 8082:8082
      - 5173:5173
    volumes:
      - /home/home
      - /mnt:/mnt
      - /home/aerya/docker/cinesync/db:/app/db
networks: {}

Plutôt que de tout configurer via l’interface Web, on peut y adjoindre un .env. Fichier à placer dans le dossier /home/aerya/docker/cinesync/db dans mon cas, le montage local de /app/db. Le fichier de base est ici et il faut surtout y configurer la clé API TMDB et les dossiers source/destination.

# Directory Paths
# ========================================
# Source directory for input files
SOURCE_DIR="/mnt/decypharr/alldebrid/__all__"

# Destination directory for output files
DESTINATION_DIR="/mnt/Bibliothèques/CineSync"


Comme les *arrs quand ils travaillent sur les fichiers hébergés chez AllDebrid, accessibles dans /mnt/decypharr/alldebrid/_ _ all _ _, CineSync va les organiser et structurer localement via des symlinks dans /mnt/Bibliothèques/CineSync où Plex/Jellyfin/whatever pourra les indexer et lire.

cinesync
admin/admin si vous ne changez pas dans la config
cinesync1
si pas de .env, il faut tout configurer via la WebUI
cinesync2

Et il n’y qu’à le laisser travailler ensuite

cinesync5
cinesync4
cinesync6

On peut éditer chaque fiche de contenu indexé pour déplacer vers un autre dossier selon l’orga de chacun (moi je laisse CineSync faire par défaut) et/ou éditer les informations d’un média.

cinesync7
cinesync8
cinesync9

On peut suivre et éditer/corriger l’indexation

cinesync10
cinesync11

La configuration est entièrement éditable via la WebUI

cinesync12
cinesync13
cinesync14
cinesync15
cinesync16

Et il peut même se faire passer pour Radarr et Sonarr auprès de Bazarr pour la gestion automatisée des sous-titres !

cinesync17

C’est vraiment super bien fait et très pratique quand on récupère « juste » un accès à une API ou un montage rClone dont on ne maitrise pas le contenu…

Loading

Le noyau Linux 6.17 est officiellement disponible avec des gains pour les ordinateurs portables Intel/AMD, des améliorations en matière de stockage et de réseau, ainsi qu'une latence réduite

30 septembre 2025 à 07:00
Le noyau Linux 6.17 est officiellement disponible avec des gains pour les ordinateurs portables Intel/AMD, des améliorations en matière de stockage et de réseau, ainsi qu'une latence réduite

Le noyau Linux 6.17 est désormais disponible, comme l'a annoncé Linus Torvalds lui-même. Il offre une prise en charge matérielle améliorée grâce à des pilotes nouveaux et mis à jour, des améliorations apportées aux systèmes de fichiers et aux réseaux, et bien plus encore. Ce noyau équipera Ubuntu 25.10 et d'autres...

Gestion des LEDs du Lincstation N1 sous UNRAID

Par : Aerya
30 septembre 2025 à 04:11

Je ne sais pas quand ni comment, le panneau de configuration des LEDs sur mon NAS Lincstation N1 avait disparu. Plus rien dans /boot/config/…
Heureusement, je viens de retrouver tout ce qu’il faut sur GitHub, grâce à mluisbrown.

Juste pour les LEDs, j’ai copié le dossier /led dans /boot/config et édité mon fichier /boot/config/go en conséquence :

#!/bin/bash
export UNRAID_GUID=xxx
export UNRAID_NAME=HomeBox
export UNRAID_DATE=xxx
export UNRAID_VERSION=Pro
/lib64/ld-linux-x86-64.so.2 /boot/config/unraider

# Start the Management Utility
/usr/local/sbin/emhttp

#bash /boot/config/mergerfsusenetdrive-start.sh
#/boot/config/mergerfsusenetdrive-stop.sh

# Start the LED Service
cp -r /boot/config/led/ /usr/local/sbin/led/
chmod 777 /usr/local/sbin/led/go_8130_led_linux
nohup /usr/local/sbin/led/go_8130_led_linux >/dev/null 2>&1 &

Ensuite, plutôt que de redémarrer le NAS, autant tout lancer à la main

root@HomeBox:~# cp -r /boot/config/led/ /usr/local/sbin/led/
root@HomeBox:~# chmod 777 /usr/local/sbin/led/go_8130_led_linux
root@HomeBox:~# nohup /usr/local/sbin/led/go_8130_led_linux >/dev/null 2>&1 &
[1] 4150339

Et j’ai de nouveau accès au panneau de gestion sur le port 50000

unraid1

Contrôler que les LEDs selon les états des disques

unraid2

Status des disques

unraid3

Activation ou non

unraid4

Configuration du bandeau, avec l’état actuel en bas. Les couleurs sont en hexadécimale.

unraid5

Pour mémo, codes LED du mode d’emploi du N1.

Indicator Light Explanation

NameColorStatusExplanation
Power LightWhiteSteady OnNormal startup and running
NetworkWhiteSteady OnValid network cable inserted
NetworkOffNoneNot connected to the network or network failure
HHD/NVMeWhiteSteady OnNormal status
HHD/NVMeYellowSteady OnS.M.A.R.T warning status
HHD/NVMeBright YellowSteady OnHigh temperature warning status
All IndicatorsWhiteBlinkingStartup and self-checking
Light StripFull ColorBlinking OnceFirst power-on after power outage
Light StripOffNoneStartup and self-checking

Loading

UNRAID Config Guardian : sauvegarde du système et de la configuration d’UNRAID

Par : Aerya
26 septembre 2025 à 05:48

UNRAID c’est bien. Mais UNRAID sauvegardé c’est mieux. Enfin… à moins de refaire mon boulet…
Et je ne parle pas des données telles que photos, films, musiques, etc, au moins sécurisées par la parité, mais bien de celles liées à l’OS (configuration globale, plugins…) ou aux Dockers eux-mêmes (images, configs…).

Si on peut installer X outils de sauvegarde indépendants (Kopia, Duplicati, Restic…), je pense qu’on est surtout très nombreux à utiliser le plugin Appdata Backup (qui ne devrait plus être maintenu, mais) qui fait le boulot avec du backup incrémental des données des Dockers et du /boot. Surtout qu’on peut lui ajouter des scripts avant/après chaque étape, histoire de personnaliser à fond tout ça.

Cependant, 2 précautions valent mieux qu’une, et l’outil UNRAID Config Guardian de stephondoestech permet de créer des sauvegardes récurrentes (cron en variable du Docker) des configurations d’UNRAID et des Dockers (qui tournent, pas les stoppés pour l’instant). De surcroît avec un script de restauration d’urgence pour tout remettre en place simplement et rapidement. Utilisé en parallèle du plugin Appdata Backup, cet outil se concentre sur l’OS même, sa configuration, ses plugins et sort un gros compose.yml pour remettre en branle tous les Dockers.

unraid1

« UCG » permet de lister les containers et leurs volumes/variables

unraid2
unraid6

et d’en faire une sauvegarde via un chemin local. Ce dernier pouvant être un disque dur, une clé USB, un montage de NAS/FTP, un montage rClone…

unraid3
unraid4

Et ce ne sont que des configurations, ça ne prend donc pas de place à stocker.

admin@DockerLab:/volume1/mnt/BackUp UNRAiD Config Guardian$ ls -lsha
total 308K
196K -rwxrwxrwx+ 1 admin users 195K Sep 24 15:28 container-templates.zip
 36K -rwxrwxrwx+ 1 admin users  36K Sep 24 15:28 docker-compose.yml
4.0K -rwxrwxrwx+ 1 admin users 1.2K Sep 24 15:28 README.md
4.0K -rwxrwxrwx+ 1 admin users 2.7K Sep 24 15:28 restore.sh
 68K -rwxrwxrwx+ 1 admin users  66K Sep 24 15:28 unraid-config.json


En cas de pépin, ça se restaure simplement en copiant tous les fichiers sur le serveur et en lançant restore.sh

# Unraid Backup Documentation

**Generated:** 2025-09-24 15:28:57
**Server:** HomeBox
**Containers:** 45

## Quick Recovery (Recommended: Unraid Templates)

1. Install fresh Unraid
2. Restore flash drive from backup
3. Set up disk array
4. Run: `bash restore.sh` (restores XML templates)
5. Go to Docker tab → Add Container → Select your templates
6. Configure paths and restore appdata from backup

## Files

- `unraid-config.json` - Complete system configuration
- `container-templates.zip` - XML templates for native Unraid restore
- `docker-compose.yml` - Fallback container definitions
- `restore.sh` - Automated restoration script
- `README.md` - This file

## Restore Methods

### Method 1: Native Unraid Templates (Recommended)
```bash
bash restore.sh  # Extracts templates to /boot/config/plugins/dockerMan/templates-user
```
Then use Unraid WebUI to add containers from templates.

### Method 2: Docker Compose (Emergency Fallback)
```bash
docker-compose up -d  # Or: docker compose up -d
docker-compose ps
```
Note: Bypasses Unraid's container management system.

Keep this documentation safe and test your restore process!

On le trouve évidemment dans les applis d’UNRAID, il faut cependant au préalable installer le container dockersocket. Puis on peut configurer « UCG » en y mettant l’IP de dockersocket :

unraid7

Voilà le genre d’outil qui ne consomme pas de ressource, ne prend quasi pas de place et peut permettre de se sentir moins seul en cas de gros pépin 🙂

Loading

Pulse : Surveillance en temps réel pour Proxmox

Par : fred
25 septembre 2025 à 16:00
Pulse est une solution de supervision centralisée permettant de suivre en temps réel l’ensemble d’une infrastructure Proxmox VE et PBS depuis un tableau de bord unique. L’outil envoie des alertes instantanées en cas de panne de nœud, d’échec de sauvegarde ou de saturation de stockage. Les notifications sont compatibles avec email, Discord, Slack, Telegram et […]

Garuda Linux : chroot + luks

Par : fred
23 septembre 2025 à 17:05
Lorsque le système Garuda Linux ne démarre plus correctement (problème de GRUB, kernel corrompu, initramfs endommagé, etc.), l’une des solutions les plus efficaces est d’utiliser un Live USB pour accéder à vos partitions et corriger le système via un chroot. Monter un chroot d’une partition chiffrée avec LUKS depuis un Live USB Garuda Linux Si, […]

Scaleway PPA sur Debian 13

22 septembre 2025 à 08:30

Utilisant des machines Debian chez Scaleway, je rencontrai l'avertissement suivant après mise à jour de Debian 12 à Debian 13.

Warning: An error occurred during the signature verification. The repository is not updated and the previous index files will be used. OpenPGP signature verification failed: http://ppa.launchpad.net/scaleway/stable/ubuntu focal InRelease: Sub-process /usr/bin/sqv returned an error code (1), error message is: Missing key 15061C3CA651AD8DF110A37BFEC8C91445F9E441, which is needed to verify signature.
Warning: Failed to fetch http://ppa.launchpad.net/scaleway/stable/ubuntu/dists/focal/InRelease  Sub-process /usr/bin/sqv returned an error code (1), error message is: Missing key 15061C3CA651AD8DF110A37BFEC8C91445F9E441, which is needed to verify signature.
Warning: Some index files failed to download. They have been ignored, or old ones used instead.

Pour régler ce souci, j'identifiai ce dépôt PPA géré par Scaleway : https://launchpad.net/~scaleway/+archive/ubuntu/debian-stable

J'y trouvai l'adresse du dépôt et la clé de signature associée. Pour implémenter cela sur la machine, j'effectuai alors les opérations suivantes :

curl "https://keyserver.ubuntu.com/pks/lookup?op=get&search=0x15061c3ca651ad8df110a37bfec8c91445f9e441"|gpg --dearmor -o /usr/share/keyrings/scaleway.gpg

puis je modifiai le fichier /etc/apt/sources.list.d/scaleway.list avec ce contenu :

deb [signed-by=/usr/share/keyrings/scaleway.gpg] http://ppa.launchpad.net/scaleway/debian-stable/ubuntu jammy main

et le tour était joué !

 

kdig : outil pour tester les DNS classique, DNSSEC DoT et DoH

Par : fred
19 septembre 2025 à 08:45
kdig est un utilitaire en ligne de commande issu de la suite Knot DNS, développé par le registre CZ.NIC. Il se présente comme une alternative moderne au traditionnel dig (issu de BIND9). Son intérêt principal réside dans la prise en charge des protocoles DNS sécurisés (DNSSEC, DoT, DoH) et une sortie en JSON facilitant l’automatisation. […]

Installation et configuration d’un serveur DNS DoH et DoT sous Debian 13

Par : fred
18 septembre 2025 à 09:12
Un mémo pour mettre en place un serveur DNS pour un réseau local uniquement en IPv4 avec support DNS-over-HTTPS (DoH) et DNS-over-TLS (DoT) en utilisant BIND9 comme backend et DNSdist comme proxy sous Debian Trixie avec certificat auto-signé Installation et configuration de BIND9 et DNSdist Architecture du système BIND9 : Serveur DNS autoritaire sur port […]
❌