Les 5 et 6 novembre 2025, Paris Expo Porte de Versailles accueillera DevOps Live Paris, l’un des cinq salons intégrés du Tech Show Paris, un événement européen dédié aux architectures cloud, à la cybersécurité, à la data et aux infrastructures critiques.
L’événement offre :
un programme centré sur la pratique et le partage (320 conférences techniques et 275 exposants)
L’édition 2025 mettra en avant les approches concrètes du DevOps moderne : automatisation, IA, sécurité intégrée, observabilité et culture d’équipe.
Plus de 320 conférences techniques et 275 exposants permettront d’explorer les solutions et retours d’expérience des équipes qui opèrent à l’échelle.
Parmi les conférences phares :
• FinOps et DevOps : développement piloté par les coûts dans un monde cloud-économique — Émilie-Brenda Naoussi (Air France)
• DevSecOps sans le buzz : comment industrialiser la sécurité sans ralentir la livraison — Ayoub Houkmi (Vestiaire Collective)
• Culture DevOps : au-delà de l’architecture, la clé de systèmes innovants et durables — Joël Guimfack (Laboratoire Native SAS)
D’autres sessions aborderont :
• le DevOps augmenté par l’IA et les agents intelligents,
• la sécurité des containers (0 CVE dans vos containers : et si c’était possible ?),
• ou encore la mise en place de plateformes LLMOps pour le développement d’agents conversationnels.
Un salon tourné vers les solutions
Au-delà des conférences, DevOps Live Paris est aussi un espace de démonstration et d’expérimentation.
Les visiteurs pourront rencontrer des acteurs clés de l’écosystème tels que : Scafe, CBTW, Chainguard, Mindflow, Scalingo ou encore Spectrum Group / Atlassian…
C’est l’occasion d’échanger directement avec les équipes techniques derrière les outils et plateformes qui façonnent la chaîne CI/CD, la sécurité applicative et l’automatisation cloud.
Avec un seul badge, l’accès est ouvert à l’ensemble du Tech Show Paris : Cloud & AI Infrastructure, Cloud & Cyber Security Expo, Data & AI Leaders Summit et Data Centre World.
Pour les entreprises et projets issus de la communauté souhaitant rejoindre l’événement, une opportunité de stand à tarif préférentiel est proposée, incluant également une visibilité renforcée sur nos réseaux et supports de communication. Il suffit de contacter l’équipe organisatrice pour en bénéficier. Contactez-nous.
NdM: LinuxFr est partenaire média de l’événement. Benoît Sibaud modérera la table ronde du jeudi 6 novembre 10h00 – 10h45 « FinOps et DevOps : Développement piloté par les coûts dans un monde cloud-économique ».
Il aura fallu beaucoup trop de temps pour que ça se produise, et je l’aurai travaillé au corps une paire de fois le gaillard, mais voilà, ceci est le premier billet invité de l’unique, l’irremplaçable Pierre-Marie ! Parce que c’était à la fois trop con comme cible de jeu, mais surtout trop rigolo vu le mix de technos abordées, parce qu’on va parler de Pokemon, de Sunshine/Moonlight (le titre ne ment pas), de wakeonlan, de Kubernetes, de Fission. Oui, tout ça en même temps. Vous comprenez mon enthousiasme ?
La puissance des algorithmes de ciblage
Au détour de mon scrolling sur X, je suis tombé sur un post parlant de jeux vidéos (l’algorithme est bien foutu) et sur une injonction à s’inscrire sur PokeMMO.
Pas fan hardcore de Pokémon, j’ai quand même bien poncé les deux premières gen et me suis tenté à la troisième.
Je fais partie des gens qui n’attendent plus grand chose de Game Freak qui, selon moi, ressort en boucle les mêmes jeux sans vraiment d’innovation.
Au contraire, côté développement non officiel, on retrouve des jeux dérivés comme Pokémon Showdown, qui malgré que ce ne soit pas mon style de jeu, attire une grande communauté et qui aurait pu donner des idées à Nintendo pour renouveler la licence.
J’ai, par exemple, plus apprécié le rom hack Pokémon Adventures Red Chapter basé sur l’excellent manga Pokémon La Grande Aventure que le remake Let’s Go Evoli.
Bref, je suis donc allé voir ce qu’était ce PokeMMO, et me suis motivé pour me lancer dessus. Ça tombe bien, je pars 2 semaines en vacances et il faudra bien occuper mes soirées au coin de la clim. (article commencé au mois de Juillet). PokeMMO propose un installer pour Windows, Linux, iOS, Android et même un package pour OS alternatif (j’ai vu pas mal de gens qui installaient ça sur une console portable de type Retroid).
Personnellement, j’ai à ma disposition une PsVita et une Switch, toutes deux libérées et qui me servent lors de mes sessions retrogaming. L’option téléphone/tablette est pour moi rédhibitoire ne possédant pas de manette compatible et aimant beaucoup trop les boutons physiques pour jouer au tactile.
Installer Android sur Switch me semblant trop fastidieux, j’ai décidé de partir sur une autre voie. Étant obligé d’être connecté pour jouer quoi qu’il arrive (le O de MMO, hein), je me penche sur Moonlight, que j’avais déjà testé il y presque 10 ans. Il y a des clients pour Switch et PsVita (et pour beaucoup d’autres OS/appareils) donc ça pourrait correspondre à mes besoins.
Installation de Sunshine/Moonlight
Moonlight, pour vulgariser, c’est un client non-officiel pour le protocole Nvidia Gamestream qui vient se connecter à un ordinateur distant pour le contrôler à distance. Il a la force de supporter les contrôleurs locaux et de transmettre au PC distant à la manière d’un Steam Link. Pour pouvoir streamer vers un client Moonlight, il faut un serveur sur la machine cible. Le logiciel Nvidia GeForce Experience permet cela mais la « nouveauté » par rapport à mon essai d’il y a 10 ans, c’est le serveur Sunshine qui permet de s’affranchir du logiciel de Nvidia.
L’installation de Sunshine se fait via l’installateur dédié à la distribution cible en quelques secondes. Une fois installé, Sushine se configure via une interface web accessible en local. Elle permet de gérer les différents clients (appairage, suppression…), les différentes applications et les options de streaming (encodage, bitrate…).
Le première étape est de créer un couple utilisateur/motdepasse pour protéger l’accès à cette interface.
Interface de configuration de Sunshine: Creation du mot de passe
Par défaut, Sunshine propose deux applications: Bureau et Steam Big Picture (même si Steam n’est pas installé sur le système)
Interface de configuration de Sunshine: Applications
J’installe donc PokeMMO et le configure comme Application dans Sunshine. Je reprends simplement les valeurs trouvées dans le raccourci Bureau qui a été crée lors de l’installation. Il détecte même la miniature automatiquement.
Interface de configuration de Sunshine: Création de l’application PokeMMO
J’installe le client Moonlight sur les deux appareils. Le client détecte automatiquement le PC supportant Sunshine et affiche un code d’appairage à entrer dans Sunshine.
Interface de Moonlight: Détection
Interface de configuration de Moonlight: Appairage
Interface de Sunshine: appairage
L’appairage se déroule sans problème et je peux tester le stream en local.
Interface de Moonlight: Écran d’accueil
Je lance l’application Bureau et ça me permet de confirmer qu’il est bien possible d’ouvrir une session Windows à distance.
Interface de Moonlight: Bureau
Pour le stream distant, il faut juste s’assurer que Upnp est activé sur le routeur et cocher une case dans la configuration de Sunshine.
Interface de configuration de Sunshine: Activation de l’Upnp
(ndr: sinon il faut définir les ports et ouvrir manuellement/créer les redirections de port; l’IP fixe pour le PC de jeu est fortement recommandée dans ce cas)
Fini ?
On aurait pu s’arrêter là, mais bon, je suis pas fan de laisser tourner le PC H24 pendant 2 semaines juste pour l’utiliser quelques heures. Moonlight propose une fonctionnalité bien pratique de Wake On LAN pour démarrer un ordinateur à distance, mais voilà, ça ne fonctionne qu’en réseau local (en même temps c’est dans le nom).
Il faut donc trouver le moyen de le faire fonctionner à distance. J’ai plusieurs dispositifs à ma disposition.
Mon routeur PfSense permet de d’envoyer des paquets WoL mais uniquement via l’interface, pas d’API disponible. Il faudrait se connecter à l’interface via VPN pour lancer la commande. C’est trop lourd et pas assez flexible.
Solution suivante, utiliser le cluster k3s qui tourne à la maison.
Utilisation de k3s
On teste la faisabilité du process en lançant un pod temporaire contenant la commande wakeonlan mais ça ne fonctionne pas car l’appareil ciblé n’est pas sur le LAN du cluster k3s comme l’est le pod.
En cherchant un peu, on trouve qu’il faut configurer le pod pour qu’il tourne dans le réseau hôte, le réseau des nœuds.
Reste à trouver le moyen de lancer ça simplement, via un appel HTTP par exemple. Je viens justement de déployer un système de micro-services : Fission. Fission permet de déployer des fonctions de micro-services à la manière d’un système Serverless comme Lambda. Ça me permettrait de recevoir une requête HTTP avec en paramètre l’adresse MAC cible et d’envoyer la requête WoL avec un simple code python.
Installation de Fission
L’installation de Fission est simple si on passe par leur chart Helm. On a juste à surcharger quelques valeurs grâce au fichier values.yml suivant.
## Fission chart configuration
##
## routerServiceType to consider while creating Fission Router service.
## For minikube, set this to NodePort, elsewhere use LoadBalancer or ClusterIP.
##
routerServiceType: ClusterIP
## defaultNamespace represents the namespace in which Fission custom resources will be created by the Fission user.
## This is different from the release namespace.
## Please consider setting `additionalFissionNamespaces` if you want more than one namespace to be used for Fission custom resources.
##
defaultNamespace: fission
La documentation fission nous apprend qu’on peut modifier les spécifications des pods. Il y a même un tutoriel pour déployer un exemple.
# On créé un dossier dédié
mkdir wol-fn
cd wol-fn
# On initialise le dossier specs
fission spec init
# On créé l'environnement qui fera touner le code python
fission -n fission env create --spec --name python-wol --image ghcr.io/fission/python-env --builder ghcr.io/fission/python-builder
# On créé le dossier de la fonction
mkdir wol
# On créé un fichier requirements.txt avec le module python dont nous avons besoin
echo "wakeonlan" > wol/requirements.txt
# On créé le fichier contenant le code python à exécuter
touch wol/wol.py
from flask import request
from wakeonlan import send_magic_packet
import re
def main():
mac = request.args.get('mac')
if mac is None:
return "Please send a MAC address"
else:
if re.match("[0-9a-f]{2}([-:]?)[0-9a-f]{2}(\\1[0-9a-f]{2}){4}$", mac.lower()):
send_magic_packet(mac)
return "Sending magic packet to 255.255.255.255 with broadcast 255.255.255.255 MAC %s port 9" % (mac)
else:
return "%s is not a valid MAC format" % (mac)
On créé la spécification pour la fonction qui décrit quel code doit être exécuté et le trigger HTTP qui détermine quelle URL déclenche son exécution.
# On créé la spécification pour la fonction
fission -n fission function create --spec --name wol-fn --env python-wol --src "wol/*" --entrypoint wol.main
# On créé la spécification pour la route.
# Avec les annotations permettant de créer l'ingress rule sur Traefik
fission -n fission route create --spec --name wol-fn-get --method GET --url /wake --function wol-fn --createingress --ingressrule "test.domain.tld=/wake" --ingressannotation "kubernetes.io/ingress.class=traefik" --ingressannotation "traefik.ingress.kubernetes.io/router.entrypoints=websecure" --ingressannotation 'traefik.ingress.kubernetes.io/router.tls="true"' --ingressannotation "traefik.ingress.kubernetes.io/router.tls.certresolver=letsencrypt"
On a maintenant un dossier contenant la fonction et son environnement standard.
La directive hostNetwork permet comme vu plus haut de faire tourner le pod sur le réseau hôte.
Avec juste cette modification, on a une erreur à l’exécution du code parce que le pod n’arrive pas à aller chercher l’archive contenant le code de la fonction sur le stockage partagé de Fission.
{
"level": "error",
"ts": "2025-08-22T15:55:03.884Z",
"logger": "generic_pool_manager.generic_pool.fetcher_client",
"caller": "client/client.go:114",
"msg": "error specializing/fetching/uploading package, retrying",
"error": "Internal error - error fetching deploy package: failed to download url : Get \"http://storagesvc.fission/v1/archive?id=%2Ffission%2Ffission-functions%2Ffc6798a9-95c3-47cb-8797-28f842162f83\": dial tcp: lookup storagesvc.fission on 9.9.9.9:53: no such host",
"url": "http://X.X.X.X:8000/specialize",
"stacktrace": "github.com/fission/fission/pkg/fetcher/client.sendRequest\n\tpkg/fetcher/client/client.go:114\ngithub.com/fission/fission/pkg/fetcher/client.(*client).Specialize\n\tpkg/fetcher/client/client.go:56\ngithub.com/fission/fission/pkg/executor/executortype/poolmgr.(*GenericPool).specializePod\n\tpkg/executor/executortype/poolmgr/gp.go:467\ngithub.com/fission/fission/pkg/executor/executortype/poolmgr.(*GenericPool).getFuncSvc\n\tpkg/executor/executortype/poolmgr/gp.go:553\ngithub.com/fission/fission/pkg/executor/executortype/poolmgr.(*GenericPoolManager).GetFuncSvc\n\tpkg/executor/executortype/poolmgr/gpm.go:242\ngithub.com/fission/fission/pkg/executor.(*Executor).createServiceForFunction\n\tpkg/executor/executor.go:239\ngithub.com/fission/fission/pkg/executor.(*Executor).serveCreateFuncServices.func1\n\tpkg/executor/executor.go:143"
}
On voit qu’il cherche à contacter storagesvc.fission et qu’il n’arrive pas à résoudre ce hostname, ce qui est normal étant donné qu’il s’agit d’un nom interne au cluster et que le pod tourne désormais sur le hostNetwork. La directive dnsPolicy: ClusterFirstWithHostNet permet de forcer d’essayer la résolution en interne au cluster avant de tenter en externe sur le hostNetwork et résout ce problème.
Il ne reste qu’à déployer.
# On vérifie la syntaxe
fission spec validate
# On déploie
fission spec apply --wait
# On test via Fission CLI
fission -n fission function test --name wol-fn --method GET -q "mac=a1:b2:c3:d4:e5:f6"
# On test via HTTP depuis l'extérieur
curl "https://test/domain.tld/wake?mac=a1:b2:c3:d4:e5:f6"
Pour faire simple, ajouter l’URL en raccourci sur le téléphone et en un clic, le PC est démarré. Personnellement, je l’ai intégré dans mon Home Assistant avec un bouton dédié.
Home Assistant Dashboard
Finalisation de la configuration
Celui qu’on adore détester
Il reste deux ou trois détails à régler. Par défaut, depuis Windows 10, quand on arrête le système, il se place en réalité dans un mode de veille prolongée pour permettre un démarrage plus rapide. Hors le *Wake On LAN* ne fonctionne pas sur ce mode de sommeil. Microsoft documente ça très bien ici. Il y est également expliqué comment désactiver ce mode pour pouvoir rétablir un mode d’extinction « normal ».
Je vous les remets à l’identique:
Dans Panneau de configuration, ouvrez l’élément Options d’alimentation
Sélectionnez le lien Choisir ce que les boutons d’alimentation font
Désactivez la case à cocher Activer le démarrage rapide (recommandé)
Sélectionnez Enregistrez les paramètres.
Une fois cette modification effectuée, le Wake On LAN est complètement fonctionnel.
La fin
Et donc, puisqu’on a abordé le sujet, comment se passe l’extinction ? Vous vous rappelez ? le but de tout ce foutoir, c’était d’éviter de garder le PC allumé pendant deux semaines. On a parlé du démarrage, mais quid de l’arrêt ?
Le plus simple est de lancer une session Bureau dans Moonlight et d’aller cliquer sur le menu Démarrer puis le bouton Arrêter comme à la maison. Mais on peut aussi déclarer des applications dans Sunshine et il exécutera la commande associée à cette application.
J’ai donc créer une application nommée Shutdown qui lance la commande suivante shutdown /s /f /t 0.
Interface de configuration de Sunshine: Shutdown Application
Quand elle est lancée depuis le client Moonlight, elle éteint le PC distant.
Feedback et Conclusion
Puisque je suis rentré depuis, je peux débriefer ces 2 semaines d’utilisation, ça fonctionne super, le seul défaut que j’ai eu est qu’une fois le Shutdown n’a pas fonctionné et je ne l’ai pas vu tout de suite. Les fois suivantes, j’ai juste eu à bien vérifier le status dans le menu.
Interface de Moonlight: PC démarré
Interface de Moonlight: PC éteint
À part ça, super expérience ! Bien sur je n’ai pas cherché à jouer à des jeux très performants, mais ça a suffi à mes besoins, même en 4G. Je n’ai pas non plus poussé jusqu’à tenter de jouer sur la 4G en voiture, mais je pense que ça aurait pu marcher.
Je continue à l’utiliser, même à la maison, pour jouer dans le canapé plutôt que devant le PC.
Interface de Moonlight: PokeMMO
Alors, avouez que c’est pas mal en termes de bricolages inutiles donc indispensables, il était donc nécessaire de partager ça avec le plus grand nombre ? (enfin au moins les lecteurs de ce blog)
Alors que Windows 10 a atteint sa fin de vie, Zorin OS Linux a saisi cette occasion pour lancer officiellement sa version 18, une alternative moderne pour un système d'exploitation compatible et à jour
Alors que Windows 10 a finalement atteint la fin de sa durée de vie (avec une année supplémentaire de mises à jour de sécurité gratuites pour les utilisateurs de l'UE), Zorin OS a profité de l'occasion pour lancer officiellement sa version 18 tant attendue, une alternative moderne pour les utilisateurs...
À l’occasion du Cyber Mois 2025, dont la thématique interrogeante « Et si l’Histoire avait été bouleversée par de mauvaises pratiques cyber ? » nous invite à une réflexion profonde, nous mesurons à quel point la sécurité numérique constitue aujourd’hui un enjeu civilisationnel. Cette treizième édition nous rappelle avec justesse que les défaillances en matière […]
La dernière enquête de Kaspersky, menée auprès des décideurs en matière de cybersécurité dans les PME revient sur les défis quotidiens et les idées reçues des responsables informatiques des PME, ainsi que l’impact de ces obstacles sur leur collaboration avec des partenaires extérieurs. Le rapport montre qu’un tiers des petites et moyennes entreprises européennes (33 […]
Malgré des pratiques personnelles de cybersécurité limitées, un tiers des consommateurs se dit prêts à sanctionner une organisation en cas d’incident entraînant une fuite de données sensibles. Tribune – Une récente enquête menée par Commvault, l’un des principaux fournisseurs de solutions de cyber-résilience et de protection des données pour les environnements cloud hybrides, révèle que […]
Canonical publie Ubuntu 25.10 avec GNOME 49 comme bureau par défaut, le noyau Linux 6.17 pour une compatibilité plus large avec les systèmes ARM64 et RISC-V, et le chiffrement TPM pour plus de sécurité
Ubuntu 25.10 « Questing Quokka » est officiellement disponible sous la forme d'une version à court terme prise en charge jusqu'en juillet 2026, avec une mise à niveau directe vers Ubuntu 26.04 LTS en avril prochain. Cette version introduit GNOME 49 comme bureau par défaut, fonctionnant exclusivement...
Linux 6.18 améliorera HID avec un pavé tactile haptique et la prise en charge DualSense, cette dernière version du noyau Linux renforce également les mesures de sécurité
Linux 6.18 améliore le sous-système HID avec la prise en charge du pavé tactile haptique pour des appareils tels que l'Elan 2703, piloté par Google pour Chrome OS, ainsi que l'amélioration de la gestion audio Sony DualSense, la flexibilité HID-BPF, le renforcement de la sécurité des ioctls hidraw, le retour de force PIDFF et la...
Je ne parcours le Web que via VPN, AirVPN principalement, et j’en déduis que ça m’a fait bannir de Reddit
Sauf que ça prévient pas, c’est assez raide leur truc : compte bloqué et tous les posts/commentaires supprimés.
Mon compte datait certes de moins d’un mois mais avait des stats correctes. Pas de troll là-bas, contrairement à certains que j’ai pu lire et qui sont bien actifs.
Je repostais certains articles, en sus de commenter à droite à gauche. J’ai été intrigué de voir mes tentatives bloquées dans des subs où je n’avais pas l’habitude de poster. Mais je venais chercher des conseils pour un dév informatique. Puis quand j’ai voulu reposter mon article sur CineSync, c’était clair : plus rien ne passait. Et pour cause, compte « révoqué ».
Je peux vivre sans poster sur Reddit, ce qui me vexe c’est le ban sans justification. Ça doit venir de mon âge, j’ai été banni que de BTN comme tout l’arbre d’invités auquel j’appartenais, je suis pas habitué ^^
J’ai expliqué mon cas mais ne me fais pas trop d’illusions…
Les *arrs c’est du « chinois » pour vous ? Vous n’avez pas de machine assez puissante pour les faire tourner en sus d’un lecteur ? Vous voulez faire simple ?
CineSync, qui s’installe en Docker et peut tourner sur des machines peu puissantes avec 1 core et 1GB de RAM, permet, via une clé API (gratuite) TMDB, d’indexer et trier un dossier de fichiers en vrac (films et séries uniquement). Ça trie et organise via des symlinks (liens qui ne prennent aucune place) pour pouvoir ensuite profiter de ça via Plex/Jellyfin/Emby/Kodi ou un lecteur type VLC. Ce n’est pas un lecteur, juste un organiseur.
Pratique si vous avez accès à un FTP, un remote rClone, des APIs RealDebrid, AllDebrid ou TorBox, un montage NFS/sshFS… enfin n’importe quel espace de stockage avec des films et séries.
EDIT 06.10.25 : DjNiklos insiste à juste titre sur le fait qu’on peut combiner les dossiers sources en les séparant par des ,
Monitoring manuel ou automatique évidemment.
Je le teste avec mon montage AllDebrid de Decypharr, le dossier _ _ all _ _ où tous les fichiers sont en vrac. Le travail peut prendre un peu de temps selon la quantité de fichiers à traiter, les ressources allouées (cores/RAM) et les options demandées.
Et ça donne ce genre de tri (j’ai aucun contenu pour enfants mais ça les met à part également)
root@StreamBox:/mnt/Bibliothèques# ls CineSync/
4KMovies 4KShows CineSync Movies Shows
Le dossier CineSync = Collections, quand on demande leur création
Y’a plus qu’à indexer ça avec son lecteur favoris ou y accéder avec VLC ou autre et c’est nickel !
Supervision et automatisation en temps réel
CineSync intègre des fonctions avancées de surveillance et d’automatisation en temps réel, assurant une bibliothèque multimédia toujours parfaitement organisée — sans aucune intervention manuelle. Son interface web moderne offre un contrôle complet sur les paramètres d’automatisation et la supervision en direct de toutes les activités de traitement.
Système de surveillance intelligent
Détection instantanée : des algorithmes avancés repèrent immédiatement les nouveaux fichiers via les événements du système de fichiers.
Mode auto-traitement : activez ou désactivez le traitement automatique directement depuis l’interface web, pour un fonctionnement totalement mains libres.
Intégration streaming : les serveurs multimédias (Plex, Jellyfin, Emby) sont mis à jour en temps réel pour des bibliothèques toujours à jour.
Prévention des doublons : le système évite intelligemment le retraitement des mêmes contenus.
Flux de travail automatisés
Analyse initiale intelligente : un scan complet et une réorganisation de la bibliothèque au démarrage.
Surveillance continue : détection en temps réel des nouveaux fichiers, avec intervalles configurables.
Traitement en lot : gestion efficace de multiples fichiers grâce au traitement parallèle.
Récupération automatique : nouvelle tentative sur les opérations échouées, avec temporisation exponentielle.
Tableau de bord en temps réel
Statistiques en direct : visualisez instantanément la progression et l’état de la bibliothèque.
Suivi des ajouts récents : traçabilité automatique des contenus récemment ajoutés.
File d’attente visible : surveillance graphique des opérations en cours et à venir.
La surveillance en temps réel de CineSync est désormais une fonctionnalité native des scripts et images Docker, assurant une intégration fluide dans votre flux de travail. Grâce à elle, la gestion de votre médiathèque devient automatique et sans effort.
Automatisation personnalisable
Planification flexible : configurez les intervalles de surveillance et les horaires de traitement.
Règles spécifiques par contenu : appliquez des logiques différentes pour les films, séries, animés ou contenus jeunesse.
Nettoyage intelligent : suppression automatique des liens symboliques cassés et des entrées orphelines dans la base de données.
Intégration avec les serveurs multimédias
Jellyfin / Emby : actualisation instantanée via des liens symboliques compatibles inotify.
Plex : mise à jour automatique des bibliothèques grâce à l’API Plex.
Streaming direct : accès en temps réel aux contenus organisés par plusieurs méthodes.
Le système d’automatisation de CineSync transforme la gestion des médias d’une corvée manuelle en un processus fluide, intelligent et permanent.
Séparation intelligente des contenus
Contenu jeunesse : détection automatique des médias familiaux via les classifications TMDB (G, PG, TV-Y, TV-G, TV-PG) et les genres familiaux.
Organisation 4K : détection et séparation automatique des contenus UHD dans des dossiers dédiés.
Classification animés : gestion spécifique pour les animés, avec tri distinct entre films et séries.
Tri par résolution : classement intelligent selon la qualité vidéo (720p, 1080p, 4K, etc.).
Options d’organisation flexibles
Structure CineSync : organisation simplifiée en dossiers Movies et Shows.
Préservation de la structure source : possibilité de conserver les arborescences d’origine.
Nommage personnalisé : configuration libre des noms de dossiers selon le type de contenu.
Regroupement par collections : organisation automatique des sagas et franchises dans des répertoires communs.
Plutôt que de tout configurer via l’interface Web, on peut y adjoindre un .env. Fichier à placer dans le dossier /home/aerya/docker/cinesync/db dans mon cas, le montage local de /app/db. Le fichier de base est ici et il faut surtout y configurer la clé API TMDB et les dossiers source/destination.
# Directory Paths
# ========================================
# Source directory for input files
SOURCE_DIR="/mnt/decypharr/alldebrid/__all__"
# Destination directory for output files
DESTINATION_DIR="/mnt/Bibliothèques/CineSync"
Comme les *arrs quand ils travaillent sur les fichiers hébergés chez AllDebrid, accessibles dans /mnt/decypharr/alldebrid/_ _ all _ _, CineSync va les organiser et structurer localement via des symlinks dans /mnt/Bibliothèques/CineSync où Plex/Jellyfin/whatever pourra les indexer et lire.
admin/admin si vous ne changez pas dans la config
si pas de .env, il faut tout configurer via la WebUI
Et il n’y qu’à le laisser travailler ensuite
On peut éditer chaque fiche de contenu indexé pour déplacer vers un autre dossier selon l’orga de chacun (moi je laisse CineSync faire par défaut) et/ou éditer les informations d’un média.
On peut suivre et éditer/corriger l’indexation
La configuration est entièrement éditable via la WebUI
Et il peut même se faire passer pour Radarr et Sonarr auprès de Bazarr pour la gestion automatisée des sous-titres !
C’est vraiment super bien fait et très pratique quand on récupère « juste » un accès à une API ou un montage rClone dont on ne maitrise pas le contenu…
Le noyau Linux 6.17 est officiellement disponible avec des gains pour les ordinateurs portables Intel/AMD, des améliorations en matière de stockage et de réseau, ainsi qu'une latence réduite
Le noyau Linux 6.17 est désormais disponible, comme l'a annoncé Linus Torvalds lui-même. Il offre une prise en charge matérielle améliorée grâce à des pilotes nouveaux et mis à jour, des améliorations apportées aux systèmes de fichiers et aux réseaux, et bien plus encore. Ce noyau équipera Ubuntu 25.10 et d'autres...
Je ne sais pas quand ni comment, le panneau de configuration des LEDs sur mon NAS Lincstation N1 avait disparu. Plus rien dans /boot/config/… Heureusement, je viens de retrouver tout ce qu’il faut sur GitHub, grâce à mluisbrown.
Juste pour les LEDs, j’ai copié le dossier /led dans /boot/config et édité mon fichier /boot/config/go en conséquence :
#!/bin/bash
export UNRAID_GUID=xxx
export UNRAID_NAME=HomeBox
export UNRAID_DATE=xxx
export UNRAID_VERSION=Pro
/lib64/ld-linux-x86-64.so.2 /boot/config/unraider
# Start the Management Utility
/usr/local/sbin/emhttp
#bash /boot/config/mergerfsusenetdrive-start.sh
#/boot/config/mergerfsusenetdrive-stop.sh
# Start the LED Service
cp -r /boot/config/led/ /usr/local/sbin/led/
chmod 777 /usr/local/sbin/led/go_8130_led_linux
nohup /usr/local/sbin/led/go_8130_led_linux >/dev/null 2>&1 &
Ensuite, plutôt que de redémarrer le NAS, autant tout lancer à la main
UNRAID c’est bien. Mais UNRAID sauvegardé c’est mieux. Enfin… à moins de refaire mon boulet… Et je ne parle pas des données telles que photos, films, musiques, etc, au moins sécurisées par la parité, mais bien de celles liées à l’OS (configuration globale, plugins…) ou aux Dockers eux-mêmes (images, configs…).
Si on peut installer X outils de sauvegarde indépendants (Kopia, Duplicati, Restic…), je pense qu’on est surtout très nombreux à utiliser le plugin Appdata Backup (qui ne devrait plus être maintenu, mais) qui fait le boulot avec du backup incrémental des données des Dockers et du /boot. Surtout qu’on peut lui ajouter des scripts avant/après chaque étape, histoire de personnaliser à fond tout ça.
Cependant, 2 précautions valent mieux qu’une, et l’outil UNRAID Config Guardian de stephondoestech permet de créer des sauvegardes récurrentes (cron en variable du Docker) des configurations d’UNRAID et des Dockers (qui tournent, pas les stoppés pour l’instant). De surcroît avec un script de restauration d’urgence pour tout remettre en place simplement et rapidement. Utilisé en parallèle du plugin Appdata Backup, cet outil se concentre sur l’OS même, sa configuration, ses plugins et sort un gros compose.yml pour remettre en branle tous les Dockers.
« UCG » permet de lister les containers et leurs volumes/variables
et d’en faire une sauvegarde via un chemin local. Ce dernier pouvant être un disque dur, une clé USB, un montage de NAS/FTP, un montage rClone…
Et ce ne sont que des configurations, ça ne prend donc pas de place à stocker.
Pulse est une solution de supervision centralisée permettant de suivre en temps réel l’ensemble d’une infrastructure Proxmox VE et PBS depuis un tableau de bord unique. L’outil envoie des alertes instantanées en cas de panne de nœud, d’échec de sauvegarde ou de saturation de stockage. Les notifications sont compatibles avec email, Discord, Slack, Telegram et […]
Lorsque le système Garuda Linux ne démarre plus correctement (problème de GRUB, kernel corrompu, initramfs endommagé, etc.), l’une des solutions les plus efficaces est d’utiliser un Live USB pour accéder à vos partitions et corriger le système via un chroot. Monter un chroot d’une partition chiffrée avec LUKS depuis un Live USB Garuda Linux Si, […]
Utilisant des machines Debian chez Scaleway, je rencontrai l'avertissement suivant après mise à jour de Debian 12 à Debian 13.
Warning: An error occurred during the signature verification. The repository is not updated and the previous index files will be used. OpenPGP signature verification failed: http://ppa.launchpad.net/scaleway/stable/ubuntu focal InRelease: Sub-process /usr/bin/sqv returned an error code (1), error message is: Missing key 15061C3CA651AD8DF110A37BFEC8C91445F9E441, which is needed to verify signature.
Warning: Failed to fetch http://ppa.launchpad.net/scaleway/stable/ubuntu/dists/focal/InRelease Sub-process /usr/bin/sqv returned an error code (1), error message is: Missing key 15061C3CA651AD8DF110A37BFEC8C91445F9E441, which is needed to verify signature.
Warning: Some index files failed to download. They have been ignored, or old ones used instead.
Pour régler ce souci, j'identifiai ce dépôt PPA géré par Scaleway : https://launchpad.net/~scaleway/+archive/ubuntu/debian-stable
J'y trouvai l'adresse du dépôt et la clé de signature associée. Pour implémenter cela sur la machine, j'effectuai alors les opérations suivantes :
kdig est un utilitaire en ligne de commande issu de la suite Knot DNS, développé par le registre CZ.NIC. Il se présente comme une alternative moderne au traditionnel dig (issu de BIND9). Son intérêt principal réside dans la prise en charge des protocoles DNS sécurisés (DNSSEC, DoT, DoH) et une sortie en JSON facilitant l’automatisation. […]
Un mémo pour mettre en place un serveur DNS pour un réseau local uniquement en IPv4 avec support DNS-over-HTTPS (DoH) et DNS-over-TLS (DoT) en utilisant BIND9 comme backend et DNSdist comme proxy sous Debian Trixie avec certificat auto-signé Installation et configuration de BIND9 et DNSdist Architecture du système BIND9 : Serveur DNS autoritaire sur port […]
Une ancienne version de Decypahrr permet de l’utiliser avec Usenet. Non maintenue, je ne recommande pas de s’en servir pour BitTorrent.
J’ai testé sur une petite machine et ça marche mais ça consomme 100% de mon CPU en cas de transcodage couplé au téléchargement sur Usenet. Mais c’est fonctionnel avec les .nzb compatibles (pas de mot de passe, par d’archive). À l’époque j’avais Usenet-Drive ou encore nzbDAV sur un serveur plus robuste et ça passait très bien même en avance rapide.
Nous sommes dans le cas d’un montage de .nzb « streamable », il n’y a donc aucun debrideur à ajouter.
Le compose que j’utilise build le Dockerfile puisqu’il n’y a pas d’image de publiée et s’occupe du montage rClone du WebDav, celui-ci n’étant pas inclus dans l’interface. Il faut au préalable avec sa config rClone, qu’on peut créer à la main dans rclone.conf :
[decypharr-usenet]
type = webdav
url = http://192.168.0.163:2828/webdav/usenet
vendor = other
user = ""
pass = ""
URL : l’IP et le port de la WebUI de Decypharr tel qu’indiqué dans le compose
Ici je n’utilise pas de user:pwd pour l’accès à la WebUI de Decypharr. Si vous voulez le faire, il faut y mettre un pwd chiffré :