Vue lecture

Regarder une vidéo Youtube dans son terminal sans pub

Un petit article sur comment regarder une vidéo Youtube sans pub dans son terminal avec YT-X.

Sur le blog, un autre lecteur permettant de lire YouTube depuis le terminal a déjà été présenté : https://memo-linux.com/mps-youtube-regarder-youtube-dans-le-terminal/

Description de YT-X

Caractéristiques principales

  • Téléchargement polyvalent :
    • Téléchargez des vidéos individuelles ou des playlists entières.
    • Prend en charge plusieurs formats (audio et vidéo) comme MP4, MKV, MP3, etc.
    • Sélectionnez des qualités spécifiques, allant de 360p à 4K, selon vos besoins.
  • Extraction audio :
    • Extrayez directement l’audio en formats populaires tels que MP3, AAC ou OPUS.
  • Gestion des métadonnées
    • Ajoutez automatiquement des métadonnées comme le titre, l’artiste ou l’album.
    • Idéal pour organiser des bibliothèques multimédia.
  • Personnalisation :
    • Configurez le chemin de téléchargement, la qualité par défaut, et plus encore via un fichier config.json.
    • Support pour l’utilisation de proxies pour contourner des restrictions géographiques.
  • Intégration de yt-dlp :
    • Bénéficie de la puissance de yt-dlp, un outil performant pour le téléchargement de vidéos.
    • Compatible avec une grande variété de plateformes en plus de YouTube.
  • Optimisation pour les utilisateurs avancés :
    • Options pour le téléchargement en masse via des fichiers d’URL.
    • Contrôle total sur les paramètres vidéo et audio grâce aux options de la ligne de commande.

Avantages de YT-X

  • Simplicité d’utilisation : une interface en ligne de commande claire et intuitive.
  • Flexibilité : prend en charge divers cas d’utilisation, du téléchargement rapide à la gestion avancée.
  • Open Source : entièrement gratuit et modifiable pour répondre à vos besoins spécifiques.

    Cas d’utilisation courants

  • Créer une collection de vidéos ou musiques à regarder/habituer hors ligne.
  • Organiser les fichiers téléchargés avec des noms et des métadonnées propres.
  • Extraire des bandes sonores pour des projets créatifs ou pour une utilisation personnelle.
  • Télécharger du contenu géo-bloqué grâce au support de proxies.

Pré-requis avant installation de YT-X

  • Installer les dépendances :
    • Sous Ubuntu :
    sudo apt install yt-dlp fzf jq curl yt-dlp fzf mpv ffmpeg -y
  • Sous Archlinux :
sudo pacman -S yt-dlp fzf jq curl yt-dlp fzf mpv ffmpeg

Installation de YT-X

  • Exécuter la commande suivante :
curl -sL "https://raw.githubusercontent.com/Benexl/yt-x/refs/tags/0.3.0/yt-x" -o ~/.local/bin/yt-x && chmod +x ~/.local/bin/yt-x

Utilisation de YT-X

Pour l’exemple, je vais utiliser la chaine Youtube d’Adrian Linuxtricks.

  • Lancer yt-x :
yt-x

  • YT-X s’ouvre dans le terminal, sélectioner « Search » :
  • Entrer la recherche, ici linuxtricks et appuyer sur la touche Entrée du clavier :
  • Sélectionner une vidéo et appuyer sur Entrée, exemple ici « 02 Debian abondons 32-bit! » :
  • Pour lire la vidéo, sélectionner « Watch » :
  • La vidéo Youtube se lance dans le terminal via mpv :
  • Ressource

    •  

    Sécuriser SSH avec pam_faillock

    Un mémo sur la mise en place du module de sécurité pam_faillock sur Debian 12. Ce module permet de verrouiller temporairement un compte utilisateur connu du système après plusieurs tentatives de connexion infructueuses via ssh.

    Prérequis

    • Une machine tournant sous Debian 12 (Bookworm).
    • Un accès root ou des privilèges sudo.
    • Une compréhension de base des fichiers PAM (Pluggable Authentication Modules).

    Étape 1 : Installer les paquets nécessaires

    pam_faillock est inclus dans le paquet libpam-modules, qui est installé par défaut sur Debian 12.

    Étape 2 : Configurer pam_faillock

    • Modifier le fichier PAM de gestion des connexions locales :
      • Éditer le fichier /etc/pam.d/common-auth :
        auth    required                        pam_faillock.so preauth
        auth    [success=1 default=ignore]      pam_unix.so nullok
        auth    [default=die]                   pam_faillock.so authfail
        auth    sufficient                      pam_faillock.so authsucc
        auth    requisite                       pam_deny.so
        auth    required                        pam_permit.so
        
    • Éditer le fichier /etc/pam.d/common-account :

    account required                        pam_faillock.so

  • Configurer le fichier /etc/security/faillock.conf :
    • deny = 3
    • unlock_time = 900
    • audit
    • ignore_users = root
    • silent

  • Étape 3 : Tester la configuration

    • Vérifier les logs :
      • Les échecs de connexion sont enregistrés dans les journaux système :
      sudo journalctl -xe | grep pam_faillock
    • Simuler des échecs de connexion :
      • Tester plusieurs fois des connexions avec un mauvais mot de passe :
        • Vérifier les comptes verrouillés :
          • Utilisez la commande suivante pour lister les utilisateurs verrouillés :
          sudo faillock

        • Pour réinitialiser les tentatives d’échec d’un utilisateur spécifique :
        sudo faillock --reset --user utilisateur
    •  

    trippy : outil de diagnostique réseaux

    Trippy est un outil de diadnostique réseaux sous licence Apache 2 combinant les fonctionnalités de traceroute et de ping dans une interface en mode texte (TUI) afin d’aider les administrateurs systèmes et réseaux.

    • Trippy propose plusieurs options personnalisables pour l’analyse réseau :
      • Mode interactif avec une carte et des graphiques :
        • Trippy affiche un aperçu visuel dans le terminal. Cela inclut les sauts réseau et leurs temps de réponse.
      • Personnalisation des paramètres de traçage :
        • Définir le nombre de paquets envoyés.
        • Ajuster l’intervalle entre les requêtes.
      • Statistiques de confidentialité des sauts : il est possible d’anonymiser certaines informations des sauts pour protéger la confidentialité des adresses IP.
      • Génération de rapports : Trippy peut exporter des résultats pour analyse ultérieure.

    Installation de Trippy

    • Exemple d’installation de Trippy :
      • Ubuntu :
      sudo add-apt-repository ppa:fujiapple/trippy
      sudo apt update && sudo apt install trippy
      
    • ArchLinux :
    sudo pacman -S trippy
  • Possiblité aussi d’utiliser Trippy dans un docker :
  • docker run -it fujiapple/trippy

    Utilisation de Trippy

    • Commande de base :
      • Par exemple, pour tracer la route jusqu’à google.com :
      trip google.com
  • Tracer avec des options personnalisées :
    • Changer le protocole utilisé pour le traçage :
      Par défaut, Trippy utilise ICMP. Il est possible de lui spécifier d’autres protocoles comme UDP ou TCP :
      • UDP :
      trip --protocol udp google.com
    • TCP :
    trippy --protocol tcp google.com
  • Limiter le nombre maximum de sauts (TTL)
    • Pour définir le nombre maximal de sauts que Trippy explorera, utiliser –max-flows :
    trip --max-flows 15 example.com
  • Utiliser un port spécifique, exemple port 80 en TCP :
  • trip --protocol tcp --target-port 80 example.com

    Documentation complère de trippy

    •  

    proxmox-offline-mirror : créer un miroir local pour Debian et Ubuntu

    Un mémo sur comment utiliser la commande proxmox-offline-mirror pour créer un miroir local pour les distributions Debian et Ubuntu.

    Pour la création d’un miroir local Pour Proxmox, voir cet article : https://memo-linux.com/proxmox-offline-mirror-creer-un-miroir-local-pour-proxmox/

    Créer un miroir local Debian

    Pour la création d’un miroir local pour la distribution Debian, rien de compliqué car c’est intégré à la commande proxmox-offline-mirror :

    proxmox-offline-mirror setup
    • Select Action: dd new mirror entry
    • Guided Setup ([yes]): yes
    • Select distro to mirror : 4
    • Select release : 0 (pour Bookworm)
    • Select repository variant :
      • 0) Main repository
      • 1) Security
      • 2) Updates
      • 3) Backports
      • 4) Debug Information
      • Dans mon cas, j’ai éxécuté la commande proxmox-offline-mirror setup 3 fois pour avoir les 3 miroirs : Main repository, Security et Updates.

    • Enter repository components : main contrib (les dépots non-free c’est à vous de choisir)
    • Configure filters for Debian mirror bookworm / main : – (pas de filtres dans mon cas)
    • Enter mirror ID :
      • debian_bookworm_main
      • debian_bookworm_security
      • debian_bookworm_updates
    • Enter (absolute) base path where mirrored repositories will be stored : /srv/mirrors/debian/ (à adapter)
    • Should already mirrored files be re-verified when updating the mirror? : yes
    • Should newly written files be written using FSYNC to ensure crash-consistency? : yes
    • Pour finir, Select Action : Quit
    • Pour automatiser la création et la mise à jour du miroir Debian, voici le script :
    nano /usr/local/bin/sync-debian.sh
    #!/bin/bash
    export ALL_PROXY="http://proxyx.local:PORT"
    
    mirror_dir="/srv/mirrors/debian"
    symlink_dir="/srv/mirrors/debian/latest"
    
    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'debian_bookworm_main'
    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'debian_bookworm_updates'
    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'debian_bookworm_security'
    
    if [ $? -eq 0 ]; then
        for dir in "${mirror_dir}"/*; do
            if [ -d "$dir" ]; then
                dir_name=$(basename "$dir")
                if [[ "$dir_name" != "latest" && "$dir_name" != "lost+found" ]]; then
                    latest_subdir=$(ls -td "$dir"/*/ | head -n 1)
                    if [ -n "$latest_subdir" ]; then
                        latest_subdir_name=$(basename "$latest_subdir")
                        if [ -e "${symlink_dir}/${dir_name}" ]; then
                            rm -f "${symlink_dir}/${dir_name}"
                        fi
                        ln -s "$latest_subdir" "${symlink_dir}/${dir_name}"
                    fi
                fi
            fi
        done
        echo "Done on ${symlink_dir}."
    else
        echo "Error."
    fi
    
  • Rendre le scripte éxécutable :
  • chmod +x /usr/local/bin/sync-debian.sh
  • Exécuter une première fois le script afin de créer le miroir ocal :
  • sync-debian.sh
  • Ensuite, ajouter une tache cron pour l’éxécuter péridioquement :
  • crontab -e
    0 2 * * * /usr/local/bin/sync-debian.sh

    Créer un miroir local Ubuntu

    A la date de publication de l’article, la commande proxmox-offline-mirror setup n’est pas opérationnelle pour créer un miroir local pour la distribution Ubuntu.

    Ici, je choisis la distribution Ubuntu 24.04 LTS Noble.

    • Préparation du miroir Ubuntu Noble :
      • Création des répertoires pour le miroir :
      mkdir -p /srv/mirrors/ubuntu/noble/{ubuntu_noble_main,ubuntu_noble_updates,ubuntu_noble_security,latest}
      mkdir -p /srv/mirrors/ubuntu/noble/.pool
    • Téléchargement de la clé ubuntu :
    gpg --keyserver hkps://keyserver.ubuntu.com --recv-keys F6ECB3762474EDA9D21B7022871920D1991BC93C
    gpg --export F6ECB3762474EDA9D21B7022871920D1991BC93C | tee /usr/share/keyrings/ubuntu-archive-keyring.gpg > /dev/null
  • Ajout du miroir dans le fichier de configuration /etc/proxmox-offline-mirror.cfg à la suite des autres miroirs :
  • nano /etc/proxmox-offline-mirror.cfg
    mirror: ubuntu_noble_main
            architectures amd64
            architectures all
            base-dir /srv/mirrors/ubuntu/noble
            ignore-errors false
            key-path /usr/share/keyrings/ubuntu-archive-keyring.gpg
            repository deb https://fr.archive.ubuntu.com/ubuntu noble main restricted universe multiverse
            sync true
            verify true
    
    mirror: ubuntu_noble_updates
            architectures amd64
            architectures all
            base-dir /srv/mirrors/ubuntu/noble
            ignore-errors false
            key-path /usr/share/keyrings/ubuntu-archive-keyring.gpg
            repository deb https://fr.archive.ubuntu.com/ubuntu noble-updates main restricted universe multiverse
            sync true
            verify true
    
    mirror: ubuntu_noble_security
            architectures amd64
            architectures all
            base-dir /srv/mirrors/ubuntu/noble
            ignore-errors false
            key-path /usr/share/keyrings/ubuntu-archive-keyring.gpg
            repository deb https://fr.archive.ubuntu.com/ubuntu noble-security main restricted universe multiverse
            sync true
            verify true
    
  • Création du script d’automatisation de création et de mise à jour du miroir :
  • nano /usr/local/bin/sync-ubuntu.sh
    #!/bin/bash
    
    export ALL_PROXY="http://proxy.local:PORT"
    
    mirror_dir="/srv/mirrors/ubuntu/noble"
    symlink_dir="/srv/mirrors/ubuntu/noble/latest"
    
    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'ubuntu_noble_main'
    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'ubuntu_noble_updates'
    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'ubuntu_noble_security'
    
    if [ $? -eq 0 ]; then
        for dir in "${mirror_dir}"/*; do
            if [ -d "$dir" ]; then
                dir_name=$(basename "$dir")
                if [[ "$dir_name" != "latest" && "$dir_name" != "lost+found" ]]; then
                    latest_subdir=$(ls -td "$dir"/*/ | head -n 1)
                    if [ -n "$latest_subdir" ]; then
                        latest_subdir_name=$(basename "$latest_subdir")
                        if [ -e "${symlink_dir}/${dir_name}" ]; then
                            rm -f "${symlink_dir}/${dir_name}"
                        fi
                        ln -s "$latest_subdir" "${symlink_dir}/${dir_name}"
                    fi
                fi
            fi
        done
        echo "Done on ${symlink_dir}."
    else
        echo "Error."
    fi
    
  • Rendre le script exécutable :
  • chmod +x /usr/local/bin/sync-ubuntu.sh
  • Exécuter le script pour créer le miroir local :
  • sync-ubuntu.sh
  • Changer les dépots dans le sources.list sous Ubuntu server 24.04 :
    Pour information, sous Ubuntu server 24.04 LTS les dépôts ne se renseignent plus dans le fichier : /etc/apt/sources.list.
    cat /etc/apt/sources.list
    # Ubuntu sources have moved to /etc/apt/sources.list.d/ubuntu.sources
    • Modifier les URLs des dépôts :(dans mon cas le nom de domaine de mon serveur web est mirrors.local) :
    nano /etc/apt/sources.list.d/ubuntu.sources
    Types: deb
    URIs: http://mirrors.local/ubuntu/noble/latest/ubuntu_noble_main
    Suites: noble
    Components: main restricted universe multiverse
    Signed-By: /usr/share/keyrings/ubuntu-archive-keyring.gpg
    
    Types: deb
    URIs: http://mirrors.local/ubuntu/noble/latest/ubuntu_noble_security
    Suites: noble-security
    Components: main restricted universe multiverse
    Signed-By: /usr/share/keyrings/ubuntu-archive-keyring.gpg
    
    Types: deb
    URIs: http://mirrors.local/ubuntu/noble/latest/ubuntu_noble_updates
    Suites: noble-updates
    Components: main universe restricted multiverse
    Signed-By: /usr/share/keyrings/ubuntu-archive-keyring.gpg
    
  • Test d’update :
  • apt update
    Hit:1 http://mirrors.local/ubuntu/noble/latest/ubuntu_noble_main noble InRelease
    Hit:2 http://mirrors.local/ubuntu/noble/latest/ubuntu_noble_security noble-security InRelease
    Hit:3 http://mirrors.local/ubuntu/noble/latest/ubuntu_noble_updates noble-updates InRelease
    Reading package lists... Done
    Building dependency tree... Done
    Reading state information... Done
    89 packages can be upgraded. Run 'apt list --upgradable' to see them
    
  • Pour finir, ajouter une tache cron pour l’éxécuter péridioquement :
  • crontab -e
    0 3 * * * /usr/local/bin/sync-ubuntu.sh
    •  

    proxmox-offline-mirror : créer un miroir local pour Proxmox

    Un mémo sur comment créer un serveur miroir local pour Proxmox avec proxmox-offline-mirror sous Debian.

    Cet article fait suite à https://memo-linux.com/creer-un-serveur-miroir-local-sous-debian.

    Installer proxmox-offline-mirror sur Debian via apt

    • Ajouter le dépôt suivant :
    echo "deb http://download.proxmox.com/debian/pbs-client bookworm main" > /etc/apt/sources.list.d/pbs-client.list
  • Ajouter la clé du dépôt :
  • wget https://enterprise.proxmox.com/debian/proxmox-release-bookworm.gpg   -O /etc/apt/trusted.gpg.d/proxmox-release-bookworm.gpg
  • Mettre à jour les dépôts :
  • apt update
  • Installer proxmox-offline-mirror :
  • apt install proxmox-offline-mirror

    Configurer proxmox-offline-mirror pour le dépôt Proxmox

    • Exécuter la commande :
      proxmox-offline-mirror setup
      • Pour ajouter un nouveau miroir, choisir 0 :
      • Pour être guidé, répondre « yes » :
      • Choisir le dépôt Proxmox ve :
      • Choisir la version Bookworm :
      • Choisir la variante « No-Subscription repository » :
      • Pour la question suivante « Should missing Debian mirrors for the selected product be auto-added » ayant déjà mon propre miroir local Debian, je répond non :
      • Pour l’ID laisser pve_bookworm_no_subscription :
      • Entrer le chemin complet du répertoire pour le dépôt, dans mon cas /srv/mirrors/proxmox/ :
      • Revérifier ou pas les dépôts une fois mis à jour, dans mon cas je répond : yes
      • En cas de plantage, utiliser ou pas FSYNC, je répond : yes
      • Retour au menu, choisir 3 pour quitter :
      • Une fois que la configuration est terminée, éxécuter la commande :
        proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'pve_bookworm_no_subscription'
        • Si l’accès au dépôt se fait via un proxy, exporter la variable d’environnement PROXY_ALL avant l’éxécution de la synchro:
        export PROXY_ALL="http://proxy.domaine.tld:PORT/"
        

    Ajouter un nouveau dépôt

    Ici le dépôt ajouté sera celui de Ceph.

    • Exécuter la commande :
    proxmox-offline-mirror setup
  • Choisir : Add new mirror entry
  • Guided Setup ([yes]): yes
  • Select distro to mirror : Proxmox Ceph
  • Select release : Bookworm
  • Select Ceph release : Reef (18.x)
  • Select repository variant : No-Subscription repository
  • Enter mirror ID : ceph_reef_bookworm
  • Enter (absolute) base path where mirrored repositories will be stored : /srv/mirrors/proxmox/ (dans mon cas)
  • Should already mirrored files be re-verified when updating the mirror? : yes
  • Should newly written files be written using FSYNC to ensure crash-consistency? :yes
  • Config entry ‘ceph_reef_bookworm’ added
  • Pour finir :Quit
  • Une fois le dépôt ajouté, créer le snapshot du miroir :

    proxmox-offline-mirror mirror snapshot create --config '/etc/proxmox-offline-mirror.cfg' 'ceph_reef_bookworm'

    Configurer le serveur web

    Pour rappel, dans mon cas le serveur web est déjà installé. J’ajoute simplement une directive location dans mon fichiers de conf.
    Ce qui donne :

    nano /etc/nginx/sites-available/mirrors
    server {
        listen 80;
        server_name mirrors.local;
    
        root /srv/mirrors;
        index index.html;
    
        location /debian/ {
            alias /srv/mirrors/debian/;
            autoindex on;
        }
    
        location /ubuntu/ {
            alias /srv/mirrors/ubuntu/;
            autoindex on;
        }
    
       location /proxmox/ {
            alias /srv/mirrors/proxmox/;
            autoindex on;
        }
    
        }
    systemctl reload nginx

    Créer un chemin statique pour les dépôts Proxmox et Ceph

    De base, la commande proxmox-offline-mirror créé pour chaque dépôt un snapshot daté du jour.
    Un problèmes majeur :

    • Sur chaque noeud Proxmox faudra changer le dépôt comme suit :
    deb http://mirrors.local/proxmox/pve_bookworm_no_subscription/2024-12-10T10:20:21Z bookworm pve-no-subscription

    Pour obtenir qu’un seul référentiel pour le dépôt :

    • Créer le dossier :
    mkdir -p /srv/mirrors/proxmox/latest
  • Créer le script suivant :
  • nano /usr/local/bin/sync-proxmox.sh
    #!/bin/bash
    export ALL_PROXY="http://proxy.local:PORT"
    mirror_dir="/srv/mirrors/proxmox"
    symlink_dir="/srv/mirrors/proxmox/latest"
    proxmox-offline-mirror mirror snapshot create-all
    if [ $? -eq 0 ]; then
        for dir in "${mirror_dir}"/*; do
            if [ -d "$dir" ]; then
                dir_name=$(basename "$dir")
                if [[ "$dir_name" != "latest" && "$dir_name" != "lost+found" ]]; then
                    latest_subdir=$(ls -td "$dir"/*/ | head -n 1)
                    if [ -n "$latest_subdir" ]; then
                        latest_subdir_name=$(basename "$latest_subdir")
                        if [ -e "${symlink_dir}/${dir_name}" ]; then
                            rm -f "${symlink_dir}/${dir_name}"
                        fi
                        ln -s "$latest_subdir" "${symlink_dir}/${dir_name}"
                    fi
                fi
            fi
        done
        echo "Done on ${symlink_dir}."
    else
        echo "Error."
    fi
    

    Créer une tache cron pour synchroniser le miroir de Proxmox

    • Créer une tache cron :
    crontab -e
    0 4 * * * /usr/local/bin/sync-proxmox.sh
    

    Changer les dépôts sur les noeuds Proxmox

    • Editer vos fichiers sources.list et changer les url par celle de votre miroir local :
    deb http://mirrors.local/debian bookworm main contrib
    deb http://mirrors.local/debian bookworm-updates main contrib
    deb http://mirrors.local/debian bookworm-security main contrib
    
    deb http://mirrors.local/proxmox/latest/pve_bookworm_no_subscription bookworm pve-no-subscription
    deb http://mirrors.local/proxmox/latest/ceph_reef_bookworm no-subscription
    
  • Test de l’update :
  • apt update

    Nettoyage des snapshots Proxmox et Ceph

    • Créer le script :
    nano /url/local/bin/clean_proxmox_snapshots.sh
    #!/bin/bash
    
    # Variables
    MIRRORS=(
        "/srv/mirrors/proxmox/pve_bookworm_no_subscription"
        "/srv/mirrors/proxmox/ceph_reef_bookworm"
    )
    MAX_AGE=7  # Durée limite (en jours)
    
    # Nettoyage pour chaque miroir
    for MIRROR_PATH in "${MIRRORS[@]}"; do
        echo "Traitement du miroir : $MIRROR_PATH"
    
        # Nettoyage des snapshots anciens
        SNAPSHOTS=$(proxmox-offline-mirror mirror snapshot list --mirror "$MIRROR_PATH" --format json | \
        jq -r ".[] | select(.age > $MAX_AGE) | .name")
    
        if [[ -z "$SNAPSHOTS" ]]; then
            echo "Aucun snapshot à supprimer pour le miroir : $MIRROR_PATH"
        else
            echo "Suppression des snapshots suivants pour $MIRROR_PATH :"
            echo "$SNAPSHOTS"
    
            for SNAPSHOT in $SNAPSHOTS; do
                proxmox-offline-mirror mirror snapshot remove --mirror "$MIRROR_PATH" --snapshot "$SNAPSHOT"
                echo "Snapshot supprimé : $SNAPSHOT"
            done
    
            # Garbage collection
            echo "Exécution de garbage collection (GC) pour le miroir : $MIRROR_PATH"
            proxmox-offline-mirror mirror gc --mirror "$MIRROR_PATH"
            echo "Garbage collection terminée pour $MIRROR_PATH."
        fi
    
        echo "-------------------------------------------"
    done
    
    echo "Nettoyage terminé pour tous les miroirs."
    
    
  • Rendre le script exécutable :
  • chmod +x /url/local/bin/clean_proxmox_snapshots.sh
  • Créer une tâche cron :
  • crontabe -e
    0 0 * * * /usr/local/bin/clean_proxmox_snapshots.sh

    Ressources

    •  

    Créer un serveur miroir local sous Debian

    Un mémo sur comment créer un serveur miroir local sous Debian.

    Pour ce tuto, je ne vais pas utiliser apt-mirroir ni debmirror mais simplement la commande lftp et comme serveur web Nginx.

    De plus, mon miroir local sera dédié pour les distributions et en versions stables de Debian, Ubuntu.

    Alors pourquoi lftp et non rsync ? car tout simplemement le proxy local n’accepte que les ports 80, 443 et 21 en sortie.

    Préparer l’environnement

    • Mettre à jour le système :
    apt update && apt full-upgrade -y
  • Installer les outils nécessaires :
  • apt install lftp nginx -y
  • Créer des répertoires pour stocker les miroirs :
  • mkdir -p /srv/mirrors/{debian,ubuntu}
  • Définir les permissions :
  • chown -R www-data:www-data /srv/mirrors
    chmod -R 755 /srv/mirrors
    

    Synchroniser les miroirs Debian et Ubuntu

    • Miroir Debian :
      • Créer le script suivant pour synchroniser Debian :
      nano /usr/local/bin/sync-debian.sh
    • Le contenu du script :
    #!/bin/bash
    
    # Variables
    BASE_URL_DEBIAN="http://deb.debian.org/debian"
    BASE_URL_SECURITY="https://security.debian.org/debian-security"
    LOCAL_DIR="/srv/mirrors/debian"
    SECTIONS=("bookworm" "bookworm-updates" "bookworm-security")
    
    # Proxy configuration
    export http_proxy="http://monproxy.local:8080"
    export https_proxy="http://monproxy.local:8080:"
    
    # Options pour lftp
    LFTP_OPTS="mirror --parallel=4 --verbose=2 --delete"
    
    # Boucle sur les sections principales (bookworm, bookworm-updates)
    for SECTION in "${SECTIONS[@]}"; do
        if [ "$SECTION" == "bookworm-security" ]; then
            # Pour le dépôt de sécurité, utiliser une URL différente
            echo "Synchronisation de $SECTION..."
            lftp -c "$LFTP_OPTS $BASE_URL_SECURITY/dists/bookworm-security $LOCAL_DIR/dists/bookworm-security"
        else
            # Pour les autres sections, utiliser l'URL Debian principale
            echo "Synchronisation de $SECTION..."
            lftp -c "$LFTP_OPTS $BASE_URL_DEBIAN/dists/$SECTION $LOCAL_DIR/dists/$SECTION"
        fi
    done
    
    echo "Synchronisation terminée."
    
    
  • Donner les permissions d’exécution au script :
  • chmod +x /usr/local/bin/sync-debian.sh
  • Miroir Ubuntu :
    • Créer le script suivant pour synchroniser Ubuntu :
    nano /usr/local/bin/sync-ubuntu.sh
  • Le contenu du script :
  • #!/bin/bash
    
    # Variables
    BASE_URL_UBUNTU="http://archive.ubuntu.com/ubuntu"
    BASE_URL_UBUNTU_SECURITY="http://security.ubuntu.com/ubuntu"
    LOCAL_DIR="/srv/mirrors/ubuntu"
    SECTIONS=("noble" "noble-updates" "noble-security")
    
    # Proxy configuration
    export http_proxy="http://monproxy.local:8080"
    export https_proxy="http://monproxy.local:8080"
    
    # Options pour lftp
    LFTP_OPTS="mirror --parallel=4 --verbose=2 --delete"
    
    # Boucle sur les sections principales (noble, noble-updates)
    for SECTION in "${SECTIONS[@]}"; do
        if [ "$SECTION" == "noble-security" ]; then
            # Pour le dépôt de sécurité, utiliser une URL différente
            echo "Synchronisation de $SECTION..."
            lftp -c "$LFTP_OPTS $BASE_URL_UBUNTU_SECURITY/dists/noble-security $LOCAL_DIR/dists/noble-security"
        else
            # Pour les autres sections, utiliser l'URL Ubuntu principale
            echo "Synchronisation de $SECTION..."
            lftp -c "$LFTP_OPTS $BASE_URL_UBUNTU/dists/$SECTION $LOCAL_DIR/dists/$SECTION"
        fi
    done
    
    echo "Synchronisation terminée."
    
  • Donner les permissions d’exécution au script :
  • chmod +x /usr/local/bin/sync-ubuntu.sh

    Planifier la synchronisation automatique

  • Configurer les tâches avec cron pour automatiser les synchronisations :
  • crontab -e
  • Ajouter les lignes suivantes :
  • 0 2 * * * /usr/local/bin/sync-debian.sh
    0 3 * * * /usr/local/bin/sync-ubuntu.sh
    

    Configurer le serveur web

  • Créer un fichier de configuration Nginx :
  • nano /etc/nginx/sites-available/mirrors
  • Ajouter la configuration suivante :
  • server {
        listen 80;
        server_name mirrors.local;
    
        root /srv/mirrors;
        index index.html;
    
        location /debian/ {
            alias /srv/mirrors/debian/;
            autoindex on;
        }
    
        location /ubuntu/ {
            alias /srv/mirrors/ubuntu/;
            autoindex on;
        }
    
        }
    
  • Activer la configuration :
  • ln -s /etc/nginx/sites-available/mirrors /etc/nginx/sites-enabled/
  • tester la configuration :
  • nginx -t
  • Recharger la configuration de Nginx :
  • systemctl reload nginx
  • Tester l’accès au serveur web (exemple ici avec le miroir local pour Proxmox) :
  • Modification des fichiers sources.list des clients

    Il ne reste que la modification des fichiers sources.list sur l’ensemble des serveurs.
    Pour ce faire, modifier l’url par l’IP du serveur miroir local pour tous les dépôts.

    Afin de déployer les modifcations de chaque serveur, je vous propose d’utiliser Ansible :

    ansible-playbook -i inventory.yml update_sources_grouped.yml

    Les playbooks Ansible sont disponible ici -> https://github.com/freddL/playbook_add_mirror_local/

    •  

    désactiver le changement de l’adresse MAC d’une interface wifi

    Un rapide mémo sur comment désactiver le changement automatique d’adresse MAC d’une interface Wifi afin de se connecter à un réseau wifi géré par liste blanche.

    • Editer le fichier /etc/NetworkManager/NetworkManager.conf :
    sudo nano /etc/NetworkManager/NetworkManager.conf
  • Ajouter au fichier :
  • [device]
    wifi.scan-rand-mac_address=no
    

  • Appliquer les changements :
  • sudo nmcli general reload
  • Connecter l’interface réseau au wifi :
  • nmcli connection up nom-de-l'Interface_réseau
    •  

    Proxmox 8 cluster HA + Ceph

    Un mémo sur la mise en place d’un cluster en haute disponibilité d’hyperviseurs Proxmox avec un stockage distribuée et redondant Ceph. Cet article traite uniquement de la mise en cluster des noeuds Proxmox ainsi que l’installation et de la configuration de Ceph.

    Configuration Réseau des noeuds Proxmox

    Chaque réseau sera cablé en topologie MESH et les interfaces réseaux créés dans Proxmox seront des aggrégations en mode Broadcast.
    Pour plus d’infos voir cet article : https://memo-linux.com/proxmox-creer-un-cluster-sur-un-reseau-prive-sans-switch/

    • Adresse IP public des noeuds Proxmox :
      • pve01 : 10.x.x.1
      • pve01 : 10.x.x.2
      • pve01 : 10.x.x.3
    • Réseau Corosync (cluster Proxmox) : 192.168.254.0/24
      • pve01 : 192.168.254.1
      • pve02 : 192.168.254.2
      • pve03 : 192.168.254.3
    • Réseau Ceph :
      • Ceph Public 192.168.252.0/24
        • pve01 : 192.168.252.1
        • pve02 : 192.168.252.2
        • pve03 : 192.168.252.3
      • Ceph Cluster 192.168.253.0/24
        • pve01 : 192.168.253.1
        • pve02 : 192.168.253.2
        • pve03 : 192.168.253.3

    Mise en cluster des noeuds Proxmox

    Avant la mise en cluster, il faut s’assurer absolument que chaque noeud soit à l’heure et synchronisé sur un serveur NTP.

    chronyc tracking

    • Initialisation du cluster sur un noeud aux choix :
    pvecm create nom_cluster --link0 192.168.254.1
  • Joindre les autres noeuds Proxmox au cluster :
    • Sur pve02 :
    pvecm add 10.x.x.1 --link0 192.168.254.2
  • Sur pve03 :
  • pvecm add 10.x.x.1 --link0 192.168.254.3
  • Via l’interface web, il est possible de voir le statut du cluster ainsi que l’ensemble des noeuds Proxmox :
  • Installation de Ceph

    L’installation et la configuration du Ceph sera réalisée via l’interface web de Proxmox.

    • Sélectionner un noeud, dans le menu cliquer sur Ceph puis cliquer sur « Install Ceph » :
    • Une nouvelle fenêtre s’ouvre, sélectionner la dernière version de Ceph (Reef) et le dépôt No-Subscription puis cliquer sur « Start reef installation » :
    • Répondre « Y » puis la touche « Enter » du clavier :
    • Une fois l’installation terminée, cliquer sur « Next » :
    • Configuration réseau du cluster de Ceph :
    • Sélectionner les adresses IP configurées pour chaque réseau Public et Cluster du Ceph :
    • Installation et configuration du Ceph terminée :

    Cependant, il faut refaire l’étape d’installation du Ceph sur les autres noeuds (sans la partie réseau).

    Mise en place du Ceph sur le cluster Proxmox

    • Sur chaque noeud, créer le Ceph Monitors :
      • Cliquer dans le menu Ceph, puis cliquer sur Monitor :
      • Cliquer cur « Create » :
      • Sélectionner le noeud :
      • Répéter l’opération sur l’autre noeud afin d’avoir l’ensemble des monitors :
    • Sur chaque noeud, créer le Ceph Manager :
      • Toujours dans le menu Monitor, au niveau de Manager cliquer sur « Create » :
      • Sélectioner le noeud :
      • Répéter l’opération sur l’autre noeud afin d’avoir tous les Managers (à savoir, un seul est actif) :
    • Création des OSD :
      • Pré-requis, il faut que les disques soient configurés en NON-RAID et visible dans le menu « Disks » :
      • Opération à réaliser sur chaque noeud, dans le menu Ceph, cliquer sur OSD puis sur « Create: OSD » :
      • Sélectionner le premier disque puis cliquer sur « Create » :
      • Répéter l’opération pour l’ensemble des disques :
    • Création du pool Ceph pour le stockage :
      • Toujours dans le menu Ceph, cliquer sur « Pools » puis sur « Create » :
      • Donner un nom au pool Ceph puis cliquer sur « Create » :
      • Une fois le pool Ceph créé, le stockage est automatiquement créé et partagé aux membres du cluster Proxmox :

    Mise en place de la HA pour les VMs

    nb: Lors de la création d’une machine virtuelle, ne pas oublier de choisir le stockage correspondant au pool Ceph:

    Encore à ce jour pour la gestion HA des machines virtuelles, j’utilise cette méthode -> https://memo-linux.com/proxmox-cluster-ha-repartition-de-charge-des-machines-virtuelles/

    •  

    Installer et configurer un VPN Wireguard sur OpenVZ

    Un mémo sur comment installer et configurer un serveur VPN Wireguard sur un VPS OpenVZ sous Debian 12 Bookworm.

    Pré-requis avant installation de Wireguard

    Installation et Configuration de Wireguard sur OpenVZ

    Pour faciliter l’installation et l’utilisation Wireguard sur OpenVZ, il faut passer par la solution boringtun.

    • Mise à jour du référentiel de paquets, installation de curl et de l’utilitaire de package cargo :
    apt update && apt install curl cargo
  • Installer boringtun-cli :
  • cargo install boringtun-cli --locked
  • Rendre accessible au système l’utilitaire boringtun-cli :
  • ln ~/.cargo/bin/boringtun-cli /usr/local/bin/
  • Télécharger le script d’auto installation de Wireguard partagé par notre ami Angristan :
  • curl -O https://raw.githubusercontent.com/angristan/wireguard-install/master/wireguard-install.sh
  • Désactiver la vérification de la technologie de virtualisation dans le script d’installation :
  • sed -i 's/^\tcheckVirt/#\tcheckVirt/' wireguard-install.sh
  • Rendre exécutable le script :
  • chmod +x wireguard-install.sh
  • Exécuter le script pour installer Wiregard et répondre aux questions:
  • ./wireguard-install.sh
  • Une fois Wireguard installé, faire ces modifications du service wg-quick@.service pour forcer la gestion de l’interface du tunnel wireguard par boringtun-cli :
  • sed -i '19 i Environment=WG_QUICK_USERSPACE_IMPLEMENTATION=boringtun-cli' /lib/systemd/system/wg-quick@.service
  • Modifier les permissions :
  • sed -i '20 i Environment=WG_SUDO=1' /lib/systemd/system/wg-quick@.service
  • Prise en compte des modifications du service par systemd :
  • systemctl daemon-reload
  • Stopper le service wg-quick@wg0 :
  • systemctl stop wg-quick@wg0
  • Démarrer Wireguard :
  • systemctl start wg-quick@wg0
  • Vérifier le statut de Wireguard :
  • systemctl status wg-quick@wg0

    Resources

    •  

    corriger le message nginx: [warn] the « listen … http2 » directive is deprecated

    Un petit mémo sur comment corriger le message nginx: [warn] the « listen … http2 » directive is deprecated pour une configuration https d’un server block.

    En effet, si un de des servers block est configuré en https comme ceci: listen 443 ssl http2; Nginx refusera de valider la configuration.

    Pour que la configuration soit valide :

    • changer la ligne :
    listen 443 ssl http2;
  • par :
  • listen 443 ssl;
    http2 on;
    
  • vérifier la configuration :
  • nginx -t
    nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
    nginx: configuration file /etc/nginx/nginx.conf test is successful
    
  • Relancer le service nginx :
  • systemctl restart nginx
    •  

    Créer une clé USB multiboot avec Ventoy

    Un petit mémo sur comment créer simplement une clé bootable multi ISO avec Ventoy de manière graphique.

    Installation de Ventoy

    • Installer Ventoy :
      yay -S ventoy
  • Les autres :
    sudo tar -xzvf ventoy-*-linux.tar.gz -C /opt
  • Créer une clé USB multiboot avec Ventoy

    • Ouvrir Ventoy :
      • Saisir dans un terminal la commande :
        sudo /opt/ventoy/VentoyGUI.x86_64
        • Le logiciel Ventoy s’ouvre :
      • Dans le cas présent, la clé USB a été détectée automatiquemement. Sinon, sélectionner la clé USB souhaité et cliquer sur Install (attention, les données sur clé USB seront entièrement supprimées) :
      • Message d’avertissement sur la suppresion total des données, cliquer sur Valider :
      • Re message d’avertissement (Double Check) :
      • Ventoy a bien été installé sur le clé USB :
      • Débrancher puis rebrancher la clé USB sur le PC et la clé est prète à recevoir les ISOs :
      • Pour fini copier coller les ISOs sur la clé (perso, j’ai créé un dossier ISO à la racine de la clé USB) :

    Démarrer sur la clé USB Ventoy

    • Faire un test de boot sur la clé USB Ventoy, exemple avec VirtualBox
    • Ou directemement su PC :
    •  

    gdu : utilitaire d’analyse d’espace disque sous Linux

    Gdu pour go DiskUsage() est un petit utilitaire écrit en Go, fort pratique et très rapide d’exécution pour l’analyse d’espace disque sous GNU/Linux. Cet utilitaire d’analyse de disque a été principalement développé pour les disques SSD afin d’utiliser pleinement le traitement parallèle. Gdu peut être évidemment utilisé sur les disques dur mécanique mais avec moins de performance.

    Utilisation de gdu

    • Une fois installé, taper simplement dans le terminal :
    gdu
  • Faire l’analyse d’un dossier particulier :
  • gdu /home/fred
  • Une option que je trouve très intéressante dans gdu et qui manque pour moi dans ncdu est de faire l’analyse à partir des points de montage :
  • gdu -d

  • Pour connaître toutes les options de gdu :
  • gdu --help

    Installer gdu

    • Debian :
    apt install gdu
  • Ubuntu :
  • add-apt-repository ppa:daniel-milde/gdu
    apt-get update
    apt-get install gdu
    
  • Arch Linux :
  • pacman -S gdu
  • Avec curl :
  • curl -L https://github.com/dundee/gdu/releases/latest/download/gdu_linux_amd64.tgz | tar xz
    chmod +x gdu_linux_amd64
    mv gdu_linux_amd64 /usr/bin/gdu
    

    Ressources

    •  

    Proxmox : mode maintenance

    Un petit mémo sur comment activer le mode maintenance d’un nœud Proxmox au sein d’un cluster.

    le mode maintenance dans Proxmox

    En deux mots, c’est un mode qui permet comme son nom l’indique de mettre un nœud membre d’un cluster hors ligne sans l’arrêter.
    Du coup, les machines virtuelles du nœud en question vont réagir suivant comment a été programmé l’option de la HA dans Proxmox.
    Dans mon cas, l’option est configurée en mode Migration :

    Dès l’activation du mode maintenance d’un nœud membre du cluster Proxmox, les machines virtuelles vont automatiquement migrées à chaud sur un autre nœud. Cet autre nœud est déterminé dans les groupes créés dans le menu HA.
    Dans mon cas, si je met en mode maintenance le nœud pve01-lim, les machines vont migrées automatiquement vers le nœud pve02-lim :

    Activer/Désactiver le mode maintenance sur un nœud Proxmox

    • Activer le mode maintenance :
    ha-manager crm-command node-maintenance enable $(hostname)
  • Désactivé le mode maintenance :
  • ha-manager crm-command node-maintenance disable $(hostname)

    Dans mon cas, j’ai ajouté cette commande dans mon playbook de mise à jour de mes noeuds Proxmox :
    https://github.com/freddL/playbook_proxmox/blob/master/pve_update.yml
    Cette option me permet de migrer les machines virtuelles automatiquement avant la mise à jour et surtout avant le redémarrage des service avec needrestart, ce qui dans certain cas fait redémarrer le nœud et donc provoque une coupure de service des machines virtuelles.

    Ressource

    •  

    Proxmox Backup Serveur 2 vers 3

    Un petit mémo sur les étapes à suivre pour faire la montée de version de proxmox backup server 2 vers 3.

    • Point de vigilance : tout comme la montée de version de Proxmox de 7 vers 8, le noms des cartes réseaux PCI peuvent changer ! (dans mon cas, j’ai été surpris car pas de changement)

    Pré-requis avant la mise à jour de PBS en version 3

    • S’assurer que PBS est bien en version 2 :
      proxmox-backup-manager versions
      • Résultat attendu :
      proxmox-backup-server 2.4.2-2 running version: 2.4.2
  • Faire une sauvegarde de /etc/proxmox-backup pour s’assurer de retrouver toute la configuration du PBS en cas de crash lors de la mise à jour :
  • tar czf "pbs2-etc-backup-$(date -I).tar.gz" -C "/etc" "proxmox-backup"
  • Vérifier que la partition système du PBS a au minimum 5 Go d’espace libre :
    df -h /
    • Exemple :
    Filesystem            Size  Used Avail Use% Mounted on
    /dev/mapper/pbs-root  250G   12G  226G   5% /
    
  • Mise à jour de PBS en version 3

    • Passer en mode maintenance le ou les datastores :
      • Exemple dans mon cas :
      proxmox-backup-manager datastore update backup-me5024 --maintenance-mode read-only
      proxmox-backup-manager datastore update nfs-backup --maintenance-mode read-only
  • Changer les dépots de Debian bullseye vers bookworm :
  • sed -i 's/bullseye/bookworm/g' /etc/apt/sources.list
  • Faire de même avec les dépots de PBS :
  • sed -i -e 's/bullseye/bookworm/g' /etc/apt/sources.list.d/*.list
  • Appliquer la mise à jour de PBS vers la version 3:
  • apt update && apt full-upgrade
  • Une fois la mise à jour terminée, redémarré PBS :
  • reboot
  • Au redémarrage, vérifier la version de PBS :
    proxmox-backup-manager versions
    • Ce qui est attendu :
    proxmox-backup-server 3.0.1-1 running version: 3.0.1
  • Désactiver le mode maintenance de ou des datastores :
    • Dans mon cas :
    proxmox-backup-manager datastore update backup-me5024 --delete maintenance-mode
    proxmox-backup-manager datastore update nfs-backup --delete maintenance-mode
  • L’opération de mise à niveau de Proxmox Backup Serveur en version 3 est terminée.
  • Ressource

    •  

    Proxmox : TASK ERROR: storage migration failed: target storage is known to cause issues with aio=io_uring (used by current drive)

    Un petit mémo sur comment résoudre l’erreur TASK ERROR: storage migration failed: target storage is known to cause issues with aio=io_uring (used by current drive) lors d’un déplacement de disque dur d’une machine virtuelle sous Proxmox.

    Par défaut sous Proxmox, le disque dur d’un machine virtuelle bénéficie de la technologie io_uring.
    Cette technologie de io_uring permet d’augmenter les performances IO d’un disque sous Linux.
    Cependant, cette technologie peut poser problème si la destination du stockage est de type iSCSI.
    Dans mon cas, stockage source Ceph vers stockage destination baie ISCSI = TASK ERROR: storage migration failed: target storage is known to cause issues with aio=io_uring (used by current drive)

    Par contre, j’ai fais l’exercice inverse avec le déplacement de la baie iSCSI vers le Ceph et ça fonctionne parfaitement avec l’option io_uring.

    Changer l’option Async IO d’un disque d’une machine virtuelle

    • Se positionner dans le menu Hardware de la machine virtuelle, puis double cliquer sur Hard Disk :
    • Ouvrir les options avancées en cliquant sur « Advanced » :
    • Changer l’option de Async IO pour native :
    • Redémarrer la machine virtuelle pour prendre en compte les mortification de l’option :

    • Une fois la machine virtuelle redémarré, il est de nouveau possible de déplacer le disque dur vers un autre stockage partagé.

    Ressources

    •  

    lowriter : convertir facilement des documents au format PDF via le terminal

    Un petit mémo sur comment convertir facilement des fichiers au format Microsoft comme les .docx, .doc ou des fichiers ouverts de type .odf, .odt au format PDF en ligne de commande dans un terminal avec l’outil lowriter de LibreOffice.

    Pour la petite histoire, j’avais une quinzaines de documents au format .docx à imprimer via USB mais le photocopieur n’acceptait que les formats .png ou .pdf et je n’avais pas envie des les convertir 1 à 1 via LibreOffice. Du coup, après une petite recherche avec les mots clé « linux convert .docx to pdf« , j’ai découvert l’outil lowriter.

    • Convertir des fichiers .docx au formats PDF :
    lowriter --convert-to pdf *.docx

    Petit bonus, si les noms des fichiers sont « sales » (comme c’est souvent le cas venant du monde de Microsoft), il est possible de passer un petit coup de nettoyage avec l’outil detox

    •  

    migration d’un cluster Proxmox 7 vers 8

    Un petit mémo sur la migration d’un cluster HA avec Ceph de Proxmox 7 vers 8.

    Pré-requis

    • Faire et vérifier la sauvegarde des VM
    • Mettre à jour la version 7 avant le passage à la version 8
    • Pour Ceph, être en version 17.2 minimum
    • Migrer vers la version 8 un nœud à la fois, tout en ayant migrer les VM vers les autres noeuds du cluster au préalable
    • Attention lors de la montée de version, le nom des interfaces réseau de cartes additionnelles changent !

    Migrer Proxmox 7 vers 8

    • Exécuter le script pve7to8 :
      pve7to8 --full
      • Dans mon cas 2 warning :
        • WARN: ‘noout’ flag not set – recommended to prevent rebalancing during upgrades
        • Sur le nœud en question, j’exécute la commande suivante :

        ceph osd set noout
      • WARN: systemd-timesyncd is not the best choice for time-keeping on servers, due to only applying updates on boot.
        While not necessary for the upgrade it’s recommended to use one of:
        * chrony (Default in new Proxmox VE installations)
        * ntpsec
        * openntpd
        • Ce cluster était installé depuis la version 6, lors de la migration vers la version 7 j’avais choisi de rester sur systemd-timesyncd.
          Si même cas de figure, remplacer systemd-timesyncd par chrony :
        apt install chrony
  • Changer les dépôts de Debian :
  • sed -i 's/bullseye/bookworm/g' /etc/apt/sources.list
  • Changer les dépôts de Proxmox :
  • sed -i -e 's/bullseye/bookworm/g' /etc/apt/sources.list.d/pve-install-repo.list 
  • Changer les dépôts pour Ceph :
  • echo "deb http://download.proxmox.com/debian/ceph-quincy bookworm no-subscription" > /etc/apt/sources.list.d/ceph.list
  • Mettre à jour les dépôts :
  • apt update
  • Mettre à niveau l’hyperviseur Proxmox :
  • apt dist-upgrade
  • Redémarrage du nœud :
  • reboot
  • Attention, les nom des cartes réseau additionnelles peuvent changer de noms !
    • Ce qui a été mon cas, exemple :
      • enp59f0np0 -> ens1f0np0
    • Modifier le nom des interfaces réseau :
  • Retirer le flag des OSD du noeud :
  • ceph osd unset noout
  • Refaire les mêmes actions pour le nœud suivant
  • Pour finir, désinstaller les paquets non nécessaire :
  • apt autoremove

    Ressource

    •  

    exécuter une commande sur une machine distante via ssh

    Un petit mémo rapide sur comment exécuter une commande sur une machine distante via ssh

    Via ssh il est possible d’exécuter une commande facilement à distance, ce qui peut être utile dans certain cas.
    Pour ce faire, il existe une option dans ssh qui est -t, dont voici la syntaxe :

    ssh -t user@cible "commande"

    Quelques exemples de commandes :

    • Afficher l’espace disque avec ncdu ou df :
    ssh -t user@cible "df -h"

  • Redémarrer un serveur distant :
  • ssh -t user@cible "reboot"

    •  

    ddcutil et ddcui: utilitaires pour le réglage des écrans

    Un petit mémo sur un comment gérer les paramètres des moniteurs, tels que la luminosité, les niveaux de couleur et la source d’entrée sans passer par les menus accessible via les boutons des écrans. En bref, tout paramètre pouvant être modifié en appuyant sur les boutons du moniteur peut être modifié par ddcutil en ligne de commande ou via ddcui via une interface graphique.
    Cependant, ces deux utilitaires ne sont pas compatible avec les écrans des ordinateurs portable.

    ddcutil : le réglages des écrans en mode terminal

    • Installer le paquet ddcutil :
      • Debian/Ubuntu :
      sudo apt install ddcutil
    • Arch/Manjaro :
    sudo pacman -S ddcutil
  • Charger le module i2c-dev :
  • sudo modprobe i2c-dev
    • Détection des écrans :
    ddcutil detect

  • Lister tous les paramètres du moniteur :
  • ddcutil getvcp all

  • Lister touts les réglages avec leur code associé(Feature) :
    ddcutil capabilities

    • Le réglage des paramètres de l’écran se feront grâce aux codes « Feature », exemple :
      • 0B (Color temperature increment)
      • 10 (Brightness)
      • 12 (Contrast)
  • Afficher la valeur actuelle d’un réglage :
    • Exemple avec la luminosité de l’écran :
    ddcutil getvcp 10

  • Régler une valeur :
    • Exemple avec
      • la luminosité de l’écran à 30%:
      ddcutil setvcp 10 30
    • la luminosité du deuxième écran(si existant) :
    ddcutil setvcp 10 30 --display 2
  • le contraste à 20% :
  • ddcutil setvcp 12 20

    ddcui : le réglages des écrans en mode graphique

  • Une fois installé, ouvrir ddcui :
  • Aller dans le menu « View » puis cliquer sur « features » pour accéder au réglages du moniteur :
    • Fenêtre de l’ensemble des réglages disponible pour l’écran sélectionné :
  • Ressources

    •  
    ❌