Vue normale

Reçu — 9 janvier 2026

Deux projets remettent la sobriété et la fiabilité au cœur du monitoring Linux

Alors que les solutions de monitoring serveur deviennent toujours plus complexes et dépendantes de stacks lourdes, deux projets open source (NdM: absence de licence) récents prennent le contre-pied de cette tendance : MonitorBox et Monitux. Leur objectif commun : revenir à un monitoring lisible, fiable et maîtrisable, pensé avant tout pour les administrateurs Linux.

    MonitorBox : réduire le bruit pour mieux gérer l’urgence

    MonitorBox part d’un constat largement partagé dans les équipes techniques : la multiplication des alertes engendre une fatigue des notifications, au point que les incidents critiques risquent d’être ignorés.
    Le projet introduit une logique volontairement simple mais efficace : réduction des faux positifs par vérifications successives, séparation claire entre alertes critiques et informationnelles, et retour d’un outil longtemps abandonné mais redoutablement efficace : le pager (bipper).

    En complément des notifications classiques, MonitorBox propose :

    • une interface terminal pensée pour l’exploitation,
    • un dashboard web léger,
    • et une alerte matérielle dédiée pour les situations réellement urgentes.

    Le projet assume une philosophie pragmatique : mieux vaut peu d’alertes fiables que beaucoup d’alertes ignorées.

    Code source : https://github.com/simple-group/MonitorBox
    Présentation : https://www.ihaveto.be/2026/01/pourquoi-jai-ressuscite-le-pager-des.html

    Monitux : un monitoring “zero-dependency” pour réduire la surface d’attaque

    Monitux s’inscrit dans une démarche encore plus radicale de sobriété technique. Le projet se définit comme un outil de monitoring serveur sans base de données, sans langage interprété (PHP, Python, Node.js), et sans dépendances externes.

    Il repose exclusivement sur :

    • les outils natifs GNU/Linux (top, df, ss, systemd…), un affichage web minimaliste, et une protection d’accès via les mécanismes standards d’Apache (.htaccess / .htpasswd).

    Ce choix permet de limiter fortement la surface d’attaque, de simplifier l’installation et de garantir une excellente lisibilité du code. Monitux se destine particulièrement aux environnements où la stabilité, la sécurité et la compréhension priment sur la sophistication fonctionnelle.

    Code source : https://github.com/simple-group/Monitux/
    Présentation : https://www.ihaveto.be/2025/12/monitux-le-monitoring-serveur-revient.html

    Une même philosophie : simplicité, contrôle et responsabilité

    Bien que différents dans leur approche, MonitorBox et Monitux partagent une vision commune :
    le monitoring ne doit pas devenir une boîte noire, ni un empilement de dépendances difficile à auditer. Ces projets s’adressent aux administrateurs et équipes techniques qui souhaitent reprendre le contrôle, réduire la complexité et privilégier des outils compréhensibles, durables et open source.

    Les deux projets sont publiés sous licence libre et ouverts aux contributions.

    NdM: aucune licence n'est mentionnée sur les deux projets en question, qui ne sont donc pas libres en l'état.

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    Reçu — 7 janvier 2026

    Top 7 outils de monitoring maison (NAS/serveur)

    7 janvier 2026 à 15:48

    Installer et gérer son propre monitoring à la maison — pour un NAS, un serveur domestique, quelques VM ou un mini-lab — c’est un excellent moyen d’apprendre l’observabilité tout en gardant le contrôle des données. Dans cet article je te présente 7 solutions pour 2026, quand les choix sont pertinents je montre rapidement pour quel usage chaque outil est pertinent et comment l’installer en gros (astuces pratiques, snippets). Je me concentre sur des stacks “Grafana-like” (tableaux, séries temporelles) avec alerting natif ou via intégration — et je donne des pièges à éviter pour un usage maison.

    Pourquoi un monitoring “maison” plutôt qu’un service cloud ?

    Un monitoring local c’est intéressant si tu veux :

    • garder toutes les métriques chez toi (confidentialité) ;
    • éviter des coûts récurrents quand le nombre de métriques/stockage augmente ;
    • personnaliser les dashboards et alertes pour équipement domestique (disques SMART, bruit/fan, UPS, etc.) ;
    • expérimenter avec Prometheus/TSDB, stockage à long terme, ou exporter vers Grafana Cloud plus tard.

    Un monitoring auto-hébergé implique quelques contraintes à connaître : les métriques s’accumulent avec le temps et occupent de l’espace disque, les interfaces web ne doivent pas être exposées sans protection, et certains outils peuvent être assez gourmands en mémoire ou en CPU.

    Les 7 outils recommandés

    OutilMeilleur pourAlertingStockage TSDBFacilité d’installation (maison)
    Prometheus (avec Alertmanager)Monitoring métriques, intégration exportersOui (Alertmanager)TSDB native (local)Docker/packaged; learning curve
    GrafanaDashboards (visual) front-endAlarme via Grafana AlertsUI front, s’appuie sur TSDBDocker/apt ; quasi-standard
    InfluxDB (+Telegraf)Séries temporelles simple, IoTOui (Kapacitor/Flux ou alerts InfluxDB 3.x)TSDB spécialiséDocker ; simple pour petits setups
    VictoriaMetricsStockage haute performance / remplacement long-termIntégration avec Alertmanager / GrafanaTSDB performante, compacteTrès docker-friendly
    NetdataMonitoring temps-réel, faible configAlarms légères ; forwardingTime-series local + cloud optionInstallation one-liner (très simple)
    ZabbixSupervision full-stack (alertes, inventaire)Oui, système d’alerting matureDB relationnelle (MySQL/Postgres)Stable mais plus lourd
    LibreNMS / CheckmkMonitoring réseau & infra small/mediumOui, templates d’alertesSQL backendBon pour NAS réseaux, SNMP

    1) Prometheus + Alertmanager (le cœur métriques « classique »)

    Cas d’usage : servir de collecte pour métriques d’OS (node_exporter), services (cAdvisor, MySQL exporter), NAS (SNMP exporter), VM. Prometheus scrappe périodiquement des endpoints HTTP exposant des métriques.

    Pourquoi le choisir :

    • modèle pull simple et puissant pour environnements locaux ;
    • Rules + Alertmanager = alertes flexibles ;
    • large écosystème d’exporters.

    Astuce d’installation rapide (maison) :

    • lancer Prometheus en Docker ou binaire ; ajouter node_exporter sur chaque machine.
    • exemple minimal prometheus.yml (scrape node_exporter sur hôte local) :
    global:
      scrape_interval: 15s
    
    scrape_configs:
      - job_name: 'node'
        static_configs:
          - targets: ['192.168.1.10:9100']  # ton NAS/serveur
    
    • pour les alertes, configurer Alertmanager et une règle Prometheus :
    groups:
    - name: nodes
      rules:
      - alert: HostDown
        expr: up == 0
        for: 5m
        labels:
          severity: critical
        annotations:
          summary: "Hôte indisponible ({{ $labels.instance }})"
    

    Piège courant : conserver la TSDB localement sans rotation = disque plein. Fixe --storage.tsdb.retention.time ou utilise une solution long-term (VictoriaMetrics/remote_write). (Voir doc Prometheus).

    2) Grafana (front-end de dashboards, alerting intégré)

    Cas d’usage : création de tableaux riches (graphs, heatmaps, logs si Loki), mode multi-datasource (Prometheus, InfluxDB, VictoriaMetrics).

    Pourquoi le choisir :

    • standard de facto pour dashboards ;
    • Alerts améliorés (Grafana Alerts) et intégration avec contact points (Telegram, e-mail, Discord).
    • version OSS robuste pour usage perso.

    Astuce pratique :

    • utilise Grafana pour visualiser Prometheus + node_exporter ; si tu veux logs, ajoute Grafana Loki.
    • sécurise l’accès : reverse proxy + auth (let’s encrypt + oauth proxy) si tu ouvres internet.

    3) InfluxDB + Telegraf (stack « simple » pour métriques et IoT)

    Cas d’usage : capteurs IoT, métriques custom, séries avec écriture push (Telegraf, clients HTTP).

    Pourquoi le choisir :

    • flux d’écriture simple (push) via Telegraf ;
    • langage Flux et alerting natif dans InfluxDB 3.x ;
    • facile à configurer sur NAS/serveur.

    Astuces :

    • utiliser Telegraf sur chaque machine pour collecter CPU, disque, SMART, snmp.
    • config de retention et downsampling natif dans InfluxDB pour éviter explosion de stockage.

    4) VictoriaMetrics (TSDB haute performance)

    Cas d’usage : si tu veux conserver un historique long sans trop consommer I/O/CPU — idéal comme remote_write pour Prometheus (long-term storage).

    Pourquoi le choisir :

    • conçu pour stockage efficace des métriques à long terme, très docker-friendly ;
    • fonctionne bien sur hardware modeste et permet compression efficace. GitHub

    Mise en œuvre rapide :

    • Prometheus → remote_write vers VictoriaMetrics ; Grafana se connecte directement pour dashboards.
    • vérifie paramètres de retention et snapshots pour backups.

    5) Netdata (monitoring temps réel, install “one-liner”)

    Cas d’usage : super pour visualiser en temps réel l’activité d’un NAS / serveur (io, network, processus), diagnostique rapide.

    Pourquoi le choisir :

    • installation très facile (bash <(curl -Ss https://my-netdata.io/kickstart.sh)), UI instantanée ;
    • alerting simple et possibilité de forwarding vers Grafana/Prometheus. Netdata+1

    Limite : pas conçu comme TSDB longue durée par défaut ; utile en complément (diagnostic) plutôt que stockage historique complet.

    6) Zabbix (supervision complète, alerting & inventaire)

    Cas d’usage : inventaire/monitoring d’un parc d’équipements (SNMP, agents), règles d’alerte avancées, escalation.

    Pourquoi le choisir :

    • mature en alerting, templates (NAS, routeurs, services) ; bonne GUI pour opérations. Zabbix

    Astuce :

    • utiliser Zabbix pour supervision réseau (SNMP) et Prometheus/Influx pour métriques fines : on combine les forces.

    7) LibreNMS / Checkmk (monitoring réseau et infra simple)

    Cas d’usage : découverte automatique réseau, SNMP pour switchs/NAS/routeurs, alertes sur perte d’interfaces/temps de réponse.

    Pourquoi le choisir :

    • LibreNMS : communauté, facile pour SNMP auto-discovery ;
    • Checkmk : bonnes règles prêtes à l’emploi pour serveurs/NAS. LibreNMS Community+1

    Astuce :

    • active SNMP sur ton NAS (versions sécurisées v3) et laisse LibreNMS faire la découverte ; applique des alertes sur erreurs SMART et perte d’interface.

    Tableau comparatif détaillé

    OutilTypeIdéal pourAlerting natifFacilité DockerRessources
    PrometheusTSDB + scrapingmétriques infraOui (Alertmanager)OuiMoyen
    GrafanaUIdashboards multi-sourceOui (alertes)OuiFaible-Moyen
    InfluxDBTSDB pushIoT, sériesOui (Flux/alerts)OuiMoyen
    VictoriaMetricsTSDB long-termstockage compresséIntégration AMOuiFaible-Moyen
    NetdataMonitoring realtimediag & liveAlerting légerOuiFaible
    ZabbixSupervision fullalerting & inventaireOui (avancé)Oui (compose)Moyen-Fort
    LibreNMSSNMP monitoringréseau & NASOuiOuiFaible-Moyen

    Qu’est-ce que vous pouvez déployer sur votre NAS UGREEN ou Synology ?

    Sur un NAS moderne, l’objectif n’est pas de transformer la machine en usine à gaz. Ce qu’on cherche, c’est un monitoring fiable, lisible et utile au quotidien, sans dégrader les performances du stockage.

    ✅ Le stack recommandé : Prometheus + Grafana (+ node_exporter)

    C’est aujourd’hui le meilleur compromis entre simplicité, efficacité et évolutivité sur un NAS.

    Modèles compatibles (exemples concrets)

    Ces modèles disposent :

    • d’un CPU x86 correct
    • de Docker officiellement supporté
    • de suffisamment de RAM pour faire tourner Prometheus sans impacter les services NAS

    À quoi sert ce stack, concrètement ?

    1⃣ Surveiller l’état réel de votre NAS

    Avec node_exporter, vous récupérez automatiquement :

    • charge CPU
    • mémoire utilisée
    • espace disque et IO
    • réseau (débits, erreurs)
    • uptime et reboot
    • températures (selon support matériel)

    👉 En clair : vous savez si votre NAS souffre, et pourquoi.

    2⃣ Visualiser clairement ce qui se passe (Grafana)

    Grafana sert d’interface graphique.

    Vous obtenez :

    • des dashboards lisibles (journée, semaine, mois)
    • des graphiques compréhensibles même sans être admin système
    • une vue globale de la santé du NAS

    👉 Exemple concret :
    Vous voyez immédiatement si un disque devient lent, si la RAM est saturée ou si un conteneur consomme trop.

    3⃣ Être alerté avant que ça casse (Prometheus)

    Prometheus ne fait pas que stocker des métriques, il permet aussi de déclencher des alertes.

    Cas d’usage très concrets :

    • NAS inaccessible depuis 5 minutes
    • espace disque < 10 %
    • charge CPU anormale sur une longue durée
    • swap utilisée en continu
    • réseau saturé pendant les sauvegardes

    👉 Résultat : vous êtes prévenu avant le crash ou la panne visible.

    4⃣ Garder un historique utile, sans surcharger le NAS

    Sur un NAS, on reste pragmatique :

    • rétention courte : 15 à 30 jours
    • intervalle de collecte : 30 ou 60 secondes
    • pas de métriques inutiles

    👉 Vous gardez suffisamment d’historique pour :

    • comparer avant / après une mise à jour
    • analyser un ralentissement
    • comprendre un incident

    Sans remplir le disque inutilement.

    Pourquoi ce choix est pertinent sur NAS

    • ✔ Stack open source, mature et maintenue
    • ✔ Compatible Docker (UGREEN & Synology)
    • ✔ Ressources maîtrisées si bien configuré
    • ✔ Évolutif (vous pouvez ajouter plus tard du long terme ou d’autres machines)
    • ❌ Pas de base SQL lourde
    • ❌ Pas de configuration complexe au quotidien

    C’est exactement ce qu’on attend d’un monitoring maison : utile, pas envahissant.

    Cet article original intitulé Top 7 outils de monitoring maison (NAS/serveur) a été publié la première sur SysKB.

    Reçu — 19 décembre 2025

    SHM : des métriques d’usage pour applications self-hosted… sans espionner les utilisateurs

    Quand on développe et distribue des applications open-source auto-hébergées, il y a une question très simple à laquelle il est presque impossible de répondre :

    Combien d’instances actives de mon application sont réellement utilisées ?

    SHM

    C’est exactement le problème que j’ai rencontré avec Ackify, une application open-source de preuve de lecture de documents (politiques internes, procédures, formations, etc.), déployée en self-hosted par ses utilisateurs - sans que j'ai le moindre contrôle dessus.

    Pas de SaaS, pas de compte centralisé, pas de tracking utilisateur.
    Résultat : zéro visibilité.

    👉 Combien d’instances Ackify tournent vraiment ?
    👉 Quelles versions sont encore actives ?
    👉 Quelles fonctionnalités sont utilisées (ou pas) ?

    C’est pour répondre à ce besoin très concret que j’ai créé SHM – Self-Hosted Metrics.

    SHM, c’est quoi ?

    SHM est un serveur de télémétrie privacy-first, conçu spécifiquement pour les applications self-hosted open-source.

    L’idée est simple :

    • chaque instance auto-hébergée envoie périodiquement un snapshot de métriques agrégées
    • aucune donnée utilisateur
    • aucun événement individuel
    • aucun tracking comportemental

    Juste ce qu’il faut pour comprendre l’usage réel d’un logiciel déployé “dans la nature”.


    Un point important : SHM est agnostique

    Contrairement à beaucoup d’outils existants, SHM n’impose aucun schéma.

    Tu envoies :

    {
      "documents_created": 123,
      "active_users": 42,
      "webhooks_sent": 9
    }

    ➡️ le dashboard s’adapte automatiquement :

    • nouvelles cartes KPI
    • nouvelles colonnes
    • graphiques générés dynamiquement

    Aucun frontend à recompiler, aucune migration à écrire.

    Dashboard Graph
    Dashboard Détail


    Un petit mot sur Ackify

    Ackify est l’application qui a déclenché tout ça :

    • open-source
    • self-hosted
    • preuve de lecture avec signature cryptographique
    • alternative légère à DocuSign pour des usages internes

    SHM est désormais utilisé pour répondre à des questions très simples :

    • combien d’instances actives ?
    • combien de documents créés ?
    • combien de signatures générées ?

    Projet open-source

    Le projet est encore très jeune (MVP), mais fonctionnel et déjà utilisé en conditions réelles.

    Les retours, critiques et idées sont évidemment bienvenus 🙂


    Stack technique (sobre et assumée)

    • Backend : Go (binaire unique, léger)
    • Stockage : PostgreSQL (JSONB)
    • Déploiement : Docker
    • Licence : AGPLv3 (SDK en MIT)
    • Auth des instances : Ed25519 (clé générée localement, signature des snapshots)

    Chaque instance :

    • génère une identité cryptographique locale
    • s’enregistre une seule fois
    • signe chaque envoi de métriques ➡️ impossible de spoof une instance existante.

    Et côté vie privée ?

    C’était non négociable.

    SHM :

    • ne collecte aucune donnée personnelle
    • ne collecte pas les IP (hors reverse-proxy)
    • ne collecte ni hostname, ni username
    • fonctionne sur des compteurs agrégés uniquement

    C’est au mainteneur du logiciel de décider quelles métriques exposer, et à l’utilisateur final de pouvoir désactiver la télémétrie.

    Commentaires : voir le flux Atom ouvrir dans le navigateur

    ❌