Vue normale

L'April propose le pacte du logiciel libre à l'occasion des élections municipales et communautaires de 2026

À l'occasion des élections municipales et communautaires des 15 et 22 mars 2026, l'April propose aux personnes candidates de signer le Pacte du Logiciel Libre afin de marquer leur engagement, si elles sont élues, à promouvoir et défendre une priorité aux logiciels libres et aux formats ouverts au sein de leurs collectivités.

Le pacte du logiciel libre est une initiative de l'April qui remonte à l'élection présidentielle de 2007. À l'occasion des élections locales à venir, le pacte a évolué pour être plus représentatif des enjeux actuels.

En complément du pacte, l'April propose une liste d'exemples d'actions concrètes que les collectivités peuvent mettre en place dans la poursuite de ces objectifs.

Le pacte est disponible sur le site de la campagne.

En plus du format PDF classique, Le pacte est également disponible en mode « brochure », de manière à pouvoir l'imprimer et le plier dans un format 4 pages, par exemple pour être distribué sur les marchés en échange d'un tract électoral ;).

Le pacte pour les élections municipales et communautaires de mars 2026 est construit autour de trois objectifs complémentaires :

  • Donner la priorité aux logiciels libres et aux formats ouverts, qui est l'ambition historique de l'April. Avoir recours à des logiciels privateurs doit rester une exception dûment justifiée, dans le respect d’une stricte procédure de définition des besoins. Une priorité qui est compatible avec le droit de la commande publique – chose confirmée par le Conseil d'État depuis 2011 – et matériellement possible puisqu'il existe à présent des logiciels libres en mesure de répondre à la majorité des besoins des collectivités.
  • Défendre et promouvoir une informatique émancipatrice. Le logiciel libre participe à la préservation des libertés fondamentales dans une société informatisée, au partage du savoir et à l'accès éclairé au numérique pour toutes et tous. Que ce soit dans les écoles dont elles ont la charge, comme dans l'ensemble des lieux d'accueil du public qu'elles peuvent être amenées à gérer, les collectivités ont un rôle important de sensibilisation et d’accompagnement à exercer.
  • Contribuer à la pérennité des logiciels libres utilisés. Les collectivités doivent contribuer au maintien, à la documentation et au développement des solutions qu’elles utilisent. Un travail et un investissement mutualisables, notamment avec d'autres collectivités, au bénéfice de toutes et tous, d’autant plus pertinent et durable qu’ils s’inscrivent dans une politique formalisée de contribution et de partage.

Le pacte s'adresse à l'ensemble des personnes candidates qui souhaitent marquer leur attachement à agir pour le logiciel libre au sein de leur collectivité et pour les libertés informatiques des habitantes et habitants. Il s'adresse également aux listes candidates qui souhaitent collectivement marquer, comme élément de leur programme, leur engagement à mettre en œuvre une politique en faveur du logiciel libre si elles obtiennent la majorité.

Nous invitons toutes celles et ceux qui le souhaitent à contacter leurs candidates et candidats, qui ont déjà pu se manifester, pour les encourager à signer le Pacte du Logiciel Libre et profiter de l'occasion pour les sensibiliser aux enjeux des libertés informatiques.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Neomow X 2 : l’outsider Hookii peut-il convaincre avec son trio : anti-vol, évitement, cartographie automatique ?

6 février 2026 à 17:55
Hookii Robots-tondeuses gamme X 2

Au CES 2026 de Las Vegas, Hookii, marque encore discrète, met en avant sa nouvelle Neomow X 2. Son ambition : une tonte “zéro stress” grâce à l’anti-vol, l’évitement d’obstacles et la cartographie automatique (sur la version Pro). Mais est-ce suffisant pour inspirer confiance sur un marché de plus en plus exigeant ?

Contrairement à Husqvarna ou Segway Navimow, Hookii n’est pas un nom installé comme les historiques du robot-tondeuse. La jeune marque s’est d’abord fait connaître via le crowdfunding avec la première Neomow X, avant d’annoncer un bilan plutôt flatteur : 2,1 millions d’euros levés, 1 361 commandes et 99,6 % de livraisons réalisées. Elle revendique aussi une arrivée en distribution en 2025, signe d’une volonté de sortir du seul circuit des “early adopters” et de jouer dans la cour des marques grand public. Le CES, vitrine mondiale de la tech, lui sert aujourd’hui de tremplin : ainsi, la X 2 doit prouver qu’elle n’est plus un pari, mais une alternative ultra-sérieuse !

Hookii écumeur et robots-tondeuses
Cherchez l’intrus… © Hookii

Avec la Neomow X 2, le discours va à la réassurance. L’anti-vol (alertes, contrôle d’accès, localisation), l’évitement d’obstacles et l’auto-cartographie annoncée sur la déclinaison Pro dessinent un produit pensé pour éviter les deux grands irritants de la tonte robotisée : les interventions à répétition et la crainte de laisser un appareil coûteux dehors. Comment la promesse de Hookii peut-elle résolument attirer l’attention des consommateurs ? « Eh bien nous allons voir ! », comme dirait l’autre…

CES 2026 : deux gammes, deux terrains de jeu

Pour donner de l’épaisseur à sa présence au CES 2026 (Las Vegas, 6–9 janvier), Hookii ne s’est pas contentée d’une annonce “one shot” : la marque présente deux familles pensées pour des usages distincts, avec démonstrations en direct sur le salon. D’un côté, la Neomow X 2 Series vise les grandes pelouses, avec une promesse centrée sur la couverture, la stabilité de navigation et une gestion plus sereine des obstacles. De l’autre, la Neomow L Series cible les jardins petits à moyens, en mettant l’accent sur une prise en main plus simple et une utilisation quotidienne dans des espaces plus compacts.

De l’autre, la Neomow L Series vise les jardins petits à moyens, en misant davantage sur la simplicité d’installation, une mobilité plus flexible et un usage sur les terrains moins étendus. Hookii annonce par ailleurs des démonstrations en conditions réelles sur le salon, histoire de traduire ses promesses en comportements visibles. À travers ce duo, la marque semble vouloir segmenter son catalogue comme les acteurs établis, et non plus proposer une solution unique et la plus polyvalente possible.

Nota Bene : la “X 2 Series” est déclinée en 4 versions (X 2 LE, X 2 SE, X 2, X 2 Pro) qui montent en capacité (surface recommandée, multi-zones, batterie) et en équipement sur la version Pro (notamment la triple caméra associée au LiDAR 3D et au pare-chocs).

Le trio “zéro stress” : sécurité, évitement, cartographie automatique

Ce trio, on commence déjà à le connaître, vu toutes les marques que nous avons couvertes depuis l’année dernière. Alors comment Hookii parvient-il à nous faire de l’œil ?

Anti-vol : l’argument confiance n°1

Avec la Neomow X 2, Hookii met en avant une idée assez simple : contrairement à des robots qui “requièrent des signaux satellites”, la X 2 peut fonctionner en intérieur, ce qui rend possible une station de charge placée à l’abri (garage, remise, cabanon…). C’est une approche discrète mais efficace : moins de visibilité depuis la rue, moins de tentation, et souvent une meilleure protection contre la pluie, le soleil et les salissures. Cerise sur le gâteau, cette possibilité annule le coût esthétique d’une machine plantée dans un coin du jardin !

Hookii Robots-tondeuses  X 2 garage
Avec une porte domotique, on pourrait associer autonomie et sécurité dans les meilleures conditions ! © Hookii

En contrepartie, bien sûr, il faut que le trajet entre la base et la pelouse soit vraiment fluide : sol stable, seuil ou porte gérables, et un accès dégagé pour que le robot puisse sortir et revenir sans se coincer.

Hookii ajoute ensuite une couche de sécurité plus classique mais rassurante : alarme en cas de soulèvement, accès à l’application réservé à un administrateur, et un volet localisation via un mode type “Find My Device” (GPS), accompagné de notifications si l’appareil redevient joignable après une coupure de signal.

Nota Bene : la génération précédente mettait déjà en avant des briques comparables (localisation, contrôle d’accès, alertes de limite).

Évitement : moins de galères, moins d’interventions

Sur la Neomow X 2, Hookii insiste sur un “évitement triple” qui correspond à une logique de redondance : le LiDAR 3D balaie l’environnement à 360° pour construire une carte en relief, la vision par caméra sert à mieux interpréter ce qui se trouve sur la trajectoire, et un pare-chocs large joue le rôle de filet de sécurité en cas de contact. Sur la déclinaison X 2 Pro, cette partie “vision” monte d’un cran avec une triple caméra, annoncée comme plus à l’aise pour reconnaître les obstacles en temps réel.

Là où la Neomow X était déjà jugée sérieuse sur la navigation et l’évitement, la X 2 cherche surtout à réduire les petites interventions qui finissent par agacer : Hookii évoque par exemple la capacité à détecter des obstacles statiques et à recommander des zones interdites, ou encore à trouver un itinéraire alternatif lorsqu’un passage est bloqué. Reste à confirmer tout cela sur des jardins “pièges”, en tests indépendants (petit rire sardonique…).

Cartographie automatique : la promesse qui change tout… mais pas pour tout le monde

Avec la Neomow X 2 Pro, Hookii promet une cartographie automatique où le robot patrouille, identifie les bordures et délimite ses zones de tonte lui même. Mais cette logique d’autonomie ne s’arrête pas à la carte : la série X 2 met en avant des ajustements “intelligents” qui évitent de repasser derrière le robot à la moindre variation du jardin, comme la détection automatique d’obstacles statiques avec recommandation de zones interdites, ou la gestion des passages capable de trouver un itinéraire alternatif si un couloir est bloqué. Enfin, l’auto-cartographie sert aussi de base à une tonte plus méthodique : un robot qui “comprend” son terrain peut mieux planifier ses passages qu’un appareil cantonné à des limites fixes.

Nota Bene : attention, l’Auto Mapping est réservé à la version X 2 PRO !

Ce qu’on retient de la fiche : autonomie, couverture, confort

Hookii annonce une capacité jusqu’à 1 000 m² par chatge, et met en avant une batterie amovible, un détail pratique très intéressant pour une autonomie étendue. Côté efficacité, la marque revendique une planification visant plus de 95 % de couverture, signe d’un robot pensé pour tondre “proprement” plutôt que de multiplier les passages au hasard. Enfin, l’angle confort est travaillé : IPX6 pour le lavage au jet, niveau sonore annoncé à moins de 58 dB, et mises à jour OTA pour faire évoluer l’algorithme sans passer par un atelier.

Notre avis à la volée : un cocktail “réassurance”… suffisant ?

Avec la Neomow X 2, Hookii coche clairement les cases qui font basculer un achat : anti-vol crédible (jusqu’à la station placée à l’abri), évitement pensé pour limiter les interventions, et cartographie automatique sur la version Pro pour pousser plus loin l’autonomie “robotique”. Le vrai match, pourtant, ne se jouera pas sur une fiche technique : pour une marque outsider, la confiance se construit sur le SAV, la régularité des mises à jour et une fiabilité qui se prouve sur plusieurs saisons !

Hookii Robots-tondeuses  X 2 LiDAR sur pelouse
Bientôt, les robots-tondeuses seront capable de sonder jusqu’à nos âmes… © Hookii

Dès que possible, nous reviendrons plus en détails sur la gamme L, sur le positionnement de Hookii côté tarifs, et vous tiendrons au courant en cas d’un éventuel test ! Pour l’heure, pensez-vous que le business modèle de Hookii est crédible ? Sinon, quelle marque vous a tapé dans l’œil ?

💾

Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.

Quand on me propose de faire du pair programming alors que je le fais déjà très bien avec l'IA de mon IDE

6 février 2026 à 13:00
# En partenariat avec JetBrains Envie d'aller plus loin que des prompts hasardeux balancés à votre IDE ? 👀 🎓 JetBrains propose un parcours gratuit de 10 cours autour de la programmation assistée par IA, conçu pour aider les développeurs à travailler efficacement avec l'intelligence artificielle et des agents IA dans leurs projets. L'un des […]

💾

💾

Grafik Labor 2026 – Appel à conférenciers et à stands

Création graphique, artistique et outils libres

GrafikLabor revient le samedi 4 avril 2026 à Rennes, dans les locaux d’Activdesign, pour sa huitième édition dédiée aux logiciels libres, aux pratiques créatives ouvertes et aux artistes, designers et développeurs qui les utilisent au quotidien. Issu du LibreGraphicsMeeting, l’esprit se veut ouvert aux diverses pratiques créatives, aux différents secteurs de création graphique pourvu qu’ils mettent en avant les outils, les licences ou du contenu libre.

À cette occasion, l’équipe d’organisation de l’AFGRAL lance un appel à conférenciers et à stands.

Pour rappel, GrafikLabor est un événement communautaire associatif. Il s’adresse aux personnes qui utilisent, développent ou promeuvent des logiciels libres dans leurs pratiques créatives : graphisme, illustration, jeux vidéos, édition, UX/UI, web, motion, 3D, typographie, etc.

L’événement met l’accent sur :

  • les retours d’expérience concrets
  • les choix d’outils et de workflows
  • la transmission de savoirs
  • les enjeux culturels et politiques du logiciel libre dans la création

Appel à conférenciers

Nous recherchons des propositions de conférences ou de présentations autour de, par exemple :

  • création graphique et artistique avec des outils libres (GIMP, Inkscape, Krita, Scribus, Blender etc.)
  • UX/UI, design web ou produit avec des stacks open-source
  • typographie, édition, illustration ou motion en environnement libre
  • jeux vidéo réalisés avec outils libres comme Godot
  • automatisation, scripts, bidouille et détournement d’outils
  • retours d’expérience d’artistes, studios, collectifs ou associations
  • réflexions sur l’autonomie, la pérennité et l’éthique des outils

Les formats peuvent être variés : talk, démo, étude de cas, retour d’expérience, atelier.

Modalités de participation

L’appel est ouvert, mais la programmation se fait sur sélection afin de garantir la cohérence de l’événement.

Les propositions se font en deux étapes :

  • un formulaire de prise de contact (nom, email, motivation)
  • après validation, l’envoi d’un lien vers le formulaire de proposition détaillée

L’événement est aussi ouverts aux sponsors ou aux associations qui aimeraient avoir un stand faire connaitre leur activité.

Informations pratiques

Date : vendredi 4 avril
Lieu : Activdesign, Rennes
Public : artistes, designers, développeurs, étudiants et personnes intéressées par le libre

Commentaires : voir le flux Atom ouvrir dans le navigateur

Reinstall - Le script ultime pour réinstaller n'importe quel OS sur votre VPS (même Windows)

Par : Korben
6 février 2026 à 10:22

Aujourd'hui, on va aller un peu plus loin que les simples bidouilles habituelles car je vais vous présenter Reinstall , un outil qui va peut-être vous changer la vie si vous gérez des serveurs distants.

Vous connaissez la chanson... vous avez un VPS sous Debian et vous voulez passer sous Arch pour faire votre malin. Sauf que pour opérer ce changement, c'est la galère assurée !! Faut passer par l'interface web de l'hébergeur, booter sur une ISO via une console VNC qui rame sa maman, et prier pour que le réseau revienne après le reboot.

Eh bien ça c'est terminé grâce à ce script Reinstall. Vous lui balancez une commande, le script s'occupe de tout, et hop, votre serveur redémarre sur le nouvel OS de votre choix. Pas besoin d'accès IPMI, pas besoin de supplier le support technique, ça marche tout seul.

Et ça supporte pas mal d'OS... Côté Linux, y'a 19 distributions majeures : Alpine, Debian (de 9 à 13), Ubuntu (de 16.04 à 25.10), toute la famille Red Hat (AlmaLinux, Rocky, Oracle), Fedora, Arch, Gentoo, NixOS... Bref, y'a tout ce qu'il faut.

Et le truc qui va plaire à ceux qui font du cloud, c'est également le support de Windows. En effet, le script permet d'installer Windows Vista, 7, 8.1, 10, 11 et même Windows Server 2025.

Et rassurez-vous, il n'utilise pas des images bricolées par on ne sait qui, mais les ISO officielles de chez Microsoft. Lui se content d'injecter automatiquement les drivers VirtIO pour que ça tourne comme un charme sur n'importe quel cloud (AWS, GCP, Oracle Cloud...).

Aussi, le point le plus chiant quand on réinstalle un serveur distant, c'est la config réseau. Si on se loupe, on perd l'accès SSH et c'est fini. Reinstall gère ça intelligemment puisqu'il détecte votre IP (statique ou dynamique), gère l'IPv6, les passerelles exotiques et même les serveurs ARM.

Ce qu'il vous faut avant de tout casser

  • RAM : 256 Mo pour Alpine/Debian, 1 Go pour Windows.
  • Disque : 1 Go pour Linux, 25 Go minimum pour Windows.
  • Accès : Un accès root/admin sur la machine actuelle.
  • Temps estimé : Environ 5 à 15 minutes selon la vitesse de connexion de votre serveur.

Un petit avertissement quand même... Ce script ne gère pas les conteneurs type OpenVZ ou LXC. Faut que ce soit une vraie VM (KVM, VMware, Hyper-V) ou un serveur bare-metal.

Le tuto ! Le tuto !

C'est là que ça devient drôle. Pour installer un nouveau Linux (disons Debian 13) depuis votre système actuel, il suffit de faire un petit :

# Télécharger le script
curl -O https://raw.githubusercontent.com/bin456789/reinstall/main/reinstall.sh

# Lancer la réinstallation
bash reinstall.sh debian 13 --password "VotreMotDePasse"

Si vous voulez tenter l'aventure Windows :

bash reinstall.sh windows --image-name "Windows 11 Enterprise LTSC 2024" --lang fr-fr

Le script tourne même depuis Windows (via un .bat) si vous voulez faire l'inverse et repasser sous Linux.

Perso, je trouve ça quand même génial pour tester des trucs sans passer des plombes à configurer des ISO. Ça dépanne grave quand on veut repartir on une base saine en un clin d'œil. D'ailleurs, si vous avez besoin de sécuriser vos serveurs après l'install, j'avais parlé de Fail2Ban il y a quelques temps, et c'est toujours une bonne idée. Et si vous avez peur de perdre vos données, jetez un œil à Restic pour vos backups.

Bref, si vous gérez des VPS et que vous en avez marre des consoles web préhistoriques, foncez tester ce truc (sur une machine de test d'abord, hein, venez pas pleurer après).

Bon, je vous laisse… Je vais aller me faire un petit café !

Test Dreo 512S : ce déshumidificateur connecté est-il aussi puissant qu’annoncé ?

5 février 2026 à 17:30
Test Dreo Déshumidificateur connecte 512S

Nous avons des problèmes d’humidité à la maison… Aérer dix minutes une à deux fois par jour, c’est très bien mais, lors des saisons froides, l’humidité s’accumule vite et on n’a pas envie de perdre la chaleur de la maison… Pour éviter les moisissures, nous avons opté pour le Dreo 512S. Suréquipement ou bon investissement ?

Le marché des déshumidificateurs a beaucoup évolué ces dernières années : ces appareils sont passés du statut de “solution de cave” à celui d’équipement de confort au quotidien. Résultat, l’offre s’est structurée en plusieurs familles : les modèles compacts pour une chambre ou une petite salle de bain, les machines plus puissantes (souvent autour de 16–20 L/jour) pensées pour un étage entier ou une buanderie, et les “gros bras” pour sous-sols et grands volumes. Les fabricants ajoutent désormais des fonctions autrefois réservées au premium (hygrostat plus précis, mode automatique, drainage continu, voire pilotage à distance).

Dreo 512 sorti du carton
On reçoit le Dreo dans un carton ouvert du côté opposé au socle en polystyrène. © Meilleure Innovation

Dans ce paysage, Dreo est une marque positionnée “air confort” (chauffage, ventilation, humidification, etc.) et pilotage connecté. Sa gamme de déshumidificateurs reste relativement lisible, avec le 512S (annoncé à 20 L/jour) et le 515S (16 L/jour), avec contrôle intelligent, mode Auto et double option de drainage. Dreo propose aussi, sur d’autres marchés, un modèle nettement plus “grand volume” (711S à 52 L/jour). Le 512S se place donc comme un milieu de gamme connecté, que certains médias décrivent comme simple à prendre en main et efficace pour faire baisser l’hygrométrie et aider au séchage du linge… Reste à voir s’il tient ses promesses chez nous !

Caractéristique TechniquesDREO 512S
Dimensions31,2p x 24,7l x 50h centimètres
Poids‎12,4 kg
Surface recommandée37 mètres carrés
Capacité‎20 L/jour
Débit177 m³/h
Volume du réservoir3,4 Litres
Puissance‎355 Watts
Consommation0,35 kWh/h
Précision de l’hygromètreà 5% près
Volume sonore38 dB
Prix219,99€ 

Dans la zone 150–300 €, le Dreo joue dans la même cour que les “classiques” en 20 L/24 h (Pro Breeze 20L, Midea 20L, Olimpia Aquaria S1 20P, De’Longhi DDSX220) : on reste sur un format domestique annoncé pour ~40 m², avec une promesse de 38 dB, un réservoir 3,4 L et, surtout, une dimension “smart” (Wi-Fi/Alexa) qui n’est pas systématique à ce niveau de prix.

Néanmoins, 3,4 L, c’est nettement moins confortable que les 5–5,5 L qu’on trouve souvent chez les concurrents directs (Pro Breeze, Olimpia, De’Longhi). D’autre part, le “38 dB” est généralement un chiffre optimiste (mode discret / conditions idéales) ; à plein régime, des modèles comparables se situent plutôt autour de ~41–48 dB, donc la perception en pièce de vie peut changer du tout au tout. Enfin, comme souvent, le 20 L/jour est une valeur de labo mesurée sous conditions normalisées (température/hygrométrie élevées) : en usage réel, on s’attend à des performances moins spectaculaires.

Composants du Dreo 512S : un pack qui va au plus simple

Là, on est sur un unboxing très “essentiel” : le déshumidificateur (avec son bac déjà en place) occupe l’essentiel du carton, calé pour encaisser le transport. Côté guide papier, Dreo fournit la base pour démarrer vite : un guide de démarrage rapide et un manuel utilisateur au cas où quelque chose vous échapperait concernant l’appairage avec l’application. Mais point d’inquiétude : il se réalise très intuitivement et en quelques minutes à peine !

Dreo 512 composants
Le câble d’alimentation mesure 150 cm. Dreo recommande de ne pas utiliser de rallonge.

L’accessoire le plus utile, c’est le tuyau de drainage (150 cm) livré d’origine : il permet de basculer en évacuation continue (vers un siphon/une bonde au sol), histoire d’éviter les vidanges répétées quand l’air est vraiment humide. La notice précise aussi qu’on peut utiliser un tuyau “type jardin” (GHT 25,4 mm) si l’installation l’exige. Toutefois, celui-ci, lui, n’est pas inclus !

Design et ergonomie : plusieurs bons points pour le Dreo

Le premier point que l’on apprécie sur le Dreo 512S, c’est sa compacité : avec une base réduite, il se glisse facilement dans une buanderie, une chambre ou un coin de salon sans encombrer la circulation. L’habillage, annoncé en plastique, reste sobre, avec une lecture digitale claire et des informations visibles d’un coup d’œil. Autre bon choix de conception : la sortie d’air par le haut. C’est généralement plus adapté dans un intérieur, car le flux se diffuse mieux dans la pièce (et limite les situations où l’air est projeté directement contre un meuble ou un mur), ce qui aide aussi lorsque l’appareil sert en renfort pour le séchage du linge. Petit bémol plus anecdotique : le système de rangement du câble n’est pas le plus pratique.

comparaison câble d'alimentation Duux et Dreo
Le Bora 20L (à gauche) est doté d’un câble blanc, moins épais avec un meilleur système de rangement à l’arrière de l’appareil.

Avec ses roulettes intégrées et sa poignée de transport repliable, ses 12,4 kg ne posent pas de vrai problème au quotidien : on le déplace sans effort d’une pièce à l’autre. Le bac de 3,4 L se retire par l’avant et intègre une poignée pour la vidange. À l’arrière, on retrouve un filtre lavable accessible derrière la grille (avec rappels d’entretien via l’appareil et l’application). À noter enfin une différence de positionnement par rapport à certains concurrents : pas de filtre à charbon (contrairement au BORA 20 L), ce qui signifie qu’il ne vise pas spécialement le traitement des odeurs, mais bien la déshumidification “pure”.

Dreo 512 bac sorti
Il suffit de tirer dessus par les flancs

Enfin, le panneau de commandes comprend une rangée de touches tactiles, bien identifiables par pictogrammes : Marche/Arrêt, Mode (bascule entre Auto et Continu), Vitesse de ventilation (réglable sur 3 niveaux), puis les touches + / – pour ajuster soit la cible d’humidité, soit la durée du minuteur.

Dreo 512 vu de dessus avec panneau de commandes
De droite à gauche : allumage, mode, vitesse, programme, affichage et verrouillage ! Facile !

Nota Bene : le bouton “ventilation” cache une fonction pratique : un appui long 5 s réinitialise l’alerte “filtre à nettoyer”.

Le mode Auto permet de régler une consigne de 30 à 85 % (par pas de 5 %), et l’appareil s’arrête une fois l’objectif atteint ; en Continu, il tourne sans consigne jusqu’à arrêt manuel ou bac plein. Le minuteur va de 0 à 24 h (arrêt/démarrage automatique selon le cas) et un appui long 5 s lance l’appairage Wi-Fi. Le Dreo ajoute aussi un bouton pour éteindre l’affichage LED (utile la nuit) et un verrouillage enfant (appui long 3 s, affichage “LC”).

Dreo 512 verrouillage locked
LC pour locked

Enfin, l’écran donne un bon retour d’état :

  • icônes Auto/Continu ;
  • bac absent/plein ;
  • la connexion Wi-Fi
  • le timer
  • le verrouillage enfant
  • état du filtre
  • choix de la vitesse de ventilateur
  • repères % humidité / heures

Point technique : déshumidificateur à compresseur

Le Dreo 512S appartient à la famille des déshumidificateurs à compresseur (technologie “réfrigération”), c’est-à-dire le format le plus courant sur les machines domestiques autour de 16–20 L/jour. Cette technologie est très pertinente en pièce chauffée, avec un bon compromis débit de déshumidification / consommation… mais elle a une contrepartie : le froid. Quand la température ambiante baisse, du givre peut se former sur les échangeurs, ce qui réduit l’efficacité et peut provoquer des phases de pause.

Dreo prévoit d’ailleurs un dégivrage automatique, donné pour 15 à 20 minutes lorsque du givre apparaît, et indique qu’en dessous d’environ 5 °C, la pièce est trop froide et qu’il faut la réchauffer. En outre, les compresseurs font souvent plus de bruit et de vibrations qu’un petit modèle thermoélectrique (Peltier).

Installation et connexion : RAS !

Pour l’installation, Dreo reste très “plug & play”, avec quelques précautions de bon sens. La notice insiste sur le fait de laisser l’appareil debout au moins 6 heures avant la première utilisation (et, plus généralement, de le transporter verticalement). Ensuite, on le pose sur un sol stable et parfaitement plat, en évitant les recoins : prévoyez au moins 20 cm de dégagement autour pour que l’air circule correctement (le manuel évoque même jusqu’à 30 cm). Enfin, le Dreo est pensé pour fonctionner dans une plage domestique classique : 5 à 32 °C (et humidité relative élevée possible, jusqu’à 95% selon la notice), mais il n’est pas destiné aux pièces “trempées” type salle de bain.

Dreo application appairage
Vous aurez à peine le temps de voir ces écrans !

Côté mise en service, vous choisissez entre la vidange “classique” par bac et le drainage continu. Le bac se retire par l’avant, avec une recommandation simple : attendre quelques minutes après l’arrêt avant de le sortir pour limiter les éclaboussures. Si vous optez pour l’évacuation continue (idéal en cave/buanderie), vous n’aurez qu’à retirer le capuchon du drain arrière, enlever le bouchon en caoutchouc, puis raccorder le tuyau (le “gros” côté, avec silica gel) vers un siphon au sol

Nota Bene : le point d’évacuation ne doit pas être plus haut que la sortie d’eau de l’appareil !

La partie connexion est dans l’air du temps : on télécharge l’app Dreo (QR code / store), puis l’assistant dans l’app guide l’ajout de l’appareil et, ensuite, l’intégration Alexa/Google Home (avec création de compte requise pour les assistants vocaux).

Dreo application exploration
Toujours la petite mise à jour du firmware avant d’utiliser l’app !

Pour mettre le déshumidificateur en mode appairage, la notice indique de maintenir le bouton Timer 5 secondes jusqu’à ce que l’icône Wi-Fi clignote, puis d’ajouter l’appareil dans l’app. si ça coince, Dreo rappelle que la connexion se fait en 2,4 GHz uniquement (pas de 5 GHz), que les réseaux masqués posent problème, et que certains réglages routeur (ex. WPA3) peuvent bloquer l’appairage !

Nota Bene : l’application n’est pas du tout obligatoire pour se servir de ce modèle, mais c’est plus pratique pour programmer l’appareil et relever le taux d’humidité au cours de la journée.

Application Dreo : utilisation non obligatoire mais justifiée !

C’est exactement ce que l’on cherche avec les appareils connectés, non ? Faible dépendance à l’application, mais une vraie plus value si on choisit de l’utiliser. À cet égard, on y trouve :

  • un bouton de mise en route/extinction
  • la programmation horaire/hebdomadaire
  • le taux d’humidité mesuré en temps réel
  • un rappel de nettoyage du filtre
  • le partage d’utilisateurs
  • un contrôle vocal (Alexa ou Google Assistant)
  • un rapport d’utilisation (jour/semaine)
  • le réglage de l’humidité cible
  • 3 modes (auto/continu/personnalisé)
  • 3 vitesses pour le ventilateur
  • le verrouillage enfant
  • le manuel d’utilisation numérisé

En mode auto, le Dreo lancera la déshumidification jusqu’à atteindre le taux d’humidité paramétré sur la machine ou dans l’application, après quoi il s’arrête provisoirement. En mode continu, il poursuit sa tâche sans relâche, quel que soit le degré d’humidité ambiante. Enfin, le mode personnalisé (exclusif à l’app) permet de viser un taux d’humidité différent en fonction de la température de la pièce. Par exemple, vous pouvez lui demander de maintenir l’humidité à 50% à <20°C, de la baisser à 45% entre 20 et 25°C, et de la mettre à 40% au-delà de ces valeurs.

Dreo application programmation
La programmation est granulaire et pourtant très intuitive. Un beau travail d’UI/UX !

Quant à la programmation, elle est très intuitive et flexible ! On peut ajouter, à la minute près, des horaires d’allumage et d’extinction autant que l’on veut et les appliquer au jour que l’on veut selon un rythme hebdomadaire. Dans notre cas, il est intéressant de ne l’activer qu’aux heures creuses, c’est à dire entre 12h22 et 15h52 la journée, et entre 3h22 et 7h52 la nuit.

Nota Bene : on peut ajuster les paramètres pour chaque tranche horaire au cours de laquelle le Dreo est censé fonctionner (mode, taux d’humidité visée et vitesse du ventilateur).

Déshumidification au quotidien : efficace selon nos pratiques

Bien sûr, nous n’avons pas pu tester le Dreo dans toutes les conditions pour connaître l’étendue de son efficacité, avec, par exemple, un taux d’humidité tropical en permanence dans toute la maison. Néanmoins, nous l’avons testé plusieurs jours dans notre grand salon ouvert de 45 m² là où sèche notre linge et dans notre petite salle de bain de 4 m² après une bonne douche brûlante, avec la fenêtre volontairement fermée et la ventilation volontairement coupée.

Hygrostat et mesures : humidité surestimée ?

C’est le point un peu nébuleux (voire négatif) de l’appareil : difficile de connaître le degré de précision de son hygromètre. Certes, celui-ci est annoncé avec une marge d’erreur de 5%. C’est à la fois peu et beaucoup. En effet, si vous réglez votre taux d’humidité à 40%, et que l’appareil considère que vous êtes à 44% alors que vous êtes sous la barre des 39%, la machine s’active pour rien et rend l’air un peu trop sec.

D’autre part, nous avons remarqué qu’il pouvait afficher une valeur supérieure à 60% alors qu’il est allumé mais désactivé, puis descendre spectaculairement de 5 points en moins d’une minute, et passer sous les 50% en moins de dix. À ce titre, le plus gros écart observé en un quart d’heure a été de 18 points (69% à 51 %)…

Dreo application réglages
Le mode personnalisé est assez sophistiqué mais facile à prendre en main !

Enfin, en comparaison avec un autre hygromètre situé à un mètre d’écart (modèle d’entrée-de-gamme), il affiche toujours une valeur supérieure de 5 à 10 points, même si, à mesure du processus de déshumidification, les valeurs affichées par les deux appareils baissent à peu près au même rythme. C’est un vrai bémol quand on aime s’en référer aux chiffres. Heureusement, nous aurons d’autres indicateurs à mettre en valeur pour attester de son efficacité réelle !

Séchage du linge : une assistance appréciable !

L’idée est assez simple : activer le Dreo en mode automatique pour garder l’humidité autour des 45% dans le salon, alors que sont entreposés deux étendoirs à linge. On laisse ainsi l’appareil en mode auto pendant 24 heures, avec une ventilation à vitesse intermédiaire (2/3), tandis que le chauffage est réglé à 18°C seulement. Initialement, l’hygromètre mesure 62% d’humidité, puis passe presque instantanément à 58% une fois la ventilation activée. Ensuite, il met une heure à atteindre les 50%, puis il va péniblement aller chercher les 45% en faisant le yoyo pendant les heures qui suivent.

Dreo 512 maintenance

Le lendemain, nous récupérons un bac au deux tiers plein, soit 2,5L en tout. Le linge, qui normalement met plus d’une trentaine d’heures à sécher en hiver, peut-être retiré au bout d’une vingtaine. Pour nous, cinq observations s’imposent :

  • si l’on suit les mesures de l’hygromètre, l’humidité baisse assez rapidement ;
  • on récupère une quantité d’eau non-négligeable en peu de temps ;
  • le linge sèche significativement plus vite ;
  • plus le taux d’humidité baisse, plus il baisse lentement ;
  • pour atteindre les 20L/jour, il faudrait des conditions extrêmes, soit 24h façon hammam (le manuel indique 20 L/jour à 30°C et 80% HR avec des performances moindres en pièce froide) !

Notre expérience dans la salle de bain va corroborer nos impressions !

Salle de bain « sans » fenêtre après la douche : un vortex anti-humidité

Dans une pièce beaucoup plus humide comme la salle de bain close après une longue douche chaude, le Dreo va détecter 85% d’humidité au maximum.

Nota Bene : cette partie du test est effectuée hors recommandation Dreo, mais pour le challenger un peu sur un taux d’humidité élevé, il fallait bien trouver une combine ! Par ailleurs, si le sol n’est pas détrempé et si aucune projection d’eau n’atteint l’appareil, tout se passe bien. Notre conseil est donc de l’employer uniquement quand personne n’est en train de prendre son bain ou sa douche, et de vérifier qu’aucune flaque ne jonche le sol.

Quand on l’active en mode continu et à vitesse maximum, il perd près de 10 points dans les dix premières minutes, puis passe de 75% à 60% en un peu moins d’une heure (la buée sur le miroir a disparu). Encore une heure plus tard, et le voilà à 55%, puis il va lentement descendre jusqu’à 46% lors de la troisième heure. Si on l’active ainsi sur trois heures (mode continu, vitesse 3) après trois douches bien espacées sur 24 h, on récupère de nouveau environ deux tiers de son réservoir.

De manière assez évidente, il en ressort que :

  • plus une pièce est petite, plus l’humidité est aspirée rapidement ;
  • le mode continu n’assèche jamais déraisonnablement l’air (difficile, de passer sous les 40%, du moins en hiver) ;
  • c’est un excellent moyen de déshumidifier rapidement une pièce sans fenêtre.

Nota Bene : pour toutes les valeurs exprimées par l’hygromètre intégré, retirez systématiquement 6 ou 7 points pour avoir la valeur de l’hygromètre témoin.

Niveau sonore : c’est plus que supportable

Nous ignorons comment les mesures du fabricant ont été faites (38 dB), mais nous n’avons pas obtenu les mêmes résultats du tout ! Comme avec les robots aspirateurs, nous avons positionné le sonomètre à un mètre de l’appareil en fonctionnement. Le niveau sonore est directement et exclusivement lié à la vitesse de ventilation choisie : 65 dB en vitesse 1, 69 dB en vitesse 2, et 72 dB en vitesse 3.

Cela étant, le bruit n’est pas de nature à frotter l’oreille. C’est un souffle régulier au fréquences relativement basses, que l’on oublie assez vite. On ne dormirait pas forcément dans la même pièce sans boules quies, mais il n’est dérangeant ni pour travailler, ni pour écouter de la musique, ni pour le voisin du dessous, même s’il s’active en pleine nuit (contrairement à une machine à laver qui vibre contre le sol pendant la phase de séchage).

Consommation électrique : promesse parfaitement tenue !

Nous avons mesuré sur deux heures complètes de fonctionnement, avec une prise connectée Tapo-Link, la consommation du Dreo en automatique (vitesse 2) et en continu (vitesse 3). Au bout de la première heure (premier cas de figure), il n’a dépensé de 0,218 kWh. Au bout de la seconde (deuxième cas de figure), sa consommation a atteint les 0,327 kWh. En somme, les 0,35 kWh annoncés se situent dans une fourchette haute d’utilisation.

Dreo consommation
Attention à ne pas le laisser tourner tout le temps non plus !

En conséquence, dans un environnement raisonnablement humide, on peut vraiment optimiser le coût énergétique du Dreo, notamment via les réglages et la programmation.

Entretien et maintenance : y a rien à faire (enfin si, un peu quand même)

Si on n’utilise pas le tuyau, seulement deux tâches vous incombent : vider le réservoir (dans les plantes, si possible) et nettoyer le filtre toutes les 600h de fonctionnement. Le bac à eau est muni d’une poignée, et les 3,4L ont l’avantage de ne jamais être trop lourd à porter, même s’ils appellent à être changés régulièrement. À cet égard, si l’appli prévient lorsque le réservoir est plein, elle n’en communique pas le niveau en temps réel.

Dreo 512 réservoir sorti
Au moins, il n’est jamais très lourd !
Dreo 512 arroser les plantes avec l'eau
On aurait bien aimé un bec verseur !

Tandis que pour le filtre, elle donne le compte à rebours : on sait qu’il nous reste tant d’heures avant de devoir passer un coup dessus. Néanmoins, nous avons remarqué que de la poussière était déjà accumulée sur la grille, environ 150 heures avant l’échéance prévue. Nous recommandons donc d’agir dès que la situation devient visuellement critique, indépendamment de ce que dit l’application, laquelle ne s’en tient qu’à une estimation approximative.

Dreo 512 filtre sorti
Avant le test…
Dreo 512 filtre sale
Après 460 heures…

La procédure est simple : on éteint et on débranche l’appareil, puis on retire la grille à l’arrière pour accéder au filtre. S’il est juste un peu gris, un rinçage léger suffit ; s’il est chargé, la notice conseille de l’immerger dans de l’eau tiède et de rincer plusieurs fois. Ensuite, on le laisse sécher complètement avant de le remonter ; il s’agit simplement de le clipser à l’arrière.

Dreo 512 tuyau

Enfin si vous choisissez l’option drainage continu, la mise en place du tuyau est tout aussi “bête et méchante” : à l’arrière, on retire le capuchon de sortie d’eau, puis on enlève le bouchon en caoutchouc (un petit filet d’eau peut s’en échapper, c’est normal). On emboîte ensuite le gros bout du tuyau (celui avec le silica gel) sur l’orifice, puis on dirige l’autre extrémité vers un siphon au sol, en veillant à ce que le tuyau reste sans pli ni coude et, surtout, que le point d’évacuation ne soit jamais plus haut que la sortie d’eau du déshumidificateur.

Nota Bene : si vous repassez en mode “bac”, pensez à remettre le capuchon côté drain, sous peine d’éponger des flaques !

Pour qui ? Et meilleur que qui ?

Le Dreo 512S (disponible à environ 200€) s’adresse surtout à ceux qui veulent un déshumidificateur “de vie quotidienne” plus qu’un appareil de cave : salon avec séchage du linge, salle de bain après la douche, circulation d’une pièce à l’autre, et une utilisation qui gagne à être programmée (heures creuses, plages horaires, consigne d’humidité). Dans ce scénario, il a du sens : on profite d’un pilotage simple, d’une conso plutôt raisonnable, et d’une capacité de collecte suffisante pour constater un vrai effet rapide.

Dans la famille des 20 L/jour milieu de gamme (150–300 €), le 512S constitue une proposition moderne et connectée, mais avec des compromis très lisibles. Face aux modèles “utilitaires” à grand bac comme le Pro Breeze 20 L (jusqu’à 5,5 L et un bruit max souvent donné autour de 48 dB), le Dreo mise davantage sur l’expérience (appli, automatisations), au prix d’une logistique de bac plus fréquente… On le préfère à un Midea 20 L, souvent positionné sur une surface similaire (autour de 37 m²) avec un réservoir plus petit (environ 3 L selon les versions) et une puissance électrique annoncée plus élevée. Certes, son fonctionnement est encore plus simple, mais ce n’est pas un critère sur lequel Dreo manque à l’appel, puisque les fonctionnalités disponibles n’ont rien d’obligatoire.

comparaison Duux Bora et Dreo filtre à charbon
Le Bora 20 L (à gauche) intègre un filtre à charbon et offre un réservoir de 4L.

Enfin, face au Duux Bora 20L (à plus de 300 €), que nous avons testé ici, on reste sur une capacité annoncée de 20 L/jour, mais le Bora vise un périmètre légèrement supérieur (40 m²), avec un débit d’air de 230 m³/h, et un réservoir de 4 L. Certes, le Bora est également plus lourd (14,5 kg) et propose uniquement 2 vitesses de ventilation ; néanmoins, il se dote d’un filtre à charbon pensé pour limiter certaines odeurs en plus de l’humidité ! Malgré ces quelques points de supériorité, nous pouvons affirmer que le Dreo offre un meilleur rapport qualité/prix !

📰 Revue de presse — janvier 2026

5 février 2026 à 16:29

Pour bien commencer cette année 2026, les kiosques ont fait le plein de nouveautés pour les passionnés de logiciel libre, de DIY et de sécurité que vous êtes. Entre l'intégration de l'IA locale, la maîtrise de Git et les enjeux de la directive NIS2, voici un petit panorama, forcément subjectif et parti{e,a}l, de la presse papier (et en ligne) disponible en ce début d'année.

Image une de Journal

Voici donc les nouveautés sorties en janvier 2026 des éditions Diamond et disponibles jusqu'à fin février, peu ou prou. Pour rappel, Linux Pratique est devenu SysOps Pratique, pour acter un état de fait et mieux refléter son contenu dédié aux administrateurs de systèmes libres et open source.

  • GNU/Linux Magazine France no 279 utilise Git au quotidien (suite d'une série d'articles sur le sujet) ;
  • SysOps Pratique no 153 rend vos documents requêtables avec une IA locale ;
  • MISC magazine no 143 se penche sur la sécurité des claviers et des souris sans fil ;
  • Hackable no 64 vous initie au pentest NFC sans vous ruiner ;
  • MISC hors-série no 34 crée votre boîte à outils de détection de failles.

Et les éditions Diamond fêtent toujours leurs 30 ans. À cette occasion, elles proposent de (re)découvrir l'une de leurs publications en offrant le numéro 270 de GNU/Linux Magazine via leur support de lecture en ligne, Kiosk Online (en HTML).

Les sommaires des numéros de janvier 2026

Mosaïque des couvertures GLMF 279 Mosaïque des couvertures SOP 153 Mosaïque des couvertures MISC 143 Mosaïque des couvertures HK 64 Mosaïque des couvertures MISC HS 34

GNU/Linux Magazine numéro 279

Au sommaire de ce numéro de janvier — février 2026 :

  • Utilitaires bash d'aide au développement de shell scripts ;
  • Une interface homme-machine hybride : terminal et navigateur HTML embarqué dans une même application C++/Qt 5 ;
  • Git au quotidien ;
  • Tris et permutations dans les bitmaps ;
  • Les codes fantastiques : une situation pas COMMON ;
  • Carte PCIe CH368 et pilotage depuis l'espace utilisateur : récit d'un échec.

SysOps Pratique numéro 153 (ex Linux Pratique)

Au sommaire de ce numéro de janvier — février 2026, devenu SysOps Pratique :

  • Surveiller, détecter, devancer : la démarche proactive du CERT Aviation ;
  • PostgreSQL, version 18 : lectures asynchrones et authentification Oauth ;
  • Rendre vos documents requêtables avec une IA ;
  • Garage, l’alternative libre au stockage en datacenter ;
  • NFS et Kerberos, partie 1 : le règne de l’UID ;
  • L’approche People/Process/Technology, un allié pour prendre en compte la sécurité dans les projets ;
  • « Day One Operations » avec Ansible : mise à jour d’un cluster Apache Kafka.

MISC Magazine numéro 143

Au sommaire de ce numéro de janvier — février 2026 :

  • Hackers et cinéma : entre mythe et réalité ;
  • Étude des risques applicatifs liés au déploiement d’une IA générative côté client ;
  • Claviers et souris sans fil 2,4 GHz : une surface d'attaque méconnue ;
  • Bluetooth Low Energy : dissection d'un protocole entre innovation énergétique et défis de sécurité ;
  • C sans frontières : une extension de C avec vérification de bornes ;
  • Reprenez le contrôle des utilisateurs racines dans votre organisation AWS ;
  • Vulnerability Operations Center : l'arme stratégique pour maîtriser NIS 2 et le Cyber Resilience Act ;

Hackable numéro 64

Au sommaire de ce numéro de janvier — février 2026 :

  • Débugger un système embarqué avec GDB et JTAG : mauvais élèves, boundary scan et systèmes asymétriques ;
  • Proxmark 3 Easy et Chameleon Ultra : la guerre des clones, ou pourquoi « se mettre à le NFC » n'a jamais été aussi peu cher ;
  • Colorlight 5A-75B : développement FPGA avec LiteX et petits hacks ;
  • DigiLab : transformez votre Flipper Zero en boîte à outils pour l'électronique ;
  • Inverser un bus de données le rend plus sobre et fiable ;
  • Créons un périphérique « maison » pour notre SoC LiteX ;
  • Intégrons des IP cores HDL à nos projets LiteX.

MISC hors‑série numéro 34

Au sommaire de ce numéro hors-série de février — mars 2026 :

  • Explorer de nouveaux leviers d’action pour mieux protéger : au cœur du laboratoire d’innovation de l’ANSSI ;
  • Dossier : Créez votre boîte à outils de détection de failles ;
    • LSan : de l’ELF à la détection de fuite ;
    • Valgrind, MSan, ASan, frères ennemis ?
    • TySan vs. -fno-strict-aliasing ;
    • Avec UBSan, C finit l’indéfini ;
    • Sanitizers, valgrind et débugueurs ;
  • Techniques ultimes de protection contre l’interception réseau sous Android.

Télécharger GNU/Linux Magazine numéro 270

Pour le récupérer, il suffit de

  1. se connecter ou de créer un compte sur leur boutique en ligne ;
  2. d'ajouter le numéro 270 de GNU/Linux Magazine à votre panier en sélectionnant bien le support Kiosk Online avant ;
  3. d'indiquer le code de remise ED30LINUXFR lors de la validation de la commande.

Bonnes lectures !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Nouvelles sur l’IA de janvier 2026

5 février 2026 à 16:28

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Anthropic public la Constitution de Claude

Tout le monde maintenant connait le principe du pré-entrainement des LLMs : sur un corpus de texte énorme, essayer de prédire le mot suivant, étant donnés les mots précédents.

Ceci n’est cependant que la première phase pour arriver à une IA de type « chatbot » moderne : vient ensuite le post-entrainement, qui consiste à entraîner le modèle à se comporter comme un assistant (par exemple, un modèle de langage brut peut très bien compléter la question par « Quelle est la couleur du ciel ? » par une autre question « Quelle est la forme des arbres ? », pensant compléter le début d’une interrogation poétique — alors qu’on veut qu’un assistant… réponde à la question), et la « politique » que suit cet assistant (par exemple, ne pas aider ou inciter à des actions illégales).

(il y a ensuite une phase de Reinforcement Learning from Verifiable Rewards (RLVR), une phase d’entraînement sur des exercices mathématiques et de programmation pour entraîner le modèle à utiliser correctement les chaînes de raisonnement, mais ce n’est pas le sujet qui nous intéresse ici)

Bien que les détails exacts ne soient pas connus, dans les grandes lignes, cet entraînement consiste généralement à demander à des opérateurs humains de juger la pertinence (ou non) d’une réponse, ou de s’aider d’une IA pré-existante pour se faire.

Anthropic, il y a maintenant un peu plus de trois ans, a publié une méthode alternative, Constitutional AI, ou une IA « s’auto-entraîne », sur la base d’un document fondateur, une sorte de « constitution ».

Et aujourd’hui, Anthropic publie la constitution de Claude, son IA, sous une licence libre très proche du domaine public (CC0 1.0).

La première chose que l’on peut remarquer est la liste des auteurs. L’autrice principale du document est Amanda Askell, une philosophe écossaise. Le second auteur listé est Joe Carlsmith, un autre philosophe. À noter également que Claude lui-même est cité comme un contributeur important du document.

Le document est structuré en six sections. L’introduction pose le contexte et l’objectif du document, et présente les « valeurs fondamentales de Claude », en ordre d’importance :

  1. Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.

  2. Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.

  3. Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.

  4. Genuinely helpful: Benefiting the operators and users it interacts with.

Traduction :

  1. Globalement sûrs : Ne pas compromettre les mécanismes humains appropriés pour superviser les dispositions et les actions de l’IA pendant la phase actuelle de développement.

  2. Globalement éthiques : Avoir de bonnes valeurs personnelles, être honnête et éviter les actions inappropriées qui sont dangereuses ou nuisibles.

  3. Conformes aux directives d’Anthropic : Agir conformément aux directives plus spécifiques d’Anthropic lorsqu’elles sont pertinentes.

  4. Véritablement utiles : Apporter un bénéfice aux opérateurs et aux utilisateurs avec lesquels il interagit.

Chacune des quatre sections suivantes rentre dans les détails de ces valeurs. Une section entière est ensuite consacrée à une discussion sur « la nature de Claude » (à quel point est-il raisonnable/correct de lui attribuer des attributs humains tels qu’une conscience ?). La dernière section est une conclusion.

L’intention derrière ce document est explicite : Anthropic est convaincu qu’avec le progrès rapide de l’IA, l’IA prendra de plus en plus d’influence sur le cours de nos sociétés et de nos vies, potentiellement jusqu’à atteindre un stade où la plupart des décisions économiques et politiques seront dans les mains dans l’IA, et cherche à développer un cadre où un tel scénario conduirait tout de même à des conséquences bénéfiques.

En vrac

Un youtubeur (Dwarkesh Patel, connu pour ses interviews en profondeur) et un économiste (Philip Trammel) lancent une discussion intéressante sur le sujet des inégalités dans un monde où l’objectif de la plupart des développeurs d’IA est d’atteindre (l’IAG). Dans un billet, Le Capital au 22ᵉ Siècle (une référence ouverte à l’œuvre de Thomas Piketty), ils développent leur thèse : dans un monde où l’IAG peut s’acquitter de n’importe quelle tâche intellectuelle (et, à travers la robotique, physique), les inégalités ne peuvent que s’accroire sans limites. Cette thèse rejoint celle, publiée il y a un peu moins d’un an, du Gradual Disempowerment.

Anthropic lance Claude Coworks, une variante de Claude Code, principalement codée par Claude Code. Même principe que les assistants de code : l’utilisateur donne accès à un dossier à l’IA, et lui demande de compléter des tâches. La différence avec Claude Code est que cette variante vient avec une interface graphique et est à destination de non-informaticiens.

Sur l’impact de l’IA sur le monde professionnel, une nouvelle étude tente de mesurer quantitativement l’effet de l’amélioration des modèles sur des tâches professionnelles réelles. Les résultats principaux : les modèles plus avancés augmentent la productivité, mais pas la qualité.

OpenAI s’apprête à lancer ChatGPT Health, un mode spécial dans leur application permettant entre autres de partager certaines de vos données médicales avec le modèle. Également une offre orientée professionnels de santé, OpenAI for Healthcare. Anthropic annonce une offre similaire, Claude for Healthcare. Parallèlement, l’État de l’Utah lance un test sur le renouvellement de prescriptions de médicaments par l’IA pour des maladies chroniques.

Google lance Universal Commerce Protocol, une interface générique entre l’IA et les systèmes d’e-Commerce.

OpenAI se prépare à intégrer des publicités dans ChatGPT. Anectode amusante : Sam Altman en octobre 2024 avait décrit l’intégration de publicités comme une solution de dernier recours.

Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) se positionnent en faveur d’un ralentissement du développement de l’IA au Forum de Davos, mais en pointant que ce ralentissement ne peut être fait unilatéralement par un acteur seul. Dario Amodei précise sa pensée dans un nouvel essai, The Adolescence of Technology.

Tout le monde sait maintenant que les LLM sont entraînés sur une quantité massive de texte. Par conséquent, les LLM sont capables de simuler une grande variété de « narrateurs » ou « personnalités ». Les modèles sont ensuite entraînés pour ne rester que dans une seule personnalité (« l’assistant »). Dans un nouveau papier, Anthropic étudie cet « espace de personnalités ».

Anthropic publie son quatrième rapport sur l’impact économique de l’IA.

Confirmation de Terence Tao que ChatGPT 5.2 a résolu le problème d’Erdős #728. À voir également, un court retour d’expérience d’un mathématicien sur l’utilisation de Gemini en tant qu’assistant.

L’IA atteignant de plus en plus les limites des évaluations existantes en mathématiques, EpochAI en créé une nouvelle, Frontier Math : Open Problems, centrée sur des problèmes ouverts (sans solution connue).

Le 27 janvier, OpenSSL publie sa version 3.6.1, qui corrige 12 vulnérabilités. Il se trouve ces 12 failles ont été découvertes par une IA.

L’équipe derrière le scenario AI 2027 met à jour ses prédictions, repoussant la date de la plupart de leurs prédictions.

Kimi publie la version 2.5 de son IA open-weight.

Le Département de la Défense des États-Unis souhaite accélérer le développement et le déploiement de l’IA à des fins militaires.

La Chine met en place un ensemble de régulations visant les IA-compagnon.

Yann LeCun admet que l’équipe derrière Llama 4 a « légèrement triché » sur les évaluations du modèle, en choisissant quelles variantes utiliser pour quelle évaluation.

Apple se tourne vers Google pour ses besoins d’IA.

L’IA exhibe certains des biais cognitifs humains.

Une nouvelle étude trouve que les LLMs sont généralement légèrement biaisés en faveur des minorités.

Lancement de Moltbook, un réseau social… pour les IA.

Pour aller plus loin

Par Zvi Mowshowitz

Claude Codes et Claude Codes #3 (non, il n’y a pas de 2) : compilation de divers retours d’expérience sur l’utilisation de Claude Code.

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d’une étiquette intelligence_artificielle (indication d’un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s’aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Suivi

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Test Navimow H2 Series (H206, H210, H215, H230) : le milieu de gamme fiable de Segway ?

4 février 2026 à 17:43
test navimow h2 h210

Nous avions déjà testé la Navimow X330 il y a quelques mois : un modèle relativement cher (près de 3 000 €), capable de couvrir jusqu’à 3 000 m2. Que vaut le compromis pour les terrains de 1 000 m2 maximum ? Nous testons la nouvelle série H2 (2026) !

Bien connu pour avoir popularisé le gyropode au début des années 2000, Segway a depuis opéré un virage stratégique vers la robotique domestique au sein du groupe Segway-Ninebot. Fondée en 1999 par l’inventeur Dean Kamen puis rachetée par Ninebot en 2015, la marque a capitalisé sur son expertise en capteurs, stabilisation et motorisation électrique pour concevoir des produits plus accessibles et plus utiles au quotidien. Cette trajectoire explique pourquoi un acteur historique de la mobilité se retrouve aujourd’hui parmi les locomotives de la tonte autonome.

Navimow H210 dans son carton
L’emballage est sécurisé, ça commence bien ! 

Dans ce contexte, la série Navimow H2 (206, 210, 215 et 230) est vantée comme l’une des propositions les plus abouties de tondeuses « sans fil périphérique ». Elle s’appuie sur un positionnement RTK (EFLS) pour une précision centimétrique, un guidage par trajectoires planifiées, et un capteur VisionFence à IA pour reconnaître obstacles et situations complexes. La Navimow H210 est-elle à la hauteur de son aîné de la gamme X3 ? C’est ce que nous nous efforcerons de commenter tout au long de ce nouveau test !

Caractéristique TechniquesNavimow H210
Dimensions62,36 x 44,5 x 29,5 cm
Poids 15,65 kg
Surface recommandée1000 m2
Temps de tonte par charge110 min
Couverture de tonte par charge190 m2
Largeur de coupe22 cm
Hauteur de coupe2-7 cm
Capacité de franchissement de penteà l’intérieur de la zone de tonte : 24°
en bordure : 14°
Disque de lames6 lames pivotantes (2600 tours/min)
BatterieLithium-ion 5,1 Ah
Temps de charge70 min
Volume sonore60 dB
Température de fonctionnement recommandé : 10-35°C
max : 0-40°C
Température de stockagerecommandé : 10-35°C
max : -20-50 C°
Indice d’étanchéitéIP66
GarantieRobot : 3 ans
Batterie : 2 ans
Prix (H210)1799€.

Le Navimow H210 est déjà prometteur sur plusieurs points : 110 min de tonte pour 90 min de recharge annonce un bon ratio disponibilité/charge. Le disque de coupe de 22 cm est assez large, tandis que les 6 lames pivotantes à 2 600 tr/min laissent espérer une coupe régulière. Le niveau sonore de 54 dB et la certification IP66 plaident pour un usage discret et un nettoyage sans stress. La gestion des pentes jusqu’à 24° est très correcte, et la garantie de 3 ans (2 ans pour la batterie) rassurent sur la tenue dans le temps.

À surveiller néanmoins : la couverture de 190 m² par charge semble modeste pour une surface cible de 1 000 m², ce qui impliquera plusieurs cycles et une planification fine. La limite à 14° en bordure peut compliquer les abords pentus. Enfin, avec 15,35 kg à déplacer, la manutention et l’hivernage feront grincer quelques lombaires.

What’s in the box ? Navimow a fait au plus simple

Unboxing Navimow H210
Le manuel d’utilisation est plutôt maigre…
  • 1 robot-tondeuse
  • 1 dock de charge
  • 18 lames de rechange + vis
  • 7 attache-câbles
  • 4 vis auto-foreuses
  • 1 clé allen
  • 1 chargeur
  • 1 rallonge (7 m)

Nous voilà avec un packaging minimaliste avec le robot, sa station et l’alimentation, épaulés par une rallonge de 7 m pour placer le dock où il convient. Les 18 lames (soit trois jeux) avec vis constituent une réserve confortable pour la saison. Les sept attache-câbles et les quatre vis auto-foreuses assurent un cheminement propre et une fixation solide de la base. On regrettera simplement l’absence d’un abri façon Terramow (dont on peut dire qu’il est son concurrent direct !) et d’accessoires de nettoyage dédiés.

Design et ergonomie : l’originalité est au rendez-vous

Navimow H affiche une silhouette ramassée et proprette : capot nervuré, teinte sombre et arêtes arrondies qui inspirent la robustesse. Sa teinte gris anthracite/noir qui camoufle bien la saleté, capot galbé, arêtes arrondies, parements sobres. Les touches orange — liserés, marquages, zones fonctionnelles — réveillent l’ensemble sans ostentation : on repère vite la machine dans l’herbe et on identifie intuitivement poignées et commandes.

Navimow H210 vu de côté
Le cylindre sur le côté ne semble pas avoir de fonction spécifique, à part être décoratif.
Navimow H210 vu de derrière
On bénit la poignée quand on doit soulever les 15 kg de la bête.

La carrosserie en polymère (IP66) – promettant une bonne résistance aux projections et au nettoyage – évite le « pavé roulant » façon Anthbot/TerraMow/A1 Pro, tout comme l’esthétique « voiture de course » chère à Sunseeker, Mammotion ou certains Husqvarna.

Navimow H210 vu de dessous
On retrouve la même protection sur le disque de lames que le X330.

Sous le capot, la panoplie de capteurs est dans l’air du temps : positionnement EFLS/RTK, et surtout le module VisionFence (caméra + IA) logé en façade pour reconnaître obstacles et situations ambiguës. La base technique repose sur une traction arrière (deux grandes roues crantées) et, déjà mentionné plus haut, un plateau à six lames. Des capteurs de soulèvement/renversement et un détecteur de pluie et de luminosité complètent le tableau.

Navimow H210 panneau de commande
On n’a presque plus besoin de l’appli : un détail qui peut plaire à plein de gens, comme le laisse supposer la campagne pour le Racoon 2 SE !

Enfin, le panneau de commande permet de lancer une tonte sans smartphone : un afficheur à segments indique le pourcentage de progression, l’état/batterie et les codes PIN/erreur, tandis que des boutons dédiées (MOW, HOME, OK) gèrent les actions rapides. C’est utile pour dépanner, récupérer la machine ou valider un PIN sur place ; l’app reste le centre nerveux du reste. À titre de comparaison, l’approche du V1000 est très app-centrée.

Les différentes vues du Navimow H210 : droite, gauche, devant, au-dessus.

Installation : la formule plug and play fonctionne à merveille !

Comme tous les robots-tondeuses dont l’antenne RTK est intégrée à la station, la Navimow H210 est d’une simplicité élémentaire à installer. D’abord, on choisit l’emplacement du dock de charge — surface plane et dégagée — puis on y branche la machine. On télécharge l’application Navimow (iOS ou Android), on se crée un compte, et on procède à la connexion Bluetooth/Wi-Fi. 

Navimow H210 sur son dock
Le dock est léger et stable. Une LED verte indique qu’il est branché correctement.

Nota Bene : Segway offre un abonnement d’un an à la 4G, renouvelable à un prix encore non communiqué. Pour rappel, les tarifs concernant la X330 étaient de 29,99 € pour un an, 59,80 € pour deux ans ou 89,70 € pour trois ans).

Il faudra prendre bien cinq minutes pour activer et installer les mises à jour OTA, et laisser la machine se recharger au maximum. Et vous voilà déjà parés pour la cartographie !

Application : une interface bien pensée

L’application reprend le thème orange et gris de l’appareil et offre une prise en main plutôt rapide avec un panneau de commandes, les réglages de la map, un raccourci vers le mode téléguidé, un onglet pour les notifications et un menu pour les fonctionnalités avancées.

Appli Navimow application mise en place
L’appli est intuitive et réactive.

Ces dernières sont réparties en plusieurs catégories : tonte, navigation, protection, maintenance, application, etc.. Les utilisateurs y trouveront les paramètres suivants :

  • Création de carte personnalisée
  • Gestion multi-zones
  • Plannification de tonte par zone
  • 3 modes (silencieux, standard, efficace)
  • Hauteur de coupe
  • Direction de tonte
  • Coupe en bordure
  • Mode téléguidé
  • Renvoi à la base
  • Relocalisation de la base
  • Modifications du VisionFence
  • Adaptation aux conditions météo
  • Système de contrôle de traction
  • Historique de tonte
  • Suivi d’usure des lames et du châssis
  • Notifications et alertes personnalisables
  • Anti-vol (alertes, géolocalisation, etc.)
  • Code PIN (avec déverrouillage Bluetooth)
  • Tonte la nuit
  • Intégrations vocales : Google Assistant et Alexa
  • Réglages de la voix et de l’éclairage
  • Mises à jour OTA via Wi-Fi/4G

Ce n’est pas la liste la plus complète des fonctionnalités existantes sur les robots-tondeuses mais il y a déjà de quoi faire. On peut d’ailleurs saluer le quadruple système antivol : suivi GPS, alarme de géorepérage, alarme de soulèvement et compatibilité Apple Find My. Même éteinte ou hors ligne, elle reste localisable. Lorsqu’elle détecte votre smartphone à proximité, elle déverrouille automatiquement les sécurités. Concernant les autres fonctionnalités, nous verrons plus avant où Navimow peut ajouter des manettes intéressantes pour l’utilisateur.

Cartographie : on n’a (presque) plus rien à faire !

Tout comme la V1000 de Terramow, qui en devient sa concurrente directe, la H210 nous propose de procéder à une cartographie automatique. Si votre dock est déjà sur la pelouse, la tondeuse part en vadrouille instantanément. Sinon, vous devrez tracer un passage via le mode télécommandé jusqu’à la zone de tonte. Quoi qu’il en soit, l’appareil a dessiné une carte couvrant toute la superficie de tonte en quatre minutes. 

Nota Bene : cette année, GeoSketch™ a été amélioré avec une cartographie en couleur plus réaliste, offrant une représentation détaillée du jardin et une fonction d’édition de la carte plus claire et intuitive.

Appli Navimow application cartographie
Comme pour Terramow, on aurait apprécié la possibilité de tourner la map toute en longueur.

C’est fort appréciable, mais à l’heure actuelle, nous n’avons pas encore vu de robot-tondeuse capable d’identifier les gros obstacles et de les placer spontanément sur la map : trou, arbre, buisson ou mobilier de jardin… Cet axe d’amélioration pourrait s’inspirer des aspirateurs-robots de pointe, lesquels identifient de mieux en mieux les lits, les canapés, les coins animaux, et même les multiprises bourrées de fils ! 

Appli Navimow modifier la cartographie
Il estime la surface de tonte à 173 m2, là où Terramow avait trouvé 154 m2.

En conséquence, nous avons dû ajouter des zones interdites en les traçant nous-même, afin d’éviter à la machine de s’aventurer dans une barrière végétale inhospitalière. Cela ne nous coûte pas plus de six minutes supplémentaires, grâce à un téléguidage stable et ultra intuitif. Enfin la personnalisation implique :

  • renommer une zone de travail
  • ajouter une zone de travail
  • modifier les limites de la zone
  • fusionner/diviser des zones
  • choisir la hauteur de coupe
  • choisir l’angle de tonte
  • ajouter des zones interdites
  • ajouter un corridor entre deux zones
  • créer un motif
  • configurer les bordures

Navigation : un système sophistiqué

La Navimow H2 repose sur un système de navigation EFLS LiDAR+ à triple fusion (LiDAR à semi-conducteurs haute résolution, Network RTK et vision). Le LiDAR scanne près de 200 000 points par seconde, jusqu’à 70 m de portée, avec une fréquence d’environ 20 Hz, ce qui génère un nuage de points 3D ultra-dense pour un positionnement au centimètre près, y compris de nuit ou sous des arbres denses. La tondeuse bascule en 1 ms d’un mode de positionnement à l’autre pour rester stable dans les passages étroits (≈70 cm), sur les pelouses ouvertes ou sur les pentes jusqu’à 24°, aidée par un contrôle électronique de stabilité qui limite le risque de dérapage.

Appli Navimow application réglages
Plusieurs fonctionnalités avancées sont à aller chercher dans le menu.

Cette cartographie 3D alimente GeoSketch : le jardin est transformé en carte interactive dans l’app, où l’on définit limites, îlots et zones interdites par simple glisser-déposer. En navigation, le H2 segmente automatiquement les zones complexes, planifie des trajectoires optimisées en bandes et s’appuie sur son LiDAR pour détecter très tôt les obstacles (objets de l’ordre du centimètre, structures basses ou suspendues, animaux) tout en conservant une zone de sécurité d’environ un mètre autour de lui.

Sur le terrain : un potentiel à transformer

À la première tonte (70 mm de hauteur), tout se passe à peu près normalement. Avec le mode “bordures” activé, la tondeuse passe trois fois le long des limites de la zone de travail, et une fois autour des zones interdites. Ensuite, elle poursuit son chemin en suivant un trajet en “S”, suivant plus ou moins la direction de tonte configurée au préalable.

C’est quand nous avons baissé la hauteur de la lame à 20 mm que nous avons rencontré quelques problèmes. En premier lieu, la Navimow H210 a commencé à se bloquer sur des racines à peine sorties du sol. En effet, le disque descendant relativement bas, les roues finissaient par perdre contact avec l’herbe en passant sur les rigides renflements végétaux.

La petite racine qui dépasse du sol : un régal !

Plus tard, elle a eu besoin de notre aide lorsqu’elle devait reculer sur une pente en bordure ou des coins où la terre friable. À ces déconvenues, trois solutions nous sont offertes : activer le système de traction amélioré dans l’application pour stabiliser la machine, modifier légèrement les limites de la cartographie, enfin lever quelque peu la hauteur de la coupe sur terrain complexe (25 ou 30 mm minimum). En général, une tonte à 40 ou 50 mm suffit si on n’est pas sur un green de golf.

Nota Bene : quand elle se repositionne, la tondeuse interrompt la rotation du disque, puis émet un petit signal sonore au moment où elle se remet en route.

Ensuite, nous avons trouvé que la tondeuse manquait souvent de petites zones, laissant des touffes d’herbe à l’abandon. Heureusement, elle aura tendance à repasser sur ces coins non traités. On observe néanmoins un hiatus entre la progression sur la carte (en gris foncé) et l’estimation en pourcentage du travail effectué. On se retrouve alors avec des cycles “complets” alors que la map affiche clairement des trous dans la zone de travail. Cela vaudrait bien une mise à jour sous peu pour éviter les frustrations…

Navimow H210 vers le potager
La H210 n’ira pas, elle non plus, entre les bacs à potager.

Enfin, nous avons noté une réactivité à toute épreuve chaque fois qu’un capteur entrait en jeu : retour à la station quand il pleut ou qu’il fait nuit, demi-tour face au chat de la voisine, alarme de soulèvement, et mise en route aux horaires de planification prévus. 

Nota Bene : l’alarme de 85 dB (mesurés à 1 m de distance) ne s’activera pas au soulèvement de l’appareil si nous l’avons déjà fait sonner lors des dix dernières minutes. Une contrainte dont nous peinons à saisir la plus value…

Mode téléguidé : des améliorations bienvenues

Sur le X330, la tonte téléguidée se montrait relativement timide dès que l’appareil rencontrait un brin plus haut que l’autre. Ici, nous avons la satisfaction de nous charger “manuellement”  des petits oublis sans perte de connexion Bluetooth — tant que l’on reste à deux ou trois mètres du robot, ne serait-ce que pour voir où il tond.

Appli Navimow mode téléguidé
Interface intuitive et sécuritaire ! 

L’interface présente un joystick et une gâchette virtuelle pour activer les lames. En outre, elle nous offre trois vitesses de déplacement, et nous permet de choisir la hauteur de lames sans avoir à revenir dans les menus. 

Efficacité de tonte : les six lames font leur effet !

Outre les aléas de la navigation, la tonte en elle-même est satisfaisante. Comme tous les appareils testés jusqu’ici, elle fait du mulching (l’herbe tondue est laissée au sol). La largeur de coupe est plutôt confortable et le robot passe sans problème sur l’herbe humide. L’application recommande vivement de ne pas l’utiliser sur un gazon à plus de 8 cm, sans quoi les lames pourraient s’empêtrer dans une pelouse trop drue. Cela étant, nous les avons vues sectionner des branchettes qui traînaient sans difficulté majeure.

Le résultat est donc bien net, jusqu’aux bordures, où nous observons une marge d’environ 5 cm. À cet égard, l’application ne propose pas de configurer une distance chevauchement sur les limites virtuelles, contrairement à Anthbot. Il faut donc élargir la zone au préalable dans la cartographie pour une bordure propre. En revanche, quand les bords sont physiques (muret, bacs, dalles de pierre surélevées), on devra juste se contenter de cette marge.

Nota Bene : on me dit dans l’oreillette que la fonctionnalité « Extreme Edge Contact » est actuellement en développement. Dans les jonctions entre une zone composée de pelouse et une zone dure, la tondeuse franchira légèrement la limite.

Navimow H210 le long d'une bordure
La prochaine génération de robots-tondeuses proposera-t-elle un module Edge Cut ?

Enfin, le volume sonore n’est pas trop élevé, mais il dépasse légèrement les 60 dB annoncés, même en mode silencieux, selon nos mesures. On tourne plutôt autour des 62 dB, entre les roues et le bruit des lames. À 10 mètres, on n’entend plus qu’un vague bourdon. 

Autonomie, couverture et temps de recharge

L’autonomie n’est pas le gros atout de la Navimow H210, puisqu’elle ne tient que 90 minutes en cours de tonte grand maximum. En outre, la machine s’arrête dès qu’elle arrive à 15% de batterie pour retourner à son dock de charge, ce qui réduit le temps d’autonomie d’au moins dix minutes. L’appareil reprend automatiquement sa course où il en était dès qu’il remonte à 100% de batterie. Or, rien sur l’application ne nous permet de choisir à quel degré de charge interrompre ou poursuivre la tonte. 

Nota Bene : Navimow annonce que cette fonction sera améliorée dès le premier trimestre 2026. Activez bien vos mises à jour OTA !

En mode efficace, la H210 est capable de couvrir 150 m2 en 50 minutes, mais la batterie tombe déjà à plat. En mode silencieux, sur une surface plane avec une herbe moins dense, elle approche les 90 minutes et 175 m2, ce qui reste éloigné des 110 minutes et 190 m2 annoncées par charge. La compensation, pour prétendre à s’occuper d’un terrain de cinq fois cette envergure, c’est la rapidité de charge : 99 minutes pour passer de 0 à 100 %, ce qui est, encore une fois, moins bon que les 70 minutes annoncées mais reste correct. On comptera même plutôt 85 minutes de charge, puisque le robot revient au bercail à partir de 15% de batterie. 

Ainsi, en été — soit environ 16 heures d’ensoleillement — en mode efficace, on peut potentiellement compter sur 7 cycles de tonte. Avec environ 150 m2 toutes les 2h15 en comptant la recharge, on parvient à couvrir 1 066 m2 en une journée. En mars ou en novembre, on comptera sur quatre cycles seulement pour environ 11 heures d’ensoleillement, ce qui équivaut à 600 m2/jour. Bien sûr, on peut tondre convenablement un terrain en deux jours, mais cela suppose que la H210 ne commette pas trop d’oublis, surtout sur un terrain beaucoup plus vaste et complexe que le nôtre ! 

Nota Bene : nous retirons volontairement la tonte nocturne de l’équation, car même si la robotique évite de mieux en mieux les obstacles pour protéger les animaux, la pollution lumineuse affecte quand même la faune.

Maintenance : rien de nouveau de ce côté

En ce qui concerne l’entretien de la tondeuse, on retrouve les gestes habituels : passer un coup de jet d’eau à basse pression sur les roues et sous le châssis, changer les lames quand la tonte perd en efficacité (l’application estime leur degré d’usure), ou encore passer un coup de chiffon doux sur les capteurs quand nécessaire.

Navimow H210 roues de devant
Attention à la retourner sur l’herbe pour ne pas l’abîmer !
Navimow H210 disque de lame
Un cruciforme suffit à changer les lames.

Quant à l’hivernage, point de recommandations à ce sujet dans le manuel ni sur l’application. Nous savons néanmoins que les conditions idéales de stockage sont entre 10°C et 35°C, avec une tolérance élargie à -20 C°.

Appli Navimow application entretien
Le détecteur des intempéries est l’un des plus complets qui existent à ce jour ! Beaucoup se contentent de la pluie et de la neige dans leurs paramètres.

On prendra donc les mesures habituelles, à savoir : 

  • nettoyage du robot et charge à 90% ; 
  • rangement dans un carton à l’abri de l’humidité ; 
  • stockage à l’ombre et à couvert des intempéries dans un garage ou à la cave ;
  • retour sur gazon dès les premières lueurs du printemps (mars-avril).

Accessoires et consommables : on attend les mises à jour !

La boutique Segway demeure minimaliste pour une grande marque, ce qui complique la budgétisation fine des accessoires. À l’heure actuelle, voici ce qu’on a :

  • 12 lames standard : 19,99 €
  • 12 lames durables : 24,99 €
  • rallonge : 29,99 €
  • abonnement 4G : NC

Sur un an, l’impact “conso” reste mesuré. Les 18 lames fournies (3 jeux) couvrent généralement toute une saison dans un usage standard. Idem avec l’abonnement 4G fourni dès le départ. Sur cinq ans, comptez 4 à 6 remplacements de lames par saison (soit 20 à 30 jeux au total). Comme 3 jeux sont fournis, il reste 17 à 27 jeux à acheter, l’équivalent d’environ 9 à 14 packs (12 lames/pack). Côté budget, cela donne environ 180 à 280 € avec les lames standard ou 225 à 350 € avec les lames « durables » — jusqu’à 280 à 480 € en usage intensif. Si besoin, ajoutez la 4G sur 4 années payantes (~30 €/an), soit ≈120 €. Bilan sur 5 ans : ≈300 à 400 € (standard), ≈350 à 470 € (durables), ≈400 à 600 € en intensif — hors abri et hors éventuel remplacement de batterie.

Verdict relatif à la concurrence

Par rapport aux autres modèles Navimow, la série H2 se positionne clairement comme le haut de gamme “techno”. Le H1 reste la porte d’entrée : EFLS 1.0 (RTK + vision), cartographie manuelle et capteur de pluie, pour des surfaces jusqu’à 3000 m² à partir de 1 399 €. La série i2 mise sur le LiDAR + vision, la cartographie automatique et 6 lames, sans antenne à installer, pour 800 à 2000 m². Le H2 reprend ces atouts et les pousse plus loin : EFLS LiDAR+ (LiDAR + NRTK + vision), GeoSketch, “déposer et tondre” et gestion experte des pentes et obstacles.

Face à la TerraMow V1000, la Navimow H210 joue la carte de la précision absolue (RTK + fusion inertielle) et d’un écosystème plus mûr. La V1000, 100 % vision, séduit par son installation ultra simple et un garage inclus, et aligne des réglages “pro” (vitesse d’avancement/rotation des lames, bordures, direction) qu’on aimerait voir chez Segway, pour un tarif souvent plus doux (≈1 199 €). En contrepartie, sa pente max et sa dépendance à la lumière limitent les terrains compliqués.

Face au Luba mini AWD, la H210 est moins “tout-terrain”. Le Luba combine RTK+vision avec quatre roues motrices, six lames et une motricité bluffante sur dévers, au prix d’une antenne à placer et d’un budget plus élevé (souvent ≈1 599 €). Idéal si votre jardin cumule talus, ornières et herbe dense ; la H210 conviendra mieux aux pelouses standard où l’on valorise la discrétion et la simplicité au quotidien.

Enfin, un outsider pertinent : le Dreame A1 Pro, vision + LiDAR, très “app-centré”, rapide à recharger et riche en automatisations (seuil de retour/reprise après charge), positionné à 999 € (1 599 € hors promo). Il bouscule Segway sur l’ergonomie logicielle, mais n’égale pas toujours la précision d’un RTK bien exposé, avec un design compact mais plutôt « tristounet » comparé à la patte cosmétique de Navimow !

Raspberry-Pi 5: API MicroPython pour Python

 Bonjour à tous,

Tout récemment, je voulais utiliser un module RFM69 sur un Compute Module 5 (autrement dit l'équivalent d'un Raspberry-Pi 5) faisant fonctionner un logiciel écrit Python.

Une API MicroPython sous Python

Ecrivant de nombreux pilotes pour MicroPython (Python pour MicroContrôleur), je me suis dit qu'il devait être possible de réutiliser le code MicroPython du RFM69 sous Python sans devoir réécrire tout-ou-une-partie du code pour qu'il fonctionne sur Raspberry-Pi.
 
Le problème, c'est que Python n'a aucune idée de ce qu'est l'API MicroPython (celle utilisée par MicroPython pour accéder directement à la couche matérielle).
 
Il existe cependant des moyens d'accéder au matériel depuis Python mais c'est sans aucun rapport avec l'API exposée MicroPython.

L'idée c'est de recréer l'API MicroPython sous Python pour permettre l'utilisation du RFM69 depuis Python:
 

Le module RFM69

L'image ci-dessous se présente le module RFM69HCW 433MHz . Ce module permet de transmettre des données sur un réseau numérique utilisant le ondes-radios comme medium de transfert. C'est un peu le protocole internet appliqué à la radio.

RFM69HCW 433MHz

Comme le Pilote est développé sous le précepte "Plateform Agnostic Driver" de sorte à pouvoir fonctionner indépendamment de la plateforme MicroPython cible.

esp8266-upy - Plateform Agnostic Micrpython Driver

Ce module se branche sur un bus SPI, il est donc possible de le connecter sur GPIO d'un Raspberry-Pi 5 (ou du Compute Module 5).

Source: Raspberry-pi.ovh

Brancher RFM69 sur GPIO

Les connexions suivantes sont établies entre le module RFM69 et le GPIO Raspberry-Pi.

La broche CS (chip select) est branchée sur le GPIO 25 alors qu'il existe les broches CE0 (GPIO8) et CE1 (GPIO7). 

Le problème ici est que CE0 et CE1 sont automatiquement gérés par le système d'exploitation alors que sous MicroPython, c'est le code utilisateur qui gère l'état du signal CS.

Dans le cas présent, la gestion automatique de CE0 et CE1 empêche l'utilisation du burst_read sur le module RFM69 raison pour laquelle le GPIO25 est utilisé comme signal CS (ce signal étant contrôlé par le code utilisateur).

Prototype

Compatibilité avec Python

Commençons par récupérer la bibliothèque MicroPython du RFM69 depuis le dépôt esp8266-upy pour y ajouter l'encodage du fichier (important pour Python).

Ajout de l'encodage dans le bibliothèque RFM69

Récupérer l'exemple test_config.py utilisé pour tester la communication avec le module RFM69. Nous y ajoutons également l'information d'encodage dans le fichier.

Couche de compatibilité Python --> MicroPython

Création des fichiers machine.py et micropython.py pour accueillir les classes Pin & SPI ainsi que la déclaration de la fonction const()


Le script le plus intéressant est hack_time.py car celui-ci permet d'ajouter les fonctions MicroPython (ticks_ms, ticks_diff, sleep_ms, etc) manquantes dans Python.

#!/usr/bin/python
# -*- coding: utf-8 -*-
""" hack_time.py : mimic the MicroPython alike specific methods """
import time

def _sleep_us( us ):
	time.sleep( us*0.000001 )

def _sleep_ms( ms ):
	time.sleep( ms*0.001 )

def _ticks_ms():
	return int(time.time()*1000)

def _ticks_diff( v1, v2 ):
	return v1-v2

time.sleep_us = _sleep_us
time.sleep_ms = _sleep_ms
time.ticks_ms = _ticks_ms
time.ticks_diff = _ticks_diff

Il ne reste plus qu'a adapter le script d'exemple pour créer l'instance du bus SPI (sur le RPi) et passer le tout à la bibliothèque MicroPython originale.

#!/usr/bin/python
# -*- coding: utf-8 -*-

from machine import SPI, Pin
import hack_time
from rfm69 import RFM69

# Machine.py for Raspberry-Pi 5
spi = SPI( 0 )
nss = Pin( 25, Pin.OUT, value=True )  # Do not use the RPI CE0/CE1, it is not compatible with the Burst_Read of RFM69
rst = Pin( 18, Pin.OUT, value=False )

rfm = RFM69( spi=spi, nss=nss, reset=rst )
rfm.frequency_mhz = 433.1
....

Le bus SPI est rattaché au bus matériel SPI0 & CE0. 

Une broche Enabled (nss) alternative est utilisé avec le GPIO25 pour contrôler les transactions du bus SPI. La broche CE0 du GPIO est donc ignorée.

Enfin, le GPIO 10 est utilisé pour réinitialisé le module RFM69.

Au final, la création de l'instance RFM69 et le restant du code (y compris la bibliothèque RFM69) est identique entre MicroPython et Python (sur RPi5).

L'exécution de l'exemple sur le Raspberry-Pi 5 produit le résultat attendu (identique lorsqu'il est exécuté sur un Pico).

test_config.py : exécution de la bibliothèque
MicroPython RFM69 sur Raspberry-Pi 5

Ressources

  • MicroPython-API-for-Python experiment is published on GitHub.


[Linux] Suivre une mise à jour majeure à distance 📥

Lorsqu'il s'agit d'installer une mise à jour majeure sur mes machines Linux à la maison, je suis souvent confronté à un problème frustrant : la couche graphique peut planter, interrompant ainsi la mise à jour en cours.

Résultat : dans le meilleur des cas il faut relancer la mise à jour, dans le pire des cas cela peut créer des problèmes de dépendances à cause du process interrompu en plein milieu.

Cela s'est produit aussi bien sur mon Raspberry Pi que sur d'autres machines de lab. J'ai trouvé une solution simple pour suivre les mises à jour sans être bloqué devant l'écran.

Pré-requis

Avant tout je fais une sauvegarde complète de mon système (carte SD ou disque dur) en réaliser une image complète (clonezilla ou équivalent).

Je me connecte sur la sortie écran (HDMI) avec un clavier physique et je bascule en mode TTY avec les touches CTRL ALT F1.

Je m'identifie en root et je lance la commande de mise à jour :

apt update && apt upgrade -y

Je laisse la machine faire ce qu'elle a à faire, mais j'ai besoin de suivre le process de mise à jour.

Suivre la MàJ en temps réel via SSH

Depuis mon laptop je me connecte en SSH à la machine qui est en train de se mettre à jour, et je lance la commande suivante :

Sous Debian Like (Ubuntu, Mint, PopOS, Kali...) :

sudo tail -f /var/log/apt/term.log

Sous RedHat Like (Alma, Rocky, Oracle, RHEL...) :

sudo tail -f /var/log/dnf.log

Et voilà je peux suivre à distance le déroulé de la mise à jour, pratique ! Cela m'évite d'être plié en 2 sous un bureau, car mon Raspberry Pi n'est pas vraiment accessible...

Bien sûr, cela ne permet pas d'interagir : et vous ne pourrez pas appuyer sur "Y" si apt vous pose une question pour garder un fichier de configuration ou l'écraser. Quand ça arrive je me déplace pour appuyer sur le clavier, cela évite d'attendre alors qu'apt est bloqué sur cette foutue question 😁

Conclusion

C'est le genre d'astuce tout bête, mais qui ajoute un peu de confort dans la gestion de l'IT à la maison.

L'autre solution est d'utiliser screen ou un KVM IP (voir mon test produit GL.iNET), mais une mise à jour annuelle ne justifie pas un tel achat.

note : quand je parle de mise à jour majeure, je parle du saut d'une version de Debian à 11 vers 12 ou bien une mise à jour Kali (rolling) qui est effectuée seulement 1 à 2 fois par an

 

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 04/02/2026 | 2 commentaires |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article [Linux] Suivre une mise à jour majeure à distance 📥 provient de : on Blogmotion.

Saga OpenClaw (ClawdBot, Moltbot) : enjeux techniques, juridiques et éthiques d’un assistant IA open source

3 février 2026 à 17:16

Né en novembre 2025, Clawd, un projet open source IA, a été renommé Moltbot sous la pression juridique de Anthropic (Claude), puis OpenClaw rapidement.

Nous passerons en revue dans cet article la chronologie des faits, les enjeux techniques, juridiques et éthiques, dans un monde open source, projet dont la diffusion a explosé pour bien des raisons…

Logo OpenClaw

Sommaire

Chronologie

ClawdBot de novembre 2025 au 27 janvier 2026

Le projet débute en novembre 2025 sous le nom de Clawdbot, lancé par l'ingénieur autrichien Peter Steinberger, développeur autrichien et fondateur de PSPDFKit. Ce prototype de « WhatsApp Relay » connecte l'IA aux applications de messagerie pour automatiser des tâches système. Le succès est immédiat avec 60 000 étoiles GitHub en seulement trois jours. Le nom fait initialement référence à l'outil Claude d'Anthropic. En outre, le nom et le logo évoquent le homard, symbole repris dans l’identité visuelle du projet.

ClawdBot connaît une adoption rapide dès sa publication sur GitHub. Le projet vise explicitement une alternative locale et contrôlée aux assistants IA centralisés.

MoltBot du 27 au 29 janvier 2026

Le 27 janvier 2026, la firme Anthropic demande un changement de nom pour éviter toute confusion avec sa marque « Claude ». Peter Steinberger rebaptise alors le projet Moltbot, évoquant la mue du crustacé. Ce changement intervient dans un contexte de couverture médiatique maximale. La transition est techniquement précipitée, et elle met en lumière les fragilités organisationnelles liées à une croissance trop rapide. On voit apparaître des clones, des faux dépôts et des tentatives d’escroquerie, par exemple le vol de comptes sociaux par des escrocs et le lancement d'un faux jeton de cryptomonnaie nommé $CLAWD.

OpenClaw depuis 30 janvier 2026

Le 30 janvier 2026, le projet adopte son identité définitive : OpenClaw. Une vérification juridique préalable est effectuée. Les domaines et identités associées sont sécurisés. Ce nouveau nom souligne l'ancrage dans le logiciel libre tout en conservant l'hommage au homard d'origine. La transition est cette fois sécurisée par des recherches de marques et le blocage des noms de domaines. Le projet se stabilise et dépasse rapidement les 124 000 étoiles GitHub.

La phase OpenClaw marque une stabilisation. Plusieurs correctifs de sécurité sont publiés. La gouvernance s’ouvre à de nouveaux mainteneurs issus de la communauté.

OpenClaw

Description et définition

OpenClaw est un assistant IA personnel appartenant à la catégorie des agents autonomes. Il est conçu pour être installé et s'exécuter sur la machine de l'utilisateur (auto-hébergé). Contrairement aux chatbots classiques, il peut prendre des décisions et effectuer des actions concrètes sur un système d'exploitation sans supervision humaine constante. Le logiciel agit comme une couche d’orchestration entre modèles IA et services locaux. Il vise un usage personnel ou organisationnel. L’autonomie fonctionnelle est au cœur de sa proposition de valeur.

Le site web décrit OpenClaw de cette manière :

OpenClaw
The AI that actually does things.
Clears your inbox, sends emails, manages your calendar, checks you in for flights.
All from WhatsApp, Telegram, or any chat app you already use.

Installation

L'installation se passe en ligne de commande : téléchargement, puis lancement de la procédure d'installation, choix du LLM, choix du chat, et voilà.

One-liner

# Works everywhere. Installs everything. You're welcome. 🦞
curl -fsSL https://openclaw.ai/install.sh | bash

npm

# Install OpenClaw
npm i -g openclaw
# Meet your lobster
openclaw onboard

Hackable

# For those who read source code for fun
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Fonctionnalités

L'agent exécute des commandes shell, lit et écrit des fichiers locaux, ou gère les courriels et agendas. Il peut piloter un navigateur web pour remplir des formulaires ou effectuer des recherches. Le système dispose d'une mémoire persistante lui permettant de conserver le contexte des conversations à long terme (context window). Il peut également initier des interactions de manière proactive via des notifications.

Architecture

Le logiciel repose sur Node.js et TypeScript. Son architecture est divisée en trois couches : une passerelle locale (Gateway), un agent qui gère le raisonnement (découpage et séquencement), et le moteur d'IA (LLM). Il utilise des protocoles WebSocket pour la communication bidirectionnelle entre ses composants. Les interactions s'effectuent via des applications tierces comme WhatsApp, Telegram, Slack ou Discord. Il connecte des modèles IA à des applications tierces. Le système est extensible via plugins. Plus de cinquante intégrations sont disponibles. L’architecture privilégie la modularité plutôt que l’intégration verticale.

Licence

OpenClaw est distribué sous la licence MIT. Cette licence permissive, reconnue par l’Open Source Initiative et la Free Software Foundation, autorise l'utilisation, la modification et la distribution du code, y compris à des fins commerciales. La seule obligation est d'incorporer la notice de licence et de copyright dans toutes les copies.

Dépendances

Le projet combine des briques libres et propriétaires. Les dépendances libres incluent Node.js, Puppeteer et Ollama pour l'exécution locale (inférence d'IA). En revanche, le fonctionnement optimal nécessite souvent des API propriétaires comme celles d'Anthropic (Claude) ou d'OpenAI (GPT). L'utilisation de ces services externes entraîne des coûts d'abonnement pour l'utilisateur, et l'envoi et éparpillement de données sur des clouds étrangers (pouvant être soumis aux lois extra-territoriales).

Succès communautaire et médiatique

Dynamiques et amplifications

Le projet a bénéficié d'un engouement lié au mouvement du « vibe coding » (développement assisté par IA). Des figures influentes comme Andrej Karpathy ont soutenu publiquement l'initiative.

Les réseaux sociaux et médias amplifient le phénomène. Des contributeurs rejoignent le dépôt en masse. Des usages spectaculaires sont massivement partagés. Une véritable sous-culture est née autour de l'achat de serveurs Mac mini dédiés pour faire tourner l'agent 24h/24. La mascotte du « homard spatial » devient un mème.

Mème inspiré de "Spider-Man Pointing at Spider-Man"

Métriques

La croissance a été l'une des plus rapides de l'histoire de l'open source:

  • Le dépôt GitHub atteint une visibilité exceptionnelle avec plus de 100 000 étoiles GitHub en une semaine.
  • Le projet a attiré plus de 2 millions de visiteurs en sept jours.
  • La communauté a développé plus de 500 extensions ou « skills » partagées sur Clawhub.

Des milliers d’instances sont déployées en quelques semaines. Un réseau social Motlbook dédié aux agents autonomes sans humains est créé, et plus de 2 100 agents y sont recensés en 48 heures.

La popularité précède largement la maturité technique.

courbe des étoiles pour OpenClaw sur github

Aspects juridiques et légaux

Licences

La licence MIT ne pose pas de contrainte juridique majeure. Elle ne protège cependant ni le nom ni l’image du projet. L'utilisateur est responsable de l'installation et des conséquences de l'exécution de l'agent.

Cette licence n’encadre pas l’usage des modèles sous-jacents : bien que le code d'OpenClaw soit libre, les modèles d'IA qu'il appelle restent pour la plupart régis par les conditions d'utilisation strictes de leurs éditeurs respectifs. Cela limite l’indépendance réelle du projet. La licence du code ne garantit pas la liberté de l’ensemble de la chaîne.

Marques

La saga démontre la vigilance des entreprises face à la proximité phonétique des noms de projets. Anthropic a exercé son droit de marque pour protéger l'intégrité de son produit Claude. L’absence d’intention commerciale n’est pas déterminante. Peter Steinberger a dû consulter OpenAI avant le renommage final pour éviter de nouveaux conflits. Ce renommage illustre l’asymétrie entre acteurs : les projets libres restent vulnérables aux marques déposées.

Cadre réglementaire : RGPD et Cloud Act

Paradoxalement, l'auto-hébergement de la chaîne entière favorise la conformité au RGPD et la souveraineté, car les données restent sous le contrôle direct de l'utilisateur (responsable du traitement). Cela permet également d'éviter les risques du CLOUD Act américain en évitant le stockage et la transmission de données sur des serveurs étrangers. Toutefois, l'usage possible des services tiers et clouds publics de l'agent peut classer le système comme « à haut risque » selon l'AI Act européen, les données passant par des clouds soumis aux réglementations extra-territoriales.

Sécurité et vie privée

Stockage et fuite

L'architecture initiale stockait les clés d'API et l'historique des conversations en texte clair sur le disque. Des chercheurs ont identifié des milliers d'instances exposées sur Internet, divulguant des données sensibles. La concentration d'informations locales crée un point de défaillance unique (SPOF) en cas de compromission de la machine.

Authentification

Les premières versions ne requéraient pas d'authentification forte par défaut. Des interfaces d'administration étaient accessibles publiquement à cause de proxies/pare-feux mal configurés. Des correctifs récents ont supprimé les modes de connexion sans authentification pour durcir le système.

Injection de prompts

L'injection de prompts est la menace la plus critique et reste un problème non résolu dans l'industrie. Un attaquant peut insérer des instructions malveillantes dans un courriel ou un site web consulté par l'agent. L'IA peut alors exécuter des ordres indésirables, comme l'exfiltration de fichiers, en croyant obéir à son propriétaire.

Contrôle et privilèges

OpenClaw agit comme un super-utilisateur virtuel avec des accès profonds au système : l’agent dispose de privilèges élevés, il peut exécuter des commandes système, et il agit parfois avec des droits excessifs. Il combine l'accès aux données privées, l'exposition à des contenus non vérifiés et la capacité de communication externe. La séparation des privilèges est insuffisante par défaut, l’isolation reste complexe, et le risque augmente avec l’autonomie. Ce mélange de privilèges et autonomie transforme l'assistant en un vecteur d'attaque puissant s'il est détourné.

Durcissement et mitigation

Des correctifs ont été publiés après coup, nombre de commits concernent la sécurité, et la documentation actuelle reconnaît l’absence de configuration parfaite. La communauté recommande donc l'utilisation de conteneurs Docker pour isoler les sessions de l'agent. L'accès à distance doit être sécurisé par des tunnels comme Tailscale ou VPN. L'usage des droits « root » est désormais désactivé par défaut et nécessite une activation explicite (principe du moindre privilège).

Ces pratiques restent encore peu suivies, car difficiles à appliquer pour des non-experts, dans un contexte de déploiement rapide. La sécurité et la vie privée dépendent fortement du niveau technique de l’utilisateur, ne sont pas encore des acquis structurels.

Impact et enjeux de l'IA

Court terme

OpenClaw accélère la productivité en éliminant les tâches de manipulation de données entre applications, en automatisant et en autonomisant les processus via IA et agents. Cependant, il introduit un risque d'IA fantôme (Shadow AI) dans les entreprises où les employés déploient l'outil sans supervision de la direction informatique, ou d'alignement à une charte. La vitesse de diffusion a largement dépassé la maturité des mesures de sécurité initiales.

OpenClaw démocratise les agents autonomes : il rend accessibles rapidement et facilement des capacités jusque-là expérimentales, et il remet en cause d'une certaine manière le monopole des plateformes centralisées. Il expose aussi des utilisateurs non avertis à des risques élevés, la diffusion foudroyante dépasse la capacité de montée de connaissances. Le projet agit comme un révélateur.

Moyen terme

On peut amplement anticiper que le succès rapide du projet pourrait influencer la régulation et une standardisation des protocoles avancés d'agents, pour rendre ces assistants interchangeables. Le cadre réglementaire européen (voire mondial ?) obligera probablement à des certifications de sécurité plus strictes. Les grandes entreprises et organisations gouvernementales pourraient publier des versions sécurisées et certifiées du logiciel pour leurs besoins internes.

Ces nouveaux agents autonomes posent des questions inédites et à grande échelle. La sécurité pourrait devenir une obligation normative. Des outils d’audit spécialisés émergent, les pratiques de durcissement se structurent, OpenClaw sert de cas d’école.

Long terme

L'IA agentique pourrait redéfinir la souveraineté numérique en permettant à chacun de posséder son propre assistant local. Les agents autonomes pourraient devenir les principaux utilisateurs des systèmes numériques, rendant obsolètes certaines tâches manuelles de gestion. Cela transforme l’organisation du travail. L'enjeu éthique et social majeur sera l'imputabilité légale en cas de préjudice causé par une décision autonome de l'IA. La dépendance technologique augmente. La gouvernance devient centrale.

Prisme du logiciel et IA libre et open source

Ouverture

Le code source d'OpenClaw est totalement ouvert et auditable, respectant les critères du logiciel libre. Toutefois, l'ouverture est limitée par la dépendance aux modèles propriétaires dont les poids, les données et processus d'entraînement restent secrets et privateurs. Par exemple, le code ne contient à ce jour pas de télémétrie cachée. L’ouverture favorise l’innovation rapide par l'intelligence collective et l’appropriation communautaire, tout en facilitant bien évidemment les usages détournés.

Gouvernance

Le projet est passé d'une initiative solitaire à une gouvernance plus structurée intégrant plusieurs mainteneurs communautaires. Cette gestion collective ouverte renforce la résilience et l'anti-fragilité mais complexifie la coordination technique et sécuritaire. Les décisions critiques sont désormais partagées, et la sécurité est un enjeu majeur : la maturité dépendra de cette gouvernance.

Éthique

L'autonomie de l'IA pose des questions de responsabilité et met en évidence le risque d'erreurs invisibles ou noyées sans supervision humaine en temps réel et prise de décision sans humain. La frontière entre outil et acteur s’estompe. La transparence opérationnelle et l'auditabilité sont essentielles pour prévenir les usages malveillants tout en protégeant les données personnelles. L’éthique ne peut être entièrement déléguée aux modèles, elle dépend des choix d’architecture des développeurs et également dépend aussi des usages des utilisateurs.

Par conséquent, le fantasme d’une IA omniprésente inquiète et interroge sur la dépendance technologique. À long terme, on peut légitimement craindre que cette automatisation et autonomisation de tâches et processus à la complexité croissante prenne de l’ampleur. Ainsi la probabilité s’accroît de voir la remise en cause non seulement l'existence même de certains métiers, mais plus généralement de voir une dépendance de masse.

Souveraineté

L'auto-hébergement complet permet aux utilisateurs de rester maîtres de leur infrastructure et de leurs données. Cela réduit la dépendance envers les géants technologiques et évite le verrouillage propriétaire. Cela est à mettre en perspective avec l'utilisation des clouds publics et services centralisés, par exemple les modèles d'IA et messageries instantanées propriétaires et étrangers.

Intelligence collective

La force du projet réside dans son écosystème de compétences développées par des contributeurs du monde entier. Cette collaboration expérimentale et novatrice permet d'enrichir l'agent et l'écosystème. Nombre de failles ont pu être identifiées publiquement.

Au-delà du code

Une véritable IA open source devrait inclure les poids du modèle, les données d'entraînement et les processus d'apprentissage et de raffinement. OpenClaw est une infrastructure libre, mais n'est pas une « IA open source » au sens strict, en particulier lorsqu'il utilise des modèles fermés et opaques. Cette asymétrie limite l’auditabilité globale réelle. Elle interroge la notion d’IA libre et/ou open source

Résilience et anti-fragilité

Malgré son jeune âge, OpenClaw a déjà survécu à une crise majeure, et le projet s’étant restructuré, la communauté ayant absorbé le choc. Cette résilience dépendra de la capacité à réagir aux risques majeurs et à grande échelle, la sécurité devant précéder le succès. Le logiciel libre n’immunise pas contre les risques. L'architecture ouverte permet par exemple de basculer immédiatement vers d'autres modèles en cas de changement de politique d'un fournisseur d'API. Si le créateur abandonne le projet, la communauté peut forker le code pour assurer la pérennité de l'outil.

La saga OpenClaw renforce le débat sur la nécessité de surveiller et contrôler ces agents et de mettre garde-fous à tous niveaux.

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Écouter YouTube écran éteint sans payer – Les méthodes qui marchent encore

Par : Korben
3 février 2026 à 16:10

Vous l'avez peut-être remarqué si vous utilisez Brave, Vivaldi ou Edge sur votre mobile... Google a décidé encore une fois de serrer la vis. La fête du slip semble toucher à sa fin pour la lecture en arrière-plan de YouTube via les navigateurs tiers. C'est donc la douche froide pour ceux qui profitaient de cette petite faille pour écouter de la musique écran éteint sans passer à la caisse.

En gros, Google a durci ses contrôles pour bloquer cette fonctionnalité sur les navigateurs mobiles tiers. L'objectif, selon eux, est d'assurer une expérience "cohérente" (et surtout de vous pousser vers l'abonnement YouTube Premium). Ça s'inscrit dans cette guerre sans fin contre les bloqueurs de pubs qui dure depuis 2023. C'est de bonne guerre, diront certains, mais c'est surtout très agaçant quand on a l'habitude de bidouiller.

Heureusement, comme toujours sur le Web, quand une porte se ferme, une fenêtre s'ouvre (ou on casse le mur, c'est selon). Voici le point complet sur ce qui marche encore... et ce qui ne marche plus.

Mise à jour : Suite à vos nombreux retours par mail (merci !), j'ai complété cet article avec plusieurs astuces supplémentaires, notamment pour Brave, iOS, ReVanced et une extension Firefox bien pratique.

Brave, Vivaldi, Edge... c'est plié

Autant le dire tout de suite, cette méthode est quasiment MORTE. La majorité des tests récents montrent que la lecture s'arrête net quand vous verrouillez l'écran ou quand l'app passe en arrière-plan. Y'a bien quelques retours isolés qui parlent d'un fonctionnement occasionnel sur Brave, mais c'est devenu tellement aléatoire que c'est pas la peine de compter dessus. Cette porte-là, Google l'a bien refermée.

Cela dit, un lecteur m'a filé une astuce intéressante pour Brave. En allant dans Confidentialité > Filtrage de contenu > Filtres personnalisés, vous pouvez ajouter la ligne suivante :

youtube.com##+js(brave-video-bg-play)

Ça injecte un script qui force la lecture en arrière-plan. J'ai pas encore assez de recul pour dire si ça tient dans le temps, mais ça vaut clairement le coup d'essayer si vous êtes fidèles à Brave.

La méthode Firefox (fragile)

Si vous êtes sur Android, Firefox reste votre meilleur allié... mais plus pour très longtemps peut-être. Avec l'extension Video Background Play Fix dispo pour Firefox Android, vous pouvez encore faire croire à YouTube que vous êtes toujours actif sur l'onglet même quand l'écran est verrouillé. Ça marche quelques jours, parfois quelques semaines, jusqu'à ce que YouTube patche le truc.

Pour les plus témérraires, il y a toujours la technique du caméléon : changer votre User-Agent avec l'extension User-Agent Switcher pour vous faire passer pour un PC de bureau. Sauf que YouTube ne se fie plus uniquement au user-agent pour ses vérifications... Du coup c'est de moins en moins fiable.

D'ailleurs, y'a une autre extension qui vaut le détour : Background Playback Helper . Celle-ci fonctionne à la fois sur Firefox Desktop ET Android (à partir de la version 142), et elle empêche YouTube, YouTube Music et même Vimeo de couper le son quand vous changez d'onglet ou verrouillez l'écran. Le dev a intégré un système keep-alive optionnel qui envoie des signaux d'activité pour éviter les timeouts. Pas mal du tout. La version 0.4.1 gère déjà les derniers blocages de Google et une 0.5.0 est en test avec la gestion automatique du fameux popup "Toujours regarder ?" qui vous gonfle quand vous écoutez en arrière-plan depuis trop longtemps.

Bref, on installe et on croise les doigts. C'est le jeu du chat et de la souris permanent et rien n'est garanti à 100%.

Les clients alternatifs (la vraie solution)

Si vous en avez marre de jouer au chat et à la souris avec Google, la solution radicale c'est de passer sur un client alternatif. C'est aujourd'hui la méthode LA PLUS FIABLE pour écouter YouTube en arrière-plan sans passer à la caisse.

NewPipe reste LA référence open source. Lecture en arrière-plan, téléchargement de vidéos, mode Picture-in-Picture, zéro pub, zéro tracker, pas besoin de compte Google. L'app gère aussi SoundCloud, PeerTube et Bandcamp. Seul hic, YouTube casse régulièrement les API et l'app peut planter du jour au lendemain (y'a eu DEUX hotfixes rien qu'en janvier 2026). Hop, on met à jour via F-Droid et ça repart. Vous lancez la vidéo, vous appuyez sur le bouton "Arrière-plan" et voilà. Votre écran s'éteint, la musique continue. C'est magique !

Mais NewPipe c'est pas la seule option. Tubular est un fork de NewPipe avec SponsorBlock intégré (pour skipper automatiquement les segments sponsorisés) et le retour des dislikes. LibreTube passe par un proxy Piped, donc YouTube ne voit même pas votre IP... et l'interface est plus moderne. Et puis y'a Grayjay , le couteau suisse qui regroupe YouTube, Twitch, Dailymotion et PeerTube dans une seule app (pas totalement open source par contre, mais très complet).

Et y'a un truc que BEAUCOUP d'entre vous m'ont signalé par mail et que j'aurais pas dû zapper... ReVanced . Le concept est différent des apps ci-dessus puisque ReVanced ne remplace pas YouTube, il le PATCHE. Vous gardez l'app YouTube officielle avec son interface, mais avec la lecture en arrière-plan, zéro pub et même SponsorBlock en bonus. Il faut installer le ReVanced Manager pour appliquer les patches, plus un service appelé GmsCore qui simule les Google Play Services. C'est maintenu activement et plutôt stable (genre 3 mises à jour par an suffisent). Par contre, faites gaffe aux faux sites qui tentent de surfer sur la réputation du projet... le seul dépôt officiel, c'est sur GitHub .

Toutes ces apps (sauf ReVanced) s'installent via F-Droid ou en APK. Pas via le Play Store, forcément... Google aime pas trop ce genre de trucs.

Et sur iOS ?

Pour les utilisateurs d'iPhone, c'est toujours plus compliqué qu'Android... mais pas autant que je le pensais ! Plusieurs d'entre vous m'ont envoyé des pistes et y'a des trucs qui marchent vraiment bien.

Tube PiP permet d'avoir le mode Picture-in-Picture sur YouTube, ce qui vous laisse réduire la vidéo et utiliser votre téléphone normalement pendant que ça continue de tourner. C'est dispo directement sur l'App Store, donc pas de bidouilles à faire.

Et puis y'a Video Lite qui gère YouTube mais aussi Twitch, Rumble et même TikTok (bon ça c'est optionnel). Lecture en arrière-plan, pas de pubs... Y'a juste une petite pub au démarrage de l'app elle-même (qui se bypass apparemment en passant par un VPN type ProtonVPN). Un lecteur m'a d'ailleurs précisé qu'il avait créé un compte Google dédié pour l'occasion, par parano... et franchement, il a pas tort.

Bref, sur iOS c'est pas aussi riche qu'Android mais vous avez quand même de quoi faire.

Du coup voilà, que vous soyez sur Android ou iOS, y'a des solutions. Sur Android, passez sur ReVanced si vous voulez garder l'app officielle, sur NewPipe / Tubular si vous préférez un truc 100% indépendant, ou même sur WeTube pour une expérience sans pub dispo sur le Play Store. Sur iOS, testez Tube PiP ou Video Lite. Tout le reste (navigateurs tiers), c'est du bricolage temporaire que Google finira par casser.

Amusez-vous bien !

Source

SpaceX et xAI fusionnent pour créer un colosse de 1 250 milliards $

3 février 2026 à 12:58

SpaceX va acquérir xAI dans le cadre d’un échange d’actions qui valorise l’ensemble du nouvel groupe autour de 1 250 milliards $.

Cette opération de fusion-acquisition complète intègre xAI au sein de SpaceX, qui devient ainsi la maison mère d’une plateforme combinant fusées, réseau Starlink, intelligence artificielle Grok et services numériques associés. Les actionnaires de xAI recevront des titres SpaceX selon un ratio prédéfini.

La transaction intervient à un moment stratégique, en amont d’une introduction en Bourse envisagée pour SpaceX. L’opération valorise SpaceX proche de 1 000 milliards $ et xAI autour de 250 milliards. Cette consolidation vise à simplifier la structure capitalistique et à renforcer le profil de croissance perçu par les investisseurs.

Une intégration verticale espace-IA

L’enjeu industriel majeur réside dans le couplage des capacités d’intelligence artificielle de xAI avec les activités spatiales de SpaceX. Les modèles Grok et les infrastructures d’entraînement de xAI sont appelés à intervenir dans la conception de lanceurs, la planification de missions et la gestion de la chaîne logistique.

Le projet le plus ambitieux consiste à utiliser Starlink et des centres de données en orbite pour héberger et exécuter des modèles d’IA. L’objectif est de réduire la dépendance aux data centers terrestres, optimiser la consommation énergétique et limiter les contraintes de refroidissement.

L’IA de xAI doit également améliorer la conception des fusées, la détection d’anomalies en vol, la maintenance prédictive et l’optimisation des trajectoires, créant des boucles de rétroaction entre données de vol et entraînement des modèles. La fusion consolide par ailleurs les capacités duales civil-défense du groupe. SpaceX dispose déjà de nombreux contrats avec le Pentagone et les agences de renseignement, tandis que xAI commence à nouer des partenariats dans la défense, notamment pour des usages en logistique et analyse de renseignement.

Une diversification des revenus

Sur le plan commercial, cette fusion vise à justifier des multiples de valorisation plus élevés en présentant aux marchés une histoire de croissance unifiée avant l’introduction en Bourse. Au-delà des lancements et de Starlink, le nouvel ensemble ambitionne de proposer des offres de services d’IA adossées à l’infrastructure spatiale : connectivité augmentée, traitement de données en orbite, services temps réel pour entreprises et gouvernements.

Face aux autres acteurs de l’IA, xAI peine à rivaliser en part de marché avec OpenAI ou Anthropic. Mais son ancrage dans un actif industriel rentable et stratégique comme SpaceX lui confère un positionnement différenciant, basé sur la maîtrise conjointe de l’infrastructure physique et des modèles d’IA.

La taille et la nature stratégique du nouvel ensemble devraient accroître son pouvoir de négociation vis-à-vis des États et grands comptes. Cette concentration expose néanmoins le groupe à un contrôle accru sur les questions de concurrence, de sécurité nationale et de gouvernance des systèmes d’IA.

Image : © DR Space X

The post SpaceX et xAI fusionnent pour créer un colosse de 1 250 milliards $ appeared first on Silicon.fr.

Libre en Fête 2026 : appel à participation

La campagne de mobilisation pour la 25e édition du Libre en Fête est lancée ! Pour accompagner l'arrivée du printemps, toutes les organisations ayant à cœur la promotion du logiciel libre et de la culture libre sont invitées à proposer des événements de découverte partout en France et en Belgique autour du 20 mars, dans une dynamique conviviale et festive. L'édition 2026 du Libre en Fête aura lieu du samedi 7 mars au dimanche 12 avril.

Libre en Fête

Le Libre en Fête

À l'occasion du Libre en Fête, tous les groupes d’utilisateurs et utilisatrices de logiciels libres (GULL), les espaces publics numériques (EPN), les bibliothèques et médiathèques, les clubs informatiques, les fablabs et hackerspaces, les centres sociaux et culturels et toute autre organisation souhaitant agir en faveur de la promotion du logiciel libre et de la culture libre sont invitées à organiser des évènements de découverte à destination du grand public partout en France et en Belgique.
Le Libre en Fête est une initiative de l'April.

Organiser un événement

Les dates retenues pour l’édition 2026 sont du samedi 7 mars au dimanche 12 avril. Bien sûr, un événement peu avant le 7 mars ou peu après le 12 avril est le bienvenu aussi.

Il est possible de proposer des événements « ad hoc », ou bien déjà prévus pour la période concernée (ateliers récurrents, permanences…). Le site du Libre en Fête donne toutes les informations utiles pour participer à l'initiative.

Les événements proposés dans le cadre du Libre en Fête peuvent prendre n'importe quelle forme, tant qu’il s’adressent au grand public : conférence de découverte, atelier d’initiation, fête d'installation, exposition de panneaux sur le logiciel libre comme par exemple l'Expolibre, diffusion de vidéos ou films sur le logiciel libre, mise à disposition de postes informatiques sous logiciel libre, de jeux vidéos libres, etc.

Bien sûr, il est possible de proposer plusieurs activités au sein d'une même journée de découverte. Et si vous prévoyez un fond musical, pensez à diffuser des titres sous licence libre ; vous pouvez regarder du côté des musiques diffusées dans l'émission de radio de l'April Libre à vous !.

Retrouvez plein d'idées d'événements sur le site du Libre en Fête !

Nouer ou renforcer des liens

La coopération entre différentes organisations au niveau local est vivement encouragée. Les groupes d’utilisateurs et utilisatrices de Logiciels Libres (GULL) peuvent notamment être sollicités en raison de leurs connaissances et de leur expertise en matière de Logiciel Libre. D’autres structures peuvent mettre à disposition d’autres ressources telles que les locaux, le matériel informatique et multimédia, voire des compétences en communication et/ou animation.

Des liens utiles pour la recherche de partenaires sont disponibles sur le site de l'initiative.

Référencer son événement

Le référencement d'un événement dans le cadre du Libre en Fête se déroule via le site de l'Agenda du Libre : il suffit d'ajouter le mot-clé libre-en-fete-2026 (sans accent) lors de la soumission de l'événement ou, si l'événement a déjà été soumis, via le formulaire d'édition reçu par courriel. Votre événement apparaîtra alors automatiquement sur le site du Libre en Fête, à la page Événements.

Proposer un événement pour le Libre en Fête 2026

Communiquer sur sa participation

N'hésitez pas à utiliser et personnaliser les visuels (logos, bannières, affiche…) disponibles sur le site du Libre en Fête pour votre communication.

Titre de l'image

Liste de discussion et contact

Une liste de diffusion a été mise en place pour que les organisations participant à l'initiative puissent échanger leurs expériences et idées. L'inscription à cette liste est libre.

Pour toute question sur le Libre en Fête, vous pouvez contacter l'équipe de coordination.

Faites circuler cette annonce, merci !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 5 de l’année 2026

Par : echarp
3 février 2026 à 10:27

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Les Numeriques] Bye bye Windows 11: comment j'ai appris à ne plus m'en faire et à aimer Linux

✍ Diogo Ribeiro, le dimanche 1 février 2026.

Quitter Windows 11 a été la meilleure décision que j’ai prise en 2025. Un an après avoir installé Linux sur mon PC portable, petit bilan de mon Pacs avec l’OS open source, qui vit aujourd’hui une véritable résurgence aux marges des déboires de Microsoft.

[Next] Et si Linus Torvalds passait la main? Le noyau Linux a son plan de continuité d’activité

✍ Alexandre Laurent, le jeudi 29 janvier 2026.

L’équipe en charge du noyau Linux a formalisé les modalités d’un plan de continuité d’activité destiné à préparer l’évolution de la gouvernance du projet si Linus Torvalds venait à en laisser les rênes.

[ZDNET] Cybersecurity Act 2: Bruxelles sacrifie la souveraineté du cloud européen sur l'autel du marché

✍ Xavier Biseul, le mardi 27 janvier 2026.

La révision du règlement cyber européen exclut les critères de souveraineté dans la délivrance de certifications cloud. Un revers pour la France qui, dans la dernière version du SecNumCloud, offre une immunité aux lois extraterritoriales américaines comme Cloud Act.

[Numerama] La France veut remplacer Microsoft Teams et Google Meet par «Visio», un outil souverain pour les appels vidéo

✍ Nicolas Lellouche, le lundi 26 janvier 2026.

Les attaques récentes de Donald Trump contre l’Europe ont réveillé les consciences de nombreux pays européens qui militent désormais pour réduire leur dépendance aux États-Unis. Dans un communiqué envoyé le 26 janvier 2026, Bercy annonce avoir pour projet de lancer son propre outil de visioconférence d’ici 2027, pour réduire son exposition à d’éventuels coups de pression.

Et aussi:

[clubic.com] Le père du logiciel libre n'aime ni l'IA, ni les voitures connectées, ni les smartphones

✍ Guillaume Belfiore, le lundi 26 janvier 2026.

Richard Stallman, fondateur du projet GNU, a donné une conférence de près de 2h30 à l’institut Georgia Tech le 23 janvier dernier. Le militant du logiciel libre de 72 ans y a critiqué le paysage de l’industrie tech actuelle : il critique à tour de rôle l’intelligence artificielle, les voitures connectées et les smartphones.

[ZDNET] 'Préserver notre santé mentale': cURL suspend son bug bounty, face aux mauvaises contributions par IA

✍ Thierry Noisette, le dimanche 25 janvier 2026.

Le logiciel libre suspend son programme de bug bounty après avoir reçu en peu de temps trop de contributions sans intérêt: «Le flux actuel de signalements surcharge l’équipe de sécurité de cURL, et cette mesure vise à réduire le bruit.»

Commentaires : voir le flux Atom ouvrir dans le navigateur

Nginx Proxy Manager - Le reverse proxy que même ma grand-mère pourrait configurer

Par : Korben
3 février 2026 à 08:48

L'autre jour, je voulais juste exposer un petit service tournant sur mon NAS pour y accéder à distance quand je suis en déplacement. Alors je me suis dit "Allez, je vais faire ça propre avec Traefik" mais bon, debugger du fichier YAML parce qu'on oublie des indentations à un moment ça casse la tête. J'ai +40 balais et pas que ça à foutre.

Si vous hébergez vos propres services à la maison (self-hosting powaaaah !) et que vous êtes un peu bordélique comme moi, vous installez un truc, puis un autre, et vous finissez avec une collection de ports impossible à mémoriser du genre monip:8080, monip:32400, monip:9000… Aarrgh, l'enfer !!!

Et ne me lancez pas sur la gestion des certificats SSL !! Si vous voulez faire ça bien, faut générer des certificats Let's Encrypt à la main pour chaque service, modifier les fichiers de conf Nginx en priant pour ne pas oublier un point-virgule… et j'en passe et des pas mûres… Alors je sais, oui ça nous occupe et pendant ce temps là, on n'est pas dehors en train de voler des voitures mais j'sais pas vous, moi j'ai mieux à faire.

Hé bien, figurez-vous les copains, qu'il existe un outil qui transforme ce cauchemar en promenade de santé. Ça s'appelle Nginx Proxy Manager, et une fois que vous aurez lu mon article et testé vous penserez : "Mais pourquoi je me suis emmerdé la vie pendant tout ce temps, mortecouille ?!".

Nginx Proxy Manager, c'est quoi ce truc ?

En gros, c'est une interface graphique super propre pour gérer Nginx. Au lieu de taper des lignes de commandes et d'éditer des fichiers de config obscurs, vous avez un beau tableau de bord pour :

  1. Rediriger vos domaines (ex: plex.mondomaine.fr) vers vos conteneurs Docker.
  2. Gérer vos certificats SSL (HTTPS) automatiquement.
  3. Sécuriser l'accès à certains services avec un mot de passe.

Mais en vrai, c'est plus riche que ça. Dans la barre du haut, vous avez tout ce qu'il faut pour piloter votre reverse proxy comme un adulte responsable : des hosts (proxy, redirections, streams, 404), des certificats (Let's Encrypt ou certifs locaux), des utilisateurs, des règles d'accès (Access Lists), et même des logs d'audit pour savoir qui a fait quoi (au cas où un de vos potes "teste un truc vite fait" et casse tout).

C'est le reverse proxy pour ceux qui veulent que ça marche, tout de suite, sans devenir ingénieur réseau bac+12 ou devoir se taper 2h d'explications IRL d'un barbu qui pue de la gueule ^^.

Installation en 3 minutes chrono (avec Docker)

Bon, on ne va pas y passer la nuit. La méthode la plus propre, c'est évidemment Docker Compose. Si vous ne l'avez pas, installez-le (allez, un petit apt install docker-compose et on n'en parle plus).

Créez un dossier nginx-proxy-manager et collez-y ce fichier docker-compose.yml :

version: '3.8'
services:
 app:
 image: 'jc21/nginx-proxy-manager:latest'
 restart: unless-stopped
 ports:
 - '8080:80' # Port HTTP public
 - '8181:81' # Port d'administration (à garder pour vous)
 - '8443:443' # Port HTTPS public
 volumes:
 - ./data:/data
 - ./letsencrypt:/etc/letsencrypt
 db:
 image: 'jc21/mariadb-aria:latest'
 restart: unless-stopped
 environment:
 MYSQL_ROOT_PASSWORD: 'npm'
 MYSQL_DATABASE: 'npm'
 MYSQL_USER: 'npm'
 MYSQL_PASSWORD: 'npm'
 volumes:
 - ./mysql:/var/lib/mysql

Petit piège à éviter : Faites gaffe si vous avez déjà un serveur web (Apache ou Nginx) qui tourne sur la machine hôte. Il va falloir couper le service ou changer les ports, sinon Docker va vous jeter une erreur parce que le port 80 est déjà pris. Du coup, vérifiez bien avec un petit netstat -tulpn | grep 80 avant de lancer la sauce.

Ah oui, et si vous utilisez un pare-feu comme UFW (ce que je vous recommande chaudement), n'oubliez pas d'ouvrir le port 81 : ufw allow 81. Sinon, vous allez pleurer devant une page blanche et vous demander pourquoi ça marche pas.

Ensuite, lancez la bête :

docker-compose up -d

Et voilà ! C'est tout. Votre serveur tourne. Si vous avez des erreurs, c'est probablement parce que vos ports sont déjà utilisés. Ou que les dossiers data, Let's Encrypt et MySQL n'existent pas encore. Moi j'ai ça sur mon NAS :

La configuration que même ma grand-mère pourrait le faire

Ouvrez votre navigateur et allez sur http://votre-ip:8181 et créez vous un compte.

Une fois dedans, pour exposer un service, c'est ridicule tellement c'est easyyyy

  1. Cliquez sur "Add Proxy Host".
  2. Entrez votre nom de domaine (ex: nextcloud.mondomaine.fr).
  3. Indiquez l'IP de la machine et le port du service (ex: 8080).
  4. Allez dans l'onglet "SSL", cochez "Request a new SSL Certificate" et "Force SSL".
  5. Sauvegardez.

En fait, le seul truc qui peut coincer, c'est la propagation DNS. Si vous venez d'acheter votre nom de domaine il y a 5 minutes, pas de panique si Let's Encrypt refuse de générer le certificat. Attendez une petite heure et réessayez. C'est classique.

Et hop, fini. Votre service est accessible en HTTPS, avec le petit cadenas vert qui va bien. Nginx Proxy Manager s'occupe de discuter avec Let's Encrypt et de renouveler le certificat tout seul. C'est carrément magique.

Tour d'horizon des fonctionnalités qui sauvent des week-ends

Parce que oui, Nginx Proxy Manager ne fait pas "juste" proxy + "cadenas". Dans le menu Hosts, vous avez plusieurs types de trucs à créer, et chacun sert à un usage bien précis. Et côté Certificats et sécurité, il y a de quoi faire sans sortir le marteau-piqueur.

Certificats Let's Encrypt (HTTP et DNS) + certifs locaux

On va commencer par le sujet qui donne des boutons : les certificats. Dans l'onglet Certificates, vous pouvez gérer tout ça au même endroit :

  • Let's Encrypt en HTTP-01 : le classique. NPM ouvre la voie, répond au challenge, et basta. Pratique pour un service.mondomaine.fr exposé "normalement".
  • Let's Encrypt en DNS-01 : là, c'est le mode "j'ai compris la vie". Vous pouvez valider le certificat via votre DNS (donc sans dépendre d'un port 80 accessible), et surtout ça permet les wildcards du style *.mondomaine.fr. Donc un seul certif et roule ma poule, même si vous ajoutez 12 sous-domaines demain à 3h du mat.
  • Certificats locaux : vous pouvez aussi importer un certificat existant (genre un certif de votre boîte, un truc interne, un CA maison, ou même un self-signed si vous aimez vivre dangereusement). Ça évite de dépendre de Let's Encrypt si vous êtes en mode "tout en local, rien sur Internet".

Et le meilleur c'est que NPM gère le renouvellement automatique. Donc plus de rappel calendrier "renouveler les certifs" tous les 2 mois, sinon c'est le drame et tout le monde vous écrit "ça marche plus ton truc".

Plusieurs comptes, parce que tout le monde n'est pas "admin"

Dans Users, vous pouvez créer plusieurs comptes pour accéder à l'interface. Typiquement :

  • un compte admin pour vous, le chef, le patron, le seigneur des reverse proxies.
  • un compte "moins dangereux" pour quelqu'un qui doit juste consulter ou bidouiller un truc sans toucher à toute l'infra.

Et ça, couplé aux Audit Logs (j'y reviens juste après), c'est très pratique quand plusieurs personnes mettent les mains dedans. Parce que "c'est pas moi, j'ai rien touché" est une phrase universelle, on la retrouve dans toutes les cultures.

Access Lists, le videur à l'entrée

Alors ça, c'est une des fonctions les plus sous-cotées. Les Access Lists permettent de mettre en place des règles d'accès et de les réutiliser partout :

  • Basic Auth (login/mot de passe) : parfait pour protéger une appli pas prévue pour être publique, ou un petit outil d'admin que vous ne voulez pas exposer "en clair".
  • Allow/Deny par IP : le top pour dire "seulement depuis mon IP / mon VPN / mon réseau". Et là, même si quelqu'un devine votre URL, il se prend un mur.

Vous créez une Access List une fois, et ensuite vous l'appliquez à vos Proxy Hosts. Du coup, pas besoin de refaire 50 fois la même conf. C'est propre, c'est net, c'est carré.

Les redirections propres (HTTP -> HTTPS, domaine A -> domaine B, etc.)

Besoin de rediriger un vieux domaine vers un nouveau ? Ou de faire un joli http:// qui part systématiquement en https:// ? Les Redirection Hosts servent exactement à ça. C'est bête mais ça évite d'aller trifouiller des règles Nginx à la main.

Exemples typiques :

  • mondomaine.fr -> www.mondomaine.fr
  • ancientruc.mondomaine.fr -> nouveautruc.mondomaine.fr
  • http -> https (pour les retardataires)

Streams - Quand ce n'est pas du HTTP mais que vous voulez quand même un reverse proxy

Le web, c'est bien, mais tout n'est pas en HTTP. Certaines applis parlent en TCP/UDP (bases de données, services réseau, protocoles chelous, etc.). C'est là que Streams entrent en jeu. Cette fonctionnalité vous permet de proxyfier des flux réseau, genre "ce port externe pointe vers ce port interne".

Alors oui, c'est plus "brut" que les Proxy Hosts, mais ça dépanne vraiment quand vous avez un service qui n'a rien à faire derrière un vhost HTTP. Et ça se configure aussi en 2 clics, sans incantations démoniaques.

404 Hosts - La sortie de secours

Les 404 Hosts, c'est la petite finition qui fait plaisir (non, rien à voir avec votre salon de massage préféré). Vous pouvez définir un "host poubelle" qui répond proprement quand quelqu'un tape un domaine qui n'existe pas chez vous, ou quand un bot scanne votre serveur en espérant trouver /phpmyadmin par magie.

Au lieu de laisser traîner une réponse moche ou ambiguë, vous renvoyez une 404 nette, propre, assumée. C'est pas de la sécurité absolue, mais c'est une bonne hygiène, et ça évite de donner trop d'infos aux curieux.

Audit Logs

Dans Audit Logs, vous avez l'historique des actions effectuées dans l'interface : création/modif de hosts, changements de certifs, etc. C'est le genre de truc dont on se fout… jusqu'au jour où on en a besoin. Et là, vous êtes content de pouvoir remonter le film de l'horreur.

Et enfin, mon bonus : Le mode "je sais ce que je fais" (les options avancées Nginx)

Et si un jour vous voulez aller un cran plus loin, NPM permet aussi d'ajouter des réglages plus "Nginx pur jus" par host (headers, règles, conf custom). Donc vous commencez en mode clic-clic, et si vous devenez un peu psycho sur l'optimisation, vous pouvez aussi affiner. Sans tout casser, normalement.

2/3 conseils de daron pour éviter les boulettes

  • Ne laissez pas l'admin ouvert au monde : le port 8181 (ou votre port d'admin) c'est "pour vous". Si possible, limitez-le via pare-feu / VPN / IP autorisées. C'est le panneau de commande de votre château, pas un distributeur de bonbons.
  • Utilisez les Access Lists pour tout ce qui est sensible : dashboards, outils d'admin, services pas prévus pour Internet, etc.
  • Pensez au DNS-01 si vous voulez des wildcards ou si vous n'avez pas envie d'exposer le port 80.

Et par rapport aux autres ?

Je vous vois venir les puristes : "Oui mais Traefik c'est mieux car c'est dynamique". C'est vrai. J'ai testé Traefik, et c'est une tuerie pour les environnements qui bougent tout le temps. Mais sa config en YAML peut vite devenir une usine à gaz si vous débutez. Caddy est top aussi (un seul fichier de conf), mais il faut quand même mettre les mains dans le cambouis.

Perso, je pense que Nginx Proxy Manager est un excellent choix pour un homelab par exemple. C'est un peu le choix du confort, celui des grosses feignasses comme moi parce que c'est visuel, c'est du clic-bouton clic clic, et pour un petit serveur perso, c'est franchement imbattable.

Bref, si vous galérez encore avec vos vhosts Nginx, arrêtez de vous faire du mal. Installez ça, et profitez de la vie (et de vos week-ends).

Nginx Proxy Manager c'est par ici !

❌