Vue normale

Stremio : ma stack du moment (auto-hébergée) et liste d’addons VoD/IPTV

Par : Aerya
10 novembre 2025 à 16:17

Après ma première salve d’articles sur Stremio puis m’être concentré sur Jellyfin, j’y suis revenu quand j’ai testé le plugin Gelato pour Jellyfin. Il permet d’importer des catalogues Stremio dans les bibliothèques Jellyfin. Concrètement, ça le rempli des films et séries qu’on trouve sous Stremio selon la configuration utilisée (FRENCH/MULTI chez moi), le principe étant d’utiliser du streaming depuis des débrideurs pour lire les fichiers (principe de Decypharr, Stremio, un peu nzbdav and co).
Par rapport à mon setup avec Decypharr/AllDebrid, l’intérêt est de limiter justement le nombre de liens activés dans Decypharr (limite de 5000/compte AllDebrid par exemple et ça va vite à atteindre dans « notre milieu »). En effet, avec Stremio/Gelato, les liens AD ne sont activés que lors de la recherche/lecture d’un fichier et non lors de l’ajout de celui-ci à une bibliothèque Jellyfin/Plex. C’est du moins ma compréhension de Decypharr et Gelato.
Et si je me trompe, c’est nouveau et geek, donc fallait que je teste !

Après plusieurs jours sur le sujet, j’ai préféré laisser de côté Gelato, n’étant pas parvenu à avoir des bibliothèques aussi qualitatives qu’espéré : malgré des 10aines de tests d’addons et configs, j’avais toujours 15/20% des fichiers « vides », sans lien de streaming (soit encore au cinéma, soit aucune VF) et ce n’est pas ce que j’attends d’un setup Plex/Hellyfin.

Mais ça m’a remis le pied à l’étrier pour Stremio !

Pour rappel, ou info, Stremio est un lecteur de flux vidéos qui fonctionne avec des plugins, au moins 3 :
– 1 de métadonnées pour avoir les synopsis etc,
– 1 de catalogues pour lister des contenus (films, séries, Netflix, Apple, Canal, listes MDBList, IMDB, Trakt…),
– 1 de recherche de flux vidéos liés à ces contenus.

stremio1
les catalogues de vidéos peuvent être positionnés sur l’accueil ou uniquement dans le menu Découverte

Après avoir utilisé des instances publiques mises à disposition par certains dont la team de stremiofr.com (Discord), j’ai décidé d’auto-héberger un maximum d’outils (tout sauf Stremio Web, pour l’instant).

Outre ma passion pour le self-hosting,un grand nombre des outils publics sont hébergés sur des VPS gratuits Oracle, pas toujours capables de supporter la charge des clients connectés. D’où le fréquent down d’instances TMDB, par exemple, pourtant indispensable au fonctionnement de Stremio.
Je mets ça au garage, sur le petit PC de streaming sous Ubuntu. Ça tape un peu dedans au lancement avec notamment la mise en cache de Zilean mais ensuite c’est peu consommateur de ressources et c’est sans surprise SQL qui mange le plus.

stremio2
l’éclair devant la rlz indique qu’elle est déjà en cache chez le débrideur

J’ai posté sur GitHub l’ensemble des outils que j’utilise, les compose.yml sont automatiquement tenus à jour et font appel soit aux dépôts d’origine, soit à mes forks (qui créent et maintiennent des images Docker, ce qui me semble plus logique). Puisque j’héberge ça chez moi il n’y a aucun proxy pour les débrideurs, ces derniers limitant souvent à 1 IP/compte, voire bannissant celles des hébergeurs de serveurs (d’où le fait que certains passent par Warp pour masquer les différentes IPs).

stremio3
pour éviter les spoilers, les thumbnails d’épisodes non lus sont floutées

Ici je liste les outils que j’utilise ou ai testés en les décrivant brièvement. Je ne mettrai pas de lien d’instance publique, libre à chacun de chercher s’il y en a, la plupart sont indiquées sur GitHub.

Stremio-Community et Stremio- Enhanced : je place ça là… Le 1er est un lecteur de bureau modifié mais qui n’existe hélas pas encore sur Linux, donc pas testé et le 2nd est la même chose mais pour Linux notamment, donc testé ! Très sympa (pas mal de plugins sur GitHub). Le seul bémol de ces outils c’est qu’ici on regarde films et séries sur une télé (j’ai pas d’écran PC 4K de 55″ encore) et hélas l’application AndroidTV n’est pas modifiable. Dans un monde idéal, faudrait que je regarde comment utiliser Stremio-Web en app ATV… « un jour ».

  • AIOMetadata : addon de métadonnées regroupées (TMDB, TVDB, IMDB, MAL) et bien plus puisqu’il permet d’ajouter des listes et filtres
aiometadata9
aiometadata8
aiometadata7
aiometadata6
aiometadata5
aiometadata4
aiometadata3
aiometadata2
aiometadata1

Je ne l’avais pas précisé mais quand on utilise AIOMetadata, ses catalogues intégrés sont forcément en 1er sur l’accueil puisque c’est le 1er addon chargé dans Stremio.
Si on souhaite pousser d’autres catalogues en haut de liste, par exemple YGGFlix et YGG depuis StreamFusion, il suffit d’ajouter le manifeste de SF à AIOMetadata et de mettre les catalogues en 1er.

aiometadata11
aiometadata12
  • Catalogues : ajoute des catalogues tels que Netflix, Apple, Prime, Canal+ etc mais peut aussi lister des recommandations ou contenu similaires. En partie redondant avec d’autres addons de catalogues/listes si on active leurs options, j’utilise d’ailleurs plutôt AIOMetadata à la fin de la rédaction de cet article…
stremio catalog providers1
stremio catalog providers2
  • Saga : affiche les sagas telles que proposées sur TMDB
stremio saga

  • Stream-Fusion : addon de streaming privilégié pour le contenu francophone en embarquant de base YGG et SW. Il permet de lier les films/séries listés dans Stremio avec un ou des débrideurs, avec ou sans cache, avec ou sans Jackett. Bref, très complet, très simple, très efficace. Après l’avoir installé, il faut se rendre sur /api/admin pour générer la clé API à utiliser lors de la configuration. Notez qu’il existe un fork de beluchon, remanié pour TorBox
  • Le principe est presque toujours le même : je clique sur FilmAAA, ça recherche FilmAAA sur YGG et/ou SW et/ou Jackett et une fois FilmAAA.torrent trouvé, ça regarde chez le/les débrideur.s s’il est déjà en cache, si oui ça lit, si non ça télécharge et lit ensuite
  • Zilean : un cache global permettant ici à Stream-Fusion de savoir plus vite FilmAAA est déjà en cache chez un débrideur (plutôt pour les contenu VO). Au 1er lancement ça indexe le cache, j’ai pas constaté de différence de vitesse de listing à mon faible niveau d’utilisation de Stremio
  • Jackett : pour la recherche en direct de contenu sur des trackers BitTorrent en lien avec Stream-Fusion. Je suis passé depuis longtemps sur Prowlarr mais il n’est pas compatible. Un truc à modifier, un jour (ou alors utiliser AIOStreams). Je n’ai pas configuré Jackett, trouvant tout directement sur les débrideurs, jusqu’à maintenant
streamfusion1
streamfusion2

  • Addon-Manager : (une version parmi d’autres) incontournable pour gérer ses addons, placer l’addon de métadonnées en haut de la liste, retirer Cinemeta, renommer (why?! oO) ou changer l’ordre des addons. D’une manière générale il faut placer les addons de recherche de flux tout en bas de la liste. J’ai créé un fork sur GitHub pour construire une image Docker pour simplifier l’installation…
addon manager
  • WAStream : (testé mais pas conservé) Dhylio a pondu ce bel addon pour streamer, via débrideurs, du contenu de sites de DDL, suis pas fan de DDL hormis Usenet mais ça peut dépanner si YGG est down (#humour)
wastream

  • MediaFlow Proxy : à utiliser avec TvVoo (en-dessous) pour proxifier les streams (sinon sur l’instance publique faut refresh toutes les heures pour une nouvelle clé). Je l’ai également forké pour faire un package à installer…
mediaflow proxy
  • TvVoo : IPTV gratuite (sans flux m3u ou autre) sur Stremio. Tous les flux « habituels » de l’IPTV avec les chaînes payantes, triées en catégories qui plus est et fonctionne via la recherche sous Stremio. S’appuie sur vavoo.to et vavoo.tv, pensez à les débloquer dans AdGuardHome si nécessaire (chez moi pour le .tv fallait).
    J’ai pas trouvé d’EPG, non plus pris la peine de tester un autre addon IPTV comme celui-ci pour lequel il faut cependant une source (nous avons TiviMate sur la TV), une prochaine fois…
tvvoo
tvvoo1
tvvoo2
tvvoo3
tvvoo4
  • Rating Aggregator : pour ceux qui ont lu au sujet d’Aphrodite ou Kometa, vous savez que j’aime bien voir les notes avant de choisir un média. Cet addon permet d’obtenir quasi la même chose que cette instance publique (dont le code ne semble pas être publié ?). Encore une fois, pas de package, du coup je fork…
ratings
ratings1
  • AI-Companion : lié à une IA (payante, mais on est fin 2025, c’est comme de parler anglais, c’est normal quand on est geek…) pour faire des découvertes de contenus selon nos demandes. Attention quand le développeur évoque la clé API TMDB dans le compose il s’agit en fait du token. J’en profite pour tester Gemini. La recherche que je montre en exemple sur l’addon est la même dans Stremio
companion1
companion2
companion3
companion4
  • Streams Prefetcher : outil de cache global. Il va mettre en cache les contenus des addons qu’on lui ajoute (ceux de Stremio) afin d’accélérer les recherches et lectures. Très complet : avec ou sans limite de films/séries globalement ou par catalogue, proxy, regex, durée du cache, cron… Pas forcément très utile dans mon contexte d’utilisation (que mon foyer, avec la fibre 8/8GBps) mais j’adore le concept et le boulot de Deejay !
streams prefetcher
  • More Like This : (testé mais pas conservé) sur une page de média, recommande des contenus similaires depuis TMDB, Gemini et d’autres sources. Pareil, forké pour faire une image Docker… Le hic c’est que c’est prévu pour Stremio Web, pas pour l’application ATV
more like this
more like this1
  • AIOStreams : dernier addon de cette présentation, mais pas des moindres, il permet de regrouper tous les addons Stremio en un seul et il embarque surtout un paquet d’options que je vous laisse découvrir sur la page du GitHub : tri des rlz selon des critères prédéfinis ou libres ou via regex (si vous voulez du MULTI HDR mais pas DoVi ou les rlz de Pierre mais pas celles de Paul etc), modification du rendu de la liste des rlz,
    Attention, le compose que j’utilise est personnel donc sans restriction et je n’ai conservé que les options/services qui m’intéressent.
    J’utilise AIOStreams pour des tests, dans le cas d’une utilisation solo il ne me semble pas utile SAUF pour filtrer les contenus par regex et/ou modifier le rendu de la liste des rlz.
  • WARP : un proxy qui route le trafic via Cloudflare. Ce n’est pas un VPN, juste de quoi masquer mon IP quand AIOStreams interroge des services que je n’héberge pas.
aiostreams7
aiostreams6
aiostreams5
aiostreams4
aiostreams3
aiostreams2
aiostreams1



Voici le rendu actuel de ma stack et l’ordre des addons. StreamFusion est ajouté à AIOStreams pour pouvoir modifier l’apparence de la liste des releases.
Ratings => releases (StreamFusion) => Autres médias de la saga (sortis ou à venir)

stremio1
stremio2

TvVoo sert vraiment pas à grand chose quand on a un abonnement IPTV (de qualité) et un vrai lecteur type TiviMate mais c’est sympa pour avoir la météo en bruit de fond 😛

Loading

Un clavier d’alarme pour Home Assistant (Alarmo) ⌨️

Comment disposer d'un boitier pour armer votre système d'alarme Home Assistant quand vous partez de chez vous ? et le désactiver quand vous rentrez ?

Ces systèmes de clavier d'alarme, que ce soit à code ou avec un badge, sont souvent présents dans les systèmes d'alarme propriétaires mais peu abordés dans les solutions DIY.

Howmation nous propose un guide complet : quel périphérique acheter, comment configurer Alarmo et même un bluebprint (définition d'un blueprint chez Thomas).

Si vous ne connaissiez pas la chaine YT Howmation, je vous la recommande chaudement. Il a notamment publié un guide ultime pour débuter en domotique :

L'accès Home Assistant à distance :

Egalement 2 vidéos sur la vidéo surveillance :

Et j'en passe 👍

Merci à Howmation et Thomas pour ces vidéos au top !

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 09/11/2025 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article Un clavier d’alarme pour Home Assistant (Alarmo) ⌨️ provient de : on Blogmotion.

Téléphone Tesla Model PI : tout ce que l’on sait avant la potentielle sortie du smartphone du futur

22 janvier 2026 à 17:01
Tesla Model PI - le smartphone du futur signé Elon Musk pourrait-il devenir la nouvelle référence

Depuis quelques années court une rumeur selon laquelle un smartphone révolutionnaire développé par Tesla pourrait voir le jour : le Model PI. La société d’Elon Musk ne compterait pas seulement proposer un téléphone Tesla haut de gamme, mais bien un appareil aux fonctionnalités uniques.

Il pourrait s’agir d’une percée technologique majeure sur le marché des smartphones. Le téléphone Tesla devrait se démarquer en termes de puissance et grâce à des propriétés complètement inédites. Plus qu’un téléphone, il s’agirait d’un appareil d’un genre nouveau intégrant les technologies développées par Elon Musk (s’il venait à voir le jour, car il n’y a aucune annonce officielle).

Tesla Model Pi Smartphone
What about the trademark registration? #elonmusk #tesla #modelpi #smartphone #trademark pic.twitter.com/nVVKiRpqCk

— Pi® (@Pi_314_NEG) November 15, 2021

Tesla Model PI : toutes les rumeurs qui circulent sur le smartphone

Le Tesla Phone Model PI 5G fait l’objet de nombreuses rumeurs qui circulent sur X et YouTube pour une raison bien précise : il serait doté de caractéristiques incroyables donnant lieu aux théories les plus folles.

L’implantation de « Neuralink » sur le prochain smartphone d’Elon Musk : réalité ou fantasme ?

Fondée officiellement en 2016, la start-up américaine Neuralink a pour objectif de créer des interfaces cerveau-machine. Il s’agit d’implants dits invasifs, c’est-à-dire que les puces sont connectées directement au cerveau et doivent traverser la boîte crânienne pour capter un signal de meilleure qualité. Les premiers implants humains de Neuralink ont d’ailleurs vu le jour en 2024.

Ce téléphone pourrait être équipé de cette technologie et ainsi permettre aux utilisateurs de contrôler leur appareil à distance par la pensée. Pour l’heure, la société a conçu un premier prototype de mini- puce (23 mm de diamètre sur 8 mm d’épaisseur d’après Frandroid), appelée The Link (V0.9). Pour fonctionner, celle-ci doit être implantée dans le cortex et connectée par des petits filaments (plus fins qu’un cheveu).

Cette puce permettrait de transmettre les données émises directement par les neurones de l’utilisateur via une technologie Bluetooth à haut débit (de l’ordre d’un mégabit par seconde), et s’adresserait en priorité aux personnes paraplégiques (l’usage grand public étant pour le moment écarté).

Certaines technologies permettent déjà, par exemple, de contrôler la musique par la pensée. Mais à la différence de Neuralink, ces dernières ne nécessitent pas d’opération chirurgicale pour fonctionner. Difficile donc d’imaginer que le Model PI soit effectivement doté de The Link, du moins pour le moment… D’autant plus que les premiers prototypes sont pour l’heure difficilement capables de contrôler autre chose qu’un simple curseur ou un clavier, comme le rappelle cet article de Reuters, et que le déploiement de cette technologie serait limité par plusieurs contraintes réglementaires.

Neuralink Tesla Phone
Le Tesla Phone dans toute sa splendeur !

Une intégration complète à l’écosystème Tesla ?

Avant de concevoir des smartphones, vous n’êtes sûrement pas sans savoir que Tesla s’est fait connaitre avec ses voitures électriques. Il y a donc fort à parier que le Model PI puisse faire office de « base de contrôle » pour avoir un contrôle (quasi) total sur son véhicule, et qu’il s’intègre à l’écosystème de la firme californienne pour interagir avec chacun de ses appareils.

La possibilité de miner de la crypto-monnaie

Nous savons la relation particulière qu’entretient le multimilliardaire avec la crypto-monnaie et d’après les rumeurs, il serait tout à fait probable que ce premier téléphone offre la possibilité de miner des monnaies virtuelles. Ce qui suppose une puissance de calcul et une dissipation thermique très élevée du téléphone, mais également un OS maison étant donné que l’App Store et Google Play bloquent les applis de minage sur l’appareil (sauf en gestion distante sur le Play Store) ainsi que le minage crypto en « arrière-plan ».

It is necessary. Maybe call it MarsCoin?

— CZ 🔶 BNB (@cz_binance) February 16, 2021
Elon Musk : « Seulement si nécessaire »
CZ Binance : « C’est nécessaire. Maybe call it MarsCoin ? »

Certains vont même plus loin en affirmant que la première crypto-monnaie à miner serait la  « marscoin », une monnaie électronique spécialement conçue pour la planète rouge par des bénévoles de la Mars Society. Ce qui aurait du sens si l’on en croit la détermination d’Elon Musk à vouloir concrétiser son projet de colonisation de Mars.

Elon Musk Tesla Phone dodgecoin

Une connectivité via Starlink ?

Une autre supposition est apparue sur la Toile. Le nouveau mobile Tesla profiterait d’une couverture de réseau mobile distribuée directement par les satellites de Starlink (via des opérateurs partenaires), et sa capacité de téléchargement évoluerait pas-à-pas en se concentrant d’abord sur la messagerie et les services légers. Pour rappel : la technologie Direct-to-Cell permet actuellement d’être relié à des satellites pour pouvoir retrouver de la connectivité dans les zones « blanches » en extérieur, mais avec des performances souvent limitées.

Les internautes s’emballent et pensent même qu’il serait possible de passer des appels téléphoniques entre la Terre et Mars. Même si, dans les faits, ce serait techniquement très compliqué en raison de la latence interplanétaire (environ 4 à 21 minutes pour un aller simple en fonction de la distance, selon ce rapport de l’Agence Spatiale Européenne) qui rendrait les communications directes impossibles. Gardons donc les pieds sur Terre : cette annonce signifie que le réseau permettra une connexion partout sur la planète (ce qui serait déjà pas mal).

Starlink Neuralink Tesla Phone

Un smartphone fonctionnant sous Android ou TeslaOS ?

Sous quel système d’exploitation (OS) pourrait-on naviguer sur le téléphone Tesla modèle PI ? Difficile de croire qu’un OS maison, supposément baptisé « TeslaOS », soit déployé au vu de la complexité d’entrée sur le duopole dominé par Android et iOS. Plusieurs marques se sont cassées les dents en essayant de le faire, à l’instar de Tizen OS chez Samsung ou Windows 10 Mobile de Microsoft.

La solution la plus logique serait donc un fonctionnement sous Android, le système d’exploitation le plus modulable. Pourtant, Elon Musk semble aller dans une autre direction puisqu’il affirmait dans un tweet que si Apple et Google venaient à boycotter Twitter, il créerait son propre « smartphone alternatif« . Un indice de la plateforme qu’il voudrait utiliser ?

On pourrait penser à l’exemple de Huawei qui utilise le code open source d’Android pour créer son propre OS ou à l’hypothèse d’utiliser Linux (déjà utilisé par les ordinateurs internes de Tesla) comme le font les Volla Phone.

Finalement, les possibilités sont nombreuses. Reste à savoir si la mise en place d’un nouveau OS est la meilleure solution, au vu du duopole presque intouchable de Google et Apple (71,7 % de parts de marché pour Android et 27,9 % pour iOS en décembre 2025, selon Statcounter).

Tesla PI : un smartphone avec une fiche technique prometteuse ?

Le possible futur smartphone Tesla n’a pas encore été dévoilé, mais des spéculations parlent déjà des caractéristiques qu’il pourrait embarquer. Quel écran, processeur ou autonomie pour ce mobile ?

Quelle autonomie pour le prochain smartphone Tesla ?

L’entreprise Tesla est connue pour avoir développé des batteries robustes et puissantes pour ses voitures électriques – il y aurait donc de fortes chances qu’il en soit de même pour la batterie de son téléphone.

Selon les rumeurs, elle aurait une capacité de 4 300 mAh (4 700 mAh pour la version 5G), avec une charge de 30 W, ce qui reste raisonnable comparé à certains modèles haut de gamme en 2025. La marque prévoirait aussi une surprise puisque la coque arrière serait constituée d’un panneau solaire à haut rendement afin de recharger le Model PI en l’exposant au soleil.

Néanmoins, il faut savoir que la charge complète de la batterie via l’énergie solaire prendrait plus 9 heures, et que les panneaux photovoltaïques risquent d’augmenter l’épaisseur et la fragilité du smartphone. Autant dire que ce projet ambitieux ne sera pas évident à mettre en place, et qu’il se cantonnerait plutôt à la recharge d’appoint.

Tesla Model PI : une coque arrière pourvue d'un panneau solaire.
Une coque arrière pourvue d’un panneau solaire ?

Quel appareil photo pour le Tesla Model PI ?

Ces dernières années, les appareils photo des smartphones ont connu un bond en avant en termes de mégapixels offerts ou bien de fonctionnalités — comme le zoom ou encore l’aide à la retouche via l’intelligence artificielle. Certains modèles se sont d’ailleurs spécialisés dans ce domaine : les photophones.

Avec une caméra frontale située sous l’écran et un appareil photo arrière à quatre objectifs, le concept de Model PI ne devrait donc pas déroger à la règle. Mieux encore, celui-ci proposerait des propriétés inédites telles que : la prise de photos et de vidéos limpides dans un environnement de basse lumière extrême via un capteur dédié à la vision nocturne, ou encore la possibilité de réaliser des photos de l’espace aussi parfaites que celles prises à l’aide d’un télescope (toutes proportions gardées, bien entendu).

Quel écran sur le Tesla Model PI ?

Le Tesla Model PI pourrait être équipé d’une dalle AMOLED ultramoderne de 6,2 pouces, recouvrant entièrement la façade avant avec une définition full HD, certifiée HDR10+ et un taux de rafraîchissement de 120 Hz. Une fluidité garantie qui pourrait permettre aux gamers de jouer à leurs jeux préférés sur leur smartphone.

Quel processeur sur le Tesla Model PI ?

En ce qui concerne le processeur, il est pour l’instant impossible de prédire celui qui équipera le mobile de Tesla. Certains évoquent une puce maison révolutionnaire, d’autres parlent d’un surpuissant Snapdragon de série 8 récente (ou équivalent), mais aucune de ces théories ne semble vraiment crédible à l’heure actuelle.

Combien de stockage sur le Tesla Model PI ?

Soucieux de vouloir offrir à ses futurs utilisateurs un stockage des plus confortables, Elon Musk aurait pris le parti d’octroyer – selon les rumeurs – un espace de stockage d’au moins 2 To pour le Model PI 5G (soit le double de la capacité maximale sur la majorité des smartphones actuels). Il se dit même que cet espace de stockage pourrait être étendu selon les besoins.

En matière de mémoire RAM, le Tesla Model PI 5G n’aurait a priori rien à envier aux références les plus puissantes du secteur. Avec 6 Go de RAM minimum, il pourrait être doté – toujours en option – d’une mémoire vive de 12 Go.

Date de lancement et prix : que disent les rumeurs ?

Si plusieurs rumeurs évoquent déjà des dates de lancement, elles sont à prendre avec des pincettes car Tesla n’a que très peu communiqué autour d’un éventuel smartphone. Elon Musk lui-même s’est montré plus que réticent à l’idée de développer un tel appareil. On sait simplement qu’il faudra a minima plusieurs années de recherche et développement avant qu’il ne puisse potentiellement voir le jour.

De plus, le milliardaire américain a récemment affirmé que le smartphone deviendrait « un nœud périphérique d’IA » d’ici 5 à 6 ans, selon @slow_developer. Comprenez par là que les applications et les systèmes d’exploitations seraient voués à disparaître, tout comme le modèle de smartphone tel que nous le connaissons actuellement.

Quant au prix, celui-ci varie selon les sources : il pourrait être compris entre 690 € et 1830 €, voire plus de 2000 € avec les options. Une fourchette plutôt raisonnable pour un téléphone haut de gamme ; surtout quand on sait que la marque à la pomme vend ses téléphones à des prix tout aussi élevés, sans offrir plus d’options pour autant (et sans chargeur ni écouteurs). Une fois de plus, il ne s’agit que de spéculations en sachant que Tesla n’a rien dévoilé à ce sujet.

S’il n’est pas dit que ce nouveau téléphone embarque toutes les technologies citées plus haut, il n’empêche que le Tesla Phone Model PI a le potentiel de s’imposer comme une alternative sérieuse aux marques les plus connues (iPhone, Samsung Galaxy, entre autres). En attendant sa sortie potentielle, il faudra prendre son mal en patience avant de découvrir le design final et les propriétés effectivement choisies qui nous réservent, sans doute, de belles surprises.

Tesla Phone Model PI exemple
On n’attend plus qu’une date de sortie officielle et un prix…

MicroPython: Mesurer la vitesse de l'air avec le capteur FS3000

Amis de MicroPython... Bonjour,

Cela faisait longtemps que nous n'avions pas eu l'occasion de porter un nouveau pilote sous MicroPython. 

Renesas FS3000

Cette fois, nous nous sommes penchés sur le capteur FS3000  de Renesas qui mesure la vélocité de l'air. Capteur que l'on retrouve sur les breakout FS3000 de SparkFun.

Capteur FS3000 de SparkFun

Ce type de capteur est principalement utilisé dans des systèmes de refroidissement ou de conditionnement d'air. Comme il dispose d'une interface I2C, il est très facile de l'exploiter avec de nombreux microcontrôleur.

Les cartes breakout existent en deux versions:

  • FS3000-1015 mesurant des flux jusqu'à 15m/s (54 Km/H).
  • FS3000-1005 mesurant des flux jusqu'à 7ms/s  (25 km/H).

Pilote MicroPython

Bien que SparkFun propose un pilote MicroPython --ce que je salue-- celui-ci est construit sur une surcouche d'abstraction permettant permettant d'utiliser le capteur avec CircuitPython et MicroPython.

Etant un fan inconditionnel de MicroPython, je pense qu'il est préférable de disposer d'un code qui va droit au but... avec le moins de détour possible! C'est ainsi que l'on maintient une efficacité optimale d'exécution.

J'ai décidé de recréer un pilote à partir du code Arduino. En effet, il à été plus facile de travailler à partir du code Arduino que de suivre la couche d'abstraction CircuitPython/MicroPython.

Le pilote alternatif est disponible sur notre dépôt esp8266-upy/qwiic-ait-velocity .

Brancher sur un Raspberry-Pi Pico

Le schéma suivant indique comment brancher le capteur sur un Pico à l'aide d'un câble Qwiic (qui transporte un bus I2C).

Brancher un capteur FS3000 sur un Raspberry-Pi Pico
 

Du code pour le peuple

Après avoir transféré la bibliothèque airspeed sur la plateforme MicroPython, il ne reste plus exécuter l'exemple ci-dessous.

from machine import I2C,Pin
from airspeed import FS3000, AIRFLOW_RANGE_15_MPS
import time

# Raspberry-Pi Pico
i2c = I2C( 1, sda=Pin.board.GP6, scl=Pin.board.GP7 )
# Adresse par défaut
air_speed = FS3000( i2c )

# air_speed.set_range( AIRFLOW_RANGE_7_MPS )
air_speed.set_range( AIRFLOW_RANGE_15_MPS )

while True:
	print( "FS3000 lecture brute:", air_speed.read_raw() ) # 125ms acquisition
	#  lecture en metre par seconde, retourne un float de 0 - 7.23 pour FS3000-1005, 0 - 15 pour FS3000-1015 
	airflow_mps = air_speed.read_mps()
	if airflow_mps != None: # retourne None en cas d'erreur CRC!
		print( "   m/s:", airflow_mps ) 
		airflow_kmh = airflow_mps*3600/1000
		print( "   Km/h:", airflow_kmh ) 
		airflow_mph = airflow_mps*2.2369362912
		print( "   Miles/h:", airflow_mph ) 
	time.sleep( 1 )

Ressources

MCHobby investit du temps et de l'argent dans la réalisation de traduction et/ou documentation. C'est un travail long et fastidieux réalisé dans l'esprit Open-Source... donc gratuit et librement accessible. 

SI vous aimez nos traductions et documentations ALORS aidez nous à en produire plus en achetant vos produits chez MCHobby.

[YCast] La solution à l’erreur « libtiff.so.6 » ✅ (Debian 12)

Lorsque j'ai migré de Raspberry Pi OS 11 vers Raspberry Pi OS 12 (anciennement Raspbian, une version ARM de Debian optimisée pour Raspberry Pi), j'ai rencontré quelques surprises.

libtiff.so.6 :cannot open shared object file

Ycast ne fonctionnait plus 😭! J'en ai profité pour découvrir le fonctionnement de venv python dont voici le résumé pour corriger cette erreur.

Alternative : migrer sous YTuner

La solution la plus simple aurait été de migrer vers YTuner, un projet similaire, plus récent et maintenu pour de nombreuses distributions : Linux, macOS, BSD, Solaris, Raspberry Pi OS, OpenWRT, etc.

Mais j'aime bien le défi donc ce n'est pas l'option que j'ai choisi.

[Etape 1] Création d'un venv python

Nous allons installer un environnement virtuel python afin de simplifier les choses et d'éviter les conflits :

sudo apt install python3-venv

Création d'un dossier dédié aux venv :

mkdir /home/pi/python_venv/

Création du venv :

cd /home/pi/python_venv/
python3 -m venv ycast

Cette étape peut prendre plusieurs minutes, soyez patient.

Entrer dans le vcenv ycast :

source ycast/bin/activate

Installation ycast dans le venv (cette étape prend du temps) :

pip3 install ycast

Enfin pour sortir du venv ycast :

deactivate

Etape 2 : création du lien symbolique

Nous devons maintenant créer un lien symbolique depuis le fichier de librairie "libtiff.so.6" vers "libtiff.so.5" (les versions semblent compatibles entre-elles).

Chercher votre fichier librairie existante libtiff.so.5 :

find / -type f -iname libtiff*.so.*
/usr/lib/arm-linux-gnueabihf/libtiff.so.5.6.0

Création du lien symbolique (param=destination,source) à réalisé en root (ou via sudo) :

ln -s /usr/lib/arm-linux-gnueabihf/libtiff.so.5 /usr/lib/arm-linux-gnueabihf/libtiff.so.6
ls -l /usr/lib/arm-linux-gnueabihf/
/usr/lib/arm-linux-gnueabihf/libtiff.so.6 -> /usr/lib/arm-linux-gnueabihf/libtiff.so.5

Enfin terminez avec le refresh des librairies :

sudo ldconfig

Etape 3 : modification du fichier de service

Pour que le service ycast utilise le venv python nous éditons ce fichier :

sudo nano /etc/systemd/system/ycast.service

J'ai mis en commentaire la ligne existante, remplacée par celle en dessous :

[Unit]
Description=YCast internet radio service (xhark custom)

After=network-online.target
Wants=network-online.target


[Service]
Type=simple
User=ycast
Group=ycast
#ExecStart=/usr/bin/python3 -m ycast -l 192.168.0.14 -p 8010 -c /home/pi/ycast-yamaha/stations.yml
ExecStart=/home/pi/python_venv/ycast/bin/python -m ycast -l 192.168.0.14 -p 8010 -c /home/pi/ycast-yamaha/stations.yml

#StandardOutput=file:/var/log/ycastd.log
#StandardError=file:/var/log/ycastd.log

[Install]
WantedBy=multi-user.target

On notifie systemd de la modification du service :

sudo systemctl daemon-reload

Et enfin on démarre ycast :

sudo systemctl start ycast 
sudo systemctl status ycast

Et voilà :

En espérant que cela serve à d'autres (et merci à Perplexity pour son aide!).

Bonus : si vous souhaitez recompiler la version de la librairie en v6, suivez ce tutoriel.

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 06/11/2025 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article [YCast] La solution à l’erreur « libtiff.so.6 » ✅ (Debian 12) provient de : on Blogmotion.

TestFlight Status Checker : être alerté des ouvertures de bêta d’applications pour Apple sur TestFlight

Par : Aerya
4 novembre 2025 à 10:04

Chez Apple, les développeurs peuvent proposer leurs applications en version bêta avant de les mettre sur l’AppStore. Pour y accéder, outre avoir TestFlight sur son périphérique et un code d’invitation, il faut surtout que la limite de bêta-testeurs ne soit pas atteinte.

Si jamais on arrive trop tard, EloneMusk (… ouais… je sais…) a créé Test-Flight-Subscription pour être alerté par email de l’ouverture d’accès à des bêtas.

L’email et le mot de passe à renseigner dans la configuration ne sont PAS ceux de votre compte Apple mais bien ceux d’un compte GMAIL (hardcodé avec Gmail dans app.py).
Il faudra utiliser un compte Gmail avec un mot de passe d’application (chercher app password dans les paramètres Gmail), accessible une fois le 2FA activé sur le dit compte si ce n’est pas encore fait.

services:
  testflight-checker:
    build:
      context: https://github.com/EloneMusk/Test-Flight-Subscription.git
      dockerfile: Dockerfile
    container_name: testflight-checker
    restart: always
    ports:
      - 7654:8000
    environment:
      EMAIL_USER: moi@gmail.com
      EMAIL_PASSWORD: ent iur henf ued

testflight1

Pratique.
Pour découvrir des applications en bêta, on peut par exemple parcourir le SubReddit dédié ou le dépôt GitHub Awesome Testflight App List.

Il a trouvé sa place dans tout mon petit bordel ^^

testflight2

Et… j’y ajoute mon workflow de mise à jour automatique si le dépôt GitHub évoluait, ce qui donne :

services:
  testflight-checker:
    build:
      context: https://github.com/EloneMusk/Test-Flight-Subscription.git
      dockerfile: Dockerfile
    container_name: testflight-checker
    restart: always
    ports:
      - 7654:8000
    environment:
    environment:
      EMAIL_USER: moi@gmail.com
      EMAIL_PASSWORD: ent iur henf ued
  testflight-autoupdate:
    image: alpine:latest
    container_name: testflight-autoupdate
    restart: always
    environment:
      GITHUB_REPO: https://github.com/EloneMusk/Test-Flight-Subscription.git
      DISCORD_WEBHOOK: https://canary.discord.com/api/webhooks/xxx/xxx
      POLL_INTERVAL: 172800 # secondes
      SERVICE_NAME: testflight-checker
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
      - /tmp:/repo
    command: >
      sh -c "
        apk add --no-cache git bash curl docker-cli jq &&
        mkdir -p /repo &&
        cd /repo &&
        git clone --depth 1 \$GITHUB_REPO . || true &&
        REPO_NAME=\$(basename -s .git \$GITHUB_REPO) &&
        DEFAULT_BRANCH=\$(curl -s https://api.github.com/repos/\$(echo \$GITHUB_REPO | sed 's|.*/||;s|.git||') | jq -r .default_branch) &&
        git fetch origin \$DEFAULT_BRANCH &&
        git checkout \$DEFAULT_BRANCH &&
        LAST_COMMIT=\$(git rev-parse HEAD) &&
        while true; do
          git fetch origin \$DEFAULT_BRANCH &&
          NEW_COMMIT=\$(git rev-parse origin/\$DEFAULT_BRANCH) &&
          if [ \"\$NEW_COMMIT\" != \"\$LAST_COMMIT\" ]; then
            echo \"[$(date)] Nouveau commit détecté sur \$DEFAULT_BRANCH, rebuild...\"
            git reset --hard origin/\$DEFAULT_BRANCH &&
            docker compose -f /repo/docker-compose.yml build \$SERVICE_NAME &&
            docker compose -f /repo/docker-compose.yml up -d \$SERVICE_NAME &&
            REPO_LINK=\$GITHUB_REPO &&
            COMMIT_LINK=\"\$GITHUB_REPO/commit/\$NEW_COMMIT\" &&
            curl -H 'Content-Type: application/json' -X POST -d '{\"content\": \"\$REPO_NAME mis à jour automatiquement !\nBranche : \$DEFAULT_BRANCH\nCommit : \$NEW_COMMIT\nDépôt : <\$REPO_LINK|\$REPO_NAME>\nLien du commit : <\$COMMIT_LINK|voir commit>\"}' \$DISCORD_WEBHOOK &&
            LAST_COMMIT=\$NEW_COMMIT
          else
            echo \"[$(date)] Aucun changement sur \$DEFAULT_BRANCH.\"
          fi
          sleep \$POLL_INTERVAL
        done
      "
networks: {}

Loading

Du commit GitHub au container à jour : workflow Docker simplifié

Par : Aerya
4 novembre 2025 à 09:28

Il arrive que des gens publient un code sur GitHub avec un Dockerfile mais sans package. Le container est donc à construire soi-même, localement.

Ça peut se faire directement depuis un compose

services:
  applicationABC:
    build:
      context: https://github.com/user/applicationABC.git
      dockerfile: Dockerfile
    container_name: applicationABC
    restart: always
    ports:
      - 8080:8080

Mais dans ce cas la mise à jour automatisée via WatchTower ne fonctionne pas puisqu’il n’y a pas d’image à aller chercher.

    labels:
      - com.centurylinklabs.watchtower.enable=true

Du coup voici une solution de contournement, simple et surtout qui n’implique pas d’outil tiers ou de cloner un dépôt GitHub et faire/tenir à jour un package moi-même.

Ce bout de code va checker les commits d’un dépôt GitHub à intervalles réguliers et, au besoin, construire un container à jour localement et relancer le tout.
Avec notification Discord, parce que j’aime ça.

  applicationABC-autoupdate:
    image: alpine:latest
    container_name: applicationABC-autoupdate
    restart: always
    environment:
      GITHUB_REPO: https://github.com/user/applicationABC.git
      DISCORD_WEBHOOK: https://canary.discord.com/api/webhooks/xxx/xxx
      POLL_INTERVAL: 172800 # secondes
      SERVICE_NAME: applicationABC
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
      - /tmp:/repo
    command: >
      sh -c "
        apk add --no-cache git bash curl docker-cli jq &&
        mkdir -p /repo &&
        cd /repo &&
        git clone --depth 1 \$GITHUB_REPO . || true &&
        REPO_NAME=\$(basename -s .git \$GITHUB_REPO) &&
        DEFAULT_BRANCH=\$(curl -s https://api.github.com/repos/\$(echo \$GITHUB_REPO | sed 's|.*/||;s|.git||') | jq -r .default_branch) &&
        git fetch origin \$DEFAULT_BRANCH &&
        git checkout \$DEFAULT_BRANCH &&
        LAST_COMMIT=\$(git rev-parse HEAD) &&
        while true; do
          git fetch origin \$DEFAULT_BRANCH &&
          NEW_COMMIT=\$(git rev-parse origin/\$DEFAULT_BRANCH) &&
          if [ \"\$NEW_COMMIT\" != \"\$LAST_COMMIT\" ]; then
            echo \"[$(date)] Nouveau commit détecté sur \$DEFAULT_BRANCH, rebuild...\"
            git reset --hard origin/\$DEFAULT_BRANCH &&
            docker compose -f /repo/docker-compose.yml build \$SERVICE_NAME &&
            docker compose -f /repo/docker-compose.yml up -d \$SERVICE_NAME &&
            REPO_LINK=\$GITHUB_REPO &&
            COMMIT_LINK=\"\$GITHUB_REPO/commit/\$NEW_COMMIT\" &&
            curl -H 'Content-Type: application/json' -X POST -d '{\"content\": \"\$REPO_NAME mis à jour automatiquement !\nBranche : \$DEFAULT_BRANCH\nCommit : \$NEW_COMMIT\nDépôt : <\$REPO_LINK|\$REPO_NAME>\nLien du commit : <\$COMMIT_LINK|voir commit>\"}' \$DISCORD_WEBHOOK &&
            LAST_COMMIT=\$NEW_COMMIT
          else
            echo \"[$(date)] Aucun changement sur \$DEFAULT_BRANCH.\"
          fi
          sleep \$POLL_INTERVAL
        done
      "

Le travail est effectué dans le dossier temporaire.

Il suffit d’éditer les variables voire le nom du container, histoire de faire propre

  applicationABC-autoupdate:
    image: alpine:latest
    container_name: applicationABC-autoupdate
    restart: always
    environment:
      GITHUB_REPO: https://github.com/user/applicationABC.git
      DISCORD_WEBHOOK: https://canary.discord.com/api/webhooks/xxx/xxx
      POLL_INTERVAL: 172800 # secondes
      SERVICE_NAME: applicationABC

Attention, la variable SERVICE_NAME doit être le nom exact du service à reconstruire/relancer

services:
  applicationABC:
    build:
      context: https://github.com/user/applicationABC.git
      dockerfile: Dockerfile
    container_name: applicationABC
    restart: always
    ports:
      - 8080:8080

Loading

Halloween à Montpellier : fascistes et néonazis contre la culture

1 novembre 2025 à 17:22

Et la police laisse faire

Alors que quelques médias d’extrême droite se mobilisent pour empêcher une soirée culturelle, et que les menaces de mort pleuvent, la police laisse fascistes et néonazis intimider l’organisation ainsi qu’inquiéter les personnes venues simplement profiter de la soirée.

Une soirée animée - © Reflets

Malgré une panique morale déclenchée par des catholiques intégristes, le festival Ex Tenebris Lux se déroule jusqu’au 5 novembre à Montpellier, et la soirée d’Halloween à la Maison des Chœurs, malgré les difficultés, a bien eu lieu le 31 octobre.

Une opération obscurantiste impulsée par le média d’extrême droite Frontières contre le prétendu « satanisme », est venue renforcer une pétition dénonçant une soi-disant « messe noire », ainsi qu’une vidéo des Servants du Christ dans laquelle un des membres du groupuscule accuse la mairie de financer un événement sataniste. La vidéo a dépassé le demi-million de vues, résultat : des menaces de mort adressées aux organisateurs de la soirée.

Capture d’écran du compte X du media fasciste Frontières.
Capture d’écran du compte X du media fasciste Frontières.

Malgré toutes les menaces, aucun périmètre de sécurité n’a été mis en place. La police a même laissé les fascistes les plus radicaux perturber la soirée jusqu’à 23 heures. Les militants catholiques intégristes avaient en effet réussi à mobiliser les nervis néonazis du Bloc Montpelliérain, les néofascistes de Jeunes d’Oc, mais aussi des militants de la Ligue du Midi.

Interrogées par Reflets, plusieurs personnes ont exprimé leur peur et leur inquiétude pour leur sécurité : « Je suis très inquiète, mais j’ai payé pour la soirée, donc j’essaye de profiter. », « Mais c’est pas possible, ils sont là, ça fait peur… ». D’autres, plus décontractées, se moquaient des ferventes prières des cathos.

Dans l’équipe de sécurité de...

Migrer Raspberry Pi OS 11 vers 12 bookworm (Raspbian)

Je suis en passe de supprimer le Raspberry Pi 2 qui fait tourner Domoticz depuis de nombreuses années, sans broncher il faut le dire. Mais il me reste quelques routines et scripts à migrer vers Home Assistant.

Et Domoticz a sorti une mise à jour que j'ai essayé d'installer avec Raspberry Pi OS 11 (anciennement Raspbian) et qui s'est avéré incompatible à cause de la version OpenSSL 1.x embarquée dans Debian 11 (bulleseye) et bien présente en v3 dans Debian 12 (bookworm).

Résultat : après la migration de Domoticz le service Domoticz ne démarrait plus :

oct. 27 13:43:18 domoPi systemd[1]: This usually indicates unclean termination of a previous run, or service implementation deficiencies.
oct. 27 13:43:19 domoPi domoticz.sh[7043]: attente synchro NTP pour demarrer domoticz
oct. 27 13:43:18 domoPi systemd[1]: domoticz.service: Found left-over process 7035 (sudo) in control group while starting unit. Ignoring.
oct. 27 13:43:18 domoPi systemd[1]: This usually indicates unclean termination of a previous run, or service implementation deficiencies.
oct. 27 13:43:18 domoPi systemd[1]: domoticz.service: Found left-over process 7036 (systemctl) in control group while starting unit. Ignoring.
oct. 27 13:43:18 domoPi systemd[1]: This usually indicates unclean termination of a previous run, or service implementation deficiencies.
oct. 27 13:43:18 domoPi systemd[1]: Starting LSB: Home Automation System...
oct. 27 13:43:19 domoPi domoticz.sh[7053]: /home/pi/domoticz/domoticz: error while loading shared libraries: libssl.so.3: cannot open shared object file: No such file or directory
oct. 27 13:43:19 domoPi systemd[1]: Started LSB: Home Automation System.
oct. 27 13:43:19 domoPi sudo[7035]: pam_unix(sudo:session): session closed for user root

 

Restez sur Domoticz 2025.1 et ne faites pas de mises à jour vers 2025.2 et plus si vous êtes sur Raspbian 11 !

Le guide à suivre pour migrer vers Debian 12

Rassurez-vous, si vous souhaitez migrer vers Raspberry Pi OS 12, c'est possible.

D'habitude je sauvegarde toujours pas carte microSD avec une image disque et... je me suis dit que j'allais tenter sans. C'est donc l'exception qui confirme la règle (j'avais un backup complet de la BDD à minima).

Je ne ferai pas de commentaire sur le fait que... le développeur aurait pu faire en sorte que cette version ne s'installe pas sur une version incompatible de Debian (Raspbian) 😡

Plutôt que de tenter un downgrade hasardeux de Domoticz (est-ce possible ?) j'ai préféré passer sur Debian 12, et je crois que c'est le 3ème saut de version que passe mon Rasberry Pi avec succès! Cette fois-ci j'ai bien fait une image disque de la carte microSD 😁

➡ Il vous faut suivre ce guide de migration 👌

La mise à jour de Raspberry Pi OS 11 vers 12 s'accompagne de quelques spécificités qui sont bonnes à connaître :

  1. changement du nom dans les sources.list (habituel) et màj
  2. changement de la partition de /boot vers /boot/firmware
  3. installation du noyau correspondant à votre version de Raspberry Pi
  4. migration des clés GPG vers le nouvel emplacement /etc/apt/trusted.gpg.d/ (keyring)

Seule la 11ʳᵉétape est obligatoire, les autres sont fortement conseillées une fois la mise à jour réalisée.

Concernant la migration des clés GPG, j'ai utilisé la commande suivante pour vérifier qu'aucune clé ne restait en mode LEGACY :

apt-key list

L'avertissement en retour est normal, mais aucune clé ne doit être listée.

Note: pour connaître la génération de votre Raspberry Pi la commande lspci n'a pas fonctionné chez moi, vous pouvez utiliser cat /proc/cpuinfo | grep Model

Conclusion

Il va vraiment falloir que je termine cette migration vers HA. Cela traine car j'aimerais récupérer l'historique de certaines sondes de températures. Côté périphérique il ne me reste que le RFXCom à migrer. Et comme Domoticz et Home Assistant discutent entre eux, soit par MQTT, soit par script, rien ne me presse.

Important : je vous conseille de ne pas lancer la migration à distance en SSH mais en console avec un vrai clavier/écran

À noter également le souci que j'ai rencontré avec le plugin Zigate et sa solution ici.

Un grand merci à Steffen qui a écrit ce guide de migration qui m'a bien aidé, car on trouve finalement peu de ressources sur ce sujet.

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 30/10/2025 | Un commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article Migrer Raspberry Pi OS 11 vers 12 bookworm (Raspbian) provient de : on Blogmotion.

Gmail dément une faille après la fuite de 183 millions d&#8217;identifiants

Fuite de mots de passe chez HIBP avec 183 millions d’identifiants indexés, Google confirme l’absence de brèche Gmail et conseille authentification forte.

Cet article Gmail dément une faille après la fuite de 183 millions d’identifiants est apparu en premier sur Linformatique.org.

GitHub - Stirling-Tools/Stirling-PDF: #1 Locally hosted web application that allows you to perform various operations on PDF files

27 octobre 2025 à 13:36

Stirling-PDF is a robust, locally hosted web-based PDF manipulation tool using Docker. It enables you to carry out various operations on PDF files, including splitting, merging, converting, reorganizing, adding images, rotating, compressing, and more. This locally hosted web application has evolved to encompass a comprehensive set of features, addressing all your PDF requirements.


Permalien

Pulse : monitoring Docker (et Proxmox)

Par : Aerya
25 octobre 2025 à 09:40

Merci Holaf pour la découverte.

Je n’ai plus de Proxmox depuis des années à la maison, je le teste avec Docker : Ubuntu, Synology et UNRAiD.

Ça fait penser à Beszel mais en plus puissant et complet bien entendu.

Pulse s’utilise en toute logique avec un serveur et des agents. Le tout s’installe en Docker ou en dur.

C’est très musclé et sécurisé, ça permet la découverte de réseaux pour ajouter des nodes Proxmox notamment. Je l’utilise de manière très simple pour ce test :

services:
  pulse:
    image: rcourtman/pulse:latest
    container_name: pulse_serveur
    ports:
      - 7655:7655
    volumes:
      - /mnt/user/appdata/pulse:/data
    restart: always

On peut ensuite définir un compte d’accès

pulse
pulse1
pulse2

Je souhaite ajouter des clients Docker

pulse3

Il faudra pour ça générer un token par client

pulse4
pulse5

Et tout est ensuite expliqué pour l’installer ou le retirer. C’est très bien fait.

pulse6

Mais pour ma machine sous UNRAiD je préfère passer par un container Docker

docker run -d \
  --name pulse-docker-agent \
  -e PULSE_URL="http://192.168.0.195:7655" \
  -e PULSE_TOKEN="a297b11d70d16c15e4eb9241ace555a19bff4279c98ffaa92de5bd9d0bc9bab7" \
  -e PULSE_TARGETS="http://192.168.0.195:7655|a297b11d70d16c15e4eb9241ace555a19bff4279c98ffaa92de5bd9d0bc9bab7" \
  -v /var/run/docker.sock:/var/run/docker.sock \
  --restart always \
  ghcr.io/rcourtman/pulse-docker-agent:latest

Et je l’ai tout de suite dans ma liste de clients

pulse7
pulse8
pulse9

Pour un NAS Synology je passe aussi par Docker. En revanche je suis leur recommandation pour ajouter un client sur la machine Ubuntu.

curl -fsSL http://192.168.0.195:7655/install-docker-agent.sh | bash -s -- --url http://192.168.0.195:7655 --token bc6f2c3e562d5c030a1b2b925a6f145050e214359542b3670a79a4a94a971c18

root@StreamBox:/home/aerya# curl -fsSL http://192.168.0.195:7655/install-docker-agent.sh | bash -s -- --url http://192.168.0.195:7655 --token bc6f2c3e562d5c030a1b2b925a6f145050e214359542b3670a79a4a94a971c18

== Pulse Docker Agent Installer ==
[INFO] Primary Pulse URL : http://192.168.0.195:7655
[INFO] Install path      : /usr/local/bin/pulse-docker-agent
[INFO] Log directory     : /var/log/pulse-docker-agent
[INFO] Reporting interval: 30s
[INFO] API token         : provided
[INFO] Docker host ID    : cf13d13b-a0e2-4bc6-b755-2535f80b4932
[INFO] Targets:
[INFO]   • http://192.168.0.195:7655

[INFO] Downloading agent binary
/usr/local/bin/pulse-docker-agent                                                          100%[=======================================================================================================================================================================================================================================>]   6.85M  --.-KB/s    in 0.03s   
[ OK ] Agent binary installed
[ OK ] Cleared any previous stop block for host

== Configuring systemd service ==
[ OK ] Wrote unit file: /etc/systemd/system/pulse-docker-agent.service
[INFO] Starting service
Created symlink /etc/systemd/system/multi-user.target.wants/pulse-docker-agent.service → /etc/systemd/system/pulse-docker-agent.service.

== Installation complete ==
[INFO] Agent service enabled and started
[INFO] Check status          : systemctl status pulse-docker-agent
[INFO] Follow logs           : journalctl -u pulse-docker-agent -f
[INFO] Host visible in Pulse : ~30 seconds

Et j’ai bien mes 3 clients

pulse10
pulse11

Pulse est un outil sécurisé, très simple, très beau, trés complet, très léger. J’adopte !

Loading

PlaceholdARR : ne téléchargez que ce que vous regardez

Par : Aerya
25 octobre 2025 à 08:36

Imaginez Plex ou Jellyfin, de belles bibliothèques, bien garnies. Le tout sans rien stocker ou presque. Parce que le média ne se télécharge que lorsqu’on lance sa lecture et sera supprimé de la bibliothèque sous X jours. Et ça peut aussi télécharger en avance X épisodes d’une série en cours de visionnage.

J’en ai franchement rêvé quand Google a mis fin à la fête du slip avec Workspace. TheIndieArmy est en train de le faire avec PlaceholdARR !
On ajoute un média à Radarr/Sonarr SANS Recherche/Téléchargement puis son outil le simule dans le lecteur lié avec affiche etc. Et le téléchargement ne démarre, avec les règles Radar/Sonarr, que lorsqu’on lance la lecture.
On ne doit donc absolument pas modifier une configuration existante, ça s’y intègre parfaitement. Ou alors ça la remplace, carrément.

Alors évidemment y’a rien de magique et je vois quelques points noirs, à tout le moins gris :
– ceux qui sont en ADSL 3.5MBps, « bon courage », allez au resto, vous aurez le film en rentrant avec un peu de bol si vous utilisez du téléchargement classique,
– si pour les contenus VO (EN/US) y’a quasi jamais de problème de sources BitTorrent, pour du MULTi/VF c’est plus compliqué selon le média (moins mainstream, vieux etc) et les indexeurs BitTorrent/Usenet auxquels chacun a accès,
– j’ai pas encore fini de tester (quand je rédige cette phrase) mais j’imagine qu’avec Usenet aux fesses, à fortiori en mode streaming ou un setup Decypharr/RDT, ça peut être très sympa, EDIT : je confirme, ça poutre !!!

– j’ai testé ça avec mon instance existante de Radarr et ça ajoute donc tous les médias « à venir » depuis le calendrier. Ce qui peut être problématique si on partage Plex/Jellyfin avec des bas du front qui cliquent tout le temps sur des films pas encore sortis bien que ça MàJ les noms en « Now You See Me – [Coming Soon (18 days)] »

Avant de détailler l’installation, voici un exemple de fonctionnement avec Radarr et Jellyfin.

Ajouter un film sur Radarr, sans recherche ni monitoring

placeholdarr1
placeholdarr2

PlaceholdARR le capte et le simule dans Jellyfin.

placeholdarr  | 2025-10-25 05:38:53,888 - handlers.py:65 - DEBUG - 🐛 Radarr payload: {'movie': {'id': 1714, 'title': 'The Kids Are All Right', 'year': 2010, 'releaseDate': '2010-10-07', 'folderPath': '/mnt/Bibliothèques/Films/The Kids Are All Right (2010) 39781 tt0842926', 'tmdbId': 39781, 'imdbId': 'tt0842926', 'overview': "Two women, Nic and Jules, brought a son and daughter into the world through artificial insemination. When one of their children reaches age, both kids go behind their mothers' backs to meet with the donor. Life becomes so much more interesting when the father, two mothers and children start to become attached to each other.", 'genres': ['Comedy', 'Drama'], 'images': [{'coverType': 'poster', 'url': '/MediaCover/1714/poster.jpg', 'remoteUrl': 'https://image.tmdb.org/t/p/original/xQ5XqZc82dDCcGjxY7voRKjhaKQ.jpg'}, {'coverType': 'fanart', 'url': '/MediaCover/1714/fanart.jpg', 'remoteUrl': 'https://image.tmdb.org/t/p/original/kokPRmOdEmWZi3SR1dcdvsiq9lF.jpg'}], 'tags': [], 'originalLanguage': {'id': 1, 'name': 'English'}}, 'addMethod': 'manual', 'eventType': 'MovieAdded', 'instanceName': 'Radarr', 'applicationUrl': ''}
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:53,888 - handlers.py:99 - DEBUG - 🐛 Quality determination: Standard
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:53,888 - handlers.py:105 - INFO - 🌐 Received webhook event: movieadded
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:53,889 - handlers.py:600 - DEBUG - 🐛 Delaying 3s before checking hasFile for movie 'The Kids Are All Right'
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:56,901 - integrations.py:149 - DEBUG - ➡ Copied dummy file as fallback: /mnt/Bibliothèques/Films/The Kids Are All Right (2010) 39781 tt0842926/The Kids Are All Right (2010) (dummy).mp4
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:56,901 - integrations.py:156 - DEBUG - ➡ Created dummy file: /mnt/Bibliothèques/Films/The Kids Are All Right (2010) 39781 tt0842926/The Kids Are All Right (2010) (dummy).mp4
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:56,912 - handlers.py:643 - INFO - ➡ Created placeholder file for movie 'The Kids Are All Right'
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:56,912 - jellyfin_client.py:35 - DEBUG - 🐛 Built Jellyfin URL: https://jelly.domain.tld/Library/Media/Updated
placeholdarr  | 
placeholdarr  | 2025-10-25 05:38:56,943 - jellyfin_client.py:58 - INFO - ➡ Triggered scan for: /mnt/Bibliothèques/Films/The Kids Are All Right (2010) 39781 tt0842926
placeholdarr3
placeholdarr4

Quand on interroge les détails du média

placeholdarr5

Et le dossier correspondant dans la bibliothèque (je demande la création d’un .nfo aux arrs pour simplifier mon setup)

root@StreamBox:/mnt/Bibliothèques/Films# ls -lsh 'The Kids Are All Right (2010) 39781 tt0842926'
total 836K
428K -rw-rw-rw- 1 root root 428K Oct 25 07:38  fanart.jpg
4.0K -rw-r--r-- 1 root root 2.0K Oct 25 07:40  movie.nfo
216K -rw-rw-rw- 1 root root 216K Oct 25 07:38  poster.jpg
184K -rw-r--r-- 1 root root 184K Oct 25 07:38 'The Kids Are All Right (2010) (dummy).mp4'
4.0K -rw-r--r-- 1 root root 1019 Oct 25 07:33 'The Kids Are All Right (2010) (dummy).nfo'

Donc là j’ai bien mon film de listé dans Jellyfin mais c’est un fake.

Quand je lance la lecture, PlaceholdARR donne l’information à Radarr de télécharger le fichier.

placeholdarr  | INFO:     192.168.64.1:54436 - "POST /webhook HTTP/1.1" 200 OK
placeholdarr  | 2025-10-25 05:55:22,387 - handlers.py:65 - DEBUG - 🐛 Tautulli payload: {'event': 'playback.start', 'ItemId': 'c085f366-14ab-3680-d28b-d2f6d0219d69', 'UserId': 'xxx', 'Name': 'Tout va bien ! The Kids Are All Right', 'ItemType': 'Movie', 'SeriesName': '', 'SeasonNumber': '', 'EpisodeNumber': '', 'Provider_tmdb': '39781', 'Provider_tvdb': '', 'Provider_imdb': 'tt0842926', 'Year': '2010', 'NotificationType': 'PlaybackStart'}
placeholdarr  | 
placeholdarr  | 2025-10-25 05:55:22,388 - jellyfin_client.py:35 - DEBUG - 🐛 Built Jellyfin URL: https://jelly.domain.tld/Users/xxx/Items/c085f366-14ab-3680-d28b-d2f6d0219d69
placeholdarr  | 
placeholdarr  | 2025-10-25 05:55:22,534 - handlers.py:99 - DEBUG - 🐛 Quality determination: Standard
placeholdarr  | 
placeholdarr  | 2025-10-25 05:55:22,534 - handlers.py:105 - INFO - 🌐 Received webhook event: playback.start
placeholdarr  | 
placeholdarr  | 2025-10-25 05:55:22,534 - jellyfin_client.py:35 - DEBUG - 🐛 Built Jellyfin URL: https://jelly.domain.tld/Users/xxx/Items/c085f366-14ab-3680-d28b-d2f6d0219d69
placeholdarr  | 
placeholdarr  | 2025-10-25 05:55:22,700 - handlers.py:744 - DEBUG - 🐛 Processing playback for file path: /mnt/Bibliothèques/Films/The Kids Are All Right (2010) 39781 tt0842926/The Kids Are All Right (2010) Bluray-1080p.mkv

C’est là que c’est extra rapide avec mon setup Decypharr/AllDebrid, ça peut l’être autant je pense avec le streaming Usenet mais je n’ai pas testé.
Avec BitTorrent normal ou Usenet, l’attente ne doit pas être très longue non plus, sous condition de sources actives.

Sous Jellyfin j’ai un bogue qui me met que le média est impossible à lire et je dois refraichir pour que ça fonctionne (pas encore testé Plex mais il semble que ce ne soit pas le cas). Je découvre encore le projet et ses options et je pense que mon setup est perfectible.

Quoi qu’il en soit, j’ai bien mon film et peux le lire

placeholdarr7
placeholdarr8

Et côté fichiers

root@StreamBox:/mnt/Bibliothèques/Films# ls -lsh 'The Kids Are All Right (2010) 39781 tt0842926'
total 856K
428K -rw-rw-rw- 1 root root 428K Oct 25 07:38  fanart.jpg
8.0K -rw-r--r-- 1 root root 6.8K Oct 25 07:53  movie.nfo
4.0K -rw-rw-rw- 1 root root  730 Oct 25 07:52  movie.xml
216K -rw-rw-rw- 1 root root 216K Oct 25 07:38  poster.jpg
4.0K lrwxrwxrwx 1 root root  148 Oct 25 07:52 'The Kids Are All Right (2010) Bluray-1080p.mkv' -> /mnt/decypharr/alldebrid/__all__/The.Kids.Are.All.Right.2010.MULTi.1080p.BluRay.x264-FHD/The.Kids.Are.All.Right.2010.MULTi.1080p.BluRay.x264-FHD.mkv
8.0K -rw-rw-rw- 1 root root 4.7K Oct 25 07:53 'The Kids Are All Right (2010) Bluray-1080p.nfo'
184K -rw-r--r-- 1 root root 184K Oct 25 07:38 'The Kids Are All Right (2010) (dummy).mp4'
4.0K -rw-r--r-- 1 root root 2.0K Oct 25 07:53 'The Kids Are All Right (2010) (dummy).nfo'

Le faux film reste en place pour quand le vrai, ici lié à mon installation de Decypharr, sera supprimé dans 10 jours (selon ma config).

Alors dans les faits, ça ne me change rien vu que je ne stocke déjà plus rien en passant par Decypharr. Seulement cette solution peut être très intéressante pour se jouer des limites de stockage de telle ou telle solution tout comme pour pleinement profiter d’un tracker BitTorrent ou d’un indexeur Usenet sans abuser du système à tout télécharger « pour rien » à l’instant T ou à ne quasi rien télécharger/seeder dans le cas de Decypharr/RDT and co.

Passons à l’installation. C’est un 1er retex, sans doute ajustable et le projet étant jeune et en pleine évolution. Il propose un compose et un .env. Ce qu’il faut retenir c’est qu’il faut des volumes en chemins absolus, comme pour tous les setup avec Decypharr etc.
Les explications des options du .env sont ici. Et les fichiers « dummy » sont à prendre aussi dans le code, chez moi ils sont dans /mnt/Bibliothèques/.


Voici mon exemple de configuration :

services:
  placeholdarr:
    image: ghcr.io/theindiearmy/placeholdarr:queue_monitoring-latest
    container_name: placeholdarr
    env_file:
      - .env
    volumes:
      # Update these paths to match your actual placeholder library locations and dummy files
      # Mount your movie placeholder folder (MOVIE_LIBRARY_FOLDER)
      # IMPORTANT: For Plex/Tautulli compatibility, mount the host path to the SAME absolute path inside the container.
      - /mnt/Bibliothèques/:/mnt/Bibliothèques/
      # Example: - /mnt/plex/Movies/placeholders:/mnt/plex/Movies/placeholders
      - /mnt/Bibliothèques/Films:/mnt/Bibliothèques/Films
      # Mount your TV placeholder folder (TV_LIBRARY_FOLDER)
      - /mnt/Bibliothèques/Séries:/mnt/Bibliothèques/Séries
      # Mount your standard dummy file
      - /mnt/Bibliothèques/dummy.mp4:/mnt/Bibliothèques/dummy.mp4
      # Mount your "coming soon" dummy file (optional)
      - /mnt/Bibliothèques/coming_soon_dummy.mp4:/mnt/Bibliothèques/coming_soon_dummy.mp4
      - /home/aerya/docker/placeholdarr/.env:/app/.env
    ports:
      - 8000:8000
    restart: always
    deploy:
      replicas: 1
      restart_policy:
        condition: on-failure
    labels:
      - com.centurylinklabs.watchtower.enable=true

# Server Configuration
PLACEHOLDARR_HOST=0.0.0.0
PLACEHOLDARR_PORT=8000
PLACEHOLDARR_LOG_LEVEL=DEBUG # Options: DEBUG, INFO, WARNING, ERROR, CRITICAL

# Enable/Disable Media Servers
ENABLE_PLEX=false      # Set to true to enable Plex integration, false to disable
ENABLE_JELLYFIN=true   # Set to true to enable Jellyfin integration, false to disable
ENABLE_EMBY=false      # Set to true to enable Emby integration, false to disable

# Plex Configuration (required if ENABLE_PLEX=true)
PLEX_URL=
PLEX_TOKEN=
PLEX_MOVIE_SECTION_ID=1
PLEX_TV_SECTION_ID=2

# Jellyfin Configuration (required if ENABLE_JELLYFIN=true)
JELLYFIN_URL=https://jelly.domain.tld
JELLYFIN_TOKEN=fea9bxxx702e

# Emby Configuration (required if ENABLE_EMBY=true)
# Emby typically exposes its API under the /emby/ prefix (e.g., http://localhost:8096/emby)
EMBY_URL=
EMBY_TOKEN=

# Migration from Infinite To Placeholdarr
MIGRATION=False # Set to True to enable Migration

# Radarr Configuration
RADARR_URL=http://192.168.0.163:7878/api/v3
RADARR_API_KEY=faacxxx23a
RADARR_4K_URL=     # (optional - leave blank to disable 4K support)
RADARR_4K_API_KEY=

# Sonarr Configuration 
SONARR_URL=
SONARR_API_KEY=
SONARR_4K_URL=       # (optional - leave blank to disable 4K support)
SONARR_4K_API_KEY=

# Library Paths (IMPORTANT: See below for usage patterns)
MOVIE_LIBRARY_FOLDER=/mnt/Bibliothèques/Films      # Replace with your desired placeholder folder path on the host
TV_LIBRARY_FOLDER=/mnt/Bibliothèques/Séries            # Replace with your desired placeholder folder path on the host
MOVIE_LIBRARY_4K_FOLDER=                                     # Optional - replace or leave blank if not using 4K
TV_LIBRARY_4K_FOLDER=                                        # Optional - replace or leave blank if not using 4K

# Dummy file paths (replace with your dummy file locations on the host, matching your volume mounts)
DUMMY_FILE_PATH=/mnt/Bibliothèques/dummy.mp4
COMING_SOON_DUMMY_FILE_PATH=/mnt/Bibliothèques/coming_soon_dummy.mp4
PLACEHOLDER_STRATEGY=hardlink    # Options: hardlink, copy

# Queue Management
TV_PLAY_MODE=episode     # Options: episode, season, series
EPISODES_LOOKAHEAD=3     # Number of episodes to look ahead and download
MAX_MONITOR_TIME=120     # Maximum time to monitor for file in seconds
CHECK_INTERVAL=3         # How often to check queue status in seconds
TITLE_UPDATES=REQUEST        # Options: OFF, REQUEST, ALL (ALL is not recommended while feature is in development)
AVAILABLE_CLEANUP_DELAY=10

# Calendar-based status update settings
CALENDAR_LOOKAHEAD_DAYS=30           # How many days into the future to allow placeholders/"Coming Soon" (integer)
CALENDAR_SYNC_INTERVAL_HOURS=12      # How often to sync calendar and update statuses (hours, integer)
ENABLE_COMING_SOON_PLACEHOLDERS=true # Enable or disable "Coming Soon" placeholders (true/false)
PREFERRED_MOVIE_DATE_TYPE=inCinemas  # Which movie release date to use: inCinemas, digitalRelease, physicalRelease
ENABLE_COMING_SOON_COUNTDOWN=true    # Show countdown in "Coming Soon" status (true/false)
CALENDAR_PLACEHOLDER_MODE=episode    # Options: episode, season. 'episode' = add placeholders as each episode enters lookahead window; 'season' = add all known episodes of a season when any enters window

# Include Specials
INCLUDE_SPECIALS=false

# --- Advanced Webhook Check Options ---
# Set to 'true' to skip all webhook checks and force calendar sync to start (not recommended for most users)
PLACEHOLDARR_SKIP_WEBHOOK_CHECK=false

# Optionally override the webhook URL used for *arr webhook checks (useful for reverse proxies, custom domains, or remote networks)
# Example: PLACEHOLDARR_WEBHOOK_URL=https://my.public.domain/webhook
# Leave blank to use automatic detection
PLACEHOLDARR_WEBHOOK_URL=

Pour moi PlaceholdARR est vraiment une solution d’avenir si on appartient à une bonne communauté Usenet ou BitTorrent. Plus d’abus de DL inutile voire non seedé, plus d’abus de stockage sauf pour de rares exceptions (médias de niche).

Gros projet à suivre !!! Et dans la journée je testerai avec Plex.

Loading

Husqvarna va sortir 4 nouveaux robots-tondeuses dopés à l’IA en 2026 !

12 décembre 2025 à 11:13
Husqvarna Automower NERA

Printemps 2026 : la guerre des robots-tondeuses aura bel et bien lieu. Husqvarna a déjà composé ses rangs avec quatre modèles milieu et haut-de-gamme. Ces champions, baptisés Automower® NERA (405VE, 410VE, 430V, 450V), montent d’un cran les exigences de sécurité, de fonctionnalités et de précision.

Il y a peu, nous avons testé l’Automower NERA 405XE. Ce modèle datait de 2023, et appartenait à la première gamme de robots-tondeuses sans fil Husqvarna adressée à des particuliers. Nous avons salué la prestation d’un appareil sérieux, dont nous avons cependant critiqué quelques lacunes en matière de fonctionnalités et de navigation, laquelle pouvait observer quelques oublis, comparé aux fers de lance de Mammotion ou de Segway. En somme, le leader mondial d’aménagement des jardins (3,5 millions de clients dans le monde) doit désormais faire face à une féroce concurrence chinoise et américaine.

Husqvarna à l'hôtel Marignan
Nous étions aux premières loges pour la présentation à Paris ce 10 décembre 2025 sur le toit de l’hôtel Marignan ! ©Meilleure-Innovation

Cependant, la marque suédoise, créé en 1689, peut compter sur ses trente ans d’expertise en robots-tondeuses domestiques et professionnelles (tous fabriqués en Angleterre) pour rebondir et préparer une riposte alignée avec les exigences d’un marché en plein essor : terrains vastes et complexes, enjeux écologiques, expérience utilisateur affinée, rapport qualité/prix agressif chez d’autres acteurs montants. Voici, en quelques lignes, la réponse que prépare Husqvarna pour rester dans le top !

Les premières caractéristiques techniques disponibles

Modèle AutomowerSurface max conseillée Pente maxHauteur de coupeMotifs de tonte (systématique)EdgeCutPrix TTC
Automower 405VE900 m² (al : 600 m²)30 %20–55 mmBandes, damiers, trianglesOui2 649 €
Automower 410VE1 500 m² (al : 1 000 m²)30 %20–55 mmBandes, damiers, trianglesOui3 099 €
Automower 430V4 800 m² (al : 3 200 m²)50 %20–60 mmBandes, damiers, trianglesNon4 249 €
Automower 450V7 500 m² (al : 5 000 m²)50 %20–60 mmBandes, damiers, trianglesNon5 449 €
La surface maximum conseillée convient à la tonte systématique. Les valeurs sont réduites pour la tonte aléatoire (entre parenthèses).

Vous reprendrez bien un petit peu d’IA ?

Le paradoxe actuel des robots du secteur électro-ménager est que leur automatisation nécessite souvent une intervention attentive de l’utilisateur qui doit effectuer une configuration avancée pour obtenir une tonte personnalisée, sans erreurs. Husqvarna cherche à alléger la tâche dévolue à l’humain en dotant chaque nouveau robot une technologie de vision IA. Ce regard artificiel a pour mission d’aider les Automowers à percevoir leur environnement en temps réel et d’adapter leur comportement en conséquence. Ils peuvent ainsi éviter la plupart des obstacles que l’on trouve sur les terrains domestiques : jouets, enfants, animaux, tuyau d’arrosage, etc.

©Husqvarna insiste beaucoup sur la sécurité afin de garantir une véritable autonomie à ses utilisateurs.

La vision assistée par intelligence artificielle est complétée par une caméra infrarouge, laquelle pourrait réhabiliter la tonte nocturne. L’appareil saura faire la différence entre un être vivant (hérisson, couleuvre, oiseau, chat, souris, etc.) et un obstacle inanimé. Il adaptera ainsi sa trajectoire, en laissant une marge de 60 cm pour les animaux qu’il croise, et entre 10 et 15 cm pour les objets.

Nota Bene : pour garantir votre confidentialité, les images capturées sont traitées uniquement dans la tondeuse. Elles n’ont donc jamais besoin d’être stockées ou partagées. Seules certaines données transmises seront hébergées en Europe, conformément à la législation en vigueur. 

La technologie EPOS pour les flemmards minutieux

Auteur du tout premier robot sans fil périmétrique en 2020 avec l’Automower® 550 EPOS, Husqvarna veut réaffirmer son statut de pionnier dans la tonte sans fil. C’est pourquoi son dispositif de vision IA sera associé à la technologie sans fil Husqvarna EPOS™, afin d’assurer des cycles de tonte sans interruption, y compris dans les zones où la réception satellite est limitée. Mieux encore : la station de référence ne sera plus obligatoire pour activer un robot-tondeuse Automower !

En 2023, chez Husqvarna, nous réalisions 80% d’installations filaires de robots, contre 20% sans fil. Aujourd’hui, nous sommes proches des 70% d’installations sans fil et nous prévoyons que ce taux atteindra 80% en 2026.

Maxime Tolila, Chef de marché Automower®.

Une fonctionnalité de tonte aléatoire suffira pour un rendu homogène, mais vous pourrez également demander une esthétique plus aboutie avec des motifs tels que des bandes, des damiers ou des triangles. Bien sûr, les cartes seront modifiables à loisir depuis l’application Automower® Connect (iOS et Android) en ajoutant des zones d’exclusion temporaires ou définitives.

Automower NERA sur grand terrain (motifs quadrillés)
Pour acquérir la maison et les 7500 m2 de terrain, il y aura un supplément… ©Husqvarna

Cela dit, “sans station de référence” ne veut pas dire “sans contraintes”. Husqvarna précise que l’EPOS via le Cloud implique une connexion internet constante (via 4G/Wi-Fi selon la configuration) pour fonctionner correctement. Et surtout, la précision annoncée n’est pas identique : Husqvarna indique typiquement < 5 cm via Cloud, contre < 2 cm avec une station de référence locale — et recommande cette solution (ou un câble périphérique) si l’on recherche une finition de bordure EdgeCut la plus nette possible.

Surfaces, pentes et usages : quel modèle pour quel jardin ?

Husqvarna segmente très clairement sa gamme 2026 : deux modèles pour les jardins moyens, et deux pour les grandes propriétés. Les capacités annoncées ci-dessous sont données en tonte systématique (c’est important, car la capacité peut être plus faible en tonte aléatoire).

Automower 405VE et 410VE : jardins jusqu’à 900 / 1 500 m²

Pensés pour les terrains “classiques” de taille moyenne, les 405VE et 410VE misent sur une expérience plus confortable au quotidien : en plus de la vision IA pour éviter les obstacles, ils intègrent la fonction EdgeCut, utile pour réduire le temps passé à reprendre les bordures au coupe-bordures. Ils acceptent des pentes jusqu’à 30 %, avec une hauteur de coupe réglable de 20 à 55 mm, et une connectivité complète (4G, Wi-Fi, Bluetooth).

huqvarna Automower 410VE vu de près
Pour celui-ci, on retrouve la même DA que pour l’Automower NERA 405XE, mais en blanc cassé ©Meilleure-Innovation

Nota Bene : en tonte aléatoire, la capacité annoncée baisse (ex. valeurs parfois listées par des revendeurs), ce qui peut compter si l’on vise une tonte quotidienne sur une grande surface.

Automower 430V et 450V : grands terrains jusqu’à 4 800 / 7 500 m²

Les 430V et 450V montent clairement d’un cran : on vise ici des jardins plus vastes, parfois plus exigeants, avec des pentes annoncées jusqu’à 50 % et une hauteur de coupe de 20 à 60 mm. On retrouve la vision IA (dont vision nocturne infrarouge), la gestion avancée des zones, et la connectivité 4G / Wi-Fi / Bluetooth.

Automower 430V et 450V dans l'herbe au repos
Un modèle aplati avec une meilleure largeur de coupe ! ©Husqvarna

Sur le papier, ce sont les modèles à privilégier dès que la surface grimpe, ou dès qu’on veut une marge de sécurité sur la capacité de tonte.

Rendez-vous en février 2026 : Husqvarna prévoit la disponibilité des nouveaux Automower 405VE, 410VE, 430V et 450V, avec une arrivée en magasin attendue aux tarifs annoncés. D’ici là, on gardera un œil sur les premières prises en main, notamment sur la vision IA (évitage réel des obstacles) et sur le comportement EPOS via Cloud selon la couverture réseau du jardin !

❌