Vue lecture

Votre cerveau compresse les images 40 fois mieux qu'un algo

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

  •  

Guide complet : Lire vos films et séries depuis un NAS UGREEN via l’application Théâtre ou en DLNA

Le NAS UGREEN ne se limite pas au stockage de fichiers : c’est aussi un excellent serveur multimédia pour centraliser et lire vos films, séries ou vidéos personnelles. Grâce à son système Ugos, vous pouvez transformer votre NAS en véritable centre de divertissement accessible depuis votre PC, votre smartphone ou votre box Android.

Dans cet article, on va voir deux méthodes pour accéder à vos vidéos :

  1. Avec l’application Théâtre de UGREEN, qui propose une interface moderne et une gestion intelligente de votre vidéothèque.
  2. En DLNA, un protocole universel reconnu par la plupart des lecteurs multimédias comme VLC ou Nova Player.

Ces deux approches sont complémentaires : Théâtre pour une expérience riche et intuitive, DLNA pour un accès universel et rapide depuis n’importe quel appareil.

Pourquoi centraliser ses vidéos sur un NAS UGREEN ?

Un NAS UGREEN est bien plus qu’un simple disque réseau.
Il vous permet de :

  • Regrouper tous vos fichiers multimédias en un seul endroit.
  • Accéder à vos films et séries depuis tous vos appareils connectés.
  • Éviter les transferts de fichiers encombrants.
  • Profiter d’une lecture fluide et instantanée, sans configuration complexe.

C’est la solution idéale pour ceux qui veulent se constituer une médiathèque personnelle accessible à la maison, que ce soit depuis le salon, un ordinateur ou un smartphone.

UGREEN propose une gamme variée de modèles de NAS, adaptés à des usages — de la simple lecture de vidéos HD à la diffusion 4K ou ultra-performante. Voici quelques exemples marquants :

  • UGREEN NAS DXP2800 : modèle 2 baies, compact et accessible, souvent conseillé pour un usage domestique de base.
  • UGREEN DXP4800 Plus : modèle 4 baies plus performant, avec des connectiques haut débit et une capacité suffisante pour une médiathèque conséquente.
  • UGREEN DXP6800 Pro : version 6 baies, idéale pour un stockage important ou des usages mixtes (vidéo + backups).
  • UGREEN DXP8800 Plus : un modèle 8 baies pour les gros volumes, parfait pour les passionnés ou petits serveurs familiaux.
  • UGREEN DH4300 Plus : un modèle d’entrée de gamme 4 baies, plus économique, déjà suffisant pour une médiathèque simple.
  • UGREEN DH2300 Plus : un modèle d’entrée de gamme 2 baies, plus économique, déjà suffisant pour une médiathèque simple.

Cette gamme (2 à 8 baies) permet de choisir un NAS UGREEN adapté à vos besoins, avec la marge nécessaire pour faire évoluer votre stockage au fil du temps. Les modèles les plus puissants sont particulièrement pertinents si vous prévoyez de diffuser en 4K, d’utiliser plusieurs flux simultanément ou d’ajouter des fonctions serveur en parallèle.

Préparer vos dossiers multimédias sur le NAS

Quelque soit la méthode que vous allez privilégier, pour consommer vos médias, vous devez prendre un instant pour bien organiser vos fichiers.

Depuis le gestionnaire de fichiers Ugos, créez un dossier principal “Vidéos” contenant vos sous-dossiers “Films”, “Séries”, “Vidéos personnelles”, …

Type de contenuNom du dossierExemple de chemin
Films/Vidéos/Films/Vidéos/Films
Séries/Vidéos/Séries/Vidéos/Séries
Vidéos personnelles/Vidéos/Vidéos perso/Vidéos/Vidéos perso

Voici pas à pas comment créer ce dossier partagé, dans Fichiers puis Dossier partagé, cliquez sur Créer un dossier partagé

J’appelle mon dossier partagé principal « Vidéos« , mais adaptez le comme vous le voulez.

Laissez les paramètres par défaut si vous êtes le seul utilisateur du NAS, sinon pensez à ajouter d’autres membres de votre famille pour partager votre médiathèque.

Le partage étant créé, rentrez dedans en double-cliquant dessus.

Créez maintenant des dossiers pour ranger vos vidéos par types comme Films, Séries, Concerts, Reportages, Vidéos perso, …

Transférez ensuite vos fichiers vidéos depuis votre PC ou disque externe.

Vous pouvez téléverser des fichiers ou des dossiers complets.

Pour notre exemple je dépose un film au format MKV.

Méthode 1 : Lire vos vidéos avec l’application Théâtre de UGREEN

Présentation de l’application Théâtre

L’application Théâtre (ou Theater en anglais) est développée par UGREEN pour simplifier la gestion et la lecture de vos vidéos.
Elle analyse automatiquement vos fichiers, télécharge les affiches et les métadonnées, et organise tout dans une interface élégante et intuitive.

Disponible sur Ugos (le système du NAS UGREEN), mais aussi sur PC, smartphones et box Android, elle offre une expérience unifiée sur tous vos appareils.

Installer et configurer Théâtre sur le NAS UGREEN

  1. Connectez-vous à l’interface Ugos depuis votre navigateur ou l’application Ugos.
  2. Ouvrez le portail d’applications UGREEN (App Center).
  3. Recherchez “Théâtre” et cliquez sur Installer.
  1. Sélectionnez le volume d’installation puis Installer. De base vous avez certainement créer 1 seul volume.
  1. Une fois installée, ouvrez l’application.
  1. Une fois dans l’application devez créer des Médiathèques. Chaque médiathèque va pointer sur l’un des dossiers créé précédemment. Au démarrage de l’application vous êtes directement dans le menu création de la première Médiathèque. Commençons par créer la Médiathèque Films. Nommez la médiathèque et cliquez sue Ajouter un dossier.

Allez simplement pointer vers le dossier qui contient vos films.

Puis Nouvelle médiathèque

Une fois la première médiathèque créée, vous pouvez créer d’autres médiathèque pour vos séries, montages vidéos, …. Pour cela cliquez sur la petite roue crantée.

je la nomme ici Séries et je pointe vers mon dossier Vidéos / Séries.

Les 2 médiathèques Films et Séries sont maintenant créées.

Aussitôt les Médiathèques créées, Théâtre se charge d’analyser vos fichiers et de l’enrichir automatiquement avec les affiches et les informations divers (titre, année, acteurs et actrices , réalisateurs, synopsis…). Inutile de déployer des Plex et pleins d’outils tiers, l’application est fait pour cela.

L’interface est claire et bien pensée : vous naviguez dans vos films comme sur Netflix, mais avec vos propres fichiers. Je lance mon films en exemple directement depuis l’application UGREEN installée sur le PC, mais c’est le même principe avec l’application UGREEN installée sur la Box ou le smartphone.

Vous pouvez constater la richesse de l’interface UGOS !

Lire vos vidéos sur PC, Box ou smartphone

Comme je viens de l’aborder l’un des gros avantages de Théâtre est sa compatibilité multi-appareils.
Vous pouvez accéder à votre vidéothèque depuis :

  • Votre PC : via l’application Ugreen pour Windows.
  • Votre smartphone ou tablette : application Ugreen sur Android et iOS.
  • Votre Box Android (ex. Freebox Pop) : en installant l’application Ugreen depuis le Google Play Store.

Il suffit de cliquer sur un film ou une série pour lancer la lecture, avec reprise automatique là où vous vous êtes arrêté.
C’est propre, fluide, et surtout sans aucune configuration technique.

Votre médiathèque est disponible de n’importe où, que vous soyez chez vous ou en déplacement. Contrairement à Synology ou vous avez une application par usage, l’application UGOS vous permet d’avoir sous la main vos films, vos photos, vos musiques, vos fichiers.

Méthode 2 : Lire vos vidéos en DLNA pour un accès universel

Qu’est-ce que le DLNA ?

Le DLNA (Digital Living Network Alliance) est un protocole standard qui permet à n’importe quel appareil compatible de voir et lire les fichiers multimédias partagés sur votre réseau local.

L’avantage :

  • Aucune configuration de partage complexe.
  • Compatible avec une multitude d’applications et d’appareils (VLC, Nova Player, TV connectées, Freebox, etc.).
  • Accès rapide, “anonyme” et sûr, limité à votre réseau local.
  • Accessible depuis des appareils n’étant pas sous iOS ou Android et donc sans possibilité d’installer l’application UGREEN

En clair, le DLNA rend votre NAS UGREEN visible automatiquement sur le réseau, comme un “serveur multimédia” accessible depuis vos appareils domestiques.

Activer le service DLNA sur Ugos

  1. Ouvrez l’interface Ugos.
  2. Allez dans Panneau de configuration > Service de fichiers.
  1. Dans Paramètres avancés cochez Activer le service de découverte DLNA et cliquez sur Appliquer.
  1. Depuis le Centre d’applications, installez l’application DLNA. Cette application est indispensable, à l’étape précédente vous avez autorisez le service, l’application sert elle à paramétrer ce service. Rassurez-vous c’est très simple et rapide.
  1. Ouvrez l’application DLNA et cliquez sur Ouvrir
  1. Cliquez sur J’ai compris
  1. Activez le service DLNA puis Ajouter
  1. Sélectionnez les dossiers à « diffuser » sur votre réseau en DLNA / uPNP
  1. Et c’est terminé ! Facile non ?

Votre NAS devient maintenant visible comme “Serveur multimédia UGREEN” depuis vos lecteurs DLNA.

Lire vos vidéos DLNA sur vos appareils

Depuis une Freebox Pop ou autre box Android

  1. Ouvrez le Play Store et installez VLC, Nova Player
  2. Lancez l’application et allez dans Réseau local / UPnP / DLNA.
  1. Voici comment procéder depuis Nova Player.
  1. Voici comment procéder depuis VLC.

VLC et Nova Player détectent automatiquement les formats compatibles et gèrent même les sous-titres intégrés.

Depuis un PC ou un smartphone

  • Sur PC : ouvrez VLC, puis “Réseau local → Universal Plug’n’Play (UPnP)”.
  • Sur mobile : même procédure dans VLC Mobile ou Nova Player.

L’accès est instantané, sans identifiant ni configuration réseau.
C’est une solution ultra simple et universelle pour profiter de vos vidéos sans passer par l’application Ugreen.

Théâtre ou DLNA : que choisir ?

CritèreApplication ThéâtreDLNA
InterfaceModerne et intuitiveBasique (explorateur de dossiers)
Indexation automatiqueOui (jaquettes, infos, tri)Non
CompatibilitéApp Ugreen (PC, mobile, box)VLC, Nova Player, TV connectées
ConfigurationNécessite ajout des dossiersNécessite ajout des dossiers
SécuritéAccès authentifié local et distantAccès local sans mot de passe
Utilisation recommandéePour une expérience “Netflix maison”Pour un accès rapide et universel

En résumé :

  • Utilisez Théâtre pour une expérience visuelle complète et confortable.
  • Utilisez DLNA pour une lecture universelle depuis n’importe quel appareil compatible.

Conseils pratiques pour une lecture fluide

  • Connexion réseau : privilégiez une connexion Ethernet ou Wi-Fi 5 GHz.
  • Formats vidéo : Théâtre et DLNA gèrent la plupart des formats (MP4, MKV, AVI), mais vérifiez côté lecteur.
  • Mise à jour : gardez Ugos et les applis Ugreen à jour pour éviter les erreurs d’accès.
  • Organisation : noms de fichiers courts et dossiers clairs = meilleure détection DLNA.

FAQ : tout savoir sur la lecture multimédia avec un NAS UGREEN

1. Quelle est la différence entre Théâtre et DLNA ?
Théâtre offre une gestion avancée de votre vidéothèque avec jaquettes et tri automatique. DLNA, lui, est un protocole simple qui permet à tout appareil compatible d’accéder à vos vidéos sur le réseau local.

2. Faut-il choisir entre Théâtre et DLNA ?
Non. Vous pouvez utiliser les deux : Théâtre pour sa belle interface, DLNA pour sa compatibilité universelle.

3. Puis-je lire mes vidéos sur une Freebox Pop ?
Oui, via l’application Ugreen, VLC ou Nova Player disponibles sur le Play Store de la Freebox Pop.

4. Mes vidéos n’apparaissent pas en DLNA, que faire ?
Vérifiez que le service DLNA est activé sur Ugos et que vos dossiers vidéos sont inclus dans les partages.

5. Le DLNA est-il sécurisé ?
Oui, il reste limité à votre réseau local. Aucun fichier n’est accessible depuis Internet.

Cet article original intitulé Guide complet : Lire vos films et séries depuis un NAS UGREEN via l’application Théâtre ou en DLNA a été publié la première sur SysKB.

  •  

Snapchat démocratise son premier outil d’IA générative d’images

L’application Snapchat ouvre désormais son Imagine Lens, premier outil d’intelligence artificielle générative permettant de créer des images à partir d’instructions textuelles. Initialement réservé aux abonnés payants, ce filtre interactif devient accessible gratuitement à tous les utilisateurs américains. Une stratégie claire de Snap pour rester compétitif face à la montée en puissance de Meta et OpenAI, ... Lire plus

L'article Snapchat démocratise son premier outil d’IA générative d’images est apparu en premier sur Fredzone.
  •  

Gimp 3.0.6

GIMP 3.0.6 est est un éditeur d'images et de photos multi-plateforme. C'est un très bonne alternative (gratuite) au coûteux Adobe Photoshop.

The post Gimp 3.0.6 first appeared on Bhmag.
  •  

À cause de l'IA, vous ne pourrez bientôt plus vous fier à vos souvenirs

Cette année, avec Nano Banana, ChatGPT, Sora, Seedream et j’en passe, on est quand même passé de “Je cherche une image sur le net” à “Tiens, et si je demandais à Google (ou un autre) de créer l’image que je cherche…”. Comme ça, on ne perd plus de temps à en regarder plein pour trouver la meilleure, et surtout on ne se pose plus la question de est-ce que c’est une image sous copyright ? Ou une image mise en ligne sur un site Creative Commons dont la licence libre sera retirée dans quelques années par un cabinet d’avocat véreux spécialisé dans le copyright trolling… et qui viendra ensuite vous réclamer du pognon .

Et tout ce délire de génération d’images ne risque pas de s’arranger, notamment avec Nano Banana (c’est le petit nom de Gemini 2.5 Flash Image, le modèle de génération d’images de Google) que Google vient d’intégrer dans certains de ses services. En effet, très bientôt vous allez pouvoir modifier, remixer, transformer des images directement depuis la recherche Google (AI Mode), Lens, ou directement vos photos !

Vous prenez une photo avec Lens, ensuite, hop, vous ajoutez un petit prompt texte, et l’IA transformera l’image selon vos désirs. Vous pouvez aussi chercher un truc dans Google Search, puis modifier visuellement le résultat à la volée si ça vous amuse.

Vous allez par exemple chercher un canapé bleu marine sur Google Images, tomber sur la photo de vos rêves sauf que le canapé est rouge brique et hop, l’application le passera en bleu marine directement dans les résultats de recherche. Vous pouvez même mixer deux images pour créer quelque chose de nouveau…

C’est chouette techniquement mais philosophiquement, c’est un délire car la frontière entre le réel et le généré va devenir encore plus floue. On va très vite perdre la notion de ce qui existe vraiment car chaque image pourra être un remix à la demande et au final personne ne saura plus ce qui vient d’un vrai appareil photo ou d’un algo.

C’est une nouvelle réalité qui arrive, où le faux et le vrai se mélangent, faisant disparaitre nos repères.

Au niveau de Google Photos, c’est encore plus inquiétant car on va pouvoir fusionner des images perso, créer des collages, ajouter des éléments de certaines photos dans d’autres photos…etc. On va donc pouvoir se créer des souvenirs qui n’ont jamais existé. Votre gamin n’était pas là pour la photo de famille ? Hop, on le rajoute. Un coucher de soleil moyen-bof sur une photo de vacances ? Hop, on le rend épique.

Nos enfants vont donc grandir avec des albums photo mi-réels mi-générés par IA et au bout de quelques années, plus personne ne se souviendra de si c’était vrai ou pas.

Bref, comme je le disais, technologiquement, c’est impressionnant mais on se demande quand même où se trouve la limite entre retouche créative et falsification de notre mémoire ?

J’en sais quelque chose, la mémoire humaine est déjà très fragile. Elle se réécrit à chaque souvenir et même à chaque évocation d’un souvenir…. Alors si en plus on lui file des photos modifiées pour coller à une réalité qu’on fantasme, j’imagine qu’on va tous finir par croire à des événements qui n’ont jamais eu lieu, surtout si ce sont des modifications subtiles, crédibles.

Bref, ces nouveautés liées à Nano Banana sont déployées uniquement aux États-Unis et en Inde pour le moment, ce qui vous laisse un peu de temps pour réfléchir à tout ça et vous préparer à sauter ou pas dans ce délire de réécriture de vos propres souvenirs.

A vous de voir !

Source

  •  

Caesium - Un outil multi-facettes pour compresser vos images

Entre screenshots de bugs, memes de geeks et photos de vacances, on échange des tonnes d’images chaque jour, et à cause de nous, les data centers chauffent comme des radiateurs. Alors à chaque fois que vous compressez une image avant de l’envoyer, on peut se dire qu’on participe “un petit peu” à sauver la planète, non ?

C’est pour ça qu’aujourd’hui, je vous présente Caesium, un petit logiciel open source développé par @Lymphatus qui transforme vos images obèses en versions ultra légères, sans que personne ne remarque la différence. L’outil nous promet dans certains cas, des compressions allant jusqu’à 90% avec une qualité visuelle quasiment identique. Et le plus beau dans tout ça, c’est qu’on n’a même pas besoin d’envoyer nos photos à un GAFAM qui fera le boulot.

Tout d’abord, le développeur Caesium est en train de réécrire toute la partie compression (libcaesium) en Rust au lieu du C++ traditionnel et c’est intéressant, parce que Rust fait partie du trio de tête avec C et C++ en termes de performance énergétique, tout en apportant une sécurité mémoire supérieure. Et quand on sait que Caesium traite potentiellement des millions d’images par jour, l’amélioration de la sécurité et de la maintenance est cruciale.

De plus, une image compressée à 90% ne réduit pas seulement sa taille de stockage. D’après les analyses de compression WebP , elle peut diviser jusqu’à 6 fois la consommation énergétique nécessaire à son transfert sur le réseau, avec une réduction moyenne par 2 ou 3 pour les compressions qui conservent le même niveau de qualité. Multipliez ça par les milliards d’images échangées chaque jour, et vous comprenez pourquoi chaque compression compte.

Le truc génial avec Caesium, c’est qu’il existe sous trois formes. La version desktop classique pour Windows/Mac/Linux qui vous permet de traiter vos images en masse, prévisualisation en temps réel comprise.

La version ligne de commande CaesiumCLT pour les barbus qui veulent automatiser leurs compressions dans leurs scripts.

Et la petite dernière, la version web caesium.app qui tourne directement dans votre navigateur. Attention quand même, cette dernière limite à 10 images avec une taille maximale par fichier de 20 MB, mais pour un usage ponctuel, c’est parfait.

En plus, comme je vous le disais, Caesium fait tout en local. Vos photos restent chez vous, y’a pas de compte à créer, pas de limite mensuelle, pas de tracking. C’est efficace et moins cher que gratuit ^^.

Pour l’installer, c’est simple comme bonjour. Sur Mac ou Linux, un petit brew install caesiumclt pour la version ligne de commande, ou téléchargez directement l’installeur sur le site officiel pour la version graphique toute moche. Windows a droit à une version portable, pratique pour l’avoir sur une clé USB. Et si vous voulez juste tester, direction caesium.app dans votre navigateur.

L’utilisation reste ultra intuitive. Vous glissez vos images, vous réglez la qualité (80% par défaut, largement suffisant pour 99% des cas), et hop, Caesium optimise !

Et pour l’outil en ligne de commande, vous pouvez faire de la compression sans perte comme ceci :

# Compresser avec préservation des métadonnées
caesiumclt --lossless -e --keep-dates -o output/ image.jpg

Avec perte comme ceci :

# Compresser plusieurs images avec une qualité spécifique
caesiumclt -q 75 -o output/ image1.jpg image2.png image3.webp

# Compresser avec un suffixe pour éviter d'écraser les originaux
caesiumclt -q 85 --suffix _compressed --same-folder-as-input image.jpg

# Compresser avec un réglage de qualité
caesiumclt -q 80 -o output/ image.jpg

En convertissant les formats comme ceci :

# Convertir les images au format WebP avec réglage de qualité
caesiumclt -q 85 --format webp -o output/ Pictures/*.jpg

Ou en redimensionnant les images :

# Redimensionner à une largeur spécifique (en conservant le ratio d'aspect)
caesiumclt --lossless --width 1920 -o output/ image.jpg

# Redimensionner à une hauteur spécifique (en conservant le ratio d'aspect)
caesiumclt -q 90 --height 1080 -o output/ image.jpg

Le logiciel supporte les formats JPG, PNG et WebP et d’ailleurs en passant, petit conseil… convertissez systématiquement vos PNG en WebP car le WebP offre 30 à 50% de compression supplémentaire par rapport au PNG tout en gardant la transparence. Et comme 95% des navigateurs le supportent maintenant, vous n’avez plus d’excuse !

Bref, Caesium c’est un super outil que vous devez absolument tester. Comme ça, la prochaine fois que vous voudrez envoyer une capture d’écran de 5 MB par mail, pensez à Caesium et votre connexion Internet vous remerciera, ainsi que la planète un petit peu.

Et merci à Ghost5477 qui m’a fait découvrir cette pépite !

  •  

RGB Mini-LED : La révolution de l’affichage qui veut détrôner l’OLED

On pensait que l’OLED était le graal des téléviseurs, mais une nouvelle technologie arrive pour rebattre les cartes : le RGB Mini LED. Dévoilée par Hisense lors des salons CES et IFA, cette innovation promet une luminosité record, une colorimétrie jamais vue et des téléviseurs plus fins et plus économes en énergie. De quoi changer durablement le marché des écrans dès 2025.

Qu’est-ce que le rétroéclairage LCD et pourquoi le Mini LED a marqué une évolution ?

Contrairement aux téléviseurs OLED qui produisent leur propre lumière pixel par pixel, les écrans LCD nécessitent un rétroéclairage. Sans lui, la dalle LCD resterait noire.

Le rétroéclairage LCD classique

Les téléviseurs LCD ne produisent pas de lumière par eux-mêmes, contrairement aux OLED. Ils ont donc besoin d’un rétroéclairage placé derrière ou sur les côtés de la dalle pour afficher une image. Ce rétroéclairage est composé de LEDs blanches qui diffusent une lumière uniforme à travers plusieurs filtres pour créer les couleurs visibles.

Deux grandes méthodes de rétroéclairage

  • Edge LED (LED sur les bords) : les LEDs sont placées uniquement sur les côtés de l’écran. La lumière est ensuite diffusée sur toute la dalle à l’aide de plaques optiques.
    • Avantage : fabrication moins coûteuse, écrans plus fins.
    • Inconvénient : luminosité moins homogène, fuites de lumière fréquentes.
  • Direct LED (ou Direct Dimming) : les LEDs sont installées directement derrière la dalle LCD.
    • Avantage : meilleure répartition de la lumière, gestion possible par zones.
    • Inconvénient : téléviseurs plus épais, noirs encore imparfaits.

Le principe du rétroéclairage par zones

Avec le Direct LED, les constructeurs ont introduit le local dimming, c’est-à-dire un rétroéclairage par zones indépendantes. Cela permet d’éteindre une partie des LEDs dans les zones sombres de l’image et de laisser les autres allumées dans les zones lumineuses.
Résultat : un contraste plus élevé qu’avec un rétroéclairage uniforme. Mais comme les zones restent relativement larges, on observe souvent un phénomène de halo lumineux (blooming) autour des objets clairs sur fond noir.

Limites de ce système

  • Les noirs ne sont jamais totalement profonds, car une LED allumée derrière la dalle laisse passer un peu de lumière.
  • Les angles de vision sont limités : les couleurs et la luminosité se dégradent lorsqu’on n’est pas en face de l’écran.
  • La colorimétrie dépend fortement de filtres et de films optiques qui transforment la lumière blanche en rouge, vert et bleu, ce qui entraîne une perte de précision et de luminosité.

En résumé, le rétroéclairage LCD classique a permis la démocratisation des grands téléviseurs abordables, mais il reste limité dès qu’il s’agit de rivaliser avec des technologies plus avancées comme l’OLED ou, plus récemment, le Mini LED.

L’arrivée du Mini LED (2018)

En 2018, le Mini LED a marqué une véritable rupture dans le domaine du rétroéclairage LCD. Il ne s’agit pas d’une nouvelle technologie d’écran à proprement parler, mais d’une évolution majeure du rétroéclairage, qui améliore considérablement les performances des téléviseurs LCD traditionnels.

Des LEDs beaucoup plus petites et plus nombreuses

La principale différence vient de la taille des diodes. Les Mini LEDs mesurent entre 100 et 200 micromètres, soit bien plus petites que les LEDs classiques. Cette miniaturisation permet d’en placer des milliers derrière une dalle, contre seulement quelques centaines auparavant.
Résultat : le téléviseur peut contrôler la lumière de manière beaucoup plus fine et précise.

Une gestion plus granulaire des zones de rétroéclairage

Avec les anciennes générations de LED, le rétroéclairage fonctionnait par grandes zones, parfois limitées à quelques dizaines. Cela entraînait souvent un problème de blooming (halo lumineux autour des objets clairs sur fond sombre).
Avec le Mini LED, on parle désormais de plusieurs centaines, voire milliers de zones de contrôle. Chaque zone peut être allumée ou éteinte indépendamment, ce qui améliore nettement la qualité d’image, notamment dans les scènes sombres ou à fort contraste.

Des noirs plus profonds et un contraste renforcé

Grâce à ce contrôle par zones plus précis, les téléviseurs Mini LED offrent des noirs plus profonds que les LCD classiques. Bien sûr, ils ne rivalisent pas encore totalement avec l’OLED (où chaque pixel peut s’éteindre individuellement), mais ils s’en rapprochent nettement tout en conservant une luminosité supérieure.
Le contraste global est donc beaucoup plus élevé, un point essentiel pour profiter des contenus HDR.

Une meilleure compatibilité avec le HDR

Le HDR (High Dynamic Range) repose sur deux éléments : un fort contraste et une luminosité maximale élevée. Les Mini LEDs, plus nombreuses et plus puissantes, permettent d’atteindre des pics lumineux impressionnants (jusqu’à 2000 nits sur certains modèles).
Associé à un meilleur contrôle des zones sombres, cela rend les images beaucoup plus réalistes, avec des détails visibles aussi bien dans les zones claires que dans les zones d’ombre.

Mais une limite persistante : la lumière bleue initiale

Malgré tous ces progrès, les Mini LED conservent une caractéristique fondamentale : elles émettent une lumière initialement bleue.
Pour obtenir une image en couleur, cette lumière doit passer par des filtres et des quantum dots (nanocristaux qui transforment la lumière bleue en rouge ou en vert).
Ce processus fonctionne bien, mais il absorbe une partie de la luminosité et limite la fidélité des couleurs, ce qui laisse encore une marge d’amélioration.

Comment le RGB Mini LED change la donne

Le RGB Mini LED pousse encore plus loin le principe en intégrant directement la gestion des couleurs dans le rétroéclairage.

1. Gestion directe des couleurs

  • Chaque diode émet déjà du Rouge, Vert ou Bleu, supprimant l’étape de conversion via quantum dots.
  • Résultat : un rétroéclairage qui « prépare » déjà l’image avant même d’arriver à la dalle.

2. Filtres allégés

  • Plus besoin de filtres lourds et coûteux.
  • Seul un filtre léger subsiste pour sublimer les couleurs, sans bloquer la lumière.

3. Colorimétrie inégalée

  • Atteint 100 % de l’espace colorimétrique BT2020.
  • Couleurs naturelles, vives et fidèles, jamais vues sur LCD.

Performances visuelles : des chiffres qui impressionnent

Le RGB Mini LED ne se contente pas d’améliorer la qualité d’image, il pulvérise certains records techniques.

CaractéristiqueMini LED classiqueRGB Mini LED
Gestion des couleursLumière bleue + quantum dotsDirectement RGB
Pic de luminosité≈ 4000 nitsJusqu’à 8000 nits
Espace colorimétriqueDCI-P3 étendu100 % BT2020
Consommation d’énergieStandard-40 %
Lumière bleueNormale-42 %
Épaisseur TVStandardPlus fin

Luminosité hors norme

  • Jusqu’à 8000 nits en pic de luminosité, soit près du double du Mini LED classique.
  • De quoi gérer sans effort le HDR et les environnements très lumineux.

Contraste renforcé

  • Noirs plus profonds grâce à un contrôle ultra-précis des zones de rétroéclairage.
  • Rapport de contraste encore plus élevé que sur le Mini LED.

Plus de confort visuel

  • 42 % de lumière bleue en moins, limitant la fatigue oculaire.
  • Consommation énergétique réduite de 40 %, un atout écologique et économique.

Avantages pratiques

La technologie RGB Mini LED n’est pas qu’une prouesse technique : elle apporte des bénéfices concrets pour les utilisateurs au quotidien. Voici les principaux atouts :

Une qualité d’image jamais vue sur LCD

Le RGB Mini LED redéfinit ce qu’un téléviseur LCD peut offrir.

  • Les couleurs sont plus riches, plus naturelles et mieux équilibrées, grâce à la gestion directe des diodes rouges, vertes et bleues.
  • L’espace colorimétrique atteint 100 % du BT2020, un standard que même l’OLED peine à couvrir complètement.
  • L’image gagne en profondeur et en réalisme, ce qui rapproche fortement le LCD des performances visuelles de l’OLED, tout en conservant les points forts propres aux technologies à rétroéclairage.

Une luminosité extrême pour le HDR et Dolby Vision 2

L’un des points forts du RGB Mini LED est sa luminosité record : jusqu’à 8000 nits en pic, soit quasiment le double de ce que propose le Mini LED classique.

  • Cette puissance lumineuse est idéale pour les contenus HDR (High Dynamic Range), où les zones claires et sombres doivent coexister sans perte de détails.
  • Dolby a même choisi cette technologie pour son Dolby Vision 2, qui promet d’aller au-delà des normes HDR actuelles.
    En pratique, cela veut dire que les scènes de films très contrastées (feu d’artifice, couchers de soleil, sports en plein jour) seront plus réalistes et éclatantes.

Moins énergivore et plus respectueux de la vue

Le RGB Mini LED n’est pas seulement plus puissant, il est aussi plus efficace :

  • La consommation d’énergie est réduite d’environ 40 % par rapport à un Mini LED classique.
  • L’émission de lumière bleue est réduite de 42 %, ce qui limite la fatigue oculaire, un point crucial pour ceux qui regardent la télévision plusieurs heures par jour.
    Cela en fait une technologie à la fois plus écologique et plus confortable pour l’utilisateur.

Des téléviseurs plus fins et élégants

En supprimant une partie des filtres lourds nécessaires sur les anciens systèmes, le RGB Mini LED permet de concevoir des téléviseurs plus fins et mieux « designés ».

  • Moins de couches optiques signifie une épaisseur réduite.
  • Les constructeurs peuvent ainsi proposer des modèles plus élégants, adaptés à des intérieurs modernes, sans compromis sur la qualité d’image.
  • Cela rapproche aussi ces TV du style minimaliste des OLED, tout en gardant les avantages du LCD.

Enjeux commerciaux et stratégie de Hisense

Le RGB Mini LED de chez HiSense

Avec le RGB Mini LED, Hisense s’impose comme le premier constructeur à miser sérieusement sur cette technologie. La marque a profité du CES de Las Vegas puis de l’IFA de Berlin 2025 pour présenter ses premiers modèles et démontrer concrètement le potentiel de ce nouveau type de rétroéclairage.

Le calendrier de lancement est désormais clair. Le très grand modèle Hisense 116 UX (116 pouces) est déjà disponible depuis août 2025, mais il s’agit d’un téléviseur vitrine, vendu autour de 30 000 €, destiné à marquer les esprits plus qu’à inonder le marché.

Les modèles plus accessibles, en 55, 65, 75, 85 et 100 pouces, arriveront eux en 2026, avec des tarifs annoncés comme étant comparables à ceux des téléviseurs OLED actuels. Cela positionnera le RGB Mini LED comme une alternative premium mais compétitive, capable de séduire un public large et pas seulement une élite technophile.

L’autre atout stratégique, c’est l’association avec Dolby Vision 2, qui profitera pleinement de la luminosité extrême et de la colorimétrie étendue du RGB Mini LED. Dolby voit dans cette technologie un support idéal pour dépasser les standards HDR actuels, ce qui confère aux modèles Hisense une crédibilité renforcée auprès des amateurs d’image haut de gamme.


FAQ sur la technologie RGB Mini LED

Le RGB Mini LED va-t-il remplacer l’OLED ?

Pas forcément. L’OLED garde l’avantage des noirs parfaits pixel par pixel, mais le RGB Mini LED offre une luminosité bien supérieure et un coût plus accessible.

Quelle est la différence avec le Mini LED classique ?

Le Mini LED classique utilise des diodes bleues et des quantum dots, tandis que le RGB Mini LED gère directement les couleurs au niveau du rétroéclairage.

À partir de quand pourra-t-on acheter des TV RGB Mini LED ?

Hisense prévoit une commercialisation dès 2025 en Europe.

Les téléviseurs seront-ils beaucoup plus chers ?

Non. Les grands modèles serviront de vitrine technologique, mais les tailles courantes devraient rester au prix des OLED actuels.

Le RGB Mini LED consomme-t-il plus d’énergie ?

Au contraire : la suppression des filtres lourds réduit la consommation d’environ 40 %.

Cet article original intitulé RGB Mini-LED : La révolution de l’affichage qui veut détrôner l’OLED a été publié la première sur SysKB.

  •  

Technics EAH-AZ100 : Ces écouteurs Hi-Fi Sans Fil ANC m’ont bluffé

✇SysKB
Par :Lisa

Je ne m’attendais pas à grand-chose en sortant les Technics EAH-AZ100 de leur boîte. Encore une paire d’écouteurs sans fil premium, me suis-je dit. Mais dès les premières secondes d’écoute, j’ai compris que j’étais tombé sur quelque chose de vraiment spécial. La sensation est difficile à décrire : c’est comme si mes morceaux préférés, que j’ai écoutés des centaines de fois, avaient soudainement gagné en profondeur, en relief. Et je ne parle pas de fichiers lossless sur un DAC audiophile, mais bien de simples titres compressés sur Spotify.

Ces écouteurs, proposés à moins de 300 €, ne sont clairement pas destinés à tous les budgets. Mais croyez-moi, ils valent chaque centime pour qui aime la musique et veut la redécouvrir.

Une qualité sonore qui change la donne

Ce qui frappe en premier, c’est le niveau de détail sonore. Les EAH-AZ100 utilisent de nouveaux transducteurs de 10 mm avec fluide magnétique, une technologie héritée du monde de la hi-fi qui limite la distorsion et élargit la scène sonore. Résultat : les graves sont profonds mais jamais envahissants, les médiums sont clairs et les aigus précis sans agressivité.

En pratique, cela veut dire que vous pouvez entendre des nuances souvent écrasées par des écouteurs plus grand public : la respiration d’un chanteur, une réverbération discrète de guitare, ou encore la subtilité d’un mixage. C’est ce qui fait que l’on se surprend à redécouvrir des morceaux qu’on croyait connaître par cœur.

Un ANC efficace, mais surtout intelligent

Les EAH-AZ100 ne se contentent pas d’une réduction de bruit active classique. Ici, l’ANC est adaptatif : il s’ajuste en fonction de votre environnement et même de la forme de vos oreilles. Dans un bus ou dans un avion, les bruits de moteurs s’effacent, laissant place à la musique sans forcer sur le volume.

Alors oui, si l’on compare directement avec Bose, la référence historique en ANC, Technics n’a pas encore totalement détrôné le roi. Mais l’isolement est déjà excellent et, surtout, le son reste naturel, ce qui est parfois le défaut des ANC trop agressifs.

Un confort surprenant malgré un design robuste

Les écouteurs sont un peu plus imposants que certains concurrents, mais une fois en place, ils tiennent parfaitement et se font vite oublier. Technics a manifestement travaillé l’ergonomie : même après plusieurs heures d’écoute, aucune gêne particulière à signaler.

Le design inspire confiance, avec un boîtier solide et élégant, disponible en plusieurs coloris (noir, argent, champagne). Clairement, on est dans le premium assumé.

Une autonomie qui enterre la concurrence

C’est l’autre grosse surprise. Avec 10 heures d’écoute avec ANC activé et jusqu’à 28 heures avec le boîtier, ces écouteurs surpassent nombre de modèles concurrents dans cette gamme de prix. Ils se rechargent en USB-C et supportent la recharge sans fil Qi, ce qui est toujours appréciable.

Pour un usage quotidien (trajets, travail, sport, détente), c’est largement suffisant pour tenir plusieurs jours sans passer par la case recharge.

Des fonctionnalités vraiment pratiques

  • Bluetooth multipoint (3 appareils) : un vrai game changer. Plus besoin de déconnecter son PC pour prendre un appel sur le smartphone.
  • Compatibilité Dolby Atmos et suivi de tête : immersion renforcée dans les films et séries compatibles.
  • Codec LC3 avec LE Audio : future-proof et plus stable que le SBC/AAC classique.
  • Application Technics Audio Connect : pour ajuster l’égaliseur, gérer l’ANC, personnaliser les contrôles tactiles.

On sent que Technics a pensé aux détails, et ça fait la différence au quotidien.

Tableau récapitulatif des Technics EAH-AZ100

CaractéristiquesDétails
Prix299 € (env.)
Autonomie10 h (ANC activé) + 28 h avec boîtier
ChargeUSB-C + recharge sans fil Qi
Réduction de bruitANC adaptatif
Haut-parleursTransducteurs 10 mm à fluide magnétique
Codecs pris en chargeSBC, AAC, LDAC, LC3 (LE Audio)
Fonctions spécialesMultipoint (3 appareils), Dolby Atmos, suivi de tête
RésistanceIPX4 (résistant à la transpiration et aux éclaboussures)
CouleursNoir, argent, champagne

Ce que j’ai adoré (et un peu moins)

Points forts :

  • Une qualité sonore bluffante, digne de la hi-fi.
  • Une autonomie qui bat la concurrence.
  • Un confort bien pensé malgré la taille.
  • Des fonctionnalités modernes (multipoint, Atmos, LE Audio).

Points faibles :

  • L’ANC reste très bon, mais pas au niveau des Bose QC Ultra.
  • Un design un peu massif pour les petites oreilles.
  • Le prix, qui peut rebuter, même si la qualité le justifie.

Verdict : pour qui sont faits ces écouteurs ?

Si vous cherchez des écouteurs sans fil pour la vie de tous les jours et que vous n’êtes pas spécialement audiophile, les AZ-100 peuvent sembler chers. Mais si vous aimez vraiment la musique et que vous voulez en profiter avec un niveau de détail et une fidélité rarement atteints sur des true wireless, alors ils sont faits pour vous.

Les Technics EAH-AZ100 ne sont pas seulement de bons écouteurs. Ce sont des écouteurs qui vous rappellent pourquoi vous aimez la musique. Et ça, honnêtement, c’est rare.

Vous pouvez trouver les Technics EAH-AZ100 en Noir ou en Silver chez différents commerçants et notamment :

FAQ

Les Technics EAH-AZ100 sont-ils résistants à l’eau ?
Oui, ils disposent de la certification IPX4, ce qui les protège contre la transpiration et les éclaboussures.

Peut-on les connecter à plusieurs appareils en même temps ?
Oui, le multipoint permet de connecter jusqu’à 3 appareils simultanément.

Sont-ils compatibles avec les iPhone ?
Oui, ils fonctionnent parfaitement avec iOS (en AAC) mais tirent tout leur potentiel avec Android (LDAC, LC3).

Le Dolby Atmos marche-t-il partout ?
Il fonctionne sur les appareils et applications compatibles, comme certaines plateformes de streaming et smartphones récents.

Le prix est-il justifié ?
Oui, si vous cherchez une expérience sonore haut de gamme. Non, si vous voulez simplement des écouteurs corrects pour le quotidien.

Cet article original intitulé Technics EAH-AZ100 : Ces écouteurs Hi-Fi Sans Fil ANC m’ont bluffé a été publié la première sur SysKB.

  •  

G'MIC 3.6 : L’art de soigner ses images !

G’MIC, cadriciel libre pour le traitement des images numériques, vient de proposer une mise à jour significative, avec la sortie de sa nouvelle version 3.6.

Une bonne occasion pour nous de vous résumer les activités récentes autour de ce projet, et plus précisément, ce qu’il s’est passé depuis notre précédente dépêche, publiée il y a un peu plus d’un an (juin 2024).

G´MIC 3.6.0 Teaser

N. D. A. : Cliquez sur les images pour en obtenir une version en pleine résolution, ou une vidéo correspondante lorsque les images contiennent l’icône Icône 'Play Video'

Sommaire

1. G’MIC : Un cadriciel pour le traitement des images numériques

G’MIC (GREYC's Magic for Image Computing) est un projet libre dédié au traitement, la manipulation et la création d'images numériques. Il est développé principalement au sein de l’équipe IMAGE du laboratoire de recherche GREYC de Caen (laboratoire UMR, sous triple tutelle du CNRS, de l'ENSICAEN et de l'Université de Caen).

La base du projet repose sur un interpréteur de langage de script spécifique, le « langage G’MIC », pensé pour faciliter le prototypage rapide et l’implémentation d’algorithmes de traitement d’images. Autour de ce noyau viennent se greffer plusieurs interfaces utilisateur, qui donnent accès à des centaines d’opérateurs de traitement d’images, mais qui permettent également d’intégrer des pipelines de traitement personnalisés. G’MIC est donc conçu comme un cadriciel ouvert et extensible.

Parmi ses déclinaisons les plus utilisées, on retrouve : gmic, un outil en ligne de commande comparable et complémentaire à ImageMagick ou GraphicsMagick ; le service Web G’MIC Online ; et surtout le greffon G’MIC-Qt, intégrable dans de nombreux logiciels de création et d’édition d’images tels que GIMP, Krita, DigiKam, Paint.net, Adobe Photoshop ou Affinity Photo. Ce greffon est l’interface de G’MIC la plus populaire. Il donne aujourd’hui un accès rapide à plus de 640 filtres différents, élargissant considérablement les possibilités de filtres et d’effets offertes par ces logiciels de retouche d’images.

Aperçu du greffon G’MIC-Qt Fig. 1.1. Le greffon G’MIC-Qt en version 3.6, ici utilisé au sein de GIMP 2.10, avec le filtre « Paint With Brush » activé.

2. Les nouveautés du greffon G’MIC-Qt

2.1. Hommage à Sébastien Fourey, développeur de G’MIC-Qt

Avant de décrire la liste des nouveautés de cette version 3.6, nous souhaitons avant tout rendre hommage à notre collègue et ami, Sébastien Fourey, qui était maître de conférence à l’ENSICAEN et qui était le développeur principal du greffon G’MIC-Qt. Le 6 octobre 2024, Sébastien nous a quittés. Tous ceux qui le connaissaient vous le diront : Sébastien était avant tout une personne profondément humaine, généreuse et particulièrement attentive à tous ceux qui l’entouraient. Il était aussi discret et modeste qu’il était doué avec un clavier entre les mains (et c’était quelqu’un de très discret !).

Et même s’il n’a jamais voulu être mis au-devant de la scène, nous voulons ici faire une exception pour mettre en lumière son travail et le rôle majeur qu’il a eu dans le développement du projet G’MIC : c’est grâce à lui que G’MIC-Qt est aujourd’hui un greffon utilisé et apprécié par des milliers de personnes à travers le monde.

Il s’avère qu’il était un lecteur assidu de LinuxFr.org, et nous nous devions donc de lui rendre un hommage sur ce site. Sébastien nous manque profondément. Nous ferons notre possible pour que son œuvre perdure. Repose en paix, Sébastien ! Nous pensons à toi et à ta famille.

Hommage à Sébastien Fourey Fig. 2.1. Texte hommage à Sébastien Fourey, auteur de G’MIC-Qt, visible dans la section « About » du greffon.

2.2. Améliorations générales du greffon

Comme vous vous en doutez, le développement spécifique du greffon G’MIC-Qt a été à l’arrêt depuis octobre dernier. Néanmoins, les derniers ajouts de code réalisés sur le greffon ont rendu possible les choses suivantes :

  • Son code source est désormais compatible avec l’API de plug-in de la nouvelle version majeure de GIMP (la 3.0). Cela a permis d’offrir aux utilisateurs de GIMP un greffon G’MIC-Qt fonctionnel dès la sortie de GIMP 3. Notons qu’assez peu de greffons ont proposé une mise à jour à temps (Resynthesizer, greffon populaire, étant une autre exception). On remercie donc chaleureusement Nils Philippsen et Daniel Berrangé qui ont soumis les patchs activant cette compatibilité avec GIMP 3. Nous continuons en parallèle à maintenir notre greffon pour l’ancienne version (2.10) de GIMP, qui est encore beaucoup utilisée.

  • Le code de G’MIC-Qt devient également compatible avec l’API de la bibliothèque Qt6, la dernière version majeure en date de ce toolkit graphique.

  • L’interface du greffon propose maintenant un outil de prévisualisation des filtres avec séparateur intégré, de manière native. Cette fonctionnalité, accessible via le raccourci clavier CTRL + SHIFT + P, permet de comparer directement l’image avant et après l’application d’un filtre, en affichant les deux versions côte à côte dans la fenêtre de prévisualisation. Cette fonctionnalité existait déjà, mais elle est dorénavant utilisable de manière plus fluide, puisqu’auparavant elle était implémentée indépendamment par chaque filtre (le séparateur de prévisualisation était en fait vu comme un paramètre du filtre, ce qui impliquait un recalcul complet du résultat du filtre même lorsque l’on souhaitait seulement déplacer le séparateur).

Prévisualisation avec séparateur Fig. 2.2.1. Prévisualisation native de filtres avec séparateur intégré dans G’MIC-Qt.

La vidéo suivante montre comment cette fonctionnalité améliorée se présente dans le greffon :

Prévisualisation avec séparateur - vidéo Fig. 2.2.2. Prévisualisation native de filtres avec séparateur intégré dans G’MIC-Qt (vidéo).

2.3. Nouveaux filtres d’images

Les nouveautés principales du greffon G’MIC-Qt se matérialisent donc plutôt sous la forme de nouveaux filtres et effets accessibles pour les utilisateurs. À la sortie de cette version 3.6, c’est 640 filtres/effets différents qui sont proposés dans l’interface du greffon. En ce qui concerne le filtrage d’images, les dernières entrées ajoutées sont les suivantes :

  • Le filtre « Déformations / Warp [RBF] » propose de déformer localement une image en définissant dans un premier temps des points d’ancrage dans la fenêtre de prévisualisation. Puis, en repositionnant ces points de contrôle, on déforme l’image de manière intuitive et interactive, directement dans la fenêtre de prévisualisation. Idéal pour réaliser des retouches rapides ou créer des caricatures amusantes !

Filtre « Warp RBF » Fig. 2.3.1. Le filtre « Deformations / Warp [RBF] » en action dans G’MIC-Qt.

La vidéo suivante montre son utilisation en pratique au sein du greffon G’MIC-Qt pour la déformation d’un visage :

Filtre « Warp RBF » - vidéo Fig. 2.3.2. Le filtre « Deformations / Warp [RBF] » en action dans G’MIC-Qt (vidéo).

  • Le filtre « Repair / Upscale [CNN2x] » a pour but de doubler la résolution d’une image à l’aide d’un réseau de neurones convolutifs léger (CNN), qui a été entrainé pour préserver les détails et les textures des images lors de l’agrandissement. Ce module offre une alternative simple et relativement efficace aux méthodes d’agrandissement plus classiques (en particulier celles qui sont implémentées nativement dans GIMP).

Filtre « Upscale CNN2X » Fig. 2.3.3. Le filtre « Repair / Upscale [CNN2X] » en action dans G’MIC-Qt.

La figure suivante montre justement une comparaison des méthodes classiques d’agrandissement d’images, avec ce nouvel algorithme disponible dans G’MIC-Qt (résultat obtenu en bas à droite) :

Filtre « Upscale CNN2X » - Comparaisons Fig. 2.3.4. Comparaisons des méthodes d’agrandissement d’images avec notre nouvelle méthode « Upscale [CNN2X] ».

Notons que ce filtre illustre à lui seul quelques avancées récentes réalisées pour la nn_lib, qui est la petite bibliothèque interne d’apprentissage machine intégrée à G’MIC : Clipping des gradients, régularisation L2 des poids des réseaux, planificateur Cosine Annealing LR pour le taux d’apprentissage, module de Pixel Shuffling, sont quelques-unes des nouvelles fonctionnalités qui y ont été ajoutées. Cette bibliothèque de gestion de réseaux de neurones n’est pas très puissante (elle n’utilise que le calcul CPU, pas GPU), mais elle offre néanmoins la possibilité de créer des filtres intéressants basés sur des techniques d’apprentissage statistique.

  • Le filtre « Degradations / VHS Filter », est un filtre créé par Hazel Stagner. Comme son nom l’indique, il cherche à recréer l’esthétique caractéristique des vieilles cassettes vidéo VHS : légères distorsions, bruit coloré, lignes parasites et saturation altérée. Ce filtre est idéal pour donner aux images un aspect rétro, évoquant le rendu des vidéos analogiques des années 80–90.

Filtre « VHS Filter » Fig. 2.3.5. Le filtre « Degradations / VHS Filter » en action.

Ce filtre génère un bruit aléatoire, donc l’appliquer plusieurs fois sur une même image donne à chaque fois un rendu différent. On peut donc ainsi synthétiser de petites animations avec un look « analogique - années 90 » du plus bel effet. Les amateurs de Glitch Art apprécieront ! (voyez l’image originale à titre de comparaison).

Filtre « VHS Filter » - vidéo Fig. 2.3.6. Le filtre « Degradations / VHS Filter » appliqué plusieurs fois sur une même image, pour en faire une séquence vidéo de type VHS.

2.4. Nouveaux effets de rendu

De nouveaux effets font également leur apparition dans le greffon, non pas dans le but de modifier une image existante, mais pour créer une nouvelle image ou un motif à partir de zéro :

  • Le filtre « Patterns / Organic Fibers » synthétise des textures évoquant des entrelacements de fibres organiques, en s’appuyant sur l’algorithme de simulation du Physarum polycephalum proposé par Jeff Jones en 2010, et décrit de manière remarquable sur cette page d’Etienne Jacob (allez voir, ça vaut vraiment le détour !). Nous reparlerons de cet algorithme un peu plus loin dans la dépêche (en section 4.2).

Filtre « Organic Fibers » - 1
Filtre « Organic Fibers » - 2 Fig. 2.4.1. Le filtre « Patterns / Organic Fibers » en action, avec deux jeux de paramètres différents.

  • Le filtre « Rendering / Speech Bubble » insère une bulle de bande dessinée sur un calque d’image additionnel, avec une personnalisation possible de la forme de la bulle (rondeur, forme du pied de bulle, etc.), grâce à la présence de différents points de contrôle. Ce filtre offre un moyen rapide d’intégrer des éléments graphiques typiques de la BD dans une image quelconque, comme illustré ci-dessous avec, dans un premier temps, la vue du filtre tel qu’il se présente dans le greffon, suivi d’une vue du résultat dans GIMP où un texte a été inséré dans la dite bulle.

Filtre « Speech Bubble » - 1
Filtre « Speech Bubble » - 2 Fig. 2.4.2. Le filtre « Rendering / Speech Bubble » permet d’ajouter des bulles de dialogue dans vos images.

La vidéo ci-dessous présente ce filtre en action dans le greffon G’MIC-Qt sur une photographie :

Filtre « Speech Bubble » - vidéo Fig. 2.4.3. Le filtre « Rendering / Speech Bubble » en action dans le greffon (vidéo).

  • Le filtre « Rendering / 2.5D Extrusion » simule, à partir d’une forme binaire en entrée, un effet d’extrusion 3D. Il transforme donc rapidement des silhouettes ou des masques en objets visuellement plus consistants, avec un rendu qui évoque du relief, sans devoir passer par un véritable logiciel de modélisation 3D. Les figures suivantes illustrent son utilisation : On crée tout d’abord une forme opaque sur un fond transparent (ici un texte), puis on lui applique le filtre « Rendering / 2.5D Extrusion » de G’MIC-Qt pour créer un rendu façon 3D extrudée. L’angle de rotation, la profondeur de l’extrusion, l’amplitude de l’effet perspective, ainsi que les couleurs des différentes faces sont réglables dans ce filtre.

Filtre « 2.5D Extrusion » - 1
Filtre « 2.5D Extrusion » - 2 Fig. 2.4.4. Le filtre « Rendering / 2.5D Extrusion » en action.

  • Le filtre « Rendering / Fluffy Cloud » génére automatiquement de jolis nuages cotonneux dans vos images. Idéal pour créer des ciels synthétiques, du brouillard, des effets de vapeur éthérée, etc. Ce filtre a été créé par Prawnsushi, contributeur régulier de filtres G’MIC, dont certains filtres avaient été déjà présentés dans notre dépêche précédente. Voici comment ce nouveau filtre se présente lors son ouverture dans le greffon :

Filtre « Fluffly Cloud » - 1 Fig. 2.4.5. Le filtre « Rendering / Fluffy Cloud » dans le greffon _G’MIC-Qt._

En jouant avec les différents paramètres du filtre, on peut obtenir des rendus variés et intéressants :

Filtre « Fluffly Cloud » - 2
Filtre « Fluffly Cloud » - 3 Fig. 2.4.6. Différents rendus de « Rendering / Fluffy Cloud » en faisant varier les paramètres du filtre.

  • Le filtre « Patterns / Stripes » facilite la création de motifs à rayures simples ou complexes. Ce filtre offre de nombreux paramètres pour régler la géométrie des motifs synthétisés, en faisant varier le type de rayures (linéaires, radiales, concentriques), la taille, la couleur ainsi que l’opacité de chaque rayure indépendamment.

Filtre « Stripes » - 1
Filtre « Stripes » - 2
Filtre « Stripes » - 3 Fig. 2.4.7. Trois exemples de motifs à rayures générés par le filtre « Patterns / Stripes ».

  • Le filtre « Patterns / Gradient [from Curve] » n’est pas à proprement parler un nouveau filtre, mais une évolution d’un filtre précédent « Patterns / Gradient [from Line] ». Cette version étendue extrait un dégradé de couleur en parcourant les pixels de l’image, non plus seulement le long d’un segment, mais le long d’une courbe spline cubique par morceau, définie avec jusqu’à 6 points de contrôle, ce qui autorise le suivi de structures très incurvées dans les images, comme l’illustre la figure suivante :

Filtre « Gradient From Curve » Fig. 2.4.8. Le filtre « Patterns / Gradient [from Curve] » extrait les couleurs d’une image localisées le long d’une courbe spline.

  • Et pour en finir avec les nouveautés du greffon, mentionnons le filtre « Rendering / Neon Carpet », un filtre original réalisé par Claude (alias Cli345), contributeur régulier de G’MIC qui avait été interviewé en septembre dernier sur Linuxfr. Ce filtre un peu psychédélique synthétise des motifs lumineux et colorés faisant penser à des tapis fluorescents, comme illustré sur la figure ci-dessous :

Filtre « Neon Carpet » Fig. 2.4.9. Le filtre « Rendering / Neon Carpet », une contribution de Cli435.

Voilà pour ce qui concerne les nouveautés spécifiques au greffon G’MIC-Qt.

3. Améliorations du cœur du logiciel et de sa bibliothèque standard

Passons maintenant à la description du travail réalisé cette année pour l’amélioration du cœur du projet, à savoir l’interpréteur G’MIC et sa bibliothèque standard d’opérateurs. Ce sont forcément des améliorations un peu moins visibles pour l’utilisateur final, mais elles sont toutes aussi importantes, car elles consolident ou améliorent des fonctionnalités qui peuvent ouvrir plus tard la porte au développement de nouveaux filtres originaux.

3.1. Optimisation de l’interpréteur

Le moteur interne de G’MIC a bénéficié d’une série d’optimisations notables. Plusieurs améliorations internes, concernant l’analyse, la détection et la concaténation de chaînes de caractères ou encore la recherche de valeurs min/max dans de grandes images (désormais parallélisée avec OpenMP), ont permis d’augmenter légèrement les performances (gain moyen d’environ 2,5% sur le temps d’exécution de scripts G’MIC). Ce n’est pas un gain spectaculaire, mais ça se prend (et après 17 ans à écrire du code pour cet interpréteur, il aurait été presque inquiétant d’obtenir un gain beaucoup plus important ! 😊).

Sous Windows, la compilation de l’interpréteur utilise désormais Clang et sa libc associée, ce qui produit des exécutables légèrement plus optimisés.

3.2. Améliorations du moteur de rendu 3D

Le moteur de rendu 3D intégré de G’MIC a également été amélioré, avec l’ajout du z-clipping pour les primitives hors champ, un calcul d’éclairage affiné, la correction du rendu de normales 3D avec le mode d’éclairage Phong, et l’ajustement des paramètres de réflexion spéculaire.

Une nouvelle commande multithreaded3d (raccourcie en mt3d) permet désormais d’activer ou désactiver le rendu 3D multi-threadé (là encore par OpenMP). Cela permet d’accélérer considérablement l’affichage de gros maillages.

Mentionnons au passage l’apparition de la commande normals3d dans la bibliothèque standard, dont le rôle est d’estimer les vecteurs normaux unitaires d’un maillage 3D, que ce soit au niveau des sommets ou des primitives. La figure suivante illustre par exemple l’utilisation de cette commande pour la visualisation de vecteurs normaux à la surface d’un tore 3D :

Commande 'normals3d' Fig. 3.2.1. La commande normals3d permet d’estimer les vecteurs normaux 3D aux sommets ou aux faces d’un maillage 3D.

3.3. Améliorations de l’évaluateur d’expressions mathématiques

L’évaluateur d’expressions mathématiques intégré à G’MIC est l’une des pièces maîtresses du projet (en traitement d’images, on doit souvent réaliser beaucoup de calculs…). Il continue lui aussi de s’enrichir et de gagner en efficacité.

Sans rentrer dans trop de détails techniques, notons que l’analyse syntaxique des expressions a été optimisée grâce à une première passe dédiée à la détection de certains opérateurs, afin d’accélérer leur traitement ultérieur. De nombreuses fonctions font leur apparition, parmi elles, epoch() pour convertir une date en temps Unix, frac() pour extraire la partie fractionnaire d’un nombre, ou encore wave() qui permet de générer différentes fonctions ou images périodiques (sinusoïdales, triangulaires, etc.), comme illustré sur la figure ci-dessous :

Fonction 'waves()' - 1
Fonction 'waves()' - 2 Fig. 3.3.1. La nouvelle fonction waves() permet de générer facilement des fonctions d’ondes, fonctions dont la fréquence d’apparition (hoho ! calembour de traiteur de signal !) est assez élevée dans les opérateurs de traitement d’images.

3.4. Amélioration des entrées-sorties

Quelques améliorations sont également à signaler au niveau de la gestion des entrées-sorties :

  • Le format TIFF bénéficie désormais d’une sauvegarde plus rapide pour les grosses images (par exemple, les images médicales volumiques). Un choix élargi de modes de compression de sortie est également disponible pour ce format d’images.
  • G’MIC prend désormais en charge de manière native la lecture et l’écriture des fichiers au format WebP (cette fonctionnalité étant activée par défaut sur les paquets binaires que l’on propose pour Linux).
  • Notons enfin qu’un travail de portage du code pour l’affichage des fenêtres de G’MIC, vers la bibliothèque SDL3, a été amorcé. Cela devrait permettre à terme une meilleure compatibilité de G’MIC avec le système d’affichage natif de chaque distribution Linux (en particulier celles tournant sous Wayland).

3.5. Sprite Packing

En ce qui concerne l’évolution de la bibliothèque standard de G'MIC, la nouveauté la plus significative concerne la réécriture de la commande pack_sprites, qui implémente un algorithme d’«empaquetage» d’objets. Pour rappel, ce type d’algorithmes permet de générer des visuels composés d’ensemble d’imagettes disjointes placées de telle façon à reproduire une forme binaire (un masque) de géométrie quelconque.

Cette ré-implémentation est à la fois plus rapide et plus efficace (utilisant de meilleures heuristiques de placement), et permet d’optimiser l’agencement des imagettes à différentes échelles et orientations tout en réduisant le temps de génération. Une illustration valant mieux qu’un long discours, voici le genre d’images amusantes que cet algorithme est capable de produire facilement :

Commande 'pack_sprites' - 1
Commande 'pack_sprites' - 2 Fig. 3.5.1. Deux exemples de génération possibles utilisant la commande « pack_sprites ».

Les sprites à empaqueter peuvent être de formes quelconques, comme des lettres (image du haut de la figure précédente), des mots entiers (image du bas), etc.

Et quoi de mieux qu’un exemple concret pour montrer la facilité déconcertante 😉 d’utilisation de cette commande pack_sprites ? Le but ici est d’écrire le texte « ♥LinuxFR♥ » de telle sorte que chaque lettre soit générée comme un empaquetage d’elle-même ! (idée suffisamment saugrenue pour qu’un filtre « clé en main » réalisant ceci n’existe pas déjà !).
Le script G’MIC suivant (fichier test_pack_sprites.gmic), une fois rendu exécutable, réalise cette tâche :

#!/usr/bin/env gmic

str="\20LinuxFR\20"
repeat size(['$str']) {
  l:=['$str'][$>]
  0 text. {`$l`},0,0,${"font titanone,480"},1,1 ==. 0 channels. -3,0
  0 text. {`$l`},0,0,${"font titanone,64"},1,${"-RGB"},255
  pack_sprites.. .,5,25,3,1 remove.
}
append x to_rgb
output out.png
display

La génération prend quelques secondes, et aboutit à une image de ce type :

Commande 'pack_sprites' - 3 Fig. 3.5.2. Résultat du lancement du script test_pack_sprites.gmic.

Amusant, n’est-ce pas ? Comment feriez-vous pour réaliser la même chose dans un autre langage (et combien de lignes de code cela prendrait-il ? 😉).

4. Utilisation de G’MIC pour le « Creative Coding »

L’exemple précédent est réellement représentatif des possibilités d’écriture de scripts personnalisés permis par G'MIC. Saviez-vous, par exemple, que l’ensemble des 640 filtres disponibles dans le greffon G’MIC-Qt sont justement écrits dans ce langage ?

G’MIC peut ainsi être considéré comme une boite à outils étoffée pour les personnes souhaitant se frotter au code créatif et à l'art génératif. Nous vous proposons ci-dessous quelques autres exemples simples de génération d’images par scripts G’MIC, afin de donner un aperçu rapide des possibilités et de la concision de ce langage.

4.1. Exemples de génération d’images

  • Inversion d’un damier coloré : On s’inspire ici de cette excellente vidéo récente, réalisée par le vulgarisateur mathématicien Mickaël Launay (Micmaths). En G’MIC, la fonction suivante permet de synthétiser une image équivalente à celle montrée dans la vidéo (mais en quatre couleurs au lieu de deux).
invert_checkerboard :
  4096,4096,1,1,"
    L = clog(20*([x,y]/w - 0.5));
    P = cexp([log(40/exp(L[0])),L[1]]);
    85*xor(P[0]%4,P[1]%4)"
  map 6 rescale2d 50%

Inversion d’un damier coloré Fig. 4.1.1. Génération d’un damier inversé, avec la commande personnalisée invert_checkerboard.

  • Cercles d’Apollonius : Dans cet exemple, il s’agit d’empaqueter des cercles de plus en plus petits dans un cercle de base, pour générer des images fractales. La fonction G’MIC réalisant cette tâche est la suivante :
apollonian_gasket :

  # Init.
  siz=1280 rad:=$siz/2.2
  $siz,$siz,1,2
  circle {[$siz,$siz]/2},$rad,1,1
  repeat 5 { circle {[$siz,$siz]/2+0.537*$rad*cexp([0,90°+$>*72°])},{0.316*$rad},1,0,{2+$>} }

  # Iterate.
  ind=4 e "  > Computing"
  do {
    sh 0 +distance. 0 x,y,r:="x = xM; y = yM; [ x,y,i(x,y) - 1 ]" rm[-2,-1]
    circle $x,$y,$r,1,0,$ind ind+=1
    e "\r  > Computing "{`c=arg0(int($>/10)%4,124,47,45,92);[c,c==92?92:0]`}
  } while $r>3

  # Decorate.
  k. channels 100%
  +n. 0,255 map. hot
  l[0] { g xy,1 a c norm != 0 * 255 to_rgb }

  max rs 80%

Et voici le résultat :

Cercles d’Apollonius Fig. 4.1.2. Génération de cercles d’Apollonius, avec la commande personnalisée apollonian_gasket.

  • Gaussiennes 3D : On cherche ici à dessiner de petites fonctions gaussiennes anisotropes 3D de différentes tailles, orientations et couleurs dans un volume 3D discret, en s’arrangeant pour garantir une périodicité de l’image suivant l’axe z (l’axe de la profondeur). Puis, on transforme les coupes de ce volume en frames d’une vidéo, pour obtenir l’animation qui suit.
gaussians3d :
  180,180,160,3
  2000,1,1,1,":
    draw_gauss3d(ind,xc,yc,zc,u,v,w,siz,anisotropy,R,G,B,A) = (
      unref(dg3d_mask,dg3d_one,dg3d_rgb,dg3d_isiz2);
      dg3d_vU = unitnorm([ u,v,w ]);
      dg3d_vUvUt = mul(dg3d_vU,dg3d_vU,3);
      dg3d_T = invert(dg3d_vUvUt + max(0.025,1 - sqrt(anisotropy))*(eye(3) - dg3d_vUvUt));
      dg3d_expr = string('T = [',v2s(dg3d_T),']; X = ([ x,y,z ] - siz/2)/siz; exp(-12*dot(X,T*X))');
      dg3d_mask = expr(dg3d_expr,siz,siz,siz);
      dg3d_rgb = [ vector(##siz^3,R),vector(##siz^3,G),vector(##siz^3,B) ];
      const dg3d_isiz2 = int(siz/2);
      draw(#ind,dg3d_rgb,xc - dg3d_isiz2,yc - dg3d_isiz2,zc - dg3d_isiz2,0,siz,siz,siz,3,A/255,dg3d_mask);

      # Trick: These two lines allow to generate a perfectly looping animation.
      draw(#ind,dg3d_rgb,xc - dg3d_isiz2,yc - dg3d_isiz2,zc - dg3d_isiz2 + d#0/2,0,siz,siz,siz,3,A/255,dg3d_mask);
      draw(#ind,dg3d_rgb,xc - dg3d_isiz2,yc - dg3d_isiz2,zc - dg3d_isiz2 - d#0/2,0,siz,siz,siz,3,A/255,dg3d_mask);
    );

    X = [ u([w#0,h#0] - 1),u(d#0/4,3*d#0/4) ];
    U = unitnorm([g,g,g]);
    siz = v(5);
    anisotropy = u(0.6,1);
    R = u(20,255);
    G = u(20,255);
    B = u(20,255);
    A = u(20,255)/(1 + siz)^0.75;

    siz==0?draw_gauss3d(#0,X[0],X[1],X[2],U[0],U[1],U[2],11,anisotropy,R,G,B,A):
    siz==1?draw_gauss3d(#0,X[0],X[1],X[2],U[0],U[1],U[2],21,anisotropy,R,G,B,A):
    siz==2?draw_gauss3d(#0,X[0],X[1],X[2],U[0],U[1],U[2],31,anisotropy,R,G,B,A):
    siz==3?draw_gauss3d(#0,X[0],X[1],X[2],U[0],U[1],U[2],41,anisotropy,R,G,B,A):
    siz==4?draw_gauss3d(#0,X[0],X[1],X[2],U[0],U[1],U[2],51,anisotropy,R,G,B,A):
           draw_gauss3d(#0,X[0],X[1],X[2],U[0],U[1],U[2],61,anisotropy,R,G,B,A)"
  rm.
  rs 250%,250%,6 c 0,255 normalize_local , n 0,255
  slices {[d/4,3*d/4-1]}

Gaussiennes 3D - vidéo Fig. 4.1.3. Volume de gaussiennes 3D anisotropes, vues comme une séquence vidéo.

Regardez ça en plein écran pendant 20 minutes avant d’aller vous coucher, en écoutant du Pink Floyd, et je vous garantis une bonne nuit de sommeil !

  • Cube roulant : Comme mentionné en section 3.2, G’MIC possède son propre moteur de rendu 3D, que nous utilisons donc ici pour générer cette animation simple et qui boucle parfaitement :

Cube roulant - vidéo Fig. 4.1.3. Animation d’un cube 3D roulant.

Le code source de cet effet est un peu plus long que pour les exemples précédents, et nous ne l’intégrons donc pas directement dans cette dépêche. Mais en 47 lignes seulement, cela reste tout à fait raisonnable 😊 !

Et si comme moi, vous prenez plaisir à regarder ou réaliser des images ou animations amusantes/étranges qui sont générées en quelques lignes de code seulement, alors n’hésitez pas à aller jeter un œil au fil de discussion dédié, sur le forum officiel de G’MIC : Creative Coding with G’MIC.

4.2. La série « G’MIC Adventures ».

Les possibilités offertes par G’MIC pour le code créatif nous ont récemment décidé à initier une petite série de dépêches, intitulées « G’MIC Adventures ». L’idée de cette série est d’expliquer et d’illustrer les différentes étapes qui vont du concept à l’implémentation d’un effet de code créatif sous forme d’un script G’MIC. Aujourd’hui, cette série comporte seulement 4 épisodes, mais nous espérons l’enrichir dans le futur. Ces épisodes sont les suivants :

Arbre fractal 3D Fig. 4.2.1. Génération d’un arbre fractal 3D par G’MIC, réimporté ensuite sous Blender.

Arbre fractal 3D - vidéo Fig. 4.2.2. Exemple d’arbre fractal 3D généré par G’MIC (vidéo).

Mousse de forêt Fig. 4.2.3. Espèce de mousse de forêt synthétique, générée par agrégation de particules en 3D. L’inhalation volontaire de vapeurs provenant de cette mousse est fortement déconseillée !

  • G’MIC Adventures #4: Physarum Transport Networks : Cet épisode explore la réalisation d’un autre système particulaire, l’algorithme Physarum imaginé dans ce papier de Jeff Jones, en 2010. Ici, on lance des millions de particules qui s’auto-organisent pour suivre un chemin qui devient commun à toutes les particules au bout d’un certain nombre d’itérations, ce qui permet de générer des animations 2D tout à fait étonnantes, comme celles-ci par exemple :

Danse du feu - 1
Danse du feu - 2 Fig. 4.2.4. Danses de filaments enflammés, générées par l’algorithme Physarum en 2D.

Dans cet épisode, nous proposons également une extension 3D de cet algorithme, ce qui permet de générer ce type d’animation :

Physarum 3D
Fig. 4.2.4. Évolution de l’algorithme Physarum étendu en 3D.

Tous ces épisodes cherchent à montrer que G’MIC est une boite à outils générique, plutôt sympa à utiliser, pour le prototypage créatif destiné à la génération d’images et d’animations !

5. Ressources additionnelles

Nous voilà déjà arrivés à la cinquième section de cette dépêche, signe qu’il est probablement temps de la terminer au plus vite 😉. Pour finir, voici donc quelques informations et liens supplémentaires pour approfondir la découverte du projet G’MIC :

  • Mentionnons tout d’abord la parution de la publication « G’MIC: An Open-Source Self-Extending Framework », de D. Tschumperlé, S. Fourey et G. Osgood, en janvier 2025 dans le journal JOSS (The Journal of Open Source Software). Dans cet article sont décrites les motivations générales du projet et une vue d’ensemble de son architecture globale et de quelques-unes de ses possibilités. Cela permet aussi au projet G'MIC d’avoir son article « de référence » dans une revue scientifique (donc pouvoir être cité plus facilement).

Article JOSS

6. Conclusions et perspectives

La sortie de cette version 3.6 (et plus généralement l’année 2025) représente une étape importante dans la vie du projet G'MIC.

Tout d’abord parce qu’on se rend bien compte qu’après 17 ans de développement, G’MIC est maintenant stable, et qu’il est peut-être plus temps d’en valoriser les facettes existantes, plutôt que de chercher à implémenter à tout prix de nouvelles fonctionnalités. D’autre part, car la disparition de l’ami Sébastien, en plus d’avoir été un choc émotionnel majeur, risque de rendre difficile la maintenance et l’évolution future du greffon G’MIC-Qt. Et enfin, car avec la démocratisation de l’IA générative, les domaines de l’analyse, du traitement et de la génération d’images (notamment à des fins créatives) sont en profonde mutation, et que les fonctionnalités de G’MIC pourraient très bien être considérées comme obsolètes d’ici quelques années (ou pas 😊).

Au final, que d’incertitudes et de questionnements ! Cela rend floues les directions à prendre pour l’évolution de G’MIC, d’autant que s’occuper d’un tel projet requiert beaucoup d’investissements en temps, et qu’en même temps, sa valorisation financière est aujourd’hui inexistante.

Actuellement, G’MIC est téléchargé un peu plus de 1000 fois par jour depuis la page web principale du projet (donc sans compter les installations tierces : via l’installation de Krita, via les paquets officiels des distributions, etc.). C’est un chiffre très honorable pour un logiciel libre de ce type, développé au sein d’un laboratoire public de recherche tel que le GREYC, et qui plus est, qui n’est plus maintenu que par une seule personne.

À court terme, on se focalisera probablement sur la promotion et la visibilité du cadriciel, la maintenance du code et l’animation de la communauté, par exemple en écrivant quelques tutoriels illustrant ses nombreuses applications potentielles dans les domaines variés liés à l’imagerie numérique : retouche photographique, illustration, peinture numérique, imagerie scientifique (médical, astronomie, biologie, matériaux), création graphique, art génératif, etc.

À long terme, peut-on raisonnablement espérer faire plus de G’MIC avec ce peu de ressources ?
L’avenir nous le dira !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Engineering | WebP is so great… except it's not

Une critique de WebP, pas forcément adapté pour toutes les images et dont le poids peut parfois être supérieur à un JPEG pour une qualité pas nécessairement meilleure.

Bref, ne pas tout convertir bêtement en WebP, mais tester avant et ne garder que ce qui nous convient (qualité vs. taille du fichier).


Permalink
  •  

Comparatif : Sony WH-1000XM6 vs Sony WH-1000XM5

Le marché des casques audio haut de gamme ne cesse d’évoluer, et Sony continue de dominer le secteur avec ses modèles à réduction de bruit active. Après le succès retentissant du Sony WH-1000XM5, voici venu le Sony WH-1000XM6, très attendu par les audiophiles comme par les professionnels en quête de confort et d’efficacité.

Mais ces deux casques se ressemblent beaucoup sur le papier. Alors, faut-il craquer pour la dernière version ou rester sur le modèle précédent, désormais plus abordable ? Ce comparatif détaillé va vous aider à faire un choix éclairé, en décortiquant les différences techniques, les améliorations réelles, et le rapport qualité-prix de chacun.

👉 À noter : ce duel fait écho à notre guide des meilleurs casques bluetooth à réduction de bruit active, que je vous invite à consulter pour avoir une vue d’ensemble du marché.

Présentation rapide des deux modèles 🎧

Sony WH-1000XM5 : la valeur sûre

Sorti en 2022, le Sony WH-1000XM5 a marqué un tournant dans la gamme. Nouveau design plus épuré, confort accru grâce à un arceau redessiné et une qualité audio maîtrisée, il a su séduire un large public. Sa réduction de bruit active reste l’une des meilleures du marché, et l’expérience utilisateur est enrichie par une application mobile bien pensée, la prise en charge du codec LDAC, ainsi qu’une autonomie d’environ 30 heures.

Avec sa compatibilité multipoint et sa gestion intelligente des environnements sonores, il s’est imposé comme une référence, aussi bien pour les télétravailleurs que pour les voyageurs fréquents.

Sony WH-1000XM6 : la nouvelle référence

Avec le WH-1000XM6, Sony ne révolutionne pas la formule, mais l’affine intelligemment. Ce nouveau modèle conserve l’ADN de son prédécesseur tout en introduisant des améliorations ciblées : une scène sonore encore plus précise, une réduction de bruit légèrement plus efficace grâce à une nouvelle puce de traitement, et une ergonomie revue pour un port prolongé sans gêne.

Le XM6 capitalise sur les forces du XM5 tout en corrigeant certains petits défauts. Il vise clairement les utilisateurs les plus exigeants, tout en conservant une compatibilité totale avec l’application Sony Headphones Connect et les codecs audio haut de gamme.

Comparatif technique détaillé

CritèreSony WH-1000XM5Sony WH-1000XM6
Date de sortieMai 2022Juin 2025
Type de réduction de bruitANC adaptative à double processeurANC adaptative avec nouvelle puce (QNS2)
Qualité audioExcellente, équilibréeEncore plus immersive, meilleure spatialisation
Codecs pris en chargeSBC, AAC, LDACSBC, AAC, LDAC
Confort et designArceau souple, coussin douxArceau renforcé, coussin plus isolant
Autonomie30h (ANC activée)Jusqu’à 32h (ANC activée)
MultipointOuiOui
Application mobileSony Headphones ConnectSony Headphones Connect
Poids250 g240 g (légère réduction)
Prix de lancement419 €479 €

Qualité audio : le XM6 pousse encore plus loin le détail 🔊

Sony est réputé pour la maîtrise de la restitution sonore, et cela se confirme sur ces deux modèles. Le WH-1000XM5 offre déjà une scène sonore équilibrée, avec des basses profondes, des médiums clairs et des aigus bien définis. C’est un casque polyvalent qui s’adapte à tous les styles musicaux, des podcasts aux morceaux les plus complexes.

Mais le WH-1000XM6 apporte quelques ajustements qui font la différence, notamment en matière de spatialisation et de clarté des détails. Grâce à une nouvelle puce de traitement audio et une optimisation des haut-parleurs, le XM6 permet une écoute plus précise, avec une meilleure séparation des instruments et une immersion renforcée, notamment en Hi-Res via LDAC.

Pour les audiophiles ou les amateurs de musique exigeants, le XM6 offre une expérience légèrement supérieure, en particulier dans un environnement calme ou avec de la musique lossless. Pour les autres, la différence ne saute pas forcément aux oreilles… mais elle est bien là.

Réduction de bruit active : le XM6 affine encore plus l’isolation

La réduction de bruit active (ANC) est un domaine où Sony excelle, et le WH-1000XM5 avait déjà placé la barre très haut. Avec ses deux processeurs dédiés et ses huit micros, il parvenait à effacer efficacement les bruits ambiants, que ce soit dans un avion, un open space ou une rue animée.

Le WH-1000XM6 ne bouleverse pas l’approche, mais introduit une nouvelle puce (QNS2) qui améliore la précision de l’ANC en temps réel. Concrètement, cela se traduit par une meilleure gestion des bruits aigus et des variations soudaines (voix humaines, claviers, etc.). Le rendu est un peu plus naturel, avec moins de sensation de pression dans les oreilles, ce que certains utilisateurs du XM5 trouvaient légèrement inconfortable sur de longues sessions.

Dans un environnement très bruyant, les deux modèles sont excellents. Le XM6 prend l’avantage dans les contextes plus dynamiques ou irréguliers, mais l’écart reste subtil pour l’utilisateur moyen.

Fonctionnalités intelligentes et confort d’utilisation

Sony a toujours misé sur une expérience utilisateur riche, et les deux modèles en témoignent. Le WH-1000XM5 propose déjà une panoplie de fonctions pratiques : contrôle tactile, détection de port, mise en pause automatique quand on retire le casque, gestion multipoint fluide (connexion à deux appareils en simultané), et compatibilité avec les assistants vocaux comme Google Assistant ou Alexa.

Le WH-1000XM6 conserve ces atouts et les rend encore plus réactifs. Les capteurs sont plus précis, le passage d’une source audio à une autre est plus rapide, et la prise en charge des mises à jour logicielles semble mieux optimisée.

Côté confort, le XM5 avait déjà fait un gros bond par rapport au XM4 avec un arceau allégé et des coussinets plus enveloppants. Le XM6 continue dans cette voie avec un arceau renforcé, un équilibre du poids amélioré, et des matériaux légèrement plus isolants. C’est un vrai plus pour les longues sessions, que ce soit en télétravail ou en déplacement.

À noter : l’application Sony Headphones Connect, toujours au cœur de l’expérience, reste identique entre les deux modèles, avec égaliseur, modes de bruit ambiant, personnalisation des gestes et profils sonores adaptatifs.

Autonomie et recharge : une légère évolution

Sur ce point, pas de révolution, mais Sony continue de proposer une autonomie solide sur les deux modèles. Le WH-1000XM5 offre jusqu’à 30 heures d’écoute avec la réduction de bruit active activée, et environ 40 heures sans ANC. C’est déjà excellent, surtout pour un usage quotidien ou en voyage.

Le WH-1000XM6 pousse légèrement l’endurance avec jusqu’à 32 heures avec ANC, et une meilleure gestion énergétique, notamment en veille. La recharge rapide est également présente sur les deux casques : 3 minutes de charge pour 3 heures d’écoute, via USB-C.

La recharge complète prend environ 3h dans les deux cas, et aucun des deux modèles ne propose de recharge sans fil — un point qui pourrait évoluer sur de futures générations.

Dans les faits, ces deux casques se valent largement en termes d’autonomie. Le XM6 prend un léger avantage pour ceux qui veulent optimiser au maximum leur usage sans se soucier du câble.

Prix et positionnement : un écart justifié ? 💰

Lors de sa sortie, le Sony WH-1000XM5 était proposé à 419 €, ce qui en faisait déjà un casque haut de gamme. Aujourd’hui, on le trouve régulièrement en promotion autour de 350 €, voire moins pendant certaines périodes commerciales. Cela en fait un excellent rapport qualité/prix, surtout compte tenu de ses performances toujours très actuelles.

Le Sony WH-1000XM6, quant à lui, est lancé à 479 €, ce qui représente un investissement plus conséquent. Cette hausse est justifiée par des améliorations ciblées (meilleure spatialisation, ANC plus intelligente, confort peaufiné), mais elle ne bouleverse pas l’expérience utilisateur au point de rendre le XM5 obsolète.

👉 Pour un utilisateur exigeant, audiophile ou très sensible au confort longue durée, le XM6 représente le meilleur de Sony. Mais pour la majorité des utilisateurs, le WH-1000XM5 reste un choix redoutablement pertinent, surtout à son prix actuel.

Verdict : lequel choisir selon vos besoins ?

Entre le Sony WH-1000XM5 et le WH-1000XM6, le choix dépend essentiellement de vos attentes et de votre budget. Les deux modèles sont excellents, et partagent une base technologique commune très solide.

👉 Choisissez le WH-1000XM6 si :

  • Vous cherchez le meilleur de Sony sans compromis.
  • Vous êtes sensible aux détails sonores et à la spatialisation.
  • Vous utilisez votre casque plusieurs heures par jour et voulez un confort optimal.
  • Vous êtes prêt à investir dans une version encore plus aboutie.

👉 Optez pour le WH-1000XM5 si :

  • Vous voulez un casque haut de gamme à un prix plus accessible.
  • Vous utilisez déjà un XM4 et cherchez une évolution mesurée.
  • Vous ne percevez pas de différence majeure en qualité audio ou ANC.
  • Vous privilégiez le rapport qualité/prix sans sacrifier les fonctionnalités.

Dans tous les cas, ces deux modèles font partie de ce qui se fait de mieux aujourd’hui dans l’univers des casques à réduction de bruit active.

❓FAQ – Sony WH-1000XM6 vs WH-1000XM5

Quelle est la différence principale entre le Sony WH-1000XM6 et le WH-1000XM5 ?

Le XM6 améliore la spatialisation sonore, la réduction de bruit en temps réel et le confort. Le XM5 reste excellent mais légèrement en retrait sur ces points.

Le Sony WH-1000XM6 vaut-il la différence de prix ?

Oui, si vous êtes exigeant sur l’audio et le confort. Sinon, le XM5 reste un choix très performant à un tarif plus intéressant.

Les deux casques sont-ils compatibles avec les mêmes applications ?

Oui, les deux utilisent l’application Sony Headphones Connect, avec les mêmes fonctionnalités (égaliseur, ANC adaptatif, personnalisation…).

Peut-on connecter deux appareils en même temps ?

Oui, les deux modèles gèrent la connexion multipoint sans difficulté.

L’autonomie est-elle vraiment meilleure sur le XM6 ?

L’écart est minime : le XM6 offre environ 2 heures de plus avec ANC activée.

Le XM5 va-t-il devenir obsolète ?

Pas du tout. Il reste totalement d’actualité en 2025, avec des mises à jour logicielles et un niveau de performance élevé.

{ « @context »: « https://schema.org », « @type »: « FAQPage », « mainEntity »: [ { « @type »: « Question », « name »: « Quelle est la différence principale entre le Sony WH-1000XM6 et le WH-1000XM5 ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « Le XM6 améliore la spatialisation sonore, la réduction de bruit en temps réel et le confort. Le XM5 reste excellent mais légèrement en retrait sur ces points. » } }, { « @type »: « Question », « name »: « Le Sony WH-1000XM6 vaut-il la différence de prix ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « Oui, si vous êtes exigeant sur l’audio et le confort. Sinon, le XM5 reste un choix très performant à un tarif plus intéressant. » } }, { « @type »: « Question », « name »: « Les deux casques sont-ils compatibles avec les mêmes applications ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « Oui, les deux utilisent l’application Sony Headphones Connect, avec les mêmes fonctionnalités (égaliseur, ANC adaptatif, personnalisation…). » } }, { « @type »: « Question », « name »: « Peut-on connecter deux appareils en même temps ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « Oui, les deux modèles gèrent la connexion multipoint sans difficulté. » } }, { « @type »: « Question », « name »: « L’autonomie est-elle vraiment meilleure sur le XM6 ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « L’écart est minime : le XM6 offre environ 2 heures de plus avec ANC activée. » } }, { « @type »: « Question », « name »: « Le XM5 va-t-il devenir obsolète ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « Pas du tout. Il reste totalement d’actualité en 2025, avec des mises à jour logicielles et un niveau de performance élevé. » } }, { « @type »: « Question », « name »: « Quel modèle choisir pour travailler dans un open space ? », « acceptedAnswer »: { « @type »: « Answer », « text »: « Les deux conviennent très bien, mais le XM6 offre une isolation légèrement plus efficace et un confort prolongé un peu supérieur. » } } ] }

Quel modèle choisir pour travailler dans un open space ?

Les deux conviennent très bien, mais le XM6 offre une isolation légèrement plus efficace et un confort prolongé un peu supérieur.

Cet article original intitulé Comparatif : Sony WH-1000XM6 vs Sony WH-1000XM5 a été publié la première sur SysKB.

  •