Vue lecture

🪶 Les journaux LinuxFr.org les mieux notés de février 2026

LinuxFr.org propose des dépêches et articles, soumis par tout un chacun, puis revus et corrigés par l’équipe de modération avant publication. C’est la partie la plus visible de LinuxFr.org, ce sont les dépêches qui sont le plus lues et suivies, sur le site, via Atom/RSS, ou bien via partage par messagerie instantanée, par courriel, ou encore via médias sociaux.

Bannière LinuxFr.org

Ce que l’on sait moins, c’est que LinuxFr.org vous propose également de publier directement vos propres articles, sans validation a priori de lʼéquipe de modération. Ceux-ci s’appellent des journaux. Voici un florilège d’une dizaine de ces journaux parmi les mieux notés par les utilisateurs et les utilisatrices… qui notent. Lumière sur ceux du mois de février passé.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

🏆 Meilleures contributions LinuxFr.org : les primées de février 2026

Nous continuons sur notre lancée de récompenser celles et ceux qui chaque mois contribuent au site LinuxFr.org (dépêches, commentaires, logo, journaux, correctifs, etc.). Vous n’êtes pas sans risquer de gagner un livre des éditions Eyrolles, ENI et D-Booker. Voici les gagnants du mois de février 2026 :

Les livres gagnés sont détaillés en seconde partie de la dépêche. N’oubliez pas de contribuer, LinuxFr.org vit pour vous et par vous !

Les livres 📚 sélectionnés

Bandeau LinuxFr.org

Certaines personnes n’ont pas pu être jointes ou n’ont pas répondu. Les lots ont été réattribués automatiquement. N’oubliez pas de mettre une adresse de courriel valable dans votre compte ou lors de la proposition d’une dépêche. En effet, c’est notre seul moyen de vous contacter, que ce soit pour les lots ou des questions sur votre dépêche lors de sa modération. Tous nos remerciements aux contributeurs du site ainsi qu’aux éditions Eyrolles, ENI et D-Booker.

Logo éditions ENI Logo éditions Eyrolles Logo éditions B-BookeR
     

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

EGO dévoile des robots tondeuses premium pour les jardins vastes et compliqués

AURA-R2 qui fonce dans un dinosaure en plastique

Avec sa nouvelle gamme AURA-R2, EGO entre sur le marché du robot tondeuse haut de gamme. Sans câble périphérique, ces nouveaux modèles visent les grands espaces et les jardins complexes, avec des surfaces annoncées jusqu’à 6 000 m², une gestion des pentes jusqu’à 50 % et une navigation assistée par GPS RTK, vision et IA.

Sur un marché du robot tondeuse déjà bien occupé, EGO ne part pas totalement dans l’inconnu. Depuis 1993, la marque s’est imposée dans l’univers du matériel de jardin sur batterie, où elle cultive depuis plusieurs années une image haut de gamme fondée sur la puissance, l’autonomie et la robustesse. Déjà bien installée sur des catégories comme les tondeuses, souffleurs ou débroussailleuses, elle dispose donc d’une vraie légitimité pour tenter une percée plus ambitieuse dans la tonte autonome.

Aura-R2 sur sa station
©EGO

Ainsi, avec l’AURA-R2, EGO vise le haut du panier. Cette nouvelle gamme de robots tondeuses sans câble périphérique s’adresse avant tout aux grands jardins, aux terrains pentus et aux configurations complexes, avec des capacités annoncées allant jusqu’à 6 000 m². Navigation assistée par GPS RTK, caméras, cartographie, détection d’obstacles par IA, contrôle à distance : sur le papier, la fiche technique semble particulièrement ambitieuse. Voyons cela d’un peu plus près…

Une gamme pensée pour les grands jardins et les configurations complexes

Avec l’AURA-R2, EGO ne s’intéresse pas aux petites pelouses simples et bien dégagées. La marque cible avant tout des jardins plus vastes, avec des surfaces de 1 500 m², 3 000 m² ou 6 000 m² selon les modèles, mais aussi des configurations plus difficiles à gérer au quotidien. Il peut s’agir de terrains découpés en plusieurs espaces, de pelouses séparées par des allées, de zones étroites, de tracés irréguliers ou encore d’extérieurs qui demandent une tonte plus fine qu’un simple aller-retour sur une surface plane et ouverte.

Le positionnement revendiqué par EGO concerne aussi les jardins en relief, avec des pentes annoncées jusqu’à 50 %, ainsi que les environnements où la tonte doit s’adapter à plusieurs zones distinctes. En somme, cette nouvelle gamme se destine à des extérieurs bien plus exigeants que la moyenne, où l’on rencontre la plupart des difficultés liées à la tonte robotique.

Une navigation sans câble qui mise sur la précision et l’adaptation

Pour soutenir ce positionnement haut de gamme, EGO mise sur une architecture de navigation sans câble périphérique, avec un système propriétaire baptisé Path IQ™, qui combine plusieurs technologies de localisation, de cartographie et de perception. À l’instar de ses homologues des grandes marques du secteur comme Segway Navimow, ce robot devrait se repérer avec précision dans le jardin, et suivre un parcours cohérent tout en s’adaptant facilement à des environnements irréguliers ou évolutifs.

Dans le détail, EGO associe un GPS RTK, chargé d’assurer un positionnement très précis, à des caméras binoculaires et à un système de VSLAM, qui servent à lire l’environnement et à mettre à jour en continu la carte du terrain. À cela s’ajoute une logique d’odométrie visuo-inertielle, ainsi qu’une détection d’obstacles par IA, censée aider le robot à mieux réagir lorsqu’il croise un élément imprévu sur son trajet, qu’il soit fixe ou mobile. Une telle combinaison devra surtout permettre d’éviter les limites des systèmes reposant sur une seule technologie, en particulier dans les jardins où la topographie, les obstacles ou la configuration des zones compliquent la navigation.

Aura-R2 application
©EGO

Cette dimension connectée passe aussi par l’application EGO Connect, depuis laquelle l’utilisateur peut suivre l’état du robot, la progression de la tonte ou encore le niveau de batterie à distance. Pour l’heure, nous n’en savons pas plus sur les autres fonctionnalités disponibles.

« Avec l’AURA-R2, nous nous sommes concentrés sur la création d’une machine de nouvelle génération, dont la technologie et l’intelligence constituent le cœur. Pour les passionnés de technologie, ce niveau exceptionnel de précision cartographique, de navigation assistée par IA et d’intégration logicielle fluide illustre les progrès réalisés par le secteur.« 

Andrew Frohock, IoT Product Manager chez EGO

Une conception pensée pour des conditions de tonte extrêmes

Au-delà de sa seule navigation, l’AURA-R2 cherche aussi à rassurer sur sa capacité à évoluer dans des conditions de jardinage plus contraignantes que la moyenne. EGO met ainsi en avant une certification IP66, un niveau de protection élevé qui doit permettre au robot de mieux résister aux projections d’eau, à la poussière et, plus largement, à une utilisation en extérieur sur la durée. On note aussi la présence d’un capteur de pluie, chargé de renvoyer la machine à sa base lorsque les conditions se dégradent.

Aura-R2 sur une pente
©EGO

La marque souligne aussi plusieurs éléments destinés à faciliter l’évolution du robot dans des zones plus délicates. C’est le cas du pare-chocs avant à 180°, censé offrir une protection supplémentaire lors des déplacements le long des bordures, dans les angles ou à proximité d’éléments fixes du jardin. Les phares intégrés permettront au robot de fonctionner plus sereinement lorsque la luminosité baisse, là où certains modèles sont davantage pensés pour une tonte en pleine journée et dans des conditions très stables.

Le système de coupe participe lui aussi à ce positionnement. EGO annonce un disque de tonte de 24 cm, associé à une hauteur de coupe réglable de 20 à 90 mm. Sur le papier, cela laisse entrevoir une machine capable de s’adapter à des pelouses moins uniformes que la moyenne, avec une marge de réglage assez large pour répondre à des usages variés. Cet ensemble vient appuyer un positionnement orienté vers les terrains en relief et les jardins découpés. EGO revendique en effet une prise en charge de pentes jusqu’à 50 %, mais également la possibilité de gérer jusqu’à 40 zones de tonte.

Trois modèles, que des tarifs premium

La marque n’invente pas tous les codes du robot tondeuse sans câble, déjà bien installés chez plusieurs concurrents. Mais avec l’AURA-R2, elle apporte sa propre lecture du marché, portée par son expérience du jardin sur batterie et par une volonté claire de s’adresser aux grands terrains et aux configurations complexes.

La gamme AURA-R2 comprend trois modèles : le RMR1500E à 2 099 euros, le RMR3000E à 2 499 euros et le RMR6000E à 3 749 euros. Pour les intéressés, ce sera donc le haut-de-gamme ou rien !

💾

Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.
  •  

AMD mise tout sur RADV

Nous avions appris avant l’été que la pile graphique d’AMD serait désormais entièrement libre et qu’AMD abandonnait ses derniers pilotes propriétaires au sens de privateur, mais AMD s’est également séparé du pilote libre AMDVLK au profit du pilote libre RADV de Mesa !

Une steam deck sur une steam machine originale affichant RADV inside!
L’ombre de Valve plane sur les pilotes graphiques AMD sous Linux. Ici une Steam Deck de 2022 et une AlienWare Alpha (Steam Machine originelle de 2015) en variante AMD, fonctionnant toutes deux avec RADV.

Le 17 novembre 2025, avec la sortie de la version 25.20.3, RADV est devenu le pilote Vulkan universel pour les cartes AMD sous Linux. Cette dépêche vous emmène sur les traces du pilote RADV et comment celui-ci a remplacé AMDVLK, remémore l’aventure d’ACO pour battre LLVM, raconte comment un changement récent du pilote Linux amdgpu active la prise en charge de Vulkan sur de nombreux matériels anciens, et soyons fou, vous explique comment installer RADV sur une Xbox.

Sommaire

Dans le dernier épisode…

Précédemment, dans la dépêche du 3 juillet dernier La pile graphique d’AMD sous Linux est désormais complètement libre nous découvrions qu’AMD était sur le point de se défaire de ses derniers pilotes graphiques propriétaires. C’est désormais chose faite !

Mais il y a un rebondissement ! En effet l’annonce portait sur l’abandon des pilotes « propriétaires » (AMD proprietary OpenGL and Vulkan drivers). L’adjectif « propriétaire » pouvait s’entendre dans le sens de « contraire de libre », et donc, à code fermé.

Nous savions donc que le pilote à code fermé Vulkan AMDVLK-Pro était poussé vers la sortie. Cette affirmation et cette interprétation laissait ouverte la possibilité que le pilote Vulkan libre AMDVLK puisse survivre. Mais l’adjectif « propriétaire » pouvait aussi s’entendre dans le sens de « non-communautaire » ou « propre à AMD », et le temps a parlé : pour AMDVLK aussi, c’est fini. AMDVLK ne fait plus partie de la Suite Radeon Software for Linux.

L’appellation historique AMDGPU-Pro de la suite Radeon Software for Linux tient toujours même quand il n’y a plus de code propriétaire car le suffixe « Pro » signifie « professionnel ». Tous les pilotes distribués dans la suite Radeon Software for Linux font l’objet d’un support professionnel, et cela inclus désormais RADV qui remplace AMDVLK et sa variante AMDVLK-PRO.

Diagramme des technologies AMDGPU
Le choc des simplifications… On peut se demander si après Vulkan, la prochaine technologie à passer intégralement chez Mesa serait OpenCL ⁉

AMDVLK cétékoi

AMDVLK (AMD VuLKan) était le pilote Vulkan maison de AMD. Historiquement AMDVLK était un pilote Vulkan propriétaire qu’AMD promettait de libérer (et qu’ils ont libéré). Ce fut le tout premier pilote Vulkan pour cartes AMD sous Linux, et donc un composant incontournable de l’écosystème vidéoludique sous Linux.

AMDVLK avait été libéré, mais AMD maintenait en parallèle la version propriétaire que l’on peut appeler par convenance AMDVLK-Pro, et qui était généralement en avance sur AMDVLK concernant les fonctionnalités implémentées, et possiblement la prise en charge du matériel dans certains cas.

La mort d’AMDVLK-Pro était certaine, le futur d’AMDVLK était lui, incertain.

Valve avait de son côté investi dans le développement d’un autre pilote Vulkan pour carte graphiques AMD : RADV. RADV est développé communautairement au sein de Mesa, mais initialement financé par Valve. Mesa étant très bien intégré dans les distributions Linux (de multiples composants Mesa sont déjà requis de toute façon !), RADV est le pilote distribué par défaut sous Linux. AMDVLK avait conservé son avance sur RADV pendant un temps, mais ça fait déjà un moment que RADV n’a plus à rougir de la comparaison. RADV étant mieux intégré qu’AMDVLK et de bonne qualité, AMDVLK devenait moins pertinent.

RADV vs AMDVLK, ACO vs LLVM

Mais surtout, RADV devenait meilleur qu’AMDVLK. Par exemple un compilateur de shader nommé ACO a été développé pour RADV, et il est désormais utilisé dans d’autres pilotes AMD chez Mesa comme le pilote OpenGL RadeonSI. ACO (pour Amd COmpiler) est beaucoup beaucoup plus rapide que le compilateur LLVM utilisé par AMDVLK. ACO a été écrit pour faire mieux que LLVM, c’est son but premier.

Cerise sur le gâteau, faisant partie de Mesa, ACO rend plus facile de compiler les composants AMD de Mesa sans avoir à se soucier des compatibilité de versions avec LLVM. Mais le but premier d’ACO, c’est d’être plus performant et plus efficace que LLVM pour le cas particulier des cartes graphiques.

À l’origine tous les pilotes pour cartes graphiques AMD utilisaient LLVM comme compilateur de shaders : les pilotes Vulkan RADV et AMDVLK, le pilote OpenGL RadeonSI, le pilote OpenCL RustiCL et le pilote ROCm pour nommer des pilotes libres, mais aussi les pilotes AMD propriétaires OpenGL OGLP et OpenCL basés sur Orca ou PAL. LLVM était le compilateur de shader utilisé par tous ces pilotes.

Attention, il ne s’agit pas ici du compilateur utilisé pour compiler ces pilotes pour qu’ils tournent sur votre machine, par exemple pour compiler RADV pour un processeur amd64. Non il s’agit ici du compilateur utilisé par le pilote lui-même pour compiler le code natif qui va s’exécuter sur la carte graphique, ce qu’on appelle un « shader » dans le domaine graphique, ou un « kernel » dans le domaine du calcul. Ce sont des programmes qui s’exécutent dans la carte graphique, et LLVM était le compilateur utilisé pour l’architecture amdgcn.

ACO est venu bouleverser tout cela, et ACO est carrément plus rapide que LLVM. ACO est non seulement plus rapide à compiler des shaders (temps de chargement plus court), mais le code compilé s’exécute plus vite (meilleures performances d’éxécution). Il est probablement inutile pour AMD d’investir dans le portage d’AMDVLK sur ACO, alors qu’il suffit de se focaliser sur RADV.

L’agonie d’AMDVLK

Bien que l’annonce d’AMD fut ambiguë concernant le devenir d’AMDVLK (celui-ci n’était pas mentionné du tout), dans les faits ça faisait longtemps qu’on n’avait pas vu une nouvelle version d’AMDVLK. Le temps passant, cela laissait deviner que celui-ci aussi voyait sa fin très proche, et qu’il était peut-être déjà mort.

Sur le dépôt amdvlk pour Ubuntu hébergé par AMD sur repo.radeon.com, les plus récents paquets sont datés d’avril 2025 avec la version 2025.Q2.1.

Sur le dépôt amdgpu pour Ubuntu hébergé par AMD sur repo.radeon.com, les plus récents paquets sont distribués pour la version 6.4.3 de la suite AMDGPU-Pro en août 2025, aucune version plus récente de la suite AMDGPU-Pro ne fournit de pilote AMDVLK.

La dernière version publiée sur GitHub est la version 2025.Q2.1 datée du 30 avril 2025 (ça fait déjà plus de six mois).

L’avant dernier commit sur le dépôt datait de mars et donc contribuait à la version 2025.Q2.1. Le dernier commit est daté du 15 septembre 2025 et ajoute à la documentation un lien redirigeant vers l’annonce de l’abandon d’AMDVLK.

Ci-git AMDVLK

AMDVLK est finito. Publiée le 15 septembre 2025 sur la forge GitHub d’AMDVLK, l’annonce intitulée « AMDVLK open-source project is discontinued » est on ne peut plus explicite : « Le projet open source AMDVLK a été abandonné ».

L’annonce peut se traduire ainsi :

Afin de rationaliser le développement et de renforcer notre engagement envers la communauté open-source, AMD unifie sa stratégie en matière de pilotes Linux Vulkan et a décidé de mettre un terme au projet open source AMDVLK, afin d'apporter tout son soutien au pilote RADV en tant que pilote Vulkan open-source officiellement pris en charge pour les cartes graphiques Radeon.

Cette consolidation nous permet de concentrer nos ressources sur une unique base de code hautement performante qui bénéficie du travail incroyable de l'ensemble de la communauté open-source. Nous invitons les développeurs et les utilisateurs à utiliser le pilote RADV et à contribuer à son avenir.

Ça faisait un moment que certains constataient le fait qu’AMD ne publiait plus de nouvelles versions d’AMDVLK et donc, on commençait à s’en douter, mais cela n’avait pas encore été annoncé officiellement.

Les notes de version de Radeon Software for Linux 25.20.3 annoncent la prise en charge effective de RADV. L’annonce discutée dans la précédente dépêche à l’occasion de la version 25.10.1 n’était encore qu’une annonce pour le futur, maintenant c’est fait.

Étonnamment cette nouvelle annonce ne mentionne pas AMDVLK, mais cette version ne fournit plus AMDVLK, et ça faisait un moment qu’on pouvait voir la chose venir.

Un point intéressant à noter dans cette nouvelle annonce, est que pour contourner un bug ils recommandent d’installer la version 32-bit du pilote Vulkan fourni par leur suite Radeon Software for Linux, et ce pilote est… le pilote Mesa, comme l’indique le nom explicite mesa-amdgpu-vulkan-drivers:i386. Et le pilote Mesa, c’est RADV. Cette formulation peut paraître cryptique pour le néophyte, mais sans ambiguïté quand on sait décoder les termes : le pilote Vulkan est celui de Mesa.

Ainsi donc, sans mentionner explicitement le retrait d’AMDVLK, AMD mentionne que leur pilote Vulkan est désormais RADV.

La mort de PAL

Comme de nombreux pilotes AMD historiques pour Linux, AMDVLK était basé sur un unique pilote utilisable sur d’autres systèmes d’exploitation, comme Windows. Et en effet, AMDVLK utilisait PAL (Platform Abstraction Library), qui comme son nom l’indique est une bibliothèque d’abstraction de plateforme.

C’est PAL qui permettait à AMD de porter ses pilotes OpenCL, OpenGL et Vulkan sous Windows et Linux. Leur proposition OpenCL fait désormais partie de la suite ROCm et utilise donc le backend ROCr au lieu de PAL. Leur proposition OpenGL et Vulkan ne sont plus ni OGLP ni AMDVLK et leurs remplaçants RadeonSI et RADV n’utilisent pas PAL.

Ainsi AMDVLK était le dernier consommateur de PAL. C’est donc sans surprise que le 15 septembre 2025, le même jour que l’annonce de l’abandon d’AMDVLK, le dépôt PAL a été archivé, ce qui — dans le jargon de GitHub — signifie qu’il est placé en lecture seule pour consultation uniquement. PAL n’est plus développé. PAL aussi est finito.

Goodbye old pal! Salut mon pote !

Mais concrètement, ça change quoi pour moi ?

RADV est le pilote Vulkan pour les cartes AMD sous Linux. Vulkan est une interface de programmation graphique pour effectuer le rendu 3D très efficacement, utilisé désormais à la place d’OpenGL dans de très nombreux logiciels, en particulier les jeux, mais pas seulement. Par exemple le composant GSK de la bibliothèque GTK utilisée par de nombreux logiciels y compris l’environnement de bureau GNOME peut déjà utiliser Vulkan pour le rendu. La bibliothèque Qt peut aussi faire le rendu d’interfaces QML avec Vulkan.

Vulkan prend aussi en charge les « compute shaders » qui permettent d’exploiter une carte graphique pour d’autres calculs que du rendu graphique. En général les éditeurs de logiciels préfèrent utiliser des API comme CUDA pour Nvidia, HIP (ROcm) pour AMD, OneAPI pour Intel, ou MUSA pour Moore Threads, car ces API viennent avec beaucoup de bibliothèques (ce sont des écosystèmes complets), une intégration très poussée, et sont très performantes. Mais si Vulkan Compute a un écosystème moins riche, Vulkan Compute profite du fait que Vulkan est bien plus universel. La spécification OpenCL est aussi pensée pour être universelle, mais en pratique, il est plus courant de trouver une implémentation Vulkan disponible sur une machine.

Par exemple dans le domaine de l’IA, le LLM (large langage model) d’inférence llama.cpp peut utiliser Vulkan en utilisant le cadriciel Kompute, ce qui rend ce logiciel massivement portable ! Si votre carte graphique est une carte AMD, alors vous pourrez utiliser llama.cpp avec RADV !

De même, le logiciel de transcription vocale whisper.cpp peut utiliser Vulkan et donc RADV. Ceux qui ont visité en décembre dernier le salon Open Source Expérience ont pu voir au stand Videolan une démonstration de la future version 4.0 de VLC qui intégrera whisper.cpp pour tricoter automatiquement des sous-titre pour vos films et séries préférés. Ça veut dire qu’avec le pilote Vulkan RADV et la généralisation du pilote noyau amdgpu (voir ci-après), cette fonctionnalité de VLC pourrait tourner sur toutes les cartes AMD depuis la première génération GCN (il y a 14 ans), à condition cependant que la mémoire vidéo soit suffisante…

AMD R9 280X GCN1 Tahiti et VLC
VLC + whisper.cpp + RADV + amdgpu = sous-titres automatiques. Ici une AMD R9 280X (HD 7970 rafraîchie) avec architecture GCN1 Tahiti (j’ai vérifié que whisper.cpp fonctionne dessus avec RADV).

Ce que l’abandon d’AMDVLK signifie aussi, c’est qu’AMD est désormais fortement impliqué dans la maintenance et le développement de RADV. Quand AMD avait annoncé qu’ils prendraient en charge officiellement RADV, cela garantissait qu’ils allaient participer au développement et à la maintenance de celui-ci, mais il était toujours possible qu’une partie des ressources soit affectée à AMDVLK.

Aujourd’hui c’est sûr : plus aucun développeur de chez AMD ne travaille sur AMDVLK pour Linux, toutes les ressources Vulkan pour Linux chez AMD sont entièrement affectées au développement et à la maintenance de RADV.

Comme expliqué dans la précédente dépêche sur le sujet, RADV est fourni par défaut dans toutes les distributions de bureau Linux. Le fait qu’AMD soutienne officiellement le développement de ce pilote est une garantie pour les utilisateurs que ce pilote soit au niveau de leurs attentes, et le fait qu’AMD affecte toutes ses ressources Vulkan pour Linux sur ce pilote augmente encore cette garantie.

Nous pouvons donc refaire le tableau récapitulatif de compatibilité des pilotes AMD pour Linux, en retirant simplement la ligne AMDVLK :

GCN1 GCN2 GCN3 GCN4 GCN5 RDNA1 RDNA2 RDNA3 RDNA4
Noyau Linux amdgpu 🐧️ ⭐️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️
Vulkan Mesa RADV 🐧️ ⭐️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️
OpenGL Mesa RadeonSI 🐧️ ⭐️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️
VA-API Mesa RadeonSI 🐧️ ⭐️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️
OpenCL Mesa RustiCL 🐧️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️ ✅️
OpenCL AMD ROCm ⭐️ ❌️ ❌️ ❌️ ❌️ ❌️ ❌️ 🧐️ 🧐️ 🧐️
HIP AMD ROCm ⭐️ ❌️ ❌️ ❌️ ❌️ ❌️ ❌️ 🧐️ 🧐️ 🧐️

✅️ = Pilote fonctionnel.
🧐️ = Pilote fonctionnel pour une sélection de modèles.
❌️ = Pilote non-fonctionnel.
🐧️ = Pilote empaqueté en standard dans les distributions Linux usuelles.
⭐️ = Pilote faisant partie de la suite officielle Radeon Software for Linux.

RADV, le pilote graphique de votre prochaine console de jeu

L’acquisition d’ATI par AMD en 2006 faisait partie de la stratégie « Fusion » d’AMD : acquérir et intégrer les compétences graphiques d’ATI pour pouvoir fusionner les puces graphiques et les processeurs AMD et diriger le développement conjoint de ces composants pour pouvoir le vendre comme un produit unique et fortement intégré. Cette stratégie a été très payante dans le domaine des consoles de jeu vidéo : AMD domine le marché des consoles.

Ce qui se passe c’est que depuis 2013, les fabricants de console achètent le processeur qui est intégré avec la carte graphique :

Tableau de consoles
AMD domine le marché des consoles de jeu vidéo.

À cela s’ajoute un changement de paradigme : la majorité des modèles de console qui sortent sont désormais des PC tournant sous Linux ou sous Windows. Nous parlons bien ici de modèles, pas de nombre de ventes par modèle. Microsoft et Sony font des ventes confortables de Xbox Series X/S ou de PlayStation 5 et Nintendo inonde le marché de ses Switchs. Ces consoles utilisent des systèmes spécifiques et privateurs (Microsoft utilise une variante de Windows, Nintendo et Sony se basent sur FreeBSD), mais dès que vous sortez de ces modèles, tous les modèles que vous trouverez tournent sous GNU/Linux ou Windows.

La tendance a commencé en 2020, d’abord avec la Chuwi AerobBox, une console chinoise tournant sous Windows et qui serait secrètement un dérivé de la Xbox One, suivie franchement de l’Atari VCS 400/800 en 2020 (sous Linux), suivie par la Steam Deck de Valve en 2022 (également sous Linux). La Steam Deck a atteint un succès suffisamment critique pour déclencher une explosion de nouvelles consoles produites par une multitude de fabricants : Asus ROG Ally, Lenovo Legion Go, Acer Nitro Blaze… Toutes ces machines sont compatibles PC et qu’elles soient installées par défaut avec Linux ou Windows selon le modèle, vous pourrez installer Linux sur celles-ci. Excepté la MSI Claw 7/8 qui a tenté l’expérience Intel (c’est très courageux après 24 ans d’absence d’Intel dans ce marché), toutes ces machines sont propulsées par un APU AMD, une puce intégrée mêlant CPU et GPU AMD. Si l’Atari VCS est une console de salon, toutes ces autres consoles sont des machines portables dans la lignée de la Switch.

L’année 2026 verra l’arrivée de la Steam Machine (la vraie, pas la tentative échouée de 2015), l’offre de Valve pour concurrencer le marché des consoles de salon à côté des Xbox Series et PlayStation 5. Cette concurrence se fait désormais sur le positionnement : le salon. Comparées à ces autres machines, la Steam Machine fera partie d’une nouvelle génération de consoles.

Les Xbox Series et PlayStation 5 faisaient partie de la génération « Zen 2 en CPU et RDNA 2 en GPU » qui était la reine des années 2020. Mais en 2026 la Steam Machine fera partie de la génération suivante fondée sur les architectures Zen 4 en CPU et RDNA 3 en GPU : en plus d’apporter des améliorations naturelles à ces composants, c’est la génération qui introduit AVX512 dans les consoles.

L’offre de Microsoft pour cette nouvelle génération est l’Asus ROG Xbox Ally X sortie ce 16 octobre 2025. L’Asus ROG Xbox Ally X tourne sous Windows, est compatible PC et vous pouvez l’utiliser sous Linux. Si vous achetez la plus récente console de marque Xbox — la première Xbox pour cette nouvelle génération de consoles — vous pouvez installer Linux et dans ce cas, RADV sera votre pilote graphique. Vous pouvez dès aujourd’hui utiliser RADV sur une console Xbox officielle, il vous suffit de démarrer la ROG Xbox Ally X sur une clé USB Linux… Trop simple ! À ce niveau de simplicité l’accroche dans le chapô relève presque du putaclic (assumé 😄️).

RADV sous Windows ?

AMDVLK sous Windows
AMD utilise AMDVLK sous Windows, pourrait-il être remplacé par RADV là aussi ?

Comme écrit plus tôt le pilote AMDVLK était partagé avec d’autres systèmes d’exploitation, comme Windows.

La solution AMDVLK était pertinente pour AMD car ils pouvaient ainsi mutualiser leurs efforts. Mais se pose alors la question : s’ils souhaitent continuer à mutualiser leurs efforts, pourraient-t-ils remplacer leur pilote Windows par RADV et profiter en-même temps de toutes les améliorations apportées par la communauté ?

Techniquement, c’est possible, et ça a déjà été tenté. Pas par AMD mais par un développeur de chez Collabora. En juillet 2024 Faith Ekstrand a proposé un merge request à Mesa pour porter le pilote RADV sous Windows. En octobre 2024 lors de l’XDC (X.Org Developer's Conference), Faith Ekstrand avait présenté l’avancement de son travail lors de sa conférence « A little Windows with your Mesa » [pdf] et a fait une démonstration technique en montrant une démo Vulkan tourner sous Windows 11 avec RADV.

En l’occurrence il s’agit de faire fonctionner RADV sur WDDM (Windows Driver Display Model) au lieu du DRM (Direct Rendering Manager) de Linux.

Il s’agit pour le moment d’une démonstration, le code n’a pas été fusionné dans Mesa, et le fil de discussion de cette merge request n’a pas bougé depuis 2024.

Mais cela prouve que oui c’est tout à fait faisable, et que si AMD le souhaite, ils savent même à qui demander pour que cela devienne une réalité, il leur suffit de contracter avec Collabora à cette intention.

amdgpu mon amour

Les cartes graphiques AMD modernes, c’est-à-dire à partir de l’architecture GCN (RDNA est une évolution de GCN), peuvent toutes utiliser le pilote noyau amdgpu. Les cartes les plus récentes requièrent amdgpu, mais les cartes les plus anciennes peuvent utiliser soit l’ancien pilote radeon, soit le pilote amdgpu plus moderne. Jusqu’à très récemment sous Linux les cartes de génération GCN1 et GCN2 utilisaient encore le pilote radeon par défaut.

Le pilote amdgpu est requis pour faire autre chose que de l’OpenGL. Si vous utilisez le pilote radeon, RADV ne fonctionne pas (pas de Vulkan pour vous !). RustiCL ne fonctionne pas (pas d’OpenCL pour vous), et OpenGL ne propose pas une implémentation aussi complète. Par exemple vous pourriez n’avoir qu’OpenGL 4.1 au lieu d’OpenGL 4.5.

Utiliser le pilote amdgpu et donc débloquer toutes ces fonctionnalités de Mesa est une simple option de démarrage, mais puisque cette option n’est pas activée par défaut, la plupart des utilisateurs de ces cartes n’utilisent donc pas Vulkan.

Un gros travail a été fait pour s’assurer que le pilote amdgpu soit au même niveau que le pilote radeon pour ces anciennes carte, et à partir de la version 6.19 du noyau Linux, toutes les cartes GCN sans exceptions utilisent le pilote amdgpu. Cela signifie que tout le monde ayant une carte graphique AMD de génération GCN ou suivante aura accès à RADV et donc à Vulkan sans rien configurer !

Dans tous les cas, utiliser amdgpu était nécessaire pour utiliser Vulkan avec ces cartes, AMDVLK aussi ne fonctionnait qu’avec amdgpu.

Ça fait longtemps que les utilisateurs de ces cartes utilisent RADV avec amdgpu, car AMDVLK avait abandonné ces cartes depuis longtemps. Par exemple la prise en charge des cartes GCN 1 à 3 avait été abandonnée par AMDVLK après la version 2021.Q2.5, et donc en 2021. La prise en charge des cartes GCN 4 et 5 avait été quand à elle abandonnée après la version 2023.Q3.3, et donc en 2023.

RADV était déjà la meilleure solution pour les utilisateurs de ces cartes, car c’était le pilote Vulkan le plus à jour. Mais jusqu’à maintenant les utilisateurs de carte GCN 1 et 2 devaient modifier leur configuration d’amorçage pour profiter de RADV et donc de Vulkan !

Cette situation est désormais terminée ! Timur Kristóf de chez Valve a travaillé dur pour compléter et fiabiliser la prise en charge GCN 1 et 2 dans le pilote amdgpu. Il a présenté ce travail en novembre lors de la XDC 2025 pendant sa conférence « A love song for gamers with old GPUs » [pdf, blog]. Une « pull request » été ensuite été proposée par le mainteneur Alex Deucher pour faire d’amdgpu le pilote par défaut à partir du noyau Linux 6.19.

Timur Kristóf ne s’arrête pas en si bon chemin, et pour ceux qui lisent l’anglais, Phoronix rapporte la progression incroyable qu’il apporte à amdgpu :

AMD abandonne peut-être son pilote (AMDVLK)… mais c’est parce que le pilote AMD (RADV) est vraiment très bon. 😉️

Et tout ceci a été rendu possible par l‘initiative amdgpu qu’AMD a initié en 2014, il y a 12 ans ! Grâce à ce pilote noyau taillé comme la brique fondamental de tout ce qui peut être fait avec une carte AMD, toutes sortes de pilotes divers et variés ont pu être écrits, comme RADV et d’autres. 🙂️

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Pluralistic: Code is a liability (not an asset) (06 Jan 2026) – Pluralistic: Daily links from Cory Doctorow

Ok, cet article vaut vraiment le coup concernant le codage assisté par l'IA. Signé Cory Doctorow : https://pluralistic.net/2026/01/06/1000x-liability/#graceful-failure-modes
Les points clés :

    Code is a liability (not an asset) (ce que je traduis par "Le code est une responsabilité (et non un bien figé)")
    La notion de "Writing code" et de "Software engineering"
    La notion de centaure et de centaure-inversé (ce qui explique qu'un humain assisté par un outil comme l'IA peut faire certaines choses super efficacement)

Avec cet autre article (https://naildrivin5.com/blog/2026/02/23/the-death-of-the-software-craftsman.html) cela donne une sacrement bonne vision du sujet.

Je note que les aspects durable et énergétique de l'IA restent passés sous silence dans ces articles.
(Permalink)
  •  

Vibeware : quand l’IA industrialise la cybercriminalité médiocre

Dans une nouvelle analyse consacrée à l’évolution des opérations du groupe APT36 (également connu sous le nom de Transparent Tribe), Bitdefender documente l’émergence d’un modèle de développement de malwares assisté par l’IA que ses chercheurs qualifient de « vibeware ».

L’intelligence artificielle n’a pas encore produit le cyberattaquant omniscient que certains redoutaient. Ce qu’elle produit, en revanche, est peut-être plus insidieux : une chaîne de production automatisée de logiciels malveillants médiocres, jetables, et suffisamment nombreux pour saturer les défenses.

Un nouveau modèle industriel de la menace

Le vibeware désigne une approche du développement de malwares pilotée par l’IA qui privilégie la quantité sur la qualité. L’idée n’est pas de concevoir une cyberattaque brillante, mais d’en produire des dizaines, chaque jour, de manière automatisée.

Des groupes comme APT36, groupe de cybercriminels pakistanais bien documenté, seraient désormais capables de maintenir une cadence d’un nouveau variant de malware par jour. Ce rythme industriel permet de « saturer » la télémétrie défensive standard. Chaque nouveau binaire nécessite une analyse, chaque nouvelle signature doit être établie. Les équipes de sécurité se retrouvent à courir après un flot continu de menaces mineures, au risque de manquer l’essentiel.

Les chercheurs ont qualifié cette stratégie de DDoD pour Distributed Denial of Detection, ou déni de détection distribué. Par analogie avec les attaques DDoS classiques qui submergent un serveur par le volume de requêtes, le DDoD submerge les capacités d’analyse et de détection des équipes cyber avec un flux constant de codes renouvelés. L’objectif n’est pas de surpasser les défenses par le génie technique, mais d’épuiser les défenseurs.

Des langages exotiques pour réinitialiser les détections

L’un des leviers techniques les plus efficaces du vibeware réside dans le recours à des langages de programmation inhabituels. Les moteurs de détection sont, pour la plupart, optimisés pour analyser du code écrit en C++, C# ou .NET. Les attaquants l’ont bien compris.

Grâce aux LLM, il est désormais possible de porter la logique d’un malware existant vers un langage de niche sans disposer d’une expertise préalable. Les langages favorisés par APT36 incluent notamment :

  • Nim : représentant moins de 0,1 % de l’indice TIOBE, ce langage compile en C ou C++ mais utilise un moteur d’exécution unique. Les scanners de sécurité le classent souvent comme « inconnu » plutôt que « malveillant ». Il est utilisé comme enveloppe (wrapper) furtive pour masquer des charges utiles plus anciennes.
  • Zig : utilisé pour des outils comme ZigShell ou ZigLoader, ce langage offre des performances élevées tout en échappant aux signatures comportementales des solutions EDR.
  • Crystal : également trop rare pour disposer de signatures établies dans de nombreux outils de détection de terminaux.

À ces langages de niche s’ajoutent Rust et Go, plus connus mais appréciés pour leur stabilité mémoire lors de tâches intensives comme l’exfiltration massive de données.

L’effet stratégique est double : réinitialisation de la détection ( chaque nouveau langage oblige les outils de sécurité à repartir de zéro) et accessibilité simplifiée par l’IA, qui permet à des attaquants sans expertise spécifique de générer du code fonctionnel dans ces langages.

Living Off Trusted Services : se cacher dans le trafic légitime

Le vibeware excelle également dans l’exploitation des services cloud légitimes pour ses canaux de commande et de contrôle. Cette technique, désignée sous le terme de Living Off Trusted Services (LOTS), consiste à utiliser des plateformes comme Google Sheets, Discord, Slack ou Supabase comme infrastructure C2.

L’exemple le plus documenté est SheetCreep, un malware écrit en C# qui transforme une feuille de calcul Google Drive en véritable tableau de bord d’administration. Son fonctionnement est précis :

  • Le malware interroge régulièrement une feuille de calcul spécifique pour y récupérer des instructions.
  • Les commandes sont encodées en Base64 puis chiffrées via un algorithme DES (mode ECB).
  • Les résultats d’exécution sont renvoyés dans les cellules du tableur via l’API Google Drive.
  • L’infrastructure est organisée en onglets dédiés : unenc_requests, unenc_outputs, unenc_heartbeats, unenc_systems.

D’autres outils de la flotte APT36 s’appuient sur Discord (CrystalShell), Slack (ZigShell), Firebase et Supabase pour la gestion des sessions et le stockage des données volées, ou encore sur Microsoft Graph API via l’infostealer MailCreep.
Azure Front Door est également utilisé pour masquer les communications malveillantes dans du trafic HTTPS légitime.

L’IA joue ici un rôle d’accélérateur décisif : ces plateformes disposent de documentations publiques abondantes et de SDK bien référencés dans les données d’entraînement des LLM. Générer du code d’intégration stable pour Google Sheets ou Discord est devenu trivial, même pour un attaquant sans compétence technique approfondie.

Les limites du vibeware

Il serait inexact de présenter le vibeware comme une rupture technologique car le code généré par l’IA est souvent dérivé, incohérent, et sujet à des erreurs logiques critiques.

Plusieurs cas documentés illustrent ces failles :

  • Des binaires déployés avec l’URL du serveur C2 laissée en « placeholder » (modèle vide), rendant l’exfiltration de données impossible.
  • Des composants qui s’effondrent dès que la logique atteint un niveau de complexité modéré.
  • Dans le cas de CrystalShell, l’absence de protocole de communication entre les bots aurait généré des « broadcast storms » inutiles, et la commande de statut réinitialisait la métrique qu’elle était censée mesurer.
  • Des outils incapables de supprimer leurs propres fichiers temporaires après exécution, facilitant l’analyse forensique post-attaque.

Cette fragilité structurelle explique pourquoi les groupes comme APT36 continuent d’utiliser des frameworks classiques et éprouvés (Cobalt Strike ou Havoc) comme filet de sécurité. Les outils « vibe-coded » ne sont pas encore assez fiables pour porter seuls la responsabilité d’une opération critique.

Par nature, les LLM sont entraînés sur des dépôts publics comme GitHub : ils réorganisent des patterns existants sans inventer de nouvelles méthodologies d’attaque. Ils manquent de véritable compréhension du contexte de sécurité.

Comment se défendre : passer du statique au comportemental

Face au vibeware, une défense basée sur les signatures est structurellement inadaptée. Les recommandations convergent vers une approche dynamique et comportementale.

> Prioriser l’analyse comportementale. L’injection de processus ou le process hollowing restent des constantes, quel que soit le langage utilisé. Les solutions EDR/XDR doivent surveiller ces comportements plutôt que les signatures de binaires. La surveillance des répertoires d’écriture utilisateur (%APPDATA%, %TEMP%) et le scan régulier de la mémoire complètent ce dispositif.

> Auditer les services cloud. Les connexions persistantes vers Discord, Slack ou Google Sheets provenant de binaires non vérifiés doivent être traitées comme des indicateurs de compromission potentiels. Un monitoring strict de ces plateformes s’impose dans les environnements sensibles.

> Compliquer la phase post-intrusion. Les opérations de piratage proprement dites restent manuelles. Réduire la surface d’attaque pour introduire de la friction lors du mouvement latéral, filtrer rigoureusement les fichiers LNK, ZIP ou ISO reçus par email, et maintenir les navigateurs à jour pour bénéficier de mécanismes comme l’App-Bound Encryption (ABE) sont autant de mesures qui forcent l’attaquant à utiliser des méthodes plus lourdes et donc plus détectables.

> S’appuyer sur des SOC ou MDR matures. Compte tenu de la cadence de production des variants (parfois un par jour), seule une surveillance 24/7 permet de distinguer le « bruit » généré par le vibeware des véritables intrusions critiques.

Le vibeware n’est pas l’avènement du cyberattaquant surhumain. C’est l’industrialisation du cyber-médiocre. Et c’est précisément pour cette raison qu’il mérite une attention soutenue.

*Image : © DR
*L’analyse des chercheurs de Bitdefender a révélé la présence récurrente du pseudonyme  « Nightmare  » sur plusieurs systèmes. Ce personnage semble jouer un rôle central dans le développement des malwares assistéw par l’IA

The post Vibeware : quand l’IA industrialise la cybercriminalité médiocre appeared first on Silicon.fr.

  •  

Libre en Fête - découvrir le logiciel libre à l'arrivée du printemps - du 7 mars au 12 avril 2026

Le Libre en Fête démarre bientôt !

Faire découvrir le logiciel libre et la culture libre au grand public au travers d'événements proposés partout en France, dans une dynamique conviviale et festive : tel est l'objectif de cette initiative de l'April qui existe grâce à la mobilisation des organisations locales de promotion du logiciel libre. L'édition 2026 du Libre en Fête aura lieu partout en France du samedi 7 mars au dimanche 12 avril.

Plus de 110 événements sont déjà référencés dans le cadre de cette édition, et d'autres se rajouteront sans doute au fur et mesure. Un grand merci à toutes les personnes et structures qui organisent ces événements !

Il est d’ailleurs encore temps de proposer un événement dans le cadre du Libre en Fête ! Il suffit d'ajouter le mot-clé libre-en-fete-2026 (sans accent) dans la page d'annonce sur l'Agenda du Libre. L'événement apparaîtra alors automatiquement sur le site de l'initiative.

Faites circuler cette annonce, merci !

Libre en Fête

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Conflit Iran-Israël-USA - 05 mars 2026 : embrasement du Proche et Moyen Orient - YouTube


IRAN-----------------
https://x.com/Schizointel/status/2028...
https://t.me/wfwitness/74711
https://t.me/ILTVnews/7262
https://t.me/ILTVnews/7267
https://t.me/militarysummary/26999
https://t.me/wfwitness/75718
https://t.me/wfwitness/76073
https://x.com/geo27752/status/2028818...
https://x.com/zarGEOINT/status/202945...
https://x.com/zarGEOINT/status/202935...
https://x.com/trbrtc/status/202940668...
https://x.com/zarGEOINT/status/202946...
https://x.com/Grimm_Intel/status/2029...
https://x.com/MeraMeraska/status/2029...
https://x.com/Schizointel/status/2028...
https://x.com/JosephHDempsey
Israël-------------
https://t.me/wfwitness/75726
https://t.me/Middle_East_Spectator/29770
https://t.me/DDGeopolitics/175563

États du Golfe / Golfe persique---------------------
https://t.me/Middle_East_Spectator/29521
https://t.me/Middle_East_Spectator/29545
https://rybar.ru/piwigo/upload/2026/0...
https://t.me/Middle_East_Spectator/29608
https://t.me/Middle_East_Spectator/29619
https://t.me/DDGeopolitics/175437
https://t.me/Middle_East_Spectator/29775
https://t.me/wfwitness/76092
https://x.com/devonjlum/status/202901...
https://x.com/zarGEOINT/status/202877...
https://edition.cnn.com/2026/03/04/mi...

Liban----------------
https://www.jpost.com/israel-news/def...
https://t.me/wfwitness/75615
https://t.me/wfwitness/75720
https://t.me/Middle_East_Spectator/29750
https://x.com/zarGEOINT/status/202935...

Mer d'arabie----------------
https://t.me/Middle_East_Spectator/29722

Méditerranée-------------
https://t.me/wfwitness/75145?single
https://t.me/pilotblog/27363
https://t.me/militarysummary/27016

Océan Indien--------------
https://t.me/rybar_in_english/28777
https://t.me/wfwitness/75599

Turquie---------------
https://t.me/militarysummary/27023

Azerbaijan--------------
https://t.me/wfwitness/76062
https://x.com/99Dominik_/status/20295...
https://t.me/wfwitness/76144

Icônes carte https://icones8.fr/
#israel #iran #usa #dubai #bahrain #irak #conflitsencartes #osint


Permalien
  •  

WebP animé vs GIF - Le guide pour enfin virer vos animations de 1987

Le GIF, c'est un format que j'adore mais qui date de 1987. Ouais c'est super vieux quoi (désolé les gens qui sont né cette année là ou avant...On est ensemble...loool). C'est l'époque où Rick Astley cartonnait et où Internet n'existait même pas encore pour le grand public. Et pourtant, y'a encore plein de gens qui s'en servent pour leurs animations avec notamment de la transparence. Alors c'est cool mais aujourd'hui, je vous propose qu'on règle ça une bonne fois pour toute.

Le problème du GIF en fait c'est assez technique puisque ça se compose de 8 bits de couleur (256 couleurs max) et surtout d'un alpha 1 bit. Chaque pixel est donc soit totalement opaque, soit totalement transparent, y'a pas d'entre-deux. Du coup quand vous avez une animation avec des bords arrondis ou des ombres portées, vous vous retrouvez avec des bords tout crénelés et moches. Ça donne un effet "découpage aux ciseaux de maternelle" qu'on aime bien parce que ça fait très rétro mais bon, on peut faire mieux aujourd'hui.

Car avec le WebP animé, c'est une autre histoire. Là on passe à 24 bits de couleur (plus de 16 millions de couleurs) et un alpha 8 bits, c'est-à-dire 256 niveaux de transparence au lieu de juste oui/non. Les dégradés, les ombres, les bords anti-aliasés... tout ça passe nickel et vos animations ont enfin l'air pro au lieu de sortir d'un site GeoCities.

Et niveau poids, y'a pas photo. Google annonce ~64% de réduction en lossy par rapport au GIF même si en pratique, comptez entre 50 et 70% de gain selon la complexité de l'animation. Cela veut dire que sur une page web avec plusieurs animations, ça fait une SACRÉE différence niveau temps de chargement.

Et côté compatibilité, en 2026 la question ne se pose plus puisque Chrome, Firefox, Safari (depuis iOS 14 en 2020), Edge... bref tout le monde supporte le WebP animé. Donc ces conneries de compatibilité, c'est plus une excuse !

Convertir avec gif2webp (la méthode recommandée)

L'outil officiel de Google s'appelle gif2webp (il est inclus dans libwebp ) et c'est ce qu'il y a actuellement de plus fiable pour ce job.

Installez-le d'abord comme ceci :

# macOS
brew install webp

# Ubuntu/Debian
sudo apt install webp

# Windows (via chocolatey)
choco install webp

Ensuite, la conversion de base est plutôt simple :

# Lossy, qualité 70, boucle infinie
gif2webp -lossy -q 70 -loop 0 -m 4 input.gif -o output.webp

# Mode mixed (le meilleur ratio en général)
# Choisit automatiquement lossless ou lossy frame par frame
gif2webp -mixed -q 70 -loop 0 -m 4 input.gif -o output.webp

# Compression max (plus lent, fichier plus petit)
gif2webp -lossy -q 70 -loop 0 -m 6 input.gif -o output.webp

Le paramètre -m c'est la méthode de compression, de 0 (rapide) à 6 (lent mais meilleur ratio). Perso, -m 4 je trouve que c'est le sweet spot comme on dit. Et le mode -mixed est intéressant aussi parce qu'il analyse chaque frame et décide tout seul si c'est mieux en lossy ou lossless.

Avec ffmpeg

Après si vous avez déjà ffmpeg installé (et si vous êtes sur ce blog, y'a de bonnes chances), ça marche aussi :

# Conversion basique GIF vers WebP animé
ffmpeg -i input.gif -c:v libwebp_anim -loop 0 -lossless 0 -q:v 70 output.webp

# Qualité max (lossless)
ffmpeg -i input.gif -c:v libwebp_anim -loop 0 -lossless 1 output.webp

Le -c:v libwebp_anim force l'encodeur WebP animé (sans ça, ffmpeg choisit parfois le mauvais codec et vous obtenez un WebP statique avec juste la première frame... pas génial). Le -q:v va de 0 à 100, et je pense que 70 c'est un bon compromis.

Avec ImageMagick

Avec celui là c'est comme ça :

magick input.gif -coalesce -quality 80 -loop 0 output.webp

Le -coalesce est important car les GIF optimisés stockent souvent juste les différences entre frames pour gagner de la place. Cette option reconstruit chaque frame en entier avant la conversion, sinon vous risquez des artefacts visuels bien moches.

Conversion en masse

Après convertir UN fichier c'est bien, mais si vous avez 200 GIFs à migrer, faut automatiser :

# Convertir tous les GIFs d'un dossier
for f in *.gif; do
 gif2webp -mixed -q 70 -m 4 "$f" -o "${f%.gif}.webp"
 echo "$f converti"
done

# Avec un rapport de taille avant/après
for f in *.gif; do
 gif2webp -mixed -q 70 -m 4 "$f" -o "${f%.gif}.webp"
 size_gif=$(stat -f%z "$f" 2>/dev/null || stat -c%s "$f")
 size_webp=$(stat -f%z "${f%.gif}.webp" 2>/dev/null || stat -c%s "${f%.gif}.webp")
 ratio=$((100 - size_webp * 100 / size_gif))
 echo "$f: -${ratio}%"
done

Intégrer sur un site web

Ensuite pour mettre vos images animées sur votre site web, la méthode propre, c'est l'élément <picture> qui permet de proposer un fallback GIF pour les (rares) navigateurs récalcitrants :

<picture>
 <source srcset="animation.webp" type="image/webp" />
 ![](animation.gif)
</picture>

Après je pense que le fallback GIF n'est vraiment plus indispensable pour le web classique mais par contre si vous envoyez des animations par email comme un le bon boomer que vous êtes, gardez le GIF en fallback parce que les clients mail, c'est un autre monde.

Ah et attention, j'ai lu certains articles qui suggèrent d'utiliser @supports en CSS pour détecter le WebP. Genre @supports (background: url(truc.webp)). Sauf que ça ne marche PAS. La règle @supports teste si une déclaration CSS est syntaxiquement valide, pas si le navigateur sait décoder le format d'image. Donc elle passera toujours, même sans support WebP. Donc si vous avez besoin d'une détection côté CSS, utilisez plutôt image-set() avec type(), mais franchement le <picture> fera le job.

Et l'AVIF animé dans tout ça ?

Alors vous avez peut-être entendu parler de l' AVIF , le format qui fait encore mieux que le WebP en compression. Pour les images statiques, c'est vrai, l'AVIF déchire (support Chrome, Firefox, Safari).

Mais pour les animations ? Bah c'est pas encore ça. Chrome n'affiche que la première frame, Safari ne le supporte pas du tout, et Firefox le cache derrière un flag (image.avif.sequence.enabled).

Bref, on en reparlera dans 2-3 ans.

Quel format pour quel usage ?

Hé oui, y'a un choix à faire parce que le WebP animé n'est pas non plus LA solution à tout. Voici ce que je vous propose en fonction de ce que vous voulez proposer comme animation :

  • WebP animé : stickers, emojis, petites animations en boucle avec transparence. Le meilleur ratio poids/qualité pour ce cas.
  • Vidéo MP4/WebM : si votre animation dépasse 5 secondes ou n'a pas besoin de transparence, une vidéo sera TOUJOURS plus légère. Un MP4 pèse ~50% de moins qu'un WebP animé pour le même contenu. Utilisez ``.
  • Lottie : pour les animations vectorielles (icônes, UI), c'est imbattable en poids (quelques Ko) et c'est scalable. Faut juste le player JS (~60 Ko mis en cache). J'suis sûr que vous ne connaissiez pas !!
  • APNG : si vous avez besoin de lossless absolu (logos, texte animé), c'est supporté partout mais c'est lourdingue.

Voilà, si vous avez encore des GIFs animés avec transparence qui traînent sur votre site, vous savez maintenant ce qu'il vous reste à faire.

Amusez-vous bien !

  •  

Une infrastructure VPN hybride avec Headscale

Lorsque je travaille sur des projets personnels, j’ai besoin d’un environnement de test que je peux déployer rapidement et facilement.

Souvent, mon poste de travail n’est pas suffisant pour répondre à mes besoins. Je m’arme donc de deux serveurs clients légers sur lesquels je déploie mes machines virtuelles. Ces clients légers sont adaptés pour des tests rapides et sont pensés pour ne pas consommer trop d’énergie (ils sont allumés 24/7, donc j’essaye de faire attention).

Mais lorsque je fais des tests un peu plus poussés, ces serveurs sont vite limités (avec un Home-Assistant, un serveur média, le Omada Controller, des noeuds Kubernetes, et quelques autres services, ça commence à tirer sur la corde).

Pour continuer mes expériences et mon apprentissage, je loue alors un serveur dédié chez OVH sur lequel j’ai installé un Proxmox.

Mais avoir 2 infrastructures séparées, ça n’est pas très pratique. J’ai donc décidé de les relier entre elles.

Depuis ma workstation, j’ai un client tailscale (avec un serveur headscale) me permettant d’accéder à un bastion sur l’infra à distance.

Simple, efficace, pas cher.

Information

Tailscale est un VPN basé sur WireGuard qui permet de connecter des machines entre elles de manière sécurisée. Il intègre des ACLs, un DNS, un système de partage de fichiers et bien d’autres fonctionnalités.

En téléchargeant l’agent sur une machine, celle-ci peut rejoindre un réseau Tailscale et communiquer avec les autres machines du même compte. Dans une entreprise, cela peut permettre de donner accès à des ressources internes à des employés en télétravail ou gérer qui a accès à quels services.

Mais une limite me dérange un peu : si un hôte sur mon infra-cloud doit contacter un hôte dans mon LAN, je dois installer un client sur chacun des postes.

Devoir installer un agent sur chaque machine est un peu lourd.

En réponse à ça, il est possible d’utiliser les routes tailscales pour qu’un hôte devienne le point d’entrée vers un réseau.

Sur cette page, je vais vous expliquer comment j’ai configuré mon infrastructure pour que mes deux réseaux soient interconnectés (en installant un réseau Tailscale).
Installer Headscale

Euh… On parlait pas de Tailscale à la base ?

En réalité, je n’ai jamais utilisé Tailscale directement. Headscale est un serveur Tailscale auto-hébergé utilisant les clients Tailscale (et son réseau DERP).

Ainsi, l’authentification des clients se fait directement sur mon serveur, et je peux gérer les ACLs directement depuis ce dernier. Voici le schéma de ce que je veux mettre en place :

Headscale VPN hybride

Du fait de la nature de WireGuard, le trafic ne passe pas par le serveur Headscale, mais directement entre les clients. Headscale sert principalement à gérer les ACLs et à propager les routes (on verra ça plus tard).

Pour installer Headscale, je vais utiliser Docker Compose sur un VPS gratuit chez Oracle Cloud (je voulais qu’il soit hors des réseaux que je veux connecter).

J’utilise Traefik comme reverse proxy pour exposer le port 8080 de mon conteneur Headscale, mais il n’est pas forcément obligatoire d’exposer le port 8080.

services:
headscale:
image: headscale/headscale:0.22.3
volumes:

  • ./config:/etc/headscale/
  • ./data:/var/lib/headscale
    ports:

    - 8080:8080

  • 3478:3478/udp # STUN
    command: headscale serve
    restart: unless-stopped
    labels:
  • "traefik.enable=true"
  • "traefik.http.routers.headscale.rule=Host(headscale.une-tasse-de.cafe)"
  • "traefik.http.routers.headscale.entrypoints=secure"
  • "traefik.http.routers.headscale.tls.certresolver=letsencrypt"
  • "traefik.http.services.headscale.loadbalancer.server.port=8080"
    networks:
  • traefik-net

networks:
traefik-net:
external: true
driver: overlay
name: traefik-net

Si vous n'utilisez pas Traefik

Une fois traefik (ou un autre reverse proxy) configuré pour exposer le port 8080 du conteneur, je vais créer mon fichier ./config/config.yaml à partir de la template fournie par Headscale.

curl https://raw.githubusercontent.com/juanfont/headscale/main/config-example.yaml -o ./config/config.yaml

Voici les valeurs que j’ai modifiées pour mon cas d’usage :

server_url: https://headscale.une-tasse-de.cafe
listen_addr: 0.0.0.0:8080
dns_config:
base_domain: une-tasse-de.cafe

Pour la partie DNS, Tailscale va automatiquement ajouter un enregistrement DNS à chaque machine qui rejoint le réseau. Ainsi, je peux accéder à mes machines par leur nom de domaine via la syntaxe nom-machine.nom-utilisateur.base-domain.

Par exemple, si je nomme mon hôte cloud-router et que je suis l’utilisateur router, je pourrais accéder à mon hôte via cloud-router.router.une-tasse-de.cafe.
Ajouter un client Tailscale

Il existe deux méthodes d’authentification sur Headscale :

Ajout de notre token dans la base Headscale,
Authentification par token pré-authentifié.

Pour notre premier client Tailscale, testons la première méthode.

Je vais ajouter mon laptop (qui doit pouvoir accéder aux deux réseaux lorsque je suis en déplacement).

$ curl -fsSL https://tailscale.com/install.sh | sh
$ sudo tailscale up --login-server https://headscale.une-tasse-de.cafe
To authenticate, visit:

    https://headscale.une-tasse-de.cafe/register/nodekey:0592da68e42380d988c7a17c7c47728f2643e6cfb7988258bb3af7b193cba272

Via ce lien, on tombe sur cette page :

08de96fe92b24ca0d6628091b854075f.png

L’URL générée par Headscale ne sert qu’à donner la commande à exécuter pour valider l’authentification du client. Cette commande peut être exécutée depuis le conteneur Headscale, ou en exposant un socket gRPC à l’extérieur du conteneur et en y accédant depuis la cli Headscale.

Avant de valider l’authentification, je vais également créer un utilisateur quentin sur Headscale.

docker compose exec headscale headscale ns create quentin
docker compose exec headscale headscale nodes register --user quentin --key nodekey:0592da68e42380d988c7a17c7c47728f2643e6cfb7988258bb3af7b193cba272

Success s’affiche sur le terminal, cela nous indique que nous avons bien rejoint le réseau Tailscale.

Astuce

Si vous n’exposez pas le port 8080 de votre conteneur, vous pouvez toujours obtenir le token dans l’URL renvoyée par la commande tailscale up et l’ajouter directement dans la base Headscale.

Après l’étape de l’authentification, un tailscale status nous affiche les hôtes disponibles sur le réseau :

$ tailscale status
fd7a:115c:a1e0::1 laptop quentin linux -

On se sent un peu seul ici… je vais ajouter mon “routeur” coté cloud !

J’installe une machine cloud-router qui va rejoindre notre réseau Tailscale d’une seconde façon : via un token pré-authentifié.

Dans le premier cas, un administrateur (nous) a dû se connecter sur le serveur Headscale pour valider la connexion. Mais c’est assez peu flexible et sauf si votre utilisateur garde son terminal ouvert jusqu’à ce que vous ayez validé l’utilisateur : il n’est pas possible de valider un client en asynchrone.

C’est dans cette situation que les clés pré-authentifiées peuvent être un atout. Ce token est lié à un utilisateur, c’est pourquoi je vais d’abord créer router qui rassemblera les machines des différents réseaux.

docker compose exec headscale headscale ns create router

Maintenant, je demande un token pré-authentifié d’une durée de 24h.

$ docker compose exec headscale headscale --user router preauthkeys create --expiration 24h
9b4bfbb0ab0977fc6c9a907e90c6784ba3adfb381b73f1f5

Cette commande va me créer un token à usage unique pour authentifier automatiquement le client tailscale qui l’utilisera.

Astuce

Il est possible de faire un token réutilisable plusieurs fois en rajoutant --reusable.

sudo tailscale up --login-server https://headscale.une-tasse-de.cafe --auth-key 9b4bfbb0ab0977fc6c9a907e90c6784ba3adfb381b73f1f5

Nous n’avons pas eu à valider le client sur notre Headscale cette fois-ci, le client a pu rejoindre le réseau Tailscale directement.

Un tailscale status nous affiche bien nos deux clients :

$ tailscale status
fd7a:115c:a1e0::1 laptop quentin linux -
fd7a:115c:a1e0::2 cloud-router.router.une-tasse-de.cafe router linux -

J’ajoute maintenant un second hôte home-router qui sera le point d’entrée/sortie pour accéder au réseau distant.

$ tailscale status
fd7a:115c:a1e0::1 laptop quentin linux -
fd7a:115c:a1e0::2 cloud-router.router.une-tasse-de.cafe router linux -
fd7a:115c:a1e0::3 home-router.router.une-tasse-de.cafe router linux -

Maintenant, nous avons un hôte dans chacun des réseaux. L’hôte home-router peut accéder à la machine cloud-router , mais pas au réseau derrière (192.168.128.0/24).

Il m’est possible de configure les machines pour rediriger les paquets provenant du réseau Tailscale, mais il est possible de configurer ces routes directement sur Headscale, et c’est ce que je vais faire.

Sur la machine cloud-router, ayant une interface dans le réseau 192.168.128.0/24, je vais informer Headscale que je souhaite partager l’accès à ce réseau.

Pour cela, je peux configurer mon client via tailscale set --advertise-routes 192.168.128.0/24 --advertise-exit-node (toujours depuis la machine cloud-router).

Mais la route ne va pas automatiquement se propager sur les hôtes, il faut encore la valider directement sur le serveur Headscale.

$ docker compose exec headscale headscale route list
ID | Machine | Prefix | Advertised | Enabled | Primary
1 | cloud-router | 192.168.128.0/24 | true | false | false

La route est bien connue par Headscale, mais elle n’est pas encore activée.

Pour l’activer, je peux le faire depuis la cli docker compose exec headscale headscale route enable -r 1 où 1 correspond à l’ID de la route.

Sur l’hôte home-router, je configure également une route tailscale set --advertise-routes 192.168.1.0/24 (qui devra aussi être activée par docker compose exec headscale headscale route enable -r 2).

$ docker compose exec headscale headscale route list
ID | Machine | Prefix | Advertised | Enabled | Primary
1 | cloud-router | 192.168.128.0/24 | true | true | true
2 | home-router | 192.168.1.0/24 | true | true | true

Par défaut, les clients n’acceptent pas les routes propagées. Pour changer ça, il faut configurer le paramètre tailscale set --accept-routes.

Je vais rentrer ce paramètre sur nos 3 hôtes :

laptop
cloud-router
home-router

Depuis laptop (sur un réseau différent, ex 4G), je peux alors pinguer une adresse du réseau 192.168.1.0/24 et 192.168.128.0/24.

Maintenant, configurons les ACLs pour que seuls les utilisateurs ‘quentin’ et ‘routeur’ aient accès aux routes : ***

Dans mes paramètres Headscale config.yaml, j’ai ajouté le chemin du fichier ACL :

acl_policy_path: "/etc/headscale/acl.json"

Ce fichier est à créer à coté de config.yaml, voici un exemple de configuration :

{
"acls": [
{
"action": "accept",
"src": ["quentin", "router"],
"dst": ["192.168.1.0/24:", "192.168.128.0/24:", "router:*"]
},
]
}

Ainsi, les machines des utilisateurs quentin et router peuvent accéder aux réseaux 192.168.1.0/24 et 192.168.128.0/24 ainsi qu’aux autres hôtes du réseau Tailscale appartennant à l’utilisateur router (comme cloud-router et home-router).

Astuce

Si je veux restreindre le nombre de machines joignables, je peux juste préciser les IP individuellements (192.168.1.200/32, 192.168.128.15/32).

Je dois redémarrer mon conteneur Headscale pour prendre en compte les changements.
Configurer les routes

N’importe quelle machine appartennant à l’utilisateur router peut maintenant joindre les réseaux distants. Mais je ne veux pas avoir à installer un agent tailscale sur chacune des machines devant joindre ces plages (et c’est là que le terme router prend tout son sens dans le nom des machines).

Je vais alors configurer home-router et cloud-router pour être des passerelles vers les réseaux qu’elles connaissent.

Sur chacune d’entres elles, j’active le routage des paquets :

echo 'net.ipv4.ip_forward = 1' | sudo tee -a /etc/sysctl.d/99-tailscale.conf
echo 'net.ipv6.conf.all.forwarding = 1' | sudo tee -a /etc/sysctl.d/99-tailscale.conf
sudo sysctl -p /etc/sysctl.d/99-tailscale.conf

Depuis une machine quelconque (AKA sans le moindre agent tailscale) de mon réseau 192.168.1.0/24, je vais essayer de joindre une machine du réseau 192.168.128.0/24 via home-router (dont l’IP est 192.168.1.181)

root@quelconque:~# ip route add 192.168.128.0/24 via 192.168.1.181
root@quelconque:~# ping -c1 192.168.128.1
PING 192.168.128.1 (192.168.128.1) 56(84) bytes of data.
64 bytes from 192.168.128.1: icmp_seq=1 ttl=63 time=100 ms

Je fais également ça de l’autre coté (toujours sur une machine sans agent tailscale) :

root@autre-machine-quelconque:~# ip route add 192.168.1.0/24 via 192.168.128.10
root@autre-machine-quelconque:~# ping -c1 192.168.128.10
PING 192.168.1.10 (192.168.1.10) 56(84) bytes of data.
64 bytes from 192.168.1.10: icmp_seq=1 ttl=62 time=92.5 ms

Parfait, j’ai bien mes passerelles vers les réseaux respectifs !
OPNSense

Propager une route statique, c’est rigolo lorsque j’ai 3-4 machines à configurer mais ça devient vite fastidieux de devoir s’assurer que chaque machine possède la bonne route.

Mais par chance, mon routeur virtuel (coté cloud) est un OPNSense sur lequel je peux configurer des passerelles et des routes !

Ainsi, je peux aller sur l’interface web pour prévenir mon routeur de l’IP de la passerelle.

65c980822686fdfd2974bf8d2ad17045.png

Une fois qu’il connaît la passerelle, je lui demande de créer une route passant par cette passerelle pour accéder à mon réseau 192.168.1.0/24.

943d76b20e5b8ccef86f00ea7e1ff917.png

Ainsi dès qu’une VM va essayer de joindre mon réseau LAN, le routeur OPNSense va automatiquement rediriger les paquets vers la passerelle cloud-router.

Malheureusement, pour le chemin inverse, je n’ai pas encore d’autre solution que de configurer les routes de manière statique sur mes machines. La raison est que j’utilise encore ma box Orange qui ne propose aucune option pour ajouter des routes personnalisées.

Pour les routes statiques, je peux les configurer dans le fichier /etc/network/interfaces de cette manière :

allow-hotplug ens18
iface ens18 inet static
address 192.168.1.42
netmask 255.255.255.0
gateway 192.168.1.1
post-up ip route add 192.168.128.0/24 via 192.168.1.181

Conclusion

Je vais essayer de prévoir la principale question que vous pourriez vous poser :

Pourquoi Tailscale et pas un simple Wireguard ?

Parce qu’en réalité, j’ai beaucoup plus que 3 machines dans mon réseau VPN, et l’usage de Tailscale me permet de gérer les ACLs avec des permissions assez poussées sans avoir à bricoler des IPTables (si j’étais passé par du WireGuard classique).

Plusieurs options étaient alors possibles :

FireZone
ZeroTier
Netmaker
WireGuard + IPTables

Ayant déjà bricolé avec Tailscale, je me suis dirigé assez naturellement vers cette solution. Mais je vous invite fortement à tester ces autres options (et à me faire un retour si vous le souhaitez). Le combo Tailscale + Headscale me convient parfaitement mais je ne suis pas fermé à d’autres solutions.

Et concrètement, it just works. J’ai pu rapidement mettre en place mon infrastructure et la faire fonctionner sans trop de difficultés.


Direct link
  •  

Make docker swarm HA with keepalived |・∀・

While having a self-healing, scalable docker swarm is great for availability and scalability, none of that is worth a sausage if nobody can connect to your cluster!

Preparation

Enable IPVS module

On all nodes which will participate in keepalived, we need the "ip_vs" kernel module, in order to permit services to bind to non-local interface addresses.

Set this up once-off for both the primary and secondary nodes, by running:

echo "modprobe ip_vs" >> /etc/modules
modprobe ip_vs

Setup nodes

Assuming your IPs are as per the following example:

192.168.4.1 : Primary
192.168.4.2 : Secondary
192.168.4.3 : Virtual

Run the following on the primary

docker run -d --name keepalived --restart=always \
--cap-add=NET_ADMIN --cap-add=NET_BROADCAST --cap-add=NET_RAW --net=host \
-e KEEPALIVED_UNICAST_PEERS="#PYTHON2BASH:['192.168.4.1', '192.168.4.2']" \
-e KEEPALIVED_VIRTUAL_IPS=192.168.4.3 \
-e KEEPALIVED_PRIORITY=200 \
osixia/keepalived:2.0.20

And on the secondary2:

docker run -d --name keepalived --restart=always \
--cap-add=NET_ADMIN --cap-add=NET_BROADCAST --cap-add=NET_RAW --net=host \
-e KEEPALIVED_UNICAST_PEERS="#PYTHON2BASH:['192.168.4.1', '192.168.4.2']" \
-e KEEPALIVED_VIRTUAL_IPS=192.168.4.3 \
-e KEEPALIVED_PRIORITY=100 \
osixia/keepalived:2.0.20

Serving

That's it. Each node will talk to the other via unicast (no need to un-firewall multicast addresses), and the node with the highest priority gets to be the master. When ingress traffic arrives on the master node via the VIP, docker's routing mesh will deliver it to the appropriate docker node.
Summary

What have we achieved?

Summary

Created:

A Virtual IP to which all cluster traffic can be forwarded externally, making it "Highly Available"

The easy, 5-minute install

I share (with sponsors and patrons) a private "premix" GitHub repository, which includes an ansible playbook for deploying the entire Geek's Cookbook stack, automatically. This means that members can create the entire environment with just a git pull and an ansible-playbook deploy.yml 👍

Chef's notes 📓

Some hosting platforms (OpenStack, for one) won't allow you to simply "claim" a virtual IP. Each node is only able to receive traffic targetted to its unique IP, unless certain security controls are disabled by the cloud administrator. In this case, keepalived is not the right solution, and a platform-specific load-balancing solution should be used. In OpenStack, this is Neutron's "Load Balancer As A Service" (LBAAS) component. AWS, GCP and Azure would likely include similar protections. ↩

More than 2 nodes can participate in keepalived. Simply ensure that each node has the appropriate priority set, and the node with the highest priority will become the master.

Direct link
  •  

Toutes les rumeurs sur le Samsung Galaxy S27 : faut-il acheter le Galaxy S26… Ou attendre son successeur ?

Vue spéculative du Samsung Galaxy S27

Prévue pour le 11 mars 2026, la gamme Galaxy S26 devrait s’imposer comme une valeur sûre du haut de gamme Android. Mais comme souvent dans l’univers des smartphones, les regards se tournent déjà vers la génération suivante. Les premières spéculations autour du Samsung Galaxy S27 commencent à circuler, et une question se pose : vaut-il mieux acheter le Galaxy S26 dès sa sortie, ou patienter encore pour le prochain flagship du constructeur coréen ? Faisons le point sur les fuites et les rumeurs.

Nota bene : cet article s’appuie sur des fuites relayées par des leakers. Aucune de ces données n’a été confirmée officiellement par Samsung, et certaines caractéristiques peuvent encore évoluer d’ici la présentation officielle du Galaxy S27, probablement prévue début 2027.

Photographie : une révolution en vue sur le Samsung Galaxy S27 Ultra ?

Sur le plan photographique, plusieurs sources évoquent le possible retour d’un objectif à ouverture variable sur l’ensemble de la série S27. Samsung avait déjà expérimenté cette technologie à l’époque du Galaxy S9. Le principe est simple : adapter mécaniquement l’ouverture de l’objectif afin de privilégier soit la luminosité, soit la netteté, en fonction des conditions de prise de vue1

Une telle évolution ne serait pas anodine, d’autant que des rumeurs similaires se font entendre concernant la future série iPhone 18 Pro. La concurrence entre Samsung et Apple pourrait donc se jouer, une nouvelle fois, sur le terrain de la photo.

Mais la véritable évolution concernerait surtout le Galaxy S27 Ultra. Les fuites évoquent l’arrivée d’un nouveau capteur principal de 200 mégapixels intégrant une technologie LOFIC, destinée à améliorer sensiblement la plage dynamique. Concrètement, cela permettrait d’obtenir un HDR plus naturel, avec moins d’artefacts et une meilleure gestion des zones très lumineuses et des ombres.

Performances : une copie révisée pour encore plus d’efficacité ?

En matière de performances, le Galaxy S26 s’annonce déjà solide et parfaitement dimensionné pour les usages actuels. Le Galaxy S27 pourrait toutefois aller plus loin. Certaines fuites évoquent un partenariat renforcé avec Qualcomm : après avoir testé des fréquences personnalisées sur les générations précédentes, Samsung doterait sa nouvelle gamme d’une puce Snapdragon totalement sur mesure, potentiellement réservée au modèle Ultra2. L’objectif serait d’augmenter à la fois les performances brutes et l’efficacité énergétique, afin de mieux rivaliser avec les puces maison d’Apple attendues sur la gamme iPhone 18.

Au-delà des évolutions matérielles classiques, certaines rumeurs évoquent des changements plus profonds du côté des fonctionnalités. Sur le Galaxy S27 Ultra, Samsung testerait une nouvelle solution d’authentification faciale baptisée provisoirement « Polar ID »3. Celle-ci s’appuierait sur un système d’analyse par lumière polarisée. Ce type de technologie pourrait offrir une reconnaissance plus fiable dans des conditions difficiles (faible luminosité, port de lunettes ou de masque) tout en renforçant la sécurité. 

Autre sujet sensible : l’avenir du S Pen. Plusieurs leakers évoquent la possibilité que Samsung abandonne le stylet intégré sur le Galaxy S27 Ultra. Le constructeur pourrait soit supprimer totalement le S Pen de sa gamme de smartphones, soit revenir à un stylet externe optionnel. Cette décision s’inscrirait dans une réflexion plus large, Samsung considérant que les utilisateurs les plus attachés au S Pen se tournent désormais davantage vers les tablettes Galaxy Tab.

Autonomie : enfin une plus grande batterie sur les Galaxy S27 ?

Le Galaxy S26 Ultra conserve une batterie de 5 000 mAh, un choix dans la continuité des générations précédentes. Du côté du Galaxy S27, les rumeurs évoquent une capacité légèrement supérieure, autour de 5 500 mAh

Il ne s’agirait pas d’une révolution, face aux batteries de certains concurrents qui grimpent jusqu’à une capacité de 7 500 mAh, mais tout de même d’un progrès tangible. 

Les Samsung Galaxy S26
© Samsung

Verdict : acheter le Galaxy S26 ou attendre le Galaxy S27 ?

Les Samsung Galaxy S26 constituent une évolution dans la continuité des générations précédentes, avec des nouveautés à la marge, comme le filtre de confidentialité Privacy Display, capable de protéger le contenu de l’écran des regards indiscrets.

Difficile à ce stade de déterminer si la génération S27 constituera une évolution plus significative, même si les premiers bruits de couloir sur la partie photographique semblent encourageants.

En pratique, tout dépend donc de votre smartphone actuel. Si vous partez d’un modèle très ancien, le Galaxy S26 représente déjà un saut qualitatif évident. Autrement, il peut s’avérer pertinent d’attendre le Galaxy S27, et notamment le modèle Ultra. D’ici là, nous continuerons à mettre cet article à jour, au fil des nouvelles rumeurs et informations officielles.

Et vous, avez-vous décidé de craquer pour le Samsung Galaxy S26 ? Ou préférez-vous attendre le Galaxy S27 ? Qu’attendez-vous comme innovations sur les prochains flagships de Samsung ? Dites-nous tout en commentaire.

  1. https://www.gizmochina.com/2026/02/10/samsung-is-working-on-variable-aperture-for-galaxy-s27-ultra-claims-new-leak/ ↩︎
  2. https://www.androidcentral.com/phones/samsung-galaxy/samsung-galaxy-s27 ↩︎
  3. https://www.sammobile.com/news/this-big-facial-recognition-upgrade-may-be-coming-to-the-galaxy-s27-ultra/ ↩︎
  •  

AboutCode et Dropsolid présentés au prochain webinaire de la série "Open Source by OW2"

Dans le cadre de sa série trimestrielle de webinaires, OW2 donnera la parole aux projets AboutCode et Dropsolid, le jeudi 12 mars 2026 à 16h00.

OW2 Webinar 7

La série « Open Source by OW2 » est dédiée aux innovations open source, aux projets et à la communauté OW2, ainsi qu’aux opportunités de financement open source dont le programme européen NGI. Découvrez de nouveaux projets, des technologies, de l’innovation, des modèles ouverts au sens large (science/données/matériel/éducation/normes/protocoles/etc.), mais aussi des biens communs numériques, des financements, des modèles économiques, de la coopération et de l’impact social. Chaque webinaire met en avant un projet OW2 et un projet financé par NGI Zero Commons Fund.

Découvrez l'agenda du 12 mars 2026 :

  • 16h : Introduction
  • 16h05 : Dropsolid : Construire la souveraineté numérique grâce à une gouvernance de l'IA transparente, par Tassos Koutlas et Paulina Ryters-Menapace, Dropsolid
  • 16h25 : ScanCode et la stack AboutCode : outil d'analyse logicielle (SCA) de référence du marché, avec Philippe Ombredanne, NextB
  • 16h40 : Conclusion

Chaque présentation sera suivie d'une session d'échange ouvert entre les intervenants et participants.
L’inscription est gratuite mais obligatoire (le lien est envoyé par mail). Les présentations ont lieu en anglais. N’hésitez pas à diffuser l’invitation autour de vous !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Shuffle - Quand 4 IA redesignent votre site (et c'est moche)

Shuffle , c'est un outil qui vous propose de redesigner votre site web avec 4 modèles d'IA différents. Vous collez votre URL, vous décrivez ce que vous voulez... et boom, Claude Opus 4.6, GPT-5.2, Gemini 3 Pro et Kimi K2.5 vous pondent chacun leur version. J'ai testé sur ma home. Verdict : c'est moche de fou !

Vous arrivez sur la page, vous entrez l'adresse de votre site, vous tapez un petit prompt du genre "modernise mon blog tech" et vous lancez la machine. Les 4 modèles bossent alors en parallèle et au bout de 30 secondes environ, vous avez 4 propositions de redesign à comparer côte à côte.

Je trouvais le concept cool, sauf que dans la pratique, c'est une autre histoire. Comme je vous le disais en intro, j'ai testé sur korben.info, et les 4 IA ont eu exactement la même idée lumineuse : tout foutre en thème sombre. QUATRE sur QUATRE ! Pas un seul n'a osé proposer autre chose qu'un fond #1a1a2e dégeu avec des accents néon bleu-vert. Original, hein !!

Les 4 propositions de redesign de korben.info... toutes en dark mode. Désolé si votre site ressemble à ça.

On dirait que pour les IA, "blog tech" = "dark mode obligatoire"... et du coup ça ressemble à tous les médias tech génériques qu'on retrouve partout. Sauf si vous précisez "fond clair" dans le prompt, mais même là, c'est pas garanti.

Claude Opus a pondu une esthétique "hacker" avec du code Matrix en fond vert (carrément, on se laaache). GPT-5.2 a carrément rebaptisé le site "KORBEN NEXT" avec une baseline inventée de toute pièce, "La veille tech qui va droit au but"... euh, merci mais non merci j'aime pas le foot. Gemini 3 Pro a opté pour un style magazine éditorial et Kimi K2.5 (le modèle chinois de Moonshot AI) a sorti le gradient hero classique, propre... ou plutôt fade.

Bah ouais, les IA analysent la structure, les catégories, les images... mais le résultat c'est finalement toujours le même template sombre "tech media 2024" qu'on a vu un million de fois. Alors que pour moi, Korben.info c'est pas du tout cette ambiance.

Mais l'outil a quand même des qualités puisque l'éditeur visuel permet de modifier le résultat en drag-and-drop sans toucher au CSS, et vous pouvez même exporter le code dans 4 formats : Next.js, Laravel, WordPress ou HTML classique. En fait, ça peut servir de très bon point de départ si vous avez la flemme de partir d'une page blanche et si votre webdesigner est devenu injoignable depuis qu'il est parti à Punta Cana.

Côté prix, y'a une version gratuite mais limitée à quelques générations, et après puis c'est 24 dollars par mois...etc.

Ça aurait pu être un excellent outil mais malheureusement, les modèles sont formatés sur les mêmes tendances, les mêmes palettes, les mêmes layouts. C'est dommage je trouve. Voilà, après je pourrais vous faire une conclusion bien neuneu genre "C'est pas demain qu'une IA remplacera un vrai directeur artistique qui comprend l'identité d'une marque." mais la réalité, c'est que un humain moyen motivé qui sait ce qu'il veut peut avoir un truc incroyablement bien généré par IA s'il prend le temps le temps de se former et qu'il ne lâche rien ! Tenez par exemple, 100% du template graphique de mon site a été généré à l'aide de l'IA et moi derrière pour la fouetter...

Voilà, si vous voulez rigoler un peu, allez tester votre site sur Shuffle mais ne vous attendez pas à un miracle !

  •  

Alibaba Cloud se fait plus explicite sur la souveraineté

Cinq fois le mot « souveraineté » dans un même post : sur le blog d’Alibaba Cloud, c’est inhabituel, pour ne pas dire quasi inédit.

Ce post, publié début février, dresse un « bilan annuel » de l’offre de cloud privé Apsara Stack. Dans la pratique, il s’agit d’une plaquette commerciale. Elle a, donc, la particularité de comporter de nombreuses références à la notion de « souveraineté ». Avec des exemples. Parmi eux, le Sénégal. Sur place se dérouleront, du 31 octobre au 13 novembre 2026, les Jeux olympiques de la jeunesse. Les principaux SI sous-jacents doivent être migrés chez Alibaba Cloud, nous explique-t-on. Apsara Stack portera des « applications critiques » à l’image de la billetterie et de la gestion du parcours de la flamme. Il est surtout censé contribuer, par après, à la mise en place d’une « infrastructure cloud nationale souveraine »…

Alibaba Cloud donne un autre exemple : celui de l’Algérie, qui s’est appuyée sur ses services pour déployer une « infrastructure cloud souveraine pour les services publics ».

Alibaba Cloud mise sur les partenariats telcos

Pour trouver trace d’un autre emploi du mot « souveraineté » sur le blog principal de l’entreprise chinoise, il faut remonter à septembre 2025. Elle avait félicité un client et un partenaire intégrateur malaisiens qui venaient de remporter des prix d’innovation décernés par une association représentative du secteur IT.

La notion de souveraineté apparaît épisodiquement sur d’autres canaux de com d’Alibaba Cloud. Illustration sur Facebook en novembre 2025, dans le cadre d’un forum gouvernemental en Arabie saoudite. L’entreprise avait organisé un atelier à ce sujet avec Atos.

Quelques mois plus tôt, son directeur secteur public avait appelé les pays émergents à investir dans le « cloud souverain ». Il avait évoqué les alliances montées dans cette perspective avec des opérateurs télécoms. Et en avait mentionné une : en Afrique du Sud, avec BCX, qui assure une « exploitation indépendante » du cloud.

Alibaba Cloud avait fait son entrée sur le marché sud-africain grâce à ce partenariat. C’était en 2022. Promettant d’accompagner le développement de compétences locales, il a mis sur pied , avec BCX, une Alibaba Cloud Academy.

Des certifications européennes… surtout en Allemagne

Dans son trust center, Alibaba Cloud détaille sa conformité à diverses réglementations nationales… mais exclusivement sur la plaque Asie (+ Australie). Toutefois, parmi les certifications dont il dispose, certaines ont été délivrées en Europe. Notamment C5 (le « SecNumCloud allemand »), obtenu pour la première fois en 2020. L’Allemagne lui a aussi attribué l’AIC4 (AI Cloud Service Compliance Criteria Catalog), qui évalue la sécurité des services d’IA. Sur place, il en a également obtenu une de la part de l’industrie automobile : TISAX (Trusted Information Security Assessment Exchange).

En Europe, Alibaba Cloud détient par ailleurs la certification EU CoC. Elle est censée témoigner du respect des obligations de l’article 28 du RGPD, relatif aux sous-traitants.

Illustration générée par IA

The post Alibaba Cloud se fait plus explicite sur la souveraineté appeared first on Silicon.fr.

  •  

Créer de la musique avec du code JavaScript 🎼

Mickadoule vient de mettre en ligne une vidéo dans laquelle il découvre et prend en main Strudel, une librairie JavaScript qui permet de créer de la musique en temps réel, directement dans ton navigateur :

Je ne sais pas vous, mais à la fin de la vidéo j'ai presque envie de m'y mettre alors que je n'y connais rien en musique 😄

Plutôt que de chercher des musiques libres de droits pour accompagner du contenu (vidéo par exemple) cela peut être une très bonne alternative.

Vous n'aimez pas le RSS : abonnez-vous par email 📥
Vous devriez me suivre sur Twitter : @xhark

Article original écrit par Mr Xhark publié sur Blogmotion le 05/03/2026 | Pas de commentaire |
Attention : l'intégralité de ce billet est protégée par la licence Creative Commons

Cet article Créer de la musique avec du code JavaScript 🎼 provient de : on Blogmotion.
  •  

[#BonPlan] Les promos High-Tech du 4 mars

Chaque jour nous dénichons pour vous des promos sur les produits High-Tech pour vous faire économiser le plus d’argent possible. Voici la liste des bons plans du jour (valable au moment où nous écrivons ces lignes) : Les stocks des produits sont limités, les prix peuvent donc remonter …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article [#BonPlan] Les promos High-Tech du 4 mars est apparu en premier sur KultureGeek.

  •  

Un piratage révèle l'empire opaque YggTorrent et l'achève

« Fin de partie » : vengeance d'un pirate contre la cupidité d'YggTorrent

YggTorrent, le plus gros site de torrents francophone, s'est fait pirater. Effacement des serveurs, exposition en long et en large des mécanismes de blanchiment des millions d'euros de recettes, et un nouveau site, ygg.gratis, qui republie l'intégralité des torrents pour le bonheur des adeptes du pair-à-pair. Au même moment, l'alternative Sharewood ferme ses portes.

Déroulé de l'attaque contre YT - YggLeak / Gr0lum

Ce mardi 4 mars au soir, YggTorrent s'est fait pirater. Et pas qu'un peu : effacement de 4serveurs et 7bases de données, fuite de milliers de documents, republication de l'ensemble des torrents, et, même, une investigation poussée sur l'écosystème économique d'Yggtorrent publiée en même temps que le hack.

L'effacement des serveurs a conduit l'équipe d'YggTorrent à publier un communiqué de fermeture définitive de YggTorrent ce matin.

Des millions d'euros de recettes annuelles

Les récentes restrictions ajoutées à YggTorrent (fermeture de l'accès API, restriction de l'accès aux liens de téléchargement à 5 par jour) ont fini d'attiser les foudres d'un certain « Gr0lum », qui met au jour le système de financement et de blanchiment d'argent d'YggTorrent : paradis fiscal à Saint-Kitts-et-Nevis, usage de cartes d'identité vraisemblablement volées, blanchiment de crypto-monnaie Monero, et système complexe de proxies entre dizaines de fausses boutiques en ligne (proxy acheté au marché noir pour 800 dollars par mois, et système CardsShield).

Les fuites confirment que, si les modérateurs et modératrices sont entièrement bénévoles, le site YggTorrent brassait entre 6 et 10 millions d'euros de bénéfices chaque année, la majorité arrivant sans doute dans les poches de son créateur « Oracle ». Les récentes restrictions de téléchargement poussant à souscrire à un mode « Turbo » en janvier...

  •  

Le jeu Resident Evil Requiem se vend très, très, mais alors vraiment très bien !

Sur ses réseaux sociaux, CAPCOM vient de communiquer sur les ventes de son dernier titre Resident Evil Requiem et les chiffres sont démentiels, puisque le jeu s'est déjà écoulé à plus de cinq millions de copies ! "Nous aimerions exprimer notre profonde gratitude aux plus de 5 millions de joueurs qui ont bravé les horreurs de Resident Evil Requiem. Merci pour 30 ans de soutien. et#10084;et#65039;" Cinq millions de joueurs pour combien de zombies lâchement tués ? Le chiffre est d'autant plus impressionnant, que le jeu Resident Evil Requiem n'est disponible que depuis le 27 février 2026, la performance aurait donc été réalisée en tout juste cinq jours, en partant du principe que les chiffres de vente d'aujourd'hui ne sont pas encore comptabilisés. Le titre est disponible sur les plateformes PC, PlayStation 5, Xbox Series et Nintendo Switch 2. Raccoon City Retour à la ville du désastre et du désespoir Une ville ordinaire du midwest des États-Unis où se trouvait le siège d'une entreprise pharmaceutique d'envergure mondiale nommée Umbrella. Suite à l'apparition dévastatrice de zombies en 1998, le gouvernement a approuvé une opération de stérilisation, un tir de missile sur la ville dans l'espoir de reprendre le contrôle de la situation, et tout a été très vite étouffé. […]

Lire la suite
  •  

Demucs-rs - Séparez vos morceaux en stems depuis le navigateur

Séparer la voix, la batterie ou la basse d'un morceau, ça relevait du rêve d'audiophile il y a encore quelques années. Fallait installer Python, se taper Spleeter, galérer avec les dépendances CUDA... bref, un super truc de barbu. Mais ça, c'était avant, les amis !

Demucs-rs , une réécriture en Rust du modèle HTDemucs v4 de Meta, tourne maintenant directement dans votre navigateur grâce au WebGPU. Batterie, basse, voix, tout le reste..., chaque élément se retrouve ainsi isolé dans son propre fichier WAV. Et y'a rien à installer, puisque tout se passe côté client, sur votre machine.

Pour vous en servir, vous pouvez aller sur la web app , vous glissez-déposez votre fichier MP3 (ou WAV, FLAC, OGG, M4A... ça bouffe à peu près tout), et vous patientez... Le premier lancement télécharge le modèle (~84 Mo pour le standard), donc prévoyez une connexion correcte.

L'interface de la web app - vous glissez votre fichier et c'est parti

Comptez alors quelques minutes selon la durée du morceau. En sortie, vous aurez alors plusieurs fichiers WAV séparés que vous pourrez écouter, jouer en solo ou télécharger individuellement.

Les pistes séparées, prêtes à écouter ou télécharger

Trois modèles sont dispos. Le mode 4 pistes suffit dans 90% des cas. Il y a aussi le modèle 6 stems, ou plutôt htdemucs_6s, qui est pas mal pour du rock ou du jazz. Et pour les obsessionnels de la qualité, y'a le fine-tuned à 333 Mo... mais prévoyez une pause café, parce que ça va être long de fou !

Voilà, comme ça, si vous voulez faire un karaoké maison, vous virez la voix et vous gardez l'instrumental. Ou si votre truc c'est de sampler une ligne de basse d'un vieux morceau de funk ou encore pratiquer la guitare en jouant par-dessus le morceau original sans la partie guitare, c'est entièrement possible !

D'ailleurs, si vous aviez testé Spleeter avec Ableton à l'époque, c'est le même principe mais en BEAUCOUP plus simple !!

Perso, le fait que ça tourne dans le navigateur, c'est top, sans parler du fait que vos morceaux restent sur votre disque.

Maintenant, si la version navigateur vous semble un peu longue, y'a le CLI natif qui exploite Metal sur Mac et Vulkan sur Linux/Windows. Pour l'installer, clonez le repo et lancez make cli (Rust requis) :

git clone https://github.com/nikhilunni/demucs-rs
cd demucs-rs && make cli

Le binaire atterrit dans target/release/demucs, 24 Mo. Le modèle se télécharge au premier lancement.

Côté utilisation, c'est du gâteau :

demucs song.mp3 # 4 pistes dans ./stems/
demucs -s vocals chanson.mp3 # juste la voix
demucs -m htdemucs_6s -s guitar solo.flac # isoler la guitare
demucs -m htdemucs_ft morceau.mp3 # qualité max

En sortie, chaque stem est un fichier WAV. Vous virez le vocals.wav, vous gardez le reste... et tadaaa, karaoké instantané pour votre voix de casserole ! C'est carrément plus rapide qu'en WebAssembly.

Et si vous bossez dans un DAW sur macOS, y'a aussi un plugin VST3/CLAP pour faire la séparation directement dans Logic ou Reaper (sauf que bon, c'est macOS only pour l'instant, quoi).

Après sachez que sur certains passages très chargés, la voix peut baver un peu dans la piste "other" ou inversement mais pour du remix amateur ou du sampling, ça suffit largement !

D'ailleurs, j'sais pas si vous vous souvenez, mais les plugins IA d'Audacity embarquent aussi Demucs v4. Mais là avec Demucs-rs c'est natif et surtout indépendant d'Audacity.

Et bien sûr, tout est open source sous licence Apache 2.0 !

Amusez-vous bien !

  •  
❌