❌

Vue normale

Reçu avant avant-hier

Sortie de Fedora Linux 42, la réponse à la grande question sur le Libre, Linux et tout le reste ?

Par :Renault · Xavier Teyssier · palm123 · Arkem
16 avril 2025 Ă  09:07

En ce mardi 15 avril, les utilisateurs du Projet Fedora seront ravis d'apprendre la disponibilité de la version Fedora Linux 42.

Fedora Linux est une distribution communautaire dĂ©veloppĂ©e par le projet Fedora et sponsorisĂ©e par Red Hat, qui lui fournit des dĂ©veloppeurs ainsi que des moyens financiers et logistiques. Fedora Linux peut ĂȘtre vue comme une sorte de vitrine technologique pour le monde du logiciel libre, c’est pourquoi elle est prompte Ă  inclure des nouveautĂ©s.

GNOME Shell nature

Sommaire

Expérience utilisateur

L'environnement de bureau GNOME est proposé dans sa version 48. Cette version apporte comme toujours son petit lot de nouveautés.
Tout d'abord les notifications sont regroupées par application par défaut ce qui permet d'éviter de rapidement saturer la liste dans le menu idoine. Il reste possible de les déplier manuellement si on souhaite voir le détail pour une application en particulier.

Au sein de l'interface, une nouvelle police fait son apparition par défaut. Dénommée Adwaita, elle remplace l'illustre Cantarel qui remplissait ce rÎle jusqu'alors. Elle est basée sur la police Inter qui permet une prise en charge plus complÚte des langues, une meilleure lisibilité sur les écrans à haute densité de pixels tout en étant accessible et lisible dont pour le terminal. En parlant d'affichage, la prise en charge de la technologie HDR a été introduite pour permette une meilleure qualité d'affichage avec les appareils compatibles.

De maniĂšre globale, il est possible de changer les raccourcis clavier de l'interface et le placement des nouvelles fenĂȘtres par dĂ©faut est centrĂ©.

Comme de nombreux systĂšmes, GNOME propose des paramĂštres liĂ©s au bien-ĂȘtre. Il permet de rapporter le temps d'Ă©cran jour par jour au cours d'une semaine. Par ailleurs on peut lui demander de nous notifier rĂ©guliĂšrement de faire une pause visuelle en regardant ailleurs ou en faisant quelques mouvements pendant quelques secondes. Il est Ă©galement possible de dĂ©finir une limite d'Ă©cran qui transforme l'interface en noir et blanc quand le temps limite est atteint. Au sein des options, pour ceux avec un matĂ©riel compatible, il est possible de configurer un pourcentage de charge maximale pour la batterie afin de la prĂ©server dans le temps.

Au niveau applicatif, un nouveau lecteur audio trĂšs minimaliste fait son apparition : Decibels. DestinĂ© Ă  remplacer le lecteur vidĂ©o Totem pour jouer un morceau individuel depuis le navigateur de fichiers. CĂŽtĂ© visionneur d'images, ce dernier bĂ©nĂ©ficie d'amĂ©liorations pour proposer une Ă©dition lĂ©gĂšre des images affichĂ©es. La rotation, le changement de ratio ou le dĂ©coupage de l'image ce qui permet de faire ces opĂ©rations simples et courantes sans utiliser un logiciel d'Ă©dition complet qui est beaucoup plus lourd. Ensuite il propose un bouton pour revenir au niveau de zoom d'origine Ă  la demande. Enfin, les images au format RAW peuvent ĂȘtre affichĂ©es. Concernant le calendrier, il est possible de renseigner le fuseau horaire pour le dĂ©but ou la fin d'une activitĂ© afin de simplifier l'organisation notamment de rĂ©unions internationales. Les performances de l'application sont Ă©galement amĂ©liorĂ©es.

Sous le capot, un effort a Ă©tĂ© fait pour amĂ©liorer les performances de l'interface et du systĂšme. Par exemple le moteur JavaScript de GNOME consomme moins de mĂ©moire et de processeur. En utilisant ffmpeg au lieu de gstreamer, l'indexation des gros fichiers et des mĂ©tadonnĂ©es multimĂ©dia est aussi plus rapide et moins gourmand en mĂ©moire. Les utilisateurs connectant leur Ă©cran Ă  une carte graphique dĂ©diĂ©e verront aussi leurs performances et la stabilitĂ© s'amĂ©liorer tandis que redimensionner ou crĂ©er de nouvelles fenĂȘtres sera plus rapide.

L'environnement de bureau Xfce bĂ©nĂ©ficie de la version 4.20. Si cette version introduit un support expĂ©rimental du protocole d'affichage Wayland, il n'est pas encore fonctionnel et des amĂ©liorations futures devront encore ĂȘtre fournies Ă  ce sujet. Mais concernant l'affichage, la prise en charge des Ă©crans Ă  haute rĂ©solution a Ă©tĂ© amĂ©liorĂ©e ce qui devrait rĂ©duire les flous dans l'interface ou de certaines icĂŽnes pour de tels Ă©crans.

Dans le navigateur de fichiers Thunar, les points de montage adoptent une icĂŽne spĂ©cifique alors que les montages distants IPv6 sont dĂ©sormais possibles. La barre d'outils s'enrichie avec un menu hamburger quand la barre de menu est masquĂ©e. Il permet aussi d'ouvrir facilement un nouvel onglet ou de changer la vue d'affichage du dossier en cours. Pour gagner de la place en hauteur, la dĂ©coration cĂŽtĂ© client est prise en charge ce qui permet de mettre le menu au mĂȘme niveau que les touches d'actions pour rĂ©duire ou fermer la fenĂȘtre. Des amĂ©liorations de performances sont Ă©galement fournies notamment pour le transfert des fichiers ou pour afficher des dossiers avec de nombreux fichiers.

De maniÚre globale il est possible de définir un mode d'énergie ou de performance du systÚme dans les propriétés d'alimentation pour choisir l'équilibre souhaité entre la consommation d'énergie et les performances du systÚmes. Il y a également l'apparition des profils d'affichage particuliÚrement utiles quand il y a plusieurs systÚmes de multi-écrans à gérer pour passer d'un mode à l'autre en fonction de ses déplacements.

De nombreuses pages de paramĂštres ont Ă©tĂ© remaniĂ©es pour ĂȘtre plus simples et plus claires.

L'environnement de bureau LXQt passe Ă  la version 2.1. C'est la premiĂšre version Ă  fournir une compatibilitĂ© complĂšte avec le protocole d'affichage Wayland qui devrait ĂȘtre activĂ© par dĂ©faut dans Fedora. En dehors de cela cette version ne fournie que des changements et correctifs assez mineurs.

Choix de langues avec le nouvel Anaconda

Le logiciel d'installation Anaconda en profite pour Ă©galement ĂȘtre une interface web par dĂ©faut pour Fedora Workstation. L'objectif est d'utiliser les technologies React et Cockpit pour dĂ©finir cette nouvelle interface qui a Ă©tĂ© entiĂšrement redessinĂ©e. Elle abandonne sa vieille approche de choisir les Ă©lĂ©ments Ă  configurer dans l'ordre de son choix par l'usage d'un assistant de configuration linĂ©aire. Donc aprĂšs la configuration de la langue qui est basĂ©e par dĂ©faut sur celle de l'image en cours d'exĂ©cution, le choix de la date est ensuite suivie de l'Ă©tape de partitionnement qui a Ă©galement Ă©tĂ© entiĂšrement refaite avant de procĂ©der Ă  l'installation proprement dite. L'approche linĂ©aire a Ă©tĂ© jugĂ©e plus simple d'utilisation et Ă  maintenir mĂȘme si cela ne permet pas de sauter des Ă©tapes si nĂ©cessaire, mais Ă©tant donnĂ© leur nombre rĂ©duit cela n'est pas considĂ©rĂ© comme une grande perte.

L'aide a Ă©tĂ© remaniĂ©e dans l'application pour ĂȘtre affichĂ©e de cĂŽtĂ© et qui peut ĂȘtre plus facilement maintenue et traduite Ă  cĂŽtĂ© du code de l'application.

Concernant le partitionnement, auparavant trois méthodes étaient disponibles :

  • EntiĂšrement automatique ;
  • PersonnalisĂ© : approche dite top-down en dĂ©finissant les points de montages avant de dĂ©finir les dĂ©tails concernant les partitions et les volumes ;
  • BasĂ© sur l'outil blivet : approche dite bottom-up oĂč on dĂ©finit les partitions et volumes avant d'y associer les points de montage.

Cela Ă©tait complexe pour l'utilisateur et difficile Ă  maintenir mĂȘme si ça avait l'avantage d'ĂȘtre trĂšs flexible. L'objectif est maintenant d'offrir une approche plus guidĂ©e avec plusieurs choix plus clairs :

  • RĂ©installer entiĂšrement sur les disques ;
  • Installer uniquement dans l'espace libre disponible sur les disques ;
  • RĂ©installer sur un Fedora Linux existant ;
  • Utiliser un partitionnement dĂ©jĂ  existant ce qui permet Ă  priori de configurer cela avec un autre outil au prĂ©alable ;
  • Supprimer manuellement des partitions pour utiliser l'espace rĂ©siduel.

Le tout repose sur l'utilisation de la technologie Cockpit Storage ce qui simplifie la maintenance et permet d'avoir une apparence similaire avec le reste d'Anaconda. Dans le futur une installation distante par HTTPS devrait ĂȘtre possible grĂące Ă  cela.

Pour les autres éditions, Anaconda devient une application Wayland native. Ce changement est utile pour supprimer les dépendances liées à X11 pour les environnements de bureaux qui peuvent s'en passer ce qui réduit la taille de l'image. Par ailleurs cela permet aussi de migrer pour les installations à distance du protocole réseau VNC à RDP qui est plus performant et sécurisé. Cela a été rendu possible par l'usage progressif de systemd-localed par les différents environnements ce qui permettait une meilleure prise en charge de la configuration du clavier dans ce contexte, faute de définition suffisament commune dans le protocole Wayland encore. Autrement le changement de clavier depuis Anaconda ne se reflétait pas sur le bureau et cela pouvait mener à des soucis comme la difficulté de déverrouillage de la machine aprÚs installation car la disposition clavier n'est plus celle utilisée lors de l'installation


L'Ă©dition KDE Plasma devient une Ă©dition Ă  part entiĂšre, Ă©tant mise au mĂȘme niveau que Fedora Workstation avec l'environnement GNOME. Cela rĂ©compense les efforts de longue haleine pour amĂ©liorer la qualitĂ© de l'intĂ©gration de KDE dans Fedora Linux. KDE Ă©tait cependant dĂ©jĂ  un environnement considĂ©rĂ© comme assez important pour que son bon fonctionnement conditionne le report ou non d'une sortie de Fedora Linux, donc ce changement de statut n'aura pas d'impact de ce cĂŽtĂ© lĂ . Elle sera maintenant proposĂ©e sur le site principal et mieux mise en avant.

L'Ă©cran de chargement lors du dĂ©marrage plymouth utilise simpledrm par dĂ©faut pour rĂ©duire l'attente qu'une carte graphique soit disponible. Les cartes graphiques sont des composants complexes qui peuvent nĂ©cessiter du temps pour s'initialiser. Auparavant, plymouth pouvait attendre jusqu'Ă  8 secondes avant de basculer dans un affichage par dĂ©faut assez disgracieux. Cependant grĂące Ă  l'UEFI qui fourni un framebuffer, il est possible d'avoir un affichage plus sympa et plus tĂŽt par l'usage de simpledrm qui peut ĂȘtre exploitĂ© Ă  cette fin. Cela n'a pas Ă©tĂ© fait plus tĂŽt car notamment simpledrm ne fournissait pas d'information concernant la rotation de l'Ă©cran et la taille physique de l'affichage.

Cependant, dans certains cas l'affichage pourrait ĂȘtre plus moche par l'usage d'une rĂ©solution plus faible que ce qui est possible car l'heuristique pour dĂ©finir si l'affichage est Ă  haute dĂ©finition de pixels peut se tromper. Il reste toujours possible de dĂ©sactiver ce changement via la commande sudo grubby --update-kernel=ALL --args="plymouth.use-simpledrm=0"

Si vous souhaitez changer le facteur d'agrandissement, si vous avez un écran à haute définition de pixels par exemple, vous pouvez utiliser la commande sudo grubby --update-kernel=ALL --args="plymouth.force-scale=1" et changer éventuellement la valeur 1 par 2 selon votre cas.

L'environnement de bureau COSMIC bĂ©nĂ©ficie de sa propre Ă©dition Spin. Cet environnement est dĂ©veloppĂ© en Rust par l'entreprise System76 qui Ă©dite Pop! OS. Les progrĂšs rĂ©cents justifient selon le projet d'avoir sa propre variante, d'autant que Fedora Linux semblait ĂȘtre dĂ©jĂ  une distribution recommandĂ©e pour tester cet environnement. Cependant COSMIC n'a pas le statut pour bloquer une sortie de Fedora Linux s'il s'avĂšre trop instable.

Activation de la mise Ă  jour automatique par dĂ©faut pour la version atomique de KDE Plasma nommĂ©e Kinoite. Ces mises Ă  jour concernent la partie de base du systĂšme reposant sur rpm-ostree. Ces mises Ă  jour fonctionnent en arriĂšre plan Ă  intervalle rĂ©gulier pour ĂȘtre instantanĂ©ment appliquĂ©es lors du prochain redĂ©marrage.

Il est possible de désactiver la fonctionnalité en remplaçant la valeur du paramÚtre UseUnattendedUpdates à false dans le fichier /etc/xdg/PlasmaDiscoverUpdates.

KDE est mis Ă  l'honneur

Gestion du matériel

AmĂ©lioration de la prise en charge des webcams basĂ©es sur le protocole MIPI au lieu de USB dans les ordinateurs portables x86. Le travail entamĂ© avec Fedora Linux 41 doit se poursuivre car ce protocole moins gĂ©nĂ©rique nĂ©cessite beaucoup d'adaptations spĂ©cifiques par modĂšle d'ordinateur portable sur le marchĂ©. Quelques nouveaux modĂšles doivent ĂȘtre pris en charge mĂȘme si la route reste encore longue mais la voie est libre !

L'Intel Compute Runtime, qui prend en charge notamment le fonctionnement de l'API OpenCL pour les processeurs Intel, a été mise à jour vers la version 24.39 qui signifie également une non prise en charge des processeurs d'avant 2020 (à partir de la 12e génération). Ce changement n'a pas d'impact sur l'Intel Media Driver qui permet l'accélération matérielle pour la lecture ou l'encodage de vidéo.

Fedora restait sur l'ancienne version pour maintenir la compatibilité avec les vieux processeurs, jusqu'à l'architecture Broadwell sortie en 2015. Cependant avec l'évolution du noyau et de la couche graphique cela devenait un problÚme à maintenir et de l'autre cÎté Fedora n'était pas en mesure de fournir la compatibilité pour du matériel plus récent et les derniers correctifs qui améliorent notamment les performances.

Introduction de la pile Intel SGX pour permettre son utilisation dans le futur pour amĂ©liorer l'isolation et la protection mĂ©moire en particulier pour les machines virtuelles. Cette protection se fait notamment en chiffrant la mĂ©moire ce qui la rend inaccessible aux autres applications, au noyau et aux diffĂ©rents firmwares de la machine. Les bibliothĂšques et en-tĂȘtes nĂ©cessaires pour ces opĂ©rations sont fournies dans le rĂ©pertoire /usr/x86_64-intel-sgx. Aucune application n'est fournie avec de telles possibilitĂ©s aujourd'hui, uniquement le nĂ©cessaire pour crĂ©er des applications pouvant en tirer profit.

IntĂ©gration du projet FEX dans les dĂ©pĂŽts pour permettre l'exĂ©cution des programmes x86 / x86_64 depuis les architectures AArch64. Contrairement Ă  QEMU, il n'Ă©mule pas un systĂšme complet ce qui est plus performant pour Ă©muler simplement une application non compatible avec cette architecture. Cela peut ĂȘtre nĂ©cessaire car de nombreuses applications non fournies par Fedora sont compilĂ©es nativement pour l'architecture x86_64 mais pas pour AArch64 alors que l'inverse est moins vrai.

Pour permettre son fonctionnement sur les Mac avec des processeurs Apple, qui ont une taille de page de 16k au lieu de 4k pour les autres machines, le composant muvm est également fourni avec pour permettre une telle compatibilité.

FEX est par ailleurs fourni par défaut dans la variante KDE Aarch64 du systÚme.

L'installateur Anaconda utilise la norme GPT par défaut pour la table de partitionnement pour les architectures PPC64LE et s390x, l'architecture x86_64 et Aarch64 ayant déjà sauté le pas avec Fedora Linux 37. L'objectif est de réduire les différences entre les architectures sur ce point ce qui simplifie les tests et la maintenance de l'ensemble.

Les versions atomiques n'auront plus d'images compatibles avec l'architecture PPC64LE. D'aprĂšs les statistiques, aucun utilisateur n'a utilisĂ© de tels systĂšmes sur cette architecture. Cette suppression permet d'allouer plus de ressources matĂ©rielles et humaines pour gĂ©nĂ©rer et tester les images destinĂ©es pour les autres architectures oĂč les utilisateurs sont plus nombreux de fait. Cela ne concerne pas les images de Fedora basĂ©es sur les paquets RPM qui restent disponibles pour cette architecture.

Le paquet du logiciel Zezere qui sert à automatiser l'installation et la configurations de systÚmes IoT a été retiré des dépÎts. L'objectif est de remplacer ce composant par systemd-firstboot car Zezere ne fonctionnait pas bien notamment sur les réseaux IPv6, ne fournissait que la possibilité d'envoyer une clé SSH personnalisée et de nombreuses fonctions promises n'ont jamais vu le jour.

Internationalisation

Mise à jour de l'entrée de saisie IBus 1.5.32. Cette version apporte principalement la prise en charge du protocole des entrées Wayland version 2 ce qui permet son utilisation dans les bureaux Sway, COSMIC et Hyprland. Il permet également d'afficher la pop-up de suggestions dans les applications XIM ou GTK2 lorsqu'elles sont utilisées dans une session Wayland.

Son aide à la saisie pour le chinois ibus-libpinyin est aussi mise à jour à la version 1.16. Il permet en outre de fournir des suggestions de ponctuations, de personnaliser la disposition du clavier ou d'afficher les convertisseurs Lua depuis un menu des méthodes d'entrées.

Proposition d'une nouvelle aide Ă  la saisie vocale avec Ibus Speech to Text via le paquet ibus-speech-to-text qui permet de faire de la reconnaissance vocale en local. Toutes les applications compatibles avec IBus peuvent donc avoir une telle saisie vocale qui exploite le logiciel VOSK pour la reconnaissance vocale. Aucune connexion Ă  Internet n'est requise et il gĂšre plusieurs langues qui peuvent ĂȘtre facilement tĂ©lĂ©chargĂ©es si besoin. Cela permet d'amĂ©liorer l'accessibilitĂ© du systĂšme tout en prĂ©servant la vie privĂ©e.

Installation avec le nouvel Anaconda

Administration systĂšme

Les rĂ©pertoires /usr/bin et /usr/sbin sont fusionnĂ©s. Ainsi /usr/sbin devient un lien symbolique vers le rĂ©pertoire /usr/bin, de mĂȘme que /usr/local/sbin vers /usr/local/bin. Cette sĂ©paration entre les utilitaires rĂ©servĂ©s aux superutilisateurs et les autres Ă©tait artificielle et non exploitĂ©e.

À l'origine, l'objectif de /sbin Ă©tait d'avoir des binaires liĂ©s statiquement qui pouvaient ĂȘtre utilisĂ©s dans un systĂšme en mode de secours pour dĂ©panner en cas de gros problĂšme au niveau du systĂšme. Mais cette mĂ©thode n'est plus appliquĂ©e depuis longtemps et cette distinction Ă©tait conservĂ©e comme une relique historique. Cela devenait un poids plus qu'autre chose car avec l'avĂ©nement des droits d'utilisateurs dynamiques via polkit par exemple, le besoin d'accĂ©der Ă  ces outils nĂ©cessitait de donner accĂšs Ă  ces rĂ©pertoires mĂȘme pour des utilisateurs sans droits particuliers. Puis, entre les distributions, un utilitaire pouvait ĂȘtre rangĂ© dans un rĂ©pertoire ou un autre en fonction des choix des empaqueteurs de chaque communautĂ© ce qui rend la portabilitĂ© des commandes entre distributions plus difficiles inutilement. D'ailleurs ArchLinux a sautĂ© le pas il y a quelques annĂ©es dĂ©jĂ .

Cela est la continuitĂ© de la suppression de la distinction entre /bin et /usr/bin qui avait le mĂȘme genre de justifications qui a eu lieu avec Fedora 17, il y a 13 ans dĂ©jĂ .

DNF5 va proposer à l'utilisateur de supprimer les clés GPG qui ont expiré, ou qui ont été révoquées, plutÎt que de devoir le faire à la main avec la commande rpmkeys --delete. Si la commande est interactive, le choix sera laissé à l'utilisateur de supprimer ou non la dite clé. En mode non interactif via les options -y ou --assumeno, le choix dépendra de l'option choisie pour l'appliquer automatiquement.

La commande fips-mode-setup a Ă©tĂ© retirĂ©e du paquet crypto-policies qui permet de rendre dynamiquement son systĂšme compatible avec les exigences du gouvernement amĂ©ricain concernant les modules cryptographiques. Cette option doit ĂȘtre activĂ©e lors de l'installation par d'autres moyens maintenant.

Il est ainsi possible de le faire en utilisant l'argument noyau fips=1 pour le notifier Ă  Anaconda, si l'image a Ă©tĂ© gĂ©nĂ©rĂ©e avec osbuild-composer, l'option fips=true dans la section [customizations] permet d'obtenir le mĂȘme effet ou si bootc est utilisĂ© pour une image atomique de passer par cette configuration.

Le mode FIPS n'amĂ©liore pas forcĂ©ment la sĂ©curitĂ©, dans certains cas ça peut en bloquant l'usage des algorithmes obsolĂštes mais parfois cela peut avoir l'effet inverse en n'autorisant pas d'algorithmes plus rĂ©cents jugĂ©s plus sĂ©curisĂ©s, comme l'algorithme de chiffrement Argon2 utilisĂ© par LUKS pour chiffrer le disque dur qui rĂ©siste mieux aux attaques effectuĂ©es par des cartes graphiques par rapport Ă  l'algorithme PBKDF2 qui est lui autorisĂ©. C'est un mode destinĂ© aux entreprises ou personnes ayant besoin d'ĂȘtre certifiĂ©es Ă  ce niveau.

L'objectif de ce changement est de simplifier la vie des mainteneurs qui n'ont plus Ă  se prĂ©occuper de cet outil et de ce que cela nĂ©cessite car de nombreux changements dans le systĂšme doivent ĂȘtre mis en place pour activer (ou dĂ©sactiver) ce mode. Par exemple reconfigurer tous les modules cryptographiques du systĂšme tels que OpenSSH, OpenSSL, GnuTLS, NSS, libgcrypt ou le noyau lui mĂȘme, fournir Ă©galement un module Ă  l'initramfs pour effectuer une vĂ©rification de l'image du noyau au dĂ©marrage de la machine et ajouter un argument pour le noyau si jamais /boot est dans une partition dĂ©diĂ©e afin d'effectuer cette vĂ©rification.

Mais aussi le changement Ă  la volĂ©e est source de problĂšmes et de confusions pour les utilisateurs. Par exemple installer Fedora Linux avec un chiffrement du disque avec un algorithme non compatible FIPS avant de l'activer aprĂšs l'installation. De mĂȘme si des clĂ©s de chiffrement sont gĂ©nĂ©rĂ©es avec OpenSSH ou autres outils avec des algorithmes non autorisĂ©s avant d'activer le dit mode. Ces situations hybrides peuvent induire des dysfonctionnement non prĂ©vus. L'objectif est de limiter ces cas problĂ©matiques en empĂȘchant le changement Ă  chaud.

Le navigateur de fichiers pour Cockpit cockpit-navigator est remplacé par cockpit-files. Cela suit le changement effectué par le projet qui a entamé cette réécriture et ne maintient de fait plus l'ancien module.

Les fichiers Kickstart seront distribués également comme des artéfacts OCI. L'objectif est de permettre de charger plus facilement une image de Fedora pour conteneurs qui est démarrable via le réseau. Dans ce cas précis, il était nécessaire pour l'utilisateur de récupérer et de transformer manuellement les différents fichiers depuis les dépÎts RPM avec des numéros de versions trÚs mouvants afin d'avoir les images du noyau, de l'initramfs, du chargeur de démarrage, de l'image d'installation et de lancement. Ici l'objectif est de pouvoir les fournir dans un endroit centralisé tel que ce dépÎt avec des processus plus faciles à automatiser avec Ansible ou Foreman. Ces fichiers sont également signés avec GPG ce qui permet de facilement vérifier leur conformité.

Les éditions dérivées de Fedora Workstation auront par défaut le pare-feu configuré avec l'option IPv6_rpfilter=loose, ce qui suit la politique appliquée pour l'IPv4 depuis Fedora 30. En effet, avec l'option IPv6_rpfilter=strict il y avait notamment réguliÚrement des soucis pour vérifier la connexion à Internet pour des machines ayant plusieurs interfaces connectées au réseau tel qu'un ordinateur portable passant du Wifi au réseau Ethernet pour se connecter à son réseau domestique.

Ajout du paquet bpfman pour le déploiment et la gestion des programmes eBPF dans le systÚme. Développé en Rust, il permet de fournir une vue d'ensemble des programmes eBPF utilisés dans le systÚme actuellement. Il simplifie aussi leur déploiement dans un cluster Kubernetes par l'utilitaire bpfman-operator tandis que l'outil bpfman-agent exécuté au sein d'un conteneur permet de rapporter si les programmes eBPF sont dans l'état désiré.

Mise à jour de l'outil de gestion de configuration Ansible à la version 11. Cette version propose d'ajouter des tags aux variables ou valeurs pour par exemple retourner un avertissement si on essaye d'accéder une valeur marquée comme dépréciée. Les boucles de tùches peuvent avoir une instruction d'interruption. Enfin, le module mount_facts prend en charge les périphériques non locaux.

Le serveur de proxy inverse Apache Traffic Server Ă©volue vers sa 10e version. Une nouvelle API basĂ©e sur JSON-RPC est proposĂ©e pour permettre des interactions avec des outils extĂ©rieurs. Le module traffic_ctl a une commande monitor pour rapporter en continue des mĂ©triques Ă  jour. Les rĂšgles ip_allow.yaml et remap.config prennent en charge des intervalles d'IP nommĂ©es pour simplifier la configuration. La prise en charge du protocole HTTP/2 pour les connexions provenant du serveur d'origine a Ă©tĂ© ajoutĂ©e mĂȘme si elle est dĂ©sactivĂ©e par dĂ©faut. De plus, les plugins doivent ĂȘtre dĂ©veloppĂ©s en C++20 uniquement au lieu du langage C.

La version de compatibilité PostgreSQL 15 a été retirée, PostgreSQL 16 reste la version par défaut. Cela fait suite à l'ajout de PostgreSQL 17 dans les dépÎts comme version alternative avec postgresql17 comme nom de paquet. Le projet ne souhaite pas maintenir davantage de versions pour réduire la charge de travail tout en permettant de migrer les données d'une version à l'autre. En effet, la migration nécessite le binaire de la version actuellement utilisée pour réaliser un dump avant d'utiliser la nouvelle version pour importer ce dump. Cela signifie que les utilisateurs utilisant PostgreSQL 15 doivent préparer la migration avant la mise à niveau de leur Fedora Linux.

Les utilitaires liĂ©s au projet OpenDMARC ont Ă©tĂ© mis dans des paquets individuels au lieu du paquet opendmarc qui les fournissait tous. En effet de nombreux utilitaires notamment Ă©crits en Perl Ă©taient fournis avec ce paquet sans ĂȘtre nĂ©cessaires pour exĂ©cuter le service ce qui entrainait l'installation plus que 80 paquets Perl pour rien dans la plupart des cas. Le paquet opendmarc fournit maintenant les outils opendmarc et opendmarc-check quand le reste est fourni avec le paquet opendmarc-tools.

L'agent pam-ssh-agent a Ă©tĂ© supprimĂ© des dĂ©pĂŽts. Le dĂ©veloppement a Ă©tĂ© arrĂȘtĂ© il y a plus d'un an par le projet OpenSSH et aucun paquet actuellement maintenu n'en dĂ©pend.

La nouvelle application GNOME Decibels

Développement

La chaßne de compilation GNU bénéficie de GCC 15, binutils 2.44 et glibc 2.41. Concernant le compilateur GCC, comme d'habitude il fournit de nombreux changements. Il est possible pour l'optimisation de l'édition de lien de le faire de maniÚre incrémentale afin que cette étape soit plus rapide en cas de petits changements dans le code source. Les trÚs gros fichiers de code source sont également plus rapide à compiler et les erreurs les concernant sont mieux gérées. Les erreurs gagnent encore en lisibilité, en particulier pour les templates C++ ou en présentant le chemin d'exécution qui mÚne à l'erreur détectée.

Pour la section OpenMP, la prise en charge des normes au dessus de la version 5.0 continue sa progression avec une meilleure gestion des cartes graphiques Nvidia et AMD. Pour le langage C, la norme C23 devient la norme par défaut tandis que le début de prise en charge de la future norme C2Y a été introduit. Pour le C++, c'est la prise en charge de la future norme C++26 qui progresse et une meilleure gestion des modules introduits dans les normes précédentes.

Pour les architectures, de nombreuses améliorations pour la prise en charge des microarchitectures x86_64 dont des nouvelles instructions AMX. CÎté Aarch64, ce sont les puces d'Apple qui sont prises en charge maintenant.

Concernant la bibliothĂšque standard C, il y a quelques changements concernant la rĂ©solution DNS. GrĂące Ă  la variable d'environnement RES_OPTIONS il est possible d'ignorer des options prĂ©cisĂ©es dans le fichier /etc/resolv.conf. Ainsi utiliser RES_OPTIONS=-no-aaaa permet d'ignorer l'option options no-aaaa. Les fonctions sched_setattr et sched_getattr ont Ă©tĂ© ajoutĂ©es pour permettre de changer les options de la politique d'ordonnancement des processus du noyau, par exemple quand SCHED_DEADLINE est utilisĂ© oĂč certains paramĂštres peuvent ĂȘtre utilisĂ©s. La prise en charge d'Unicode 16.0 a Ă©tĂ© ajoutĂ©e, de mĂȘme que de nombreuses fonctions mathĂ©matiques introduites par la norme C23. Pour l'architecture AArch64, les fonctions mathĂ©matiques vectorielles devraient ĂȘtre plus performantes.

Enfin pour les binutils, les extensions de l'assembleur pour les architectures AArch64, Risc-V et x86 ont été mises à jour. L'éditeur de lien peut mixer des objets avec et sans l'optimisation activée.

La chaĂźne de compilation LLVM progresse Ă  la 20e version. Comme pour son concurrent GCC, les derniĂšres normes C et C++ ont bĂ©nĂ©ficiĂ© de nombreuses amĂ©liorations pour leur prise en charge. De mĂȘme, de nombreuses instructions AMX pour l'architecture x86_64 ont Ă©tĂ© ajoutĂ©es. Un nouveau vĂ©rificateur TySan fait son apparition pour vĂ©rifier les violations d'aliasing de types, donc utiliser un pointeur d'un type particulier pour accĂ©der Ă  des valeurs d'un autre type en mĂ©moire ce qui dĂ©grade les performances ou peut engendrer des bogues. Le module de tĂ©lĂ©mĂ©trie a Ă©tĂ© extrait du dĂ©bogueur pour ĂȘtre disponible dans l'ensemble de LLVM afin de pouvoir rapporter diffĂ©rentes mesures et usages de ces outils aux dĂ©veloppeurs mais cela reste dĂ©sactivĂ© par dĂ©faut.

Fedora par ailleurs fournit les outils llvm-bolt, polly, libcxx et mlir dans le paquet llvm au lieu d'ĂȘtre dans des paquets indĂ©pendants comme avant. Les binaires, bibliothĂšques et autres en-tĂȘtes sont installĂ©es dans le dossier /usr/lib64/llvm$VERSION/ au lieu de /usr, des liens symboliques sont proposĂ©s pour garder la compatibilitĂ©, l'objectif est de faciliter le passage d'une version Ă  l'autre pour les utilisateurs.

Le cadriciel web Python nommĂ© Django utilise la version 5.x. Les formulaires peuvent bĂ©nĂ©ficier de la notion de groupe de champs pour simplifier significativement le code du template en Ă©vitant de devoir rĂ©pĂ©ter les mĂȘmes informations pour chaque champ s'ils ont la mĂȘme structure. Les modĂšles peuvent Ă©galement recevoir une valeur par dĂ©faut obtenue par la base de donnĂ©es. Il est Ă©galement possible de gĂ©nĂ©rer des colonnes qui sont calculĂ©es Ă  partir d'autres champs de la base de donnĂ©es.

Mise à jour du langage Go vers la version 1.24. CÎté langage, il prend en charge les alias de types génériques ce qui permet d'étendre leur champ d'applications et d'améliorer la lisibilité du code. Comme souvent avec Go, les performances sont améliorées, de l'ordre de 2-3% à l'exécution et la structure map est basée sur les tables suisses pour réduire la consommation mémoire pour les petits objets. La bibliothÚque standard fournit des mécanismes pour se conformer au standard FIPS 140 concernant la cryptographie comme expliqué plus haut. Une nouvelle instruction du compilateur go:wasmexport permet d'exporter les fonctions du programme à l'hÎte en WebAssembly.

Le langage Ruby brille avec la version 3.4. Le parseur par dĂ©faut passe de parse.y Ă  Prism pour amĂ©liorer la dĂ©tection des erreurs, les performances et la portabilitĂ©. La bibliothĂšque de socket dispose du standard Happy Eyeballs Version 2 pour amĂ©liorer la rĂ©silience et l'efficience des connexions TCP. Le compilateur juste Ă  temps YJIT amĂ©liore ses performances pour les architectures x86_64 et Aarch64, il est Ă©galement plus fiable et rĂ©duit un peu sa consommation mĂ©moire tout en ayant la possibilitĂ© de dĂ©finir une limite maximale unifiĂ©e. Parser des structures JSON doit ĂȘtre Ă©galement 1,5 fois plus rapide, de mĂȘme pour Array#each grĂące Ă  une réécriture en Ruby.

Le langage de programmation PHP s'impose de tout son poids à la version 8.4. Outre d'apporter un compilateur juste à temps basé sur IR Framework et diverses améliorations de performance, le langage propose de nouveaux concepts. Les property hooks permettent de facilement définir des structures basées sur une autre valeur pour les garder synchronisées tout en ayant une quantité de code plus réduites et avec moins de risque de faire des erreurs. Il est possible de définir une visibilité asymétrique, en autorisant la lecture d'une propriété mais pas son écriture publiquement et ce sans passer par des getters / setters. L'attribut #[\Deprecated] fait son apparition pour signaler à l'utilisateur qu'une méthode ou valeur sera probablement supprimée ultérieurement. Une nouvelle API pour manipuler les objets DOM apparaßt et fournit la prise en charge de HTML5. Et d'autres changements encore.

Le langage de scripts Tcl/Tk a Ă©tĂ© mis Ă  jour vers la 9e version. Pour des raisons de compatibilitĂ©, la version 8 reste distribuĂ©e sous le nom de paquet tcl8. GrĂące Ă  l'exploitation du 64 bits, il peut maintenant manipuler des donnĂ©es de plus de 2 Gio. La prise en charge d'Unicode et des diffĂ©rentes mĂ©thodes d'encodage a Ă©tĂ© amĂ©liorĂ©e, en ajoutant d'une part mais aussi en gĂ©rant l'ensemble des valeurs existantes. L’interaction avec le systĂšme est amĂ©liorĂ©e avec la possibilitĂ© d'envoyer des notifications, d'imprimer ou d'utiliser les icĂŽnes de la barre du systĂšme. Il y a un dĂ©but de prise en charge de l'affichage vectoriel permettant d'amĂ©liorer le visuel des applications. Les capacitĂ©s d’interactions tactiles sont amĂ©liorĂ©es avec la possibilitĂ© de gĂ©rer des gestes Ă  deux doigts.

La bibliothĂšque de calcul scientifique en Python NumPy passe Ă  la version majeure 2. PremiĂšre version majeure depuis 2006, il fournit de nombreuses amĂ©liorations de performance en particulier autour des diffĂ©rents algorithmes de tri de mĂȘme que la sauvegarde de gros objets. La transformĂ©e de Fourrier rapide prend en charge les types float32 et longdouble. Un nouveau type pour les chaĂźnes de caractĂšres de taille variable fait son apparition : StringDType qui doit fournir Ă©galement de meilleures performances. La sĂ©paration entre l'API publique et privĂ©e a Ă©tĂ© aussi clarifiĂ©e avec une nouvelle structure des modules. API qui a aussi Ă©tĂ© nettoyĂ©e pour enlever ce qui n'Ă©tait pas pertinent ce qui simplifie l'apprentissage de la bibliothĂšque.

L'outil de développement de paquets Python Setuptools a été mis à jour vers la version 74. La commande setup.py qui était non recommandée depuis plus de 5 ans disparaßt, cela a nécessité notamment de changer prÚs de 150 paquets dans le systÚme pour en tenir compte. D'autres changements plus mineurs sont également fournis.

Mise Ă  jour de la bibliothĂšque de compression zlib-ng Ă  la version 2.2.x. Parmi les changements, sur l'architecture x86_64 les performances devraient ĂȘtre amĂ©liorĂ©es de 12% pour la compression avec le niveau par dĂ©faut. L'allocation mĂ©moire est Ă©galement fait en une seule fois ce qui rĂ©duit le nombre d'appels systĂšmes et le risque de fragmentation de la mĂ©moire ce qui amĂ©liore Ă©galement les performances globales. Le risque d'avoir un Ă©chec par manque de mĂ©moire s'en retrouve Ă©galement rĂ©duit.

Le langage Copilot avec sa boĂźte Ă  outil de vĂ©rification de runtime fait son apparition. DĂ©veloppĂ© en Haskell par la NASA, il permet de dĂ©finir des programmes concis qui peuvent ensuite ĂȘtre transpilĂ©s en C99 pour permettre un haut niveau de sĂ©curitĂ© tout en Ă©tant capable de gĂ©rer des contraintes temps rĂ©el dures ce qui est important dans de nombreux contextes embarquĂ©s. Ce langage est disponible via le paquet ghc-copilot.

La bibliothÚque graphique SDL utilise la version 3 pour assurer la compatibilité avec ses versions 2 et 1.2 dorénavant. Cela passe par le paquet sdl2-compat qui fourni cette compatibilité car SDL 2 n'est plus développé.

Les anciennes versions de OpenJDK pour le langage Java Ă  savoir 8, 11 et 17 ne sont plus fournies par les dĂ©pĂŽts de Fedora mais devront ĂȘtre installĂ©es via un dĂ©pĂŽt tiers tel que Adoptium Temurin dont le paquet adoptium-temurin-java-repository permet son activation. La maintenance des diffĂ©rentes versions d'OpenJDK a Ă©tĂ© longtemps une problĂ©matique pour Fedora avec leur nombre de versions avec une maintenance officielle qui augmente, cela alourdissait considĂ©rablement la charge de travail sans avoir assez de mainteneurs en face. D'autant plus que la plupart des cas d'usage se contentent bien de la derniĂšre version LTS disponible, les versions plus anciennes rĂ©pondent Ă  des cas plus spĂ©cifiques qui peuvent se contenter d'un dĂ©pĂŽt externe oĂč les mainteneurs de Fedora travaillent de toute façon ce qui garantie la qualitĂ© de l'intĂ©gration. Cela diminuera la consommation de ressources pour gĂ©rer ces paquets dans Fedora mais aussi l'allĂ©gement de la charge de travail permettra de mettre Ă  jour OpenJDK plus rapidement Ă  l'avenir.

Le paquet de compatibilité Python pour la version 3.8 a été retiré. Cette version n'est plus maintenue par le projet Python et ce serait trop coûteux et peu sûr de poursuivre sa fourniture dans la distribution.

La bibliothÚque Rust zbus version 1 a été supprimée, la version 4 ou supérieure reste proposée dans les dépÎts. Une vingtaine de dépendances obsolÚtes étaient également maintenues pour ce composant ce qui permettra de réduire la charge de travail pour les mainteneurs et la consommation de ressources pour le projet Fedora. La compatibilité avec les derniÚres versions du compilateur Rust et certains bogues sur certaines architectures rendaient sa maintenance problématique par ailleurs.

La bibliothÚque de compatibilité entre Rust et Python, PyO3, se voit retirer les anciennes versions 0.19, 0.20, et 0.21. Les versions 0.22 et 0.23 restent donc disponibles. Cet abandon devient nécessaire par les changements de l'API et de l'ABI de CPython qui rendent les anciennes versions de plus en plus difficiles à maintenir en état de fonctionnement.

L'utilitaire d'exécution des tests unitaires en Python python-pytest-runner est déprécié et sera supprimé dans un futur proche. Depuis 2019 il est dans un état d'abandon par le projet source, il faut depuis envisager d'utiliser pytest à la place d'autant plus que les incompatibilités avec l'outil setuptools vont en grandissant.

La bibliothÚque de compatibilité entre GTK3 et Rust est marquée comme dépréciée et sera supprimée dans une prochaine version. En effet les versions récentes de gtk-rs ne le prennent plus en charge ce qui impose un coût de maintenance d'autant qu'il faut maintenir aussi les anciennes versions de compatibilité avec Cairo et GLib pour cela.

Les nouveaux paramĂštres de GNOME bien ĂȘtre

Projet Fedora

Fedora Linux proposera des archives permettant d'ĂȘtre installĂ© avec Windows Subsystem for Linux. Windows a rĂ©cemment amĂ©liorĂ© la prise en charge des installations d'un tel systĂšme en dehors du magasin d'applications Microsoft ce qui rend ce changement plus intĂ©ressant. IdĂ©alement il faut utiliser WSL 2.4.4 ou supĂ©rieur mĂȘme si une procĂ©dure sera fournie pour les versions plus anciennes. Le projet Fedora ne souhaite pas Ă  ce jour accepter les conditions pour permettre une publication directement depuis le magasin d'applications. Cela permet de faciliter l'usage de Fedora dans un tel systĂšme.

Les paquets RPM peuvent bénéficier de la fonction systemd sysusers.d pour créer des utilisateurs ou groupes dédiés lors de l'installation des paquets RPM. L'objectif à terme est de se débarasser des instructions useradd ou groupadd dans les paquets RPM voire l'usage de la macro %sysusers_create_compat. Cela va permettre d'uniformiser à terme la maniÚre de créer de tels utilisateurs et groupes ce qui va également simplifier les scriplets des différents paquets RPM concernés. Comme cela est intégré dans le format RPM, il devient plus facile de retrouver quels utilisateurs et groupes sont créées par un paquet donné et de définir des dépendances basées sur ce critÚre si c'est pertinent.

Les mises Ă  jour de Fedora CoreOS passent de OSTree Ă  OCI. Les mises Ă  jour proviennent ainsi du dĂ©pĂŽt quay.io/fedora/fedora-coreos. C'est la premiĂšre Ă©tape avant d'ĂȘtre capable de passer Ă  bootc pour gĂ©rer la base du systĂšme qui permettrait entre autre de faire des mises Ă  jour en miroir en copiant un systĂšme existant sur le rĂ©seau local ou de laisser l'utilisateur personnaliser facilement ses propres images.

Activation par défaut de composefs pour les images atomiques bureautiques de Fedora Linux pour les images non basées sur OSTree. Faisant suite à ce qui a été fourni pour les images CoreOS et IoT avec Fedora Linux 41, l'idée est de fournir une vérification d'intégrité des images atomiques lorsque le systÚme tourne et d'avoir un systÚme de fichiers du systÚme réellement en lecture seule.

En effet, jusqu'ici l'intĂ©gritĂ© des fichiers du systĂšme n'est vĂ©rifiĂ©e que lors de la mise Ă  jour ou l'installation d'une nouvelle image mais rien n'empĂȘche d'avoir une altĂ©ration malveillante par exemple entre temps. Il fallait exĂ©cuter ostree fsck Ă  la main pour vĂ©rifier manuellement si le systĂšme Ă©tait conforme. De plus le systĂšme mĂȘme s'il est en lecture seule en thĂ©orie, en rĂ©alitĂ© il Ă©tait montĂ© en lecture/Ă©criture avec la commande chattr +i / ajoutĂ©e pour prĂ©venir les modifications accidentelles.

Avec composefs, qui exploite overlayfs et EROFS, permet de supprimer ces limitations, le systÚme de fichiers sera réellement en lecture seule et la moindre tentative de modification aboutira à une erreur au niveau du noyau Linux en toute circonstance. Les répertoires /etc et /var restent accessibles en lecture/écriture comme avant. L'objectif à terme est de fournir une vraie chaßne de démarrage sécurisée avec la vérification des signatures au niveau du systÚme.

L'utilitaire edk2 est compilĂ© avec des options de sĂ©curitĂ© supplĂ©mentaires pour amĂ©liorer la sĂ©curitĂ© des machines virtuelles reposant sur l'UEFI. Ce composant est une implĂ©mentation de l'UEFI qui est notamment utilisĂ©e par les machines virtuelles créées avec libvirt. Ce changement passe par l'activation du mode strict pour NX qui empĂȘche l'exĂ©cution de code provenant de zone mĂ©moire en lecture/Ă©criture. Les pointeurs NULL sont Ă©galement capturĂ©s pour Ă©viter de dĂ©fĂ©rencer le vecteur d'interruption qui existe Ă  cette adresse ce qui peut mener Ă  des accĂšs mĂ©moires non souhaitĂ©s. Cela ne sera appliquĂ© que pour les sytĂšmes invitĂ©s avec Secure boot activĂ©, pour Ă©viter d'introduire des rĂ©gressions pour les systĂšmes invitĂ©s plus anciens qui seraient non compatibles avec ces options de sĂ©curitĂ© dans un environnement oĂč ces protections additionnelles seraient moins pertinentes.

En effet, cela est une réponse au problÚme de sécurité liée au composant shim pour les versions inférieures à 15.8 qui a nécessité en 2024 une mise à jour majeure des chargeurs de démarrage et du noyau Linux. Des systÚmes invités avec ce problÚme de sécurité non corrigé entraineront une erreur mémoire prévenant toute exécution.

Les images live de Fedora Linux utilisent le systÚme de fichiers EROFS en lieu et place de SquashFS. Ce systÚme de fichiers est aussi en lecture seule et est plus activement développé. De fait il peut utiliser des algorithmes de compression plus moderne pour réduire la taille de l'image et a été développé pour avoir de bonnes performances sur les systÚmes embarqués ce qui devrait se retrouver aussi sur des machines plus performantes.

Ajout d'un générateur de dépendances pour les extensions de GNOME Shell, permettant de lier la version de l'extension avec celle de gnome-shell à partir du fichier metadata.json de l'extension. Cela permet de détecter de maniÚre générique et donc plus facilement et automatiquement un soucis de compatibilité entre une extension et la version de GNOME Shell fournie par le projet. Cela devrait permettre de travailler sur ces problÚmes de compatibilité dÚs qu'ils apparaissent plutÎt que d'attendre le retour d'utilisateurs qui découvrent une extension non fonctionnelle en pratique.

Redéfinition des dépendances de nombreux paquets de git vers git-core. Plus de 200 paquets souhaitent utiliser le binaire git et ont une dépendance envers ce paquet éponyme alors qu'il est fourni en réalité par le paquet git-core. Ce qui implique une dépendance excessive envers 60 autres paquets inutiles dans ce contexte. Cela devrait entre autre réduire les ressources nécessaires pour générer certains paquets.

La communauté francophone

L'association

Logo de Borsalinux-fr

Borsalinux-fr est l'association qui gÚre la promotion de Fedora dans l'espace francophone. Nous constatons depuis quelques années une baisse progressive des membres à jour de cotisation et de volontaires pour prendre en main les activités dévolues à l'association.

Nous lançons donc un appel à nous rejoindre afin de nous aider.

L'association est en effet propriétaire du site officiel de la communauté francophone de Fedora, organise des évÚnements promotionnels comme les Rencontres Fedora réguliÚrement et participe à l'ensemble des évÚnements majeurs concernant le libre à travers la France principalement.

Si vous aimez Fedora, et que vous souhaitez que notre action perdure, vous pouvez :

  • AdhĂ©rer Ă  l'association : les cotisations nous aident Ă  produire des goodies, Ă  nous dĂ©placer pour les Ă©vĂšnements, Ă  payer le matĂ©riel ;
  • Participer sur le forum, les listes de diffusion, Ă  la rĂ©fection de la documentation, reprĂ©senter l'association sur diffĂ©rents Ă©vĂšnements francophones ;
  • Concevoir des goodies ;
  • Organiser des Ă©vĂšnements type Rencontres Fedora dans votre ville.

Nous serions ravis de vous accueillir et de vous aider dans vos dĂ©marches. Toute contribution, mĂȘme minime, est apprĂ©ciĂ©e.

Si vous souhaitez avoir un aperçu de notre activité, vous pouvez participer à nos réunions mensuelles chaque premier lundi soir du mois à 20h30 (heure de Paris). Pour plus de convivialité, nous l'avons mis en place en visioconférence sur Jitsi.

La documentation

Depuis juin 2017, un grand travail de nettoyage a été entrepris sur la documentation francophone de Fedora, pour rattraper les cinq années de retard accumulées sur le sujet.

Le moins que l'on puisse dire, c'est que le travail abattu est important : prÚs de 90 articles corrigés et remis au goût du jour.
Un grand merci Ă  Charles-Antoine Couret, Nicolas Berrehouc, Édouard DuliĂšge, Sylvain RĂ©ault et les autres contributeurs et relecteurs pour leurs contributions.

La synchronisation du travail se passe sur le forum.

Si vous avez des idées d'articles ou de corrections à effectuer, que vous avez une compétence technique à retransmettre, n'hésitez pas à participer.

Comment se procurer Fedora Linux 42 ?

Logo de Fedora Media Writer

Si vous avez déjà Fedora Linux 41 ou 40 sur votre machine, vous pouvez faire une mise à niveau vers Fedora Linux 42. Cela consiste en une grosse mise à jour, vos applications et données sont préservées.

Autrement, pas de panique, vous pouvez télécharger Fedora Linux avant de procéder à son installation. La procédure ne prend que quelques minutes.

Nous vous recommandons dans les deux cas de procéder à une sauvegarde de vos données au préalable.

De plus, pour éviter les mauvaises surprises, nous vous recommandons aussi de lire au préalable les bogues importants connus à ce jour pour Fedora Linux 42.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Réviser SQL en jouant au détective : SQLNoir

26 février 2025 à 09:30

SQL Noir est un jeu libre (licence MIT) par Hristo « Cool as a cucumber Â» Bogoev, oĂč vous incarnerez le rĂŽle d’une personne enquĂȘtant sur un crime, mais Ă  grand renfort de requĂȘtes SQL. Le SQL pour Structured Query Language ou « langage de requĂȘtes structurĂ©es Â» est un langage informatique normalisĂ© servant Ă  exploiter des bases de donnĂ©es relationnelles (WikipĂ©dia).

Logo SQL Noir

Bref vous avez une interface web qui vous permet de faire des requĂȘtes dans les bases de donnĂ©es de tĂ©moins, suspects, enregistrements audio ou vidĂ©o, etc., et vous devez trouver qui est la personne ayant commis le crime. Sur le principe vous allez identifier des Ă©lĂ©ments dans les donnĂ©es, traquer les infos correspondantes ou manquantes, faire le lien entre les Ă©lĂ©ments, repĂ©rer des liens entre personnes ou des transactions, et tout cela avec des requĂȘtes SQL.

Il y a actuellement 4 enquĂȘtes disponibles (et probablement plus Ă  venir). C'est rapide, ludique, joli et ergonomique. L'outil aide en suggĂ©rant les mots clĂ©s SQL ou les noms de tables par exemple. L'outil dispose d'une zone pour prendre des notes, ce qui est Ă  la fois pratique pour garder trace des requĂȘtes SQL, mais surtout des rĂ©sultats, et vous en aurez besoin pour les cas compliquĂ©s.

Le premier commit du projet date du début du mois, et le projet est donc assez jeune, tout en étant à la fois prometteur, et déjà trÚs sympa.

Note: full disclosure, LinuxFr.org utilise du SQL. Cette information est-elle pertinente ici ? Absolument pas, mais des fois il y a des infos inutiles dans les enquĂȘtes. Et merci Ă  @siltaer d'avoir partagĂ© ce message qui m'a fait dĂ©couvrir ce jeu.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Alors ? Vous ĂȘtes content de votre imprimante Bambu Lab ?

Cette dĂ©pĂȘche est issue du journal d'Antoine Catton qui passe en revue le marchĂ© des imprimantes 3D Ă  l'occasion verrouillage rĂ©cent de l'accĂšs Ă  l'impression par le fabricant Bambu Lab.

Plus de dĂ©tails dans la suite de la dĂ©pĂȘche.

Il y a quelques annĂ©es, je suis tombĂ© dans la marmite de l'impression 3D. Mon employeur nous donne accĂšs Ă  un « makerspace Â» d'entreprise, en tant qu'avantage en nature. Il y a, entre autres, quelques imprimantes 3D.

Au bout d'un moment, j'en avais marre de ne pouvoir imprimer qu'au boulot, donc j'ai passé le pas. Ch'suis pas dépensier, ch'suis pas fan de bagnoles, ni de foot, j'achÚte un nouvel ordi tous les 5-6 ans en moyenne, donc j'ai cassé la banque et me suis fait plaisir en m'achetant une imprimante 3D.

Je sais pas si tu sais, mais il y a plusieurs types d'imprimantes 3D. Le type le plus connu, c'est le type « FDM Â» ou « dĂ©pĂŽt de fil fondu Â» dans la langue de MoliĂšre. La meilleure description, c'est « un pistolet Ă  colle chaude sur une table traçante. Â» Aujourd'hui, c'est ce que la majoritĂ© des gens imagine quand on dit « imprimante 3D. Â» Il y a d'autres types d'imprimantes 3D, comme, par exemple, les imprimantes Ă  rĂ©sine, qui utilisent un Ă©cran LCD ultraviolet pour solidifier de la rĂ©sine au fond d'un bac de rĂ©sine liquide. Ces imprimantes 3D sont, en gĂ©nĂ©ral, utilisĂ©es pour imprimer des dĂ©tails plus fins, surtout pour les otakus qui impriment des figurines de Manga et AnimĂ©s, entre autres. Dans ce journal, je ne parle que d'imprimantes dites « FDM Â», c'est-Ă -dire, « l'imprimante 3D normale, Â» comme dirait François Hollande.

Schéma d'une imprimante avec dépÎt de fil fondu

Je sais pas si tu sais, mais, en gros, y a cinq « marques Â» principales d'imprimantes 3D pour les « prosumer Â», comme disent les AmĂ©ricains qui ont la classe. (En françois on pourrait traduire ça par « utilisateur quasi-pro Â», j'ai aussi vu la traduction « prosommateur Â», mouais
)

Dans l'ordre de ce que j'estime la plus grosse part de marché à la petite:

  • Bambu Lab : un constructeur de Shenzhen, en Chine, j'en parle plus tard dans ce journal.
  • Creality : un autre constructeur de Shenzhen, avec les prix parmi les plus bas du marchĂ©, pour une qualitĂ© mĂ©diocre.
  • Prusa : un constructeur tchĂšque, j'en parle plus tard dans ce journal.
  • Anycubic : un troisiĂšme constructeur de Shenzhen, avec les prix et la qualitĂ© qui rivalisent avec Creality.
  • Voron : c'est pas vraiment une marque, mais plus une gamme d'imprimantes conçue par des ingĂ©nieurs sur leur temps libre. Ils collaborent et publient les plans sur Internet, le tout sous licence libre. Si tu veux une imprimante de cette marque, il faut commander les piĂšces individuellement sur Amazon, Alibaba & Cie. Ya aussi des entreprises qui vendent des kits Ă  assembler, comme chez Ikea, si tu veux pas trop t'embĂȘter. La qualitĂ© des kits est
 variable, on va dire.

Si t'es comme moi, et que tu traĂźnais dans les salons Linux et les confĂ©rences de logiciels libres ya 10-15 ans, je sais pas si tu te rappelles, y'avait toujours le geek du coin qui voulait se la raconter. Le mec ramenait son imprimante 3D pour la montrer, comme d'autres montrent leur Porsche dans les salons auto. C'Ă©tait toujours une imprimante avec un chĂąssis en contreplaquĂ©, dĂ©coupĂ© au laser, et avec « Ultimaker Â» ou « Makerbot Â» Ă©crit dessus, brĂ»lĂ© au laser. Tu t'souviens ? Eh bien, ces marques ont fusionnĂ©, maintenant, ils ne vendent que des imprimantes 3D professionnelles Ă  plus de 5 000 €.

Photo d'une imprimante Ultimaker

Bref, pour en revenir Ă  nos marques, je sais pas si t'as remarquĂ©, mais la plupart sont de Shenzhen. C'est pas une coĂŻncidence : Shenzhen, c'est La Mecque du composant Ă©lectronique. Des servomoteurs ? Des circuits imprimĂ©s ? Tu trouves ça sur le marchĂ© local du coin pour faire du prototypage. Et, une fois que je veux fabriquer, ya 100 usines qui sont prĂȘtes Ă  mettre en production ton projet. VoilĂ  pourquoi il est bien normal que ce soit plus facile pour un constructeur d'imprimante 3D de faire tourner une entreprise sur place, quand ses fournisseurs sont Ă  30 min de trajet.

En dehors de Voron, y'a un constructeur qui sort du lot : Prusa. Alors, je suis partial, je suis fan de ce constructeur. Ils étaient parmi les premiers, aprÚs Ultimaker et Makerbot, à vendre des imprimantes 3D directement aux bidouilleurs en tout genre. Au début, c'était un mec dans son garage qui achetait des piÚces détachées en gros, et les mettait en détail dans des kits qu'il revendait. C'était l'esprit RepRap. Depuis, ils ont grossi et utilisent leurs propres imprimantes pour imprimer les piÚces en plastique des imprimantes qu'ils vendent. Beaucoup de leurs composants, surtout électroniques, viennent de Chine, mais ils disent qu'ils essaient de faire marcher au max des fabricants européens.

Au fil des annĂ©es 2010-2020, Prusa est devenu la rĂ©fĂ©rence de l'imprimante quasi-pro de qualitĂ©. Pendant cette pĂ©riode, Prusa a fait Ă©voluer son imprimante petit Ă  petit. Certaines piĂšces peuvent ĂȘtre imprimĂ©es avec l'imprimante pour que les utilisateurs puissent profiter des mĂȘmes amĂ©liorations que les nouvelles imprimantes vendues. Une fois tous les 2 ou 3 ans, ils sortent une nouvelle version majeure de leur imprimante et vendent des kits Ă  bas coĂ»t. Ça permet aux anciens clients de pouvoir moderniser leur imprimante. C'est l'esprit bidouille et rĂ©parabilitĂ©.

Petit apartĂ© : pour imprimer en 3D, il te faut un modĂšle 3D, ça va de soi. Mais, il te faut aussi un « slicer Â», en bon français, un « logiciel de dĂ©coupage en tranches Â». Ce logiciel convertit le modĂšle 3D en instructions physiques pour l'imprimante 3D : « va 2cm Ă  droite, 5cm vers l'avant, etc. Â» On appelle ça du dĂ©coupage en tranche, parce que ces instructions physiques permettent d'imprimer les couches successives de plastique.

J'en parle, parce que ce qui a contribué significativement à l'ascension de Prusa comme référence pour l'impression, c'est son slicer. Ils ont trÚs rapidement forké un logiciel libre sous AGPL : Slic3r. Ils l'ont amélioré grandement pour que les utilisateurs puissent profiter de leur imprimante au mieux.

TrÚs rapidement, Prusa Slicer est devenu la référence du logiciel de découpage en tranche, au cÎté de Ultimaker Cura.

Mais, soudain, en 2020, un nouveau constructeur apparaüt ! Bambu Lab.

C'est le chamboulement ! Le nouveau constructeur vend une imprimante avec une qualitĂ© d'impression aussi bonne que Prusa, mais avec une vitesse supĂ©rieure incomparable, pour 900 € au lieu de 1 500 € chez Prusa. À ce prix-lĂ , il y a aussi plus d'accessoires que Prusa. La Bambu Lab P1S vient avec un boĂźtier et un filtre Ă  air d'origine (Le boĂźtier chez Prusa est dans les 300 € de plus et le filtre Ă  air un peu en dessous de 100 € chez Prusa).

C'est un carnage : le monde des « makers Â» se retourne contre Prusa et ne fait l'Ă©loge que de Bambu Lab. Prusa est comparĂ© Ă  Blackberry et Nokia qui ont loupĂ© le tournant du smartphone. Prusa est critiquĂ© Ă  chaque tournant.

Pendant ce temps-là, les libristes et les makers originaux se sentent mal. Bambu Lab est l'iPhone de l'imprimante 3D. L'imprimante est fabriquée en grosses séries, avec du plastique moulé par injection.

L'entreprise a forkĂ© Prusa Slicer, et a renommĂ© le tout « Bambu Studio Â». C'est dans leur droit, le logiciel est libre. Ils ont prĂ©servĂ© la licence, et prĂ©cisent bien dans leur README que c'est une reprise de Prusa Slicer. Jusque-lĂ , tout va bien. Il n'y a pas rĂ©ellement de fonctionnalitĂ© supplĂ©mentaire par rapport Ă  Prusa Slicer, mais ils ont implĂ©mentĂ© la compensation de la rĂ©sonance. C'est comprĂ©hensible, c'est ça qui leur permet d'imprimer aussi vite, et Ă  l'Ă©poque Prusa Slicer n'avait pas cette fonctionnalitĂ©.

Le problĂšme, c'est la partie impression
 Bambu Lab promeut « le cloud. Â» Pour imprimer, il faut envoyer le modĂšle 3D sur des serveurs avec logiciel proprio, en dehors de l'Europe. L'imprimante se connecte aux mĂȘmes serveurs et reçoit les instructions pour l'impression. Les gens s'en foutent, ce qui importe, c'est que ça marche et que l'interface utilisateur soit facile et harmonieuse ! On peut mĂȘme imprimer depuis son tĂ©lĂ©phone, dis-donc !

Tu dois te demander, pourquoi je te raconte tout ça ? Bein voilà
 Il y a quelques jours, Bambu Lab a fait une mise Ă  jour du logiciel interne de ses imprimantes. Ils prĂ©tendent que, pour des raisons de sĂ©curitĂ©, ils ont dĂ» verrouiller l'accĂšs Ă  l'impression. Maintenant, si tu veux imprimer avec ta Bambu Lab, de ce que j'ai compris, tu ne peux passer que par l'appli proprio « Bambu Connect Â» qui utilise des clĂ©s de chiffrement privĂ©es. Si j'Ă©tais dans les thĂ©ories du complot, je dirais que ça sent la fermeture Ă  distance d'un produit achetĂ©.

C'est le fameux Bait-and-Switch, comme Gandi. BientĂŽt, je vais ĂȘtre connu sur DLFP comme la moule qui dĂ©nonce les tromperies sur marchandises.

Bref, j'ai acheté une Prusa, donc je m'en contrefiche. Mais, y'a deux ans, les gens me prenaient pour un loser qui avait encore un BlackBerry en 2010. Maintenant, je biche.

Si t'es affectĂ©, il y a des guides pour contourner les mesures techniques de « protection Â».

Sinon, si t'as pas d'imprimante, mais aprĂšs cette dĂ©pĂȘche tu rĂ©flĂ©chis Ă  t'en acheter une, tu dois te demander : j'achĂšte quoi ?

Avertissement : je suis un fanboy de Prusa, donc je suis pas impartial. Fais-toi ta propre idée. Je n'ai aucun lien financier direct ou indirect avec ces constructeurs, à part avoir été acheteur d'une Prusa MK4, qui a été modernisée en MK4S depuis.

  • Si tu fais attention Ă  tes dĂ©penses et que tu veux pas trop acheter de la crotte, regarde du cĂŽtĂ© de la Creality Ender-3. C'est principalement proprio, c'est pas la meilleure qualitĂ©, mais une bonne affaire pour le prix. Il y a une grosse communautĂ© qui propose des amĂ©liorations avec les moyens du bord.
  • Si tu veux pas t'embĂȘter, et que t'es prĂȘt Ă  mettre de l'argent, et que tu veux quelque chose Ă  80% ouvert et de bonne qualitĂ©, je conseillerai la Prusa MK4S prĂ©-assemblĂ©e, avec l'option boĂźtier. AchĂšte l'option filtre plus tard si besoin. Je sais que la Prusa Core One a Ă©tĂ© annoncĂ©e, mais personne ne l'a encore testĂ©e. Moi, j'attendrais le rĂ©sultat des tests de consommateurs avant de juger.
  • Si t'es prĂȘt Ă  mettre plus d'argent, un ou deux week-ends d'assemblage, que tu veux quelque chose de presque totalement ouvert et de bonne qualitĂ©, il y a la Voron 2.4. Il va falloir que tu trouves un kit de qualitĂ© si tu veux pas acheter les piĂšces individuellement. Si tu veux pas trop te prendre la tĂȘte, regarde la Rat Rig V-Core 4 en kit Ă  assembler sois-mĂȘme. C'est une boite portugaise, c'est pas une Voron 2.4, mais c'est similaire et le kit arrive avec tout (Contrairement Ă  la plupart de kits de Voron qui te demandent d'imprimer les piĂšces en plastique toi-mĂȘme).

En tout cas, si t'es libriste, j'espĂšre que je t'ai empĂȘchĂ© d'acheter une Bambu Lab.

J'ai mis aucun lien vers les constructeurs pour éviter la pub, mais votre moteur de recherche vous mÚnera au bon site.

Note: mĂȘme si je ne suis pas journaliste, et que le droit de rĂ©ponse ne s'applique pas, Bambu Lab a communiquĂ© sur l'affaire. Je met un lien pour ĂȘtre fair-play.

Commentaires : voir le flux Atom ouvrir dans le navigateur

La virtualisation pour les nuls et autres enjeux autour des datacenters

8 janvier 2025 Ă  14:54

Depuis quelques annĂ©es la virtualisation sous toutes ses formes est devenue l'alpha et l'omĂ©ga de l'informatique, elle a rĂ©volutionnĂ© en quelques annĂ©es la maniĂšre d'administrer les serveurs et de gĂ©rer les donnĂ©es. Cette dĂ©pĂȘche est un essai de vulgarisation sur la virtualisation pour en exposer ses grands principes techniques, ses avantages et inconvĂ©nients et ses enjeux sous-jacents.

Sommaire

Commençons par quelques définitions

C'est quoi la virtualisation ?

Pour pouvoir illustrer concrÚtement ce qu'est la virtualisation, à une époque pas si lointaine que ça, dans le monde professionnel on retrouvait des serveurs physiques dédiés, par exemple un serveur pour gérer les mails, un autre pour le serveur web et un dernier comme serveur de fichiers. Chacun des serveurs pouvant tourner sur des systÚmes d'exploitation (OS) différents. Dans notre exemple il en résulte qu'il faut maintenir et administrer trois machines différentes qui vont prendre de la place et consommer de l'électricité, sans une utilisation optimale de chacune des machines, si le serveur web par exemple a besoin momentanément d'un accroissement de puissance et de mémoire, il ne pourra pas bénéficier des ressources des autres serveurs physiques.
Avec la virtualisation, sur une seule machine physique on va faire tourner plusieurs environnements de serveurs distincts en mĂȘme temps, sans avoir Ă  redĂ©marrer, ils vont se partager les ressources matĂ©rielles de la machine physique de maniĂšre plus optimale et efficace en rĂ©duisant les coĂ»ts d'administration. On retrouvera donc sur une seule machine physique, nos serveurs de courriel, web et de fichiers, chacun dans un environnement distinct fonctionnant de maniĂšre autonome et isolĂ©e.

C'est quoi une machine virtuelle ?

On appellera chaque environnement distinct machine virtuelle, elle s'exécute sur une machine physique avec son propre systÚme d'exploitation, ses applications et avec les ressources de la machine physique qu'on veut bien lui allouer (mémoire, puissance de traitement, stockage). On dit aussi que la machine physique est appelée machine hÎte et les machines virtuelles sont des machines invitées. Une machine hÎte peut faire tourner plusieurs machines invitées.
Une machine virtuelle fonctionne comme n'importe quel poste informatique avec son OS qu'on peut mettre à jour, ses applications, ses paramÚtres systÚme et on pourra à partir de la machine hÎte accéder à toutes les machines virtuelles.

C'est quoi un hyperviseur ?

Pour que les machines virtuelles puissent s'exécuter indépendamment et utiliser les ressources de la machine hÎte simultanément sans qu'elles interfÚrent entre elles, il est nécessaire de rajouter une couche logicielle qui va gérer tout ça, c'est ce qu'on appelle un hyperviseur.
Il existe deux types d'hyperviseur:

  • L'hyperviseur de type 1, ou bien encore hyperviseur de matĂ©riel nu (bare metal en anglais) est en interface direct avec l'ordinateur physique, cela sous entend que votre machine soit compatible (Intel VT pour les processeurs Intel et AMD-V pour les processeurs AMD). Dans le monde libre, proxmox est certainement l'hyperviseur de type 1 le plus connu.
  • L'hyperviseur de type 2 ou bien encore hyperviseur de matĂ©riel invitĂ© (host metal en anglais) fonctionne dans un systĂšme d'exploitation dĂ©jĂ  prĂ©installĂ©, c'est le cas par exemple de VirtualBox qui permet de faire tourner une instance de windows dans un environnement Linux.

Un hyperviseur de type 1 est une couche logicielle trĂšs lĂ©gĂšre et offre de meilleures performances et est la solution privilĂ©giĂ©e pour des serveurs en production, l'hyperviseur de type 2 est plutĂŽt une solution destinĂ©e aux utilisateurs qui souhaitent tester d'autres systĂšmes d'exploitation ou faire tourner un logiciel sur un OS particulier sur un poste de travail classique. Mais rien ne vous empĂȘche de faire tourner plusieurs machines virtuelles sur un hyperviseur de type 2 qui pourront communiquer entre elles et fonctionner comme un hyperviseur de type 1, Ă  la diffĂ©rence qu'elles seront moins performantes.
Par abus de langage, le terme d'hyperviseur fait référence plutÎt à l'hyperviseur de type 1.

C'est quoi les avantages de la virtualisation ?

Une administration centralisée et facilitée

L'hyperviseur fournit des outils de gestion des machines virtuelles qui simplifient sensiblement le travail d'administration, comme les outils de déploiement à partir de modÚles de machines virtuelles, les outils de gestion de charge, de sauvegarde et de restauration de machines virtuelles.

La disponibilité et la robustesse aux pannes

Un autre avantage de la virtualisation est la fonctionnalitĂ© de migration Ă  chaud, elle permet de dĂ©placer une machine virtuelle d'une machine physique Ă  une autre sans qu'il soit nĂ©cessaire de l'arrĂȘter. Si un serveur physique prĂ©sente des dĂ©faillances, les machines virtuelles sont automatiquement dĂ©placĂ©es sur un autre hĂŽte physique.
Alors bien sĂ»r si le serveur physique tombe en rade sans crier gare, la migration Ă  chaud peut ne pas ĂȘtre opĂ©rante, dans ce cas on peut trĂšs bien envisager la mise en place d'une machine physique redondante sur laquelle les machines virtuelles sont rĂ©pliquĂ©es et qui prendra le relais automatiquement si le serveur primaire tombe.

L'amélioration des performances

La migration Ă  chaud Ă©voquĂ©e plus haut a un autre avantage si une machine virtuelle est sursollicitĂ©e et nĂ©cessite de la puissance de traitement et de la mĂ©moire, elle pourra ĂȘtre dĂ©placĂ©e automatiquement sur un autre serveur moins sollicitĂ© Ă  ce moment-lĂ .

La sécurité

La virtualisation isole les services chacun dans leur machine virtuelle, en cas de corruption d'une machine virtuelle par cyberattaque, l'impact est nul pour les autres services et la restauration d'une machine virtuelle est autrement plus rapide et plus simple qu'avec une machine physique.

La disparition des machines physiques

Le stade ultime de la virtualisation est de déléguer à un prestataire la gestion des machines physiques qui se retrouve quelque part dans un datacentre. On s'abstrait totalement du matériel physique et des contraintes qui vont avec et on gÚre seulement nos machines virtuelles à distance, c'est totalement transparent pour les utilisateurs qui accÚdent à leurs services via internet ou sur un réseau privé. On parle aussi d'infrastructure virtuelle.

Il existe d'autres types de virtualisation ?

On a surtout évoqué jusqu'à présent la virtualisation des serveurs, mais il existe également d'autres types de virtualisation comme:

La virtualisation du stockage

Cela consiste en la création d'un espace virtuel de stockage à partir d'installations physiques de stockage bien réelles comme les serveurs de fichiers, NAS ou SAN qu'ils soient locaux ou distants. Cela permet de mettre en commun toutes ces installations et de la gérer à partir d'un outil unique de gestion pour effectuer toutes les opérations de sauvegarde, réplication, d'archivage et de restauration.

La virtualisation des réseaux

Un réseau est composé d'un tas d'éléments actifs comme les commutateurs, les routeurs et autres pare-feux, de type et de marques différentes. Là aussi on va créer un réseau virtuel qui combine l'ensemble de ces éléments actifs physiques pour pouvoir centraliser leur gestion sans avoir à y accéder physiquement. La virtualisation des réseaux permettra également d'améliorer les performances du réseau avec des analyseurs de trafic qui pourront équilibrer la charge ou favoriser certains flux.

La virtualisation des données

Les données sont issues de diverses sources, ont chacune leur format et sont stockées sur différents supports locaux ou distants. La virtualisation des données est une couche logicielle qui va gérer l'ensemble de ces données de maniÚre centralisée et les mettre à disposition des utilisateurs et des applications dans le format désiré.

La virtualisation d'application

La virtualisation d'application permet de sĂ©parer l'application de son systĂšme d'exploitation hĂŽte et de fonctionner sur un poste utilisateur sans qu'elle soit installĂ©e. Dans la pratique l'application est installĂ©e sur un serveur centralisĂ© et peut tourner sur un poste utilisateur du rĂ©seau comme si elle Ă©tait installĂ©e localement, quand bien mĂȘme l'OS du poste utilisateur n'est pas celui pour lequel l'application a Ă©tĂ© conçue.

La virtualisation des postes de travail

La virtualisation permet de virtualiser des serveurs mais pas seulement, on peut virtualiser également des postes de travail pour en faciliter la gestion qui seront accessibles aux utilisateurs du réseau via un client léger bien moins cher qu'un PC client classique.

Autres concepts autour de la virtualisation

C'est quoi une infrastructure convergĂ©e et hyperconvergĂ©e ?

Une infrastructure convergée regroupe plusieurs composants informatiques traditionnels et bien physiques comme les serveurs de calcul, les dispositifs de stockage ou les éléments actifs réseau pour en assurer la gestion dans un tout cohérent. Cela simplifie la gestion de l'administration et ça optimise les ressources matérielles et logicielles. On dit que c'est une approche modulaire basée sur le matériel physique.
L'hyperconvergence a une approche plutĂŽt logicielle, elle intĂšgre une couche logicielle qui va combiner les ressources de calcul, de stockage et de rĂ©seau dans ce qu'on appelle un nƓud. Les nƓuds sont interconnectĂ©s et combinĂ©s entre eux pour former des pools au sein d'un cluster, on retrouve ainsi un pool de stockage ou un pool de calcul, si un nƓud venait Ă  dĂ©faillir ça n'aurait pas de consĂ©quence pour les autres nƓuds et le fonctionnement du pool et du cluster.

OK, mais une fois que tout ça est posĂ©, quelle est la diffĂ©rence entre les deux ?
L'infrastructure convergĂ©e a une approche basĂ©e sur le matĂ©riel physique, c'est Ă  dire qu'un serveur physique peut ĂȘtre sĂ©parĂ© du reste du dispositif et toujours fonctionner comme un serveur indĂ©pendant alors que ce n'est pas possible avec l'infrastructure hyperconvergĂ©e oĂč les noeuds sont nĂ©cessairement interconnectĂ©s entre eux pour que le cluster puisse fonctionner correctement. Par ailleurs l'infrastructure convergĂ©e intĂšgre de base d'autres fonctionnalitĂ©s comme la sauvegarde, la rĂ©plication, la dĂ©duplication des donnĂ©es, la compression, l'optimisation du rĂ©seau, etc.

C'est quoi un cluster haute disponibilitĂ© ?

On a bien vu que finalement qu'elle soit dans vos locaux ou chez un prestataire de service, la machine physique reste le maillon faible du dispositif. Pour améliorer encore plus la disponibilité et la robustesse, on va dupliquer les machines physiques et si possible en les dispatchant dans des locaux et sites différents. Le tout étant géré comme un seul systÚme. La virtualisation du stockage prend alors toute son importance, pour éviter de se rendre dépendant d'un serveur physique de données.

C'est quoi le cloud computing ?

On appelle cloud computing le fait de confier à un tiers sur internet la gestion de services informatiques (applications, stockage, outils de gestion, 
) mais aussi le fait d'utiliser des services fournis par un prestataire via internet. Le cloud computing repose largement sur la virtualisation, on peut dire que le cloud computing est un environnement alors que la virtualisation est une technologique. En matiÚre de cloud computing, il en existe de différentes sortes :

  • Infrastructure as a service (IaaS) ou infrastructure en tant que service : L'IaaS offre une infrastructure informatique complĂšte (serveurs, stockage, rĂ©seau, 
) sur un rĂ©seau privĂ© (ressources en accĂšs limitĂ©), public (ressources en accĂšs libre) ou hybride (qui mĂ©lange les deux).
  • Platform as a service (PaaS) ou plate-forme en tant que service : Le PaaS c'est grosso modo la mĂȘme chose que l'IaaS sauf qu'en plus on bĂ©nĂ©ficie d'outils supplĂ©mentaires pour pouvoir dĂ©velopper des applications qu'on retrouvera sur le cloud et tous un tas de services supplĂ©mentaires, gestion de base de donnĂ©es, aide Ă  la dĂ©cision, etc.
  • Le Software as a service (SaaS) ou logiciel en tant que service : Le SaaS est une offre logicielle complĂšte qu'on retrouvera sur internet, c'est typiquement des offres comme Microsoft Office 365 ou Google Workspace, dans le monde opensource, on peut dire que certains prestataires recensĂ©s par les CHATONS se rapprochent d'une solution SaaS.

NdM: il est question ici de cloud computing sur un cloud public, une infrastructure gérée par un hébergeur tiers. Il est aussi possible de faire du cloud computing privé, interne, dans une grosse structure qui en a la capacité, ce qui revient à déléguer l'hébergement à un tiers (des collÚgues dans ce cas). Et on peut combiner les deux pour faire du cloud hybride. Le cloud computing implique aussi la création de ressources en libre-service, de la facturation à l'usage et de la mutualisation.

Les enjeux

Enjeu environnemental

L'adoption quasi généralisée de solutions autour de la virtualisation dans le monde professionnel a conduit à la disparition progressive des serveurs locaux d'entreprise au profit d'un développement effréné des datacenters de par le monde. Or un datacenter est constitué de machines bien physiques tournant 24h24 7j/7 avec tout un dispositif lui aussi bien physique pour assurer leur fonctionnement optimal, leur sécurisation et la robustesse aux pannes, il s'agit notamment de :

  • La climatisation et le traitement d’air pour maintenir des conditions satisfaisantes de tempĂ©rature et hygromĂ©trie avec toute un systĂšme de circulation et de refroidissement d'air
  • La distribution de l’électricitĂ© avec un dispositif de sĂ©curisation en cas de coupure d'alimentation, souvent basĂ© sur tout un ensemble d'onduleurs et appuyĂ© par groupes Ă©lectrogĂšnes
  • la protection physique de l'installation avec contrĂŽle d'accĂšs, vidĂ©osurveillance et autres systĂšmes anti intrusion

Le tout nĂ©cessite une consommation Ă©lectrique massive et une forte consommation en eau. Si l'on traduit cela en Ă©quivalent d'Ă©mission de gaz de serre (GES), d'aprĂšs une Ă©tude de l'ADEME les datacenters ont dĂ©jĂ  atteint le mĂȘme niveau d'Ă©mission que le transport aĂ©rien Ă  l'Ă©chelle mondiale.
Il se trouve que le destin des datacenters est maintenant Ă©galement Ă©troitement liĂ© Ă  celui de l'IA, mĂȘme si dans ce domaine on envisage plutĂŽt des datacenters dĂ©diĂ©s, or les besoins gĂ©nĂ©rĂ©s par l'IA dopent l'expansion globale des datacenters dans le monde. La demande de puissance de calcul de l'IA est exponentielle et double tous les 3,4 mois selon OpenAI. Selon une Ă©tude Gartner citĂ©e par le Monde Informatique, rien que les besoins liĂ©s Ă  l'IA feront exploser la demande Ă©nergĂ©tique des datacenters au point que les fournisseurs d'Ă©nergie ne pourront y rĂ©pondre dĂšs 2027 !

Dans ce contexte il n'est pas Ă©tonnant donc que les grands acteurs du secteur poussent au dĂ©veloppement des centrales nuclĂ©aires qui leur permettra par la mĂȘme occasion de verdir leur image. Mais ces acteurs ne sont pas Ă  une contradiction prĂšs, on peut s'Ă©tonner du dĂ©veloppement dans certaines rĂ©gions qui de prime abord ne se prĂȘtent pas particuliĂšrement Ă  leur installation contrairement aux pays nordiques. Le projet d'installation de Meta dans une rĂ©gion aride d'Espagne oĂč chaque goutte d'eau compte, en est une triste illustration. Les tempĂ©ratures rĂ©gionales Ă©levĂ©es dĂ©cupleront ses besoins en Ă©lectricitĂ© et en eau pour les circuits de refroidissement alors que la rĂ©gion souffre de sĂ©cheresse chronique. On peut dĂ©plorer que tout cela ne pourrait se faire sans le soutien des gouvernements et des Ă©lus locaux qui ne trouvent rien Ă  redire.

Enjeu de résilience

Le marchĂ© actuel est dominĂ© par trois acteurs qui reprĂ©sentent Ă  eux trois plus de 60% du marchĂ© mondial il s'agit dans l'ordre d'AWS (Amazon), d'Azure (Microsoft) et de Google Cloud Platform, on parle d'eux comme des hyperscalers car ils fournissent des services Ă  l'Ă©chelle mondiale Ă  grande Ă©chelle. Cette hyperconcentration des acteurs et des solutions techniques fragilise l'Ă©conomie mondiale en la rendant davantage sensible et moins rĂ©siliente aux pannes, la dĂ©faillance d'un simple outil de sĂ©curitĂ© a ainsi entraĂźnĂ© en cascade une panne informatique mondiale en juillet dernier avec des consĂ©quences graves comme l'arrĂȘt partiel du contrĂŽle aĂ©rien, de centres d'appels d'urgence ou de services hospitaliers. Plus modestement l'incendie subi par OVH en 2021 a impactĂ© des milliers d'entreprise et services publics, toutes les donnĂ©es contenues sur les serveurs sont perdues, puisqu'OVH a commis l'erreur de stocker au mĂȘme endroit les donnĂ©es et les sauvegardes. NdM: historique de pannes GCP, AWS ou Azure
Cette hyperconcentration fait planer également des risques en termes de cybersécurité, la corruption d'un élément du systÚme et sa prise de contrÎle par un hacker aura vite des conséquences majeures.

Enjeu de souveraineté

Il faut savoir que les donnĂ©es gĂ©rĂ©es par un datacenter sont soumises Ă  la rĂ©glementation propre au pays oĂč il est installĂ©. Les autoritĂ©s aux États-Unis, au nom du Patriot Act peuvent donc ainsi accĂ©der aux donnĂ©es stockĂ©es sur leur territoire. Les datacenters souverains sont donc un enjeu majeur pour certains pays pour garantir que les donnĂ©es seront protĂ©gĂ©es par les lois nationales, sans ingĂ©rence Ă©trangĂšre possible.

En France notamment, 71% des entreprises se reposent sur des solutions américaines dont des acteurs étatiques. Une affaire illustre à elle seule cet état de fait, la solution Azure de Microsoft a été ainsi choisi pour héberger l'ensemble des données de santé de 4 établissements hospitaliers (et non de l'ensemble des Français) à des fins de recherche dans un entrepÎt de données de santé dénommé EMC2. Sauf qu'en l'espÚce Microsoft a répondu à un appel d'offre en bonne et due forme, que la CNIL a donné son autorisation et que les différents recours à ce stade ont tous échoué. Néanmoins voici ci-dessous texto la conclusion du rapport de la CNIL en 2023 :

(début de citation)

  • qu’aucun prestataire potentiel ne propose d’offres d’hĂ©bergement rĂ©pondant aux exigences techniques et fonctionnelles du GIP PDS (Note de l'auteur : groupement d’intĂ©rĂȘt public « Plateforme de donnĂ©es de santĂ©", appelĂ© aussi Health Data Hub) pour la mise en Ɠuvre du projet EMC2 dans un dĂ©lai compatible avec les impĂ©ratifs ce dernier ;
  • que le dĂ©veloppement d’un dĂ©monstrateur " cloud de confiance ", respectant les conditions de la circulaire prĂ©citĂ©e et permettant Ă  terme d’hĂ©berger des projets de cette nature, et notamment la plateforme du GIP PDS, devrait se poursuivre sur les prochaines annĂ©es ;
  • que la construction d’une plateforme d’hĂ©bergement spĂ©cifique pour le projet EMC2 pourrait retarder la migration de la solution d’hĂ©bergement du GIP PDS pour l’ensemble de ses missions ;
  • qu’en attendant cette migration, le projet EMC2 soit menĂ© sur la solution technique actuelle du GIP PDS.

À la lumiĂšre de ces conclusions, la CNIL dĂ©plore qu’aucun prestataire susceptible de rĂ©pondre actuellement aux besoins exprimĂ©s par le GIP PDS ne protĂšge les donnĂ©es contre l’application de lois extraterritoriales de pays tiers.
De maniĂšre gĂ©nĂ©rale, elle regrette que la stratĂ©gie mise en place pour favoriser l’accĂšs des chercheurs aux donnĂ©es de santĂ© n’ait pas fourni l’occasion de stimuler une offre europĂ©enne Ă  mĂȘme de rĂ©pondre Ă  ce besoin. Le choix initial du GIP PDS, dĂšs sa fondation, de recourir au cloud a conduit Ă  privilĂ©gier des offres d’acteurs Ă©tasuniens dont il apparaĂźt dĂ©sormais difficile de se dĂ©tacher Ă  court terme malgrĂ© l’émergence progressive de fournisseurs souverains. Le projet EMC2 aurait pu ĂȘtre retenu par le GIP PDS pour prĂ©figurer la solution souveraine vers laquelle il doit migrer.

(fin de citation)

À la lumiĂšre de cette conclusion, on peut comprendre que la CNIL s'est sentie contrainte et forcĂ©e de rĂ©pondre favorablement pour ne pas faire capoter ce projet en espĂ©rant que cette solution ne soit que transitoire et qu'elle pourra basculer sur une solution souveraine dans quelques annĂ©es.
Autre affaire d'actualité, le contrat entre EDF et AWS pour le stockage de certaines informations sensibles de maintenance du parc nucléaire français, le Canard enchaßné vient de révéler récemment que le contrat battait de l'aile car Amazon refuse d'inscrire noir sur blanc dans le contrat que les données d'EDF seront stockées en France (autre article).
Aussi la France cherche Ă  dĂ©velopper son "cloud souverain" pour ne plus ĂȘtre dĂ©pendant des gĂ©ants amĂ©ricains mais peine Ă  avancer sur le sujet faute de barriĂšres rĂ©glementaires et juridiques, de rĂ©ticences des Ă©lus et des populations sur les territoires pouvant accueillir des datacenters et d'une certaine frilositĂ© des banques et acteurs technologiques.

En guise de réponse aux enjeux

Réponse à l'enjeu environnemental

Pour ne pas courir à la catastrophe annoncée, la mise en place de technologies plus efficaces et économes en énergie est un enjeu majeur, parmi les axes d'innovation on peut citer:

  • l'utilisation d'Ă©nergie renouvelable
  • le refroidissement des datacenters basĂ© sur des technologies peu gourmandes en eau,
  • la rĂ©utilisation de l'Ă©nergie dissipĂ©e par les datacenters.

Réponse à l'enjeu de résilience

Des normes et des certifications se sont mises en place qu'elles soient internationales, européennes ou nationales. On peut citer :

  • TIA 942 qui couvre diffĂ©rents domaines comme la disponibilitĂ©, la sĂ©curitĂ©, l'efficacitĂ© Ă©nergĂ©tique, le refroidissement, la redondance et la gestion de l'espace;
  • ANSI/BICSI-002 qui dĂ©finit des standards de conception et de pose des systĂšmes de cĂąblage, d'Ă©lectricitĂ©, dissipation de chaleur, refroidissement, etc.
  • ISO 27001 qui couvre la gestion de la sĂ©curitĂ© de la donnĂ©e;
  • ISO 22237 qui couvre l'installation et les infrastructures des datacenters;
  • le rĂ©fĂ©rentiel de sĂ©curisation des services cloud SecNumCloud Ă©laborĂ© par l’ANSSI;
  • la certification d'Uptime Institute avec sa classification du niveau de sĂ©curitĂ© des datacenters de Tier I Ă  Tier IV.

En France, France Datacenter est une organisation professionnelle qui fédÚre les entreprises qui conçoivent, construisent et exploitent les datacenters. Elle publie également des guides à destination de ses adhérents qui font référence, on peut citer notamment "le livre blanc sur la sécurité incendie" ou "l'humain et la sécurité du datacenter".

D'un point de vue réglementaire, on peut citer :

  • le rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es RGPD;
  • La directive europĂ©enne relative Ă  DEE l’efficacitĂ© Ă©nergĂ©tique DEE;
  • La directive europĂ©enne relative Ă  la sĂ©curitĂ© des rĂ©seaux et de l’information, dite NIS 2 pour Network and Information System Security.

Le respect de ces normes, certification et a fortiori de la rĂ©glementation sont une garantie que les datacenters sont construits suivant les rĂšgles de l'art avec le niveau de qualitĂ©, de sĂ©curitĂ© et de fiabilitĂ© attendu. A ce propos pour en revenir Ă  l'incident OVH, les procĂ©dures judiciaires qui en ont dĂ©coulĂ© et qui ont conduit Ă  la condamnation d'OVH ont mis en Ă©vidence que la sociĂ©tĂ© qui se targuait d'ĂȘtre certifiĂ© ISO 27001 n'a pas respectĂ© la norme pour ne pas avoir prĂ©vu une copie de sauvegarde sur un site distant.

Réponse à l'enjeu de souveraineté

Le respect du RGPD et de la certification SecNumCloud sont une premiĂšre rĂ©ponse Ă  la menace des lois extraterritoriales sur la confidentialitĂ© des donnĂ©es, en parallĂšle le premier ministre de l'Ă©poque a diffusĂ© en 2021 une circulaire relative Ă  la doctrine d'utilisation de l'informatique en nuage par l'État qui a Ă©tĂ© actualisĂ© en 2023. Cette derniĂšre "exige (
) en cas de recours Ă  une offre commerciale d'informatique en nuage, l'hĂ©bergement des donnĂ©es d'une sensibilitĂ© particuliĂšre par des solutions disposant de la qualification SecNumCloud (
) et immunisĂ©es contre toute rĂ©glementation extracommunautaire".
Il faut par ailleurs créer l'environnement pour que des acteurs locaux puissent se développer et former une alternative crédible aux hyperscalers. L'émergence d'acteurs alternatifs de proximité est donc un enjeu que le marché seul ne suffit pas à faire percer, il faut une volonté politique, une stratégie et une vision à long terme, des financements, une adaptation de la réglementation à l'échelle européenne et nationale.
À ce sujet le prĂ©cĂ©dent gouvernement avait concoctĂ© une loi de simplification de la vie Ă©conomique destinĂ©e Ă  faciliter l'installation de datacenters en France en les qualifiant de projets d'intĂ©rĂȘt national majeur (PINM) pour qu'ils puissent bĂ©nĂ©ficier de mesures dĂ©rogatoires, de procĂ©dures accĂ©lĂ©rĂ©es tout en contournant le pouvoir des Ă©lus locaux puisque ça sera l’État qui signera les permis de construire. Avec cette loi la mĂ©tropole de Rennes n'aurait sans doute pas pu refuser l'implantation d'un datacenter de Microsoft s'il avait Ă©tĂ© jugĂ© d'intĂ©rĂȘt national. Aujourd'hui ce projet de loi continue son bonhomme de chemin lĂ©gislatif malgrĂ© l'instabilitĂ© politique actuelle.
Cet objectif de dĂ©veloppement d'une offre de proximitĂ© n'est pas forcĂ©ment compatible des objectifs environnementaux et de dĂ©veloppement durable que la France s'est imposĂ©e, mais il faut voir ça comme une opportunitĂ© pour innover et ne plus ĂȘtre Ă  la traĂźne des États-Unis dans ces domaines technologiques.

En guise de conclusion

D'une simple prĂ©sentation technique autour de la virtualisation, on en arrive en tirant la pelote Ă  des considĂ©rations Ă  fort enjeu sur la gestion et la confidentialitĂ© des donnĂ©es que bien des utilisateurs de cloud n'imaginent pas, ni mĂȘme ne considĂšrent Ă  sa juste importance. Pourtant il suffirait qu'ils en prennent conscience pour orienter leur choix vers des solutions respectueuses qui peinent encore aujourd'hui Ă  Ă©merger malgrĂ© les vƓux pieux de l’État qui n'est pas toujours exemplaire dans le domaine.

Pour aller plus loin

Quelques pages de vulgarisation

Une sélection de sites sur les enjeux et le futur autour de la virtualisation et les datacenters

Sites divers

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌