Vue lecture
La meilleure imprimante pour Linux
2,2 millions d'utilisateurs de Linux sur ordinateur en France
Une récente analyse détaillée s’est attachée à quantifier la population d’utilisateurs de systèmes d’exploitation Linux sur ordinateur (hors serveurs) en France. En se basant sur les données publiques de trafic web de Cloudflare Radar et en appliquant une modélisation des comportements, l’étude aboutit à une estimation d’environ 2,2 millions d’utilisateurs uniques. La méthodologie ne se contente pas d’une moyenne globale (3,1 %), mais distingue les usages en fonction des moments de la semaine et de leur volume de trafic respectif. La conclusion principale est que cet usage est massivement personnel : le taux d’usage à domicile (soir et week-end) atteint 4,3 %, soit plus du double du taux observé en environnement professionnel et scolaire (2,15 %).
Un communiqué du CNLL commente cette dynamique et appelle à l’amplifier. La fin de support annoncée de Windows 10 en octobre 2025 agit comme un catalyseur, menaçant de transformer des millions d’ordinateurs parfaitement fonctionnels en déchets électroniques. Ce non-sens écologique et économique va encore pousser de nombreux utilisateurs à considérer des alternatives, et Linux, par sa capacité à redonner vie à ce matériel, apparaît comme l’un des principaux bénéficiaires potentiels de ce mouvement de fond.
Cette croissance, bien que significative, place cependant la France en deçà de la moyenne européenne (3,7 %), et loin derrière des pays comme la Finlande (7,1 %) ou l’Allemagne (5,2 %), comme le révèle le récent Indice Européen de Résilience Numérique (EDRIX). Cette communauté de plus de deux millions de personnes représente donc un levier de souveraineté numérique sous-exploité et une opportunité stratégique pour les entreprises et les pouvoirs publics.
- lien nᵒ 1 : L'étude
- lien nᵒ 2 : Le communiqué du CNLL
- lien nᵒ 3 : L'EDRIX
Commentaires : voir le flux Atom ouvrir dans le navigateur
Le Raspberry Pi 500+ est un ordinateur complet niché dans un clavier mécanique
Tous nos bons plans directement sur WhatsApp. Rejoignez Frandroid Bons Plans, zéro spam garanti.
Windows 10 va avoir un an de mises à jour supplémentaires gratuites en Europe

À moins de trois semaines de la fin du support de Windows 10, Microsoft a dû revoir sa copie pour l’Europe. Sous la pression d’un groupe de défense des consommateurs, l’entreprise offrira finalement une année de mises à jour de sécurité étendues sans contrepartie dans l’Espace économique européen. …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Windows 10 va avoir un an de mises à jour supplémentaires gratuites en Europe est apparu en premier sur KultureGeek.
macOS Tahoe - FileVault enfin déverrouillable à distance
Bon, on va pouvoir l’avouer maintenant, tous ceux qui se la racontent parce qu’ils peuvent prendre le contrôle à distance de leur joli Mac, ont la même galère depuis que FileVault existe… En effet, après une coupure de courant ou une mise à jour du système, votre super serveur Mac redevient une boite à chaussure jusqu’à ce que quelqu’un déplace son gros cul d’admin sys pour taper le mot de passe sur un clavier tout ça.
Et là, on a Jeff Geerling qui nous annonce l’air de rien qu’Apple vient enfin de “légaliser” la bidouille qu’on utilisait tous en douce à savoir déverrouiller FileVault à distance via SSH dans macOS Tahoe.
Ce qui était donc avant une astuce d’admin système un peu à la one again (script d’autologin / désactiver le chiffrement…etc) devient maintenant une fonctionnalité officielle. Sous macOS 26 Tahoe, si vous activez la “Session à distance” dans les réglages de partage, vous pouvez maintenant vous connecter en SSH avant même que l’utilisateur se soit authentifié. Un admin tape son mot de passe à distance et hop, le Mac démarre complètement. La documentation officielle explique même que le SSH se déconnecte brièvement pendant le montage du volume, puis revient. C’est la classe !
Par contre, petit détail qui tue, c’est censé fonctionner en WiFi mais Jeff Geerling qui a testé l’astuce n’a réussi à se connecter qu’en Ethernet. Il pense qu’en Wifi, ça ne passe pas parce que les clés réseau sont dans le Keychain, qui est lui-même chiffré sur le volume verrouillé. C’est le serpent qui se mord la queue (oui, vous le savez d’expérience, ça fait mal de se mordre la queue)… Du coup, tous ceux qui ont des Mac mini planqués derrière leur télé en mode serveur Plex, vont devoir tirer un petit câble RJ mais bon, vrai bonhomme fait vrai réseau en Ethernet, le Wifi c’est pour les faibles, ouga-ouga !
Cette nouvelle fonction arrive pile poil au moment où Apple change aussi la façon dont FileVault stocke les Recovery Keys. Selon TidBITS , fini le stockage basique dans iCloud, maintenant c’est dans l’iCloud Keychain avec chiffrement de bout en bout.
Quoiqu’il en soit, cette fonction très pratique pour les admins autorise quand même potentiellement de nouvelles attaques pre-auth sur les Mac, car avant, un Mac avec FileVault activé était une forteresse imprenable au démarrage. Mais maintenant, si vous avez activé le SSH distant, il y a une nouvelle surface d’attaque avec laquelle s’amuser. Alors oui, faut toujours le mot de passe admin mais bon, c’est moins sympa qu’une vraie sécurité physique…
En tout cas, tous les vieux de la vieille qui gèrent des fermes de Mac mini pour du CI/CD ou du rendu sont aux anges ! Plus besoin de supplier le stagiaire d’aller dans la salle serveur après chaque reboot, par contre, les puristes de la sécurité font un peu la grimace car cette connexion SSH, c’est du password-only pour l’instant. Apple a encore fait les choses à moitié, comme d’hab.
Raspberry Pi 500+ : le nouvel ordinateur avec 16 Go de RAM, NVMe 256 Go et clavier rétroéclairé
Avec le Raspberry Pi 500+, la fondation Raspberry Pi franchit une nouvelle étape : un véritable ordinateur tout-en-un qui associe la puissance d’un Raspberry Pi 5 à un clavier mécanique rétroéclairé. Doté de 16 Go de RAM, d’un SSD NVMe de 256 Go et d’une connectique complète, il se positionne comme une alternative compacte et […]
Cet article Raspberry Pi 500+ : le nouvel ordinateur avec 16 Go de RAM, NVMe 256 Go et clavier rétroéclairé a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....
Android pour PC est « incroyable », assure le patron de Qualcomm

Lors du Snapdragon Summit 2025, des dirigeants de Google et Qualcomm ont détaillé le projet d’unifier les expériences Android sur mobile et sur ordinateur. Cette stratégie vise à créer une base technique commune pour les PC, marquant une étape majeure dans la convergence des deux écosystèmes. Android en …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Android pour PC est « incroyable », assure le patron de Qualcomm est apparu en premier sur KultureGeek.
Bonne nouvelle ! 6% de français utilisent Linux
C’est fou car pendant que vous êtes encore en train de vous galérer avec votre bon vieux Windows, sachez que 6% de vos voisins sont en train d’utiliser Linux en totale détente. C’est en tout cas ce que remonte cette étude du CNLL et d’Abilian qui explique qu’on est maintenant 2,2 millions d’utilisateurs Linux en France.
D’après les données de Cloudflare Radar analysées par Abilian , l’usage personnel de Linux (4,3%) est deux fois plus élevé que l’usage professionnel (2,15%) ce qui montre bien que les gens font du Linux à la maison par choix, et non pas par obligation. D’ailleurs cette tendance s’accentue encore plus le weekend où l’usage des ordinateurs se fait essentiellement à titre personnel.
Comme le dit Stefane Fermigier, co-président du CNLL, dans son communiqué, “Ces chiffres sont une claque aux préjugés !”. Et il a raison même si on est encore en dessous de la moyenne Européenne. Celle-ci est de 3,7% de part de marché Linux alors que la France est à 3,1%. Les champions c’est la Finlande avec 7,1%, suivie de l’Irlande (5,3%) et de l’Allemagne (5,2%), donc on a encore une petite marge de progression.
Mais rassurez-vous, ce n’est pas qu’une question de compétence technique. C’est culturel car là-bas, utiliser Linux c’est normal, alors qu’ici c’est encore un peu un truc de geekos rebelles. Mais c’est en train de changer vite, et vous savez grâce à quoi ? Les jeux vidéo, pardi !! Avec Proton et Steam qui permettent de faire tourner les jeux Windows sur Linux, plein de gamers ont sauté le pas. C’est un des facteurs majeurs de la croissance mondiale de Linux qui atteint maintenant 4,55%.
Le gaming sous Linux c’est le cheval de Troie parfait car les mecs installent Ubuntu pour jouer et découvrent qu’il peuvent aussi bosser dessus, faire de la création, gérer leur vie numérique sans passer par Microsoft…. C’est une vraie prise de conscience.
Aux États-Unis, par exemple, Linux vient de passer la barre des 5% de parts de marché desktop. C’est une progression de 2 points en 2 ans, ce qui est énorme ! En plus avec la fin annoncée de Windows 10 qui force les gens à jeter à la poubelle leur ordinateur qui fonctionne s’ils veulent passer sous Windows 11, ça va encore augmenter je pense… Car Linux (ou ce logiciel magique ) est une solution anti-obsolescence incroyable !
Du coup, la CNLL milite pour qu’en France, on ait une vraie politique “Open Source & Sovereignty First” dans les marchés publics ce qui n’est pas gagné car l’Etat est gangréné par Microsoft… La CNLL veut notamment qu’on applique enfin l’article 16 de la loi République Numérique qui favorise le logiciel libre. Une pétition européenne propose même de créer un “EU-Linux” pour les administrations publiques. Imaginez toutes les mairies et préfectures sous Linux ! Ce serait cool !
Voilà, avoir Linux sur sa machine perso à la maison, c’est comme avoir un potager bio ou manger moins de viande… on le fait pour soi, par conviction, sans forcément militer. Et que Linux devienne mainstream c’est vraiment mon rêve car on n’en peut plus des zélites à barbes qui se définissent humainement de part leur OS, en regardant de haut les “autres”, les noobs, sans jamais leur tendre la main. Le jour où Monique de la Mairie ou Francis de la médiathèque sauront se démerder seuls sous Linux, je pense que leur égo en prendra un coup. Ils passeront alors sous BSD ou un truc encore plus techy parce que ça c’est un VRAI OS DE BONHOMME… ahahahah.
Puis en vrai, y’a encore plein de machines sous Linux que l’étude n’a probablement pas comptabilisées… On a tous chez nous des Raspberry Pi dans des tiroirs, des vieux PC reconverties en NAS, des petits serveurs perso…etc. Donc le vrai chiffre est sûrement bien plus élevé.
Alors oui, c’est vrai, on est encore loin des 72,5% de Windows, mais la tendance est claire. Linux grandit, doucement mais sûrement. Et surtout, c’est un mouvement très doux, très organique, qui n’est pas poussé par une méga-corpo, mais juste par des gens qui veulent reprendre le contrôle de leur ordinateur (et qui en ont marre de payer pour rien aussi, je pense…)
Voilà, donc la prochaine fois que vous croiserez quelqu’un dans une soirée, demandez-vous s’il fait partie des 6% de Français sous Linux ? Vous vous ferez plein de nouveaux amis ;-)
SSH Pilot - Un super gestionnaire de connexion SSH pour Linux / macOS
Et si je vous disais que pendant que vous galérez avec PuTTY et son interface à la Windows 95, ou que vous payez 119 balles pour SecureCRT, il existe un gestionnaire SSH moderne, gratuit et absolument magnifique qui attend tranquillement que quelqu’un le remarque ?
Hé bien c’est exactement ce qui se passe avec SSH Pilot dispo pour Linux et macOS, et je trouve ça vraiment bizarre que personne n’en parle. Quand je suis tombé dessus, c’est vrai que j’ai cru à un énième fork de Terminator ou un wrapper autour de tmux, mais non, c’est un vrai gestionnaire de connexions SSH développé par mfat , avec une interface moderne en libadwaita/GTK4, c’est à dire le truc le plus propre que GNOME ait sorti ces dernières années.
Alors j’ai creusé un peu, je l’ai installé, et là, révélation. Cette appli fait TOUT ce qu’on attend d’un gestionnaire SSH moderne : des onglets pour jongler entre les connexions, un gestionnaire SFTP intégré qui s’ouvre direct dans Nautilus, la génération de paires de clés en deux clics, le port forwarding (local, remote, dynamic), et même le regroupement de serveurs pour ceux qui gèrent des “fermes” entières. Ah et toutes les infos de config sont chiffrées sur votre disque dur.
On peut aussi naviguer entièrement au clavier dans l’appli, ce qui est super pratique. Ctrl+L pour passer de la liste des serveurs au terminal, Ctrl+F4 pour fermer un onglet, Alt+flèches pour switcher entre les tabs. C’est tellement bien pensé que ça en devient suspect ^^.
Car quand on gère plusieurs serveurs, on s’y perd vite si on n’est pas organisé ! On jongle avec des dizaines de connexions SSH, on tape des alias bash à rallonge, on installe des extensions tmux incompréhensibles…
Alors pourquoi SSH Pilot reste si peu connu alors qu’il est trop méga super génial ??? Hé bien j’ai ma petite théorie…
Dans le monde Linux, on a tellement d’alternatives pour chaque truc qu’on finit par se noyer. Quand on cherche un client SSH, on a PuTTY, KiTTY, SuperPuTTY, mTPuTTY, Solar-PuTTY, Bitvise, Tabby, MobaXterm, Termius, SecureCRT… et j’en passe. Trop de choix qui tue le choix !
Bref, jetez un oeil SSH Pilot, ça vous changera des client SSH avec une interface de Minitel.
Face à la fin de Windows 10, la distribution Zorin OS 18 joue la séduction - Next
Si vous cherchez une solution de remplacement pour le vieux Windows de vos beaux-parents sans trop les bousculer, Zorin OS, basée sur Ubuntu, et qui reprend les codes de Windows mérite le détour.
— Permalink
Face à la fin de Windows 10, la distribution Zorin OS 18 joue la séduction - Next
Si vous cherchez une solution de remplacement pour le vieux Windows de vos beaux-parents sans trop les bousculer, Zorin OS, basée sur Ubuntu, et qui reprend les codes de Windows mérite le détour.
— Permalink
Garuda Linux : chroot + luks
Windows 10 c'est terminé : Guide d'Installation complet de Linux avec Zorin OS - YouTube
(Permalink)
Windows 11 ajoute un « Windows AI Labs » pour tester des fonctions d’IA de Microsoft

Microsoft commence à tester des fonctionnalités expérimentales basées sur l’intelligence artificielle via un nouveau programme baptisé Windows AI Labs. Des testeurs de Windows 11 ont en effet repéré des références à ce programme dans des mises à jour préliminaires de Microsoft Paint. Un programme pour tester des fonctions …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Windows 11 ajoute un « Windows AI Labs » pour tester des fonctions d’IA de Microsoft est apparu en premier sur KultureGeek.
Windows 11 24H2 (unsupported hardware) clean install and in-place upgrade process - Pureinfotech
J'ai pu migrer un pc "non compatible" windows 11, vers windows 11, sans utiliser de support amovible.
Préférez linux (debian, ubuntu, mint, whatever) mais si vous n'avez pas le choix/l'envie, ce tuto juste marche :)
— Permalink
TernFS - Un système de fichiers distribué capable de gérer des exaoctets
Et encore un article un peu technique pour finir la journée en beauté ! Si je vous disais que votre serveur Linux pouvait gérer 10 exaoctets de données sans broncher ? Vous ne me croiriez pas je pense… D’ailleurs c’est quoi 10 exaoctets ?? Et bien ça correspond à 10 millions de To. C’est pas mal hein ?
Hé bien c’est exactement ce que permet de gérer TernFS, le système de fichiers qu’XTX Markets vient de libérer après trois ans d’utilisation intensive. XTX Markets est une boîte d’algo-trading qui brasse 250 milliards de dollars par jour et j’avoue que c’est un joli cadeau de presque-Noël qu’elle vient de nous faire…
D’après ce qu’ils expliquent sur leur site , NFS et les autres solutions classiques ne tenaient plus la charge face à leurs 650 pétaoctets de données utilisées leur machine learning. Alors ils ont fait ce que font les vrais geeks, ils ont codé leur propre solution… et après trois ans de production sans perdre “un seul octet”, ils ont tout balancé en en open source sur GitHub .
Le truc génial avec TernFS, c’est qu’il a été pensé pour les fichiers immuables, vous savez, ces gros datasets de plusieurs gigaoctets qu’on écrit une fois et qu’on relit des milliers de fois pour entraîner des modèles. Pas de modification après création, pas de prise de tête avec les locks et la cohérence. C’est simple et efficace.
L’architecture repose sur quatre composants principaux qui bossent ensemble : les metadata shards (256 shards logiques pour gérer les métadonnées), le CDC (Cross-Directory Coordinator) pour les opérations entre répertoires, les block services pour stocker les données, et un registry pour orchestrer tout ce petit monde. Le tout communique en UDP/TCP avec du Reed-Solomon pour l’erasure coding et du CRC32-C pour vérifier l’intégrité. Bref, ça semble être du solide.

Et les chiffres qu’ils donnent sur leur production sont assez dingues. Ils parlent de 500+ pétaoctets répartis sur 30 000 disques durs et 10 000 SSD, dans 3 datacenters différents, avec des débits qui montent à plusieurs téraoctets par seconde en vitesse de pointe. Et leur système gère ça tranquille, avec du multi-région natif et une tolérance aux pannes qui ferait pâlir d’envie n’importe quel admin sys.
Si ça vous chauffe, pour installer TernFS, c’est du classique. Vous clonez le repo, vous lancez ./build.sh alpine
ou ./build.sh ubuntu
selon votre distrib, et c’est parti. Il y a un module kernel Linux pour gratter les perfs maximales et toucher les étoiles, mais vous pouvez aussi utiliser FUSE si vous préférez rester en userspace. Ils ont même implémenté une API S3 pour ceux qui veulent migrer depuis AWS sans tout réécrire.
git clone https://github.com/XTXMarkets/ternfs
cd ternfs
./build.sh alpine
# Et pour tester en local
./scripts/ternrun
Par contre, attention aux limitations ! Car TernFS n’est pas du tout fait pour les petits fichiers (genre les millions de fichiers de 1KB d’un projet Node.js). C’est vraiment optimisé pour du gros volume du style datasets ML, logs d’applications, archives, ce genre de trucs. Et y’a pas de système de permissions intégré non plus, car ils ont préféré garder ça basique et laisser chacun implémenter sa propre couche de sécurité.
Ils ont mis au point également un système de “block proofs” où chaque bloc de data a une preuve cryptographique qui permet de vérifier que le client n’a pas corrompu les données avant de les écrire. Ça évite qu’un client bugué ou malveillant ne pourrisse tout le filesystem. Ils ont aussi un système de “scrubbing” automatique qui détecte et remplace les secteurs défaillants sur les disques.
Chouette non ?
D’après Bloomberg , XTX Markets investit actuellement 1 milliard d’euros dans de nouveaux datacenters en Finlande. Avec leurs 25 000 GPUs (dont 10 000 A100 et 10 000 V100) et maintenant TernFS en open source, ils montrent surtout qu’ils ne rigolent pas avec l’infrastructure. C’est pas pour rien qu’ils arrivent à traiter un trillion d’enregistrements par jour pour leurs algos de trading.
Leur code est disponible sous double licence à savoir GPLv2+ pour le core et Apache 2.0 avec exception LLVM pour les bibliothèques client et les définitions de protocole. Ça permet d’intégrer TernFS dans à peu près n’importe quel projet, commercial ou non.
Bref, si vous gérez des pétaoctets de données et que ZFS commence à tirer la langue, TernFS vaut vraiment le coup d’œil. Reste à voir si d’autres géants du big data vont l’adopter ou si ça restera un outil de niche pour les vraiment gros volumes, mais avec l’explosion du Machine Learning et des LLMs, je parie qu’on va en entendre parler de plus en plus…
Windows 11 va supporter les fonds d’écran avec des vidéos

Microsoft teste actuellement la possibilité d’utiliser des fonds d’écran sous forme de vidéos sur Windows 11. Cette fonctionnalité a été repérée dans les dernières versions de développement du système d’exploitation et permet aux utilisateurs de définir des fichiers vidéo comme MP4 ou MKV en arrière-plan de leur bureau. …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Windows 11 va supporter les fonds d’écran avec des vidéos est apparu en premier sur KultureGeek.
Le Multikernel - La prochaine révolution Linux
Et si votre serveur Linux était comme un appart en coloc où tout le monde partage la même cuisine, le même salon, les mêmes chiottes ?? Forcément, ça finit toujours mal avec quelqu’un qui monopolise les toilettes pendant que vous avez une urgence en spray, un autre fait crasher la machine à laver avec ses expérimentations douteuses de voyage dans le temps, et au final personne n’est content.
Hé bien figurez-vous qu’un développeur nommé Cong Wang de Multikernel Technologies vient de proposer une solution radicale qui consiste à donner à chaque processus son propre kernel Linux, avec ses propres core CPU, comme des colocataires qui auraient enfin chacun leur studio…
Selon le patch soumis sur la Linux Kernel Mailing List (LKML), cette architecture “multikernel” permettrait de faire tourner plusieurs noyaux Linux indépendants sur la même machine physique. C’est pas vraiment de la virtualisation classique façon VMware ou KVM, mais c’est plutôt comme si vous découpiez votre ordinateur en tranches et que chaque tranche vivait sa vie. Le truc marrant, c’est que Cong Wang n’est pas un petit nouveau qui débarque avec ses idées folles. Le bonhomme a déjà contribué à plus de 1000 patches au noyau Linux et il maintient le sous-système de traffic control . Autant dire qu’il sait de quoi il parle quand il touche au code du noyau.
D’ailleurs cette idée de séparer les kernels rappelle furieusement le projet Barrelfish que Microsoft Research et l’ETH Zurich avaient lancé il y a quinze ans. À l’époque, ils voulaient traiter l’OS comme un système distribué où chaque core CPU aurait son propre kernel qui communique avec les autres par messages. Sauf que voilà, c’était trop tôt. Les processeurs n’avaient pas assez de cores pour qu’on puisse se permettre ce genre de luxe, et puis franchement, qui avait besoin de ça en 2009 ?
Aujourd’hui avec nos CPU à 128 cores et nos problèmes de sécurité qui explosent, l’idée prend soudainement tout son sens.
Selon Phoronix et les patches sur la LKML, l’implémentation de Wang utilise kexec, ce mécanisme qui permet normalement de redémarrer directement dans un nouveau noyau sans repasser par un reboot. Sauf qu’ici, au lieu de remplacer le noyau existant, on en charge plusieurs qui vont cohabiter. Chaque kernel se voit attribuer ses propres cores CPU et ils communiquent entre eux via un système d’interruptions inter-processeurs (IPI) spécialement conçu pour l’occasion. Et dans les 7 patches proposés en RFC, Wang prévoit des mécanismes de surveillance pour gérer tous ces petits mondes parallèles.

Et pendant que Cong Wang bricolait son multikernel dans son coin, les géants du cloud comme Amazon, Microsoft et Google ont développé en parallèle une technologie appelée KHO ( Kexec HandOver ) qui permet de préserver l’état système lors du changement de kernel. En gros, ils veulent pouvoir mettre à jour le noyau Linux de leurs serveurs sans perdre les VMs qui tournent dessus. Sauf que si le multikernel de Wang fonctionne vraiment, ça pourrait rendre leur stack de virtualisation complètement obsolète.
Car pourquoi s’embêter avec des hyperviseurs complexes quand on peut juste donner à chaque workload son propre kernel ?
Le plus drôle dans tout ça, c’est que Wang admet candidement dans son RFC que pour l’instant, ça marche “que sur sa machine de dev avec des paramètres hardcodés”.
Maintenant si cette techno décolle, on pourrait voir des trucs assez dingues. Genre un kernel temps réel qui gère les processus critiques pendant qu’un kernel classique s’occupe du reste. Ou alors des kernels spécialisés pour différents types de workloads : un pour le machine learning, un pour les bases de données, un pour le réseau. Vous pourriez même imaginer des kernels avec différents niveaux de sécurité du genre un kernel ultra-paranoia pour vos données sensibles et un kernel plus relax pour Netflix. Et le plus beau c’est que si un kernel plante, les autres continuent de tourner tranquillement.
C’est comme avoir plusieurs systèmes de secours intégrés directement dans la machine.
Mais attention, on parle quand même d’une RFC, et pas encore d’un truc prêt pour la prod. La communauté des barbus du noyau va probablement passer des mois à débattre de chaque ligne de code, et c’est tant mieux parce que toucher à l’architecture fondamentale de Linux, c’est pas comme patcher un bug dans Firefox. Si ça merde, c’est potentiellement des millions de serveurs qui partent en vrille.
Au final, que ce patch soit accepté ou pas, ça montre surtout que Linux continue d’évoluer de manière radicale pour toujours aller plus loin ! Et si vous l’évolution de ce projet, tout se passe sur la LKML .