Vue lecture

Stéphane, non-voyant et sur[dé]voué de l’informatique

Un parcours de résilience et de passion pour l’informatique

Stéphane, 46 ans, est un informaticien bénévole aveugle de naissance, dont le parcours est une leçon de résilience et de générosité. Né prématurément en 1978, il a surmonté les barrières de sa cécité grâce à une scolarité spécialisée à l’Institut Provincial d’Enseignement Spécial de Mons, suivie d’études en Administration Publique à Saint-Ghislain et d’une formation en informatique au Collège Franciscain de Tournai.

Photo : Fête de l’Internet Stéphane faisant une démonstration de l’impression en braille à des enfants

Malgré les défis techniques initiaux il s’est spécialisé dans les technologies adaptées aux déficients visuels, offrant son expertise gratuite en informatique, internet, téléphonie mobile et multimédia audio. « J’aime procurer mon aide à d’autres personnes aveugles qui en ont le besoin […] de manière totalement bénévole afin qu’un maximum de personnes en difficultés puissent accéder à un éventail d’outils le plus large possibles », confie-t-il avec enthousiasme.

Un engagement pour une accessibilité autonome avec Emmabuntüs

Dans cette interview exclusive pour Emmabuntüs, Stéphane partage son engagement récent avec la distribution Linux Emmabuntüs, un système d’exploitation libre dédiée au réemploi d’ordinateurs. Mis en contact avec Patrick, membre du collectif, via un forum, il teste activement le système pour en optimiser l’accessibilité. Ce qui l’a séduit en premier ? La possibilité d’installer Emmabuntüs de manière autonome grâce à la vocalisation intégrée : « Ce que j’ai tout de suite apprécié avec votre distribution, c’est que je n’ai besoin de personne pour installer le système grâce à la vocalisation de l’étape d’installation. Car il n’y a rien de plus frustrant pour une personne aveugle de ne pas pouvoir faire une installation elle-même. » Il évalue actuellement les raccourcis clavier, l’intégration des barrettes Braille via Orca (le lecteur d’écran), et identifie des pistes d’amélioration pour rendre les applications encore plus inclusives, sans assistance visuelle requise.

Un impact solidaire pour les communautés vulnérables

Au-delà de son usage personnel – notamment pour redonner vie à ses anciens PC portables obsolètes sous Windows –, Stéphane voit en Emmabuntüs un outil puissant pour des projets solidaires. Cela résonne particulièrement avec les initiatives d’Emmabuntüs, qui réemploient des ordinateurs pour équiper des institutions pour personnes handicapées, comme au Togo. En adaptant ces machines aux besoins des déficients visuels, Stéphane contribue à démocratiser l’accès au numérique dans ces contextes vulnérables, prolongeant ainsi la vie utile du matériel tout en favorisant l’autonomie. Son dévouement « surdévoué » à l’informatique n’est pas qu’une passion : c’est un engagement concret pour un monde plus accessible, où la technologie efface les frontières du handicap.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Linux 6.18 améliorera HID avec un pavé tactile haptique et la prise en charge DualSense, cette dernière version du noyau Linux renforce également les mesures de sécurité

Linux 6.18 améliorera HID avec un pavé tactile haptique et la prise en charge DualSense, cette dernière version du noyau Linux renforce également les mesures de sécurité

Linux 6.18 améliore le sous-système HID avec la prise en charge du pavé tactile haptique pour des appareils tels que l'Elan 2703, piloté par Google pour Chrome OS, ainsi que l'amélioration de la gestion audio Sony DualSense, la flexibilité HID-BPF, le renforcement de la sécurité des ioctls hidraw, le retour de force PIDFF et la...

  •  

Object First propose un stockage immuable à l’épreuve des ransomwares pour les environnements délocalisés

Mini Ootbi renforce la sécurité et simplifie la gestion des entités distantes, succursales et petites entreprises utilisant Veeam, tandis qu’Ootbi Honeypot permet de détecter rapidement les cybermenaces. Communiqué – Object First, le meilleur stockage pour Veeam®, annonce le lancement de Mini Ootbi, une appliance compacte et immuable destinée aux bureaux distants, succursales et petites entreprises. Conçue […]

The post Object First propose un stockage immuable à l’épreuve des ransomwares pour les environnements délocalisés first appeared on UnderNews.
  •  

Dans une nouvelle étude, Fortinet souligne l’importance d’une expertise en IA pour pallier le déficit de compétences en cybersécurité

Si 87 % des professionnels de la cybersécurité s’attendent à ce que l’IA améliore leur efficacité et tempère l’impact de la pénurie de compétences en cybersécurité, ils sont néanmoins conscients qu’une montée en compétences en IA s’impose. Tribune – Fortinet, un des leaders mondiaux de la cybersécurité et acteur majeur de la convergence entre réseau […]

The post Dans une nouvelle étude, Fortinet souligne l’importance d’une expertise en IA pour pallier le déficit de compétences en cybersécurité first appeared on UnderNews.
  •  

La microsegmentation : une réponse plus rapide aux incidents et une réduction des primes d’assurance pour les organisations

Un nouveau rapport montre que les entreprises qui mettent en œuvre la microsegmentation réduisent les délais de confinement des ransomwares et améliorent les conditions de cyberassurance. Tribune – Akamai Technologies, la société de cybersécurité et de Cloud Computing qui soutient et protège l’activité en ligne, a publié aujourd’hui un nouveau rapport, « Étude d’impact sur […]

The post La microsegmentation : une réponse plus rapide aux incidents et une réduction des primes d’assurance pour les organisations first appeared on UnderNews.
  •  

Des décideurs déconnectés de la réalité : 26 % des dirigeants européens ne comprennent pas la valeur commerciale de la cybersécurité

Le dernier rapport de Kaspersky intitulé « Cybersécurité des PME : comprendre les failles, combler les manques, identifier l’essentiel » révèle que 26 % des responsables informatiques déclarent que les cadres exécutifs de leur entreprise ne saisissent pas le réel intérêt commercial de la cybersécurité. Cette divergence souligne une fracture structurelle entre les priorités affichées […]

The post Des décideurs déconnectés de la réalité : 26 % des dirigeants européens ne comprennent pas la valeur commerciale de la cybersécurité first appeared on UnderNews.
  •  

Sécurité du cloud hybride : quelles sont les stratégies de sécurité des RSSI pour 2026 ?

86 % des RSSI mondiaux considèrent les métadonnées comme essentielles pour obtenir la visibilité complète dont les organisations ont besoin aujourd’hui. Tribune – Gigamon, un leader de l’observabilité avancée, dévoile une nouvelle étude révélant comment les RSSI redéfinissent les stratégies de cybersécurité pour 2026 afin de sécuriser et de gérer efficacement les infrastructures cloud hybrides à […]

The post Sécurité du cloud hybride : quelles sont les stratégies de sécurité des RSSI pour 2026 ? first appeared on UnderNews.
  •  

🪶 Les journaux LinuxFr.org les mieux notés de septembre 2025

LinuxFr.org propose des dépêches et articles, soumis par tout un chacun, puis revus et corrigés par l’équipe de modération avant publication. C’est la partie la plus visible de LinuxFr.org, ce sont les dépêches qui sont le plus lues et suivies, sur le site, via Atom/RSS, ou bien via partage par messagerie instantanée, par courriel, ou encore via médias sociaux.

Bannière LinuxFr.org

Ce que l’on sait moins, c’est que LinuxFr.org vous propose également de publier directement vos propres articles, sans validation a priori de lʼéquipe de modération. Ceux-ci s’appellent des journaux. Voici un florilège d’une dizaine de ces journaux parmi les mieux notés par les utilisateurs et les utilisatrices… qui notent. Lumière sur ceux du mois de septembre passé.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Cyberattaques en santé : les soins aux patients plus que jamais dégradés pour 72% des établissements de santé aux US

Alors que les Assises de la Cybersécurité battent leur plein à Monaco, Proofpoint, publie son rapport annuel sur l’insécurité dans le secteur de la santé, réalisé en collaboration avec le Ponemon Institute. La quatrième édition de ce rapport annuel révèle que les cybermenaces persistantes constituent des risques cliniques, les attaques continuant de compromettre la sécurité des patients […]

The post Cyberattaques en santé : les soins aux patients plus que jamais dégradés pour 72% des établissements de santé aux US first appeared on UnderNews.
  •  

Étude Insight : la pénurie de compétences en cybersécurité pousse 64 % des entreprises EMEA à adopter des raccourcis risqués

Selon une nouvelle étude d’Insight Enterprises, une crise croissante des compétences en cybersécurité oblige 64% des entreprises de la zone EMEA à recourir à des solutions temporaires et des raccourcis risqués pour répondre aux besoins de sécurité. Le coût élevé des recrutements laisse les entreprises particulièrement exposées Tribune – En France, le problème est tout […]

The post Étude Insight : la pénurie de compétences en cybersécurité pousse 64 % des entreprises EMEA à adopter des raccourcis risqués first appeared on UnderNews.
  •  

L’EPITA, France Travail Ile-de-France & ITS Group s’associent pour former les futurs experts en cybersécurité

Face à la montée des cybermenaces et à la forte demande de compétences spécialisées, l’EPITA, France Travail Ile-de-France et ITS Group s’allient pour proposer une formation intensive en cybersécurité. Cette formation est proposée dans le cadre du dispositif de Préparation Opérationnelle à l’Emploi Individuelle (POEI) de France Travail, conçu pour accompagner les demandeurs d’emploi vers […]

The post L’EPITA, France Travail Ile-de-France & ITS Group s’associent pour former les futurs experts en cybersécurité first appeared on UnderNews.
  •  

Nouveautés d'octobre 2025 de la communauté Scenari

Scenari est un ensemble de logiciels open source dédiés à la production collaborative, publication et diffusion de documents multi-support. Vous rédigez une seule fois votre contenu et vous pouvez les générer sous plusieurs formes : site web, PDF, OpenDocument, diaporama, paquet SCORM (Sharable Content Object Reference Model)… Vous ne vous concentrez que sur le contenu et l’outil se charge de créer un rendu professionnel accessible et responsive (qui s’adapte à la taille de l’écran).

À chaque métier/contexte son modèle Scenari :

  • Opale pour la formation ;
  • Dokiel pour la documentation ;
  • Optim pour les présentations génériques ;
  • Topaze pour les études de cas ;
  • et bien d’autres…

Sommaire

🚀 Visio de découverte de Scenari

Tu as des questions sur Scenari avant de tester ?
Tu voudrais une petite démo ?
Tu commences à utiliser Scenari et tu as besoin d’un peu de soutien ?

Cette visio est faite pour toi : vendredi 19 septembre à 16h sur https://scenari.org/visio/miniwebinaire

🖥️ Prochain mini-webinaire : « Présentation d’une ressource utilisable en formation Opale » 16 octobre

Jeudi 16 octobre de 17h à 18h heure de Paris, à l’adresse https://scenari.org/visio/miniwebinaire.

Pour que la session colle au mieux aux besoins de la communauté, tu peux participer à ce fil de discussion sur le forum.

Dans ce mini-webinaire on présentera une ressource qui peut être utilisée lors d’une formation à Opale.

Il s’agit d’un document ODT dont le contenu est à rédiger sur Opale, qui contient différents éléments qui permettent d’exploiter au maximum les possibilités d’Opale. Il contient aussi quelques pièges. On échangera sur les manières de l’utiliser dans le cadre d’une formation à Opale.

Les enregistrements des mini-webinaires précédents sont sur la page dédiée de scenari.org et dans notre canal peertube.

Pour proposer des sujets, rends-toi sur ce fil de discussion.

💗 Parole de Scenariste

Mon premier atelier Scenari a vu le jour en 2011, une époque où les noms des chaînes éditoriales évoquaient des minéraux verts, rouges, bleus, jaunes, incolores ou multicolores.

Appréciant la multiplicité des formats de publication pour un même contenu, susceptible de contribuer à la différenciation pédagogique, et le caractère réutilisable des grains, j'ai commencé par découvrir Opale, ses activités d'apprentissage et d'auto-évaluation appuyées sur des ressources (images, vidéos, schémas, etc.) essentielles en sciences de la vie.

L'appropriation progressive du modèle et l'évolution des pratiques des étudiants m'ont conduite à restructurer mes contenus en en modifiant la granularité, et à utiliser le conducteur pédagogique pour élaborer mes progressions. Mais également à explorer la variété des chaînes éditoriales et à diversifier mes usages.

Aujourd'hui mes exposés, théoriques comme pratiques, sont le plus souvent conçus avec Webmedia et nombre de mes séances pratiques exploitent Dokiel en 3 étapes (avant, pendant et après), avec une place importante laissée aux vidéos courtes. Plus récemment et ponctuellement, pour les thèmes s'y prêtant, IDKey et Topaze me permettent de concevoir des activités d'analyse et d'interprétation.

Les dernières nouveautés m'engagent à un retour vers Opale et sa banque de questions pour encourager l'acquisition et la maîtrise du vocabulaire scientifique par les étudiants, ainsi que ses cartes mentales pour représenter les concepts fondamentaux des sciences de la vie et leurs relations.

Les chaînes éditoriales Scenari sont autant de pierres fines et précieuses à enfiler dans le collier de l'enseignement et de l'apprentissage…

Sandrine Heusser Sandrine Heusser, professeure agrégée en Sciences de la Vie et de la Terre, autrice de plusieurs ouvrages de biologie, et enseignante à l'université Jean Monnet de Saint-Étienne. Modèles utilisés : Opale, Topaze, Dokiel, Webmedia, IDKey

Logo Topaze

📣 Les ultimes ressources pour prendre en main Topaze

Le livret apprenant et les ressources de la prise en main de Topaze ont été mis à jour et sont disponibles à partir de la documentation Topaze 5.

Si vous voyez d’éventuelles corrections à apporter, n’hésitez pas à les remonter sur le forum.

Merci à Gaëlle et Hélène pour ce super travail !

logo France Travail

📣 Offre d’emploi étudiant

Le Cnam propose un contrat d’embauche pour étudiant⋅e pour aider à la transformation et mise en accessibilité numérique des ressources pédagogiques en utilisant notamment Scenari.

Tous les détails sont dans l’offre sur le site de France Travail.

logo Parcours romancé

📣 Parcours 25 vient de sortir !

Parcours assiste la création de parcours de formation en outillant la conception de conducteurs pédagogiques et l’exécution de sessions de formation.

Nouveautés :

  • La baguette magique vérifie désormais la cohérence des modalités spatiales, temporelles et de travail.
  • Nouveaux items : URL et Autre ressource téléchargeable.
  • Ajout d’une Thématique transversale.
  • Nouvelles possibilités dans les items Types de… et dans la configuration de l’affichage web.
  • Affichage de l’avancement de l’apprenant via des cases à cocher et une barre de progression.
  • Nouveautés relatives aux possibilités de replier/déplier des éléments des publications web.
  • Diverses corrections de bugs et autres améliorations mineures.

La liste complète est disponible dans la documentation.

logo blueHats

📣 #BlueHats s'internationalise

La communauté #BlueHats défend l'usage du logiciel libre dans, par, et pour l'Administration.

Sous l'impulsion d'autres agents publics libristes en Europe, le mouvement BlueHats se globalise ! 🧢

Tu peux en apprendre plus et rejoindre ou diffuser le mouvement ici : https://bluehats.world

Mises à jour

📣 Mises à jour

Des nouvelles versions de maintenance de LTI-suite et de SCENARI 6.0 , SCENARI 6.1 , SCENARI 6.2 et SCENARI 6.3 sont sorties il y a quelques jours. Ce sont des corrections mineures et qui ne concernent que les versions serveur.

Une nouvelle version de maintenance de SCENARI 6.4 (6.4.3) est disponible. Elle apporte surtout des corrections fonctionnelles et sécuritaires. Plus de détails sur le forum.

Nouvelle version corrective de Dokiel : corrections liées à la mise en forme des publications, amélioration de l’éditeur au niveau des conditions, correction liée à la gestion du menu (publication web du Guide).

Nouvelle version corrective de Opale. Au menu :

  • Amélioration de l’affichage des Cartes mentales.
  • Correction et amélioration de la lisibilité (solutions dans le même ordre d’affichage) de la fonctionnalité aléatoire des quiz (QCU et QCM), et ajout de cette option dans les publications papier.
  • Possibilité de définir un type pour les documents bureautiques distants (PDF).
  • Nouvelle option lors de la publication des QCU et QCM graphiques, pour définir l’affichage des zones au survol.

Nouvelle version de Process. Parmi les nouveautés :

  • Ajout d’une vue de relecture sur les items de la cartographie.
  • Option de publication de la matrice RACI.
  • Possibilité d’utiliser une image distante pour les diagrammes.
  • Format WebP pour les images.

✨ Le savais-tu ?

Il est possible de convertir un atelier dérivé en atelier de référence.

Pour ce faire, il faut entrer dans les propriétés de l’atelier dérivé, onglet « avancé » et cliquer sur le bouton « Transférer le contenu de cet atelier dérivé dans l’atelier principal ». L’atelier dérivé deviendra alors l’atelier de référence et il te sera demandé de suffixer l’ancien atelier de référence pour en faire un atelier dérivé.

Tres pratique pour passer d’une langue de référence à une autre lors de traductions, ou bien quand on documente un produit dans une version ultérieure et que celle-ci devient la version courante.

Bonus : après cette transformation, pour que tous tes ateliers dérivés aient le même atelier de référence, ils suffit d'entrer dans les propriétés des ateliers dérivés. Cf vidéo.

Conversion d'un atelier dérivé en atelier de référence

Plus de détails dans la conférence « Nouveautés Scenari 6.3 » des Rencontres 2024, ou dans la documentation.

📊 Le chiffre du mois

218 218, c'est le nombre de conférences qui ont été proposées lors des Rencontres Scenari depuis 2013. Visionne-les sur notre canal peertube (à partir des Rencontres 2017).

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Deuxième épisode du Podcast Projets Libres consacré à l'April

Projets Libres est un podcast indépendant qui explore en profondeur les enjeux autour du logiciel libre et des données ouvertes. Chaque épisode propose une rencontre avec des actrices et acteurs engagés, qui partagent leur expérience autour de diverses thématiques.

Après un premier épisode consacré à l’histoire de l’association et à ses « grands combats », ce deuxième épisode s'intéresse à « l’April aujourd’hui ». Ses grandes missions, sa place dans l'écosystème, son financement, son fonctionnement, ses actions institutionnelles et ses actions de sensibilisation, etc.

Merci à Walid Nouh de nous avoir à nouveau tendu le micro, dans le beau studio de la radio Cause Commune :). J'ai ainsi pu, en tant que salarié de l'association en charge des « affaires publiques », échanger avec Magali Garnero, alias Bookynette, présidente de l'association, et Laurent Costy, vice-président.

Et merci à Marie-Odile Morandi pour la transcription de l'échange

Bonne écoute (ou bonne lecture).

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

40 ans pour l'informatique libre | Entretien avec Richard Stallman

Samedi 4 octobre 2025, la Free Software Foundation (FSF) fête ses 40 ans d'existence ! 4 décennies pour défendre les 4 libertés fondamentales sur lesquelles se fonde le logiciel libre.

  • la liberté d'exécuter le programme, pour tous les usages ;
  • la liberté d'étudier le fonctionnement du programme et de l'adapter à ses besoins ;
  • la liberté de redistribuer des copies du programme (ce qui implique la possibilité aussi bien de donner que de vendre des copies) ;
  • la liberté d'améliorer le programme et de distribuer ces améliorations au public, pour en faire profiter toute la communauté.

Pour revenir sur ces 40 ans de combat en faveur du logiciel libre, j'ai eu l’honneur de pouvoir avoir un entretien avec Richard Stallman (RMS), fondateur du projet GNU, de la FSF, et l’initiateur du mouvement du logiciel libre.

Vous trouverez la transcription de cet entretien dans cette dépêche, ainsi que le lien vers la vidéo de celle-ci.

Merci du fond du cœur à Richard pour sa gentillesse, sa patience et sa bienveillance pour cette interview qui était une première pour moi. Entre le stress et mes bégaiements, il fallait bien quelqu'un d'aussi cool que lui. 😅

Et un grand merci aussi à Aurore, la monteuse de cette vidéo, qui a réussi astucieusement à masquer ces fameux bégaiements ! 😉

Le texte de cet entretien est sous licence CC-BY-ND

Logo 40 ns FSF

Stéphane :
Bonjour Richard.

Richard :
Bonjour, c’est un plaisir.

Stéphane :
Le plaisir est pour moi également. Merci beaucoup de me permettre de t’interroger à l’occasion des 40 ans de la Free Software Foundation. Pour commencer, puisque l’histoire de la FSF est indissociable de celle du projet GNU, j’aimerais revenir aux origines. Comment est né le projet GNU ? Pourquoi ce nom, quelle en était la philosophie, les fondements techniques ? Et en quoi la création de la FSF, deux ans plus tard, a-t-elle été une continuité de ce projet ?

Richard :
J’ai d’abord décidé de développer un système d’exploitation constitué uniquement de logiciels libres. Dans les années 1970, j’utilisais déjà un système libre, développé dans le même laboratoire que moi, et mon travail consistait à l’améliorer en modifiant son code. Tout le monde pouvait accéder à ce code, c’était dans les faits du logiciel libre. Mais ce système a fini par disparaître, ainsi que la communauté qui l’entourait.

Pour moi, ce fut une perte immense. J’ai alors pris conscience du caractère injuste et tyrannique du logiciel privateur. J’ai compris que cela ne pourrait jamais être juste. Pour remplacer ce que j’avais perdu, je voulais créer un autre système libre, capable de soutenir une communauté similaire. J’ai choisi de m’inspirer de l’organisation d’Unix : c’était le meilleur modèle à suivre.

Je cherchais aussi un acronyme récursif comme nom : GNU, pour GNU’s Not Unix. Cela ajoutait une touche d’humour. J’ai annoncé publiquement le projet en septembre 1983 et invité d’autres personnes à développer les différents composants, car un système de type Unix se compose de nombreux éléments plus ou moins indépendants.

Deux ans plus tard, nous avions suffisamment de succès pour qu’il devienne utile de créer une fondation : pour gérer les financements, conserver les droits d’auteur et soutenir le projet. C’est ainsi qu’est née la FSF, Free Software Foundation, ou Fondation pour le logiciel libre en français.

Ce point est d’ailleurs important : en français, la distinction entre "gratuit" et “libre” est claire. Cela m’a appris à préciser en anglais : depuis vingt ans, je n’emploie plus “free” pour dire gratuit, je dis gratis. Et pour la liberté, j’utilise toujours freedom. Ainsi, il n’y a plus d’ambiguïté.

Stéphane :
En anglais, l’ambiguïté est apparue avec le logiciel : auparavant, le contexte levait toute confusion. Mais dans l’informatique, on trouve des programmes gratuits… qui ne sont pas libres du tout.

Richard :
C’est vrai. Et inversement, on peut payer pour acquérir une copie d’un programme libre. Les deux catégories — libre et gratuit — sont indépendantes.

Stéphane :
Exactement. Et donc, la FSF permettait non seulement de financer le projet, mais aussi de garantir les droits d’auteur. Car il est légalement impossible de rédiger une licence qui assure à 100 % qu’un programme restera libre. Par exemple, si je publie un logiciel sous GPL, ceux qui utiliseront mon logiciel, devront publier leurs modifications sous la même licence. Mais moi, je pourrais rendre à tout moment le code privateur…

Richard :
Il faut bien distinguer deux choses : ce que l’auteur peut faire, et ce que les utilisateurs, qui reçoivent le logiciel sous une licence libre, peuvent faire. Les utilisateurs sont légalement contraints par la licence : s’il s’agit d’une licence avec gauche d’auteur (copyleft), ils ne peuvent créer que des versions libres.

Mais l’auteur, lui, ne dépend pas de sa propre licence : il reste propriétaire du code. Il peut donc publier une autre version, y compris privatrice. Mais s’il est un activiste du logiciel libre, il ne voudra pas le faire.

Stéphane :
Bien sûr. Et c’est là qu’une fondation comme la FSF est essentielle : elle garantit que les logiciels sous son copyright resteront toujours libres.

Richard :
Oui. C’est la mission de la FSF : protéger la liberté des utilisateurs. Autrement dit, éviter qu’un utilisateur ne prenne du pouvoir sur les autres. Si la liberté est pour tous, ça veut dire que personne n'a de pouvoir sur personne.

Stéphane :
On comprend donc bien le rôle essentiel de la FSF, en complément du projet GNU : protéger juridiquement, notamment via le droit d’auteur, et assurer aussi un soutien financier. Parce qu’il arrive que certaines entreprises publient des logiciels qu’elles qualifient de « libres » ou « open source » — les deux termes étant souvent confondus —, mais parfois dans l’unique but de profiter du travail bénévole, avant de fermer le code…

Richard :
Je préfère qu’on n’utilise pas les termes « ouvrir » ou « fermer », car cela renvoie à la logique de l’open source. Or, moi, je ne défends pas l’open source, je défends la liberté.
Il est vrai que la plupart des programmes dits open source sont aussi libres. Mais certains ne le sont pas, et il est important de faire la distinction. Puisque notre combat porte sur le logiciel libre, il est plus clair d’éviter les expressions qui risquent de brouiller le message et de laisser croire qu’il s’agit simplement d’open source.

Stéphane :
Du coup, j’avais une autre question par rapport au début du projet GNU. Avant l’arrivée de Linux… Moi, quand je parle de Linux, comme toi, je parle uniquement du noyau, parce qu’il y a un amalgame terrible entre le système GNU/Linux et le noyau Linux.
Alors, avant 1991, comment les utilisateurs de GNU faisaient-ils pour utiliser le système ?

Richard :
Ils l’utilisaient sur Unix. C’était la seule manière. Nous n’avions pas encore de noyau libre, donc pas de système complet. Les gens installaient les composants GNU et d’autres composants libres sur Unix, pour remplacer certains éléments. Mais il était impossible de tout remplacer. C’était le but, mais il n’était pas encore atteint.

Quand Torvalds a publié la première version de Linux, son noyau n’était pas libre. Il avait assisté à ma conférence en Finlande, mais n’avait pas suivi mes conseils. Il a choisi une licence qui ne donnait pas toutes les libertés nécessaires. Mais six mois plus tard, il a finalement publié Linux sous la GPL de GNU. C’est à ce moment-là que Linux est devenu libre.

De notre côté, nous avions déjà commencé un projet de noyau libre, le Hurd. Au départ, d’après l’évaluation d’un ami, Linux ne paraissait pas très intéressant. Mais il avançait très vite, alors que notre conception, trop complexe, posait beaucoup de difficultés. Finalement, nous avons décidé d’utiliser Linux comme noyau.

Stéphane :
Justement, à ce moment-là, quand Linux a commencé à prendre de l’ampleur, comment se passaient les relations entre la FSF et le projet GNU d’un côté, et Linus Torvalds de l’autre ? Est-ce qu’il a été question, à un moment donné, d’intégrer Linux officiellement comme projet GNU ?

Richard :
Non. Linus n’était pas très amical envers nous. Je soupçonne que notre insistance sur le nom “GNU/Linux” le dérangeait. Il n’aimait pas que nous refusions d’appeler notre projet “Linux”, comme si c’était le sien. Je crois qu’il avait des émotions contradictoires. Parfois, il reconnaissait l’histoire, et parfois il revenait dessus. C’était compliqué, et je ne peux pas deviner ses sentiments exacts.

Stéphane :
Une autre question : le noyau Hurd, qui au départ s’appelait “Alix” si je ne me trompe pas… Est-ce que le fait de le développer comme un micro-noyau a freiné son avancée ? Parce que tu disais que Linux progressait très rapidement. Est-ce que c’était une approche trop avant-gardiste, qui a permis à Linux de prendre l’avantage ?

Richard :
Oui, le développement du Hurd a traîné très longtemps. Et il a rencontré des problèmes fondamentaux, très difficiles à résoudre. Personne ne savait vraiment comment les résoudre. C’est ça qui m’a convaincu qu’il ne valait plus la peine d’insister.

Quant au nom “Alix”, c’était au départ une blague. J’avais une copine qui s’appelait Alix, administratrice d’un groupe Unix. Elle avait plaisanté en disant qu’il faudrait donner son prénom à un noyau. J’ai décidé de le faire, secrètement, pour la surprendre.

Stéphane :
Ça a dû lui faire plaisir.

Richard :
Oui, un peu. Mais ensuite des évènements ont changé les plans, le développeur principal du Hurd préférait le nom “Hurd”. Il a relégué “Alix” à une seule partie du code. Un changement de conception a finalement supprimé cette partie. Et puis, ma copine a changé de nom, et nous nous sommes séparés. Mais certains avaient déjà vu “Alix” apparaître dans le code, la rumeur a circulé, et elle en a ri.

Stéphane :
Donc, si je comprends bien, à l’origine “Alix” désignait l’ensemble du noyau, puis seulement une composante, et cette composante a finalement été supprimée ?

Richard :
Exactement. “Alix” désignait la partie qui gérait les appels système. Mais on a fini par se rendre compte qu’il n’y avait pas besoin de cette couche spécifique : la bibliothèque C pouvait très bien assurer la communication avec les serveurs du Hurd.

Stéphane:
Vous avez laissé le développement de Hurd quand Linux est arrivé.

Richard:
Non, pas immédiatement, quelques années plus tard.

Stéphane :
Au début des années 1990, beaucoup de choses se sont mises en place. On a vu l’arrivée du noyau Linux en 1991, qui, combiné avec GNU, permettait enfin un système complet. Dès 1992, certaines sociétés ont commencé à distribuer des versions commerciales de GNU/Linux, comme Red Hat ou SUSE.
Comment perçois-tu aujourd’hui leur rôle ? Red Hat, par exemple, contribue énormément à des projets libres comme GNOME, dont ils sont même les principaux contributeurs. Mais en même temps, dans leurs discours, ils se revendiquent davantage du mouvement “open source”.

Richard :
Ah non. Ce n’est pas exact de parler d’un “mouvement open source”. L’idée de l’open source n’était pas de se constituer en mouvement.

Stéphane :
C’est vrai.

Richard :
Le mouvement du logiciel libre, est un mouvement pour corriger un mal dans la société, une injustice. Nous disons qu’il faut remplacer les programmes privateurs par des logiciels libres, afin de libérer les utilisateurs de l’informatique. Ceux qui ont lancé l’idée d’“open source”, eux, ont rejeté cette dimension éthique. Ils ne voulaient pas reconnaître l’injustice qu’il y avait à priver les gens de liberté.

Ils présentent l’open source comme quelque chose de plus agréable, une manière plus commode de développer ou d’utiliser un logiciel, si tu en as envie. Mais ils n’ont pas l’objectif de corriger cette injustice. Donc, pour moi, ce n’est pas un mouvement.

Stéphane :
C’est plus une méthode de travail.

Richard :
Oui. D’ailleurs, Eric Raymond a associé l’open source à une méthode de développement particulière. Ce n’était pas uniquement lui : Linus Torvalds avait sans doute initié cette approche. Mais une fois qu’Eric Raymond l’a décrite dans ses écrits, beaucoup de gens ont commencé à l’expérimenter, y compris les développeurs du Hurd.

Finalement, cette méthode s’est retrouvée liée à l’expression “open source”. Mais en vérité, le choix d’une méthode de développement est indépendant de toute philosophie morale.

Stéphane :
Tout à fait. Et donc, dans ce contexte, l’open source, officiellement, naît en 1998 avec l’Open Source Initiative. Mais Red Hat et SUSE distribuaient déjà des versions commerciales de GNU/Linux dès 1992. Est-ce qu’avant la création de l’OSI, ces sociétés avaient la volonté de collaborer réellement avec le mouvement du logiciel libre ?

Richard :
Elles collaboraient parfois, oui. Mais elles agissaient aussi à l’inverse de notre éthique. Les deux en même temps.

Stéphane :
Donc elles avaient déjà des contradictions à l’époque ?

Richard :
Je ne dirais pas des contradictions, car elles n’ont jamais vraiment adhéré aux principes du mouvement du logiciel libre. Dès le début, elles distribuaient un système qui mélangeait beaucoup de programmes libres avec, parfois, des programmes privateurs. Pour nous, c’était un problème.

Nous ne pouvions pas recommander ces distributions, ni dire à quelqu’un “installez Red Hat” ou “installez SUSE”, si elles contenaient des logiciels privateurs.

Stéphane :
Bien sûr. Mais malgré tout, par leurs contributions importantes à des projets libres, est-ce qu’elles pouvaient être considérées comme des alliées ?

Richard :
Oui, en un sens. Mais c’était difficile pour nous de savoir comment en parler. Dans une logique de “donnant-donnant”, on aurait pu se dire : “Puisqu’elles contribuent beaucoup, la récompense naturelle serait de recommander leur système.” Mais pour nous, c’était impossible.

Nous ne pouvions pas recommander l’installation de quoi que ce soit qui contienne un logiciel privateur, car ce serait cautionner une injustice. Cela nous aurait placés dans une contradiction morale.

Stéphane :
Donc, quand l’OSI est créée en 1998, c’est bien une scission. Certains ne se reconnaissaient pas dans l’éthique du logiciel libre. Qu’est-ce qui a réellement provoqué cette séparation ? Était-ce le copyleft ?

Richard :
Non, ça n’avait rien à voir avec le copyleft. C’était une divergence philosophique, fondamentale. Pour nous, tout repose sur une question de liberté et de justice face à l’injustice. Imposer à quelqu'un l'interdiction de partager des copies est injuste et immoral. C’est détestable ! Il faut ne jamais le faire.

Quand il s’agit d’œuvres fonctionnelles — c’est-à-dire destinées à être utilisées — les gens méritent la liberté de collaborer avec les autres. Dans la communauté du logiciel libre, tout le monde n’était pas d’accord avec cette philosophie, mais cela n’empêchait pas de contribuer. On peut contribuer pour d’autres raisons, et ces contributions gardent leur valeur.

Mais la philosophie reste importante.

Stéphane :
Donc, la question du copyleft, à elle seule, n’aurait pas pu provoquer cette scission ? Parce que longtemps j’ai cru qu’un logiciel libre sans copyleft n’était pas vraiment libre.

Richard :
C’etait une erreur. Pourquoi tant de gens la commettent, je ne comprends pas. Sur gnu.org, nous avons une liste de licences que nous avons évaluées, et tu peux voir lesquelles sont libres ou non. Tu verras que beaucoup de licences sans gauche d'auteur — que beaucoup appellent à tort “licences open source” — sont aussi des licences libres.

Les gauches d'auteurs, c’est une autre question philosophique. Entre deux manières de respecter la liberté des utilisateurs :

  • soit on exige que les versions modifiées restent libres sous la même licence,
  • soit on permet que quelqu’un publie une version modifiée non libre.

Le gauche d'auteur est la méthode qui impose que toute version modifiée reste libre de la même manière. Les licences “permissives”, elles, autorisent des versions modifiés non libres.

Stéphane :
Certaines personnes te trouvent trop radical. Mais finalement, je me rends compte que par certains côtés, j’étais encore plus radical que toi, puisque je voulais exclure du logiciel libre les programmes sans copyleft.

Richard :
C’est vrai, mais j’avais mes raisons. Mon objectif était de pouvoir distribuer un système d’exploitation complet qui respecte la liberté fondamentale des utilisateurs. Et pour cela, les licences sans gauche d'auteur pouvaient suffire pour certains composants de ce système.

Dès les années 1980, il existait déjà des logiciels libres utiles publiés sous des licences sans gauche d'auteur, car ce type de licence existait avant même le gauche d'auteur. Comme il n’était pas nécessaire de les rejeter, je préférais les utiliser.

Stéphane :
Je comprends. Mais sans copyleft, j’ai l’impression qu’il y a un risque : celui qu’un programme soit, un jour, fermé…

Richard :
Soit fermé ou restreint

Stéphane :
Restreint, disons… Oui, je n’ai pas encore ce réflexe de langage d’éviter de dire « fermé ». Ce que je voulais dire, c’est que sans copyleft, on prend un risque : celui que la liberté disparaisse.
Je pense notamment à macOS, basé sur FreeBSD. C’est une version d’Unix libre, mais protégée par des licences sans gauche d'auteur. Résultat : Apple a pu reprendre tout ce travail et construire un système qui prive complètement les utilisateurs de leur liberté. C’est pour ça que je considère le copyleft comme important.

Richard Stallman :
Oui, mais il faut préciser que FreeBSD existe toujours, n’est-ce pas ?

Stéphane :
Tout à fait, c’est vrai.

Richard Stallman :
Les mots que tu as employés laissaient entendre qu’Apple avait pris le pouvoir sur FreeBSD et l’avait rendu privateur. Mais ce n’est pas le cas. Apple a créé sa propre version privatrice, mais n'a pas converti FreeBSD en projet privateur.

Stéphane :
C’est vrai.

Richard Stallman :
Il faut éviter ce genre d’exagération, car elle porte à confusion.

Stéphane :
Mais même s’ils ne l’ont pas supprimé, FreeBSD existe toujours, c’est vrai. Pourtant, Apple bénéficie énormément du travail qui a été fait de manière, disons, « ouverte », et a eu le droit de le « fermer ». Et c'est vrai que…

Richard Stallman :
« Ouverte » et « fermée »…

Stéphane :
Oui, tu as raison. J’ai intégré certains réflexes, comme ne pas confondre open source et logiciel libre. Mais dans les discussions avec des développeurs, les termes « ouvert » et « fermé » reviennent tellement souvent que j’ai tendance à les répéter. Je dois faire attention à ce tic de langage.

Richard Stallman :
Je veux souligner un point philosophique. Le vrai problème, c’est qu’Apple distribue des programmes privateurs. Le fait qu’elle ait utilisé du code libre provenant de FreeBSD pour le développer est secondaire, un détail.
Ce n’est pas pour ça que les actions d'Apple sont injustes. Si Apple avait embauché beaucoup de programmeurs pour écrire un autre code, sans réutiliser celui de FreeBSD, mais avec le même résultat, l’injustice aurait été exactement la même.

Stéphane :
C’est vrai.

Richard Stallman :
Les chercheurs et développeurs de FreeBSD ont écrit ce code, et maintenant Apple l’utilise sans contribuer en retour à la communauté. C'est une autre question morale, mais qui ne relève pas directement du mouvement du logiciel libre.

Stéphane :
D’accord, je comprends.

Richard Stallman :

Le mal qu'Apple fait est un mal à tous les utilisateurs des produits d'Apple. Tout programme privateur, fait toujours du mal à ses utilisateurs. Ma mission est de faire comprendre aux gens cette question.

Je ne veux pas que ce soit confondu avec la question de savoir si les développeurs de FreeBSD ont été récompensés comme ils le méritaient. C'est une autre question qui n'appartient pas à la question du logiciel libre.

Stéphane :
Oui, c’est une question à part, en quelque sorte. On peut avoir un avis dessus, mais ça reste extérieur au mouvement du logiciel libre.

Richard Stallman :
Oui. Et imagine qu’Apple ait payé 100 millions de dollars aux développeurs de FreeBSD pour obtenir l’autorisation de faire ce qu’elle a fait. Est-ce que ça aurait changé quoi que ce soit au problème moral ?

Stéphane :
Non, pas du tout. En réalité, ma question n’était pas sur la rémunération. Elle concernait surtout le fait que l’absence de copyleft a permis à Apple de créer une version dérivée de FreeBSD — même si ce n’est plus vraiment FreeBSD aujourd’hui, vu toutes les modifications — sans donner aux utilisateurs la possibilité de vérifier comment le code fonctionne.

Richard Stallman :
Sans les quatre libertés essentielles qui définissent le logiciel libre. Pour moi, distribuer un programme non libre est toujours injuste, car cela prive les utilisateurs de ces quatre libertés fondamentales, nécessaires pour avoir le contrôle de leur informatique.

Stéphane :
Je voulais aussi te parler de Debian GNU/Linux, lancé en 1993 par Ian Murdoch, avec au départ le soutien de la FSF. Debian a sa propre définition du logiciel libre, un peu différente de celle de la FSF. Comment cela s’est-il passé au début ? Y avait-il une collaboration entre la FSF et Debian ?

Richard :
Oui. La FSF a financé Debian à son commencement. Mais rapidement, le projet, qui comptait plus de contributeurs, a voulu formuler une définition de la liberté différente, avec l’intention d’être équivalente.

À l’époque, j’ai commis une erreur : j’aurais dû vérifier plus attentivement s’il pouvait y avoir des divergences d’interprétation entre le projet GNU et Debian. La définition me paraissait équivalente, même si elle était formulée autrement. J’ai dit : “C’est bon.” Mais en réalité, il y avait des problèmes potentiels.

Plus tard, quand l’open source a émergé, ils ont repris la définition de Debian, je ne sais plus s'il ont changé quelques mots mais ils ont surtout changé l’interprétation. Dès lors, elle n’était plus équivalente à celle du logiciel libre. Il existe aujourd’hui des programmes considérés comme “open source” mais pas comme logiciels libres, et inversement.

J’ai d’ailleurs expliqué ces différences dans mon essai Open Source Misses the Point.

Mais je dois noter, que Debian, enfin, voulait inclure des programmes privateurs dans leur distribution, mais les ont mis ailleurs, pour établir une séparation très claire entre les composants libres et privateurs. Et comme ça, il était possible de recommander la section main de Debian pour installer un système libre. Mais, après quelques changements de politique il y a quelques années ce n'est plus vrai.

Stéphane :
Pourtant, Debian, à l’époque, voulait maintenir une séparation claire entre le libre et le non libre.

Richard :
Oui. Debian mettait les programmes privateurs dans une section distincte, et la partie “main” de Debian pouvait être recommandée comme un système libre. Mais il y a quelques années, ils ont changé leur politique. Aujourd’hui, même l’installeur officiel de Debian peut inclure des pilotes privateurs. Pour cette raison, nous ne pouvons plus recommander Debian, pas même sa section “main”. Et c’est dommage.

Stéphane :
C'est vrai. Oui, ils ont récemment changé leur contrat social qui donne, certains disent, plus de souplesse. Mais en fait, en réalité, c'est que maintenant, il peut y avoir automatiquement quelques pilotes privateurs, que l'installeur officiel de Debian peut installer.

Richard :
Et pour ça, nous ne pouvons plus recommander l'installation de Debian, ni même de la section main de Debian. Et c'est dommage.

Stéphane :
Oui, c'est dommage. C'est quand même une distribution qui est populaire et c'est vrai que c'est dommage qu'elle se dirige du mauvais côté en plus. Et est-ce que tu fais quand même une distinction entre, comment on pourrait dire ça, c'est vrai qu'il n'y a pas de mouvement de l'open source, mais dire les partisans de l'open source et Debian, est-ce que quand même Debian s'inscrit plus dans une logique éthique que l'open source ou est-ce que tu penses qu'aujourd'hui…

Richard :
Oui, c'est vrai. Mais Debian ne le suit pas complètement comme avant. Dommage.
Pour plus d’informations sur ce sujet, je recommande de consulter la page gnu.org/distros.

Stéphane :
Si l’on retrace les 40 années de lutte pour le logiciel libre, on a beaucoup parlé d’acteurs qui se revendiquaient proches du mouvement. Mais il y a aussi eu un adversaire de taille : Microsoft. À l’époque, leur modèle reposait sur la vente de logiciels privateurs à des prix élevés, uniquement en version binaire. En 2001, face à la montée en puissance du logiciel libre, Microsoft s’est inquiété et a multiplié les attaques, en particulier contre la GPL, en tentant de la discréditer.
À ce moment-là, tu avais donné une conférence à l’Université de New York en réponse. Peux-tu nous parler de cette période et de ses enjeux ?

Richard Stallman :
Les grands éditeurs de logiciels privateurs n’ont pas détruit le logiciel libre, ni le mouvement, ni le système GNU — heureusement. Mais je n’ai plus beaucoup de souvenirs précis de cette époque. Par exemple, la conférence à New York… J’en ai donné tellement à travers les années que je ne sais plus laquelle tu évoques.

Stéphane :
Ah, tu ne t’en souviens plus ? Je pensais que cette conférence avait marqué un tournant. Microsoft, à l’époque, avançait notamment l’argument — faux — d’une supposée « viralité » de la GPL, prétendant qu’un programme sous GPL contaminait tout logiciel tournant sur le même système.

Richard Stallman :
Évidemment, c’est faux. Ce qui est vrai, c’est que si tu prends un programme distribué sous GPL et que tu combines son code avec un programme privateur pour en faire un seul logiciel que tu veux redistribuer, tu es confronté à une incompatibilité : tu ne peux pas respecter à la fois la licence privatrice et la GPL. Mais deux programmes distincts tournant sur le même système, ce n’est pas du tout le même cas.

Stéphane :
Et aujourd’hui, quelles sont les relations entre la FSF et Microsoft ?

Richard Stallman :
Il n’y a pas de relation. Nous critiquons simplement les fonctionnalités malveillantes présentes dans leurs logiciels privateurs. Nous en avons une longue liste, avec des centaines d’exemples, publiée sur gnu.org/malware.

Un programme est malveillant lorsqu’il est conçu pour maltraiter l’utilisateur. C’est une tentation forte dans le modèle privateur : le développeur a du pouvoir sur l’utilisateur et peut être tenté de l’abuser, en ajoutant des fonctionnalités qui renforcent son contrôle.

Stéphane :
Et en plus de ça, il y a aussi l’impossibilité de corriger des erreurs légitimes.

Richard Stallman :
Oui. Les logiciels privateurs ont beaucoup d’effets négatifs, mais je distingue clairement les erreurs des fonctionnalités malveillantes.

Stéphane :
Je voudrais aborder le cas particulier du jeu vidéo. Tu en as un peu parlé au début : c’est un domaine qui mêle différents types d’œuvres…

Richard Stallman :
Oui. Je distingue les œuvres fonctionnelles des œuvres artistiques. Les œuvres fonctionnelles — par exemple les logiciels, les recettes de cuisine, les plans d’architecture ou les patrons de couture — sont faites pour être utilisées. Ces œuvres doivent être libres.
À l’inverse, la fiction ou l’art sont destinés à être appréciés, pas utilisés de manière pratique. Dans un jeu vidéo, il y a les programmes qui implémentent les règles — eux doivent être libres, puisque ce sont des logiciels fonctionnels. Mais il y a aussi de l’art, de la musique, de la narration. Ceux-ci peuvent rester privateurs.
Un exemple : le code source de Doom a été libéré, mais pas l'art, pas la musique. Cela a permis à la communauté de créer d’autres variantes du jeu avec des ressources alternatives.

Stéphane :
Oui, exactement. C’est l’exemple que je voulais évoquer : John Carmack avait libéré le moteur, mais pas les assets artistiques. Et cela a donné naissance à une multitude de déclinaisons. D’où ma question : faut-il une licence spécifique pour le jeu vidéo ?

Richard Stallman :
Non. La confusion vient du fait qu’on pense au jeu vidéo comme à un tout, un paquet qui contient tout. En réalité, il faut le décomposer : le moteur, qui est un programme, doit être libre ; l’art et la musique peuvent ne pas l’être. Comme ça, la question devient facile.

Stéphane :
Je voudrais maintenant aborder un sujet de plus en plus présent : la surveillance de masse. Cela inclut les caméras algorithmiques, la reconnaissance faciale, mais aussi les services de messagerie comme WhatsApp, propriété de Meta. Tout cela pose de grandes questions sur la vie privée. Est-ce que la FSF envisage de lutter contre ces technologies, ou est-ce en dehors de son champ d’action ?

Richard Stallman :
La FSF ne peut pas faire grand-chose sur ce terrain. Son rôle est de promouvoir le logiciel libre. Mais si un logiciel de surveillance appartient à l’État, il doit être libre : l’État doit avoir le droit de le modifier. Ce serait même dangereux qu’il dépende d’une entreprise privée pour gérer ses propres systèmes.
Cependant, le problème de la surveillance ne disparaît pas parce que le logiciel utilisé est libre. Ce sont deux questions distinctes : d’un côté, l’exigence que l’État utilise du logiciel libre ; de l’autre, la nécessité d’imposer des limites à ce que l’État peut faire. La FSF, qui reste une organisation modeste, n’a pas les moyens de lutter directement contre la surveillance de masse.

Moi, je ne vois pas de caméras de reconnaissance faciale dans les rues. Je ne vois pas non plus ce que fait WhatsApp, ou ce qu’il ne fait pas, parce que je refuse de l’utiliser. Son programme client est privateur : je refuse de l'utiliser.

Il y a beaucoup d’injustices dans ces soi-disant services qui exercent du pouvoir sur leurs utilisateurs. Par principe, je ne les utilise jamais. Je résiste.
Il existe des logiciels libres qui permettent de communiquer de façon chiffrée, et je les utilise. Mais jamais avec une application privatrice, jamais via le serveur d’une entreprise dont je me méfie.

Et puis, il y a d’autres systèmes de surveillance. Par exemple, en France, l’obligation d’inscrire son nom sur un billet de train est injuste. Il faut lutter pour supprimer ce type de suivi.

Il y a aussi des systèmes dont l’objectif, en soi, est admirable, mais qui sont conçus de manière à identifier chaque participant. Par exemple, un système pour réduire les émissions toxiques : c’est une bonne chose de vouloir les réduire. Mais il faut pouvoir participer à ce système pour atteindre son objectif sans avoir à s’identifier.

Il faut éviter d’imposer à chacun l’utilisation d’un programme client privateur pour s’identifier auprès d’un serveur et obtenir, par exemple, l’autocollant à coller sur sa voiture.

L’État français s’intéresse à l’usage du logiciel libre dans ses ministères, et c’est une bonne chose : cela l’aide à échapper au pouvoir injuste des grandes entreprises. Mais il devrait aussi veiller à protéger les citoyens — et même les visiteurs en France — contre le danger du contrôle numérique. Car le suivi des gens, la surveillance de masse, est extrêmement dangereuse. On peut le voir en Chine : c’est la base idéale pour répression.

Et aussi, imposent souvent l’utilisation de programmes privateurs. De tels programmes ne pourraient pas tourner sur mon ordinateur, sauf s’ils sont écrits en JavaScript. Mais dans ce cas, je bloque le JavaScript privateur, et je refuse de m’identifier sur ces sites.

J’ai imaginé une solution au problème des zones à faibles émissions. Chaque ville participante devrait installer, à des endroits bien signalés, des points de vente où l’on puisse acheter, en liquide, les plaques nécessaires, en fournissant uniquement les informations sur le véhicule. Cela permettrait de respecter les règles de réduction des émissions, mais sans passer par un système numérique injuste. Quelques points de ce type, placés sur les principales routes d’accès, suffiraient pour chaque ville.

Ainsi, on éviterait aussi le piège consistant à devoir acheter ces plaques avant même d’entrer en France. Et il est important que le paiement puisse se faire en liquide : c’est une protection contre la surveillance et la répression.

Si, dans un magasin, il te manque de l’argent liquide pour payer, il vaut mieux aller retirer de l’argent à un distributeur plutôt que d’utiliser une carte. Car si tu paies en espèces, le système saura seulement où tu as retiré ton argent, mais pas ce que tu as acheté avec. Et pour moi, c’est essentiel.

Je n’utilise jamais ma carte pour mes achats quotidiens. J’ai bien une carte de crédit, mais je ne m’en sers qu’exceptionnellement, par exemple pour les billets d’avion — puisqu’on ne peut pas voyager anonymement — ou pour certaines factures à mon nom, comme celles de mon appartement. Pour les soins médicaux et les ordonnances, je peux payer par chèque. Mais en dehors de ces cas particuliers, je règle toujours en liquide.

Stéphane :
C’est donc surtout pour éviter d’être tracé dans tes achats, en fait ?

Richard :
Non, c’est plus large que ça. La question n’est pas simplement d’éviter, moi, d’être suivi personnellement. Il s’agit de résister à la tendance générale qui impose une surveillance à tout le monde.
Moi, je fais ma part : je résiste à la surveillance quand elle me concerne directement. Mais résister à la surveillance qui pèse sur toi ou sur les autres, ça, je ne peux pas le faire à leur place. Chacun doit assumer sa part.

Stéphane :
Oui, l’idée est d’éviter que ce système ne se généralise trop.

Richard :
Mais il est déjà trop généralisé ! Il y a beaucoup trop de contrôle, trop de surveillance, trop de suivi… et donc trop de répression.

Stéphane :
Et donc, pour terminer, le dernier thème que j’aimerais aborder avec toi, c’est ce que les médias de masse appellent l’intelligence artificielle. Parce que là aussi, derrière, il y a du logiciel. Je voulais savoir quelle est aujourd’hui la position de la FSF sur ce sujet. Et est-ce qu’il existe, selon toi, une définition d’un modèle de LLM éthique ?

Richard Stallman :
Je dois d’abord distinguer mon opinion des suppositions contenues dans ta question.

Stéphane :
D’accord.

Richard Stallman :
Je fais la différence entre ce que j’appelle l’intelligence artificielle et ce que j’appelle les générateurs de merde. Les programmes comme ChatGPT ne sont pas de l’intelligence.
L’intelligence, ça veut dire avoir la capacité de savoir ou de comprendre quelque chose, au moins dans un domaine réduit. Mais plus que rien.

ChatGPT, lui, ne comprend rien. Il n’a aucune intelligence. Il manipule des phrases sans les comprendre. Il n’a aucune idée sémantique de la signification des mots qu’il produit. C’est pour ça que je dis que ce n’est pas de l’intelligence.

En revanche, il existe des programmes qui comprennent vraiment dans un domaine restreint.
Par exemple, certains peuvent analyser une image et dire si elle montre des cellules cancéreuses, ou bien identifier un insecte : est-ce une guêpe en train d’attaquer des abeilles ? C’est un vrai problème dans certains pays. Ce sont des immigrants vraiment dangereux.
Ces programmes, dans leur petit champ, comprennent aussi bien qu’un humain. Je les appelle donc de l’intelligence artificielle.

Mais les LLM, les grands modèles de langage, ne comprennent rien. Il faut insister pour ne pas les appeler « intelligence artificielle ». C’est uniquement une campagne de marketing destinée à vendre des produits, et malheureusement presque tout le monde l’accepte. Cette confusion fait déjà des dégâts dans la société.

En dehors de ça, si tu veux utiliser un LLM, il faut avoir les quatre libertés essentielles. Tu dois pouvoir l’exécuter dans ton propre ordinateur, pas l’utiliser dans le serveur de quelqu’un d’autre, parce que dans ce cas-là c’est lui qui choisit le programme, et si le programme est libre, c’est lui qui a le droit de le changer, pas toi. Et si tu l’exécutes chez toi mais que tu n’as pas le droit de le modifier, ni de l’utiliser comme tu veux en liberté, évidemment c’est injuste. Donc je ne dis pas que les LLM sont essentiellement injustes, mais normalement ils ne respectent pas la liberté des utilisateurs, et ça, c’est injuste.

Et il faut bien reconnaître aussi ce qu’ils ne sont pas capables de faire : ils ne comprennent pas, ils ne savent pas.

Stéphane :
Oui, c’est vrai que c’est du marketing de les appeler « intelligence artificielle ». Mais beaucoup de gens y trouvent un usage utile. Je pense par exemple à la traduction, qui donne parfois des résultats corrects. Donc si les gens veulent utiliser des LLM, ce que tu recommandes, c’est de privilégier les modèles sous licence libre, c’est bien ça ?

Richard Stallman :
Oui. Nous sommes en train d’écrire comment adapter les critères du logiciel libre pour qu’ils s’appliquent aussi aux programmes d’apprentissage automatique.

Stéphane :
Donc ça, c’est quelque chose que la FSF va publier dans le futur ?

Richard Stallman :
Oui, mais ce n’est pas encore terminé.

Stéphane :
On arrive au bout des questions que j’avais prévues. Ça fait 40 ans que la FSF existe. Il y a eu, je pense, beaucoup d’avancées positives. Mais aujourd’hui l’informatique est partout dans nos vies, et donc la question des libertés informatiques est plus importante que jamais. Est-ce que tu aurais un message à lancer pour inciter les gens à rejoindre le logiciel libre ?

Richard :
Oui. D’abord, rejetez la technologie injuste : les applications non libres, celles qui identifient l’utilisateur, celles qui suivent les gens depuis ton ordinateur ou ton téléphone. Cherchez à remplacer chaque élément pour lequel il existe du logiciel libre, avec du chiffrement libre de bout en bout.
Rejetez aussi les objets censés être « chez toi » mais qui t'écoutent, rejetez les produits où les commandes passent par le serveur du fabricant qui espionne tout, et résistez aux systèmes qui pistent leurs utilisateurs. Payez en liquide quand c’est possible.
Et si tu es programmeur, tu peux contribuer au développement de programmes libres, et tu peux aussi t’inscrire comme membre de la FSF sur fsf.org. Regarde aussi gnu.org/help. Une chose encore : si tu travailles dans une université, invite-moi pour une conférence.

Stéphane :
D’accord. Et quand tu regardes ces 40 années de lutte pour le logiciel libre, est-ce que tu es satisfait de la tournure que prennent les choses aujourd’hui, de l’impact ?

Richard :
Non, bien sûr que non. Sous l’empire, les choses vont de pire en pire. Je ne suis pas satisfait. Parfois j’aurais pu agir plus efficacement, mais avec ce que je savais au début, je n’aurais pas su faire mieux. Mais je suis déçu de la direction que prennent les choses.

Stéphane :
C’est pour ça que c’est important que toutes les personnes sensibilisées contribuent autant que possible : en informant autour d’elles, en incitant à ne pas utiliser de logiciels privateurs et en aidant à passer au logiciel libre.

Richard :
Oui. Mais il faut aussi que les Français s’unissent pour exiger que les services numériques de l’État respectent le logiciel libre. Spécifiquement, qu’ils cessent de transmettre des programmes privateurs à exécuter sur la machine des utilisateurs, et qu’ils respectent davantage l’anonymat des individus. Parce que les données personnelles, une fois collectées dans une base, finiront par être abusées, peut-être même par l’État.

Stéphane :
Avec l’arrivée de Donald Trump, je sais par exemple que la fondation Mozilla a expliqué être en difficulté financière, parce qu’ils ont perdu des financements qu’ils avaient de l’État. Est-ce que la FSF est aussi victime financièrement ?

Richard :
Non, parce que nous ne recevions rien de l’État.

Stéphane :
Donc vous avez plus d’indépendance que Mozilla de base.

Richard :
Oui, et nous avons plus de financements grâce aux dons. C’est pour ça que je prie tout le monde d’adhérer à la FSF.

Stéphane :
Merci beaucoup, Richard, pour cet entretien. Donc là, on fête les 40 ans de la FSF. J’espère que pour les 50 ans, le logiciel libre sera beaucoup plus utilisé que le logiciel privateur. On verra bien.

Richard:
Puis-je faire un jeu de mots ?

Stéphane:
Bien sûr.

Richard:
J'adore le thé, mais je ne bois que les thés qui se dégradent avec le temps, parce que les autres sont détestables.
Au revoir.

Stéphane:
Au revoir.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Maturité cyber des TPE-PME : encore un cap à franchir

À l’occasion du salon des Assises de la cybersécurité, Cybermalveillance.gouv.fr publie les résultats de la 2ème édition du baromètre national de la maturité cyber des TPE-PME, réalisée en partenariat avec la CPME, le MEDEF et l’U2P. L’étude passe en revue l’évolution des entreprises en termes d’équipement, de procédure, d’investissement budgétaire et de façon générale, de […]

The post Maturité cyber des TPE-PME : encore un cap à franchir first appeared on UnderNews.
  •  

Sortie du noyau Linux 6.17

Nous vous avons entendu. Les dépêches noyaux me manquent aussi. Et entre Google qui veut les attraper tous, sudo qui n’est plus sudo sûr que ça, des pays qui sortent d’Internet, les chats qu’on veut surveiller parce qu’ils ne miaulent pas droit et le rythme de travail pour bien vivre, il est temps de revenir aux fondamentaux.

Alors sans plus attendre, quoi de neuf dans la 6.17 ? D’après Linus Torvalds lui-même, It's not exciting — ce n’est pas intéressant. Ce qui, pour lui, est un gage de qualité. Le noyau Linux 6.17 a été officiellement publié le 28 septembre, après la RC7.

Points marquants de la version

  • Des corrections de sécurité et de stabilité dans la pile Bluetooth (beaucoup de bugs de type use-after-free).
  • Des corrections pour les pilotes GPU et réseau (beaucoup de petites corrections).
  • Prise en charge de patch à la volée (live patching) sur ARM 64 bits.
  • Meilleur contrôle sur les atténuations de Spectre/x86.
  • Suppression officielle de la gestion des architectures monoprocesseur, (nous y reviendrons).
  • Introduction de nouveaux syscalls file_getattr() et file_setattr(), permettant la manipulation directe des attributs d’inodes via l’espace utilisateur.
  • Gestion du protocole DualPI2 pour la gestion de congestion TCP.

Sommaire

Architecture

Résumé

  • Intégration et mise à jour de la prise en charge de nombreux SoC ARM, Intel, AMD et RISC-V, dont :
  • Ajout de nouveaux contrôleurs mémoire, avec prise en charge étendue de divers matériels industriels.
  • Pilotes GPU : beaucoup de patchs pour amdgpu, i915/xe (options de debug et prise en charge de nouveaux formats colorimétrique).
  • Les cartes Realtek 8851BU/8852BU sont désormais prises en compte sur le bus USB.
  • Suppression officielle de la gestion des architectures monoprocesseur.

En détails

La suppression de la gestion spécifique des architectures monoprocesseur dans Linux 6.17 concerne toutes les architectures (x86, ARM, RISC-V, MIPS, etc.) où le noyau pouvait jusqu’ici être compilé et exécuté en mode UP (pour Uni Processor), opposé au mode SMP (Symmetric MultiProcessing).

Désormais, même les machines avec un seul cœur ou un seul processeur utiliseront des noyaux compilés avec gestion SMP activée. Cette modernisation simplifie le code de l’ordonnanceur (scheduler) et d’autres sous-systèmes internes du noyau, qui peuvent désormais partir du postulat que le système est au moins SMP, même si physiquement un seul cœur est présent. Cela permet un énorme nettoyage du code spécifique à cette fonctionnalité, et donc, à terme, une meilleure maintenance et une plus grande cohérence.

Néanmoins, l’impact, même très léger et invisible sur beaucoup de systèmes modernes, est réel. Le coût mémoire et processeur (dû à la gestion des locks) va augmenter légèrement, et impactera plus fortement les systèmes embarqués très contraints.

Pour les chiffres (et des explications), les tests effectués sur des systèmes monoprocesseurs avec un noyau SMP ont montré une baisse de performance de 5 %, et une augmentation de 0,3 % de la taille. Ingo Molnar, à l’initiative de ce changement, avait pointé le fait qu’il y avait, dans l’ordonnanceur actuel, 175 #ifdef dépendant de #CONFIG_SMP qui ont pu être nettoyés, et avec, plus de 1000 lignes de code supprimées.

Systèmes de fichiers et stockage

Résumé

  • Btrfs : la gestion de large folios est ajoutée (expérimental), tout comme des options étendues pour la défragmentation et la compression intelligente des extents. Les premiers tests de performance montrent un gain de 20 % pour la création de fichiers et diverses améliorations…
  • Ext4 : introduction du flag RWF_DONTCACHE permettant la purge automatique des données du cache après écriture, ce qui améliore certains workloads orientés I/O.
  • NFS : prise en charge des délégations d’écriture même en mode write-only, accélérant des cas d’usage précis.
  • Introduction de nouveaux syscalls file_getattr() et file_setattr(), permettant la manipulation directe des attributs d’inodes via l’espace utilisateur.
  • Bcachefs : Les relations entre le développeur de ce système de fichiers (Kent Overstreet) et les autres mainteneurs du noyau se sont largement dégradés. Plusieurs mainteneurs ont fait part de leur refus de travailler à l’avenir avec Kent ce qui a conduit Linus a ne plus accepter les demandes de mises à jour (pull requests). Bcachefs est donc figé dans cette version 6.17 du noyau (et il a été complètement retiré de la future version 6.18). Un module DKMS externe est maintenant disponible pour les utilisateurs voulant continuer à utiliser ce système de fichiers.

En détails

Pour ceux qui s’intéressent aux performances et comparatifs des différents systèmes de fichiers avec le kernel, Phoronix a testé ces FS sur ce noyau 6.17. Pas de comparatif avec les précédents noyaux, mais un comparatif entre les FS.

Le flag RWF_DONTCACHE permet des opérations de lecture ou d’écriture passant par le cache mais où les données lues ou écrites ne sont pas conservées dans ce cache une fois l’opération terminée. Autrement dit, les données ne « polluent » pas le cache mémoire, ce qui est utile pour certains types d’I/O où l’on ne veut pas fatiguer le cache avec des données temporaires ou volumineuses qui ne seront pas réutilisées rapidement. Ce flag est une option pour les appels systèmes preadv2() et pwritev2()

    ret = pwritev2(fd, &iov, 1, 0, RWF_DONTCACHE);

En ce qui concerne les délégations d’écriture, cela permet de réduire les appels réseaux (jusqu’à 90 % dans certains cas d’usages — rapport)

Les syscalls file_getattr() et file_setattr() introduits dans Linux 6.16/6.17 permettent la manipulation directe des attributs d’inode depuis l’espace utilisateur, avec une interface plus simple et plus complète que les méthodes existantes.

Réseau et connectivité

Résumé

  • Plusieurs nouveaux flags et options : SO_INQ pour AF_UNIX, extension de la gestion de MSG_MORE pour les paquets TCP volumineux et application plus stricte de la fenêtre TCP.
  • Introduction de la prise en charge du protocole de congestion DualPI2 (RFC 9332) pour TCP/IP, notamment sur IPv6.
  • Nouveau sysctl force_forwarding sur IPv6 permettant l’activation du mode forwarding.
  • Remplacement progressif de la gestion des pages réseau par des descripteurs spécialisés (struct netmem_desc), préparant l’évolution vers les folios.

En détails

Le nouveau sysctl force_forwarding permet de forcer l’activation du forwarding indépendamment d’autres configurations potentiellement conflictuelles. (En particulier sur des profils limitatifs ou locaux)

    sudo sysctl -w net.ipv6.conf.all.force_forwarding=1

Petits rappels sur les folios (aussi utilisés dans ce noyau pour Btrfs). Historiquement, le noyau Linux gère la mémoire en unités appelées « pages » (généralement 4K octets). Un folio est un regroupement logique de pages (souvent 2^N pages, comme 16 pages de 4K pour former un folio de 64K). Les folios permettent une gestion mémoire plus efficace, évitent les appels redondants liés aux pages individuelles et optimisent les copies. netmem_desc sert d’abstraction générique pour la mémoire réseau, et utilisant les folios, remplace progressivement le struct page d’origine.

L’algorithme DualPI2 est un exemple d’algorithme de gestion active de file d’attente à double file couplée (AQM) spécifié dans la RFC 9332. Il sert de composant de base AQM au sein du cadre DualQ Coupled AQM conçu pour gérer deux files d’attente : une file « Classique » pour les contrôles de congestion compatibles Reno et une file « L4S » pour les contrôles de congestion Scalables. Vous trouverez plus de détails dans l'article en lien, avec, page 6 un ensemble de tests de performance en ce qui concerne DualPI2.

Virtualisation

Résumé

  • Gestion de GSO (Generic Segmentation Offload) sur tunnel UDP dans virtio
  • KVM : Unicité des enregistrements irqfd
  • vhost-net : Prise en charge de VIRTIO_F_IN_ORDER
  • vsock : Introduction de la prise en charge ioctl SIOCINQ
  • iommu : Révision complète de la prise en charge des IRQs postées
  • vfio/qat : Prise en charge des function virutelle Intel QAT 6xxx

En détails

La prise en charge des GSO permet d’améliorer les performances des machines virtuelles en réduisant la charge CPU liée au traitement des paquets UDP.

L’irqfd (interrupt request fd) a été modifié pour être globalement unique, ce qui améliore la gestion des interruptions virtuelles et évite des collisions ou conflits dans la gestion des événements d’interruption, renforçant la stabilité et sécurité des VM.

VIRTIO_F_IN_ORDER permet de gérer un ordre strict pour les paquets pour les cartes réseaux virtuelles.

vfio, qui expose des périphériques aux machines virtuelles, ajoute la prise en charge des fonctions virtuelles des accélérateurs Intel QAT 6xxx (QuickAssist Technology), améliorant ainsi les capacités de calcul cryptographique et compression dans les environnements virtualisés.

Sécurité et cryptographie

Résumé

  • AppArmor peut désormais contrôler l’accès aux sockets AF_UNIX.
  • Ajout de nouvelles fonctions pour SHA-1, SHA-256 et SHA-512 dans la bibliothèque crypto.
  • Optimisation de CRC32c sur les CPU récents (AVX-512).
  • La gestion de la profondeur de pile via GCC/Clang permet désormais l’effacement automatisé de la stack (voir SafeStack pour plus de détails).
  • Meilleur contrôle sur les atténuations (mitigations) de Spectre/x86.
  • Ajout d’un délai de 5 secondes sur /sys/fs/selinux/user.
  • Introduction des types neversaudit dans le contexte SELinux.

En détails

Pour rappel, AF_UNIX est une classe de socket Unix permettant la communication interprocessus. Avant cet ajout, AppArmor ne gérait pas la sécurité avec ce niveau de finesse pour ces sockets. Désormais, il est possible de restreindre dans les profils AppArmor, la communication via ces sockets, entre deux applications.

Phoronix a testé les améliorations sur CRC32C sur différentes architectures récentes, qui sont résumées dans le graphique ci-dessous.
Performances CRC32C

Le noyau 6.17 introduit un meilleur contrôle sur les atténuations Spectre, grâce à un mécanisme appelé Attack Vector Controls (AVC). Le principe est simple, plutôt que d’activer ou désactiver des dizaines de protections individuelles contre les bugs d’exécution spéculative (Spectre, variantes de Meltdown, etc.), il est désormais possible de les piloter par groupes, selon la portée des attaques. Le noyau classe les atténuations en cinq catégories :

  • attaques utilisateur-vers-noyau (user-to-kernel)
  • attaques utilisateur-vers-utilisateur (user-to-user)
  • attaques invité-vers-hôte (guest-to-host)
  • attaques invité-vers-invité (guest-to-guest)
  • attaques inter-threads (cross-thread)

Avec un seul paramètre de démarrage mitigations=, il devient possible d’exclure une catégorie entière d’attaques (par exemple, désactiver toutes les protections invité-vers-invité si aucune VM non fiable n’est utilisée) et ainsi récupérer des performances.

Example: disable user-to-kernel attack mitigations, keep others at auto defaults
GRUB_CMDLINE_LINUX="... mitigations=auto,no_user_kernel ..."

Cette page liste l’ensemble des vulnérabilités CPU, et est une bonne source d’informations à ce propos.

Changements internes et outils

Résumé

  • L'ordonnanceur ajoute le cgroup v2 cpu.max pour gérer de manière plus fine l’utilisation du CPU.
  • Ajout de DAMON_STAT pour le monitoring.
  • Le montage automatique de tracefs sur /sys/kernel/debug/tracing est devenu obsolète au profit de /sys/kernel/tracing.
  • La migration vers des outils plus modernes : l’outil gconfig bascule sur GTK3.
  • Toujours plus de Rust avec de nouvelles abstractions pour la gestion du matériel et des propriétés firmware.

En détails

cpu.max est plus précis et global que les précédentes méthodes (utilisant cpu.cfs_quota_us et cpu.cfs_period_us ou cpu.shares), en s’appuyant sur l’extension CFS Bandwidth Control de CFS (Completely Fair Scheduler)

# Limite de 50ms d’utilisation CPU toutes les 100ms (50%)
echo "50000 100000" > /sys/fs/cgroup/cpu.max

DAMON_STAT est un module noyau statique de surveillance de l’espace d’adressage mémoire beaucoup plus léger que les précédentes méthodes

    # Si DAMON_STAT est compilé en module
    $ sudo modprobe damon_stat

    # Activation du monitoring 
    $ echo 1 | sudo tee /sys/kernel/mm/damon/stat/enable

    # lecture des informations
    $ cat /sys/kernel/mm/damon/stat/statistics
    damon_latency_avg: 23 ms
    damon_bandwidth_bytes_per_sec: 5242880
    damon_coldness_percentile_75: 40%
    # Désactivation
    echo 0 | sudo tee /sys/kernel/mm/damon/stat/enable

Le bilan en chiffres

Statistiquement, ce n’est certes pas le noyau le plus calme de la série 6.x, comme nous pouvons le voir sur les graphiques ci-dessous, néanmoins, il reste plutôt tranquille, avec du nettoyage et peu d’ajouts.

Statistique des noyaux 6.x

Statistique des RC du noyau 6.17

Statistique des noyaux 6.x

Statistique des noyaux 6.x

Appel à volontaires

Cette dépêche est rédigée par plusieurs contributeurs dont voici la répartition :

Mainteneur Contributeur(s)
Architecture Aucun
Développeurs Aucun
Systèmes de fichiers Aucun patrick_g
Réseau Aucun
Virtualisation Aucun
Sécurité Aucun
Changements internes Aucun
Édition générale Aucun BAud - vmagnin - orfenor

Un peu de vocabulaire :

  • le mainteneur d’une section de la dépêche est responsable de l’organisation et du contenu de sa partie, il s’engage également à l’être dans le temps jusqu’à ce qu’il accepte de se faire remplacer ;
  • un contributeur est une personne qui a participé à la rédaction d’une partie d’une section de la dépêche, sans aucune forme d’engagement pour le futur.

Nous sommes particulièrement à la recherche de mainteneurs pour toutes les parties.

Si vous aimez ces dépêches et suivez tout ou partie de l’évolution technique du noyau, vous pouvez contribuer dans votre domaine d’expertise. C’est un travail important et très gratifiant qui permet aussi de s’améliorer. Il n’est pas nécessaire d’écrire du texte pour aider, simplement lister les commits intéressants dans une section aide déjà les rédacteurs à ne pas passer à côté des nouveautés. Essayons d’augmenter la couverture sur les modifications du noyau !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Revue de presse de l’April pour la semaine 40 de l’année 2025

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Next] Fin de Windows 10: la solution viendra-t-elle du libre?

✍ Mathilde Saliou, le jeudi 2 octobre 2025.

Alors que le support de Windows 10 se termine le 14 octobre, de multiples associations invitent les internautes à passer au logiciel libre, pour faire durer leurs équipements et gagner en autonomie.

Et aussi:

[ZDNET] Logiciel libre: la Démarche NIRD, pour un numérique inclusif dans les établissements scolaires

✍ Thierry Noisette, le mardi 30 septembre 2025.

La Démarche NIRD (Numérique Inclusif, Responsable, Durable), appuyée par une douzaine d’établissements pilotes, pose pour ‘condition nécessaire mais non suffisante, l’adoption concrète et graduelle de Linux’ dans l’école, le collège ou le lycée.

[Les Numeriques] 'Android ne sera plus jamais le même': comment Google va anéantir les applications et stores alternatifs

✍ Aymeric Geoffre-Rouland, le lundi 29 septembre 2025.

En imposant aux développeurs de s’enregistrer officiellement, Google s’apprête à devenir l’arbitre unique des applications Android. F-Droid, la plateforme d’apps libres, tire la sonnette d’alarme : ces règles pourraient bien sonner le glas de la diversité et de l’innovation indépendante. Explications.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Nouvelles sur l’IA de septembre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Sortie de Crème CRM en version 2.7

Le 2 septembre 2025 est sortie la version 2.7 du logiciel de gestion de la relation client Crème CRM (sous licence AGPL-3.0), un peu plus d’un an après Creme 2.6 (5 août 2024).

Icone de Crème CRM

Au programme notamment, le passage à Django 5.2, les types de fiches personnalisés et un système de processus automatisés. Les nouveautés sont détaillées dans la suite de la dépêche.

Sommaire

Description du logiciel

Crème CRM est un logiciel de gestion de la relation client, généralement appelé CRM (pour Customer Relationship Management). Il dispose évidemment des fonctionnalités basiques d’un tel logiciel :

  • un annuaire, dans lequel on enregistre contacts et sociétés : il peut s’agir de clients, bien sûr, mais aussi de partenaires, prospects, fournisseurs, adhérents, etc. ;
  • un calendrier pour gérer ses rendez‐vous, appels téléphoniques, conférences, etc. ; chaque utilisateur peut avoir plusieurs calendriers, publics ou privés ;
  • les opportunités d’affaires, gérant tout l’historique des ventes ;
  • les actions commerciales, avec leurs objectifs à remplir ;
  • les documents (fichiers) et les classeurs.

Crème CRM dispose en outre de nombreux modules optionnels le rendant très polyvalent :

  • campagnes de courriels ;
  • devis, bons de commande, factures et avoirs ;
  • tickets, génération des rapports et graphiques…

L’objectif de Crème CRM est de fournir un logiciel libre de gestion de la relation client pouvant convenir à la plupart des besoins, simples ou complexes. À cet effet, il propose quelques concepts puissants qui se combinent entre eux (entités, relations, filtres, vues, propriétés, blocs), et il est très configurable (bien des problèmes pouvant se résoudre par l’interface de configuration) ; la contrepartie est qu’il faudra sûrement passer quelques minutes dans l’interface de configuration graphique pour avoir quelque chose qui vous convienne vraiment (la configuration par défaut ne pouvant être optimale pour tout le monde). De plus, afin de satisfaire les besoins les plus particuliers, son code est conçu pour être facilement étendu, tel un cadriciel (framework).

Du côté de la technique, Crème CRM est codé notamment avec Python/Django et fonctionne avec les bases de données MySQL, SQLite et PostgreSQL.

Principales nouveautés de la version 2.7

Voici les changements les plus notables de cette version :

Le passage à Django 5.2

La nouvelle version LTS (Long Time Support, car maintenue pendant 3 ans) du cadriciel Web est sortie en avril 2025.

Pour les personnes qui déploient Creme, cela implique de nouvelles versions minimales :

  • La version minimale de Python est maintenant la 3.10
  • Pour les systèmes de gestion de base de données (SGBD) les versions minimales sont SQLite 3.31, MySQL 8.0.11, PostgreSQL 14 & MariaDB 10.5.

Python 3.13 est désormais géré officiellement.

Les types de fiches personnalisés

Il a bien sûr toujours été possible de créer ses propres types de fiches (entités) via du code (c’est même plutôt simple, notamment grâce aux outils que fournis Django).
Mais ici il s’agit de créer des types de manière visuelle, via l’interface de configuration. Pour créer un nouveau type il suffit de lui donner un nom (genre “Boutique”), ainsi que son nom au pluriel (donc “Boutiques” dans notre exemple). Ensuite des champs personnalisés peuvent être ajoutés, comme pour n’importe quel type de fiche. Et évidemment vous pouvez utiliser derrière tous les outils de configuration classiques pour construire l’interface qui vous convient (blocs, boutons, formulaires, menu…).

Techniquement, les tables correspondant aux types sont en fait toutes créés dès l’installation (mais seuls les types activés sont visibles) ce qui permet de fonctionner sereinement même sur les SGBD ne gérant pas les transactions de schéma. C’est pourquoi le nombre de types personnalisés est limité (à 20 en l’occurrence, cela devrait être largement suffisant en pratique).

Ce nouveau système était attendu depuis longtemps, et devrait encore un peu abaisser la barrière d’entrée en permettant d’éviter d’écrire du code dans pas mal de cas.

Création d’un nouveau type de fiche

Les processus automatisés

Ce nouveau système permet de programmer des actions qui seront effectuées de manière automatique lorsque certains évènements se produisent. Pour mieux comprendre les possibilités offertes, voici un processus créé lors de l’installation de Creme 2.7 : lorsqu’une fiche Opportunité d’affaire est modifiée et que son nouveau statut est un statut considéré comme gagné, alors la société cible de l’Opportunité devient cliente (si elle ne l’était pas déjà évidemment).

Dans cette première version, les évènements qui peuvent déclencher un processus sont :

  • une fiche est créée
  • une fiche est modifiée
  • une propriété (il s’agit d’une sorte de tag) est ajoutée à une fiche
  • une relation est ajoutée entre 2 fiches

Les actions actuellement disponibles sont :

  • ajouter une propriété
  • ajouter une relation
  • envoyer un courriel

Cette version initiale nous a demandé pas mal de travail afin de trouver une conception satisfaisante, mais de nombreuses améliorations sont d’ores et déjà prévues (notamment les évènements temporels & une action qui peut modifier une fiche).

Les processus automatisés étaient, à l’instar des types personnalisés, très attendus ; et combiner ces 2 nouveaux systèmes ouvre pas mal de perspectives.

Un processus automatisé créé par un utilisateur pour les Activités

La version plus détaillée est ici

Quelques autres améliorations notables

  • La génération des numéros des Factures/Devis/Bons de commande a été entièrement revue. Elle se configure maintenant depuis l’interface (là où avant on pouvait juste rentrer des préfixes dans le fichier de configuration) et offre de nombreuses options.
  • La configuration des boutons peut désormais se faire par rôle (comme c’était déjà le cas avec les blocs, formulaires, etc.).
  • Les vues de liste & les filtres peuvent être clonés (afin de gagner du temps, plutôt que de partir de zéro).
  • Le calendrier a été mis-à-jour (version 6.1.18 de la bibliothèque JavaScript FullCalendar), et un nouveau bloc permet d’afficher son calendrier sur la page d’accueil.
  • Pas mal de code de suppression a été amélioré, que ça soit pour empêcher plus souvent la suppression à cause de dépendances (plutôt que supprimer des choses en cascade), ou pour mieux afficher lesdites dépendances bloquantes.

Le futur

La prochaine version devrait être plus courte que la 2.7 (qui a été un peu plus grosse que prévu à la base), afin de mieux coller aux sorties de Django. À l’année prochaine !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Detour Dog, un malware furtif qui détourne le DNS TXT pour attaquer des milliers de sites

Une récente étude d’Infoblox Threat Intel révèle qu’un acteur malveillant, connu sous le nom de « Detour Dog », a fait évoluer ses méthodes.    Tribune – Initialement spécialisé dans les redirections frauduleuses, il s’attaque désormais à la diffusion de logiciels malveillants conçus pour voler des informations. Concrètement, les sites compromis récupèrent et relaient du […]

The post Detour Dog, un malware furtif qui détourne le DNS TXT pour attaquer des milliers de sites first appeared on UnderNews.
  •