Vue lecture

Appel à commentaire de la Commission "Vers des écosystèmes numériques ouverts européens"

La Commission européenne a lancé un appel à commentaires pour une nouvelle initiative stratégique intitulée « Vers des écosystèmes numériques ouverts européens », dont l’adoption est prévue au premier trimestre 2026. Motivée par les objectifs essentiels de souveraineté technologique et de cybersécurité, cette initiative vise à réduire la dépendance de l’Union européenne vis-à-vis des infrastructures numériques non européennes en renforçant le secteur open source européen. S’appuyant sur la stratégie 2020-2023 en matière de logiciels open source et complétant la future loi sur le développement du cloud et de l’IA, cette feuille de route vise à identifier les obstacles à l’adoption, à soutenir le développement des communautés et des start-ups open source, et à garantir que les technologies ouvertes dans des secteurs critiques tels que l’IA, le cloud et les applications industrielles soient développées et régies dans un cadre européen sûr, compétitif et transparent.

L’appel à commentaires suscite un certain enthousiasme de la communauté Open Source, avec 334 réponses moins d’une semaine après son ouverture. Cf. ces statistiques.

Continuez la lecture pour le détail des questions posées, quelques éléments de contexte et quelques éléments de réponses possible.

Sommaire

Les 10 questions clefs

On peut identifier dans l’appel à commentaires une dizaine de questions, divisées en questions explicites (posées spécifiquement aux parties prenantes dans la consultation) et questions implicites (les problèmes sous-jacents que l’initiative cherche à résoudre).

Questions explicites

Ces questions sont répertoriées directement aux pages 3 et 4 afin que les parties prenantes puissent y répondre :

  1. Forces, faiblesses et obstacles : « Quelles sont les forces et les faiblesses du secteur open source de l’UE ? Quels sont les principaux obstacles qui entravent (i) l’adoption et la maintenance d’un open source de haute qualité et sécurisé ; et (ii) les contributions durables aux communautés open source ? »
  2. Valeur ajoutée : « Quelle est la valeur ajoutée de l’open source pour les secteurs public et privé ? Veuillez fournir des exemples concrets, y compris les facteurs (tels que le coût, le risque, la dépendance, la sécurité, l’innovation, entre autres) qui sont les plus importants pour évaluer la valeur ajoutée. »
  3. Mesures concrètes de l’UE : « Quelles mesures et actions concrètes peuvent être prises au niveau de l’UE pour soutenir le développement et la croissance du secteur open source de l’UE et contribuer à la souveraineté technologique et au programme de cybersécurité de l’UE ? »
  4. Priorités : « Quels domaines technologiques devraient être prioritaires et pourquoi ? »
  5. Compétitivité et résilience : « Dans quels secteurs une utilisation accrue de l’open source pourrait-elle conduire à une compétitivité et une cyber-résilience accrues ? »

Questions implicites

Voici les questions fondamentales qui motivent la nécessité de cette initiative pour la Commission, que l’on retrouve tout au long du contexte politique et de la définition du problème (pages 1-2) :

  1. Souveraineté : Comment l’UE peut-elle réduire sa dépendance vis-à-vis des pays tiers en matière d’infrastructures numériques et reprendre le contrôle de sa sphère numérique ?
  2. Passage à l’échelle : Comment l’UE peut-elle aller au-delà du financement de la recherche et de l’innovation pour soutenir réellement le passage à l’échelle, le déploiement industriel et la viabilité commerciale des innovations open source ?
  3. Administration publique : Comment le secteur public (États membres et régions de l’UE) peut-il mieux adopter les solutions open source afin d’éviter la dépendance vis-à-vis d’un fournisseur et d’accroître la transparence ?
  4. Durabilité : Comment l’UE peut-elle garantir que la valeur générée par les projets open source n’est pas uniquement exploitée en dehors de l’UE et que les développeurs européens ont accès au capital et aux infrastructures nécessaires à leur croissance ?
  5. Sécurité : Comment tirer parti des logiciels open source pour améliorer la transparence de la chaîne d’approvisionnement et la gestion des vulnérabilités en matière de cybersécurité ?

Bilan de la Stratégie Open Source 2020-2023 de la Commission européenne

Comme indiqué en intro, cette consultation a pour but (entre autres) de réviser la Stratégie Open Source 2020-2023 de la Commission européenne. Voici une analyse rapide de son bilan.

Cette stratégie se définissait par son slogan "Think Open". Le point clef, qu’on lui a reproché à son époque, est qu’elle était principalement une stratégie de transformation interne et culturelle (comment la Commission gère son informatique), plutôt qu’une stratégie de politique industrielle (comment l’Europe construit sa filière).

1. Forces, faiblesses et barrières

  • Analyse de la stratégie 2020-2023 : La stratégie identifiait correctement la force de l’Open Source comme levier d’innovation et de co-création.
  • Limite/Impact : Elle s’est concentrée sur les barrières administratives internes (simplifier la bureaucratie pour permettre aux fonctionnaires de contribuer au code). Elle a largement ignoré les barrières de marché (financement, concurrence déloyale des géants US) qui pèsent sur le secteur privé européen.
  • Bilan : Elle a réussi à lever des blocages juridiques internes, mais n’a eu que peu d’impact sur la fragmentation du marché européen.

2. Valeur ajoutée pour les secteurs public et privé

  • Analyse de la stratégie 2020-2023 : Elle a parfaitement théorisé la valeur ajoutée pour le secteur public : « Argent public, Code public », éviter le verrouillage propriétaire (vendor lock-in), et l’interopérabilité.
  • Limite/Impact : La stratégie visait à « montrer l’exemple » (lead by example). Cependant, l’impact réel sur le secteur privé est resté marginal, car la Commission a continué, paradoxalement, à dépendre massivement de solutions propriétaires (Microsoft 365) durant cette période, affaiblissant la portée de son message sur la valeur ajoutée de l’Open Source.

3. Mesures concrètes au niveau de l’UE

  • Analyse de la stratégie 2020-2023 : La mesure phare et le grand succès de cette stratégie a été la création du bureau de programme Open Source (OSPO) de la Commission ("OSOR"). Elle a aussi facilité la publication de logiciels comme EUSurvey ou LEOS.
  • Limite/Impact : Ces mesures étaient centrées sur l’institution (« Inner Source »). Il manquait des mesures de soutien financier direct à l’écosystème (type « Fonds Souverain ») qui sont demandées aujourd’hui.

4. Priorités technologiques

  • Analyse de la stratégie 2020-2023 : La stratégie mentionnait le Cloud, l’IA et la Blockchain de manière générique.
  • Limite/Impact : Elle manquait de ciblage stratégique. Elle traitait l’Open Source comme une méthode de travail, et non comme une brique de souveraineté pour des technologies critiques spécifiques (comme le demande aujourd’hui la Feuille de route sur le Cloud/Edge).

5. Compétitivité et résilience

  • Analyse de la stratégie 2020-2023 : Le document mentionnait la « souveraineté technologique » en introduction, citant Ursula von der Leyen.
  • Limite/Impact : L’approche est restée très « soft power » (influence par l’exemple). Elle n’a pas suffi à créer une résilience face aux chocs géopolitiques ou à l’extraterritorialité du droit américain (Cloud Act), car elle ne s’accompagnait pas d’une politique industrielle agressive.

6. Souveraineté (réduire la dépendance)

  • Bilan 2020-2023 : La stratégie posait le principe « Stay in control » (Garder le contrôle).
  • Réalité : C’est sans doute l’échec principal de la période. Malgré la stratégie, la dépendance de l’Europe aux hyperscalers non-européens s’est accrue (cf Asteres). La stratégie a sous-estimé la difficulté de migrer des infrastructures critiques vers de l’Open Source sans investissement massif dans des alternatives industrielles européennes.

7. Passage à l’échelle (upscaling)

  • Bilan 2020-2023 : La stratégie encourageait le partage et la réutilisation (Reuse).
  • Réalité : Le passage à l’échelle a été limité à des outils de niche (sondages, légistique). La stratégie n’a pas fourni les mécanismes pour transformer des projets Open Source européens en géants technologiques capables de rivaliser mondialement.

8. Administration publique (adoption)

  • Bilan 2020-2023 : Elle s’appuyait sur la Déclaration de Tallinn (2017).
  • Réalité : La création de l’OSPO a été un modèle positif suivi par certains États membres (ex: France - avec les limites que l’on sait, Allemagne, Pays-Bas…). Cependant, l’adoption reste très hétérogène. La stratégie manquait de “dents” (obligations contraignantes) pour forcer l’adoption des logiciels libres et des standards ouverts dans les marchés publics des États membres.

9. Durabilité (modèles économiques et maintenance)

  • Bilan 2020-2023 : La stratégie prévoyait que les développeurs de la Commission puissent contribuer “incidemment” aux projets externes.
  • Réalité : C’est une réponse insuffisante au problème de la maintenance des infrastructures critiques (le problème de « l’inconnu du Nebraska »). Le bénévolat ou les contributions ponctuelles de fonctionnaires ne remplacent pas un financement structurel des fondations et des mainteneurs, point soulevé par les experts (Doc 3).

10. Sécurité (supply chain)

  • Bilan 2020-2023 : Point fort de la stratégie via le programme EU-FOSSA (audits de sécurité financés par l’UE).
  • Réalité : La Commission a bien identifié que « Open Source = transparence = sécurité potentielle ». Cependant, l’approche était réactive (audit de l’existant). La nouvelle période (2024+) doit gérer les effets de bord du Cyber Resilience Act (CRA), qui a créé une insécurité juridique pour les développeurs Open Source que la stratégie 2020-2023 n’avait pas anticipée.

Conclusion de l’analyse

La stratégie 2020-2023 a été une étape culturelle nécessaire mais insuffisante.

  • Son mérite : Elle a légitimé l’Open Source au cœur de l’administration européenne (création de l’OSPO, changement de mentalité).
  • Sa limite : Elle est restée une stratégie informatique interne (« Comment la Commission utilise le logiciel libre ») et non une stratégie politique (« Comment l’Europe utilise le logiciel libre pour sa souveraineté »).

Nous appelons donc à ce que la nouvelle initiative (2026) opère ce basculement : passer de l’Open Source comme « bonne pratique administrative » à l’Open Source comme « arme de souveraineté industrielle ».

Eléments de réponse

La Feuille de route thématique « La voie du logiciel libre vers la souveraineté numérique et la compétitivité de l’Union européenne » rédigée par un groupe d’experts (dont je (NdM: Stefane Fermigier) faisais partie) de l’Alliance européenne pour les données industrielles, l’Edge et le Cloud, et publiée par la Commission en juillet 2025 fournit un certain nombre d’éléments de réponses aux questions ci-dessus. Avec 70 propositions il y a évidemment de quoi « faire son marché ». Voici quelques éléments de réponse possibles extraits du document.

1. Forces, faiblesses et obstacles du secteur open source de l’UE

Forces :

  • Engagement politique et financier : l’Europe a démontré son engagement à travers le financement de la recherche (Horizon Europe, Digital Europe) et des cadres politiques (Data Act) qui favorisent la transparence (*p. 16-17).
  • Écosystème en pleine croissance : on observe une expansion des fournisseurs européens de cloud et d’edge open source proposant des alternatives conformes au RGPD, ainsi que de grands consortiums multipartites (bien qu’ils soient confrontés à des défis) et des collaborations avec des instituts de recherche (p. 18-19).
  • Cadres spécialisés : L’Europe assiste à l’adoption croissante de cadres open source spécialisés dans l’IoT dans des secteurs tels que l’industrie manufacturière et l’énergie (p. 19).

Faiblesses :

  • Domination des technologies non européennes : le marché est fortement influencé par les technologies propriétaires et les hyperscalers non européens, en particulier dans les domaines du cloud, de l’edge computing et des technologies de conteneurisation (p. 20).
  • Fragmentation : Les initiatives nationales sont souvent fragmentées et manquent de coordination au niveau européen (p. 17).
  • Problèmes de gouvernance : De nombreux projets, même ceux qui bénéficient de contributions européennes, sont gérés par des entités non européennes (par exemple, la Linux Foundation), ce qui peut entraîner un décalage par rapport aux intérêts européens (p. 26).

Principaux obstacles :

(i) À l’adoption et à la maintenance :

  • Obstacles à l’interopérabilité : Il existe un manque de « normes véritablement ouvertes » universellement adoptées et développées par des entités européennes. Cela entraîne une complexité d’intégration et des frictions entre les outils propriétaires et les outils open source (p. 24).
  • Sensibilisation du marché et discours : les PME et les entreprises hésitent en raison d’idées fausses sur la complexité et le soutien, souvent alimentées par les discours marketing des fournisseurs dominants non européens (p. 25).
  • Pénurie de compétences : l’offre de professionnels maîtrisant les technologies open source européennes, l’orchestration du cloud et la cybersécurité est insuffisante (p. 25-26).

(ii) Vers des contributions durables :

  • Contraintes en matière de ressources et de financement : De nombreux projets essentiels dépendent de contributions bénévoles et de financements sporadiques. Le paysage actuel favorise souvent les grands projets bien établis, laissant les petites initiatives européennes innovantes sous-financées (p. 24-25).

2. Valeur ajoutée pour les secteurs public et privé

Le document identifie la valeur ajoutée dans plusieurs dimensions, en se concentrant principalement sur la souveraineté numérique, la sécurité, la résilience économique et la durabilité.

Exemples concrets et facteurs :

  • Administration publique :
    • Souveraineté et contrôle : l’adoption de l’open source européen permet aux institutions de garder le contrôle sur le traitement et le stockage des données, réduisant ainsi leur dépendance vis-à-vis de fournisseurs étrangers soumis à des lois extraterritoriales (par exemple, la section 702 de la loi américaine FISA).
    • Sécurité et conformité : la transparence totale du code permet un audit rigoureux, garantissant la conformité avec les directives RGPD et NIS.
    • Coût et transparence : cela réduit les coûts d’approvisionnement/de licence et favorise la confiance du public grâce à des systèmes transparents (p. 50).
  • Secteur privé (général et PME) :
    • Innovation : cela réduit les barrières à l’entrée pour les PME, leur permettant d’être compétitives en tirant parti d’une infrastructure abordable et personnalisable. Cela accélère les cycles de développement grâce à l’innovation collaborative (p. 13).
    • Réduction des risques : cela évite la dépendance vis-à-vis d’un fournisseur associée aux normes propriétaires (p. 11).
  • Fabrication (industrie 4.0) :
    • Efficacité opérationnelle : permet une maintenance prédictive et une surveillance en temps réel.
    • Flexibilité : les normes ouvertes permettent l’intégration transparente de nouvelles technologies dans les systèmes existants, évitant ainsi la dépendance (p. 51).

3. Mesures et actions concrètes au niveau de l’UE

La feuille de route propose des actions (70 au total) réparties en cinq piliers afin de soutenir le secteur et de contribuer à la souveraineté et à la cybersécurité, notamment :

1. Développement technologique :

  • Normes : définir et imposer une « interopérabilité exécutoire » basée sur des normes véritablement ouvertes pour toutes les infrastructures numériques financées par l’UE (p. 28-29).
  • Financement : créer un « Fonds européen pour la souveraineté open source » (NB : EOSSF → EU-STF) pour les projets fondamentaux (p. 30).
  • Architectures de référence : développer des implémentations de référence spécifiques à chaque secteur (par exemple, pour les soins de santé ou l’énergie) (p. 30-31).

2. Développement des compétences :

  • Formation et certification : Lancer des programmes de certification pour la maîtrise de l’open source européen et financer des ateliers de formation axés sur l’industrie (p. 32-33).
  • Éducation : Intégrer les principes de l’open source dans les programmes d’études STEM et créer des centres d’excellence dans les universités (p. 34).

3. Pratiques d’approvisionnement :

  • Politique : Adopter des politiques « Fonds publics, code public, open source d’abord, préférence européenne » (p. 36).
  • Lignes directrices : Créer des guides d’évaluation pratiques et un répertoire de solutions européennes recommandées à l’intention des responsables des marchés publics (p. 37-38).

4. Croissance et investissement :

  • Plateforme d’investissement : créer une « plateforme européenne d’investissement dans l’open source » (EOSIP) afin de consolider les informations sur le financement (p. 41).
  • Image de marque : lancer une initiative de promotion de l’image de marque afin de mettre en avant la sécurité et la souveraineté des projets européens (p. 43).

5. Gouvernance :

  • Analyse de sécurité : donner la priorité aux évaluations de vulnérabilité pour les projets critiques et collaborer avec les agences de cybersécurité (p. 45).
  • Comité consultatif : former un comité consultatif européen sur l’open source afin de superviser le financement et l’orientation (p. 47).

4. Domaines technologiques prioritaires

La feuille de route donne explicitement la priorité aux technologies Cloud, Edge et Internet des objets (IoT).

Pourquoi ces technologies sont-elles prioritaires ?

  • Épine dorsale de l’infrastructure : ces technologies constituent « l’épine dorsale de l’infrastructure numérique moderne » et sont essentielles pour la sécurité nationale et économique (p. 10).
  • Dépendance actuelle : l’Europe est fortement dépendante des hyperscalers non européens dans ces domaines, ce qui pose des risques en matière de confidentialité des données, de sécurité nationale et de résilience opérationnelle (p. 10).
  • Tendances émergentes : certains sous-domaines sont mis en avant comme étant essentiels pour la souveraineté future :
    • Edge Computing : essentiel pour réduire la latence et assurer la souveraineté des données (en gardant le traitement proche de la source) (p. 20).
    • Conteneurisation/Orchestration : critiques pour l’évolutivité, mais actuellement dominées par des entités non européennes (p. 20).
    • IA/apprentissage automatique : l’intégration de l’IA dans les appareils périphériques, pour l’IoT industriel et les systèmes autonomes (p. 20).

NB: d’autres domaines prioritaires peuvent également être mis en avant, en dehors de la feuille de route, notamment le collaboratif (bureautique).

5. Secteurs pour une compétitivité et une cyber-résilience accrues

Le document identifie les secteurs suivants dans lesquels l’open source peut stimuler la compétitivité et la résilience (p. 50-53) :

  • Administration publique : renforce la confiance, la souveraineté des données et réduit les coûts.
  • Fabrication (industrie 4.0) : améliore l’efficacité de la production, réduit les déchets et empêche la dépendance vis-à-vis d’un fournisseur.
  • Santé : sécurise les données sensibles des patients, permet l’interopérabilité entre les systèmes (par exemple, les dossiers médicaux électroniques) et accélère la recherche médicale.
  • Énergie : optimise la gestion de l’énergie (réseaux intelligents), intègre les énergies renouvelables et réduit la consommation énergétique des centres de données.
  • Autres secteurs : transports, agriculture, finance, éducation, villes intelligentes et industrie spatiale (en particulier l’analyse des données d’observation de la Terre) (p. 53).

Références

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Microsoft débranche enfin MDT - Comment déployer Windows sans se ruiner (et sans le cloud) ?

Snif, snif sniiiif, c'est la fin d'une époque pour tous les admins système qui ont les mains dans le cambouis depuis plus de deux décennies.

Hé oui les amis, Microsoft vient de décider de débrancher la prise de son vénérable Microsoft Deployment Toolkit (MDT). Adios ce outil né en 2003 (sous le nom de BDD à l'époque) qui nous a sauvés la mise pendant plus de 20 ans pour installer des parcs entiers de bécanes sans y passer la nuit !

Alors pourquoi ce revirement ?

Bon, alors officiellement, c'est pour nous faire passer à des solutions "modernes" mais officieusement, beaucoup y voient une manœuvre pour nous pousser vers le passage à la caisse cloud avec Windows Autopilot et Intune. Forcément, un outil gratuit, local, qui ne remonte quasiment aucune télémétrie (contrairement aux usines à gaz actuelles) et qui permet de faire des masters aux petits oignons sans dépendre d'Azure, ça commençait à faire tache dans le catalogue de Redmond. (oooh yeah !)

Le problème, c'est que pour pas mal de boîtes, Autopilot nécessite des licences spécifiques (M365 Business Premium ou Intune Plan 1) et une connexion internet béton. Hé oui, tout le monde n'a pas envie de dépendre du cloud pour provisionner un poste.

Ça tombe bien, vous me connaissez, je ne vais pas vous laisser tomber. Alors si vous faites partie de ceux qui se retrouvent le cul entre deux chaises, sachez qu'il existe des alternatives sérieuses et surtout gratuites ou open source.

Pour l'imagerie pure et dure (le bare-metal), mon chouchou reste FOG Project . C'est une bête de course open source qui remplace avantageusement la partie imagerie de WDS. Ça gère le boot réseau (PXE), le multicast pour arroser des dizaines de PC d'un coup, et ça permet de capturer et déployer vos images Windows 10 ou 11. Et pour ceux qui veulent du plus classique, Rescuezilla (le clone graphique de Clonezilla) fait aussi un boulot béton pour cloner des disques.

Mais là où ça devient vraiment chouette, c'est pour la configuration post-installation car plutôt que de s'enquiquiner avec des task sequences complexes, je vous conseille de regarder du côté d'Ansible. Oui, ça marche aussi pour Windows via WinRM (le mode standard) ou SSH ! Vous lancez un petit playbook YAML et hop, vos softs sont installés, vos paramètres de sécurité sont appliqués et votre machine est prête à l'emploi. C'est propre, reproductible et ça évite les erreurs humaines.

Pour ceux qui veulent bidouiller leur serveur de boot, n'oubliez pas non plus d'aller voir mon article sur Netboot.xyz qui est une mine d'or pour booter un grand nombre d'OS par le réseau.

Bref, même si Microsoft tente de nous enfermer dans sa cage dorée avec Autopilot, la communauté a déjà tout ce qu'il faut pour qu'on reste maîtres de notre infrastructure. Alors courage les admins !!! Une page se tourne mais les outils qui déchirent sont toujours là !

Source

  •  

Translate PICO-8 games with pico8-l10n

Note: cet article est en anglais, mais j'ai traduit les jeux mentionnés en français.

Recently, thanks to a game recommendation from Bart Bonte, I discovered several wonderful video games from Adam "Atomic" Saltsman. I shared them on my Shaarli there: chezsoi.org/shaarli/?searchtags=AdamAtomicSaltsman.

The games are all very are all very short, but also very well designed. I had so much fun! ❤️ …


Permalien
  •  

Open source : la perspective d’une nouvelle stratégie européenne fait réagir

Vu nos relations actuelles avec les États-Unis, il est peut-être temps d’amender, si ce n’est supprimer, l’article 6 de la directive copyright.

Cette suggestion revient régulièrement dans les réponses à un appel à témoignages lancé par la Commission européenne. L’initiative est censée préfigurer une nouvelle stratégie open source pour l’UE. Il est question de la publier parallèlement au CAIDA (Cloud and AI Development Act)*, pour lequel une consultation publique a déjà été organisée.

Face à la directive copyright, l’argument souverain

Bruxelles sollicite des informations concernant :

  • Les forces et faiblesses de ce secteur, notamment les barrières à l’adoption et aux contributions
  • Sa valeur ajoutée pour le public et le privé
  • Les mesures à prendre pour en soutenir le développement
  • Les domaines technologiques à prioriser
  • Le potentiel de gain en compétitivité et en cyberrésilience pour les secteurs économiques

L’appel à témoignages est ouvert jusqu’au 3 février 2026. En une semaine, il a réuni quelque 350 réponses – un volume notable en comparaison à d’autres consultations. Elles sont, donc, nombreuses à mentionner le fameux article 6 de la directive copyright (de 2001). Il a pour effet, entre autres, de criminaliser la rétroingénierie de certaines technologies.

S’en passer permettrait aux entreprises européennes de développer des outils simplifiant le basculement vers l’open source depuis des solutions propriétaires, note un des répondants. D’autres expliquent que cela permettrait de rendre des plates-formes conformes au DMA. Ou de réduire le risque géopolitique en pouvant reprendre la main sur une technologie à laquelle l’accès serait coupé.

Taxer l’usage de l’open source ?

Certains témoignages visent des technos spécifiques, invitant par exemple à soutenir le projet de BIOS ouvert coreboot ou à remplacer HDMI par DisplayPort sur les téléviseurs. D’autres se concentrent sur les mécanismes de financement. Ils vont jusqu’à proposer de taxer l’usage de l’open source par les grandes entreprises du numérique – mettant ces ressources sur le même plan que les infrastructures financées par l’argent public.

Autre recommandation : obliger les éditeurs à publier le code source de toute version de logiciel pour laquelle ils ne fournissent plus de support ; et, éventuellement, qu’ils n’en tirent plus de revenus.

Quant aux domaines à prioriser, certains conseillent les dépôts de code, puisque les projets open source en dépendent. D’autres incitent, pêle-même, à se focaliser sur les projets qui souhaitent passer des certifications de conformité ou à ceux qui se focalisent sur l’intégration de multiples composantes open source au sein de systèmes.

Du côté de la Commission européenne, on se félicite que certaines initiatives aient « porté leurs fruits ». Sont cités NGI (Next Generation Internet), GenAI4EU (pour faire émerger des pionniers de l’IA générative), le Chips Act (plus particulièrement, l’investissement sur RISC-V consenti dans ce cadre), le framework FIWARE (destiné au développement de plates-formes de gestion de données), et le programme Simpl (soutien de middlewares pour les data spaces). Bruxelles rappelle aussi la création du DC-EDIC (consortium pour les communs numériques).

* Cette proposition d’acte législatif – dont la nature n’est pas déterminée à date – porte principalement deux objectifs. D’une part, lever des barrières à l’accroissement de la capacité de calcul disponible dans l’UE. De l’autre, aider au développement d’une offre compétitive de services cloud.

Illustration générée par IA

The post Open source : la perspective d’une nouvelle stratégie européenne fait réagir appeared first on Silicon.fr.

  •  

X : Elon Musk promet de rendre l’algorithme open source, mais le doute persiste

Comme la quasi-totalité des réseaux sociaux, X repose sur un algorithme chargé de décider quels contenus apparaissent — et dans quel ordre — dans le fil des utilisateurs. Un mécanisme central, souvent opaque, qui façonne l’expérience, les débats… et parfois les polémiques. Cette opacité pourrait toutefois être partiellement levée. Elon Musk a affirmé que le […]

L’article X : Elon Musk promet de rendre l’algorithme open source, mais le doute persiste est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

En finir avec l'enshittification en légalisant le reverse-engineering

Bon, je vais être direct : le reverse-engineering devrait être légal, point barre. Et tant mieux si quelqu'un d'aussi influent que Cory Doctorow le gueule dans le Guardian !

Pour ceux qui débarquent, le reverse-engineering c'est le fait de désosser un logiciel ou un appareil pour comprendre comment il fonctionne. Pas pour le pirater, hein, mais pour réparer, améliorer ou simplement vérifier qu'on ne se fait pas arnaquer. Et c'est là que ça devient un peu compliqué, parce que dans plein de pays, c'est illégal.

Doctorow rattache ça au phénomène d'"enshittification" (oui, le terme est volontairement moche... On pourrait traduire ça par "l'emmerdification"). C'est ce phénomène bien pénible où les entreprises dégradent progressivement leurs produits pour vous forcer à payer plus ou à racheter du neuf. Votre imprimante qui refuse les cartouches compatibles ? Enshittification. Votre tracteur John Deere qui vous interdit de le réparer vous-même ? Enshittification. Les onduleurs solaires chinois avec des kill switches à distance ? Enshittification + un peu de parano ^^.

Le truc, c'est que les lois anti-contournement comme le DMCA américain protègent ces pratiques. Du coup, même si vous avez acheté un machin, vous n'avez pas vraiment le droit de regarder sous le capot.

Mais bonne nouvelle pour nous autres Européens, l'article 6 de la directive européenne sur les logiciels autorise la décompilation pour assurer l'interopérabilité. Si ça c'est pas une nouvelle preuve que l'Europe est supérieure aux Etats-Unis, j'sais pas ce que c'est ^^.

En France par exemple, l'article L. 122-6-1 du Code de la propriété intellectuelle va même plus loin puisqu'il est impossible pour un éditeur d'interdire contractuellement ce droit. Autrement dit, même si c'est écrit dans les CGU, c'est nul et non avenu.

Par contre, le Royaume-Uni post-Brexit, c'est une autre histoire mais Doctorow y voit plutôt une opportunité. En effet, comme le Royaume-Uni est libéré des contraintes de l'harmonisation européenne, le pays pourrait assouplir ses lois plus rapidement que l'UE et devenir un hub du reverse-engineering légal. À condition évidemment de ne pas céder aux lobbys tech américains qui poussent dans l'autre sens.

Alors certains d'entre vous pourraient se demander : Ça sert à quoi de pouvoir reverse-engineerer ses appareils ?

Hé bien, ça sert par exemple à découvrir que votre thermostat "intelligent" envoie vos données à des serveurs douteux. Ou à réparer votre tracteur sans attendre 3 semaines un technicien agréé qui vous fera payer une fortune un truc dérisoire. Ou encore à vérifier que l'onduleur solaire sur votre toit n'a pas une backdoor exploitable par n'importe qui. De plus, des outils comme ReverserAI rendent ce genre d'analyse de plus en plus accessible, même sans être un expert en assembleur. Et ça c'est cool !

Le combat de Doctorow, c'est donc de faire sauter ces verrous juridiques qui protègent l'obsolescence programmée au détriment des consommateurs. Et franchement, quand on voit l'état du marché tech actuel, c'est pas du luxe, je trouve.

Bref, si vous voulez comprendre pourquoi votre grille-pain connecté vous espionne, au moins en Europe, vous avez théoriquement le droit de le découvrir. C'est déjà ça. Force à nos amis anglais et américains qui sont encore plus maltraités par les sociétés qui verrouillent leurs appareils, que nous.

  •  

Gibberifier - L'outil qui rend votre texte invisible aux IA (mais pas aux humains)

Vous connaissez sans doute la stéganographie, l'art de planquer des messages secrets un peu partout, mais avez-vous déjà entendu parler de la stéganographie inversée ? Non ? Eh bien, laissez-moi vous présenter Gibberifier .

L'idée est géniale puisqu'il s'agit de rendre un texte totalement illisible pour une IA (ChatGPT, Claude, Gemini, et consorts) tout en le laissant parfaitement clair pour nous, pauvres humains. C'est un peu comme parler une langue que les machines ne comprennent pas.

Le secret de cette technique réside dans l'utilisation de caractères Unicode de largeur zéro (comme le fameux U+200B) qui sont des caractères qui existent informatiquement mais qui ne prennent aucune place à l'écran. Gibberifier en insère aléatoirement entre les lettres de votre texte. Pour vos yeux, "Bonjour" reste "Bonjour". Mais pour une IA, ça ressemble à un truc comme ça "B\u200Bo\u200Bn\u200Bj\u200Bo\u200Bu\u200Br" en indécodable.

Et voilà comme le tokenizer de l'IA (la partie qui découpe le texte en morceaux digestes) panique complètement. Lors de mes tests avec ChatGPT, celui-ci est à la ramasse, quand à Claude, pas moyen qu'il accepte le message, ça le fait bugger... c'est assez jouissif à voir.

L'outil a été développé par GeneploreAI et le code est dispo en open source sur GitHub (licence GPL-3.0) et c'est pas juste un script python obscur, ils ont sorti des extensions pour Chrome et Firefox , et même une version web pour tester rapidement. J'ai testé avec ChatGPT et il galère un peu..

Mais avant que vous ne partiez chiffrer tout votre blog, une petite mise en garde quand même : Ce n'est pas fait pour des romans entiers. L'auteur recommande de l'utiliser sur des passages courts (environ 500 caractères). C'est idéal pour protéger une "formule secrète", un prompt spécifique ou un paragraphe clé que vous ne voulez pas voir aspiré par les scrapers d'entraînement.

Certains se demandent peut-être si c'est dangereux. En soi, non, ce sont juste des caractères standard mais c'est une belle démonstration de la fragilité actuelle des LLM. Un simple grain de sable Unicode suffit à enrayer la machine la plus sophistiquée du monde.

Bref, si vous voulez troller un peu les bots ou protéger un snippet de code, c'est l'outil qu'il vous faut.

  •  

Elo – Quand une IA écrit un langage de programmation complet sans intervention humaine

Vous connaissez probablement les prouesses de Claude Code pour décompiler du code , ou encore son utilisation pour automatiser la création d'outils , mais là, on a passé un cap.

Bernard Lambeau, un développeur belge avec plus de 25 ans d'expérience et un doctorat en informatique, a décidé de pousser le concept jusqu'au bout à savoir utiliser Claude Code non pas pour écrire quelques scripts, mais pour générer un langage de programmation complet.

Carrément ! Il est chaud Bernard, car quand je dis complet, je parle d'un compilateur entier avec analyseur lexical, un parseur, un système de typage, des backends multiples...etc. Voilà, comme ça, en full pair-programming avec une IA.

Ça s'appelle Elo et l'idée, c'est de proposer un langage tellement sécurisé by design qu'on peut le confier à des non-développeurs… ou à des IA. Pas de variables mutables, pas d'effets de bord, pas de références qui traînent dans tous les sens. Bref, un langage où il est quasi impossible de faire une bêtise, même en essayant très fort.

Alors pourquoi créer un énième langage alors qu'on en a déjà des centaines ?

Hé bien le truc, c'est que la plupart des langages existants partent du principe que vous savez ce que vous faites. JavaScript, Python, Ruby… Ils vous font confiance. Trop, parfois.

Elo, lui, adopte l'approche inverse... le "zero-trust". Le langage ne fait confiance à personne, ni au développeur, ni à l'IA qui pourrait l'utiliser. Ainsi, chaque expression est pure, chaque fonction est déterministe, et le compilateur vérifie tout avant d'exécuter quoi que ce soit.

Et surtout Elo est un langage d'expressions portables, ce qui veut dire que vous écrivez votre logique une fois, et vous pouvez la compiler vers JavaScript, Ruby ou même du SQL PostgreSQL natif. Oui, oui, le même code peut tourner dans votre navigateur, sur votre serveur Ruby, ou directement dans votre base de données. Et là, y'a de quoi faire des trucs sympas pour peu qu'on ait besoin de partager de la logique métier entre différents environnements.

Le typage est volontairement minimaliste mais costaud et se compose de 10 types de base : Int, Float, Bool, String, DateTime, Duration, Tuple, List, Null et Function. Pas de classes, pas d'héritage, pas d'objets au sens classique mais juste des valeurs et des fonctions, ce qui peut paraître limité dit comme ça, mais c'est justement cette contrainte qui rend le langage sûr.

Moins de features, c'est moins de façons de se planter !

L'opérateur pipe |> est le cœur du langage car au lieu d'imbriquer des appels de fonctions comme des poupées russes, vous chaînez les transformations de gauche à droite. Par exemple, pour récupérer tous les clients actifs et compter combien il y en a, vous écrivez quelque chose comme customers |> filter(active: true) |> size. C'est lisible, c'est fluide, et même quelqu'un qui n'a jamais codé comprend ce qui se passe.

Et il y a aussi l'opérateur alternative |. Comme ça, si une expression peut retourner null, vous pouvez prévoir un fallback avec ce simple pipe. Genre user.nickname | user.firstname | "Anonymous". Ça essaie dans l'ordre et ça prend la première valeur non-nulle.

Comme ça, fini les cascades de if/else pour gérer les cas où une donnée manque ! Youpi !

Voilà pour le langage...

Maintenant parlons un peu du bonhomme car Bernard Lambeau n'est pas un inconnu dans le monde du développement. Il est derrière Bmg (une implémentation de l'algèbre relationnelle), Finitio (un langage de schémas de données), Webspicy (pour tester des APIs), et Klaro Cards (une app no-code). Tout cet écosystème partageait déjà une certaine philosophie, et Elo vient unifier le tout. Son langage est d'ailleurs utilisé en production dans Klaro Cards pour exprimer des règles métier que les utilisateurs non-techniques peuvent modifier.

Ce qui m'a intéressé dans toute cette histoire, c'est surtout la méthode de développement de Bernard qui a travaillé en pair-programming avec Claude Code pendant des semaines, voire des mois. L'IA générait du code, et lui relisait, corrigeait, guidait, et l'IA apprenait de ces corrections pour les itérations suivantes. Sur l'ensemble du projet, chaque ligne de code, chaque test, chaque doc a été écrit par Claude et croyez le ou non, le code est clean car Bernard est un pro !

D'ailleurs, il a enregistré une démo de 30 minutes où il montre le processus en live .

En regardant cette démo, on découvre une vraie méthodologie de travail avec l'IA car il n'a pas juste balancé des prompts au hasard en espérant que ça marche. Au contraire, il a mis en place tout un système pour que la collaboration soit efficace et sécurisée.

Premier truc : le "safe setup". Bernard a configuré un environnement Docker sandboxé dans un dossier .claude/safe-setup afin de laisser Claude Code exécuter du code dans un conteneur Alpine isolé, sans risquer de faire des bêtises sur la machine hôte. En entreprise, c'est exactement le genre de garde-fou qu'on veut quand on laisse une IA bidouiller du code. Le conteneur a ainsi accès aux fichiers du projet, mais pas au reste du système.

Ensuite, il y a la documentation projet via un fichier CLAUDE.md à la racine. Ce fichier décrit l'architecture du langage avec le parser, l'AST, le système de typage, les différents backends, comme ça, quand Claude démarre une session, il lit ce fichier et comprend la structure du projet.

La gestion des tâches est aussi bien pensée puisqu'il utilise un système de dossiers façon Kanban : to-do, hold-on, done, et analyze. Chaque tâche est un fichier Markdown qui ressemble à une user story.

Ainsi, quand il veut ajouter une feature, il crée un fichier dans to-do avec la description de ce qu'il veut. Claude lit le fichier, implémente, et Bernard déplace le fichier dans done une fois que c'est validé. Le dossier analyze sert pour les trucs à creuser plus tard, et hold-on pour ce qui attend des décisions.

Ce qui est bien trouvé aussi, c'est qu'il utilise trois modes d'interaction selon les situations. Le mode "accept-it" pour les trucs simples où Claude propose et Bernard dispose. Le "plan mode" quand la tâche est complexe avec Claude qui pose des questions de design avant d'écrire du code. Et le mode autonome avec --dangerously-skip-permissions quand il a parfaitement confiance pour une série de modifications.

Bernard a aussi créé plusieurs personas spécialisés (des agents) que Claude peut invoquer. Un agent "security" qui analyse le code du point de vue sécurité. Un agent "DDD" (Domain-Driven Design) qui vérifie la cohérence du vocabulaire métier. Un agent "skeptic" qui cherche les cas limites et les bugs potentiels. Et un agent "Einstein" qui détecte quand le code devient trop complexe et suggère des simplifications.

En gros, 4 cerveaux virtuels qui relisent chaque modification.

Et là où ça devient vraiment ouf, c'est que Elo se teste lui-même. Les tests d'acceptance sont écrits en Elo, avec une syntaxe d'assertions qui se compile vers JavaScript, Ruby et SQL. Comme ça quand Bernard ajoute une feature, il écrit d'abord le test en Elo, puis Claude implémente jusqu'à ce que le test passe. Le langage valide sa propre implémentation.

Comme je vous l'avais dit, c'est propre !

Bernard n'a fait que valider et refuser et ne retouche jamais le code lui-même. C'est Claude qui fait tout le reste et ça c'est un sacré changement dans la façon de développer.

Il évoque aussi l'idée que quand on délègue une compétence à quelqu'un (ou quelque chose) qui la maîtrise, on peut se concentrer sur le reste. Comme ça, Bernard ne s'occupe donc plus d'écrire du code mais s'occupe plutôt de définir ce que le code doit faire, de valider les résultats, et de guider l'architecture.

C'est vraiment le métier de développeur nouvelle génération et c'est très inspirant si vous cherchez votre place de dev dans ce nouveau monde.

En tout cas, même si ce n'est pas la première fois qu'on voit Claude Code produire des résultats impressionnants là c'est carrément autre chose.

Maintenant si vous voulez tester, l'installation est simple. Un petit

`npm install -g @enspirit/elo`

Et vous aurez ensuite accès à deux outils :

  • elo pour évaluer des expressions à la volée, et
  • eloc pour compiler vers la cible de votre choix.

Et si vous voulez du JavaScript ?

eloc -t js votre_fichier.elo.

Du Ruby ?

eloc -t ruby.

Du SQL ?

eloc -t sql.

Le site officiel propose également un tutoriel interactif plutôt bien fichu pour découvrir la syntaxe. On commence par les bases (les types, les opérateurs), on passe aux fonctions, aux gardes, et on finit par les trucs plus avancés comme les closures et les comparaisons structurelles. En une heure ou deux, vous avez fait le tour.

Alors bien sûr, Elo n'est pas fait pour remplacer votre langage préféré car ce n'est pas un langage généraliste. Vous n'allez pas écrire une app mobile ou un jeu vidéo avec... Par contre, pour exprimer des règles métier, des validations, des transformations de données… C'est pile poil ce qu'il faut.

Peut-être qu'un jour on verra une équipe où les product managers écrivent directement les règles de pricing ou d'éligibilité en Elo , (j'ai le droit de rêver) et où ce code est automatiquement validé par le compilateur avant d'être déployé.

Plus de traduction approximative entre le métier et les devs, plus de bugs parce que quelqu'un a mal interprété une spec.

Le dépôt GitHub est ouvert , la documentation est dispo, et le langage est sous licence MIT donc vous avez de quoi explorer, tester, et pourquoi pas contribuer si le cœur vous en dit.

Voilà, avec Claude Code (ou d'autres comme Gemini CLI, Codex CLI...etc) on n'est clairement plus sur des outils qui complètent du code ou qui génèrent des snippets. On est carrément sur un système IA capable de créer des outils complets et des langages entiers, avec son humain préféré qui joue le rôle de chef d'orchestre.

Steve Klabnik a d'ailleurs fait quelque chose de similaire avec son langage Rue, lui aussi développé avec Claude, si vous voulez jeter un œil !

Voilà les amis ! La tendance est claire j'crois... les développeurs expérimentés commencent à utiliser l'IA comme un multiplicateur de force, et pas comme un remplaçant et je pense vraiment que vous devriez vous y mettre aussi pour ne pas vous retrouver à la ramasse dans quelque années...

Amusez-vous bien et un grand merci à Marc d'avoir attiré mon attention là dessus !

  •  

Je répète encore une fois (ce n'est pas comme... - Florian Candelieri | Facebook

5.1.2026, Florian:

Je répète encore une fois (ce n'est pas comme si je le répétais encore et encore depuis bientôt 12 ans ;)). Cesser d'utiliser toutes formes de monnaie ou d'argent, c'est cesser instantanément de nourrir et entretenir toutes formes d'impérialisme, de jeux de pouvoir et de domination 🙂 ❤
Allez je vous aime ❤
Paix et Amour ❤
#postcapitalism
#postcapitalisme
#PostCroissance
#societedufutur


Moi:
ah ben non... moi j'ai expérimenter plein de forme de monnaie !!! 😛
"toutes formes" C'est pas un peu excessif ??
.. mais c'est vrai que dans le jeu de la monnaie, c'est le jeu du "don dans une communauté de confiance" qui est le plus efficace et le plus joyeux des systèmes économiques !


Florian:

dès que tu utilises un objet quel qu'il soit qui peut être accaparé par un autre être humain (dans un jeu compétitif) c'est problématique pour moi... Si la notion de non-propriété est intégré comme règle de base, là je suis d'accord 😉


Moi: "qui 'peut' être accaparé " ... mais TOUT "peut" être accaparé !
C'est fou cette peur !

Ce n'est pas par ce que c'est une possibilité qq part que ça va être fait !
Là c'est radical ta façon de penser ! Tu t'interdis tout un pan de réalité, juste par ce que tu as peur d'une potentielle dérive !

Il y a là quelque chose à travailler, à méditer... il y a quelque chose à pacifier en toi ! (vu que tu prône "Paix et amour")
Imagine qu'on peut utiliser une régulation, un taux de retour à l'équilibre comme dans le 4ème jeu du jeu de la monnaie.
Dans les lois de la physique, il y a l'entropie, qui tend vers l'équilibre, limite les excès.

Dans la philosophie des grecs anciens, c'est la notion d'hybris qui est importante: "use de tout, n'abuse de rien". Ce n'est pas un "bête" interdit.

Toi qui es un planteur d'arbres, tu peux faire l'exercice de méditer à te mettre à la place d'un arbre.

L'arbre est un grand capitaliste. Sa ressource préférée c'est le CO2. Il fait tout pour capter le CO2.
A partir de l'air ambiant il "cristalise" le carbone du CO2 pour construire une structure qui le fait grandir, occuper de l'espace et être toujours plus efficace. Il s'accapare de l'espace.

Un arbre organise et optimise la captation d'un maximum d'énergie. L'énergie que je dis être "la monnaie de l'univers".

L'arbre capitalise de l'énergie. Il conçoit des capteurs d'énergie solaire avec les feuilles.
Puis dans nos contrées glacées, quand il perd ses feuilles l'hiver, il va stocker cette énergie sous forme de sucre concentré dans les racines. Il y a des gigantesques flux de sève pour gérer ces stocks.

L'arbre va aussi capitaliser l'eau. Au passage il la filtre atome par atome. Il recrée les molécules d'eau.

Mais l'arbre seul sait qu'il y a une limite à son expansion. Il ne peut pas grandir à l'infini. (pas sous forme d'un individu seul.. )

Là il va se reproduire. Il crée des fruits. Sans avoir capitalisé un maximum d'énergie, un maximum de carbone et de l'eau. Il ne peut pas fournir de fruit....

Quand on est un bon capitaliste, un bon accapareur de ressources, on peut être un bon redistributeur de ressources.
Et on peut être un bon créateur d'ecosystème favorisant le vivant. (une définition de la permaculture non ?)

Car oui, l'arbre ne fait pas qu'un seul fruit, mais de nombreux... il devient forêt !
Il crée un environnement qui favorise la VIE.
L'abondance de fruits qu'il offre va nourrir de nombreux autres organismes.

La symbiose avec les champignons va transporter des flux d'eau dans toute la forêt. Tout comme l'évapotranspiration des feuilles crée ce qu'on appelle des rivières volantes. C'est ainsi que l'eau de mer est acheminée à des milliers de km au coeur des grandes forêts continentales. (donc ne surtout pas déboiser les côtes !)

L'arbre est un capitaliste, un accapareur de ressources. Mais c'est au service de la création de ressources qui ont encore plus de valeur, qu'il partage avec plaisir. L'arbre est un créateur de valeur, un créateur de richesses, un créateur de vie.

Il me semble que l'arbre est en compétition pour capter la lumière du soleil, pour capter le CO2...
Mais ensuite il est aussi en coopération pour réguler, pour transporter, pour partager, pour offrir nombre de ressources indispensables à la vie.

La forêt grandit en favorisant la VIE. De fait, elle s'accapare le territoire...
La forêt augmente le nombre de ressources disponibles à tout un ecosystème qui n'existerai pas sans un plan d'accaparement des ressources.

Ainsi le "post-capitalisme" repose sur du capitalisme. L'univers se déploie depuis toujours sous forme d'holarchie. Transcender et inclure. Refuser d'inclure le capitalisme, c'est refuser d'être capable de le transcender.

Un fois que tu seras en paix avec le capitalisme, tu pourras vraiment le transcender.
A méditer.


Je ne suis pas sûr que ce soit moi qui ait peur Mathieu, mais bon 😉 Tout peut être accaparé car nous l'avons autorisé,validé en tant que société humaine (L' occident de ces quatre derniers siècles y a joué un rôle prépondérant) et ensuite diffusé comme seule représentation valable du progrès (Darwin mal interprété, John Locke, les lumières, l'universalisme etc...) Nous pourrions inverser la logique, c'est à dire partir du principe (une loi ou une constitution) qui abolit toute forme de propriété (l'être humain n'est pas propriétaire, maître ou dominateur de la nature ou de quoi que ce soit d'autre). À partir de là, nous pourrions imaginer une nouvelle société non-compétitive, La Coopération et le partage comme principe fondamental... Et t'inquiètes tout comme dans notre société profondément structurée sur une vision hobbesienne/compétitive, il y a de la coopération.Dans cette nouvelle société ayant comme principe fondateur la paix et la coopération, il y aura de la compétition (t'inquiètes tu pourras encore t'amuser à être en compétition avec qui tu veux, elle sera juste illégale ;)). C'est juste actualiser et aligner les structures de notre société sur les nouvelles découvertes scientifiques qui démontrent que la Coopération prime sur la compétition dans la Nature 😉 La Paix et l'Amour prime sur la haine et la guerre.... ❤ Notre société repose actuellement sur une vision principalement compétitive (héritée des représentations "lois du plus fort" "lois de la jungle" des archéologues, anthropologues, ethnologues des siècles passés, c'est vieillot tout ça ;))

Et dans tout ce que tu décris concernant les arbres et la forêt, il n'y a pas de capitalisme... Il n'y a qu'Intelligence au service de la Vie ❤

Ne pas être propriétaire ne veut pas dire "ne pas utiliser" ou "ne pas être en symbiose avec", il s'agit justement de remettre l'être humain "en symbiose avec", "en relation avec" ....

Dans tes paroles "potentielle dérive", pour toi aujourd'hui, est-ce à dire qu'il n'y a pas de problèmes? de dérives? d'hubris généralisé? 🙂

autre élément qui va nourrir notre méditation : jusqu'à 4 millions de colis par JOUR en Suisse (période de 🎄), un jour normal dans l'année entre 700'000 et 900'000 colis et c'est grâce à toutes ces personnes qui servent la "Vie" en se l'accaparant (parce que c'est autorisé et valorisé dans notre société) que nous pouvons nourrir majestueusement les décharges à ciel ouvert des quatre coins du monde.... La situation est trop grave pour ne pas être radical ❤


moi:
Aah voilà une jolie suite de commentaires. Je ne sais pas si c'est la meilleure forme de communication. Mais je peux déjà partager mon ressenti face à ces commentaires:
là tu me fait un état du monde. Mais moi c'est pas ce qui m'intéresse. C'était pas le but de mon commentaire. Ce qui m'intéresse c'est l'état de Florian. Est-ce que Florian est en paix avec l'état du monde ou pas ?? (on dirait pas...)

Que pense vraiment Florian quand je lis "dès que tu utilises un objet quel qu'il soit qui peut être accaparé par un autre être humain (dans un jeu compétitif) c'est problématique pour moi... "

Il y a plusieurs interprétations possibles à ton texte, donc je marche sur des oeufs. Mais ce que j'ai ressentis, c'est le "c'est problématique pour moi". Est-ce que tu parles vraiment "pour moi" ou est ce une forme rhétorique pour dire en substance "pour moi, donc de mon point de vue, c'est problématique pour le monde".

C'est des perspectives différentes. En fait peu importe ce que ça voulait vraiment dire, ici ça a provoqué en moi un intérêt de savoir "quelle est la tache aveugle de Florian ?" quelles sont les croyances (limitantes) de Florian ?

Ici j'ai l'impression que prononcer le terme de "capitalisme" c'est un tabou...

"dans tout ce que tu décris concernant les arbres et la forêt, il n'y a pas de capitalisme... Il n'y a qu'Intelligence au service de la Vie"

J'ai l'impression que la compétition est très très chargée de connotation très lourde...

"nous pourrions imaginer une nouvelle société non-compétitive"

"t'inquiètes tu pourras encore t'amuser à être en compétition avec qui tu veux, elle sera juste illégale "

Quand j'observe la nature, je ne vois pas de parti pris, de bien ou de mal. Je vois surtout des stratégies mixtes.

En effet.. Hobbes, la loi de la jungle, la compétition.. le darwinisme social... comme vision du monde unique, pour moi c'est dépassé.
Mais basculer d'un extrême à l'autre aussi... c'est dépassé !
.... le bouquin de Pablo Servigne s'appelle "l'entraide l'autre loi de la jungle"
→"L'autre"... pas "On avait tout faux c'est la coopération qui domine".
Il y a les deux. Compétition ET coopération.
Je milite pour le "ET" et pas l'opposition des "OU" (exclusif)

Pour toi qu prône en permanence "Paix et amour"... J'espère que tu es aussi en paix et amour avec la compétition et avec le capitalisme ?

C'est ici que j'avais envie de questionner... d'inviter à la méditation !
T'as l'air en pleine compétition entre des mots et des concepts....
Ils sont pas tous égaux ?
Si t'aime pas la compétition c'est peut être tu perds trop souvent ? Pourtant il me semble que t'es dans le camps des gagnants non ?

"les nouvelles découvertes scientifiques qui démontrent que la Coopération prime sur la compétition dans la Nature"
→ Donc tu me dis que la coopération a gagné la compétition de la meilleure stratégie ?

C'est le perdant qui veut interdire la compétition pour éviter de perdre, pas le gagnant !
Ça m'étonne que tu veuilles la rendre illégale !

Construire un monde neuf avec des névroses ne me sembles pas très sain... J'aimerai voir des gens en paix pour construire un monde de paix.
Es-tu en paix ?

(je reviendrai plus tard sur les notions de "propriété" et du "droit".. lois constitution... y'a déjà beaucoup ici !)


Permalien
  •  

Mailspring - L'alternative open source à Outlook qui ne vole pas vos mots de passe

Bon, si vous faites partie de ceux qui ont la boule au ventre en lançant le nouveau Outlook de Microsoft, j'ai une petite trouvaille pour vous. En fait, vous ne le savez pas encore mais vos identifiants IMAP partent en vacances sur les serveurs de Redmond. Ouais, Heise Online a levé le lièvre y'a quelques temps maintenant et ça fait pas plaisir. Un peu comme quand Apple avait ses petits soucis avec OCSP , mais en plus brutal.

On va pas se mentir, Thunderbird c'est le patron. C'est libre, c'est robuste, c'est la référence pour chiffrer ses mails . Mais bon... faut avouer qu'il a parfois une tronche à avoir connu Windows 98 (même si ça s'améliore, je vous vois venir les puristes !). Du coup, si vous cherchez un truc qui a de la gueule sans vendre votre âme, jetez un œil à Mailspring.

L'interface est propre, non ? ( Source )

Mailspring, c'est un client mail open source (GPLv3) qui tourne sur Mac, Windows et Linux. Pour la petite histoire, c'est le successeur spirituel de Nylas Mail. Le développeur, Ben Gotow, a repris le bébé et a fait un gros ménage. Le moteur de synchro qui bouffait de la RAM comme un ogre ? Hop, réécrit en C++ (ça s'appelle Mailsync maintenant), du coup ça tourne nickel, c'est fluide et ça pompe pas toute votre batterie.

L'interface est super propre, codée en TypeScript avec Electron et React. Et là je vous entends : "Electron ? Pffff, ça va ramer !". Hé bien non les amis, et c'est justement grâce à ce fameux moteur C++. C'est ça qui est cool. En plus, tout se passe en local sur votre machine. Pas de cloud intermédiaire qui vient renifler vos mails pour vous cibler de pubs.

  • Gestion multi-comptes (IMAP, Gmail, Office 365, iCloud...)
  • Boîte de réception unifiée (le bonheur)
  • Recherche ultra rapide (vraiment)
  • Traduction intégrée
  • Signatures personnalisées

La recherche qui trouve tout en 2 secondes ( Source )

Y'a aussi une version Pro à 8 dollars par mois avec des trucs comme l'envoi différé ou les rappels, mais franchement, pour 99% des gens, la version gratuite suffira laaarge.

Voilà, si vous cherchez une alternative sexy à Outlook qui respecte votre vie privée, Mailspring est une option béton. C'est dispo en téléchargement sur leur site ou via vos gestionnaires de paquets préférés.

Source

  •  

Le NO FAKES Act veut réguler les deepfakes, mais c'est surtout l'open source qui va trinquer

Après le DMCA, après la DADVSI , après SOPA, après PIPA, après EARN IT... voici le NO FAKES Act ! Bref, un nouveau projet de loi américain pondu par des gens qui visiblement n'ont jamais lancé un git clone de leur vie.

Le texte ( S.1367, 119e Congrès , introduit en avril 2025) part d'une intention louable qui est de protéger les gens contre les deepfakes non consentis. Vous savez, ces vidéos truquées où votre tête se retrouve sur un corps qui n'est pas le vôtre, de préférence à poil...

Mais comme toujours, l'enfer est pavé de bonnes intentions et la méthode choisie va potentiellement atomiser tout l'écosystème de l'IA open source.

En fait, une large partie des services qui hébergent du contenu généré par les utilisateurs devront mettre en place une logique de notice-and-staydown basée sur du "digital fingerprinting" afin de pouvoir retirer le contenu signalé et empêcher que les mêmes œuvres réapparaissent après notification. De quoi faire pleurer donc n'importe quel admin sys qui a déjà dû gérer un serveur de modération.

Et là où ça se corse c'est que contrairement au DMCA et ses exceptions , ce texte ne prévoit pas de véritable mécanisme de contre-notification façon DMCA. Quelqu'un signale votre contenu comme étant un deepfake ? Hop, c'est retiré. Vous pensez que c'est une erreur ? La seule voie prévue pour espérer une remise en ligne passe par une action en justice (sous 14 jours) contre l'expéditeur de la notification. Alors direction le tribunal fédéral, les amis...

Et les coûts de conformité estimés par la CCIA donnent le vertige car en moyenne, ça devrait tourner à environ 1,64 million de dollars la première année pour une simple startup. Et je ne parle même pas des projets open source qui distribuent des modèles d'IA générative... Comment Stable Diffusion ou Whisper pourraient-ils implémenter du fingerprinting sur des modèles que n'importe qui peut télécharger et faire tourner localement ? Mystère et boule de gomme !

Le truc bien moche, c'est que le texte prévoit des dommages et intérêts pouvant grimper jusqu'à 750 000 dollars par œuvre pour les plateformes non conformes. Autrement dit, si une plateforme ne réagit pas correctement après notification, elle peut devenir bien plus exposée à ce que font ses utilisateurs avec des outils d'IA... Voilà donc de quoi sérieusement refroidir les ardeurs de quiconque voudrait partager un petit modèle open weights.

Dans un autre style, ça me rappelle l'affaire youtube-dl où le DMCA avait été utilisé pour faire retirer un outil open source de GitHub sauf que là, on passe à l'échelle supérieure.

Voilà donc encore un lance-flammes législatif imaginé pour tuer une mouche et malheureusement, l'open source risque d'être le dommage collatéral de ce texte mal calibré.

Voilà les amis... l'avenir de l'IA ouverte pourrait bien se jouer dans les mois qui viennent aux US, et ça, ça va faire mal.

Source

  •  

SHM - La télémétrie qui respecte vos utilisateurs

Si vous développez un logiciel open source auto-hébergé, vous connaissez sûrement ce dilemme qui est de comment savoir si votre projet est réellement utilisé sans devenir l'affreux Big Brother que vous combattez ? Soit vous ne mesurez rien et vous codez dans le vide, soit vous collez du Google Analytics ou assimilé et vous trahissez l'esprit même du self-hosting.

Benjamin Touchard (que certains d'entre vous connaissent peut-être via son projet Ackify ) a décidé de résoudre ce problème avec SHM, pour Self-Hosted Metrics . Son idée c'est de proposer une télémétrie respectueuse de la vie privée, où chaque instance génère sa propre identité cryptographique dès le premier démarrage.

Concrètement, quand vous intégrez le SDK dans votre application (dispo en Go et Node.js 22+), chaque installation génère une paire de clés Ed25519, un peu comme quand vous générez vos clés SSH pour la première fois. Tous les échanges avec votre serveur SHM sont ensuite signés cryptographiquement, ce qui garantit l'intégrité des requêtes et leur origine. L'instance a une identité persistante (pseudonyme), mais ça n'identifie pas l'utilisateur final.

Côté données collectées, ensuite c'est vous qui décidez. Votre app envoie périodiquement un JSON avec les métriques que vous avez définies, et le dashboard s'adapte dynamiquement. Y'a pas de schéma imposé, pas de PII (données personnellement identifiables) et par défaut, le SDK collecte aussi des infos système (OS, CPU, RAM), mais c'est désactivable.

Pour ceux qui veulent héberger le bouzin, c'est du Docker classique... Vous créez un fichier compose.yml, vous configurez le DSN PostgreSQL, vous récupérez les migrations SQL, et hop un docker compose up -d. Le dashboard est alors accessible par défaut sur le port 8080 et affiche automatiquement vos métriques métier, la distribution des versions, le nombre d'instances actives, etc.

Et pour les utilisateurs finaux qui ne veulent vraiment pas participer, un simple DO_NOT_TRACK=true dans les variables d'environnement désactive complètement la télémétrie.

Le code du serveur est sous licence AGPL (les SDKs ont leur propre licence, vérifiez sur le dépôt) et y'a aussi des badges SVG à coller dans vos pages README pour afficher fièrement le nombre d'instances de votre app qui tournent.

Bref, si vous distribuez un logiciel auto-hébergé et que vous voulez savoir combien d'instances sont actives sans compromettre la vie privée des utilisateurs, c'est le top !

Merci à Benjamin pour le partage !

  •  

Quake Brutalist Jam III - 77 maps gratuites qui envoient du béton

Quake, le FPS de 1996, vous connaissez forcément. Et si vous êtes du genre à traîner sur les forums de modding, vous savez que la communauté autour de la légende d'id Software refuse obstinément de mourir. Du coup, quand un projet rassemble des dizaines de mappeurs durant un an pour pondre 77 excellentes maps, ça mérite qu'on en parle !

Quake Brutalist Jam III vient de sortir et le résultat est dingue car ce n'est pas un simple pack de cartes, mais d'une vraie conversion totale du jeu avec un arsenal entièrement redessiné, de nouveaux monstres et une refonte visuelle complète du bestiaire original. Bref, c'est un nouveau jeu qui tourne sur le moteur du shooter culte.

L'ambiance béton brut de Quake Brutalist Jam III ( Source )

Le projet a été cuisiné à feu doux pendant plus d'un an par Makkon et Fairweather, les deux co-directeurs. Et en octobre 2025, ils ont lâché leur mod en work-in-progress à la communauté qui s'est ensuite déchaînée pendant 7 semaines pour créer les 77 maps que vous pouvez télécharger aujourd'hui. Et pas qu'un peu déchaînée vu la quantité de contenu !

Côté gameplay, y'a de quoi faire puisque le nouvel arsenal embarque un Rebar Gun, un Invoker et un Flak Gun qui viennent remplacer ou compléter les armes classiques. Les ennemis aussi ont eu droit à du neuf avec les Rocket Soldiers (fodder longue portée bien énervant), les Swarmers et Sploders (petits monstres de mêlée parfaits pour les embuscades), et l'Amalgam... un gros monolithe de béton volant fait de bouches (si si). D'ailleurs, le powerup Vampirism transforme les kills en orbes de vie façon Doom 2016, ce qui encourage à rusher comme un bourrin pour survivre. Les amateurs de DOOM Retro vont adorer.

Et le plus beau c'est que c'est 100% gratuit et vous n'avez même pas besoin de posséder le jeu original ! L'équipe propose une version standalone qui embarque LibreQuake et le moteur Ironwail. Vous téléchargez, vous lancez, vous jouez. Pour ceux qui se demandent quel autre jeu a débuté comme un mod de son FPS original... Team Fortress par exemple ! La tradition du modding qui engendre des légendes continue...

Par contre attention, le mod a été conçu spécifiquement pour Ironwail (version 0.8.1 minimum). Si vous essayez avec le Quake Remaster officiel ou d'autres source ports, attendez-vous à des problèmes. C'est un peu comme la communauté de SimCity 4 qui maintient son jeu vivant depuis 22 ans avec des mods maison... les passionnés ont leurs outils préférés !

Bref, si ça vous chauffe de découvrir ce que des fans peuvent créer quand on leur laisse le temps, c'est téléchargeable sur Slipseer .

Avec 77 maps à explorer, vous avez de quoi vous occuper less week-ends.

Source

  •  

Bose libère l'API de ses enceintes SoundTouch avant leur fin de vie

Si comme moi vous avez une enceinte Bose SoundTouch qui traîne chez vous, vous avez peut-être appris que la bestiole allait bientôt perdre son cerveau "cloud". Bose a en effet annoncé la fin du support pour le 6 mai 2026, et de ce que j'ai compris, ça veut dire que votre enceinte va se transformer en brique connectée qui ne se connecte plus à grand chose.

Sauf que non !

Bose a fait un truc plutôt cool puisqu'ils ont publié la documentation complète de l'API locale de leurs enceintes . Du coup, même quand les serveurs Bose fermeront boutique, vous pourrez continuer à bidouiller votre enceinte en local.

Perso, j'ai une petite SoundTouch 10 qui fait bien le boulot depuis des années, donc cette nouvelle me fait plutôt plaisir ! L'API tourne sur deux ports : le 8090 pour les commandes REST classiques (volume, presets, now_playing...) et le 8080 en WebSocket pour les notifications en temps réel. Le protocole s'appelle "gabbo", et avec ça, y'a de quoi faire le ménage dans vos automatisations.

Un petit curl http://votre-enceinte:8090/volume et vous récupérez le niveau sonore. Un autre sur /presets et vous avez vos stations favorites. Et comme la découverte se fait en SSDP ou MDNS, ça s'intègrera nickel avec n'importe quel système domotique.

Et visiblement la communauté n'a pas attendu pour s'y mettre puisqu'il y a déjà plus d'une centaine de projets sur GitHub qui exploitent cette API. Le plus abouti c'est probablement SoundTouchPlus pour Home Assistant, qui permet de contrôler toute la famille d'enceintes depuis votre dashboard.

Après ce qui va disparaître avec le cloud, c'est surtout les presets synchronisés et le streaming direct depuis l'app Bose. Mais le Bluetooth, l'AirPlay, Spotify Connect et le multiroom resteront fonctionnels et avec l'API locale, vous pouvez recréer vos presets en dur. Ouf !

C'est un peu le même délire que ce qui s'est passé avec les thermostats Nest ... quand le fabricant lâche l'affaire, c'est la communauté qui prend le relais sauf qu'ici, Bose joue le jeu en documentant proprement leur API avant de couper les serveurs. Et ça, c'est suffisamment rare pour être souligné !

Voilà... Si vous avez des SoundTouch, allez jeter un œil à l'API avant mai, histoire de préparer votre migration vers du 100% local.

Source

  •  

Contrib.FYI – Le site qui vous aide à contribuer à l'Open Source

Vous avez envie de contribuer à l'Open Source, et c'est tout à votre honneur. Alors vous vous dites "Allez, ce week-end, je plie ma première Pull Request". Et là, c'est le drame. Vous arrivez sur GitHub, vous tapez trois mots-clés, et vous vous retrouvez noyé sous des milliers d'issues datant de 2014, des projets abandonnés ou des tâches qui demandent un doctorat en physique quantique.

Décourageant un peu non ?

Parce qu'on connaît tous cette sensation de tourner en rond en cherchant le fameux ticket "Good First Issue" qui ne soit pas juste "corriger une faute de frappe dans le README", j'ai décidé aujourd'hui, de vous aider ! Grâce notamment à une véritable boussole dans cette jungle open source, nommée Contrib.FYI .

L'interface épurée pour trouver votre prochaine mission ( Source )

Ce site c'est un moteur de recherche ultra-minimaliste qui agrège les tâches étiquetées "Help Wanted" et "Good First Issue" à travers tout l'écosystème GitHub.

Développé par un certain k-dash, ça se présente comme un tableau de bord où vous pouvez filtrer les opportunités, et c'est beaucoup plus agréable que la recherche native de GitHub qui est aussi accueillante qu'une administration française un lundi matin.

Vous avez même une fonctionnalité "My Picks" pour mettre de côté les tickets qui vous tapent dans l’œil, histoire de ne pas les perdre si vous devez aller promener le chien entre temps. Une autre feature sympa, c'est l'historique "Recently Viewed" qui permet de retrouver une issue après qu'on ait fermé un onglet par erreur.

Alors oui, des agrégateurs comme ça, il en existe d'autres. Je pense évidemment à GoodFirstIssue.dev ou CodeTriage mais Contrib.FYI a ce petit côté outil fait par un dev pour des devs qui ne cherche pas à vous vendre une formation ou à vous faire rejoindre une newsletter.

Du coup, maintenant vous n'avez plus d'excuse pour ne pas mettre les mains dans le cambouis. Que vous soyez un vétéran du code qui veut juste dépanner sur du Rust ou un débutant qui veut comprendre comment fonctionne une PR, y'a de quoi faire !

Et si vous cherchez d'autres outils pour pimper votre expérience GitHub, je vous avais déjà parlé de Git-Who pour analyser vos contributions ou encore de GitHub2File pour donner du contexte à vos IA préférées. Allez jeter un oeil, ça vous plaira peut-être !

  •  

ContainerNursery - Mettez vos conteneurs Docker en veille et réveillez-les sur demande

Voilà un outil qui va faire plaisir aux possesseurs de homelabs qui surveillent leur consommation de ressources comme le lait sur le feu !

Car si vous êtes comme moi, vous avez probablement une ribambelle de conteneurs qui tournent H24 sur votre bécane. Et je vous raconte pas tous ceux qui tournent alors que je m'en sers qu'une fois par an... breeeef...

Car même si un processus en "idle" ne consomme pas forcément grand-chose, c'est quand même un peu moisi de laisser tourner des services pour rien, non ? (oui, j'ai une âme d'écologiste de la ressource système). D'ailleurs si vous cherchez une solution d' authentification légère pour vos conteneurs Docker , y'a des solutions qui vont dans le même sens.

C'est là qu'intervient ContainerNursery , un petit utilitaire écrit en Node.js qui se comporte comme un reverse proxy intelligent qui va tout simplement stopper vos instances Docker quand aucune requête HTTP ou connexion WebSocket n'est détectée pendant un certain temps, et les redémarrer d'un coup de baguette magique dès qu'une nouvelle requête pointe le bout de son nez.

Pour ceux qui se demandent s'il est possible de mettre en pause un conteneur proprement, sachez que ContainerNursery va plus loin que le simple docker pause. Il arrête carrément le conteneur pour libérer la RAM et éviter les réveils CPU inutiles. Et il ne fait pas ça à la sauvage puisqu'il vérifie par exemple s'il n'y a pas de connexions WebSocket actives proxifiées avant de tout couper.

Hé oui, quand on n'est pas un connard, on évite de déconnecter un utilisateur en plein milieu de sa session.

D'ailleurs, pour ne pas faire fuir vos visiteurs pendant que le conteneur sort de sa sieste, l'outil affiche une page de chargement sympa qui se rafraîchit toute seule dès que votre serveur est prêt à envoyer la sauce.

Côté bidouille, on reste sur du classique. Tout se règle dans un fichier config.yml.

En plus des domaines et des noms de conteneurs, vous devrez spécifier le proxyHost et le proxyPort pour que l'aiguillage se fasse correctement. Vous définissez ensuite le timeout au bout duquel tout le monde doit aller au dodo. Vous pouvez même lui dire de ne pas couper si l'utilisation moyenne du CPU dépasse un certain seuil (exprimé en pourcentage de 0 à 100 × le nombre de cœurs), histoire de ne pas flinguer un calcul lourd en cours. Si vous avez besoin de gérer plusieurs services, Nginx Proxy Manager peut compléter parfaitement cette solution.

Pour le lancer, rien de plus simple :

docker run \
 --name='ContainerNursery' \
 -v /var/run/docker.sock:/var/run/docker.sock \
 -v /mnt/ContainerNursery/config:/usr/src/app/config \
 ghcr.io/itsecholot/containernursery:latest

Petit rappel de sécurité quand même... Essayez de placer un autre reverse proxy (genre Nginx ou Traefik) devant ContainerNursery pour gérer le HTTPS proprement, car ce dernier écoute en HTTP par défaut.

Quant au gain sur votre facture d'électricité, il dépendra évidemment de la charge réelle évitée, mais sur une grosse machine avec des dizaines de services, ça finit par compter.

Bref, c'est le genre de petit outil qui ne paie pas de mine mais qui permet de gagner pas mal de temps et surtout d'optimiser ses ressources sans se prendre la tête. On garde bien sûr la vieille carabine de pépé sous le lit pour les urgences, mais pour le reste, on laisse ContainerNursery gérer la crèche.

Un grand merci à Mickaël pour l'info !

  •  

Multi Theft Auto ressuscite sur GitHub après l'échec juridique de Take-Two

Et voici que voilà que voici le grand retour de Multi Theft Auto sur GitHub !!!

Vous vous souvenez peut-être de ce mod légendaire qui a permis à des millions de joueurs de transformer GTA San Andreas en véritable MMO de quartier depuis février 2003. C'est quand même, un projet open source qui a survécu à plus de 20 ans de cohabitation plus ou moins paisible avec Rockstar et sa maison mère Take-Two Interactive.

Le multijoueur de MTA San Andreas en action

Sauf que voilà, en décembre 2025, Take-Two a décidé de sortir l'artillerie lourde en balançant un DMCA sur le dépôt GitHub, prétextant que le code source de MTA contenait du "code source divulgué" de leurs précieux jeux. Une accusation assez débile quand on sait que le projet fonctionne par injection de code dans le jeu original, n'en déplaise aux juristes de Take-Two qui semblent avoir du mal avec les nuances techniques.

Du coup, l'équipe de MTA n'a pas tremblé et a déposé une contre-notification le 22 décembre dernier. Cela à permis à GitHub de laisser 10 à 14 jours ouvrés à l'accusateur pour engager une action en justice et passé ce délai, le repo devait revenir en ligne automatiquement.

Sans surprise, Take-Two n'a jamais donné suite. Le dépôt est donc de retour avec ses centaines de contributeurs qui peuvent enfin respirer, et bien sûr c'est toujours sous licence GPL-3.0, histoire de rappeler que le code appartient à la communauté.

C'est quand même moche ces géants qui tentent d'écraser les projets de préservation alors que ces derniers ne font que maintenir vivante une partie de notre patrimoine gaming, lâchement abandonné par leurs éditeurs.

Allez, une victoire de plus pour les moddeurs, ça fait du bien !

Source

  •  

Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi

Aujourd’hui, je vous propose de découvrir Pimmich, un cadre photo connecté open source basé sur Raspberry Pi, pensé pour afficher vos souvenirs sans cloud ni abonnement, en restant 100% local. Avec les récents changements côté Google Photos, beaucoup d’entre vous ont dû revoir leurs habitudes… et Aurélien a eu le bon réflexe : s’appuyer sur […]

Cet article Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

  •  

CrossPaste - Le presse-papier universel qui se synchronise entre toutes vos machines

Vous connaissez ce moment relou où vous copiez un truc sur votre PC et vous vous retrouvez comme un idiot devant votre Mac parce que le presse-papier ne suit pas ? Hé bien y'a une solution open source qui règle ce problème, et elle s'appelle CrossPaste .

Vous installez l'app sur tous vos appareils (Windows, macOS, Linux) et hop, tout ce que vous copiez sur l'un se retrouve automatiquement disponible sur les autres. Du texte, des images, des URLs, du HTML, du RTF, des fichiers... Tout y passe. Et le truc cool c'est que ça fonctionne sur votre réseau local en mode "LAN-only serverless", donc vos données ne transitent pas par un serveur central quelque part dans le cloud de Donald Duck, euh Trump.

Car oui, la sécurité c'est pas en option avec CrossPaste. Toutes les données sont chiffrées de bout en bout avec un système de chiffrement asymétrique. Du coup, même si quelqu'un sniffe votre réseau local (votre voisin super haxxor par exemple), il ne verra que du charabia incompréhensible. Et comme y'a pas de serveur central, y'a rien à pirater côté infrastructure non plus.

L'interface est unifiée sur toutes les plateformes grâce à Compose Multiplatform (c'est du Kotlin sous le capot pour les curieux) et vous avez un historique de tout ce que vous avez copié, avec une gestion automatique du stockage pour pas que ça finisse par bouffer tout votre disque dur. Pratique pour retrouver ce lien que vous aviez copié y'a 3 jours et que vous avez oublié de sauvegarder quelque part...

Le projet est sous licence AGPL-3.0, donc c'est du vrai open source avec le code disponible sur GitHub. Si vous êtes du genre à vouloir bidouiller ou simplement vérifier qu'il n'y a pas de cochonneries planquées dedans, vous pouvez compiler vous-même. Y'a juste besoin de Gradle et d'un ./gradlew app:run pour compiler et lancer le tout.

Bref, si vous jonglez entre plusieurs machines au quotidien et que vous en avez marre de vous envoyer des trucs par email ou par Slack juste pour les avoir sur un autre ordi, CrossPaste ça va vous faire économiser pas mal de temps et d'énergie. Et en plus c'est gratuit \o/

Merci à Lorenper pour l'info !

Source

  •  

Web-Check - Radiographiez n'importe quel site en un clic

Vous vous êtes déjà demandé ce que cache vraiment un site web ? Genre, au-delà de sa jolie façade ? Hé bien je vous présente Web-Check , un scanner OSINT qui va déshabiller n'importe quel domaine pour vous montrer tout ce qui se passe sous le capot.

Je vous ai déjà parlé d'OSINT.rocks qui centralise pas mal d'outils d'investigation. Et bien là, c'est un peu le même délire mais orienté analyse de sites web. Vous balancez une URL et hop, le projet vous ressort un rapport complet avec tout ce qu'il y a à savoir : certificat SSL, enregistrements DNS, en-têtes HTTP, géolocalisation du serveur, ports ouverts, stack technique utilisée... Bref, une vraie radio du site.

Ce qui est cool avec cette boîte à outils, c'est qu'elle ne se contente pas de gratter la surface puisque ça effectue plus de 30 types d'analyses différentes ! Vous voulez savoir si un site utilise un WAF (Web Application Firewall) ? Vérifier la configuration email (SPF, DKIM, DMARC) ? Voir l'historique du domaine via la Wayback Machine ? Tout est possible ! Et même les Core Web Vitals pour les obsédés de la performance !

Pour l'installer, c'est ultra simple. Si vous êtes team Docker (et vous devriez l'être), une seule commande suffit :

docker run -p 3000:3000 lissy93/web-check

Et vous avez votre instance perso qui tourne sur localhost:3000. Pas besoin de galérer avec des dépendances ou de configurer quoi que ce soit. Du coup, vous pouvez scanner vos propres sites sans que vos requêtes passent par un service tiers.

Pratique pour les paranos de la vie privée !

Le projet tourne sous TypeScript avec Astro en front, et tout le code est disponible sur GitHub sous licence MIT. Ça veut dire que vous pouvez le modifier, l'héberger où vous voulez, et même contribuer si le coeur vous en dit.

La partie détection de stack technique me plait beaucoup. C'est un peu comme ce que fait SSH-Audit pour les serveurs , sauf que l'outil identifie automatiquement les frameworks, CMS, bibliothèques JavaScript et autres composants utilisés par un site. Super utile donc pour les pentesters qui veulent mapper rapidement une cible, ou simplement pour les curieux qui se demandent "tiens, c'est quoi cette techno qu'ils utilisent ?".

Vous avez aussi une démo en ligne sur web-check.xyz si vous voulez tester avant d'installer quoi que ce soit. Mais bon, pour une utilisation régulière, je vous conseille vraiment l'instance locale. C'est plus rapide et vous gardez le contrôle sur vos données.

Voilà, si vous bossez dans la sécu, si vous êtes journaliste d'investigation, ou si vous êtes juste curieux de savoir ce que racontent les sites que vous visitez, ce scanner OSINT devrait rejoindre votre boîte à outils.

Allez jeter un œil, et vous me remercierez je pense !

  •  
❌