Vue lecture

Grafik Labor 2026 – Appel à conférenciers et à stands

Création graphique, artistique et outils libres

GrafikLabor revient le samedi 4 avril 2026 à Rennes, dans les locaux d’Activdesign, pour sa huitième édition dédiée aux logiciels libres, aux pratiques créatives ouvertes et aux artistes, designers et développeurs qui les utilisent au quotidien. Issu du LibreGraphicsMeeting, l’esprit se veut ouvert aux diverses pratiques créatives, aux différents secteurs de création graphique pourvu qu’ils mettent en avant les outils, les licences ou du contenu libre.

À cette occasion, l’équipe d’organisation de l’AFGRAL lance un appel à conférenciers et à stands.

Pour rappel, GrafikLabor est un événement communautaire associatif. Il s’adresse aux personnes qui utilisent, développent ou promeuvent des logiciels libres dans leurs pratiques créatives : graphisme, illustration, jeux vidéos, édition, UX/UI, web, motion, 3D, typographie, etc.

L’événement met l’accent sur :

  • les retours d’expérience concrets
  • les choix d’outils et de workflows
  • la transmission de savoirs
  • les enjeux culturels et politiques du logiciel libre dans la création

Appel à conférenciers

Nous recherchons des propositions de conférences ou de présentations autour de, par exemple :

  • création graphique et artistique avec des outils libres (GIMP, Inkscape, Krita, Scribus, Blender etc.)
  • UX/UI, design web ou produit avec des stacks open-source
  • typographie, édition, illustration ou motion en environnement libre
  • jeux vidéo réalisés avec outils libres comme Godot
  • automatisation, scripts, bidouille et détournement d’outils
  • retours d’expérience d’artistes, studios, collectifs ou associations
  • réflexions sur l’autonomie, la pérennité et l’éthique des outils

Les formats peuvent être variés : talk, démo, étude de cas, retour d’expérience, atelier.

Modalités de participation

L’appel est ouvert, mais la programmation se fait sur sélection afin de garantir la cohérence de l’événement.

Les propositions se font en deux étapes :

  • un formulaire de prise de contact (nom, email, motivation)
  • après validation, l’envoi d’un lien vers le formulaire de proposition détaillée

L’événement est aussi ouverts aux sponsors ou aux associations qui aimeraient avoir un stand faire connaitre leur activité.

Informations pratiques

Date : vendredi 4 avril
Lieu : Activdesign, Rennes
Public : artistes, designers, développeurs, étudiants et personnes intéressées par le libre

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Garages fantômes : une escroquerie moderne aux conséquences bien concrètes

Une escroquerie dite des « garages fantômes » a récemment fait plus de quinze victimes, causant un préjudice supérieur à 400 000 euros. Au centre de cette fraude, des milliers d’automobilistes ont été enregistrés à leur insu dans de faux établissements. Grâce à cette usurpation d’identité, les escrocs parviennent à éviter les amendes en les […]

The post Garages fantômes : une escroquerie moderne aux conséquences bien concrètes first appeared on UnderNews.
  •  

La gamme Kingston IronKey Keypad 200 obtient la certification FIPS 140-3 de niveau 3 du NIST

Kingston Digital Europe Co LLP, filiale chargée des mémoires Flash de Kingston Technology Company, Inc., leader mondial des produits mémoire et des solutions technologiques, annonce sa gamme primée de clés USB à chiffrement matériel Kingston IronKey Keypad 200 (KP200 ET KP200C). La gamme a obtenu la certification FIPS 140-3 niveau 3 du NIST,certificat n° 5133. Avec […]

The post La gamme Kingston IronKey Keypad 200 obtient la certification FIPS 140-3 de niveau 3 du NIST first appeared on UnderNews.
  •  

L’évaluation cyber des filiales : un impératif stratégique

Dans un écosystème globalisé, assurer une sécurité cohérente à travers toutes les filiales d’un groupe est un défi stratégique. L’évaluation cyber des filiales s’assure que les principes et mesures définis au niveau du groupe sont bien appliqués localement, prenant en compte les spécificités et risques propres à chaque entité. Dans ce contexte, industrialiser sa démarche […]

The post L’évaluation cyber des filiales : un impératif stratégique first appeared on UnderNews.
  •  

📰 Revue de presse — janvier 2026

Pour bien commencer cette année 2026, les kiosques ont fait le plein de nouveautés pour les passionnés de logiciel libre, de DIY et de sécurité que vous êtes. Entre l'intégration de l'IA locale, la maîtrise de Git et les enjeux de la directive NIS2, voici un petit panorama, forcément subjectif et parti{e,a}l, de la presse papier (et en ligne) disponible en ce début d'année.

Image une de Journal

Voici donc les nouveautés sorties en janvier 2026 des éditions Diamond et disponibles jusqu'à fin février, peu ou prou. Pour rappel, Linux Pratique est devenu SysOps Pratique, pour acter un état de fait et mieux refléter son contenu dédié aux administrateurs de systèmes libres et open source.

  • GNU/Linux Magazine France no 279 utilise Git au quotidien (suite d'une série d'articles sur le sujet) ;
  • SysOps Pratique no 153 rend vos documents requêtables avec une IA locale ;
  • MISC magazine no 143 se penche sur la sécurité des claviers et des souris sans fil ;
  • Hackable no 64 vous initie au pentest NFC sans vous ruiner ;
  • MISC hors-série no 34 crée votre boîte à outils de détection de failles.

Et les éditions Diamond fêtent toujours leurs 30 ans. À cette occasion, elles proposent de (re)découvrir l'une de leurs publications en offrant le numéro 270 de GNU/Linux Magazine via leur support de lecture en ligne, Kiosk Online (en HTML).

Les sommaires des numéros de janvier 2026

Mosaïque des couvertures GLMF 279 Mosaïque des couvertures SOP 153 Mosaïque des couvertures MISC 143 Mosaïque des couvertures HK 64 Mosaïque des couvertures MISC HS 34

GNU/Linux Magazine numéro 279

Au sommaire de ce numéro de janvier — février 2026 :

  • Utilitaires bash d'aide au développement de shell scripts ;
  • Une interface homme-machine hybride : terminal et navigateur HTML embarqué dans une même application C++/Qt 5 ;
  • Git au quotidien ;
  • Tris et permutations dans les bitmaps ;
  • Les codes fantastiques : une situation pas COMMON ;
  • Carte PCIe CH368 et pilotage depuis l'espace utilisateur : récit d'un échec.

SysOps Pratique numéro 153 (ex Linux Pratique)

Au sommaire de ce numéro de janvier — février 2026, devenu SysOps Pratique :

  • Surveiller, détecter, devancer : la démarche proactive du CERT Aviation ;
  • PostgreSQL, version 18 : lectures asynchrones et authentification Oauth ;
  • Rendre vos documents requêtables avec une IA ;
  • Garage, l’alternative libre au stockage en datacenter ;
  • NFS et Kerberos, partie 1 : le règne de l’UID ;
  • L’approche People/Process/Technology, un allié pour prendre en compte la sécurité dans les projets ;
  • « Day One Operations » avec Ansible : mise à jour d’un cluster Apache Kafka.

MISC Magazine numéro 143

Au sommaire de ce numéro de janvier — février 2026 :

  • Hackers et cinéma : entre mythe et réalité ;
  • Étude des risques applicatifs liés au déploiement d’une IA générative côté client ;
  • Claviers et souris sans fil 2,4 GHz : une surface d'attaque méconnue ;
  • Bluetooth Low Energy : dissection d'un protocole entre innovation énergétique et défis de sécurité ;
  • C sans frontières : une extension de C avec vérification de bornes ;
  • Reprenez le contrôle des utilisateurs racines dans votre organisation AWS ;
  • Vulnerability Operations Center : l'arme stratégique pour maîtriser NIS 2 et le Cyber Resilience Act ;

Hackable numéro 64

Au sommaire de ce numéro de janvier — février 2026 :

  • Débugger un système embarqué avec GDB et JTAG : mauvais élèves, boundary scan et systèmes asymétriques ;
  • Proxmark 3 Easy et Chameleon Ultra : la guerre des clones, ou pourquoi « se mettre à le NFC » n'a jamais été aussi peu cher ;
  • Colorlight 5A-75B : développement FPGA avec LiteX et petits hacks ;
  • DigiLab : transformez votre Flipper Zero en boîte à outils pour l'électronique ;
  • Inverser un bus de données le rend plus sobre et fiable ;
  • Créons un périphérique « maison » pour notre SoC LiteX ;
  • Intégrons des IP cores HDL à nos projets LiteX.

MISC hors‑série numéro 34

Au sommaire de ce numéro hors-série de février — mars 2026 :

  • Explorer de nouveaux leviers d’action pour mieux protéger : au cœur du laboratoire d’innovation de l’ANSSI ;
  • Dossier : Créez votre boîte à outils de détection de failles ;
    • LSan : de l’ELF à la détection de fuite ;
    • Valgrind, MSan, ASan, frères ennemis ?
    • TySan vs. -fno-strict-aliasing ;
    • Avec UBSan, C finit l’indéfini ;
    • Sanitizers, valgrind et débugueurs ;
  • Techniques ultimes de protection contre l’interception réseau sous Android.

Télécharger GNU/Linux Magazine numéro 270

Pour le récupérer, il suffit de

  1. se connecter ou de créer un compte sur leur boutique en ligne ;
  2. d'ajouter le numéro 270 de GNU/Linux Magazine à votre panier en sélectionnant bien le support Kiosk Online avant ;
  3. d'indiquer le code de remise ED30LINUXFR lors de la validation de la commande.

Bonnes lectures !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Nouvelles sur l’IA de janvier 2026

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Anthropic public la Constitution de Claude

Tout le monde maintenant connait le principe du pré-entrainement des LLMs : sur un corpus de texte énorme, essayer de prédire le mot suivant, étant donnés les mots précédents.

Ceci n’est cependant que la première phase pour arriver à une IA de type « chatbot » moderne : vient ensuite le post-entrainement, qui consiste à entraîner le modèle à se comporter comme un assistant (par exemple, un modèle de langage brut peut très bien compléter la question par « Quelle est la couleur du ciel ? » par une autre question « Quelle est la forme des arbres ? », pensant compléter le début d’une interrogation poétique — alors qu’on veut qu’un assistant… réponde à la question), et la « politique » que suit cet assistant (par exemple, ne pas aider ou inciter à des actions illégales).

(il y a ensuite une phase de Reinforcement Learning from Verifiable Rewards (RLVR), une phase d’entraînement sur des exercices mathématiques et de programmation pour entraîner le modèle à utiliser correctement les chaînes de raisonnement, mais ce n’est pas le sujet qui nous intéresse ici)

Bien que les détails exacts ne soient pas connus, dans les grandes lignes, cet entraînement consiste généralement à demander à des opérateurs humains de juger la pertinence (ou non) d’une réponse, ou de s’aider d’une IA pré-existante pour se faire.

Anthropic, il y a maintenant un peu plus de trois ans, a publié une méthode alternative, Constitutional AI, ou une IA « s’auto-entraîne », sur la base d’un document fondateur, une sorte de « constitution ».

Et aujourd’hui, Anthropic publie la constitution de Claude, son IA, sous une licence libre très proche du domaine public (CC0 1.0).

La première chose que l’on peut remarquer est la liste des auteurs. L’autrice principale du document est Amanda Askell, une philosophe écossaise. Le second auteur listé est Joe Carlsmith, un autre philosophe. À noter également que Claude lui-même est cité comme un contributeur important du document.

Le document est structuré en six sections. L’introduction pose le contexte et l’objectif du document, et présente les « valeurs fondamentales de Claude », en ordre d’importance :

  1. Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.

  2. Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.

  3. Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.

  4. Genuinely helpful: Benefiting the operators and users it interacts with.

Traduction :

  1. Globalement sûrs : Ne pas compromettre les mécanismes humains appropriés pour superviser les dispositions et les actions de l’IA pendant la phase actuelle de développement.

  2. Globalement éthiques : Avoir de bonnes valeurs personnelles, être honnête et éviter les actions inappropriées qui sont dangereuses ou nuisibles.

  3. Conformes aux directives d’Anthropic : Agir conformément aux directives plus spécifiques d’Anthropic lorsqu’elles sont pertinentes.

  4. Véritablement utiles : Apporter un bénéfice aux opérateurs et aux utilisateurs avec lesquels il interagit.

Chacune des quatre sections suivantes rentre dans les détails de ces valeurs. Une section entière est ensuite consacrée à une discussion sur « la nature de Claude » (à quel point est-il raisonnable/correct de lui attribuer des attributs humains tels qu’une conscience ?). La dernière section est une conclusion.

L’intention derrière ce document est explicite : Anthropic est convaincu qu’avec le progrès rapide de l’IA, l’IA prendra de plus en plus d’influence sur le cours de nos sociétés et de nos vies, potentiellement jusqu’à atteindre un stade où la plupart des décisions économiques et politiques seront dans les mains dans l’IA, et cherche à développer un cadre où un tel scénario conduirait tout de même à des conséquences bénéfiques.

En vrac

Un youtubeur (Dwarkesh Patel, connu pour ses interviews en profondeur) et un économiste (Philip Trammel) lancent une discussion intéressante sur le sujet des inégalités dans un monde où l’objectif de la plupart des développeurs d’IA est d’atteindre (l’IAG). Dans un billet, Le Capital au 22ᵉ Siècle (une référence ouverte à l’œuvre de Thomas Piketty), ils développent leur thèse : dans un monde où l’IAG peut s’acquitter de n’importe quelle tâche intellectuelle (et, à travers la robotique, physique), les inégalités ne peuvent que s’accroire sans limites. Cette thèse rejoint celle, publiée il y a un peu moins d’un an, du Gradual Disempowerment.

Anthropic lance Claude Coworks, une variante de Claude Code, principalement codée par Claude Code. Même principe que les assistants de code : l’utilisateur donne accès à un dossier à l’IA, et lui demande de compléter des tâches. La différence avec Claude Code est que cette variante vient avec une interface graphique et est à destination de non-informaticiens.

Sur l’impact de l’IA sur le monde professionnel, une nouvelle étude tente de mesurer quantitativement l’effet de l’amélioration des modèles sur des tâches professionnelles réelles. Les résultats principaux : les modèles plus avancés augmentent la productivité, mais pas la qualité.

OpenAI s’apprête à lancer ChatGPT Health, un mode spécial dans leur application permettant entre autres de partager certaines de vos données médicales avec le modèle. Également une offre orientée professionnels de santé, OpenAI for Healthcare. Anthropic annonce une offre similaire, Claude for Healthcare. Parallèlement, l’État de l’Utah lance un test sur le renouvellement de prescriptions de médicaments par l’IA pour des maladies chroniques.

Google lance Universal Commerce Protocol, une interface générique entre l’IA et les systèmes d’e-Commerce.

OpenAI se prépare à intégrer des publicités dans ChatGPT. Anectode amusante : Sam Altman en octobre 2024 avait décrit l’intégration de publicités comme une solution de dernier recours.

Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) se positionnent en faveur d’un ralentissement du développement de l’IA au Forum de Davos, mais en pointant que ce ralentissement ne peut être fait unilatéralement par un acteur seul. Dario Amodei précise sa pensée dans un nouvel essai, The Adolescence of Technology.

Tout le monde sait maintenant que les LLM sont entraînés sur une quantité massive de texte. Par conséquent, les LLM sont capables de simuler une grande variété de « narrateurs » ou « personnalités ». Les modèles sont ensuite entraînés pour ne rester que dans une seule personnalité (« l’assistant »). Dans un nouveau papier, Anthropic étudie cet « espace de personnalités ».

Anthropic publie son quatrième rapport sur l’impact économique de l’IA.

Confirmation de Terence Tao que ChatGPT 5.2 a résolu le problème d’Erdős #728. À voir également, un court retour d’expérience d’un mathématicien sur l’utilisation de Gemini en tant qu’assistant.

L’IA atteignant de plus en plus les limites des évaluations existantes en mathématiques, EpochAI en créé une nouvelle, Frontier Math : Open Problems, centrée sur des problèmes ouverts (sans solution connue).

Le 27 janvier, OpenSSL publie sa version 3.6.1, qui corrige 12 vulnérabilités. Il se trouve ces 12 failles ont été découvertes par une IA.

L’équipe derrière le scenario AI 2027 met à jour ses prédictions, repoussant la date de la plupart de leurs prédictions.

Kimi publie la version 2.5 de son IA open-weight.

Le Département de la Défense des États-Unis souhaite accélérer le développement et le déploiement de l’IA à des fins militaires.

La Chine met en place un ensemble de régulations visant les IA-compagnon.

Yann LeCun admet que l’équipe derrière Llama 4 a « légèrement triché » sur les évaluations du modèle, en choisissant quelles variantes utiliser pour quelle évaluation.

Apple se tourne vers Google pour ses besoins d’IA.

L’IA exhibe certains des biais cognitifs humains.

Une nouvelle étude trouve que les LLMs sont généralement légèrement biaisés en faveur des minorités.

Lancement de Moltbook, un réseau social… pour les IA.

Pour aller plus loin

Par Zvi Mowshowitz

Claude Codes et Claude Codes #3 (non, il n’y a pas de 2) : compilation de divers retours d’expérience sur l’utilisation de Claude Code.

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d’une étiquette intelligence_artificielle (indication d’un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s’aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Suivi

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

La distribution Linux libre et open source openSUSE Tumbleweed propose la mise à jour transactionnelle 6.0.6 et les mises à jour Ruby 4.0, et conserve GNOME 49, Plasma 6.5.5 et Frameworks 6.22.0

La distribution Linux libre et open source openSUSE Tumbleweed propose la mise à jour transactionnelle 6.0.6 et les mises à jour Ruby 4.0, et conserve GNOME 49, Plasma 6.5.5 et Frameworks 6.22.0

Les mises à jour des paquets logiciels pour openSUSE Tumbleweed sont disponibles. Les nouvelles versions majeures transactional-update et Ruby 4.0 entament la nouvelle année avec des changements importants. GNOME conserve la version 49, tout comme Plasma 6.5.5, Frameworks 6.22.0 et KDE Gear 25.12.1. Même...

  •  

La double authentification crée un faux sentiment de sécurité

De nombreuses organisations pensent encore être protégées grâce à la double authentification. Pourtant, les attaquants ont appris à la contourner. Les phishings en temps réel et les vols de sessions montrent aujourd’hui les limites des modèles d’authentification qui entretiennent un faux sentiment de protection.   Tribune CyberArk Labs – Dans un récent blog de CyberArk […]

The post La double authentification crée un faux sentiment de sécurité first appeared on UnderNews.
  •  

Infrastructures critiques : Keyfactor alerte sur la fragilité de la confiance numérique à l’ère de la convergence IT/OT

Dans les secteurs industriels et les infrastructures critiques, la cybersécurité ne se limite plus à un enjeu informatique. Elle conditionne directement la continuité des opérations, la sécurité des installations et la fiabilité des services essentiels. À partir de ses analyses, Keyfactor, leader de la confiance numérique pour les entreprises, met en lumière un risque encore […]

The post Infrastructures critiques : Keyfactor alerte sur la fragilité de la confiance numérique à l’ère de la convergence IT/OT first appeared on UnderNews.
  •  

KnowBe4 alerte sur les escroqueries amoureuses par deepfake visant les consommateurs à l’approche de la Saint-Valentin

À l’approche de la Saint-Valentin, les experts en cybersécurité de KnowBe4 tirent la sonnette d’alarme face à une recrudescence sophistiquée d’escroqueries amoureuses dopées à l’intelligence artificielle. En 2026, les signaux d’alerte traditionnels, comme une mauvaise grammaire ou l’incapacité à fournir une photo spécifique, ne sont plus fiables, rendus obsolètes par les capacités des générateurs d’IA. […]

The post KnowBe4 alerte sur les escroqueries amoureuses par deepfake visant les consommateurs à l’approche de la Saint-Valentin first appeared on UnderNews.
  •  

Saga OpenClaw (ClawdBot, Moltbot) : enjeux techniques, juridiques et éthiques d’un assistant IA open source

Né en novembre 2025, Clawd, un projet open source IA, a été renommé Moltbot sous la pression juridique de Anthropic (Claude), puis OpenClaw rapidement.

Nous passerons en revue dans cet article la chronologie des faits, les enjeux techniques, juridiques et éthiques, dans un monde open source, projet dont la diffusion a explosé pour bien des raisons…

Logo OpenClaw

Sommaire

Chronologie

ClawdBot de novembre 2025 au 27 janvier 2026

Le projet débute en novembre 2025 sous le nom de Clawdbot, lancé par l'ingénieur autrichien Peter Steinberger, développeur autrichien et fondateur de PSPDFKit. Ce prototype de « WhatsApp Relay » connecte l'IA aux applications de messagerie pour automatiser des tâches système. Le succès est immédiat avec 60 000 étoiles GitHub en seulement trois jours. Le nom fait initialement référence à l'outil Claude d'Anthropic. En outre, le nom et le logo évoquent le homard, symbole repris dans l’identité visuelle du projet.

ClawdBot connaît une adoption rapide dès sa publication sur GitHub. Le projet vise explicitement une alternative locale et contrôlée aux assistants IA centralisés.

MoltBot du 27 au 29 janvier 2026

Le 27 janvier 2026, la firme Anthropic demande un changement de nom pour éviter toute confusion avec sa marque « Claude ». Peter Steinberger rebaptise alors le projet Moltbot, évoquant la mue du crustacé. Ce changement intervient dans un contexte de couverture médiatique maximale. La transition est techniquement précipitée, et elle met en lumière les fragilités organisationnelles liées à une croissance trop rapide. On voit apparaître des clones, des faux dépôts et des tentatives d’escroquerie, par exemple le vol de comptes sociaux par des escrocs et le lancement d'un faux jeton de cryptomonnaie nommé $CLAWD.

OpenClaw depuis 30 janvier 2026

Le 30 janvier 2026, le projet adopte son identité définitive : OpenClaw. Une vérification juridique préalable est effectuée. Les domaines et identités associées sont sécurisés. Ce nouveau nom souligne l'ancrage dans le logiciel libre tout en conservant l'hommage au homard d'origine. La transition est cette fois sécurisée par des recherches de marques et le blocage des noms de domaines. Le projet se stabilise et dépasse rapidement les 124 000 étoiles GitHub.

La phase OpenClaw marque une stabilisation. Plusieurs correctifs de sécurité sont publiés. La gouvernance s’ouvre à de nouveaux mainteneurs issus de la communauté.

OpenClaw

Description et définition

OpenClaw est un assistant IA personnel appartenant à la catégorie des agents autonomes. Il est conçu pour être installé et s'exécuter sur la machine de l'utilisateur (auto-hébergé). Contrairement aux chatbots classiques, il peut prendre des décisions et effectuer des actions concrètes sur un système d'exploitation sans supervision humaine constante. Le logiciel agit comme une couche d’orchestration entre modèles IA et services locaux. Il vise un usage personnel ou organisationnel. L’autonomie fonctionnelle est au cœur de sa proposition de valeur.

Le site web décrit OpenClaw de cette manière :

OpenClaw
The AI that actually does things.
Clears your inbox, sends emails, manages your calendar, checks you in for flights.
All from WhatsApp, Telegram, or any chat app you already use.

Installation

L'installation se passe en ligne de commande : téléchargement, puis lancement de la procédure d'installation, choix du LLM, choix du chat, et voilà.

One-liner

# Works everywhere. Installs everything. You're welcome. 🦞
curl -fsSL https://openclaw.ai/install.sh | bash

npm

# Install OpenClaw
npm i -g openclaw
# Meet your lobster
openclaw onboard

Hackable

# For those who read source code for fun
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git

Fonctionnalités

L'agent exécute des commandes shell, lit et écrit des fichiers locaux, ou gère les courriels et agendas. Il peut piloter un navigateur web pour remplir des formulaires ou effectuer des recherches. Le système dispose d'une mémoire persistante lui permettant de conserver le contexte des conversations à long terme (context window). Il peut également initier des interactions de manière proactive via des notifications.

Architecture

Le logiciel repose sur Node.js et TypeScript. Son architecture est divisée en trois couches : une passerelle locale (Gateway), un agent qui gère le raisonnement (découpage et séquencement), et le moteur d'IA (LLM). Il utilise des protocoles WebSocket pour la communication bidirectionnelle entre ses composants. Les interactions s'effectuent via des applications tierces comme WhatsApp, Telegram, Slack ou Discord. Il connecte des modèles IA à des applications tierces. Le système est extensible via plugins. Plus de cinquante intégrations sont disponibles. L’architecture privilégie la modularité plutôt que l’intégration verticale.

Licence

OpenClaw est distribué sous la licence MIT. Cette licence permissive, reconnue par l’Open Source Initiative et la Free Software Foundation, autorise l'utilisation, la modification et la distribution du code, y compris à des fins commerciales. La seule obligation est d'incorporer la notice de licence et de copyright dans toutes les copies.

Dépendances

Le projet combine des briques libres et propriétaires. Les dépendances libres incluent Node.js, Puppeteer et Ollama pour l'exécution locale (inférence d'IA). En revanche, le fonctionnement optimal nécessite souvent des API propriétaires comme celles d'Anthropic (Claude) ou d'OpenAI (GPT). L'utilisation de ces services externes entraîne des coûts d'abonnement pour l'utilisateur, et l'envoi et éparpillement de données sur des clouds étrangers (pouvant être soumis aux lois extra-territoriales).

Succès communautaire et médiatique

Dynamiques et amplifications

Le projet a bénéficié d'un engouement lié au mouvement du « vibe coding » (développement assisté par IA). Des figures influentes comme Andrej Karpathy ont soutenu publiquement l'initiative.

Les réseaux sociaux et médias amplifient le phénomène. Des contributeurs rejoignent le dépôt en masse. Des usages spectaculaires sont massivement partagés. Une véritable sous-culture est née autour de l'achat de serveurs Mac mini dédiés pour faire tourner l'agent 24h/24. La mascotte du « homard spatial » devient un mème.

Mème inspiré de "Spider-Man Pointing at Spider-Man"

Métriques

La croissance a été l'une des plus rapides de l'histoire de l'open source:

  • Le dépôt GitHub atteint une visibilité exceptionnelle avec plus de 100 000 étoiles GitHub en une semaine.
  • Le projet a attiré plus de 2 millions de visiteurs en sept jours.
  • La communauté a développé plus de 500 extensions ou « skills » partagées sur Clawhub.

Des milliers d’instances sont déployées en quelques semaines. Un réseau social Motlbook dédié aux agents autonomes sans humains est créé, et plus de 2 100 agents y sont recensés en 48 heures.

La popularité précède largement la maturité technique.

courbe des étoiles pour OpenClaw sur github

Aspects juridiques et légaux

Licences

La licence MIT ne pose pas de contrainte juridique majeure. Elle ne protège cependant ni le nom ni l’image du projet. L'utilisateur est responsable de l'installation et des conséquences de l'exécution de l'agent.

Cette licence n’encadre pas l’usage des modèles sous-jacents : bien que le code d'OpenClaw soit libre, les modèles d'IA qu'il appelle restent pour la plupart régis par les conditions d'utilisation strictes de leurs éditeurs respectifs. Cela limite l’indépendance réelle du projet. La licence du code ne garantit pas la liberté de l’ensemble de la chaîne.

Marques

La saga démontre la vigilance des entreprises face à la proximité phonétique des noms de projets. Anthropic a exercé son droit de marque pour protéger l'intégrité de son produit Claude. L’absence d’intention commerciale n’est pas déterminante. Peter Steinberger a dû consulter OpenAI avant le renommage final pour éviter de nouveaux conflits. Ce renommage illustre l’asymétrie entre acteurs : les projets libres restent vulnérables aux marques déposées.

Cadre réglementaire : RGPD et Cloud Act

Paradoxalement, l'auto-hébergement de la chaîne entière favorise la conformité au RGPD et la souveraineté, car les données restent sous le contrôle direct de l'utilisateur (responsable du traitement). Cela permet également d'éviter les risques du CLOUD Act américain en évitant le stockage et la transmission de données sur des serveurs étrangers. Toutefois, l'usage possible des services tiers et clouds publics de l'agent peut classer le système comme « à haut risque » selon l'AI Act européen, les données passant par des clouds soumis aux réglementations extra-territoriales.

Sécurité et vie privée

Stockage et fuite

L'architecture initiale stockait les clés d'API et l'historique des conversations en texte clair sur le disque. Des chercheurs ont identifié des milliers d'instances exposées sur Internet, divulguant des données sensibles. La concentration d'informations locales crée un point de défaillance unique (SPOF) en cas de compromission de la machine.

Authentification

Les premières versions ne requéraient pas d'authentification forte par défaut. Des interfaces d'administration étaient accessibles publiquement à cause de proxies/pare-feux mal configurés. Des correctifs récents ont supprimé les modes de connexion sans authentification pour durcir le système.

Injection de prompts

L'injection de prompts est la menace la plus critique et reste un problème non résolu dans l'industrie. Un attaquant peut insérer des instructions malveillantes dans un courriel ou un site web consulté par l'agent. L'IA peut alors exécuter des ordres indésirables, comme l'exfiltration de fichiers, en croyant obéir à son propriétaire.

Contrôle et privilèges

OpenClaw agit comme un super-utilisateur virtuel avec des accès profonds au système : l’agent dispose de privilèges élevés, il peut exécuter des commandes système, et il agit parfois avec des droits excessifs. Il combine l'accès aux données privées, l'exposition à des contenus non vérifiés et la capacité de communication externe. La séparation des privilèges est insuffisante par défaut, l’isolation reste complexe, et le risque augmente avec l’autonomie. Ce mélange de privilèges et autonomie transforme l'assistant en un vecteur d'attaque puissant s'il est détourné.

Durcissement et mitigation

Des correctifs ont été publiés après coup, nombre de commits concernent la sécurité, et la documentation actuelle reconnaît l’absence de configuration parfaite. La communauté recommande donc l'utilisation de conteneurs Docker pour isoler les sessions de l'agent. L'accès à distance doit être sécurisé par des tunnels comme Tailscale ou VPN. L'usage des droits « root » est désormais désactivé par défaut et nécessite une activation explicite (principe du moindre privilège).

Ces pratiques restent encore peu suivies, car difficiles à appliquer pour des non-experts, dans un contexte de déploiement rapide. La sécurité et la vie privée dépendent fortement du niveau technique de l’utilisateur, ne sont pas encore des acquis structurels.

Impact et enjeux de l'IA

Court terme

OpenClaw accélère la productivité en éliminant les tâches de manipulation de données entre applications, en automatisant et en autonomisant les processus via IA et agents. Cependant, il introduit un risque d'IA fantôme (Shadow AI) dans les entreprises où les employés déploient l'outil sans supervision de la direction informatique, ou d'alignement à une charte. La vitesse de diffusion a largement dépassé la maturité des mesures de sécurité initiales.

OpenClaw démocratise les agents autonomes : il rend accessibles rapidement et facilement des capacités jusque-là expérimentales, et il remet en cause d'une certaine manière le monopole des plateformes centralisées. Il expose aussi des utilisateurs non avertis à des risques élevés, la diffusion foudroyante dépasse la capacité de montée de connaissances. Le projet agit comme un révélateur.

Moyen terme

On peut amplement anticiper que le succès rapide du projet pourrait influencer la régulation et une standardisation des protocoles avancés d'agents, pour rendre ces assistants interchangeables. Le cadre réglementaire européen (voire mondial ?) obligera probablement à des certifications de sécurité plus strictes. Les grandes entreprises et organisations gouvernementales pourraient publier des versions sécurisées et certifiées du logiciel pour leurs besoins internes.

Ces nouveaux agents autonomes posent des questions inédites et à grande échelle. La sécurité pourrait devenir une obligation normative. Des outils d’audit spécialisés émergent, les pratiques de durcissement se structurent, OpenClaw sert de cas d’école.

Long terme

L'IA agentique pourrait redéfinir la souveraineté numérique en permettant à chacun de posséder son propre assistant local. Les agents autonomes pourraient devenir les principaux utilisateurs des systèmes numériques, rendant obsolètes certaines tâches manuelles de gestion. Cela transforme l’organisation du travail. L'enjeu éthique et social majeur sera l'imputabilité légale en cas de préjudice causé par une décision autonome de l'IA. La dépendance technologique augmente. La gouvernance devient centrale.

Prisme du logiciel et IA libre et open source

Ouverture

Le code source d'OpenClaw est totalement ouvert et auditable, respectant les critères du logiciel libre. Toutefois, l'ouverture est limitée par la dépendance aux modèles propriétaires dont les poids, les données et processus d'entraînement restent secrets et privateurs. Par exemple, le code ne contient à ce jour pas de télémétrie cachée. L’ouverture favorise l’innovation rapide par l'intelligence collective et l’appropriation communautaire, tout en facilitant bien évidemment les usages détournés.

Gouvernance

Le projet est passé d'une initiative solitaire à une gouvernance plus structurée intégrant plusieurs mainteneurs communautaires. Cette gestion collective ouverte renforce la résilience et l'anti-fragilité mais complexifie la coordination technique et sécuritaire. Les décisions critiques sont désormais partagées, et la sécurité est un enjeu majeur : la maturité dépendra de cette gouvernance.

Éthique

L'autonomie de l'IA pose des questions de responsabilité et met en évidence le risque d'erreurs invisibles ou noyées sans supervision humaine en temps réel et prise de décision sans humain. La frontière entre outil et acteur s’estompe. La transparence opérationnelle et l'auditabilité sont essentielles pour prévenir les usages malveillants tout en protégeant les données personnelles. L’éthique ne peut être entièrement déléguée aux modèles, elle dépend des choix d’architecture des développeurs et également dépend aussi des usages des utilisateurs.

Par conséquent, le fantasme d’une IA omniprésente inquiète et interroge sur la dépendance technologique. À long terme, on peut légitimement craindre que cette automatisation et autonomisation de tâches et processus à la complexité croissante prenne de l’ampleur. Ainsi la probabilité s’accroît de voir la remise en cause non seulement l'existence même de certains métiers, mais plus généralement de voir une dépendance de masse.

Souveraineté

L'auto-hébergement complet permet aux utilisateurs de rester maîtres de leur infrastructure et de leurs données. Cela réduit la dépendance envers les géants technologiques et évite le verrouillage propriétaire. Cela est à mettre en perspective avec l'utilisation des clouds publics et services centralisés, par exemple les modèles d'IA et messageries instantanées propriétaires et étrangers.

Intelligence collective

La force du projet réside dans son écosystème de compétences développées par des contributeurs du monde entier. Cette collaboration expérimentale et novatrice permet d'enrichir l'agent et l'écosystème. Nombre de failles ont pu être identifiées publiquement.

Au-delà du code

Une véritable IA open source devrait inclure les poids du modèle, les données d'entraînement et les processus d'apprentissage et de raffinement. OpenClaw est une infrastructure libre, mais n'est pas une « IA open source » au sens strict, en particulier lorsqu'il utilise des modèles fermés et opaques. Cette asymétrie limite l’auditabilité globale réelle. Elle interroge la notion d’IA libre et/ou open source

Résilience et anti-fragilité

Malgré son jeune âge, OpenClaw a déjà survécu à une crise majeure, et le projet s’étant restructuré, la communauté ayant absorbé le choc. Cette résilience dépendra de la capacité à réagir aux risques majeurs et à grande échelle, la sécurité devant précéder le succès. Le logiciel libre n’immunise pas contre les risques. L'architecture ouverte permet par exemple de basculer immédiatement vers d'autres modèles en cas de changement de politique d'un fournisseur d'API. Si le créateur abandonne le projet, la communauté peut forker le code pour assurer la pérennité de l'outil.

La saga OpenClaw renforce le débat sur la nécessité de surveiller et contrôler ces agents et de mettre garde-fous à tous niveaux.

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Cybersécurité en France entre montée des menaces et nouveaux leviers

La France a récemment dévoilé sa nouvelle stratégie nationale de cybersécurité, articulée autour de cinq piliers clés : le développement des compétences, le renforcement de la résilience du pays, la maîtrise de la souveraineté numérique, la lutte contre l’expansion de la cybermenace et le renforcement de la coopération internationale. Une feuille de route ambitieuse, qui […]

The post Cybersécurité en France entre montée des menaces et nouveaux leviers first appeared on UnderNews.
  •  

Flare Research : une infection sur cinq par infostealer menacerait les identités d’entreprise en 2026

Un nouveau rapport révèle une accélération préoccupante des compromissions d’identités d’entreprise, les logiciels malveillants de type « infostealer » évoluant du vol de données grand public à la compromission dangereuse des identités d’entreprise. Tribune – Flare, spécialiste du Threat Exposure Management, publie son rapport « 2026 State of Enterprise Infostealer Exposure » (État de l’exposition […]

The post Flare Research : une infection sur cinq par infostealer menacerait les identités d’entreprise en 2026 first appeared on UnderNews.
  •  

Libre en Fête 2026 : appel à participation

La campagne de mobilisation pour la 25e édition du Libre en Fête est lancée ! Pour accompagner l'arrivée du printemps, toutes les organisations ayant à cœur la promotion du logiciel libre et de la culture libre sont invitées à proposer des événements de découverte partout en France et en Belgique autour du 20 mars, dans une dynamique conviviale et festive. L'édition 2026 du Libre en Fête aura lieu du samedi 7 mars au dimanche 12 avril.

Libre en Fête

Le Libre en Fête

À l'occasion du Libre en Fête, tous les groupes d’utilisateurs et utilisatrices de logiciels libres (GULL), les espaces publics numériques (EPN), les bibliothèques et médiathèques, les clubs informatiques, les fablabs et hackerspaces, les centres sociaux et culturels et toute autre organisation souhaitant agir en faveur de la promotion du logiciel libre et de la culture libre sont invitées à organiser des évènements de découverte à destination du grand public partout en France et en Belgique.
Le Libre en Fête est une initiative de l'April.

Organiser un événement

Les dates retenues pour l’édition 2026 sont du samedi 7 mars au dimanche 12 avril. Bien sûr, un événement peu avant le 7 mars ou peu après le 12 avril est le bienvenu aussi.

Il est possible de proposer des événements « ad hoc », ou bien déjà prévus pour la période concernée (ateliers récurrents, permanences…). Le site du Libre en Fête donne toutes les informations utiles pour participer à l'initiative.

Les événements proposés dans le cadre du Libre en Fête peuvent prendre n'importe quelle forme, tant qu’il s’adressent au grand public : conférence de découverte, atelier d’initiation, fête d'installation, exposition de panneaux sur le logiciel libre comme par exemple l'Expolibre, diffusion de vidéos ou films sur le logiciel libre, mise à disposition de postes informatiques sous logiciel libre, de jeux vidéos libres, etc.

Bien sûr, il est possible de proposer plusieurs activités au sein d'une même journée de découverte. Et si vous prévoyez un fond musical, pensez à diffuser des titres sous licence libre ; vous pouvez regarder du côté des musiques diffusées dans l'émission de radio de l'April Libre à vous !.

Retrouvez plein d'idées d'événements sur le site du Libre en Fête !

Nouer ou renforcer des liens

La coopération entre différentes organisations au niveau local est vivement encouragée. Les groupes d’utilisateurs et utilisatrices de Logiciels Libres (GULL) peuvent notamment être sollicités en raison de leurs connaissances et de leur expertise en matière de Logiciel Libre. D’autres structures peuvent mettre à disposition d’autres ressources telles que les locaux, le matériel informatique et multimédia, voire des compétences en communication et/ou animation.

Des liens utiles pour la recherche de partenaires sont disponibles sur le site de l'initiative.

Référencer son événement

Le référencement d'un événement dans le cadre du Libre en Fête se déroule via le site de l'Agenda du Libre : il suffit d'ajouter le mot-clé libre-en-fete-2026 (sans accent) lors de la soumission de l'événement ou, si l'événement a déjà été soumis, via le formulaire d'édition reçu par courriel. Votre événement apparaîtra alors automatiquement sur le site du Libre en Fête, à la page Événements.

Proposer un événement pour le Libre en Fête 2026

Communiquer sur sa participation

N'hésitez pas à utiliser et personnaliser les visuels (logos, bannières, affiche…) disponibles sur le site du Libre en Fête pour votre communication.

Titre de l'image

Liste de discussion et contact

Une liste de diffusion a été mise en place pour que les organisations participant à l'initiative puissent échanger leurs expériences et idées. L'inscription à cette liste est libre.

Pour toute question sur le Libre en Fête, vous pouvez contacter l'équipe de coordination.

Faites circuler cette annonce, merci !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Revue de presse de l’April pour la semaine 5 de l’année 2026

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Les Numeriques] Bye bye Windows 11: comment j'ai appris à ne plus m'en faire et à aimer Linux

✍ Diogo Ribeiro, le dimanche 1 février 2026.

Quitter Windows 11 a été la meilleure décision que j’ai prise en 2025. Un an après avoir installé Linux sur mon PC portable, petit bilan de mon Pacs avec l’OS open source, qui vit aujourd’hui une véritable résurgence aux marges des déboires de Microsoft.

[Next] Et si Linus Torvalds passait la main? Le noyau Linux a son plan de continuité d’activité

✍ Alexandre Laurent, le jeudi 29 janvier 2026.

L’équipe en charge du noyau Linux a formalisé les modalités d’un plan de continuité d’activité destiné à préparer l’évolution de la gouvernance du projet si Linus Torvalds venait à en laisser les rênes.

[ZDNET] Cybersecurity Act 2: Bruxelles sacrifie la souveraineté du cloud européen sur l'autel du marché

✍ Xavier Biseul, le mardi 27 janvier 2026.

La révision du règlement cyber européen exclut les critères de souveraineté dans la délivrance de certifications cloud. Un revers pour la France qui, dans la dernière version du SecNumCloud, offre une immunité aux lois extraterritoriales américaines comme Cloud Act.

[Numerama] La France veut remplacer Microsoft Teams et Google Meet par «Visio», un outil souverain pour les appels vidéo

✍ Nicolas Lellouche, le lundi 26 janvier 2026.

Les attaques récentes de Donald Trump contre l’Europe ont réveillé les consciences de nombreux pays européens qui militent désormais pour réduire leur dépendance aux États-Unis. Dans un communiqué envoyé le 26 janvier 2026, Bercy annonce avoir pour projet de lancer son propre outil de visioconférence d’ici 2027, pour réduire son exposition à d’éventuels coups de pression.

Et aussi:

[clubic.com] Le père du logiciel libre n'aime ni l'IA, ni les voitures connectées, ni les smartphones

✍ Guillaume Belfiore, le lundi 26 janvier 2026.

Richard Stallman, fondateur du projet GNU, a donné une conférence de près de 2h30 à l’institut Georgia Tech le 23 janvier dernier. Le militant du logiciel libre de 72 ans y a critiqué le paysage de l’industrie tech actuelle : il critique à tour de rôle l’intelligence artificielle, les voitures connectées et les smartphones.

[ZDNET] 'Préserver notre santé mentale': cURL suspend son bug bounty, face aux mauvaises contributions par IA

✍ Thierry Noisette, le dimanche 25 janvier 2026.

Le logiciel libre suspend son programme de bug bounty après avoir reçu en peu de temps trop de contributions sans intérêt: «Le flux actuel de signalements surcharge l’équipe de sécurité de cURL, et cette mesure vise à réduire le bruit.»

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Étude SentinelLABS et Censys : un vaste réseau mondial de serveurs d’IA exposés opère en dehors des contrôles des grandes plateformes

Une étude menée conjointement par SentinelLABS, la division de recherche de SentinelOne et Censys révèle l’existence d’une vaste infrastructure mondiale de serveurs d’intelligence artificielle, accessibles publiquement, fonctionnant en dehors des mécanismes de contrôle, de sécurité et de gouvernance des grandes plateformes technologiques. Les chercheurs ont identifié plus de 175 000 serveurs hébergeant des modèles d’IA […]

The post Étude SentinelLABS et Censys : un vaste réseau mondial de serveurs d’IA exposés opère en dehors des contrôles des grandes plateformes first appeared on UnderNews.
  •  

Dans l’ombre du quantique : comment Gigamon révèle l’invisible pour protéger les organisations

La menace quantique : longtemps théorique, désormais imminente Il y a encore quelques années, la menace semblait lointaine, presque théorique : celle d’un monde où les ordinateurs quantiques seraient capables de briser en quelques heures les algorithmes qui protègent aujourd’hui nos transactions bancaires, nos dossiers médicaux ou les secrets gouvernementaux. Mais en 2026, ce scénario […]

The post Dans l’ombre du quantique : comment Gigamon révèle l’invisible pour protéger les organisations first appeared on UnderNews.
  •  

JO d’hiver 2026 : Kaspersky alerte sur les cybermenaces à surveiller lors de ce type d’événements

La cérémonie d’ouverture des Jeux olympiques d’hiver de 2026 aura lieu le 6 février prochain à Milan, et suscite déjà l’attention des fans, aussi bien dans le monde numérique que dans le monde physique . Dans les villes hôtes des épreuves, des centaines d’athlètes sont attendus ainsi que d’importantes foules. À l’occasion de cet événement […]

The post JO d’hiver 2026 : Kaspersky alerte sur les cybermenaces à surveiller lors de ce type d’événements first appeared on UnderNews.
  •  

Une étude Keyfactor révèle que deux tiers des entreprises considèrent les agents IA comme un risque de sécurité plus élevé que les humains

86 % des professionnels de la cybersécurité estiment que les agents IA et les systèmes autonomes ne sont pas fiables sans identités numériques uniques et dynamiques. Tribune – Keyfactor, spécialiste de la confiance numérique pour les entreprises, a dévoilé les résultats de son étude Digital Trust Digest : The AI Identity Edition, menée en partenariat […]

The post Une étude Keyfactor révèle que deux tiers des entreprises considèrent les agents IA comme un risque de sécurité plus élevé que les humains first appeared on UnderNews.
  •  

Le créateur de Systemd, Lennart Poettering, quitte Microsoft pour prouver que Linux est digne de confiance. Il lance une nouvelle startup qui vise à offrir des « garanties d'intégrité et de confiance »

Le créateur de Systemd, Lennart Poettering, quitte Microsoft pour prouver que Linux est digne de confiance.
Il lance une nouvelle startup qui vise à offrir des « garanties d%u2019intégrité et de confiance »

L'ingénieur logiciel Lennart Poettering a rejoint Microsoft en 2022. Il est connu pour être l'auteur de projets fondamentaux dans l'écosystème Linux, dont Systemd, PulseAudio et Avahi. Après environ quatre années au sein de l'entreprise, Lennart Poettering quitte Microsoft et s'associe avec d'anciens...

  •  
❌