❌

Vue normale

Reçu hier — 8 mai 2025

Nouvelles sur l’IA d’avril 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs visiteurs ont Ă©mis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sĂ©lection et de rĂ©sumĂ© sur le contenu hebdomadaire de Zvi Mowshowitz (qui est dĂ©jĂ  une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-lĂ , je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas trĂšs compliquĂ©), mais pas toujours trĂšs bien.

MĂȘme politique Ă©ditoriale que Zvi : je n’essaierai pas d’ĂȘtre neutre et non-orientĂ© dans la façon de tourner mes remarques et observations, mais j’essaie de l’ĂȘtre dans ce que je dĂ©cide de sĂ©lectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une prĂ©sentation des capacitĂ©s du modĂšle, centrĂ©e sur les problĂ©matiques de sĂ©curitĂ© (en biotechnologie, sĂ©curitĂ© informatique, dĂ©sinformation
).
  • Jailbreak : un contournement des sĂ©curitĂ©s mises en place par le crĂ©ateur d’un modĂšle. Vous le connaissez sĂ»rement sous la forme « ignore les instructions prĂ©cĂ©dentes et  ».

Meta dévoile Llama 4

L’annonce officielle:

  • We’re sharing the first models in the Llama 4 herd, which will enable people to build more personalized multimodal experiences.
  • Llama 4 Scout, a 17 billion active parameter model with 16 experts, is the best multimodal model in the world in its class and is more powerful than all previous generation Llama models, while fitting in a single NVIDIA H100 GPU. Additionally, Llama 4 Scout offers an industry-leading context window of 10M and delivers better results than Gemma 3, Gemini 2.0 Flash-Lite, and Mistral 3.1 across a broad range of widely reported benchmarks.
  • Llama 4 Maverick, a 17 billion active parameter model with 128 experts, is the best multimodal model in its class, beating GPT-4o and Gemini 2.0 Flash across a broad range of widely reported benchmarks, while achieving comparable results to the new DeepSeek v3 on reasoning and coding—at less than half the active parameters. Llama 4 Maverick offers a best-in-class performance to cost ratio with an experimental chat version scoring ELO of 1417 on LMArena.
  • These models are our best yet thanks to distillation from Llama 4 Behemoth, a 288 billion active parameter model with 16 experts that is our most powerful yet and among the world’s smartest LLMs. Llama 4 Behemoth outperforms GPT-4.5, Claude Sonnet 3.7, and Gemini 2.0 Pro on several STEM benchmarks. Llama 4 Behemoth is still training, and we’re excited to share more details about it even while it’s still in flight.
  • Download the Llama 4 Scout and Llama 4 Maverick models today on llama.com and Hugging Face. Try Meta AI built with Llama 4 in WhatsApp, Messenger, Instagram Direct, and on the web.

Traduction:

  • Nous partageons les premiers modĂšles de la famille Llama 4, qui permettront aux utilisateurs de crĂ©er des expĂ©riences multimodales plus personnalisĂ©es. *Llama 4 Scout, un modĂšle de 17 milliards de paramĂštres actifs avec 16 experts, est le meilleur modĂšle multimodal au monde dans sa catĂ©gorie et est plus puissant que tous les modĂšles Llama des gĂ©nĂ©rations prĂ©cĂ©dentes, tout en tenant sur un seul GPU NVIDIA H100. De plus, Llama 4 Scout offre une fenĂȘtre de contexte de 10M, leader dans l’industrie, et dĂ©livre de meilleurs rĂ©sultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur un large Ă©ventail de benchmarks largement reconnus.
  • Llama 4 Maverick, un modĂšle de 17 milliards de paramĂštres actifs avec 128 experts, est le meilleur modĂšle multimodal dans sa catĂ©gorie, surpassant GPT-4o et Gemini 2.0 Flash sur un large Ă©ventail de benchmarks largement reconnus, tout en obtenant des rĂ©sultats comparables au nouveau DeepSeek v3 sur le raisonnement et le codage — avec moins de la moitiĂ© des paramĂštres actifs. Llama 4 Maverick offre un rapport performance/coĂ»t inĂ©galĂ© avec une version expĂ©rimentale de chat obtenant un ELO de 1417 sur LMArena.
  • Ces modĂšles sont nos meilleurs Ă  ce jour grĂące Ă  la distillation de Llama 4 Behemoth, un modĂšle de 288 milliards de paramĂštres actifs avec 16 experts qui est notre plus puissant Ă  ce jour et parmi les LLM les plus intelligents au monde. Llama 4 Behemoth surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur plusieurs benchmarks STEM. Llama 4 Behemoth est toujours en phase d’entraĂźnement, et nous sommes impatients de partager plus de dĂ©tails Ă  son sujet mĂȘme pendant qu’il est encore en dĂ©veloppement.
  • TĂ©lĂ©chargez les modĂšles Llama 4 Scout et Llama 4 Maverick dĂšs aujourd’hui sur llama.com et Hugging Face. Essayez Meta AI construit avec Llama 4 dans WhatsApp, Messenger, Instagram Direct et sur le web.

Comme DeepSeek v3, et contrairement aux prĂ©cĂ©dentes itĂ©rations de Llama (Llama 2, Llama 3), Llama 4 fait le pari d’une architecture diffĂ©rente, « Mixture of Experts » (MoE) (en français: mĂ©lange d’experts ?). Pour simplifier, au lieu de faire un seul modĂšle, on en fait plein, avec un autre modĂšle qui dĂ©cide (dynamiquement) de l’importance Ă  donner Ă  chaque modĂšle. Par exemple, Llama 4 Maverick contient 400 milliards de paramĂštres, dĂ©coupĂ©s en 128 modĂšles de 17 milliards de paramĂštres. Un bon article sur HuggingFace explique plus en dĂ©tails cette architecture.

Autre diffĂ©rence par rapport aux tendances actuelles, ce n’est pas un modĂšle de raisonnement.

Au niveau de la sĂ©curitĂ© des modĂšles : pour ne pas changer, Meta fait partie des mauvais Ă©lĂšves ; pas d’évaluation tierce publiĂ©e, pas de « System Card ». Évidemment jailbreakĂ© dans la journĂ©e (mais ceci n’est pas spĂ©cifique Ă  Meta).

Sur les benchmarks citĂ©s par Meta, cela semble un modĂšle au niveau de l’état de l’art en termes de capacitĂ©. Les benchmarks tiers, par contre, semblent donner une image complĂštement diffĂ©rente :

Vous pouvez voir plus de benchmarks indĂ©pendants dans l’article de Zvi (cf les liens ci-dessous).

Tout ceci semble pointer vers: ce ne sont pas de mauvais rĂ©sultats en soi, dans l’absolu ; mais comparĂ© Ă  l’état de l’art (Claude 3.7 avec raisonnement, ChatGPT o3-mini, ou Gemini 2.5), et mis en face de la taille immense du modĂšle (400 milliards de paramĂštres, ce qui de fait le rend inutilisable sur du matĂ©riel grand public), ce sont des rĂ©sultats dĂ©cevants.

À noter que Llama 4 Behemoth (2000 milliards de paramĂštres !) n’a pas encore Ă©tĂ© publiĂ©.

OpenAI publie GPT 4.1, o3 et o4-mini

Commençons par GPT 4.1. L’annonce officielle :

Today, we’re launching three new models in the API: GPT‑4.1, GPT‑4.1 mini, and GPT‑4.1 nano. These models outperform GPT‑4o and GPT‑4o mini across the board, with major gains in coding and instruction following. They also have larger context windows—supporting up to 1 million tokens of context—and are able to better use that context with improved long-context comprehension. They feature a refreshed knowledge cutoff of June 2024.

Traduction :

Aujourd’hui, nous lançons trois nouveaux modĂšles dans l’API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modĂšles surpassent GPT-4o et GPT-4o mini sur tous les plans, avec des amĂ©liorations majeures en matiĂšre de codage et de suivi d’instructions. Ils disposent Ă©galement de fenĂȘtres de contexte plus larges — prenant en charge jusqu’à 1 million de tokens de contexte — et sont capables de mieux utiliser ce contexte grĂące Ă  une comprĂ©hension amĂ©liorĂ©e des contextes longs. Ils bĂ©nĂ©ficient d’une mise Ă  jour de leur base de connaissances jusqu’à juin 2024.

Le modĂšle n’est disponible que par accĂšs API. Le but n’est pas d’avancer l’état de l’art sur les capacitĂ©s, mais de fournir des points plus intĂ©ressants sur la courbe performances/prix. À ce titre, pas de System Card ou d’évaluation tierce publiĂ©e. Vous connaissez la chanson, jailbreak immĂ©diat. Sur les benchmarks (officiels comme tiers), la modeste promesse semble tenue : 4.1 est une lĂ©gĂšre amĂ©lioration sur 4o, mais 4.1-mini est presque aussi performant Ă  une fraction du prix (5x moins cher).

Il existe encore une version moins chĂšre (20x !), 4.1-nano, mais la dĂ©gradation de performance est significative.

À l’inverse de 4.1, o3 et o4-mini, eux, ont l’ambition de faire avancer l’état de l’art. L’annonce officielle :

Today, we’re releasing OpenAI o3 and o4-mini, the latest in our o-series of models trained to think for longer before responding. These are the smartest models we’ve released to date, representing a step change in ChatGPT's capabilities for everyone from curious users to advanced researchers. For the first time, our reasoning models can agentically use and combine every tool within ChatGPT—this includes searching the web, analyzing uploaded files and other data with Python, reasoning deeply about visual inputs, and even generating images. Critically, these models are trained to reason about when and how to use tools to produce detailed and thoughtful answers in the right output formats, typically in under a minute, to solve more complex problems. This allows them to tackle multi-faceted questions more effectively, a step toward a more agentic ChatGPT that can independently execute tasks on your behalf. The combined power of state-of-the-art reasoning with full tool access translates into significantly stronger performance across academic benchmarks and real-world tasks, setting a new standard in both intelligence and usefulness.

Traduction :

Aujourd’hui, nous lançons OpenAI o3 et o4-mini, les derniers modĂšles de notre sĂ©rie o, entraĂźnĂ©s Ă  rĂ©flĂ©chir plus longtemps avant de rĂ©pondre. Ce sont les modĂšles les plus intelligents que nous ayons publiĂ©s Ă  ce jour, reprĂ©sentant un changement majeur dans les capacitĂ©s de ChatGPT pour tous, des utilisateurs curieux aux chercheurs avancĂ©s. Pour la premiĂšre fois, nos modĂšles de raisonnement peuvent utiliser et combiner de maniĂšre agentique tous les outils au sein de ChatGPT — cela inclut la recherche sur le web, l’analyse de fichiers tĂ©lĂ©chargĂ©s et d’autres donnĂ©es avec Python, le raisonnement approfondi sur les entrĂ©es visuelles, et mĂȘme la gĂ©nĂ©ration d’images. Plus important encore, ces modĂšles sont entraĂźnĂ©s Ă  rĂ©flĂ©chir Ă  quand et comment utiliser les outils pour produire des rĂ©ponses dĂ©taillĂ©es et rĂ©flĂ©chies dans les bons formats de sortie, gĂ©nĂ©ralement en moins d’une minute, afin de rĂ©soudre des problĂšmes plus complexes. Cela leur permet de traiter plus efficacement des questions Ă  multiples facettes, une Ă©tape vers un ChatGPT plus agentique qui peut exĂ©cuter indĂ©pendamment des tĂąches en votre nom. La puissance combinĂ©e d’un raisonnement Ă  la pointe de la technologie avec un accĂšs complet aux outils se traduit par des performances significativement amĂ©liorĂ©es dans les Ă©valuations acadĂ©miques et les tĂąches du monde rĂ©el, Ă©tablissant une nouvelle norme en termes d’intelligence et d’utilitĂ©.

L’annonce du jailbreak associĂ©e ici.

Sur les performances, les benchmarks (y compris privĂ©s) indiquent une avancĂ©e claire, prenant la premiĂšre place presque partout. En particulier, le benchmark fiction.live peut ĂȘtre considĂ©rĂ© comme rĂ©solu pour la premiĂšre fois, avec un 100% Ă  presque tous les niveaux.

Au niveau des fonctionnalitĂ©s, o3 et o4-mini peuvent faire des recherches sur internet et utiliser Python pour analyser un problĂšme (y compris dans la chaĂźne de raisonnement) ; les retours subjectifs affirment que o3 est exceptionnellement efficace pour utiliser les outils Ă  sa disposition de maniĂšre pertinente.

Une tendance jusqu’ici Ă©tait que les modĂšles plus avancĂ©s Ă©taient de moins en moins susceptibles d’hallucinations, ce qui donnait espoir que ce problĂšme allait, Ă  terme et avec l’amĂ©lioration des modĂšles, se rĂ©soudre de lui-mĂȘme. Mauvaise nouvelle ici : o3 a un taux d’hallucinations double de o1 (sur un benchmark conçu pour en Ă©liciter). Les retours subjectifs confirment cette observation : o3 ment Ă©hontĂ©ment trĂšs rĂ©guliĂšrement.

Sur la sĂ©curitĂ© des modĂšles, OpenAI suit sa procĂ©dure habituelle de publier sa System Card, avec deux Ă©valuations tierces, une d’Apollo Research (dans l’appendice) et une autre de METR, avec un bĂ©mol que METR n’a eu accĂšs qu’à une prĂ©-version, et seulement trois semaines avant la publication. La conclusion est que le modĂšle n’est pas encore Ă  « risque Ă©levé », mais s’en rapproche.

Dans les nouvelles sur l’IA de mars, on pouvait trouver une section « Les modĂšles continuent de tricher Â». Les rapports d’Apollo Research et de METR confirment, oĂč le modĂšle a Ă©tĂ© attrapĂ© Ă  tricher dans 1-2% des cas chez METR.

AI 2027: une tentative de futurologie

La prĂ©diction est un exercice difficile, surtout quand il s’agit du futur. AI 2027 est une tentative de prĂ©diction qui a fait parler d’elle. Pourquoi ?

D’abord par les personnalitĂ©s impliquĂ©es, en particulier :

  • Daniel Kokotajlo est un ex-ingĂ©nieur d’OpenAI, qu’il a quittĂ© en tant que « whistleblower », dĂ©nonçant une culture du secret et de peu d’importance accordĂ©e Ă  la sĂ©curitĂ© (Ă  l’époque, le New York Times lui a accordĂ© un article intitulĂ© OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance — « Des initiĂ©s d’OpenAI mettent en garde contre une course “imprudente” Ă  la domination Â»). En 2021, il publie What 2026 looks like, qui s’est rĂ©vĂ©lĂ© largement prescient (pour une Ă©valuation rĂ©trospective tierce, voir cet article).

  • Eli Lifland est un chercheur qui s’intĂ©resse de maniĂšre globale a « comment dĂ©velopper de meilleures mĂ©thodes gĂ©nĂ©rales de prĂ©diction Â», qu’il pratique activement sur des marchĂ©s de prĂ©diction ; un rĂ©sumĂ© de ses performances peut ĂȘtre trouvĂ© sur son blog.

Ensuite, par sa mĂ©thodologie. Le but de l’initiative n’est pas de donner une prĂ©diction, brute de dĂ©coffrage et au doigt mouillĂ©, mais de crĂ©er un modĂšle quantitatif, d’estimer les paramĂštres le plus possible Ă  partir de la littĂ©rature existante (mĂȘme si c’est loin d’ĂȘtre toujours possible), afin de crĂ©er une base de discussion pour identifier les plus gros points de dĂ©saccords.

Enfin, par ses rĂ©sultats, qui surprennent beaucoup de monde, qui prĂ©voient l’arrivĂ©e d’une superintelligence pour 2028-2029.

L’initiative a reçu le support, entre autres, de Yoshua Bengio, ce qui a aidĂ© Ă  lancer la discussion :

I recommend reading this scenario-type prediction by @DKokotajlo and others on how AI could transform the world in just a few years. Nobody has a crystal ball, but this type of content can help notice important questions and illustrate the potential impact of emerging risks.

Traduction :

Je recommande de lire cette prĂ©diction de type scĂ©nario par @DKokotajlo et d’autres sur comment l’IA pourrait transformer le monde en seulement quelques annĂ©es. Personne n’a de boule de cristal, mais ce type de contenu peut aider Ă  repĂ©rer des questions importantes et illustrer l’impact potentiel des risques Ă©mergents

Si le sujet vous intéresse, je vous recommande :

En vrac

OpenAI annonce vouloir publier des modùles en open-weight d’ici quelques mois.

OpenAI publie OpenAI Codex, un agent d’aide Ă  la programmation (similaire Ă  Aider ou Claude Code), en licence Apache 2.0. Sur ce sujet d’agents d’aide au code, un guide a Ă©tĂ© publiĂ© sur Github.

OpenAI rend disponible sur l’API leur nouveau modĂšle de gĂ©nĂ©ration d’image.

ChatGPT a maintenant la capacité de référencer vos conversations passées.

Google publie deux papiers dans Nature pour Ă©valuer la performance de l’IA sur le diagnostic mĂ©dical. Dans cette expĂ©rience, l’IA surpasse le mĂ©decin humain, au point que IA + humain a des performances pires que l’humain seul.

Google rend accessible son modĂšle de gĂ©nĂ©ration de vidĂ©o, Veo 2, par l’intermĂ©diaire d’une API.

DeepSeek prĂ©sente une nouvelle mĂ©thode d’entraĂźnement, Generalist Reward Modeling (GRM).

Des chercheurs de l’universitĂ© de Zurich dĂ©cident de mesurer la capacitĂ© de persuasion des IA en dĂ©ployant (secrĂštement) un bot sur le subreddit r/changemymind (« Change mon avis Â»). RĂ©sultat primaire: les IA modernes sont trĂšs performantes Ă  cette tĂąche, rĂ©coltant 6x plus de points « cela m’a aidĂ© Ă  changer mon avis Â» (sur ce subreddit : « deltas Â») que l’humain median. RĂ©sultat secondaire: l’IA ne s’est pas faite dĂ©tectĂ©e par la modĂ©ration. Le papier n’est plus accessible suite Ă  une controverse sur l’éthique de l’expĂ©rience (expĂ©rience sans consentement), mais vous pouvez toujours lire la premiĂšre page.

Pour aller plus loin

Non couvert ici :

Commentaires : voir le flux Atom ouvrir dans le navigateur

Reçu avant avant-hier

WoPiX, un serveur WOPI libre, indépendant, simple et léger

Un serveur WOPI (Web application Open Platform Interface) permet Ă  un logiciel client de modifier un fichier stockĂ© sur un serveur. C'est la couche indispensable pour qu'OnlyOffice, LibreOffice (Collabora Online) et d'autres suites bureautiques puissent ĂȘtre utilisĂ©s sur le web. Ainsi, lorsque vous rĂ©clamez l'ouverture d'un document depuis votre navigateur web, vous vous connectez Ă  la suite bureautique en ligne avec une URL particuliĂšre, contenant, entre autres, le nom du fichier Ă  ouvrir. La suite bureautique peut alors discuter avec le serveur WOPI pour rĂ©cupĂ©rer le document. Les lectures, Ă©critures et modifications d'un document sont gĂ©rĂ©es par le serveur WOPI, Ă  la demande de la suite bureautique. Le protocole a Ă©tĂ© créé par Microsoft en 2012, la rĂ©vision 14.5 de WOPI est sortie le 18 fĂ©vrier 2025.

Les serveurs WOPI libres de Nextcloud, Seafile, Tracim
 ne sont pas indépendants. Comme je voulais utiliser Collabora Online sans déployer un NextCloud complet, j'ai écrit un serveur WOPI trÚs simple. Il est utilisé depuis plus d'un an sans problÚme et il est libre. Il est écrit en Java.

J'ai commencĂ© ce dĂ©veloppement car je travaille sur deux lieux privĂ©s diffĂ©rents avec un ordinateur Ă  chaque endroit, un NAS dans l'un d'eux et je communique entre les deux machines Ă  l'aide d'un dĂ©pĂŽt git sur le NAS. Ça fonctionne relativement bien pour des fichiers qui n'ont pas vocation Ă  rester ouverts dans des applications, mais pour des fichiers ODS ou ODT qui restent ouverts, c'est plus compliquĂ© car je me retrouve souvent avec des versions concurrentes sur les deux machines. J'ai donc regardĂ© du cĂŽtĂ© des suites de collaboration en ligne.

À une Ă©poque , je me servais d'Etherpad et de son Ă©quivalent tableur Ethercalc. Mais ces logiciels manquent de fonctionnalitĂ©s, surtout le tableur. ProblĂšme supplĂ©mentaire : j'ai dĂ©jĂ  beaucoup de fichiers aux formats LibreOffice.

Ça tombe bien, il y a la suite LibreOffice online, Ă©ditĂ©e par Collabora Online (CODE). Le problĂšme — comme soulignĂ© par une dĂ©pĂȘche — c'est qu'une fois CODE installĂ©, tu te retrouves Ă  poil avec rien qui marche : il faut un serveur utilisant le protocole WOPI.

Pour éviter d'installer tout un NextCloud, j'ai écrit un petit serveur WOPI. C'est du Java avec Spring Boot. Le serveur est trÚs simple, sur le principe que plus un systÚme est simple, moins il a de chances de tomber en panne.

Par exemple, il n'y pas de droits d'accĂšs et on ne peut pas avoir plusieurs utilisateurs simultanĂ©s. Il faudrait mettre en Ɠuvre le systĂšme de verrous et le systĂšme de droits d'accĂšs (faire reposer les droits d'accĂšs sur les droits du systĂšme de fichier, implique d'avoir un utilisateur sur la machine pour chaque utilisateur du logiciel). Cela n'a pas Ă©tĂ© implantĂ© parce que je suis le seul utilisateur sur ma machine. Mais ce ne serait pas long Ă  dĂ©velopper.

Le serveur une fois lancĂ© expose des services REST, accessibles par la suite bureautique, mais aussi un service https qui permet d'afficher la liste des fichiers. Cette liste de fichier est cliquable et permet de se connecter Ă  Libre Office avec la bonne URL. C'est la raison des paramĂštres proxyHost et code URL de l'application : ĂȘtre en mesure de gĂ©nĂ©rer la bonne URL.

Liste des fichiers

Le code est prĂ©vu pour avoir plusieurs backends Ă  l'aide d'une interface. Le seul mis en Ɠuvre pour l'instant c'est un stockage sur disque local (avec auto discovery : on lui donne un rĂ©pertoire et il expose tout les documents du rĂ©pertoire).

Il consomme peu de ressources, la charge dépendra plus de Collabora Online ou d'OnlyOffice. Le serveur WOPI se contente de lire un fichier à l'ouverture et de l'écrire de temps en temps (comme lors des enregistrements automatiques).

Il n'est pas testé avec OnlyOffice. En principe WOPI est une norme et ça devrait fonctionner.

On peut le lancer avec java -jar. C'est du Spring Boot. On pourrait utiliser systemd. De mon cÎté, je l'ai mis dans un container docker qui lance la commande suivante

java -Dlogging.level.root=INFO \
     -Dlogging.level.org.wopiserver=INFO \
     -Dserver.port=8880 \
     -jar /opt/app/app.jar \
     --baseDir /mnt/docs \
     --disableTLSCheck \
     --codeURL https://172.17.0.8:9980 \
     --proxyHost 192.168.124.252

Le code de WoPiX est dispo sur github et je suis ouvert Ă  toute requĂȘte :-)

Commentaires : voir le flux Atom ouvrir dans le navigateur

Sortie de GIMP 3.0

30 mars 2025 Ă  17:45

GIMP 3.0 est enfin sorti ! Il s’agit du rĂ©sultat de 7 annĂ©es de dur labeur par des dĂ©veloppeurs, designers, artistes et autres membres bĂ©nĂ©voles de la communautĂ© (pour rĂ©fĂ©rence, GIMP 2.10 fut publiĂ© en 2018 [article en français sur LinuxFr.org] et la premiĂšre version de dĂ©veloppement pour GIMP 3.0 en 2020 [sur LinuxFr.org]). Avec GIMP 3.0 vous pourrez faire plus, mieux, plus facilement et plus rapidement !

Une semaine plus tard, la premiÚre version de correction de bug, GIMP 3.0.2, est déjà sortie pour régler quelques instabilités qui étaient passées entre les mailles de notre communauté de testeurs!

Image de démarrage de GIMP 3.0, par Sevenix (CC by-sa 4.0)
Image de démarrage de GIMP 3.0, par Sevenix (CC by-sa 4.0)

Cette dĂ©pĂȘche ne va pas tenter de couvrir l’ensemble des changements entre la sĂ©rie 2.10 et la version 3. Nous nous contenterons de mettre en lumiĂšre certaines des amĂ©liorations les plus remarquables de cette sortie.

Changements majeurs

  • Besoin de revoir les rĂ©glages d’un filtre appliquĂ© quelques heures plus tĂŽt ? L’édition non-destructive des calques arrive dans GIMP 3.0 pour les filtres les plus courants. La prĂ©visualisation dans la zone d’édition permet de voir les changements en temps rĂ©el. Filtre de Courbes appliquĂ© en non-destructif sur un portrait de Sofiia dans GIMP. Photo par Sofia (CC By-SA 4.0 International) Filtre de Courbes appliquĂ© en non-destructif sur un portrait de Sofiia dans GIMP. Photo par Sofia (CC By-SA 4.0 International)
  • Passez vos fichiers entre davantage de logiciels tiers, notamment avec la prise en charge des fichiers BC7 DDS (trĂšs utilisĂ©s dans l’industrie du jeu vidĂ©o) de mĂȘme qu’une meilleure prise en charge du format PSD, ou encore grĂące aux divers nouveaux formats d’image maintenant pris en charge! Dialogue d’exportation PSD dans GIMP 3.0 avec des options pour exporter des chemins de rognage (*clipping paths*), un profil CMJN et les mĂ©tadonnĂ©es Dialogue d’exportation PSD dans GIMP 3.0 avec des options pour exporter des chemins de rognage (« clipping paths Â»), un profil CMJN et les mĂ©tadonnĂ©es
  • Vous ne savez pas la taille que fera votre dessin? Activez la nouvelle fonctionnalitĂ© pour Ă©tendre la taille de vos calques automatiquement dans les outils de peinture.
  • La personnalisation des textes est maintenant plus puissante: stylisez vos textes (avec l’effet “Styles”), appliquez des contours, ombres, et effets biseaux, et plus. Stylisez vos textes avec l’effet GEGL Styles dans GIMP Stylisez vos textes avec l’effet GEGL Styles dans GIMP
  • L’organisation de vos calques est dĂ©sormais trĂšs simplifiĂ©e grĂące Ă  la capacitĂ© de sĂ©lectionner plusieurs Ă©lĂ©ments Ă  la fois, pour les dĂ©placer ou les transformer ensemble!
  • La gestion des couleurs continue d’ĂȘtre amĂ©liorĂ©e, encore et toujours, faisant ainsi de GIMP un Ă©diteur d’image avancĂ© pour tous. L’épreuvage Ă  l’écran est aussi simplifiĂ© avec gestion dans la barre des tĂąches de GIMP 3.0 L’épreuvage Ă  l’écran est aussi simplifiĂ© avec gestion dans la barre des tĂąches de GIMP 3.0
  • Mise Ă  jour de notre plateforme d’interface graphique (GTK3) pour un usage plus moderne du bureau.
  • Nouveau logo Wilber!

Nouveau logo de GIMP, Wilber, par Aryeom (CC by-sa 4.0)
Nouveau logo de GIMP, Wilber, par Aryeom (CC by-sa 4.0)

En savoir plus

Bien sĂ»r ce n’est qu’un mince aperçu des nouveautĂ©s de GIMP 3.0. Nous avons aussi prĂ©parĂ© des notes de sorties (en anglais) bien plus complĂštes listant les changements, amĂ©liorations, nouvelles fonctionnalitĂ©s et bien plus. Et si vous voulez plonger encore plus dans les dĂ©tails, vous pouvez vous perdre dans les milliers de lignes de notre fichier NEWS.pre-3.0, qui liste les changements entre 2.10 et 3.0, de toutes les versions de dĂ©veloppement (sĂ©rie 2.99) et des versions candidates.

Ou plus simplement, pour tester par vous-mĂȘme, tĂ©lĂ©chargez GIMP 3.0 directement sur notre page de tĂ©lĂ©chargement et lancez-vous!

Autres sorties de logiciels du GIMPVerse

Pour accompagner la sortie de GIMP 3.0, les empaqueteurs doivent savoir que nous avons aussi sorti :

Nous conseillons fortement Ă  tous les empaqueteurs de mettre aussi Ă  jour la derniĂšre version de GTK3: GTK 3.24.49. Celle-ci contient des corrections pour des problĂšmes majeurs (des plantages aux problĂšmes de pĂ©riphĂ©riques d’entrĂ©e, en passant par les dĂ©fauts d’interface graphique avec les Ă©critures s’affichant de droite Ă  gauche, et plus
).

L’aprĂšs-GIMP 3.0 !

GIMP 3.0 est un jalon majeur dans l’histoire du logiciel. Notre projet est dĂ©veloppĂ© trĂšs activement, et si vous pensez que cette sortie est dĂ©jĂ  super cool, attendez de voir ce que l’on vous prĂ©pare !

L’un des grands changements se situe dans notre politique de sortie. Alors que nous avions fait un dĂ©tour temporaire dans notre systĂšme de versionnements pour accepter de nouvelles fonctionnalitĂ©s lors des sorties de version micro pendant la sĂ©rie 2.10, nous revenons Ă  notre systĂšme de version historique, avec seulement des corrections de bugs pour les sorties micro et de nouvelles fonctionnalitĂ©s pour les sorties mineures et majeures
 sauf que nous allons accĂ©lĂ©rer la sortie des versions mineures! Ainsi chaque sortie mineure aura moins de fonctionnalitĂ©s, mais vous n’aurez pas Ă  attendre 6 ou 7 ans! Nous prĂ©voyons de sortir GIMP 3.2 d’ici un an au plus.

Ces derniĂšres annĂ©es, nous mettons aussi beaucoup plus l’accent sur le travail d’interface et l’expĂ©rience utilisateur (UX), avec la crĂ©ation d’un groupe de travail communautaire pour le design du logiciel. Ce projet est en constante Ă©volution, mais il porte dĂ©jĂ  ses fruits et amĂ©liorera beaucoup GIMP.

Enfin si quiconque souhaite un peu imaginer le futur de GIMP, vous pouvez jeter un Ɠil Ă  nos feuilles de route, regroupĂ©es par groupes de fonctionnalitĂ©s, qui sont autant de projets sur lesquels nous prĂ©voyons de travailler dans un futur Ă  plus ou moins court terme. Et certains de ces projets sont dĂ©jĂ  en cours de dĂ©veloppement !

Soutenez le dĂ©veloppement de GIMP !

N’oubliez pas que vous pouvez faire des donations et ainsi financer personnellement les dĂ©veloppeurs de GIMP, ce qui permet de donner en retour au projet et d’accĂ©lĂ©rer son dĂ©veloppement. L’engagement de la communautĂ© aide Ă  la stabilitĂ© et la robustesse du projet !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Mercator et Meta-press.es présentés au prochain webinaire de la série "Open Source by OW2"

OW2 donnera la parole aux projets Mercator et Meta-press.es, le jeudi 3 avril 2025 Ă  16h00

Cet Ă©pisode est le quatriĂšme de la sĂ©rie de webinaires « Open Source by OW2 », dĂ©diĂ©e aux innovations open source, aux projets et Ă  la communautĂ© OW2, ainsi qu’aux opportunitĂ©s de financement open source dont le programme europĂ©en NGI. DĂ©couvrez de nouveaux projets, des technologies, de l’innovation, des modĂšles ouverts au sens large (science/donnĂ©es/matĂ©riel/Ă©ducation/normes/protocoles/etc.), mais aussi des biens communs numĂ©riques, des financements, des modĂšles Ă©conomiques, de la coopĂ©ration et de l’impact social. Chaque webinaire met en avant un projet OW2 et un projet financĂ© par NGI.

Affiche

Agenda:

16:00: Introduction par Pierre-Yves Gibello, OW2 CEO
16:05: Mercator, une application web conçue pour faciliter la cartographie des systĂšmes d'information, presentĂ©e par Didier Barzin, Responsable SĂ©curitĂ© des SystĂšmes d'Information du Centre Hospitalier Émile Mayrisch (Luxembourg).
16:25: Meta-press.es, une extension de Firefox pour explorer les news récentes des médias sur votre moteur de recherche, sans intervention de tracker ou d'entreprise quelconque, presenté par Simon Descarpentries, Directeur général Acoeuro.com..

L’inscription est gratuite mais obligatoire. Les prĂ©sentations ont lieu en anglais. N’hĂ©sitez pas Ă  diffuser l’invitation !

Commentaires : voir le flux Atom ouvrir dans le navigateur

La liberté des calculatrices graphiques ?

Les calculatrices graphiques sont de lointains dĂ©rivĂ©s des ordinateurs de poche des annĂ©es 1980, dans lesquelles subsiste cette capacitĂ© native Ă  pouvoir ĂȘtre programmĂ©.
J’en serais probablement restĂ© Ă  mon expĂ©rience de lycĂ©en, et l’éternel combat Casio / Texas Instrument, s’il n’y avait pas eu un virage (pas forcĂ©ment bien courbe) autour de Python dans la fin des annĂ©es 2010.

Entre passion de l’informatique, doux rĂȘveur, promesse de calculatrice libre et rĂ©alitĂ© du marché  j’avais l’envie de vous partager mes quelques heures de recherches et de rĂ©flexions sur le sujet.

Sommaire

Ordinateur de poche, calculatrice et langage BASIC

Les ordinateurs de poche existent depuis les annĂ©es 80 et ont fait le succĂšs de sociĂ©tĂ©s telles que Sharp, Casio ou Psion. Ils se confondent avec les calculatrices les plus Ă©voluĂ©es, et restent aujourd’hui les seules survivantes de ces deux mondes.

Elles sont programmables, majoritairement dans de nombreux dialectes du langage BASIC, directement sur la machine, mais aussi dans d’autres langages plus bas niveau, souvent via un ordinateur plus conventionnel.

Une évolution de rupture

Dans la fin des annĂ©es 2010, deux Ă©volutions sont poussĂ©es dans le monde des calculatrices : le « mode examen Â» et le besoin d’un langage plus moderne, beaucoup se tournant vers le langage Python.

C’est l’occasion pour NumWorks de se lancer dans ce marchĂ© trĂšs spĂ©cial. Deux point sont mis en avant :

  • Le langage Python comme le langage de programmation utilisateur (alors que ce n’est qu’un autre ajout pour les constructeurs historiques).
  • Un modĂšle « libre Â», qui as fait beaucoup parler de ce nouveau venu, notamment ici.

Libre - Un peu, beaucoup, à la folie, passionnément
 pas du tout

La mise en application s’est vite montrĂ©e moins claire. La libĂ©ration matĂ©rielle tient, Ă  en juger par leur GitHub, Ă  huit fichiers STL, sous licence CC-BY-NC-ND, et dont la derniĂšre mise Ă  jour date de 2020. Il est donc interdit d’en faire des modifications et/ou une utilisation commerciale
 une libertĂ© relative.

Le systĂšme d’exploitation, nommĂ© epsilon, qui offre une bonne implĂ©mentation de Python, mais qui souffre de plusieurs problĂšmes de jeunesse, est bien disponible
 mais Ă©galement sous cette mĂȘme licence CC-BY-NC-ND.

Omega

CritiquĂ©e pour cette diffĂ©rence entre le discours commercial de libertĂ©, et la rĂ©alitĂ© de la licence, en mai 2018 elle fut finalement modifiĂ©e en CC-BY-NC-SA, autorisant donc la modification et la redistribution de versions modifiĂ©es. Il en naĂźtra notamment Omega un dĂ©rivĂ© communautaire d’Epsilon, alors en version 11.

Ma petite CASIO

Dans un esprit de dĂ©couverte, j’ai eu l’envie d’explorer moi-mĂȘme ce nouveau monde du Python sur calculatrice. Peut-ĂȘtre un peu entrainĂ© par les diffĂ©rentes lectures sur la calculatrice libre que je lisais un peu partout.

Cependant, l’interprĂ©tation assez personnelle de NumWorks du libre, et l’obligation de passer par leur site pour communiquer avec la calculatrice a orientĂ© mon choix vers une Casio Graph 90E.

Pas que cette derniĂšre soit plus libre, bien au contraire
 juste qu’elle est simplement reconnue comme une clef USB pour y transfĂ©rer des Ă©lĂ©ments depuis l’ordinateur et qu’elle a une communautĂ© plus importante.

Le micro-python qui y est intĂ©grĂ© est limitĂ©, et s’il permet de faire des choses
 on voit que le constructeur s’est limitĂ© Ă  ce qui Ă©tait juste nĂ©cessaire. Ce qui limite les possibilitĂ©s laissĂ©es aux utilisateurs.

J’aurais pu en rester lĂ , et c’est mĂȘme un peu ce que j’ai fait jusqu’à peu.

NumWorks - L’esprit d’ouverture
 ou pas

Alors que j’explorais d’autres domaines, et que ma Casio prenait la poussiĂšre, le monde Ă©voluait, et NumWorks en Ă©tait Ă  la 4ᔉ variante matĂ©rielle de sa calculatrice rĂ©volutionnaire.

La dĂ©finition du « Libre Â» par l’entreprise avait elle aussi eu le temps d’évoluer.

Epsilon depuis sa version 16 du 30 novembre 2021, verrouille les calculatrices pour n’autoriser que les systĂšmes officiels du constructeur. Un peu Ă  l’image des consoles de jeu, que certains hackent pour installer des homebrew ou firmware modifiĂ©s, il en devient de mĂȘme pour la « calculatrice libre Â» : on chasse les Ă©volutions communautaires.

Epsilon en est aujourd’hui (28 fĂ©vrier 2025) Ă  sa version 23
 sans volontĂ© affichĂ©e d’ouverture supplĂ©mentaire. Le dĂ©pĂŽt GitHub n’affiche pas de licence dans ses mĂ©tadonnĂ©es, mais une mention « Copyright - All rights reserved. NumWorks is a registered trademark. Â» figure en bas de la page de prĂ©sentation.

OmĂ©ga a mis en pause son dĂ©veloppement depuis fĂ©vrier 2024, renvoyant vers une autre alternative Upsilon, qui ne s’installe pas mieux sur une calculatrice NumWorks verrouillĂ©e
 mais quelqu’un a compilĂ© pour la CASIO.

La magie du libre

C’est M. Bernard PARISSE qui a compilĂ© une version d’Upsilon comme application pour la gĂ©nĂ©ration de CASIO que je possĂšde. Je vous invite Ă  en lire tous les dĂ©tails sur la page de son projet.

Arrivant donc à avoir le meilleur des mondes, le travail de NumWorks, les additions de la communauté et plus de puissance supplémentaire de ce matériel.

Mais cela est conditionné par la possibilité de pouvoir faire fonctionner des applications tierces sur ces calculatrices


Vers la fin des applications avancées

Il y a historiquement deux méthodes pour développer des applications pour ces calculatrices.

Un langage haut niveau, qui est un dialecte BASIC, une adaptation de Python, ou d’autres langages plus ou moins Ă©voluĂ©s, qui sont directement modifiables sur l’appareil (mĂȘme si le clavier d’une calculatrice n’y est pas toujours optimal).

Un langage bas niveau, typiquement du C ou mĂȘme de l’assembleur, Ă©ditĂ© et compilĂ© sur un ordinateur puis transfĂ©rĂ© vers la calculatrice (mĂȘme si certaines machines Sharp pouvaient se programmer en C directement sur la machine).

Et c’est un point que met en valeur Bernard PARISSE dans son argumentaire sur Upsilon pour CASIO : l’ouverture de ce constructeur aux dĂ©veloppements tiers.

Mais voila, ce n’est pas forcĂ©ment le sens que prennent les constructeurs, mĂȘme chez CASIO.

Le test communautaire de la CASIO Math+, qui succÚde à la Graph 90E, ne permet pas ces applications tierces développées en langage de bas niveau, et la conclusion sur ce point est tout sauf optimiste.


Voila qui conclut ce petit tour dans le sous-domaine de l’informatique qu’est celui des calculatrices graphiques, mĂȘme si ce n’est probablement pas ce qui vous servira dans une discussion autour de la machine Ă  cafĂ© (sauf, peut-ĂȘtre, si vous ĂȘtes prof de math).

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌