Vue lecture

Nouvelles sur l’IA de août 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…) ;
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

OpenAI publie GPT-5

L’annonce officielle :

We are introducing GPT‑5, our best AI system yet. GPT‑5 is a significant leap in intelligence over all our previous models, featuring state-of-the-art performance across coding, math, writing, health, visual perception, and more. It is a unified system that knows when to respond quickly and when to think longer to provide expert-level responses. GPT‑5 is available to all users, with Plus subscribers getting more usage, and Pro subscribers getting access to GPT‑5 pro, a version with extended reasoning for even more comprehensive and accurate answers.

Traduction :

Nous présentons GPT-5, notre meilleur système d'IA à ce jour. GPT-5 représente un bond significatif en intelligence par rapport à tous nos modèles précédents, offrant des performances de pointe en programmation, mathématiques, rédaction, santé, perception visuelle, et bien plus encore. Il s'agit d'un système unifié qui sait quand répondre rapidement et quand prendre plus de temps pour fournir des réponses de niveau expert. GPT-5 est disponible pour tous les utilisateurs, les abonnés Plus bénéficiant d'une utilisation accrue, et les abonnés Pro ayant accès à GPT-5 pro, une version avec un raisonnement étendu pour des réponses encore plus complètes et précises.

Comme à l’accoutumée chez OpenAI, le modèle est accompagné de sa System Card.

La musique est bien connue à présent : chacun tour à tour, les trois gros acteurs (OpenAI/Anthropic/Google DeepMind) sortent un nouveau modèle qui fait avancer l’état de l’art, prenant la première place… jusqu’à ce qu’un des deux autres la reprenne en sortant le sien. C’est au tour d’OpenAI avec GPT-5.

Le nom a suscité beaucoup d’espoirs et de déceptions, beaucoup anticipant un saut qualitatif du même type que le passage de GPT-3 à GPT-4. Ce qui n’est absolument pas le cas : techniquement parlant, le modèle aurait pu s’appeler o4, représentant une amélioration incrémentale relativement à o3. L’objectif affiché d’OpenAI, derrière cette dénomination, est double : premièrement, de clarifier une offre extrêmement brouillonne (4o/o3/o3-pro/4.1/4.5) en offrant une dénomination unique avec des variantes plus claires, et offrir un modèle bien plus proche de l’état de l’art aux utilisateurs gratuit de ChatGPT.

Clarification de l’offre

Les benchmarks et la plupart des retours le placent comme une légère avancée de l’état de l’art, sans être une révolution. L’évaluation de METR résume parfaitement la situation ; une amélioration qui était parfaitement prévisible juste en extrapolant les tendances existantes :

METR GPT-5

Une amélioration notable est sur le taux d’hallucinations. Rappelons que o3 avait été un des seuls modèles à voir son taux d’hallucinations augmenter relativement à son prédécesseur ; avec GPT-5, OpenAI semble avoir corrigé le tir :

Taux d’hallucinations GPT-5

Sur la sécurité des modèles, aucune nouveauté notable relativement à o3. Les mitigations relatives aux risques biologiques/chimiques sont toujours en place, et comme à l’accoutumé OpenAI a fait appel à divers organismes tiers pour mesurer les risques posés par le modèle dans différentes catégories.

Et comme à l’accoutumée, Pliny the Liberator a jailbreak le modèle en quelques heures.

À noter que sur ChatGPT, OpenAI comptait complètement retirer l’accès aux anciens modèles, mais est revenu sur sa décision suite aux retours de beaucoup d’utilisateurs préférant le style plus chaleureux de 4o.

Google Genie 3, Gemini 2.5 Flash Image et Gemini 2.5 Deep Think

Un mois prolifique pour Google, qui publie trois nouveaux modèles / modes de fonctionnement.

Google Genie 3 est présenté comme un « World Model » (modèle du monde ?). À partir d’un prompt textuel, et d’actions de navigation de l’utilisateur, il génère en temps réel la vue de l’utilisateur, frame par frame (à la manière d’un jeu vidéo). Il n’y a pas de représentation explicite externe de l’état du monde : c’est le modèle qui se charge de garder une certaine cohérence d’une frame à l’autre (comme la persistance des objets). Au delà de la preuve de concept, l’objectif affiché est de créer des environnements d’entraînement virtuels pour la robotique.

Autre publication, celle de Gemini 2.5 Flash Image, le modèle de génération d’images de Google. S’il ne semble pas avancer l’état de l’art de manière générale, sa grande force semble être le suivi d’instructions (et de respect des références) pour l’édition d’images.

Le mois précédent, DeepMind avait reporté avoir décoché un score correspondant à une médaille d’or aux Olympiades Internationales de Mathématiques, une avancée permise notamment par une utilisation plus stratégique de la chaîne de pensée (et d’avancées correspondantes sur la partie entraînement par renforcement). Google publie une version plus rapide, moins coûteuse et moins performante (cette version n’obtient « que » un score correspondant à la médaille de bronze sur les mêmes Olympiades), sous la dénomination Gemini 2.5 Deep Think. Le modèle a sa propre System Card ; tout comme OpenAI et Anthropic, les capacités de ce modèle dans le domaine CBRN (biologie/nucléaire) a conduit Google à placer des gardes-fous supplémentaires pour empêcher des usages malveillants.

En vrac

OpenAI publie son premier (depuis GPT-2, en 2019) modèle open-weight, gpt-oss. Au niveau des performances, il se placerait dans le peloton de tête des modèles open-weight, en compagnie de DeepSeek, Kimi, Qwen, GLM et Gemma, c’est à dire à peu près au niveau de la génération précédente des modèles entièrement fermés (comme Sonnet 3.6) / des versions rapides de la génération actuelle (Gemini 2.5 flash, o3-mini). WeirdML propose une visualisation intéressante sur leur propre benchmark pour vous donner un ordre d’idée. Rien de novateur au niveau de l’architecture, OpenAI s’en tient à la recette (maintenant universelle dans les modèles open-weight) d’une mixture d’experts. gpt-oss vient en deux variantes, la version complète, gpt-oss 120B, et une version plus légère et rapide, 20B.

Google publie un rapport sur l’impact environnemental de l’utilisation de Gemini. Cela exclu l’entraînement, mais les auteurs tentent de prendre en compte des coûts précédemment ignorés. Le résultat : 0,24 Wh d’électricité et 2,76 mL d’eau (le rapport initial mentionne 0,26 mL, mais sans comptabiliser l’eau utilisée pour générer les 0,24 Wh d’électricité) pour le prompt median (et l’équivalent de 0,03g de carbone émit).

Anthropic publie une nouvelle version de Opus, Opus 4.1. Comme la numérotation l’indique, il s’agit d’améliorations mineures — apparemment, un peu plus d’entraînement sur les tâches « agentiques » (utilisation d’outil) pour rendre Opus plus efficace sur ce type de tâches.

Similairement, DeepSeek publie une mise à jour « mineure » de son IA, DeepSeek v3.1. Les benchmarks fournis par DeepSeek semblent montrer un grand bond en avant, mais les quelques retours et benchmarks tiers ne corroborent pas ces prétentions — il s’agit probablement d’une mise à jour relativement mineure, comme la numérotation semble l’indiquer.

Nouvelle évaluation de l’IA, Prophet Arena. L’objectif est de permettre à l’IA de placer des positions virtuelles sur des marchés de prédiction, et de regarder ses performances. L’avantage de cette approche est de rendre complètement impossible la stratégie de juste mémoriser lors de l’apprentissage et régurgiter lors de l’évaluation : tout tâche est par essence nouvelle (car portant sur le futur). De plus, les résultats des marchés de prédiction forment un comparatif avec des prédictions par des utilisateurs humains. Résultat : les modèles les plus avancés (GPT-5, o3 Gemini 2.5 pro et Grok 4) dépassent les êtres humains sur le score de calibration, mais aucun n’arrive à traduire ça en de meilleurs retours financiers.

Anthropic se prépare à lancer Claude for Chrome, un plugin pour Google Chrome permettant à Claude d’interagir avec votre navigateur, à vos risques et périls.

En parallèle, les discussions sur claude.ai seront maintenant par défaut utilisées pour l’entraînement des versions suivantes de Claude, sauf si l’utilisateur désactive un paramètre sur son compte. Anthropic gardera les conversations pendant 5 ans.

Une nouvelle évaluation intéressante : TextQuests, qui évalue les modèles sur des jeux d’aventure textuels tels que Zork I. Cela a l’avantage de réellement tester les capacités de planification/raisonnement des modèles hors du domaine d’entraînement typique (mathématiques/programmation), tout en restant dans le domaine textuel (au contraire des évaluations multimodales, qui ont l’inconvénient de trop lier les résultats aux capacités perceptuelles des modèles).

Nouvelle technique d’interprétation des modèles, Model Diff Amplification. Elle consiste à amplifier les différences entre le pré-entraînement et le post-entraînement au moment de la génération, afin d’éliciter des comportements rares causés par le post-entraînement, ou tout simplement utiliser cette technique très tôt dans le post-entraînement pour se donner une idée des conséquences (prévues ou non) du post-entraînement complet.

Dr. Chistoph Heilig, chercheur en littérature et études bibliques, s’intéressant beaucoup aux capacités littéraires de l’IA, se met en tête d’évaluer GPT-5. Il se retrouve extrêmement surpris par la médiocrité de la prose produite par le modèle. De manière plus surprenante, un modèle complètement différent (Opus 4.1) juge le résultat comme étant de bonne qualité. La théorie qu’il propose est que ChatGPT 5 a été entraîné à l’aide d’un juge IA, et a appris à exploiter des constructions « peu humaines » que les modèles jugent systématiquement comme étant signes de qualité.

En parallèle de la sortie de GPT-5, OpenAI publie un guide sur comment créer un prompt, et un outil d’optimisation des prompts.

Anthropic et OpenAI font une tentative de coopération, où l’équipe d’évaluation de la sécurité des modèles d’OpenAI évalue les modèles d’Anthropic avec leurs outils, et vice-versa. Aucune trouvaille surprenante (si ce n’est l’incapacité des deux équipes de détecter la flagornerie flagrante de 4o), mais le concept est intéressante.

xAI publie la version précédente de son IA, Grok 2, en open-weight.

Une étude d’Anthropic développe un moyen pour identifier un sous-ensemble d’un modèle associé à un « trait de personnalité » particulier. Cela permet d’amplifier ou de supprimer ce trait, ou encore de détecter son activation.

« L’IA a-t-elle la qualité de patient moral » (en d’autres termes : devons-nous tenir compte de son bien-être pour des raisons morales) ? Anthropic commence à prendre la question au sérieux, avec comme première décision de permettre à son IA, Claude, d’unilatéralement mettre fin à une conversation qu’il jugerait abusive.

GPT-5 finit Pokémon Rouge en trois fois moins de temps que o3. La réduction du taux d’hallucinations serait la principale source de ce gain de performances. Gemini a également terminé sa partie de Pokémon Jaune. Claude, par contre, peine toujours à aller plus loin que Celadon…

La Chine continue à appeler à la coopération internationale pour la régulation du développement de l’IA, que ce soit par la voix du premier ministre ou d’universitaires.

Lors du sommet sur l’intelligence artificielle de Seoul de 2024, la plupart des acteurs, incluant Google, s’étaient volontairement engagés à suivre certaines actions relatives à la sécurité des modèles. Essentiellement, ce que le plupart faisaient déjà : publier une politique de sécurité des modèles, et s’engager à la suivre. Google se trouve aujourd’hui critiqué pour ne pas avoir suivi ses propres engagements. En cause, la publication de Gemini 2.5 Pro sans sa System Card associée, qui est arrivée plusieurs semaines après la publication du modèle. Google se défend en affirmant que la publication était clairement mentionnée comme « expérimentale ».

Entraîner l’IA à être chaleureuse et empathique réduit ses performances.

Sur le sujet de la flagornerie de l’IA, un internaute s’attelle à une évaluation des différents modèles.

Le gouvernement Danois veut faire rentrer l’apparence physique et la voix dans le cadre du copyright afin de lutter contre les deepfakes.

Pour aller plus loin

Voici d'autres ressources, qui n'ont pas été abordées dans cet article.

Par Zvi Mowshowitz :

Dans les dépêches de LinuxFr.org :

Dans les journaux de LinuxFr.org :

Dans les liens de LinuxFr.org :

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

KDiskMark : l’alternative Linux à CrystalDiskMark pour tester vos disques

KDiskMark est un outil libre et open-source pour GNU/Linux qui permet de tester les performances des disques durs et SSD, comme CrystalDiskMark sur Windows. L’application propose une interface graphique avec des réglages prédéfinis. Elle s’appuie sur FIO pour effectuer les tests et permet de configurer la taille des blocs, le nombre de files d’attente et […]
  •  

Rapport annuel ThreatLabz sur les attaques par ransomware

Forte hausse des attaques par ransomware avec une augmentation de 146 % des tentatives dans un contexte de tactiques d’extorsion agressives. Le rapport annuel ThreatLabz de Zscaler révèle que des groupes de ransomware clés ont volé 238 To de données en un an. Tribune. Principales conclusions : Les attaques par ransomware bloquées par le cloud […]

The post Rapport annuel ThreatLabz sur les attaques par ransomware first appeared on UnderNews.
  •  

Plus de la moitié des experts en cybersécurité se sentent dépassés par la gestion des outils provenant de fournisseurs multiples

Selon une récente étude de Kaspersky, 72 % des entreprises françaises utilisent des écosystèmes de sécurité composés de multiples fournisseurs. Toutefois, cette fragmentation des solutions entraîne des difficultés opérationnelles et financières. Tribune Kaspersky – Intitulée « Improving resilience: cybersecurity through system immunity » (Améliorer la résilience : la cybersécurité grâce à l’immunité des systèmes), cette étude offre […]

The post Plus de la moitié des experts en cybersécurité se sentent dépassés par la gestion des outils provenant de fournisseurs multiples first appeared on UnderNews.
  •  

Pourquoi un audit de cybersécurité est essentiel pour les PME ?

Les cyberattaques ne concernent plus uniquement les grandes entreprises. Aujourd’hui, les PME figurent parmi les cibles les plus fréquentes des hackers, souvent parce qu’elles pensent à tort ne pas être exposées. Pourtant, un vol de données, un ransomware ou une simple faille non corrigée peut paralyser une activité, générer des pertes financières importantes et nuire […]

The post Pourquoi un audit de cybersécurité est essentiel pour les PME ? first appeared on UnderNews.
  •  

Événement Cyberéco par le Campus Cyber, le 2 octobre 2025 – Programme et intervenants

Après deux éditions ayant chacune attiré plus de 700 participant·es, Cyberéco revient le jeudi 2 octobre 2025, de 8h30 à 18h, au Campus Cyber, le lieu totem de la cybersécurité, situé à La Défense en Île-de-France, pour une nouvelle journée dédiée à la sécurité économique et numérique. Communiqué – Cette journée gratuite, organisée en partenariat […]

The post Événement Cyberéco par le Campus Cyber, le 2 octobre 2025 – Programme et intervenants first appeared on UnderNews.
  •  

MiniVid : indexage, lecture, tags et favoris pour vos vidéos locales

Il y a quelque temps on m’a demandé si je connaissais un agrégateur et lecteur de vidéos auto-hébergé. Après avoir parlé des classiques Plex, Emby, Jellyfin, Kodi, j’ai compris que c’était comme prendre un tank pour aller chercher le pain… vu qu’il s’agissait d’avoir une interface de lecture de vidéos X.

Le fait est que je n’ai rien trouvé de probant, simple, assez récent, puis ça m’a saoulé. J’ai donc créé MiniVid, présenté ici et dont le code est publié sur GitHub !

Bien évidemment, ça s’adapte parfaitement à d’autres vidéos comme des clips, documentaires, téléchargements YouTube, Twitch etc.

minivid1
minivid4
minivid2
minivid3
📂 Navigation par dossiers
Accédez à vos vidéos avec une arborescence claire.

🔖 Tags automatiques extraits des noms de fichiers
Tags globaux par dossier
Tags individuels par fichier
Multi-sélection et recherche par tags
Blacklist configurable pour supprimer les mots inutiles (and, the, source, etc.)

🔍 Recherche avancée
Par nom de fichier
Par tags multiples
Par favoris
Par statut Lue / Non lue

🗂 Filtres et tris personnalisables
Nom
Taille
Date de modification
Statut Lues / Non lues

⭐ Favoris
Marquez vos vidéos d’un clic (★)
Accédez à la vue dédiée « Favoris »

🎥 Lecteur intégré (HTML5 natif)
Supporte mp4, webm et mkv (Chrome/Chromium)
Les fichiers non compatibles avec Firefox (.mkv, .avi, .flv, .m2ts) sont automatiquement basculés en remux/transcodage à la volée avec ffmpeg si activé

🖼 Miniatures automatiques
Générées avec ffmpeg
Capture par défaut à 5 secondes (pour éviter logos/intro)
Ajustable via variables (MINI_THUMB_OFFSET, MINI_THUMB_MAX)

📱 Interface responsive
Desktop, tablette et mobile

🌙 Mode clair / sombre
Bascule instantanée

🛠 Page Maintenance
Rescan complet de la bibliothèque
Purge des miniatures
Journal d’événements en direct (logs des actions)

⏱ Scan automatique
Toutes les heures par défaut
Intervalle configurable via MINI_SCAN_INTERVAL

🔐 Authentification optionnelle
Mode public ou mono-utilisateur avec identifiant/mot de passe

⚙ Configuration simple
Tout se règle via variables d’environnement dans votre docker-compose.yml

VariableValeur par défautDescription
MEDIA_DIRS(vide)Liste des dossiers vidéos (séparés par `
MEDIA_NAMESDossier 1, Dossier 2…Noms affichés pour chaque dossier (même ordre que MEDIA_DIRS)
MINI_ALLOWED_EXT.mp4,.webm,.mkv,.avi,.flv,.m2tsExtensions autorisées
MINI_BANNED_TAGS(vide)Liste de mots à ignorer lors de la génération de tags (and,the,source,…)
DATA_DIR/dataDossier de stockage interne (état, favoris, prefs)
THUMB_DIR/cache/thumbsDossier cache des miniatures
MINI_USER(vide)Identifiant de connexion (optionnel)
MINI_PASS(vide)Mot de passe de connexion (optionnel)
SECRET_KEY(aléatoire)Clé de session Flask (authentification)
MINI_PLAYBACKdirectMode lecture : direct, auto, remux
MINI_TRANSCODE0Autoriser le transcodage H.264/AAC (1 = oui, 0 = non)
MINI_FIREFOX_MKV_FALLBACK1Force le remux des .mkv dans Firefox
MINI_AUTOSCAN1Activer le rescan automatique (1 = oui)
MINI_SCAN_INTERVAL3600Intervalle entre scans auto (en secondes)
MINI_THUMB_OFFSET5Seconde du screenshot miniature
MINI_THUMB_MAX30Offset max (si vidéo longue)
MINI_FFPROBE_TIMEOUT10Timeout en secondes pour ffprobe/ffmpeg
API_READ_KEY(vide)Clé API (optionnelle) pour accès en lecture seule


Pour l’installation et la configuration, reportez-vous au dépôt GitHub.


Exemple de docker-compose.yml

services:
  minivid:
    build: .
    container_name: minivid
    restart: always
    environment:
      TZ: Europe/Paris
      MEDIA_DIRS: /videos1|/videos2|/videos3|/videos4|/videos5
      MEDIA_NAMES: ruTorrent|MeTube|Docs|Concerts|Tests formats vidéo
      DATA_DIR: /data
      THUMB_DIR: /cache/thumbs
      MINI_ALLOWED_EXT: .mp4,.webm,.mkv,.avi,.flv,.m2ts
      MINI_PLAYBACK	Mode de lecture : auto
      MINI_TRANSCODE: 1
      MINI_FIREFOX_MKV_FALLBACK: 1
      MINI_THUMB_OFFSET: 5
      MINI_THUMB_MAX: 30
      MINI_AUTOSCAN: 1
      # Auth (prises du .env ; si vide => pas d'auth)
      MINI_USER: ${MINI_USER}
      MINI_PASS: ${MINI_PASS}
      SECRET_KEY: 032cb57bd9a0ed97c62a46518aaa3cf2ka9d256da92e17e75e75d282ad5cda87
      # Liste noire tags (les mots de moins de 3 lettres sont automatiquement bannis)
      MINI_BANNED_TAGS:  >
        and,the,source,video,videos,vid,vids,film,movie,part,
        les,une,des,ils,elles,sur,sous,dans,par,pour,sans,avec,chez,
        cet,cette,ces,mon,mes,ton,tes,ses,notre,nos,votre,vos,leur,leurs,
        qui,que,quoi,dont,quand,comme,
        your,they,for,with,without,into,onto,about,this,that,these,those,
        here,there,then,than,are,was,being,been,have,had,just,only,
        over,under,very,more,most,less,were,com,net
    volumes:
      - /mnt/user/rutorrent-direct:/videos1:ro
      - /mnt/user/MeTube:/videos2:ro
      - /mnt/user/TEST/Docs:/videos3:ro
      - /mnt/user/TEST/Concerts:/videos4:ro
      - /mnt/user/TEST/Formats:/videos5:ro
      - /mnt/user/appdata/MiniVid/data:/data
      - /mnt/user/appdata/MiniVid/cache:/cache
      - /etc/localtime:/etc/localtime:ro
      - /etc/timezone:/etc/timezone:ro
    ports:
      - "8080:8080"

  # Scan toutes les INTERVAL secondes
  minivid-scheduler:
    image: curlimages/curl:8.10.1
    container_name: minivid-scheduler
    depends_on:
      - minivid
    restart: always
    environment:
      APP_URL: ${APP_URL}
      MINI_USER: ${MINI_USER}
      MINI_PASS: ${MINI_PASS}
      INTERVAL: ${INTERVAL}
    command: >
      sh -c '
        set -eu;
        for i in $(seq 1 60); do curl -fsS "$APP_URL/maintenance" >/dev/null 2>&1 && break || sleep 2; done
        while :; do
          if [ -n "$MINI_USER" ] && [ -n "$MINI_PASS" ]; then
            # login (remember=on)
            curl -sS -c /tmp/c.jar -X POST "$APP_URL/login" \
              -d "username=$MINI_USER" -d "password=$MINI_PASS" -d "remember=on" -o /dev/null || true
            if curl -sS -b /tmp/c.jar "$APP_URL/api/maintenance/progress" | grep -qi "\"running\"\\s*:\\s*true"; then
              sleep 120
            else
              curl -m 5 -sS -b /tmp/c.jar -X POST "$APP_URL/api/maintenance/rescan" -o /dev/null || true
            fi
          else
            curl -m 5 -sS -X POST "$APP_URL/api/maintenance/rescan" -o /dev/null || true
          fi
          sleep "$INTERVAL"
        done
      '

Exemple de .env

# URL interne du service
APP_URL=http://minivid:8080

# Auth (laisser vide pour désactiver l'auth)
MINI_USER=admin
MINI_PASS=admin

# Fréquence en secondes (3600 = 1h)
INTERVAL=3600

L’indexation des fichiers se fait à la volée au 1er lancement, plus ou moins rapidement selon la quantité de vidéos et le CPU. Le transcodage sous Firefox/LibreWolf peut faire souffrir le CPU sur une petite machine, je ne l’ai pas optimisé vu qu’il est plus rapide de passer par un autre navigateur.

Aucun appel externe, tout est 100% local. Fonctionne en http://IP:port comme en reverse proxy.

minivid8
minivid11
minivid9
minivid10
minivid5
minivid6
minivid7

Loading

  •  

Cloud ou On premises : quelle infrastructure informatique ?

Si la dépense informatique mondiale a augmenté d’environ 10% sur l’année passée (atteignant environ 5,61 trillions de dollars cette année selon Gartner), les équipes IT sont, elles, enjointes à la frugalité.    Tribune par Uwe Geuss, CTO, Retarus – Parmi les dépenses les plus critiquées, l’infrastructure cloud est l’objet de la tendance dénommée “cloud repatriation”, du fait de son coût exponentiel. En effet, […]

The post Cloud ou On premises : quelle infrastructure informatique ? first appeared on UnderNews.
  •  

Arnd Bergmann : aucun produit moderne ne justifie encore le recours au 32 bits. Pour le responsable général de la compatibilité architecturale dans le noyau Linux, le temps est venu de parler de sa suppression

Arnd Bergmann : aucun produit moderne ne justifie encore le recours au 32 bits.
pour le responsable général de la compatibilité architecturale dans le noyau Linux, le temps est venu de parler de sa suppression

Pendant des décennies, le 32 bits a incarné la norme dans l'univers informatique. Le noyau Linux, né au début des années 1990 sur des processeurs 386, a grandi en même temps que l'architecture IA-32 et ses dérivés. Pendant longtemps, l'idée même de porter Linux sur une machine 64 bits paraissait...

  •  

Sécurité et IA : les 4 nouveaux risques à éviter

C’est un secret de Polichinelle :  l’intelligence artificielle révolutionne les opérations IT des entreprises. Optimisation des processus, meilleure prise de décision, réduction des erreurs… Mais cette efficacité accrue s’accompagne d’une exposition plus importante aux menaces cyber. Les cyberattaquants exploitent désormais l’IA pour lancer des attaques plus sophistiquées, augmenter leur portée et identifier plus rapidement les failles […]

The post Sécurité et IA : les 4 nouveaux risques à éviter first appeared on UnderNews.
  •  

Cybersécurité : Prendre les bonnes options pour assurer sa mise en conformité à la directive NIS 2

Le constat est sans appel. Près d’une entreprise sur deux (47 %) a subi au moins une cyberattaque réussie en 2024. Une tendance à la hausse qui ne risque pas de s’inverser, l’Hexagone ayant enregistré +40 % d’atteintes numériques en 5 ans. Désormais, dans un contexte de fortes tensions géopolitiques, plus aucun secteur ni organisme n’est épargné. Les […]

The post Cybersécurité : Prendre les bonnes options pour assurer sa mise en conformité à la directive NIS 2 first appeared on UnderNews.
  •  

Invisible, chiffrée, intelligente : la nouvelle menace que votre firewall ne voit pas

La cybersécurité vit une rupture. Les attaques n’ont jamais été aussi nombreuses, sophistiquées et surtout silencieuses. Une tendance confirmée par les chiffres : 97 % des entreprises ont au moins un terminal infecté par un botnet. 1 entreprise sur 3 a été ciblée par un rançongiciel au cours de l’année. La plupart des flux malveillants […]

The post Invisible, chiffrée, intelligente : la nouvelle menace que votre firewall ne voit pas first appeared on UnderNews.
  •  

Les attaques contre le secteur de l’éducation se multiplient : comment les cyber-défenseurs peuvent-ils réagir ?

Nous souhaitons tous offrir la meilleure éducation possible à nos enfants. Cependant, même les stratégies les mieux élaborées peuvent échouer face à un adversaire agile, persistant et rusé. Les groupes d’attaques alignés sur des États-nations et les cybercriminels constituent aujourd’hui l’une des menaces les plus sérieuses pour les écoles, collèges et universités. Selon Microsoft, le […]

The post Les attaques contre le secteur de l’éducation se multiplient : comment les cyber-défenseurs peuvent-ils réagir ? first appeared on UnderNews.
  •  

Typst, un système de composition de document qui grandit

Vous en souvient-il ? En deux mille vingt-cinq, qpad nous présentait Typst, un nouveau système de composition de documents qui se posait en concurrent de LaTeX.

Depuis, Typst semble avoir grandi, en s’assortissant d’une galaxie (pardon, un univers) de paquets tiers. En fait, j’ai surtout l’impression qu’il a gagné en notoriété, ou en quantité de mouvement, pour le dire comme les anglophones. C’est l’occasion de présenter à nouveau ce système de composition.

Sommaire

Un système de composition de documents

Typst est donc un système de composition de documents. Comme LaTeX, il est non-visuel, c’est-à-dire qu’on code son document qui est ensuite compilé en PDF.

Concrètement, l’outillage se compose, au choix :

Concurrent à LaTeX

Typst partage plusieurs caractéristiques avec LaTeX dont il est ouvertement inspiré :

  • c'est un système non visuel avec un langage dédié ;
  • il est conçu pour permettre d’écrire des documents scientifiques.

Bien que je n’aie pas vérifié ce point, il me semble probable qu’il utilise également quelques algorithmes de mise en page assez incontournables, définis par Donald Knuth pour TeX, par exemple pour la coupure des lignes d’un paragraphe.

Il s’écarte évidemment de LaTeX sur plusieurs aspects, sinon ce ne serait pas vraiment un nouveau système de composition :

  • c’est un système autonome, contrairement à LaTeX qui est construit sur TeX ;
  • il est conçu dès le départ avec des préoccupations actuelles (Unicode, PDF…) ;
  • il est conçu comme un langage humainement compréhensible, là où TeX semble franchement ésotérique.

Impressions d’un LaTeXnicien

Quand on arrive de LaTeX, l’impression est assez partagée, entre des différences significatives, de gros avantages et quelques inconvénients.

Le langage de texte

Le langage de base pour le texte est différent de LaTeX, mais ce n’est pas vraiment dérangeant dans la mesure où on parle seulement de paragraphes, de titres, de mise en emphase, de listes, etc. Bref, le genre de chose qu’on fait aussi bien en Markdown. D’ailleurs, Typst étant né après le développement des langages de balisage léger, sa syntaxe Typst est justement assez proche de Markdown, ce qui n’est pas désagréable :

= Titre de section

Voici du texte avec _une emphase_, *une emphase forte* et un `peu de code`.

À noter que cette syntaxe légère n’est en fait que du sucre syntaxique, et qu’on peut écrire la même chose en faisant explicitement appel à des fonctions nommées.

La compilation

Pour celles et ceux qui n’ont pas l’habitude de LaTeX, compiler un document un peu costaud, qui fait appel à quelques extensions, ça demande un temps de l’ordre d’une ou plusieurs secondes, et cela produit des centaines, voire des milliers de lignes de log. Pour avoir des références internes (sommaire, références à des images…) et externes (bibliographie), il faut lancer plusieurs fois la compilation.

Pour qui vient du monde LaTeX donc, la compilation par Typst est hallucinante. Une seule passe, même si en interne, Typst fait certainement au besoin plusieurs itérations. Quelques dizaines de millisecondes. Ok, c’était pour un document ultra-simple, mais les commentaires lisibles sur les Interwebz font généralement état d’un rapport d’un ou deux ordres de grandeur par rapport à LaTeX.

Le langage de configuration et d’extension

Là où ça change vraiment, c’est pour tout ce qui relève des réglages, des modèles, de la personnalisation ou de la programmation d’extensions. Là, ça n’a plus rien à voir avec TeX et LaTeX. À mon avis, ce n’est pas un mal dans la mesure où le langage TeX et les conventions utilisées pour le développement en LaTeX sont assez complexes, voire incompréhensibles.

Cela se ressent dans le code des extensions. À titre de comparaison, celui de la classe LaTeX lettre fait quelques milliers de lignes. Et c’est assez illisible pour qui ne connaît par TeX. Le code du modèle formalettre, qui n’est certes pas aussi complet mais qui fait très bien le travail de base d’une telle classe, fait une centaine de lignes, que je trouve relativement lisibles pour un béotien.

L’utilisation de paquets tiers

Les paquets tiers, hébergés sur l’univers Typst, sont téléchargés à l’utilisation. Par rapport à une distribution LaTeX qui pèse facilement plusieurs centaines de mébioctets, ça donne une vraie impression de légèreté.

La francisation

L’adaptation aux conventions en usage en langue française, ou dans les différents pays francophones, me semble encore assez incomplète.

Lorsqu’on passe un document en français, les changements de base s’effectuent bien : un sommaire s’appellera bien « Tables des matières » et les césures respecteront l’usage de la langue.

En revanche, cela n’adapte pas la mise en forme des paragraphes avec alinéa, et on attendrait en vain que des mots comme 1ᵉʳ, 2ᵉ ou Mme soient automatiquement mis en forme selon l’usage attendu. Et non, il n’y a pas de commandes définies pour cela. Pas encore, en tout cas, parce que je serais surpris que personne ne publie un jour un paquet proposant tout cela.

Les modèles

L’équivalent d’une classe LaTeX est un modèle Typst. Cela correspond à un type de document, par exemple un article, un rapport ou une lettre.

Typst ne semble pas proposer de modèles officiels. Il y en a en revanche par mal dans l’univers Typst, et le langage est conçu pour rendre la création d’un modèle assez accessible. Le troisième chapitre du tutoriel officiel traite justement de la création d’un modèle.

Un bel avenir ?

Typst a été conçu à partir de 2019 et a vraiment vu le jour en 2023. J’en ai entendu parler pour la première fois en mars 2023, dans le journal de qpad.

Les lacunes que j’avais alors remarquées et qui me retenaient de commencer à l’utiliser pour mes propres documents, semblent avoir été comblées pour l’essentiel. L’univers Typst, qui est le dépôt de paquets tiers, s’est largement rempli et semble bien jouer son rôle pour permettre aux utilisateurs de partager les extensions et modèles.

Le langage semble bien conçu :

  • il joue correctement son rôle pour la mise en forme de documents et de contenu scientifique ;
  • il est beaucoup plus humain que TeX et LaTeX lorsqu’il s’agit d’écrire des modèles et des extensions.

L’écosystème est également bien conçu et bien fourni et semble bien répondre aux attentes de la communauté, avec une légèreté bienvenue. Dans l’ensemble, j’ai l’impression que Typst est bien parti pour proposer un successeur sérieux à LaTeX. Je formule tout de même quelques interrogations :

  • la distribution de paquets tiers, incontournable, semble intégralement centralisée et dépendante de l’univers Typst ;
  • ce dernier, ainsi que Typst en général, est maintenu par l’entreprise allemande Typst GmbH dont le financement dépend de la vente d’abonnements aux formules premium de l’application Web : espérons que cela s’avère pérenne.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Revue de presse de l’April pour la semaine 35 de l’année 2025

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] Non, Grok 2.5 n'est pas open source. Voici pourquoi

✍ Steven Vaughan-Nichols, le mercredi 27 août 2025.

Lisons les petits caractères.

[Frandroid] Windows 11 devient (partiellement) open source: voici le plan et les raisons

✍ Ulrich Rozier, le mercredi 27 août 2025.

Microsoft change de braquet avec WinUI. L’entreprise vient d’annoncer l’ouverture progressive de son framework d’interface utilisateur, cœur de Windows 11, selon un plan en quatre phases. Une révolution pour l’écosystème de développement Windows.

[Les Numeriques] Ces logiciels open source que j'installe systématiquement sur Windows

✍ Antoine Roche, le lundi 25 août 2025.

Sur Windows, y a-t’il des applications open source dont vous ne pourriez pas vous passer? Voici les nôtres.

[ZDNET] L'IA s'immisce dans le noyau Linux, et une politique officielle est nécessaire au plus vite

✍ Steven Vaughan-Nichols, le lundi 25 août 2025.

Les outils d’IA peuvent aider les mainteneurs Linux, mais ils peuvent aussi semer le chaos. Voici les points à traiter – rapidement – avant que la situation ne dégénère

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Nouveau livre blanc de Filigran : adopter une démarche structurée pour faire face aux cybermenaces dans la tech

Alors que les entreprises technologiques sont devenues des cibles privilégiées d’attaques toujours plus sophistiquées, la nécessité d’une cybersécurité alignée sur la réalité des menaces n’a jamais été aussi forte. Dans ce contexte, Filigran publie un nouveau livre blanc intitulé « Threat-Informed Defense for the Technology Sector », conçu pour aider les acteurs du secteur à anticiper, simuler […]

The post Nouveau livre blanc de Filigran : adopter une démarche structurée pour faire face aux cybermenaces dans la tech first appeared on UnderNews.
  •  

SentinelOne et Beazley découvrent de nouvelles campagnes PXA Stealer

SentinelLabs et Beazley Security ont découvert une série de campagnes malveillantes en pleine expansion basée sur un infostealer sophistiqué en langage Python (PXA Stealer). Largement répandu, ce malware se distingue par des techniques d’anti-analyse sophistiquées : du contenu leurre non malveillant et une infrastructure de commande et de contrôle renforcée, pour compliquer sa détection et retarder […]

The post SentinelOne et Beazley découvrent de nouvelles campagnes PXA Stealer first appeared on UnderNews.
  •  

Recherche Proofpoint : attaque par rétrogradation de l’authentification FIDO pour contourner les protections contre le phishing

Les chercheurs de Proofpoint ont publié aujourd’hui un nouveau rapport sur une attaque par rétrogradation sophistiquée qui pourrait contourner l’authentification basée sur FIDO, exposant ainsi les cibles à des menaces de type « adversary-in-the-middle » (AiTM). Tribune. Les principales conclusions de ce rapport sont les suivantes : En utilisant un « phishlet » dédié, les […]

The post Recherche Proofpoint : attaque par rétrogradation de l’authentification FIDO pour contourner les protections contre le phishing first appeared on UnderNews.
  •  

Déclaration du GTIG concernant les entreprises liées à la Chine qui ciblent les infrastructures critiques

Comme vous l’avez peut-être vu, le NCSC et ses alliés internationaux ont publiquement établi un lien entre trois entreprises technologiques basées en Chine et « une campagne mondiale cybermalveillante visant des réseaux critiques ». Tribune – Ci-dessous, la déclaration de John Hultquist, analyste en chef, Google Threat Intelligence Group, à ce sujet : « Mandiant s’est engagé dans […]

The post Déclaration du GTIG concernant les entreprises liées à la Chine qui ciblent les infrastructures critiques first appeared on UnderNews.
  •  

Les cyberattaques visant le secteur de l’éducation explosent à l’approche de la rentrée scolaire

Alors que des millions d’élèves retrouveront lundi leurs salles de classe, les établissements scolaires sont confrontés à un défi de taille : une forte hausse des cyberattaques. Selon Check Point Research, de janvier à juillet 2025, le secteur de l’éducation a conservé son statut d’industrie la plus ciblée au monde, avec en moyenne 4 356 […]

The post Les cyberattaques visant le secteur de l’éducation explosent à l’approche de la rentrée scolaire first appeared on UnderNews.
  •