Vue normale

Reçu — 16 janvier 2026

LangExtract - La nouvelle pépite de Google pour extraire des données structurées avec l'IA

Par :Korben
16 janvier 2026 à 15:05

Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).

Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle LangExtract . C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.

Exemple d'extraction sur le texte de Roméo et Juliette ( Source )

Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme Sparrow , c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.

Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.

La visualisation interactive permet de valider les données en un clin d'œil ( Source )

Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !

Côté installation, c'est hyper fastoche :

pip install langextract

Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec Ollama . Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.

Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :

import langextract as lx

# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."

# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
 lx.data.ExampleData(
 text="ROMEO. But soft! What light...",
 extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
 )
]

# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
 text_or_documents="votre_texte_brut_ici",
 prompt_description=prompt,
 examples=examples,
 model_id="gemini-2.5-flash"
)

# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
 f.write(html_content)

Honnêtement, je ne sais pas si ça va remplacer les solutions industrielles de RPA , mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du Grist ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !

Source

Reçu — 15 janvier 2026
Reçu — 13 janvier 2026

Nouvelle cyberattaque contre une collectivité des Hauts-de-France

13 janvier 2026 à 11:07
Aprés Dunkerque et Lens, une cyberattaque à Hénin-Carvin : systèmes coupés, aucune fuite confirmée, enquête en cours sur les motivations possibles....
Reçu — 5 janvier 2026

Orla - L'outil CLI qui transforme votre terminal en assistant IA local

Par :Korben
5 janvier 2026 à 11:38

Ce qui est super relou avec les assistants IA en ligne, c'est qu'on doit leur faire confiance avec nos données. On tape une question, ça part dans le cloud, et on espère que personne ne stocke nos conversations sur la recette secrète du cassoulet de mémé.

Bah ça, c'est fini les amis !

Car Orla est là et c'est un outil en ligne de commande qui fait tourner des agents directement sur votre machine via Ollama . Pas de cloud, pas d'abonnement, pas de données qui partent on ne sait où. Juste votre CPU (ou GPU) qui bosse en local.

Orla - Dead-simple local AI agents ( Source )

Petit fun fact, en cherchant des infos pour écrire cet article, j'ai découvert que "Orla", ça voulait dire " prépuce " en hébreu... Hé ouais, je sais pas si le dev a capté ou pas mais fallait le préciser ^^.

L'installation sous macOS c'est :

brew install --cask dorcha-inc/orla/orla

Sous Linux ou si vous préférez le script :

curl -sSL https://raw.githubusercontent.com/dorcha-inc/orla/main/install.sh | bash

Et hop, c'est prêt.

Du coup, une fois installé, vous lancez votre première requête comme ça :

orla agent "Explique-moi les design patterns en Go"

Bref, deux mots et votre terminal se transforme en prof particulier. Mais là où ça devient vraiment sympa, c'est avec les pipes Unix. Vous pouvez balancer n'importe quoi à Orla :

cat mon_code.go | orla agent "Trouve les bugs potentiels"
git diff | orla agent "Rédige un message de commit"

Perso, c'est ce genre de trucs qui me fait kiffer car on retrouve la philosophie Unix avec des petits outils qui font une chose et qui la font bien, et surtout qu'on peut chaîner à l'infini.

Orla en action - simple et efficace ( Source )

Et le truc qui tue, c'est le mode serveur MCP. Vous lancez orla serve et paf, votre assistant local devient compatible avec Claude Desktop, Cursor, et tous les outils qui supportent le protocole MCP. C'est comme si vous aviez votre propre backend IA prêt à servir n'importe quelle interface.

Côté modèles, Orla supporte tout ce que propose Ollama : Llama, Mistral, Qwen, DeepSeek... Vous choisissez avec --model et c'est parti. Par défaut c'est qwen3, mais rien ne vous empêche de tester les modèles spécialisés code comme qwen3-coder.

Le projet embarque aussi un système de registre d'outils. Un orla tool install fs et hop, votre assistant peut lire et écrire des fichiers. Et comme vous pouvez créer vos propres outils, vous pouvez comme ça, ajouter des capacités modulaires à activer selon vos besoins.

Ce qui me plaît vraiment avec Orla, c'est donc cette philosophie où l'IA reste un outil que vous possédez, et pas un service que vous louez. Le projet est encore jeune bien sûr, mais activement maintenu et tourne sur macOS, Linux et Windows.

Mais si vous cherchez un moyen simple de bricoler avec des agents IA sans passer par les GAFAM, Orla c'est à tester !

Source

Reçu — 2 janvier 2026

Acemagic Retro X5 – Un mini-PC en forme de NES avec un CPU AMD surpuissant

Par :Korben
2 janvier 2026 à 10:12

Vous vous souvenez de la NES de votre enfance, celle qui trônait fièrement sous la télé du salon ? Hé bien le constructeur Acemagic vient de sortir un truc qui va vous faire retomber en enfance... tout en explosant vos benchmarks.

Le Retro X5, c'est un mini-PC qui reprend le design de la console Nintendo, mais à l'intérieur, c'est du sérieux puisqu'on y trouve un AMD Ryzen AI 9 HX 370 avec ses 12 cœurs et 24 threads qui montent jusqu'à 5,1 GHz en boost. Côté graphique, l'iGPU Radeon 890M en RDNA 3.5 avec 16 unités de calcul devrait faire tourner pas mal de jeux récents sans trop sourciller.

Le Retro X5 d'Acemagic reprend le design iconique de la NES

Et comme on est en 2026, y'a évidemment un NPU dedans et le XDNA 2 balance jusqu'à 50 TOPS pour toutes vos bidouilles IA locales. De quoi faire tourner des LLM sans avoir à envoyer vos données chez OpenAI.

Le truc malin d'après ce qu'on voit dans les teasers, c'est le logiciel RetroPlay Box qui serait préinstallé. Il s'agit d'une interface façon console rétro pour lancer vos émulateurs préférés directement depuis le canapé, parce que bon, avoir un monstre de puissance dans un boîtier nostalgique, c'est sympa, mais faut que ça serve à quelque chose.

Niveau connectique, on peut voir des ports USB-C et USB-A en façade sur les photos et le reste des specs (HDMI, Thunderbolt...) n'est pas encore officiellement confirmé, mais vu le processeur, on peut s'attendre à du lourd. Y'a même des LEDs RGB pour ceux qui aiment que ça brille dans le salon.

Les specs du Retro X5 : Ryzen AI 9 HX 370 et Radeon 890M

Bon, le prix n'est pas encore officiel et les précommandes démarrent courant d'année mais perso, je trouve le concept assez cool pour les nostalgiques qui veulent un PC de salon puissant sans le look tour gaming RGB-clignotante.

Par contre, reste à voir si la dissipation thermique suit dans un si petit boîtier...

Source

Reçu — 3 décembre 2025
❌