It’s 2026, Just Use Postgres | Tiger Data
(Permalink)
Le Health Data Hub, à savoir le grand entrepôt français de données de santé pour la recherche, va quitter les data centers de Microsoft pour migrer vers un opérateur souverain non soumis aux lois américaines, ce qui impose un hébergement qualifié SecNumCloud. Dès lundi, la France lance la …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Données de santé : la France abandonne Microsoft, préférant un cloud souverain est apparu en premier sur KultureGeek.
La plateforme de newsletters Substack a confirmé cette semaine avoir été la cible d’une violation de données survenue… au mois d’octobre 2025 ! L’incident n’a été découvert qu’au début du mois de février, ce qui a poussé l’entreprise à prévenir les utilisateurs concernés. Selon les informations communiquées, des …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Substack victime d’une énorme fuite de données : des utilisateurs alertés plusieurs mois après l’intrusion est apparu en premier sur KultureGeek.
Si vous bossez avec des LLM ou des systèmes de recherche sémantique, vous connaissez forcément la galère de jongler entre différentes bases de vecteurs... Entre Pinecone, Qdrant, pgvector et j'en passe, y'a de quoi perdre la tête. Il nous faudrait un truc aussi simple à prendre en main que DBeaver mais pour les bases vectorielles en fait...
AAAAH mais ça tombe bien parce que ça existe et que ça s'appelle VectorDBZ !
C'est une app desktop open source qui permet de connecter TOUTES vos bases vectorielles depuis une interface unique. En fait au début je pensais que c'était juste un viewer basique, mais non. Qdrant, Weaviate, Milvus, ChromaDB, Pinecone, pgvector... tout est accessible au même endroit.
Pour rappel, une base vectorielle c'est l'endroit où vous stockez vos embeddings, ces représentations de vos textes, images ou fichiers audio que les modèles d'IA utilisent pour comprendre et comparer les données. C'est devenu indispensable avec l'explosion des applications RAG et autres chatbots intelligents.
L'app tourne sur macOS, Windows et Linux et côté visualisation, c'est pas mal du tout puisque vous pouvez analyser vos vecteurs en 2D ou 3D grâce à des algos comme PCA, t-SNE ou UMAP. C'est plutôt sympa de voir comment les données se regroupent... et surtout ça permet de checker direct si vos embeddings ont du sens ou si c'est le bordel. Y'a aussi un système de recherche avancé avec filtres, de la pagination pour les grosses collections, et même la possibilité de générer des embeddings custom via du JavaScript.
Côté sécurité, tout est stocké localement avec chiffrement des credentials. Pas de cloud et ça supporte HTTPS/TLS pour les connexions à vos bases distantes.
L'installation c'est du classique... vous téléchargez le binaire (environ 180 Mo) pour votre OS depuis GitHub , vous lancez, et c'est parti.
Sur Mac, faudra probablement faire un petit xattr -cr VectorDBZ.app ou utiliser
Sentinel
parce qu'elle n'est pas signée. Ah et petit piège, si vous utilisez une base Qdrant avec authentification, faut penser à activer l'option API Key dans les settings de connexion, sinon ça timeout sans message d'erreur clair.
Avant, vous vous tapiez les CLI de chaque système, genre qdrant-client par-ci, pinecone-cli par-là... mais là avec VectorDBZ, tout est centralisé. Y'a bien sûr encore quelques petits trucs qui manquent comme l'export en batch ou la synchro entre bases, mais pour du debug au quotidien, ça fait le taf.
Bref, si vous passez vos journées à explorer des collections d'embeddings, VectorDBZ devrait vous simplifier la vie !

Mots de passe, Wi-Fi public, phishing, MFA : les gestes essentiels pour protéger efficacement vos données personnelles lors de la navigation en ligne.
Cet article Comment sécuriser vos données lorsque vous naviguez en ligne est apparu en premier sur Linformatique.org.
Une base de données massive expose 149 millions d'identifiants volés par des malwares, menaçant réseaux sociaux, finances et comptes gouvernementaux.
Cet article 149 millions d’identifiants exposés : ce que révèle la base « infostealer » est apparu en premier sur Linformatique.org.
La Commission nationale de l’informatique et des libertés (CNIL) a frappé fort en prononçant une sanction de 3,5 millions d’euros à l’encontre d’une entreprise qu’elle désigne sous le nom de « l’enseigne X ». Bien que l’autorité administrative ait gardé l’anonymat dans sa délibération officielle, l’identité de la société …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Intersport écope d’une amende après avoir transmis les données de ses clients à un réseau social est apparu en premier sur KultureGeek.
Vous pensiez que votre imprimante de bureau était juste un objet d'un autre temps qui enchaine des bourrages papier toute la journée et vous réclame de l'encre hors de prix comme un enfant qui attend sa têtée ? Ben va falloir revoir vos priorités niveau paranoïa, parce que c'est bien plus que ça !
Une enquête du Washington Post vient en effet de révéler comment le FBI a identifié un de leurs lanceurs d'alerte grâce aux logs d'impression de son employeur. Aurelio Luis Perez-Lugones, spécialiste IT pour un sous-traitant du gouvernement américain, aurait fait des captures d'écran de documents classifiés dans un SCIF (ces salles ultra-sécurisées où même votre téléphone n'entre pas), puis les aurait collés dans Word avant de les imprimer.
Et comment ils l'ont su ?
Hé bien il semblerait que les logs d'impression de sa boîte aient joué un rôle clé dans l'enquête, en complément des caméras de vidéosurveillance, bien sûr.
Car oui, ces systèmes ne se contentent pas de noter "Jean-Michel a imprimé 47 pages le 15 janvier". Non, ils peuvent stocker le contenu intégral des documents, les métadonnées, l'heure exacte, le poste de travail utilisé...etc. En gros, votre patron sait exactement ce que vous avez imprimé, et depuis combien de temps vous essayez de photocopier votre CV en douce.
Mais le plus flippant dans cette histoire, c'est que ça ne s'arrête pas aux logs réseau puisque même votre imprimante perso à la maison, elle-même, peut vous balancer, et cela depuis des décennies...
Vous avez déjà entendu parler des révélations d'Edward Snowden sur la surveillance de masse ? Ben là, c'est pareil, mais en version papier.
En effet, depuis les années 80, la plupart des imprimantes laser couleur intègrent un système de traçage appelé Machine Identification Code (MIC). Grâce à ce système, chaque page que vous imprimez contient une grille quasi-invisible de points jaunes d'environ 0,1 millimètre, espacés d'un millimètre. Ces points encodent le numéro de série de votre machine et la date/heure d'impression, ce qui fait que n'importe quel document imprimé peut être relié à une imprimante spécifique.
C'est discret, faut de bons yeux.
Le Chaos Computer Club et l'EFF ont documenté ce système depuis des années et l'EFF maintient même une liste des fabricants qui utilisent ces mouchards (spoiler : la plupart des grandes marques y sont).
Première étape : imprimez une page avec du contenu coloré sur fond blanc. Ensuite, examinez-la sous une lumière bleue ou un microscope et là vous verrez probablement une grille de points jaunes, à peine détectables à l'œil nu.
Pour les plus techniques d'entre vous, l'outil DEDA (Dot Evidence Documentation and Analysis) développé par l'Université Technique de Dresde permet d'analyser et même d'anonymiser ces traces.
Si vous êtes admin réseau ou simplement curieux de savoir ce que votre boîte enregistre, voici où chercher :
Sur Windows Server, direction la console de gestion d'impression. Les logs sont généralement dans l'Observateur d'événements sous "Applications et services" > "Microsoft" > "Windows" > "PrintService". Activez les logs "Operational" si ce n'est pas déjà fait.
Sur les imprimantes réseau, accédez à l'interface web d'administration (généralement l'IP de l'imprimante dans un navigateur). Cherchez une section "Logs", "Journal" ou "Historique des travaux". Certains modèles HP Enterprise ou Xerox stockent des semaines entières de données.
Sur les serveurs d'impression centralisés type PaperCut ou Equitrac, c'est la fête car ces solutions peuvent stocker énormément de données, du nom d'utilisateur jusqu'au contenu OCR des documents scannés si des modules ou intégrations spécifiques ont été activés.
Pour les points jaunes, DEDA propose un mode d'anonymisation qui ajoute du bruit dans le pattern. C'est pas parfait, mais ça complique sérieusement le traçage !
Après pour les logs réseau, c'est plus compliqué... En entreprise, vous n'avez généralement pas le contrôle. Par contre, si c'est chez vous, désactivez simplement la journalisation dans les paramètres de votre imprimante et évitez les services cloud des fabricants.
Ah et une dernière chose : si vous imprimez des documents sensibles mes petits lanceurs d'alertes préférés, privilégiez une imprimante laser noir et blanc d'occasion payée en cash. Les modèles monochromes n'ont pas les fameux points jaunes, et une machine sans historique réseau, c'est une machine qui ne parle pas.
Encore une fois c'est difficile de lutter contre cette surveillance généralisée, mais au moins maintenant vous savez que votre imprimante n'est pas qu'un simple périphérique !
C'est potentiellement le meilleur indic de votre bureau !

Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).
Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle LangExtract . C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.
Exemple d'extraction sur le texte de Roméo et Juliette ( Source )
Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme Sparrow , c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.
Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.
La visualisation interactive permet de valider les données en un clin d'œil ( Source )
Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !
Côté installation, c'est hyper fastoche :
pip install langextract
Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec
Ollama
. Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.
Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :
import langextract as lx
# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."
# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
lx.data.ExampleData(
text="ROMEO. But soft! What light...",
extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
)
]
# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
text_or_documents="votre_texte_brut_ici",
prompt_description=prompt,
examples=examples,
model_id="gemini-2.5-flash"
)
# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
f.write(html_content)
Honnêtement, je ne sais pas si ça va remplacer les solutions industrielles de RPA , mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du Grist ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !
