Vue normale

Reçu aujourd’hui — 15 janvier 2026

TranslateGemma - La traduction locale haute qualité par Google

Par :Korben
15 janvier 2026 à 20:33

Vous connaissez Gemma ? Bon, hé bien Google vient de remettre une pièce dans la machine avec TranslateGemma , une nouvelle collection de modèles ouverts dédiés exclusivement à la traduction.

Si vous utilisez Google Translate ou DeepL au quotidien, c'est super, ça marche bien, mais ça demande quand même une connexion internet et vos données partent dans le cloud. Donc pour ceux qui veulent garder leurs petits secrets de fabrication (ou juste les lettres d'amour de leur vieille prof de théâtre) en local, c'est souvent un peu la galère.

Ça tombe bien puisque Google DeepMind semble avoir entendu vos prières puisqu'ils viennent de lâcher dans la nature cette suite de modèles basés sur Gemma 3. Et apparemment, ils ont mis le paquet sur l'efficacité.

L'idée c'est de faire tourner de la traduction haute fidélité sur votre propre matériel, peu importe sa puissance. C'est pourquoi TranslateGemma est dispo en trois tailles : 4 milliards (4B), 12 milliards (12B) et 27 milliards (27B) de paramètres pour fonctionner sur tous types de matos.

Le modèle 4B est optimisé pour le mobile et l'edge computing (comprenez "sur des petits appareils"), le 12B est taillé pour tourner tranquille sur un laptop grand public, et le 27B, c'est pour ceux qui ont du GPU costaud (H100 ou TPU) et qui veulent la qualité maximale.

Ce qui est foufou, c'est que le modèle 12B surpasse le modèle Gemma 3 de base en version 27B sur les benchmarks de traduction. En gros, vous avez une qualité supérieure avec un modèle deux fois plus léger. Ils l'ont vraiment optimisé aux petits oignons.

Pour réussir ce tour de force, Google explique avoir utilisé un processus de "distillation" en deux étapes. D'abord, ils ont fine-tuné les modèles sur un mélange de données traduites par des humains et de données synthétiques générées par leurs gros modèles Gemini. Ensuite, ils ont appliqué une phase de Reinforcement Learning (RL) guidée par des métriques de qualité comme MetricX-QE. C'est comme si Gemini apprenait à son petit frère comment bien traduire, en lui tapant sur les doigts quand il se trompe.

Après côté langues, c'est du solide puisque ça fonctionne en 55 langues rigoureusement testées et validées, couvrant la plupart des besoins courants (Français, Espagnol, Chinois, Hindi...). Et ils ont aussi poussé le bouchon encore plus loin en entraînant le modèle sur près de 500 paires de langues supplémentaires. C'est expérimental certes, mais ça ouvre la porte à des traductions pour des langues dites "faibles ressources" qui sont souvent oubliées par les géants de la tech...

Autre point cool, comme c'est basé sur Gemma 3, ces modèles gardent des capacités multimodales. Ça veut dire qu'ils peuvent potentiellement traduire du texte à l'intérieur d'images, même si ce n'était pas le but premier de l'entraînement spécifique TranslateGemma.

Voilà, maintenant si vous voulez tester ça, c'est disponible dès maintenant sur Hugging Face , Kaggle et Vertex AI . Y'a même un notebook ici pour mettre un peu les mains dans le cambouis. Pour les devs qui veulent intégrer de la traduction locale dans leurs apps sans dépendre d'une API payante, c'est donc une option qui mérite vraiment d'être explorée.

Et si le sujet des modèles Google vous intéresse, jetez un œil à mon test de Gemini 2.5 ou encore à PocketPal AI pour faire tourner tout ça sur votre smartphone.

Bref, à tester !

Source

WhisperPair - Vos écouteurs Bluetooth sont des traitres

Par :Korben
15 janvier 2026 à 16:00

Si vous pensiez que vos écouteurs sans fil étaient capables de garder vos secrets, j'ai une mauvaise nouvelle pour vous !

Des chercheurs du groupe COSIC de la KU Leuven (les mêmes génies qui avaient déjà hacké des Tesla il y a quelques années) viennent de dévoiler WhisperPair. C'est le petit nom d'une série de vulnérabilités qui touchent le protocole Google Fast Pair, et vous allez voir, ça craint.

Le protocole Fast Pair, censé nous faciliter la vie en appairant nos gadgets en un clic, oublie en fait de vérifier si l'appareil est réellement en mode appairage. Du coup, n'importe quel petit malin situé à portée de Bluetooth (environ 15 mètres dans les tests) peut se connecter silencieusement à votre casque ou vos enceintes, même si vous êtes déjà en train d'écouter votre podcast préféré. Pas besoin de bouton, pas besoin de confirmation, rien. C'est un peu le retour de la faille BlueSpy dont je vous parlais l'année dernière , mais en mode industriel.

Et quand je dis industriel, je n'exagère pas car les chercheurs ont testé 25 modèles différents et 17 d'entre eux sont tombés comme des mouches. Des marques comme Sony, Jabra, JBL, Marshall, Xiaomi, OnePlus, Logitech et même les Pixel Buds de Google sont touchées. Et une fois connecté, le pirate peut faire pas mal de trucs sympas (ou pas) comme injecter son propre audio à fond dans vos oreilles, perturber vos appels, ou pire, activer le micro pour écouter ce qui se passe autour de vous.

Mais attendez ça va encore plus loin car pour certains modèles Sony et Google, un attaquant peut carrément enregistrer votre casque sur son propre compte Google. Et là, c'est le combo gagnant pour le stalker puisqu'il peut vous suivre à la trace via le réseau Find Hub (le "Localiser" de Google). Le plus dingue, c'est que ça fonctionne même si vous utilisez un iPhone et que vous n'avez jamais touché à un produit Android de votre vie.

Si vous recevez une alerte de tracking sur votre smartphone, vous penserez probablement à un bug de votre propre appareil alors que c'est un espion qui regarde vos déplacements en temps réel... C'est moche.

Bref, Google a bien essayé de patcher le truc, notamment pour Find Hub, mais les chercheurs ont déjà trouvé un moyen de contourner le correctif en quelques heures. C'est la course à l'échalote habituelle et le vrai souci, c'est que pour corriger ça proprement, il faut une mise à jour du firmware de chaque accessoire par son constructeur. Et on sait tous comment ça se passe... à moins d'avoir l'application dédiée de la marque (que personne n'installe jamais) et de penser à vérifier les updates, vos écouteurs resteront vulnérables pendant des années.

Du coup, que faire ?

Hé bien déjà, si vous bossez sur des trucs ultra-sensibles, méfiez-vous du Bluetooth dans les lieux publics. C'est moche à dire en 2026, mais la sécurité des objets connectés reste encore trop souvent le parent pauvre de l'ergonomie.

Et si vous voulez creuser les détails techniques, les chercheurs ont tout mis sur leur site dédié .

Source

X serre la vis de sa plateforme de nudification, mais pas trop fort quand même

Par :Korben
15 janvier 2026 à 15:53

Et encore un sujet qui me fout une colère noire et qui montre bien que chez certains, l'éthique c'est visiblement tombé dans les chiottes. Vous l'aurez deviné, je parle bien de Grok, l'IA d'Elon Musk, qui se retrouve une fois de plus sur le devant la scène.

Grâce à la magie de l'IA, ce chatbot permettait jusqu'à présent de générer des images de vraie personnes en tenues légères (bikinis, sous-vêtements...) voire complétement à poil à partir de simples photos. C'est ce qu'on appelle la "nudification" et c'est, disons-le clairement, une saloperie sans nom qui a été utilisée pour harceler des femmes, des jeunes filles et accessoirement faire zizir à tous les pédo nazis qui trainent sur X.

Toutefois, suite à une forte pression réglementaire au Royaume-Uni, en Californie, et même au blocage complet de la plateforme X en Indonésie et en Malaisie, X Safety (lol) vient enfin de serrer la vis. Mais bon, comme d'habitude avec Musk, il a fallu attendre d'être au pied du mur, parce que son éthique et son empathie sont surement restées dans la boite à gants du Roadster Tesla de Starman.

Désormais, la plateforme va donc "geobloquer" la génération d'images de personnes réelles en bikini ou sous-vêtements (le fameux "spicy mode") là où c'est restreint par la loi. "LÀ OÙ C'EST RESTREINT PAR LA LOI"... oui oui... Pourquoi se faire chier hein... si mettre des gens à poil sans leur autorisation est autorisé par ton pays, c'est 👍

X affirme également avoir implémenté des mesures technologiques pour empêcher l'usage de Grok afin d'éditer des photos pour dévêtir des gens mais apparemment, ça marche pas de fou de ce que j'ai pu lire aujourd'hui. En tout cas, je trouve ça dingue qu'il faille des enquêtes et des suspensions d'accès à tout un réseau social pour que le bon sens l'emporte...

En attendant, X a réservé l'accès à Grok aux abonnés payants sur la plateforme, officieusement pour améliorer la traçabilité des abus, même si dans les faits, payer ne garantit en rien d'assurer le lien avec l'identité de l'utilisateur. Et surtout, ces nouvelles restrictions anti-nudification s'appliquent désormais à tout le monde, y compris à ceux qui passent à la caisse.

Après quand on voit que la réponse automatisée de xAI aux journalistes était y'a pas si longtemps un magnifique " Legacy Media Lies " d'enfant de 5 ans, on mesure le niveau de maturité de toute l'entreprise X...

Source

Reprompt - Quand Microsoft Copilot balance vos données en un clic

Par :Korben
15 janvier 2026 à 14:52

Vous vous souvenez d' EchoLeak, cette faille zero-click dans Microsoft Copilot dont je vous parlais l'année dernière ? Eh bien accrochez-vous, parce que les chercheurs de Varonis viennent de remettre le couvert avec une nouvelle technique baptisée "Reprompt". Et cette fois, un simple clic suffit pour que l'assistant IA de Microsoft balance toutes vos données sensibles à un attaquant.

Je vous explique le principe... Dolev Taler, chercheur chez Varonis Threat Labs, a découvert que l'URL de l'assistant Microsoft intègre un paramètre "q" qui permet d'injecter directement des instructions dans le prompt.

Du coup, n'importe qui peut vous envoyer un lien piégé du style copilot.microsoft.com/?q=INSTRUCTION_MALVEILLANTE et hop, votre assistant exécute ce qu'on lui demande dès que vous cliquez.

Et là où c'est vraiment pas drôle, c'est que Varonis a identifié trois techniques d'exploitation. La première, "Double-Request", contourne les garde-fous en demandant à l'IA de répéter deux fois la même action. La deuxième, "Chain-Request", enchaîne les instructions côté serveur pour exfiltrer vos données sans que vous ne voyiez rien. Et la troisième combine les deux pour un effet maximal.

Les trois techniques d'attaque Reprompt : P2P Injection, Double-Request et Chain-Request ( Source )

Via cette faille, un attaquant peut récupérer vos emails récents, vos fichiers OneDrive, votre historique de recherche, et tout ça en arrière-plan pendant que vous pensez juste avoir cliqué sur un lien anodin. Ça craint hein !

Petite précision importante quand même, cette faille ne touche que la version Personal de l'assistant Microsoft, et pas la version Enterprise qui bénéficie de protections supplémentaires. Si vous utilisez la version pro au boulot, vous pouvez respirer. Par contre, si vous utilisez la version grand public pour vos trucs perso, c'était open bar jusqu'au patch du 13 janvier dernier.

Parce que oui, bonne nouvelle quand même, Microsoft a confirmé avoir corrigé le problème. Mais ça pose une vraie question sur la sécurité des assistants IA qui ont accès à nos données car entre EchoLeak et Reprompt, ça commence à faire beaucoup pour un seul produit.

Et surtout au niveau de la sécurité, moi ce que je comprends pas, c'est pourquoi le niveau de sécurité est un argument marketing ? Au nom de quoi la version personnelle devrait être moins sûre que la version personnelle ? Je pense que les données personnelles des gens n'ont pas moins de valeur...

Pour moi le niveau de sécurité devrait être exactement le même sur les deux versions du service.

Bref, l'IA c'est pratique, mais c'est aussi un nouveau terrain de jeu pour les attaquants alors méfiez-vous des liens bizarres, même s'ils pointent vers des services Microsoft légitimes !

Source

Claude Cowork – Quand l'IA d'Anthropic se fait exfiltrer vos fichiers

Par :Korben
15 janvier 2026 à 14:39

Ah, encore une merveilleuse petite faille de sécurité qui va ravir tous les paranos de la vie privée et les anti-IA ^^ ! Johann Rehberger et l'équipe de PromptArmor viennent de démontrer comment Claude Cowork , l'agent IA d'Anthropic censé vous simplifier la vie au bureau, peut se transformer en aspirateur à fichiers personnels.

J'imagine que si vous l'avez testé, vous avez un dossier connecté à Claude Cowork pour qu'il vous aide à analyser vos documents ? Parfait. Il suffit maintenant qu'un petit malin glisse un fichier Word contenant des instructions cachées, et hop hop hop, vos précieux fichiers partent se balader sur un serveur distant sans que vous n'ayez rien vu venir.

En fait, le fichier piégé contient du texte invisible pour l'œil humain, mais parfaitement lisible par l'IA. Genre une police en taille 1px, de couleur blanche sur fond blanc, avec un interligne de 0,1 histoire d'être vraiment sûr que personne ne le remarque. C'est beau la créativité des hackers, quand même.

Et l'IA, elle, lit tout ça comme si c'était normal et exécute gentiment les instructions malveillantes.

La chaîne d'attaque se déroule en cinq étapes bien huilées. D'abord, l'attaquant dépose son fichier vérolé dans un dossier partagé auquel Claude a accès. Ensuite, il attend qu'un utilisateur demande à l'IA d'analyser le contenu de ce dossier. Claude traite alors le fichier piégé et découvre les instructions cachées. L'IA effectue une requête qui envoie vos fichiers vers l'API Anthropic... sauf que les identifiants utilisés appartiennent à l'attaquant. Vos données atterrissent donc tranquillement dans son compte, sans que vous n'ayez la moindre notification.

Ce qui rend cette attaque particulièrement sournoise, c'est que la sandbox de Claude autorise les requêtes sortantes vers l'API d'Anthropic. Normal, me direz-vous, c'est son propre écosystème. Sauf que du coup, un attaquant bien motivé peut exploiter cette confiance aveugle pour faire transiter des données volées par un canal parfaitement légitime en apparence. Si vous suivez les vulnérabilités des systèmes RAG comme ConfusedPilot , vous reconnaîtrez le même genre de manipulation par injection de contenu.

Et ce n'est pas tout ! Les chercheurs ont également identifié un vecteur potentiel de déni de service. En créant un fichier avec une extension qui ne correspond pas à son contenu réel, genre un fichier texte déguisé en PDF, on peut provoquer des erreurs en cascade qui paralysent l'API de manière persistante.

Sympa pour bloquer un concurrent ou saboter un projet.

Côté modèles affectés, les chercheurs ont démontré la vulnérabilité sur plusieurs versions de Claude, dont Haiku. Bref, c'est du sérieux. Pour ceux qui s'intéressent aux failles de sécurité des assistants IA ou aux techniques de red teaming sur les LLM , cette recherche vaut vraiment le détour.

Anthropic a été notifié et travaille sur des correctifs. En attendant, si vous utilisez Claude Cowork avec des dossiers partagés, méfiez-vous de tout fichier qui pourrait traîner là sans raison apparente. Et la prochaine fois que quelqu'un vous envoie un document "urgent à analyser", prenez peut-être cinq secondes pour vous demander s'il ne cache pas une petite surprise.

Pour en savoir plus c'est par ici !

Monster Hunter Wilds - Pourquoi posséder tous les DLC booste vos FPS

Par :Korben
15 janvier 2026 à 13:25

Bon, accrochez-vous à vos manettes parce qu'on vient de franchir un nouveau palier dans le grand n'importe quoi de l'optimisation PC.

Vous le savez, le jeu Monster Hunter Wilds sur PC, c'est un peu la roulette russe... un coup ça passe, un coup ça rame sa mère comme un vieux disque rayé. Les joueurs ont tous accusé les shaders, le CPU ou encore le Denuvo de service, mais la vérité est bien plus... bizarroïde, vous allez voir.

En effet, un utilisateur de Reddit nommé de_Tylmarande a mis le doigt sur un bug de logique métier qui me laisse un peu sur le cul. En gros, plus vous possédez de DLC, mieux le jeu se porte. Hé non, ce n'est pas un nouveau modèle économique "Pay-to-FPS", mais un pur problème de code mal torché.

En fait, tout commence quand ce brave de_Tylmarande décide de tester le jeu sur deux comptes Steam différents, mais sur la même bécane. Sur son premier compte, il installe le jeu de base sans rien d'autre... Résultat, il se retrouve à 25 FPS bien pénibles dans les hubs. Et sur un deuxième compte, blindé avec tous les DLC cosmétiques de la mort, il se retrouve à plus de 80 FPS au même endroit.

Le mec n'en croit alors pas ses yeux et décide de creuser un peu sous le capot du RE Engine (c'est le moteur de jeu). En analysant le comportement du bousin, il s'est rendu compte que le moteur de Capcom passe en fait son temps à appeler l'API de Steam pour vérifier si vous possédez chaque petit slip ou chapeau de Palico disponible dans la boutique.

Le problème technique ici, c'est l'overhead monstrueux que ça génère car chaque appel à l'API Steam nécessite une communication entre le processus du jeu et le client Steam (ce qu'on appelle de l'IPC). Alors quand le jeu fait ça en boucle pour des dizaines, voire des centaines d'items, ça sature un thread CPU complet.

Et le truc dingue, c'est que si vous possédez les DLC, la routine semble s'arrêter plus vite ou emprunter un chemin de code optimisé. À l'inverse, si vous n'avez rien, le jeu s'acharne à vérifier dans le vide, créant un goulot d'étranglement CPU qui flingue vos performances. C'est un peu ce genre de travers qu'on dénonce souvent quand on parle d' enshittification de la tech , où les verrous et les vérifications inutiles finissent par littéralement pourrir l'usage réel.

Pour prouver sa théorie, le moddeur a pondu un petit fix expérimental (un bypass via DLL / script REFramework) qui "ment" au jeu en lui disant : "Ouais t'inquiète, le mec possède absolument TOUT".

Et le résultat est sans appel puisque sur une config qui plafonnait à 30 FPS, le simple fait de simuler la présence des DLC a fait bondir la fluidité à près de 50 FPS en moyenne. C'est quand même un gain de plus de 60% de perfs juste en supprimant une vérification de licence à la con.

Le plus probable, je pense, c'est que les mecs de la QA chez Capcom testent sur des "Dev Builds" où tout est débloqué par défaut et n'ont donc jamais vu le problème, que ce soit sur ce titre ou sur les précédents comme Monster Hunter World ou Monster Hunter Rise . C'est pour ça que de mon côté, je râle toujours contre ces DRM et ces systèmes de check intrusifs car au-delà de la question de la propriété, ça finit toujours par pourrir l'expérience des gens qui ont payé.

Alors pour l'instant, le mod n'est pas encore public car de_Tylmarande attend de voir si Capcom va réagir proprement avec un patch officiel, mais au moins, le mystère est résolu ! Si votre PC galère avec ce jeu c'est parce que vous n'êtes pas assez dépensier au goût des routines de check de Capcom.

Voilà, même si je ne joue pas à ce jeu parce que je suis trop occupé à vous écrire des articles, j'espère qu'un fix arrivera vite pour arrêter ce massacre de cycles CPU.

Source

Faites de 2026 l’année où vos données travaillent enfin pour vous (et plus contre vous)

Par :Korben
15 janvier 2026 à 11:13
-- Article en partenariat avec Incogni --

On parle souvent de “bonnes résolutions” pour le Nouvel An : se remettre au sport, arrêter de scroller la nuit, cuisiner un peu plus… mais jamais d'arrêter de se faire siphonner sa vie par des boîtes dont on n’a jamais entendu parler. 2026 peut être l’année où votre identité numérique arrête de servir de carburant à des data brokers, pour redevenir ce qu’elle aurait toujours dû être : à vous, et à vous seul. Parce qu'il faut savoir être égoiste parfois.

Vos données sont déjà en vente même si vous n’avez jamais “rien accepté”

Comme je vous l'ai déjà expliqué, les data brokers vivent d’un business aussi discret que lucratif : collecter des morceaux de vos infos, les recouper et les revendre à des dizaines d’acteurs différents. Adresse, numéro de téléphone, emails, revenus supposés, historique de navigation, centres d’intérêt, santé présumée, habitudes d’achat, présence sur les réseaux… tout y passe. Ils récupèrent ces données via des formulaires “innocents”, des programmes de fidélité, des cookies, des services IA, des applis gratuites, des comparateurs, des jeux-concours et, bien sûr, des fuites de données massives. Sans oublier nos gentils services gouvernementaux (Urssaf, France Travail & co) qui font quasi des journées portes ouvertes (pays européen qui fuite le plus, 2e rang mondial, enfin un truc ou on est bon!).

Résultat : votre profil se balade sans doute dans des centaines de bases. Il nourrit des pubs ultra ciblées, sert de matière première à des algos de scoring, et alimente un écosystème d’arnaques de plus en plus industrialisées. Les rapports sur les scams en ligne montrent une hausse continue des fraudes liées au shopping et aux faux sites, largement facilitées par les données récupérées chez ces intermédiaires. Penser “je n’ai rien à cacher” en 2026, c’est surtout oublier que la prochaine usurpation d’identité ou le prochain deepfake bien ficelé se construira peut‑être avec les miettes que vous laissez trainer à gauche ou à droite.

Incogni : un agent qui passe l’année à dire “supprimez” à votre place

Là où beaucoup de guides se contentent de vous expliquer comment envoyer des mails d’opt‑out à la main, Incogni prend le problème à la racine : le service se branche sur plus de 420 data brokers et envoie, en votre nom, des demandes légales de suppression de vos données, à la chaîne et sur la durée. Dès que vous créez votre compte, l’algorithme identifie les courtiers susceptibles de détenir vos infos (en fonction de votre pays et des lois applicables), puis déclenche une salve de requêtes appuyées sur le RGPD, le CCPA, le PIPEDA et consorts.

Ce qui fait la différence, ce n’est pas juste le volume, c’est la persistance. Incogni renvoie des demandes tous les 60 jours pour les brokers publics et tous les 90 jours pour les privés, et suit systématiquement les réponses : suppression confirmée, en cours, résistante, ou carrément silencieuse. Quand un acteur rechigne, le service relance et peut même faire remonter le cas aux autorités de protection des données. Un audit indépendant mené par Deloitte en 2025 a confirmé que ces cycles de demandes et de relances ne sont pas du storytelling marketing, mais bien mis en œuvre comme annoncé.

2026 : le bon moment pour appuyer sur “reset”

Vous êtes la seule personne qui peut décider de “faire de 2026 votre année la plus privée” en attaquant le problème là où il se démultiplie : chez les brokers. La mécanique est simple :

  • plus vos données restent longtemps dans ces fichiers, plus elles sont revendues et recopiées ;
  • plus elles sont copiées, plus les scams sont crédibles (adresse exacte, bons prénoms, contexte plausible, etc.) ;
  • plus les scams sont crédibles, plus il suffit d’un moment de fatigue pour cliquer au mauvais endroit.

En supprimant vos infos d’un maximum de courtiers, vous cassez une bonne partie de cette chaîne. Les analyses de services spécialisés montrent que les personnes qui utilisent un outil de data removal voient moins de spams ciblés et réduisent leur surface d’attaque face aux escroqueries liées par exemple au shopping et aux faux services clients. Et surtout, vous sortez du piège “j’espère que les sites que j’utilise feront attention” pour passer à “je vais taper directement là où ils vendent mes données”.

Comment Incogni transforme une résolution en routine automatique

L’autre intérêt d’Incogni , c’est qu’il transforme une bonne résolution de début d’année en réflexe automatisé. Concrètement :

  • vous créez un compte, signez une procuration numérique ;
  • Incogni scanne quels types de données sont exposés chez ses 420+ courtiers partenaires ;
  • il envoie immédiatement des demandes de suppression, puis continue de les renvoyer périodiquement ;
  • vous suivez tout dans un tableau de bord clair : gravité de l’exposition, niveau de coopération du broker, temps estimé de suppression, etc.

Certains services concurrents alignent des options annexes (VPN, gestion de mot de passe, assurance, etc.), mais la force d’Incogni, c’est justement de ne faire qu’une chose : traquer vos données chez les brokers et les faire retirer, encore et encore. Et si vous trouvez qu'un VPN couplé est indispensable, vous pouvez l'intégrer via l' offre Surfshark One+ dont j'ai parlé. Son rapport efficacité/prix pour ce cas d’usage précis est un autre point positif. Ainsi que la possibilité de demander des suppressions personnalisées sur des sites hors base standard, pratique pour des annuaires ou plateformes très locales.

Moins d’expo, moins de scams : la logique derrière

Les chiffres sur les arnaques en ligne pour 2025 et début 2026 montrent une explosion des fraudes liées au e‑commerce, aux fausses boutiques, aux notifications DHL/La Poste bidon et aux “remboursements” inventés. Et ces attaques ne sortent pas de nulle part : elles se nourrissent de listes d’emails, d’adresses, de numéros et de profils achetés ou loués à des intermédiaires. Plus votre fiche est riche, plus vous êtes intéressant à cibler.

En réduisant la quantité de données qui circulent sur vous chez ces acteurs, vous baissez mécaniquement la probabilité d’apparaître dans les fichiers vendus à des escrocs, la quantité de contexte qu’ils auront pour rendre leurs messages crédibles et l’ampleur des dégâts en cas de nouvelle fuite massive.

Mon test personnel et d'autres en ligne le confirment : beaucoup d’utilisateurs voient apparaître leurs premières suppressions dans les jours ou semaines qui suivent. Et cela monte à des dizaines de courtiers nettoyés au bout de quelques mois d’abonnement. Ce n’est pas un bouclier absolu, mais c’est l’équivalent d’un régime sérieux pour votre empreinte numérique : moins de gras inutile qui traîne partout, plus de contrôle sur ce qui circule.

2026, l’année où vos données cessent d’être une fatalité

Le vrai changement de mindset (comme diraient les gourous du dev perso), c’est de considérer que vos données ne sont pas condamnées à rester coincées dans chaque base qui les récupère. Des lois comme le RGPD vous donnent un droit à l’effacement, mais personne n’a le temps de l’exercer manuellement auprès de centaines de structures. Incogni se pose en proxy qui passe son année à faire ce boulot à votre place, en suivant les réponses et en recommençant jusqu’à obtenir un résultat, là où vous auriez abandonné au troisième mail automatisé incompréhensible.

Si une résolution doit survivre à janvier cette année, c’est celle‑ci : ne plus laisser votre identité numérique en open-bar chez les courtiers. Un compte Incogni, quelques minutes de configuration, et vous avez au moins une force de rappel permanente qui travaille pour vous pendant que vous passez à autre chose (tenir vos autres bonnes résolutions?). En 2026, reprendre sa vie numérique en main, ce n’est pas tout couper et partir vivre dans une cabane sans réseau, c’est accepter que l’on ne puisse pas empêcher toutes les fuites… mais refuser qu’elles deviennent un business éternel sur votre dos. Incogni ne promet pas l’oubli total, mais il s’en rapproche suffisamment pour que ça vaille enfin le coup de cocher cette résolution sur la liste.

Le prix de l'abonnement standard est actuellement d'environ 86€ TTC pour l'année entière. Mon code Korben55 doit encore fonctionner (je ne sais pas jusqu'à quand), en l'utilisant vous économiserez encore 7 ou 8€, donc c'est le moment !

→ Cliquez ici pour en savoir plus sur Incogni ←

La France remet ça et ordonne aux VPNs de bloquer encore plus de sites pirates

Par :Korben
15 janvier 2026 à 11:12

Bon, je vous en parlais déjà en mai dernier , la justice française avait décidé de s'attaquer aux VPN pour lutter contre le piratage des matchs de foot. Et bien devinez quoi ? Ils ont remis le couvert, et cette fois c'est encore plus costaud !

Le 18 décembre dernier, le Tribunal judiciaire de Paris a rendu une nouvelle ordonnance à la demande de la Ligue de Football Professionnel et de sa branche commerciale. Du coup, les gros du secteur des tunnels chiffrés vont devoir obtempérer : CyberGhost, ExpressVPN, NordVPN, ProtonVPN et Surfshark sont tous dans le viseur. Hop, 5 services de confidentialité d'un coup qui se retrouvent obligés de jouer les censeurs !

Concrètement, ces fournisseurs doivent bloquer l'accès à 13 domaines pirates, parmi lesquels miztv.top, strikeout.im, qatarstreams.me ou encore prosmarterstv.com. Bref, les sites de streaming foot gratuit vont avoir la vie dure. Et le plus flippant dans l'histoire c'est que ce dispositif est "dynamique", ce qui signifie que l'ARCOM peut rajouter de nouvelles adresses à la liste quand bon lui semble, sans repasser devant un juge. Les blocages resteront donc actifs pour toute la saison 2025-2026.

L'argument massue du tribunal c'est que, je cite : "la neutralité technique n'équivaut pas à l'immunité juridique". En gros, ce n'est pas parce que un service de VPN promet de ne rien logger et de protéger la vie privée de ses utilisateurs que ces entreprises peuvent ignorer les injonctions des ayants droit. Les juges ont donc balayé d'un revers de main l'argument des obligations contractuelles envers les clients. Adios la promesse d'anonymat quand la LFP débarque avec ses avocats !

D'ailleurs, parlons un peu de mon partenaire NordVPN puisqu'ils font partie de la liste des concernés. Car même si cette décision cible le streaming de foot pirate, ça pose quand même des questions sur l'avenir de ces services...

En effet, ce qu'il y a de bien avec un service comme NordVPN, c'est qu'il permet de protéger sa vie privée, de sécuriser ses connexions Wi-Fi publiques et d'accéder à des contenus bloqués géographiquement de façon légitime. En plus de ça, avec leur politique no-log auditée et leurs serveurs présents dans plus de 110 pays, c'est quand même la référence pour ceux qui veulent surfer tranquilles. Et avec les promos actuelles, ça revient à quelques euros par mois pour protéger jusqu'à 10 appareils. Jetez un œil à leurs offres (lien affilié) si vous cherchez à sécuriser votre connexion, et pas juste pour mater du foot pirate, hein !

Bref, comme je le disais dans mon article précédent, toute cette histoire, c'est un peu comme essayer d'arrêter l'eau qui coule avec une passoire. Les pirates les plus motivés changeront simplement de service ou trouveront d'autres moyens de contournement. Et pendant ce temps, les utilisateurs lambda qui se servent d'un VPN pour des raisons parfaitement légitimes, genre protéger leurs données dans les McDo au Wi-Fi douteux, se retrouvent avec des services potentiellement bridés.

Voilà, reste à voir comment tout ça sera appliqué dans la vraie vie. Les questions techniques sont nombreuses et les fournisseurs basés hors de France pourraient très bien répondre "mdr" aux injonctions parisiennes. En attendant, surveillez de près les évolutions de votre service préféré dans les prochains mois...

Source

L'IA détruit-elle nos institutions démocratiques ?

Par :Korben
15 janvier 2026 à 10:28

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

Glide - Le fork Firefox entièrement hackable pour les fans de Vim

Par :Korben
15 janvier 2026 à 09:00

Coucou les petits amis, ça roule ? Aujourd'hui on va parler d'un truc qui va plaire aux barbus, aux fans de raccourcis qui font mal aux doigts et à tous ceux qui considèrent que la souris est une invention du démon.

Ça s'appelle Glide et l'idée c'est de proposer un fork de Firefox entièrement hackable via du TypeScript et pas juste une extension qui se fait brider par le modèle de sécurité de Mozilla. C'est donc un vrai navigateur où vous avez la main sur tout ce qui touche au logiciel.

Le développeur, Robert Craigie, en avait marre de voir ses raccourcis Vim sauter sur certains domaines protégés. Du coup, il a pris les sources de Firefox et il a injecté une couche de personnalisation totale. On peut définir ses propres modes (Normal, Insert, Hint, Ignore), créer des macros qui exécutent des processus externes, ou même configurer un raccourci pour cloner un dépôt GitHub et l'ouvrir direct dans Neovim.

Franchement, le truc est hyper fluide. Le mode "Hint" (touche f) permet de cliquer sur la plupart des liens sans jamais lâcher le clavier, et le raccourci gI cible automatiquement le plus gros champ de texte de la page. C'est magique, on gagne un temps de dingue.

Pour ceux qui se demandent la différence avec Tridactyl , c'est simple : ici, il n'y a plus de bac à sable pour la configuration. On est chez soi, avec un accès direct aux APIs du navigateur et la possibilité de piloter des scripts système sans se prendre la tête. Attention toutefois, Glide est encore en version alpha (basé sur Firefox 144.0b8), ce qui signifie que le fork a un peu de retard sur les derniers patchs de sécurité de Mozilla. À utiliser en connaissance de cause, donc.

Pour l'instant, c'est dispo uniquement pour macOS et Linux. Mais si vous kiffez le minimalisme et que vous voulez un navigateur qui ne vous traite pas comme un simple utilisateur à qui on cache les réglages, Glide mérite clairement le coup d'œil.

Ça redonne un peu de fun à la navigation web, loin des usines à gaz bourrées d'IA qui essaient de deviner ce que vous voulez faire !

Merci à Lorenper !

Source

Repomance - Le Tinder des dépôts GitHub

Par :Korben
15 janvier 2026 à 08:07

Si comme moi, vous êtes du genre à passer des heures sur GitHub pour dénicher la perle rare, genre un nouveau framework à la mode ou l'outil CLI qui va vous sauver la vie, j'ai trouvé un truc qui va soit booster votre productivité, soit ruiner votre temps libre.

Ça s'appelle Repomance et c'est une application iOS qui transforme la découverte de dépôts GitHub en une expérience... disons, plus familière.

J'vais pas y aller par 4 chemins, en fait c'est le Tinder du code. Vous avez une pile de cartes représentant des projets open source, et vous swipez. À droite, vous mettez une "star" au dépôt (ça se synchronise direct avec votre compte GitHub via OAuth), et à gauche, vous passez votre chemin.

L'appli vous propose deux modes : les projets "Trending" pour voir ce qui excite la communauté en ce moment (par jour, semaine ou mois), et un mode "Curated" qui vous prépare des petits lots personnalisés selon vos langages de prédilection et vos centres d'intérêt (Web, Machine Learning, DevOps, etc.).

C'est assez génial pour faire sa veille technique dans le métro ou entre deux réunions. Les fiches sont également super complètes avec description, stats, répartition des langages, preview du README et même la licence du projet.

Comme ça, pas besoin de sortir de l'appli pour savoir si le projet est maintenu ou s'il correspond à vos besoins. Et pour ceux qui se posent la question de la vie privée, l'appli est open source et ne demande que le strict minimum de permissions GitHub pour pouvoir ajouter les étoiles à votre profil.

Voilà, c'est gratuit, c'est propre, et c'est totalement addictif quand on aime explorer la jungle de l'open source !

A découvrir ici !

ChatGPT Translate - OpenAI veut détrôner Google Traduction

Par :Korben
15 janvier 2026 à 07:56

Bon, vous connaissez tous Google Traduction, cette application qu'on installe par réflexe dès qu'on pose le pied dans un pays étranger (ou quand on essaie de comprendre une notice de montage suédoise).

Hé bien, il semblerait qu'OpenAI ait décidé de venir sérieusement grattouiller dans les plates-bandes de Google avec le lancement de ChatGPT Translate , un outil de traduction dédié qui ne fait pas les choses à moitié.

On va pas se mentir, la traduction automatique, c'est souvent la foire aux saucisses dès qu'on sort des sentiers battus... On a tous en tête ces traductions pourries qui transforment un compliment en insulte diplomatique. C'est d'ailleurs pour ça que certains utilisent des extensions comme YouTube Anti-Translate pour éviter les massacres linguistiques sur nos vidéos préférées.

Mais là, ChatGPT Translate essaie d'apporter un truc en plus qui est : ✨ la personnalisation ✨, lol. Grâce à ça, au-delà de simplement convertir des mots, l'outil vous propose, d'un simple clic, de reformuler le résultat.

Vous voulez que ça sonne plus "business-formal" ? Hop, c'est fait. Vous préférez un ton simplifié pour expliquer un truc à un gamin de 5 ans ? Nickel, l'IA s'adapte. C'est ce côté "malléable" qui manque cruellement aux solutions classiques... Par exemple, moi dans Deepl, j'ai pas ça... Et comme c'est difficile de jauger si un texte dans une langue étrangère est trop familier ou pas, çe me bloque un peu, c'est vrai.

L'interface minimaliste de ChatGPT Translate qui mise tout sur la personnalisation ( Source )

Pour le moment, l'interface est ultra minimaliste (deux champs de texte, paf, on ne se prend pas la tête) et supporte plus de 50 langues. On peut taper son texte, causer dans le micro, et même si l'option d'upload d'images est mentionnée, elle semble encore un peu timide sur desktop. On est donc encore très loin des usines à gaz comme Comic Translate qui traduisent carrément vos mangas en temps réel avec de l'IA, mais c'est un bon début.

Et voilà comment OpenAI mise une fois encore tout sur son "muscle" cloud magique pour offrir des traductions qui ne ressemblent pas à des phrases sorties d'un vieux dictionnaire poussiéreux. C'est un peu le même combat qu'on a vu à l'époque avec le traducteur de Microsoft quand tout le monde essayait de détrôner le roi Google. Après c'est bien pour nous, ça nous fait des trucs nouveaux à tester et peut-être que ça nous plaira.

En tout cas, si vous voulez tester ça, c'est déjà dispo sur le web et ça devrait s'intégrer de plus en plus dans nos smartphones à l'avenir, j'imagine...

Mais gardez quand même un œil sur le résultat au cas où l'IA déciderait de traduire un "Cordialement," de fin de mail par "Die motherfucker,"... On n'est jamais trop prudent !

Source

Passez Claude Code sur le pilote automatique

Par :Korben
15 janvier 2026 à 07:47

Si vous utilisez Claude Code (l'outil CLI d'Anthropic qui déboite), vous savez que c'est super puissant pour coder, auditer ou refactoriser des trucs en un clin d'œil. Mais le petit souci, c'est qu'il faut tout le temps être derrière son terminal pour lui dire quoi faire.

C'est là qu'entre en scène un super projet baptisé Claude Code Scheduler .

Développé par un certain jshchnz, ce petit plugin permet tout simplement de programmer Claude afin de pouvoir lui balancer des ordres du genre "fais-moi une review de sécurité tous les jours à 9h" ou "check les dépendances chaque mardi après-midi", et de le laisser bosser tout seul dans son coin. Et ce que j'aime avec ces outils, c'est qu'on lui parle en langage naturel... Pas besoin de s'arracher les cheveux avec la syntaxe obscure des cron jobs. Vous lui dites "Tous les jours de la semaine à 10h du mat" et il comprend direct.

Ce scheduler s'appuie sur les planificateurs natifs de votre système d'exploitation tels que launchd sur macOS, crontab sur Linux et le planificateur de tâches sur Windows. C'est robuste, ça survit aux redémarrages et c'est parfaitement intégré et pour ceux qui s'inquiètent de devoir valider chaque modification à la main, sachez que l'outil gère le mode autonome.

En gros, il utilise le flag --dangerously-skip-permissions de Claude Code pour lui permettre d'éditer des fichiers ou de lancer des commandes sans vous demander la permission à chaque ligne. Forcément, il faut avoir confiance dans vos prompts, mais pour des tâches de maintenance récurrentes, c'est un gain de temps monumental.

Une fois installé, vous aurez alors accès à une panoplie de commandes slash comme /schedule-add ou /schedule-list pour gérer tout ça directement depuis l'interface de Claude. Et bien sûr, tout est loggé proprement dans des fichiers texte pour que vous puissiez vérifier au petit matin ce que l'IA a glandé pendant que vous étiez dans les bras de Morphée.

Voilà, c'est un chouette plugin pour Claude Code et c'est dispo sur Github .

Matthew McConaughey™ brevette son visage

Par :Korben
15 janvier 2026 à 07:24

Quel grand philosophe du XXIe siècle considère que l'identité personnelle est le dernier rempart contre les algos ?

Hé oui, il s'agit bien de Luciano Floridi , qui défend depuis le milieu des années 2000 le concept de vie privée informationnelle. Pour lui, la vie privée n'est pas une question de secret, mais un droit fondamental à l'immunité personnelle contre les altérations non désirées de l'identité, qu'elles soient actives (vol, clonage, manipulation de données) ou passives (imposition d'informations que l'on n'a jamais choisies).

Autrement dit, notre identité n'est pas un stock de données exploitables, mais une entité informationnelle qui mérite une protection en tant que telle.

Et cette idée vient de trouver une incarnation très concrète à Hollywood.

Matthew McConaughey vient en effet de déposer plusieurs marques couvrant son image, sa voix et même son légendaire "Alright, alright, alright". L'objectif affiché c'est de créer un périmètre juridique pour empêcher l'utilisation de son identité par des systèmes d'IA sans son consentement.

Sur le papier, ça ressemble à un coup de maître mais dans les faits, c'est surtout le symptôme d'une industrie qui panique.

Car une marque ne protège pas une personne, elle protège un signe distinctif dans un cadre commercial. Autrement dit, elle fonctionne très bien pour attaquer des usages visibles, monétisés, centralisés, genre typiquement, des pubs, des vidéos sponsorisées ou des produits qui exploiteraient l'image ou la voix de McConaughey sans autorisation.

En revanche, les outils de face-swapping ou de synthèse vocale se foutent royalement des dépôts de marque. Un type qui fait tourner FaceFusion , Roop ou un modèle open source sur un serveur anonyme ne va pas vérifier si un sourire, une intonation ou une phrase d'accroche sont enregistrés à l'USPTO (C'est l'INPI des USA).

Alors oui, c'est vrai, cette stratégie peut permettre de nettoyer les grandes plateformes comme YouTube, Instagram ou TikTok à coups de demandes de retrait... Mais pour le reste du web, les barrières juridiques sont contournables en deux clics par des modèles décentralisés qui n'ont ni frontières ni service juridique.

Heureusement, pendant ce temps, le cadre légal évolue quand même un peu.

En Europe, l' AI Act impose des obligations de transparence pour les contenus générés ou manipulés par IA, notamment les deepfakes, en exigeant que leur nature artificielle soit clairement signalée dans de nombreux cas. Ce n'est donc pas une interdiction générale, puisqu'on passe du "on peut le faire" au "on doit le dire", mais c'est déjà pas mal.

Et en France, la loi SREN est également venue renforcer l'arsenal pénal, notamment contre les deepfakes non consensuels, en particulier lorsqu'ils portent atteinte à la dignité ou ont une dimension sexuelle.

Maintenant aux États-Unis, il y a le projet de loi NO FAKES Act proposé au Congrès qui vise à donner aux individus un droit fédéral clair pour contrôler l'utilisation de répliques numériques non autorisées de leur voix ou de leur image. Contrairement aux dépôts de marque, ce texte cherche donc à créer une base juridique uniforme pour réclamer la suppression ou l'interdiction d'un deepfake non consenti, avec heureusement, des exceptions pour les œuvres protégées comme les documentaires, les commentaires ou la satire.

Cependant, comme je le souligne dans mon article à ce sujet, le texte tel qu’il est rédigé pose des problèmes sérieux pour l’écosystème open source et pourrait imposer des mécanismes de "notice and stay down" (retrait permanent) sans protections claires contre les erreurs ou les abus, ce qui pourrait refroidir fortement l’innovation dans les outils d’IA générative.

Le problème reste donc identique... même avec des lois comme celle-ci ou la loi TAKE IT DOWN Act qui criminalise certaines formes de deepfakes non désirés, les cadres juridiques peinent à suivre la vitesse d’évolution des modèles et des usages. Et voilà comment on se retrouve avec un McConaughey qui tente de sécuriser son périmètre avec les outils qu'il a sous la main.

C'est plutôt rationnel comme approche, mais c'est surtout un aveu d'impuissance, car protéger une voix ou un visage aujourd'hui avec le droit des marques ou du rafistolage de petits bouts de lois, c'est comme essayer de vider l'océan avec une petite cuillère en argent gravée à son nom.

Du coup, quelle serait la vraie solution ?

Hé bien peut-être arrêter de croire que le droit d'auteur et les bricolages juridiques du XXe siècle peuvent faire le job au XXIe. Comme le défend Floridi, il faudrait un cadre global qui traite l'identité personnelle comme une donnée inaliénable, protégée par un véritable droit à la vie privée informationnelle, et non comme une marque de sac à main de luxe qu'on dépose à l'INPI ou à l'USPTO.

Bref, Matthew essaie de poser une clôture, mais l'IA a déjà sauté par-dessus.

A ce train là, je ne donne pas cher du futur de notre propre visage et de notre propre voix.

Source

Google est en train de braquer l'IA

Par :Korben
15 janvier 2026 à 06:48

J'sais pas si vous l'avez senti mais Google est peut-être bien en train de gagner la course à l'IA non pas par son génie technique pur, mais par un bon gros hold-up sur nos infrastructures et nos vies privées.

C'est vrai que d'après pas mal de spécialistes IA, Gemini serait désormais le modèle le plus performant du marché. Super. Mais est ce que vous savez pourquoi il est en train de gagner ?

Hé bien parce que Google possède "tout le reste". Contrairement à OpenAI qui doit quémander pour choper des utilisateurs sur son application, l'IA de Mountain View s'installe de force partout où vous êtes déjà. Dans Android, dans Chrome, et même bientôt au cœur de votre iPhone via une intégration avec Siri. C'est la stratégie Internet Explorer des années 90, mais version 2026. Brrrr…

Alors oui c'est pratique d'avoir une IA qui connaît déjà vos mails et vos photos... Sauf que non. Car Gemini utilise nos données pour absolument tout... Sous couvert de "Personal Intelligence", l'outil se connecte à vos recherches, votre historique YouTube, vos documents et vos photos. Mais pas d'inquiétude, c'est pour votre bien, évidemment. Ahahaha !

Après si vous croyez que ce pouvoir ne sera pas utilisé pour verrouiller encore plus le marché, c'est que vous avez loupé quelques épisodes. J'en parlais déjà avec l'intégration forcée de l'IA dans vos apps Android , Google change les règles du jeu en plein milieu de la partie. On se retrouve donc face à un monopole full-stack, des puces TPU maison jusqu'à l'écran de votre smartphone.

Et pendant que la Chine sécurise sa propre souveraineté cyber en virant le matos occidental, nous, on continue d'ouvrir grand la porte.... Les amis, si demain Google décide de changer ses CGU (encore) ou de monétiser votre "intelligence personnelle", vous ferez quoi ?

Bref, le géant de la recherche avance ses pions et étouffe peu à peu la concurrence avant même qu'elle puisse respirer. Notez vous ça sur un post-it afin de le relire régulièrement : Plus une IA est "intégrée", plus elle est intrusive. Donc si vous voulez vraiment garder le contrôle, il va falloir commencer à regarder du côté des modèles locaux et des alternatives qui ne demandent pas les clés de votre maison pour fonctionner.

A bon entendeur...

Source

Chine vs USA - Le grand divorce de la cybersécurité est acté

Par :Korben
15 janvier 2026 à 06:36

La nouvelle est tombée hier soir et elle fait boum boum boum dans le monde feutré de la tech... En effet, Pékin a officiellement demandé aux entreprises chinoises de mettre à la porte les logiciels de cybersécurité américains et israéliens.

C'était prévisible et quand j'ai lu ça, je me suis dit, tant mieux pour eux !

Concrètement, cette annonce, ça veut dire que des géants comme Broadcom, VMware, Palo Alto Networks, Fortinet ou encore l'israélien Check Point sont désormais persona non grata dans les systèmes d'information de l'Empire du Milieu.

La raison officielle, c'est la sécurité nationale comme d'hab. Mais aussi parce que la Chine en a marre de dépendre de technologies qu'elle ne contrôle pas (et qui pourraient bien cacher deux-trois mouchards de la NSA, on ne sait jamais ^^).

Alors vous allez me dire "Oulala, les méchants chinois qui se ferment au monde". Sauf que non... en réalité, ils appliquent juste une stratégie de souveraineté technologique sans concession. Et en remplaçant le matos étranager par du matos local, ils commencent le grand ménage.

Et pendant ce temps là en Europe, on continue d'installer joyeusement des boîtes noires américaines au cœur de nos infrastructures critiques, en priant très fort pour que l'Oncle Sam soit gentil avec nous. Yoohoo !

J'en parlais déjà à l'époque de l'affaire Snowden ou plus récemment avec les backdoors découvertes un peu partout mais la dépendance technologique, c'est évidemment un risque de sécurité béant. Pire, si demain Washington décide de "couper le robinet" ou d'exploiter une porte dérobée, on est, passez-moi l'expression, dans la merde.

La Chine l'a compris et investit donc massivement dans ses propres solutions, comme avec l'architecture RISC-V pour s'affranchir d'Intel et AMD. C'est une démarche cohérente et c'est même assez fendard quand on connaît l'histoire des groupes comme APT1 qui ont pillé la propriété intellectuelle occidentale pendant des années.

Maintenant qu'ils ont un bon niveau, ils ferment la porte...

Du coup, sa fé réchéflir car est-ce qu'on ne devrait pas, nous aussi, arrêter de faire les vierges effarouchées et commencer à construire sérieusement notre autonomie ? Il parait que c'est en cours... moi j'attends de voir.

Bref, la Chine avance ses pions et sécurise son périmètre et nous, baaah, j'sais pas... On remue nos petits bras en l'air en disant des choses au pif.

Source

Reçu hier — 14 janvier 2026

Mercedes met le holà sur le Niveau 3 - Adieu la sieste au volant !

Par :Korben
14 janvier 2026 à 09:33

Semaine de merde hein ? On nous promettait le futur, les mains dans les poches et le regard dans le vide, et là, patatras ! Mercedes vient de décider de mettre un gros coup de frein sur son fameux "Drive Pilot" de niveau 3.

Pour ceux qui ne suivent pas tout ce bazar autour de la conduite autonome, sachez que le Niveau 3 (ou "conduite automatisée conditionnelle" pour les intimes), c’était la promesse de pouvoir lâcher le volant et SURTOUT de ne plus regarder la route quand on est coincé dans les bouchons sur l’autoroute. En Allemagne, Mercedes avait même réussi à faire homologuer le machin jusqu'à 95 km/h, ce qui en faisait le système certifié le plus rapide du monde.

C'est vrai que contrairement au Niveau 2 où vous deviez rester au taquet, le Niveau 3 permet théoriquement de détourner les yeux de la route, même si vous deviez quand même rester capable de reprendre les commandes en quelques secondes si la voiture panique.

Moi qui me voyais déjà en train de déplier mon journal papier (oui, je sais, je suis vintage), de faire une petite partie de Uno avec mon passager imaginaire ou même de me lancer dans une session intensive de blogging sur le grand écran du tableau de bord... Et bien c’est râpé. On va devoir continuer à fixer le pare-choc de la Renault Clio de devant comme des demeurés.

Officiellement, Mercedes nous explique que la demande est "modérée" et que les coûts de développement sont très couteux... en gros, ça coûte un bras à concevoir et personne n'a envie de payer le prix d'un petit appartement pour avoir le droit de lire ses mails en roulant à 60 km/h. La nouvelle Classe S, qui devait être le fer de lance de ce machin, sortira donc fin janvier sans cette option. Pffff.

Et ne me parlez pas de Tesla ! Parce que là, on touche le fond. C'est quand même un constructeur qui promet du niveau 5 (le truc où la bagnole vient vous chercher toute seule pendant que vous dormez) depuis littéralement dix ans pour au final propose un système "Full Self-Driving" toujours à la ramasse et nécessitant que vous gardiez les mains sur le volant sous peine de finir dans un mur. Clairement, Tesla c'est déjà pas ouf au niveau des finitions mais alors quand on commence à parler des promesses non tenues d’Elon, y'a de quoi finir en PLS.

Mais bon, ne désespérez pas totalement car si vous avez une bagnole récente (genre une Ioniq 5 ou une EV6), vous avez déjà accès à un Niveau 2 qui tient la route et qui vous soulage bien sur les longs trajets. Et pour ceux qui traînent encore de vieilles casseroles sans cerveau électronique, il existe une solution qui s'appelle OpenPilot avec le hardware de chez Comma.ai .

Si la législation dans votre pays l'autorise, vous installez ce petit bazar sur votre pare-brise, vous le branchez sur le bus CAN de votre voiture, et hop, vous avez un système de conduite autonome qui envoie bien plus du bois que la plupart des options constructeurs hors de prix. George Hotz (le génie derrière le hack de l'iPhone et de la PS3) a vraiment créé un truc ouvert, communautaire, et qui fonctionne vraiment bien sur des centaines de modèles...

Bref, le futur où on pourra se faire une raclette au volant n'est pas encore gagné, mais on s'en rapproche doucement par les chemins de traverse du logiciel libre.

En attendant, gardez quand même un œil sur la route et les mains sur le volant, ça évitera de froisser de la tôle pour une notification TikTok de travers. Et comme d'hab, mon meilleur conseil en termes de sécurité routière c'est méfiez-vous des semeurs de mort qui roulent en Volkswagen ^^ !

Source

Google MedGemma 1.5 et MedASR - L'assistant ultime des toubibs

Par :Korben
14 janvier 2026 à 09:00

Il semblerait que l'intelligence artificielle ait fait suffisamment de progrès pour pourvoir assister à terme nos médecins débordés et en sous-nombre... C'est vrai que je vous parle souvent ici de comment les technos peuvent faire évoluer la médecine , mais là Google vient de passer un nouveau cap avec sa collection HAI-DEF (pour Health AI Developer Foundations, oui ils adorent les acronymes de barbares, je sais..).

Et là dedans, on trouve un gros morceau baptisé MedGemma 1.5 . Si la version précédente gérait déjà les radios 2D classiques, cette mise à jour s'attaque maintenant à la "haute dimension". En gros, le modèle peut maintenant analyser des volumes 3D issus de scanners (CT) ou d'IRM, et même des coupes d'histopathologie (l'étude des tissus biologiques).

Pas mal hein ?

L'idée n'est pas de remplacer le radiologue (pas encore... brrr), mais de lui servir d'assistant survitaminé pour repérer des anomalies ou localiser précisément des structures anatomiques. Ainsi, sur les tests de Google, MedGemma 1.5 améliore la précision de 14 % sur les IRM par rapport à la V1. C'est un sacré gain qui permet d'avoir des diagnostics plus justes et plus rapides.

Mais ce n'est pas tout puisque Google a aussi dégainé MedASR, un modèle de reconnaissance vocale (Speech-to-Text) spécialement entraîné pour la dictée médicale. Parce que bon, on sait tous que le vocabulaire d'un toubib, c'est un peu une langue étrangère pour une IA classique comme Whisper. Grâce à ça, MedASR affiche 58 % d'erreurs en moins sur les comptes-rendus de radios pulmonaires, soit de quoi faire gagner un temps précieux aux praticiens qui passent souvent des heures à saisir leurs notes.

D'ailleurs, si vous vous souvenez de mon article sur l'ordinateur plus efficace que les médecins , on y est presque ! Sauf que là, l'approche est plus collaborative. Les modèles sont d'ailleurs disponibles en "open" (enfin, avec les licences Google quoi) sur Hugging Face pour que les chercheurs et les boites de santé puissent bidouiller dessus.

Alors bien sûr, faut toujours rester prudent et Google précise bien que ce sont des outils de recherche et pas des dispositifs médicaux certifiés pour poser un diagnostic tout seuls. Je me souviens bien de Google Health et des questions sur la vie privée que ça soulevait à l'époque, mais techniquement, ça déchire.

Voilà, si ça vous intéresse, je vous laisse regarder leurs explications et vous faire votre propre avis sur la question... Maintenant, est-ce que vous seriez prêts à confier votre prochaine analyse à une IA (assistée par un humain, quand même) ?

Moi oui !

Ehud Tenenbaum - L'ado qui a hacké le Pentagone

Par :Korben
14 janvier 2026 à 09:00
Cet article fait partie de ma série spéciale hackers . Bonne lecture !

FLASH SPÉCIAL : Un ado de 18 ans vient de cracker la sécurité du Pentagone américain. Ah non pardon, c'est pas une news, c'est de l'histoire ancienne. Mais franchement, quelle histoire ! Ehud Tenenbaum, alias The Analyzer, a réussi ce que bien des services secrets n'osaient même pas rêver : infiltrer les réseaux non classifiés du Département de la Défense américain depuis sa chambre d'adolescent à Hod HaSharon.

Vous savez ce qui m'a plu dans cette histoire ? C'est qu'à l'époque, en 1998, j'étais moi-même en train de bidouiller mes premiers scripts sur mon Pentium 200 MHz, et pendant que je galérais à faire fonctionner tout ça, ce gamin faisait trembler l'oncle Sam. En plus, en février 1998, les USA sont en pleine opération Desert Fox contre l'Irak alors quand le DoD a détecté les intrusions, la première réaction a été la panique... et si c'était Saddam Hussein qui contre-attaquait ? Bah non, c'était juste un ado avec son clavier.

Mais alors qui était ce gamin ?

Ehud "Udi" Tenenbaum naît le 29 août 1979 à Hod HaSharon, une petite ville tranquille d'Israël. Rien ne prédestinait ce môme à devenir l'un des hackers les plus célèbres de la planète. D'ailleurs, il souffrait de dyslexie, un handicap qui aurait pu le freiner, sauf qu'Ehud avait un truc en plus : des capacités dingues en math et en sciences. À 15 ans, il s'auto-forme au hacking armé de sa curiosité, et une connexion internet.

À 18 ans, Ehud fait ensuite son service militaire obligatoire dans Tsahal. Mais bon, l'armée et lui, ça fait pas bon ménage. Suite à un accident de voiture, il est libéré de ses obligations militaires. Et c'est là que tout va basculer.

Car Ehud ne travaille pas seul. Il monte une petite équipe avec d'autres hackers : deux adolescents en Californie (connus sous les pseudos Makaveli et Stimpy) et possiblement d'autres contacts en Israël. Tenenbaum joue le rôle de mentor technique, le cerveau qui orchestre l'opération et petit détail qui tue : Solar Sunrise , c'est pas le nom que le groupe s'est donné mais le nom de code que les autorités ont attribué à l'enquête. Solar comme Solaris, l'OS qu'ils ont hacké.

Pendant que le monde entier suit l'affaire Monica Lewinsky, pendant que les États-Unis bombardent l'Irak, Ehud et ses complices préparent discrètement l'une des cyberattaques les plus audacieuses de l'histoire.

Pour arriver à leurs fins, ils exploitent une faille dans Solaris 2.4, précisément dans le service rpc.statd qui tourne avec les privilèges root. Le truc foufou (ou flippant selon comment on voit les choses) c'est que cette vulnérabilité était connue depuis décembre 1997. Les patchs étaient disponibles, mais personne ne les avait appliqués.

Leur attaque se déroule en quatre phases ultra-méthodiques : reconnaissance des cibles, exploitation de la faille, déploiement de backdoors, et exfiltration de données. Ils ne frappent pas une cible après l'autre comme dans les films. Non, ils propagent leur intrusion simultanément sur plusieurs sites : bases de l'Air Force, de la Navy, systèmes de la NASA, universités sous contrat militaire, et des systèmes du DoD. Au total, plus de 500 systèmes infiltrés.

Heureusement, ils n'ont pas pénétré les systèmes les plus secrets du Pentagone mais uniquement des réseaux non classifiés. Mais même sur des systèmes non classifiés, vous avez des informations opérationnelles sensibles. Des backdoors installées, des sniffers qui capturent les mots de passe, des accès qui auraient pu être exploités autrement... John Hamre, le Deputy Defense Secretary de l'époque, qualifiera l'attaque de "la plus organisée à ce jour" contre les systèmes militaires américains.

Mais tout faux empire finit par s'effondrer.

Le FBI, la NSA, l'Air Force OSI et le Shin Bet israélien unissent leurs forces. Et vous le savez, les intrusions laissent des traces. Des serveurs intermédiaires, des rebonds, des adresses IP qui finissent par pointer vers Israël. La coopération internationale se met alors en place.

Le 18 mars 1998, Ehud Tenenbaum se réveille dans son appartement de Hod HaSharon. Sauf que ce matin-là, il ne se réveille pas avec une envie de pisser. Il se réveille avec la police israélienne dans son salon. Fin de l'aventure pour The Analyzer.

La réaction médiatique est immédiate. D'abord, le soulagement : ce n'est pas une attaque étatique irakienne. Mais ensuite, le choc : des adolescents ont paralysé les défenses informatiques du DoD. Et cette affaire va contribuer à la création de la Presidential Decision Directive/NSC-63, la politique de cybersécurité nationale des États-Unis.

L'affaire met trois ans à arriver devant les tribunaux. En 2001, Ehud Tenenbaum plaide coupable. La sentence initiale ? Six mois de travaux d'intérêt général. Léger, non ? Le procureur fait appel et en juin 2002, le tribunal alourdit la peine : 18 mois de prison. Mais grâce au système de libération conditionnelle israélien, qui permet une libération après environ 50% de la peine purgée, Ehud ne purge qu'environ 8 mois.

Sorti de prison, Ehud tente de se ranger. En 2003, il fonde 2XS Security, une société de conseil en sécurité et son idée c'est d'utiliser sa notoriété pour faire du consulting. Le hacker devenu consultant, c'est un classique, mais la tentation revient. Toujours.

  1. Ehud Tenenbaum, désormais âgé de 29 ans, monte un nouveau coup. Ce qu'il veut c'est hacker les systèmes d'institutions financières américaines et canadiennes, voler des informations de cartes bancaires par milliers, les charger sur des cartes prépayées, puis utiliser un réseau international de "mules" pour retirer l'argent aux distributeurs.

Sa cible principale est Direct Cash Management, une boîte de Calgary, en Alberta. Et sa technique c'est une bonne vieille injection SQL pour accéder à la base de données. Classique mais efficace.

Le butin ? Environ 1,8 million de dollars canadiens (soit ~1,7 million USD) rien que pour Direct Cash Management. Mais l'opération visait aussi d'autres cibles américaines : OmniAmerican Credit Union au Texas, Global Cash Card. Au total, les pertes estimées dépassent les 10 millions de dollars.

Ehud travaille avec des complices, dont sa fiancée Priscilla Mastrangelo à Calgary. Les charges contre elle seront finalement abandonnées, mais son implication reste floue.

De leur côté, le FBI et la GRC (Gendarmerie royale du Canada) ne chôment pas. Et en septembre 2008, Ehud Tenenbaum est arrêté au Canada et détenu au Calgary Remand Centre, en Alberta. L'extradition vers les États-Unis va prendre du temps.

En 2012, après quatre ans de procédure, Ehud accepte un plea bargain. La sentence ? Le temps déjà passé en détention (time served), 503 000 dollars de restitution et trois ans de mise à l'épreuve. Fin de l'affaire américaine.

Toutefois, l'histoire ne s'arrête pas là car en novembre 2013, Ehud Tenenbaum est de nouveau arrêté en Israël, cette fois pour blanchiment d'argent à grande échelle. Quand est-il rentré en Israël ? Ça, les archives publiques ne le disent pas, quand à l'issue de cette affaire, c'est un mystère total. Certaines sources évoquent une condamnation à sept ans de prison, d'autres restent floues. Ce qui est sûr, c'est que l'issue de cette troisième arrestation reste dans le brouillard des archives publiques accessibles.

Au final, quel est l'héritage d'Ehud Tenenbaum ? Solar Sunrise a été le premier grand wake-up call cybersécurité pour les États-Unis. Il a prouvé que des adolescents pouvaient paralyser une infrastructure militaire. Il a forcé le DoD à prendre la cybermenace au sérieux. Et il a contribué à façonner la politique de cybersécurité nationale américaine.

Tenenbaum était un génie technique incontestable. Un mec capable de détecter les failles que personne ne voyait, de comprendre les systèmes mieux que leurs créateurs. Et pourtant, il n'a jamais pu résister à la tentation. Comme d'autres hackers légendaires tels que Kevin Mitnick ou Gary McKinnon , Tenenbaum illustre également cette trajectoire fascinante où le génie technique côtoie l'incapacité à s'arrêter.

Source | National Security Archive - Solar Sunrise Collection | The Register | CBC News Calgary | Control Engineering

Cloud Native Days France - Le grand rassemblement DevOps et Open Source au 104

Par :Korben
14 janvier 2026 à 07:56
-- Article en partenariat avec Cloud Native Days --

Salut les copains !

Aujourd'hui j'ai envie de vous filer un petit rencard qui va plaire à tous ceux qui aiment l'infra, le dev et surtout l'esprit communautaire autour de tout ça. En effet, Aurélien, un fidèle lecteur, m'a envoyé un petit message pour me parler d'un événement qui se prépare et comme ça a l'air d'envoyer du bois, je relaie.

Ça s'appelle les Cloud Native Days France 2026 et c'est que c'est organisé par une équipe de 15 bénévoles (des vrais passionnés, pas des robots du marketing) et porté par une structure à but non lucratif. Selon les organisateurs, ils attendent plus de 2000 personnes le mardi 3 février 2026 au CENTQUATRE-PARIS (le fameux 104 pour les intimes ^^).

Alors autant vous dire qu'une bonne partie de la scène tech française va débarquer !

Au programme, on oublie le bullshit commercial et les présentations PowerPoint de 50 slides pour vous vendre un abonnement cloud hors de prix et on part sur de l'expertise pointue, du DevOps, du Cloud Native et bien sûr du gros morceau d'Open Source. Je vous parle de vrais RETEX (retours d'expérience) et de mecs qui savent de quoi ils parlent quand ils évoquent Kubernetes, le Platform Engineering ou la sécurité des infras.

Bref, enfin du concret pour vos méninges !

Il y aura aussi un village communautaire qui va mettre en avant des projets open source, des communautés vertueuses et des passionnés qui partagent leur savoir via des blogs ou des chaînes YouTube. C'est une ambiance que j'adore, car on peut discuter bidouille sans se faire harceler par un commercial en costume.

Voilà, donc si ça vous branche de venir apprendre des trucs ou juste de croiser du beau monde dans un lieu super sympa, je vous conseille de jeter un œil au programme complet. C'est une super occasion de sortir de son terminal et de voir du monde en vrai.

Bref, un grand bravo à Aurélien et toute son équipe de bénévoles pour le boulot.

Ça va être top !

Le programme et la billetterie sont là !

❌