Vue lecture

Reverse-SynthID - Le filigrane de Gemini mis à nu

SynthID, le filigrane invisible que Google injecte dans chaque image Gemini, c'était censé être incassable. Sauf qu'un dev a eu l'idée toute bête de générer des images noires et blanches avec Gemini, puis de regarder ce qui restait dans le domaine fréquentiel. Et là, surprise... le watermark est apparu en clair avec toutes ses fréquences porteuses !

Le projet reverse-SynthID documente le truc de A à Z où on comprend en gros, que le marquage IA de Google fonctionne en injectant de l'énergie à des fréquences bien précises dans le spectre de l'image via une transformation de Fourier . Le chercheur a identifié 6 fréquences porteuses principales, toutes avec une cohérence de phase supérieure à 99,9% et la blague, c'est que ce pattern est fixe. Donc pas de message unique par image, pas de clé qui change... c'est juste la même empreinte spectrale sur toutes les images sorties du modèle Gemini.

Spectre FFT du watermark SynthID - les pics lumineux correspondent aux fréquences porteuses identifiées

Du coup, une fois que vous avez profilé cette empreinte avec une cinquantaine d'images PNG de référence (25 noires, 25 blanches, générées via l'API Gemini), vous pouvez faire deux trucs. D'abord, détecter le filigrane avec 90% de précision, sans avoir le moindre accès au code source de Google. Et ensuite le retirer en soustrayant les composantes spectrales identifiées, fréquence par fréquence, tout en préservant la qualité de l'image à plus de 40 dB PSNR. Visuellement identique à l'original !

Et c'est là que la différence avec UnMarker (dont je vous avais parlé) saute aux yeux car ce dernier "secoue" l'image en aveugle pour casser le watermark. Alors que Reverse-SynthID, c'est plutôt scruté à la loupe et hyper ciblé. Résultat, y'a clairement moins de dégradation et un drop de confiance du détecteur.

Les fréquences porteuses reconstruites - la structure diagonale du watermark SynthID

Par contre, je l'ai implémenté en Rust et j'ai essayé de voir si ça marchait vraiment sur mes propres images générée avec Gemini. Hé bien non, car le bypass ne fait PAS chuter la confiance du détecteur de 100 à 0, mais juste de quelques pourcents.

Le watermark est atténué, mais pas effacé. Ce n'est donc pas un outil clé en main pour faire disparaître tous les filigranes SynthID en un clic. Mais le fait qu'une seule personne, avec du Python et du traitement de signal classique (FFT, filtres notch, soustraction spectrale), ait pu reverse-engineerer un système que Google présente comme LA solution anti-deepfakes...

Ça confirme ce que les chercheurs de l'Université de Waterloo avaient déjà démontré : le watermarking d'images IA, c'est pété by design.

D'ailleurs, Google le sait très bien et ils pourraient changer le pattern demain et tout serait à refaire, mais ça confirme surtout que le principe même du watermarking spectral a une date de péremption. Après, ça arrange tout le monde d'avoir un truc à montrer quand les gouvernements demandent "et contre les deepfakes, vous faites quoi ?"

Et si c'est la petite étoile visible en bas à droite des images Gemini qui vous gêne (pas le watermark spectral invisible, juste le marqueur visuel), j'ai développé un outil pour mes Patreons qui s'en occupe.

Bref, tout est sur le repo si le reverse-engineering de watermarks IA, ça vous branche !

  •  

Des députés européens veulent interdire les deepfakes sexuels par IA

Le Parlement européen veut à son tour interdire dans toute l’Union européenne les services d’intelligence artificielle capables de dénuder une personne sans son consentement. Déjà soutenue par les États membres, la mesure doit franchir une nouvelle étape en séance plénière le 26 mars. Mercredi, les commissions des libertés …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Des députés européens veulent interdire les deepfakes sexuels par IA est apparu en premier sur KultureGeek.

  •  

La rumeur sur la mort de Netanyahou illustre la crédulité des réseaux sociaux sur l’IA

Une vidéo publiée le 12 mars 2026 est à l'origine d'une des théories du complot les plus délirantes de ces derniers mois : des internautes sont convaincus d'avoir aperçu six doigts sur la main de Benjamin Netanyahou, ce qu'ils interprètent comme un signe de l'utilisation de l'IA pour cacher la mort du premier ministre israélien. L'intéressé a répondu dans une vidéo moqueuse le 15 mars 2026… mais ses détracteurs sont encore convaincus qu'il s'agit d'IA.

  •  

Deepfakes vocaux : votre cerveau démasque l’IA avant même que vous ne le sachiez

On croyait l’oreille humaine condamnée face aux voix synthétiques de plus en plus « propres » (les fameux deepfakes). Et, à première écoute, c’est vrai : face à un bon clonage, la plupart d’entre nous se trompent. Mais, une récente étude suggère quelque chose de plus dérangeant — et presque rassurant : même quand votre jugement échoue, […]

L’article Deepfakes vocaux : votre cerveau démasque l’IA avant même que vous ne le sachiez est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

YouTube lance sa protection anti-deepfake pour les politiques et les journalistes

YouTube renforce ses protections contre les vidéos truquées par intelligence artificielle. La plateforme a annoncé ce 10 mars 2026 l’extension de sa technologie de « likeness detection » à un groupe pilote composé de responsables publics, candidats politiques et journalistes. L’outil leur permet de repérer des contenus générés par IA qui imitent leur visage, puis de demander leur […]

L’article YouTube lance sa protection anti-deepfake pour les politiques et les journalistes est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Protecting your personal brand and identity is more important than ever. To help you manage this, we’ve launched the likeness detection feature in YouTube St...
  •  

YouTube étend son outil détectant les deepfakes IA aux politiques et journalistes

YouTube étend aujourd’hui sa fonctionnalité de détection de deepfakes IA aux journalistes, responsables gouvernementaux et politiques, dans le cadre d’un programme pilote. L’outil, déjà accessible à des millions de créateurs de contenu, fonctionne comme Content ID (le système de détection des contenus protégés par droits d’auteur), mais cible …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article YouTube étend son outil détectant les deepfakes IA aux politiques et journalistes est apparu en premier sur KultureGeek.

  •  
❌