Elles pullulent par milliers sur le web et repoussent de plus en plus les frontières du photoréalisme : les vidéos générées par intelligence artificielle sont devenues notre nouvelle caverne de Platon. Un déluge synthétique face auquel Google peut nous être d'une grande aide pour discerner le vrai du faux.
Vous pensiez avoir tout vu avec les manipulations d'images ? Les générateurs de mèmes, les filtres rigolos, tout ça... Bon, on rigole bien entre potes. Sauf que là, c'est la Maison Blanche qui s'y met et tristement c'est pas pour faire du "lol".
Je vous explique le délire. Jeudi dernier, l'administration Trump a voulu crâner sur les réseaux sociaux. Ils ont annoncé l'arrestation de plusieurs manifestants qui avaient perturbé un office religieux dimanche dernier à Cities Church (St. Paul). Ils protestaient contre un pasteur, David Easterwood, qui serait également le directeur par intérim de l'antenne locale de l'agence fédérale U.S. Immigration and Customs Enforcement (ICE).
Jusque-là, de la politique classique. Mais là où ça dérape sévère, c'est quand ils ont balancé la photo de l'une des personnes arrêtées. La dame en question s'appelle Nekima Levy Armstrong et c'est pas n'importe qui. Avocate des droits civils, ancienne présidente du chapitre de Minneapolis de la NAACP. Elle est une figure très respectée. Sur la photo originale de son arrestation, elle a un visage neutre. Digne.
Sauf que la Maison Blanche a trouvé ça trop "calme" sans doute. Alors ils ont diffusé une version de la photo manipulée numériquement pour la transformer complètement.
Résultat, sur l'image postée par le compte officiel @WhiteHouse, on voit Nekima Levy Armstrong en train de sangloter à chaudes larmes. Genre gros bébé qui chiale. Et c'est là que le venin se diffuse car ce n'est pas juste une modification esthétique.
C'est carrément une manipulation symbolique dégueulasse !
A gauche la photo IA, à droitela VRAIE photo
En faisant ça, ils activent un vieux levier bien rance : le stéréotype de la "Sapphire" ou de la "
Angry Black Woman
". C'est un genre d'hyperbole qui trouve ses racines dans les représentations caricaturales du XIXe siècle (les fameux minstrel shows) avant d'être codifié au XXe siècle.
L'idée c'est de présenter les femmes noires comme des êtres intrinsèquement hystériques, incapables de se contrôler, qui hurlent et chouinent pour un rien. C'est une technique de déshumanisation pure et simple. La Maison Blanche a transformé une opposante politique digne en caricature pleurnicharde pour lui ôter toute crédibilité.
Et quand les journalistes ont demandé des comptes, le service de presse de la Maison Blanche a renvoyé vers un post sur X de Kaelan Dorr (directeur adjoint de la communication) dont la réponse est glaciale : "L'application de la loi continuera. Les mèmes continueront." Hop. Circulez, y'a rien à voir. C'est assumé. Ils manipulent l'information, déforment la réalité pour servir un discours politique, et ils appellent ça un "mème".
Putain, que ces gens sont à vomir.
Le fond de l'histoire maintenant, c'est que ces gens demandaient justice pour Renee Good, une mère de famille abattue par un agent de l'ICE le 7 janvier dernier. L'administration invoque la légitime défense, mais des vidéos et des analyses contestent fermement cette version. Ce sont des vies brisées, des tragédies réelles et en face, on a un gouvernement qui s'amuse avec des outils IA pour transformer la douleur et la dignité en "blague" raciste.
Y'a vraiment de quoi se taper la tête contre les murs. Ça me rappelle un peu les dérives qu'on voit avec
les IA qui manipulent les émotions
pour du business ou de la politique. Cette technologie devrait faire avancer la science et booster la productivité mais pour l'instant, dans les mains de certains, ça sert surtout à industrialiser la haine et à maquiller le mensonge. Comme le dit souvent Mikko Hyppönen,
si c'est intelligent, c'est vulnérable
et là c'est pas de l'IoT, mais notre perception de la réalité déjà bien fragilisée depuis quelques années, qui est visée.
Voilà... quand la technologie sert à fabriquer de la désinformation d'État, il est grand temps, je pense, de se réveiller. Donc restez aux aguets les amis, parce que les fascistes, eux la vérité, ils s'en tamponnent le coquillard.
Et encore un sujet qui me fout une colère noire et qui montre bien que chez certains, l'éthique c'est visiblement tombé dans les chiottes. Vous l'aurez deviné, je parle bien de Grok, l'IA d'Elon Musk, qui se retrouve une fois de plus sur le devant la scène.
Grâce à la magie de l'IA, ce chatbot permettait jusqu'à présent de générer des images de vraie personnes en tenues légères (bikinis, sous-vêtements...) voire complétement à poil à partir de simples photos. C'est ce qu'on appelle la "nudification" et c'est, disons-le clairement, une saloperie sans nom qui a été utilisée pour harceler des femmes, des jeunes filles et accessoirement faire zizir à tous les pédo nazis qui trainent sur X.
Toutefois, suite à une forte pression réglementaire au Royaume-Uni, en Californie, et même au blocage complet de la plateforme X en Indonésie et en Malaisie, X Safety (lol) vient enfin de serrer la vis. Mais bon, comme d'habitude avec Musk, il a fallu attendre d'être au pied du mur, parce que son éthique et son empathie sont surement restées dans la boite à gants du Roadster Tesla de Starman.
Désormais, la plateforme va donc "geobloquer" la génération d'images de personnes réelles en bikini ou sous-vêtements (le fameux "spicy mode") là où c'est restreint par la loi. "LÀ OÙ C'EST RESTREINT PAR LA LOI"... oui oui... Pourquoi se faire chier hein... si mettre des gens à poil sans leur autorisation est autorisé par ton pays, c'est 👍
X affirme également avoir implémenté des mesures technologiques pour empêcher l'usage de Grok afin d'éditer des photos pour dévêtir des gens mais apparemment, ça marche pas de fou de ce que j'ai pu lire aujourd'hui. En tout cas, je trouve ça dingue qu'il faille des enquêtes et des suspensions d'accès à tout un réseau social pour que le bon sens l'emporte...
En attendant, X a réservé l'accès à Grok aux abonnés payants sur la plateforme, officieusement pour améliorer la traçabilité des abus, même si dans les faits, payer ne garantit en rien d'assurer le lien avec l'identité de l'utilisateur. Et surtout, ces nouvelles restrictions anti-nudification s'appliquent désormais à tout le monde, y compris à ceux qui passent à la caisse.
Après quand on voit que la réponse automatisée de xAI aux journalistes était y'a pas si longtemps un magnifique "
Legacy Media Lies
" d'enfant de 5 ans, on mesure le niveau de maturité de toute l'entreprise X...
L'IA va-t-elle vraiment détruire nos institutions ?
Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de
publier un papier académique
qui affirme que oui, et leur thèse tient en trois mécanismes :
Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.
Premier exemple, l'algorithme de la CAF.
Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !
C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre
ont attaqué cet algorithme devant le Conseil d'État
. Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.
Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler
le précédent néerlandais de 2021
où un algorithme similaire avait plongé des milliers de familles dans la dette.
Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que
La Quadrature du Net appelle des "scores de suspicion"
et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!
La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.
Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue.
L'UNEF qualifie le système de "fabrique à élite"
, et selon un
sondage L'Etudiant/BVA/Orange
, seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.
Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...
Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".
C'est une erreur qui évoque le comportement typique des systèmes génératifs
et l'enquête de Next a montré
après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !
Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président
a posté sur Instagram une compilation de deepfakes
le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.
Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt,
une fausse vidéo France 24 générée par des propagandistes russes
annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....
Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier,
une vidéo deepfake de l'humoriste
appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec
"Hôtel du Temps"
où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.
L'Europe a bien sûr tenté de répondre avec
l'AI Act
, le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.
Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?
Je dirais qu'en partie, oui.
Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.
Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.
Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...