Vue lecture

L'IA détruit-elle nos institutions démocratiques ?

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

  •  

L'écosystème français de la vidéosurveillance algorithmique

Cette infographie identifie les grands acteurs français de la vidéosurveillance algorithmique et montre comment pouvoirs publics et entreprises privées articulent leurs efforts pour couvrir les espaces publics ou semi-publics (gares) de caméras. Le petit schéma en haut à gauche décrit le cycle (…) / France, Technologie, Télésurveillance, Informatique, Police
  •  

Pulse : Surveillance en temps réel pour Proxmox

Pulse est une solution de supervision centralisée permettant de suivre en temps réel l’ensemble d’une infrastructure Proxmox VE et PBS depuis un tableau de bord unique. L’outil envoie des alertes instantanées en cas de panne de nœud, d’échec de sauvegarde ou de saturation de stockage. Les notifications sont compatibles avec email, Discord, Slack, Telegram et […]
  •  

Groupe d'experts Going Dark – La forge de la surveillance de l'UE – Patrick Breyer

#EUGoingDark est notre label pour un groupe de travail de l'UE mis en place par la Commission européenne en juin 2023. Son nom officiel est le « Groupe de haut niveau sur l'accès aux données pour une application efficace de la loi » ( site web , acronyme ADELE).
Il est coprésidé par la Commission européenne et la présidence tournante du Conseil de l’UE, qui sont les gouvernements des États membres de l’UE.

Officiellement , le groupe est chargé d’élaborer des propositions de stratégies politiques et de lois sur les défis de l’application de la loi numérique dans un processus ouvert.

En réalité , #EUGoingDark est une forge de surveillance non transparente : les forces de police et les gouvernements ignorent la société civile et veulent réintroduire la conservation des données et saper le cryptage sans être dérangés.
En bref : des négociations préliminaires antidémocratiques sont menées dans l’ombre, qui serviront de modèle aux futures lois de surveillance de la prochaine Commission européenne.


Permalien
  •  
❌