Vue normale

Reçu — 15 janvier 2026

L'IA détruit-elle nos institutions démocratiques ?

Par :Korben
15 janvier 2026 à 10:28

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

Reçu — 14 janvier 2026

Vidéosurveillance algorithmique : l’Assemblée vote sa prolongation jusqu’en 2027 en prévision des JO de 2030

14 janvier 2026 à 15:23

vsa caméra surveillance

De Paris 2024 aux Alpes 2030, la vidéosurveillance algorithmique voit sa durée s'étendre encore. L'Assemblée nationale a voté le 13 janvier 2026 la prolongation de ce dispositif controversé jusqu'à décembre 2027.

Reçu — 12 janvier 2026
Reçu — 5 janvier 2026

Ils ont inventé l’intelligence artificielle : David Silver, père d'AlphaGo et génie de l'apprentissage automatique

En créant AlphaGo et AlphaZero, David Silver a fait faire un bond de géant à l'apprentissage automatique en accélérant le passage d'algorithmes nourris par l'expertise humaine à des machines capables d'apprendre de manière autonome.

Reçu — 28 novembre 2025
Reçu — 8 novembre 2025

Consequences of Undecidability in Physics on the Theory of Everything

8 novembre 2025 à 22:22

La relativité générale traite l'espace-temps comme un système dynamique et montre son effondrement au niveau des singularités.

Cet échec est interprété comme une preuve que la gravité quantique n'est pas une théorie formulée {au sein} de l'espace-temps ; au contraire, elle doit expliquer l'{émergence} même de l'espace-temps à partir de degrés de liberté quantiques plus profonds, résolvant ainsi les singularités.

La gravité quantique est donc envisagée comme une structure axiomatique, et les calculs algorithmiques agissant sur ces axiomes sont censés générer l'espace-temps.

Cependant, les théorèmes d'incomplétude de Gödel, le théorème d'indéfinissabilité de Tarski et l'incomplétude informationnelle de Chaitin établissent des limites intrinsèques à tout programme algorithmique de ce type.

Ensemble, ces résultats impliquent qu'une « théorie du tout » entièrement algorithmique est impossible : certaines facettes de la réalité resteront indécidables sur le plan computationnel et ne pourront être appréhendées que par une compréhension non algorithmique.

Nous formalisons cela en construisant une « méta-théorie du tout » fondée sur une compréhension non algorithmique, montrant comment elle peut rendre compte des phénomènes indécidables et démontrant que l'échec des descriptions computationnelles de la nature n'entraîne pas l'échec de la science. Étant donné que toute simulation supposée de l'univers serait elle-même algorithmique, ce cadre implique également que l'univers ne peut pas être une simulation.


Désolé.. mais cette publication scientifique est vraiment à côté de la plaque !!!
Y’a vraiment des gens qui qui veulent se faire remarquer dans un sujet de niche et donc associent un sujet de buzz à côté pour se faire remarquer… et ça marche !!!
Il se trouve que j’ai lu il y a un mois la BD logicomix: https://fr.wikipedia.org/wiki/Logicomix
Qui justement parle de l’histoire de la logique et surtout de la vie de Russel qui a fait de sa vie une quête de LA vérité sous forme mathématique et donc logique. Il est aussi question de Cantor et sa théorie des ensembles qui vise à sous tendre la notion même de nombre. Si j’ai 3 pommes.. et 3 poires.. l’ensemble commun c’est 3.. et voilà comme on prouve un nombre. Russel a écrit un bouquin de 300 pages pour démontrer que 1+1 =2 … voilà le niveau de ce genre de névrosé.. (la BD montre que la plupart des logiciens sont fous car il cherchent la vérité.. et qu’elle n’existe pas… )
Puis Russel sort son paradoxe qui l’a rendu célèbre.. " l'ensemble des ensembles n'appartenant pas à eux-mêmes appartient-il à lui-même ?"
=> ça casse toute la théorie des ensembles.. y’a un paradoxe. ça a fait déprimer plein de mathématiciens !
.. et là dessus Gödel (dont il est question dans l’article) a poursuivi les travaux de Russel en démontrant que tout système logique est incomplet. Donc qu’il y a des propositions indécidable. On ne peut les prouver ni les réfuter. Là ça casse toutes la cohérence des maths…. y’a des choses qu’on saura jamais !!!
→ Ensuite c’est Tarski qui démontre qu’un langage formel ne peut pas définir LA vérité en interne. On est obligé d’avoir un méta-langage, hors du langage lui même pour définir ce qui est vrai. (En bref, le slogan de X-files → la vérité est ailleurs)
→ Puis c’est Chaitlin qui enfonce le clou en étendant ce que dit Gödel en utilisant la théorie de l’information. Si je résume il dit qu’un système formel a des limites en terme d’information qu’il peut gérer. En gros sur un feuille à plat tu peux pas prouver un cube en 3D, t’as pas assez d’information à disposition pour.

Ce dernier point me fait directement penser à une simulation qui doit nécessairement être plus grossière, plus pixelislées que son hôtes.

Donc dans ce papier, les gars disent que la gravité quantique est un algorithme et comme un algorithme est incomplet, alors il peut pas tout simuler, donc la simulation est impossible CQFD….
LOL !!!

Déjà rien ne prouve que la théorie de la gravité quantique est autre chose qu’une théorie. C’est un modèle à la mode maintenant que la théorie des cordes est passée de mode… c’est tout…
De plus, les gars ont une vision très précise de ce qu’est une "simulation", hors rien ne prouve que c’est leur définition qui s’applique. C’est pas des informaticiens les gars. Ils ont l’impression que si un ordinateur est basé sur du binaire, tout doit être binaire dans ce qui émerge. C’est justement nier les phénomènes d’émergence. Le plus impressionnant de nos jours est l’IA..
Perso je pense aussi à un "design pattern" d’architecture informatique courant. C’est le "Modèle vue contrôleur" On a un modèle de donnée, une base de données qui contient des infos, très souvent relationnelles, on a une vue qui est nécessaire pour linéariser les infos les rendre visible à l’écran, et un contrôleur qui manage tout ça.
Dans ma vision du monde, La vue c’est notre monde. C’est là où on crée le temps pour suivre un fil rouge de la base de données qui a toutes les infos en même temps.
Je prend l’exemple d’un blog.. on va crée une vu chronologique. Ou un jeu vidéo, on va dessiner via la carte graphique les objets et les personnage en interaction. (mais que cette partie de la réalité, si il n’y a pas d’observateur, il n’y a rien de calculer.. ce qui fonctionne comme la physique quantique !)

Ainsi les auteurs de l’articles suppose que la simulation est dans le même monde que celui qui est simulé. (pourquoi ? c’est une limitation) Non, on peut avoir un monde plus vaste avec d’autres capacités et loi physique. Moi j’ai aussi un autre espace, c’est mon modèle et mon contrôleur qui font un rendu dans la vue. Donc un monde plus vaste. C’est très matérialiste leur approche !!

Autre point, en informatique on a l’équivalent du théorème d’incomplétude de Gödel, il s’agit du problème de l’arrêt. https://fr.wikipedia.org/wiki/Probl%C3%A8me_de_l%27arr%C3%AAt
C’est Turing qui a montré ceci en 1936 (science étonnante a fait une vidéo sur le sujet cette semaine !!!!)
En bref, si je regarde le code d’un programme, je ne peut pas savoir si le programme va boucler à l’infini ou s’arrêter. C’est une problème indécidable.

Donc toutes nos simulations ont donc des indécidables… et ça fonctionne très bien. Les gars ils disent que le fait d’avoir un indécidable invalide toute simulation !! C’est totalement faux !

J’ai exposé mes arguments à perplexity ainsi que l’article en question. L’IA a validé la plupart de mes observation et m’a donné les sources de physiciens qui ont aussi réfuté les conclusion de cet article: "Les physiciens Melvin Vopson et Javier Moreno soulignent une "erreur de catégorie profonde" dans l'argument de Faizal."

Voilà voilà.. donc non.. c’est pas par ce que c’est publié que c’est vrai….
Merci d’avoir lu mon charabia.. je pense qu’il faut s’accrocher pour comprendre.. (d’où le fait que la plupart des gens ont juste lu le titre à côté de la plaque…) heureusement que c’est un sujet qui est venu à mois ces dernières semaines !


Permalien
❌