Vue normale

Jeux vidéo et violence - Spoiler, c'est du pipeau

Par : Korben
7 février 2026 à 18:46

Les jeux vidéo rendent violent. Sérieusement ? En fucking 2026, y'a encore des gens pour sortir ça à table le dimanche ou piiiire en public sur le net ?

Aaaaannnh, c'est la honte quand même de dire ça, prem deug. C'est un peu comme ceux qui pensaient que le rock rendait sataniste ou que la BD poussait au crime dans les années 50. À chaque génération, les mêmes paniques… et à chaque fois, la science finit par leur donner tort, ce qui nous permet de nous foutre de leur gueule.

Alors parce que pour battre l'obscurantisme, y'a rien de mieux que de la science, des preuves, des choses tangibles et vraies, je vais vous en donner un peu pour votre argent…

Tenez, en 2019, une équipe d'Oxford (Przybylski et Weinstein, pour les curieux) a suivi 1004 adolescents britanniques pour mesurer l'impact des jeux violents sur leur comportement. Résultat… aucun lien. Ouais, que dalle, et c'était pas un petit sondage BFMTV ou je sais pas quoi, hein… Non, c'est l'une des études les plus rigoureuses sur le sujet, avec des données croisées entre les ados ET leurs parents.

En 2018, des chercheurs du Max Planck Institute à Berlin ont également fait jouer 90 adultes à GTA V pendant deux mois . Tous les jours, 30 minutes minimum sur la version PC. Ensuite, passage au scanner IRM. Aucune modification du comportement, aucune hausse d'agressivité. Rien du tout !

Et c'est pas fini. En 2022, Johannes et son équipe ont suivi 2580 joueurs d'Apex Legends et Outriders avec des données télémétriques Steam et Xbox Live (pas du déclaratif, de la vraie data serveur). Même résultat. Y'a waloooo !

Hé mais j'ai encore mieux les amis puisqu'une étude portant sur une durée de 10 ANS (!!!) publiée dans Cyberpsychology a suivi des gamins qui ont grandi avec GTA. De 10 à 20 ans, avec des questionnaires annuels ! Résultat, y'a pas plus de violence, pas plus de dépression, pas plus d'anxiété. En fait, les groupes ne diffèrent même pas sur les comportements prosociaux. Y'a eu un seul cas de figure où on observait un léger effet, c'est les gamins qui cumulaient jeux violents ET problèmes familiaux préexistants. Sauf que là, c'est le contexte familial le problème, pas la manette. Ce serait bien plus efficace de faire des lois pour interdire les familles de merde, en fait !

Du coup, si la science dit NON, alors pourquoi ce débat pour décérébrés continue ?

Le problème c'est qu'à une époque lointaine que seuls les profs de théâtre auraient pu connaitre, certaines méta-analyses (coucou Anderson et Bushman) trouvaient des corrélations minuscules entre les jeux vidéo et la violence… Genre r = 0,11, ce qui en gros signifie que les JV n'expliqueraient que 2 % du comportement violent d'une personne… Donc autant dire quasiment rien. C'est moins que l'effet de la météo sur votre humeur !!

Et surtout, d'autres chercheurs ont démontré un peu plus tard que ces résultats étaient biaisés . En gros, on publiait les études qui trouvaient un effet et on planquait celles qui trouvaient rien. C'est un cas particulier typique du biais de publication (et y'en avait un sacré paquet des études planquées).

D'ailleurs, même l'APA , la plus grande association de psychologie au monde, a revu sa position en 2020. Leur conclusion : pas de preuve suffisante d'un lien causal. Bon bah quand la plus grosse autorité en psycho vous dit que c'est du vent… normalement, on remballe.

Après, attention, hein, ça veut pas dire que laisser un gosse de 8 ans jouer à GTA Online 12 h par jour c'est une super idée. À la base, la classification PEGI 18 existe pour une raison. Sauf que là, c'est une question d'éducation et de contrôle parental… mais pas de violence virtuelle qui "contaminerait" le cerveau. Et ça, aucune étude sérieuse ne le conteste.

Et si vous voulez des chiffres qui parlent, en voilà. J'ai pas les chiffres en France, mais depuis les années 90, la violence juvénile aux USA a chuté de +80 % selon le Bureau of Justice Statistics. Pendant ce temps, GTA V a dépassé les 200 millions d'exemplaires vendus depuis sa sortie en septembre 2013. Call of Duty, toutes versions confondues depuis CoD 4 en 2007, c'est plus de 400 millions de copies.

Donc NORMALEMENT si les jeux rendaient violent, on devrait nager dans le sang h24, là non ?

Ah et j'oubliais… Le cas du Japon est encore plus parlant. C'est LE pays du gaming, premier marché de la planète par habitant… et un taux d'homicides de 0,2 pour 100 000 habitants en 2023 . Aux USA, c'est plus de 5 . VINGT-CINQ fois plus. Cherchez l'erreur. (Tips : y'en a pas, sauf si on considère que les Japonais sont secrètement immunisés contre les pixels violents.)

Une étude menée par Przybylski sur Animal Crossing a même montré que jouer pouvait être bénéfique pour le moral. Et le NIH a découvert en 2022 que les enfants qui jouent plus de 3 h par jour ont de meilleures performances cognitives que les autres (oui oui, vous avez bien lu). Du coup, non seulement les jeux vidéo ne rendent pas violents mais en plus, ils vous rendent plus malins. C'est diiiingue !

Allez, hop, un dernier clou dans le cercueil et après je vous laisse.

En 2011, la Cour suprême des États-Unis, c'est-à le plus haut tribunal de ce pays de fous, a examiné la question de savoir si les jeux vidéo violents représentaient un vrai danger . Verdict, par 7 voix contre 2, les juges ont conclu que non car les preuves scientifiques étaient insuffisantes pour établir un lien entre jeux vidéo et violence. C'est même le juge Scalia, pourtant connu pour ses positions ultraconservatrices, qui a rédigé la décision. Quand même, hein les gars !!! Autrement dit, même la justice américaine a fini par dire stop aux marchands de peur.

Et le CNRS le confirme , au cas où y'aurait encore des sceptiques.

Alors la prochaine fois qu'un tocard vous sortira le couplet "nia nia nia les jeux vidéo rendent nos enfants violents, nia nia nia", vous aurez une vision claire concernant le vide abyssal de ses connaissances sur ce sujet. Et dites-vous que si ça balance des conneries aussi grosses que ça et aussi débunkées que ça, mais putain qu'est-ce que ça doit être sur les autres sujets… Argh !

Perso, moi ce qui va finir par me rendre violent un jour, c'est la connerie humaine.

(PDF) Preliminary Report on the Absolute Dating of the Khufu Pyramid Using the Relative Erosion Method (REM)

30 janvier 2026 à 12:59

Dans cet article, l'ingénieur Alberto Donini présente une méthode innovante, la « méthode d'érosion relative » (MER), qu'il a mise au point pour déterminer la date de construction de structures anciennes.

Il applique cette méthode à la pyramide de Khéops sur le plateau de Gizeh. Est-il possible que la datation archéologique actuelle de ce monument égyptien antique soit incorrecte ?

Est-il également possible que les dates alternatives proposées par divers chercheurs soient tout aussi incorrectes ? Pour répondre à ces questions, l'auteur analyse la pyramide de Khéops sous un angle non conventionnel afin de déterminer la période la plus probable de sa construction.

La REM est basée sur le rapport entre deux types d'érosion affectant le même type de roche au même endroit : l'un avec une date connue et l'autre avec une date à déterminer. Ce rapport est ensuite utilisé pour calculer l'âge du bloc de pierre examiné.


Ces conclusions sont préliminaires et feront l'objet d'études plus approfondies grâce à des mesures supplémentaires, étendues à toutes les structures et bâtiments du plateau de Gizeh. Il est toujours possible d'améliorer la précision des mesures, la détermination des volumes érodés et la précision globale des résultats.

Alberto Donini a l'intention de poursuivre ses recherches et invite les archéologues du monde entier à collaborer à de futures études.

La REM n'a pas pour but de déterminer une date de construction précise pour un bâtiment ancien, mais plutôt d'identifier un intervalle temporel et de lui attribuer une probabilité. Bien que les fourchettes de dates obtenues soient larges, les conclusions indiquent une faible probabilité pour la datation archéologique officielle de 2 560 avant J.-C.

Pour ces raisons, il est probable que les pyramides d'Akhet Khufu (G1) remontent à environ 23 000 avant J.-C. Il est donc plausible que le pharaon Khéops ait simplement rénové la pyramide de Khufu, s'attribuant la paternité de celle-ci.

Sur la base de ce rapport préliminaire sur les mesures d'érosion relative (MER) effectuées sur la pyramide de Khéops, on peut conclure qu'il existait en Égypte, environ 20 000 ans avant Jésus-Christ, une civilisation capable de construire au moins la pyramide de Khéops (G1).


Permalien

Et si la pyramide de Khéops avait été construite avant l'Égypte des pharaons? - Geo.fr

30 janvier 2026 à 12:56

La grande pyramide de Gizeh, ou pyramide de Khéops, serait-elle plus ancienne qu'on ne le pense ? Une nouvelle étude de l'Université de Bologne, publiée jeudi 29 janvier, vient relancer le débat. L'ingénieur italien Alberto Donini y remet en question la datation qui situe sa construction vers 2 560 avant notre ère, sous le règne du pharaon Khéops. Il estime que l'érosion visible à la base du monument pourrait indiquer une origine antérieure, qui remonterait "possiblement jusqu'à la fin du Paléolithique".

L'usure observée dans certains recoins correspondrait à plus de 5 700 ans d'exposition, mais d'autres points indiqueraient plus de 20 000 ans, et parfois plus de 40 000 ans, avec une moyenne "autour de 22 900 avant notre ère".


Permalien

Vivons-nous dans une simulation ? Une nouvelle étude scientifique relance le débat

26 janvier 2026 à 06:00
A Glitch in the Matrix : ces personnes qui pensent vivre dans une simulation informatique

Après plusieurs années, nous avons la confirmation que notre Univers n’est pas une simulation. En effet, les résultats d’une étude du Dr Mir Faizal et d’autres chercheurs ont permis de conclure que notre réalité n’a pas pu être créée par un algorithme. Découverte !

L’article Vivons-nous dans une simulation ? Une nouvelle étude scientifique relance le débat, rédigé par Raharisoa Saholy Tiana, est apparu en premier sur NeozOne.

The effects of prayer on attention resource availability and attention bias - PMC

23 janvier 2026 à 14:58

Deux expériences ont été menées afin de mesurer les effets de la prière, de la contemplation ou d'une activité témoin sur la capacité d'attention et le biais d'attention. Les résultats d'un test à double tâche dans l'expérience 1 ont indiqué que le fait de permettre aux participants de prier pour un problème dans leur vie améliorait leur performance dans la tâche suivante, mais uniquement pour les personnes ayant obtenu un score élevé sur une échelle de religiosité.

L'expérience 2 a suggéré que le fait de prier pour un problème pouvait biaiser l'attention dans une tâche de recherche de mots.

Des effets similaires n'ont pas été observés pour les activités de contrôle. Ainsi, au moins pour les personnes les plus susceptibles d'adopter un comportement religieux, prier pour un problème semblait libérer des ressources cognitives qui, sans cela, auraient probablement été consommées par l'inquiétude et la rumination, permettant ainsi aux individus de mieux traiter d'autres informations et, en outre, de biaiser leur attention afin de favoriser la détection d'informations pertinentes pour le problème. Ces effets suggèrent un processus cognitif (l'attention) qui pourrait sous-tendre la manière dont les gens en viennent à percevoir les réponses à leurs prières.


Permalien

[quant-ph/0007027] Real inertons against hypothetical gravitons. Experimental proof of the existence of inertons

19 janvier 2026 à 18:44

Auparavant, l'un des auteurs avait proposé [Phys. Essays, vol. 6, 554 (1993) ; vol. 10, 407 (1997)] un mécanisme de mouvement des particules dans le cadre d'un vide considéré comme un milieu cellulaire originel, c'est-à-dire l'éther quantique.

L'existence d'excitation élémentaires spéciales du milieu éthérique - les inertons - autour de la particule a été la principale particularité de ce mécanisme. Le présent article traite de l'impact des inertons sur le comportement collectif des atomes dans un solide.

Il est démontré que les inertons devraient contribuer au potentiel effectif d'interaction des atomes dans le réseau cristallin. La possibilité de séparer cette contribution des inertons de la valeur de l'amplitude de vibration des atomes est analysée. L'expérience qui suppose la présence du champ hypothétique des inertons est réalisée. Les changements attendus dans la structure des échantillons d'essai causés par ce champ sont en fait fixés de manière convaincante dans des micrographies.


Permalien

core.ac.uk | 525: SSL handshake failed

10 janvier 2026 à 15:31

Coons, P.M. "Psychophysiologic Aspects of Multiple Personality Disorder"

Référence : Fichier PDF disponible sur CORE.ac.uk
Lien : https://files.core.ac.uk/download/36679938.pdf

Résumé : Nombreux cliniciens rapportent des sensibilités différentielles aux médicaments selon les personnalités alter. 46% des cliniciens interrogés par le NIMH ont observé ce phénomène.

Citation :

"Numerous clinicians have made anecdotal reports of differential response to medication across different personalities (Putnam, 1984a; Kluft, 1984; Barkin...)"

Permalien

Moleman_Hart94.pdf

10 janvier 2026 à 15:29

Dans le cadre d'études sur les différences psychophysiologiques entre les
alterpersonnalités chez les patients atteints du trouble de la personnalité multiple (TPM),
un patient présentant un besoin réduit en anesthésiques, en particulier en analgésiques,
lors d'une intervention chirurgicale majeure est décrit. Une étude psychophysiologique des patients atteints du TPM pendant l'anesthésie est recommandée, car la relation entre les doses de médicaments et leurs effets peut être évaluée directement.


Réduction de Dosage Anesthésique pour Alter Enfant

Article de référence principal :

  • Moleman, N. & van der Hart, O. (1994). "The Effect of Multiple Personality Disorder on Anesthesia: A Case Report"
  • Dissociation, Volume VII, Septembre 1994, pp. 197-200

Résumé : Une patiente TDI n'a eu besoin que de 50-80% de la dose normale d'anesthésiant lors d'une chirurgie majeure parce qu'un alter enfant avait "fronté" (pris le contrôle) à cause du stress lié à l'opération. Point besoin donc de dose pour adulte.

Citation clé :

"The doses of hypnotics were somewhat lower than normal, 50-80% of the usual dosage during surgical procedures."

Permalien

An evidence-based critical review of the mind-brain identity theory - PMC

10 janvier 2026 à 14:56

En philosophie de l'esprit, en neurosciences et en psychologie, la relation causale entre la conscience phénoménale, la pensée et les états cérébraux a toujours fait l'objet de débats. D'une part, le monisme matériel considère la conscience et l'esprit comme de purs épiphénomènes cérébraux.

L'un de ses raisonnements les plus rigoureux repose sur le « principe de la lésion avec perte de fonction », selon lequel, étant donné que les lésions cérébrales et les modifications neurochimiques entraînent des troubles cognitifs et/ou des états de conscience altérés, il n'y a aucune raison de douter de l'identité entre l'esprit et le cerveau.

D'autre part, le dualisme ou l'idéalisme (sous une forme ou une autre) considèrent la conscience et l'esprit comme autre chose que le seul produit de l'activité cérébrale, soulignant la nature ineffable, indéfinissable et apparemment non physique de nos expériences qualitatives subjectives et de leur dimension mentale.

Nous passons ici en revue plusieurs découvertes neuroscientifiques qui remettent en question l'idée selon laquelle l'expérience phénoménale serait une propriété émergente de l'activité cérébrale, et qui soutiennent que la prémisse du monisme matériel repose sur un sophisme logique de corrélation-causalité.

Si ces découvertes (pour la plupart ignorées), considérées séparément, pourraient en principe être reformulées dans un paradigme physicaliste, elles corroborent tout aussi bien, lorsqu'elles sont considérées dans une perspective intégrale, une ontologie qui postule que l'esprit et la conscience sont des phénomènes primaires.

Mots-clés : philosophie de l'esprit, problème corps-esprit, psychologie, neurosciences, monisme matériel, physicalisme, dualisme


Permalien

Autour de l'épistémologie scientifique - YouTube

7 janvier 2026 à 12:51

La conscience en ouverture (le paradigme trans-rationnel)

Mode de fonctionnement : Le cerveau fonctionne en ouverture, en mode expansif.

Conséquence : On se rend compte qu'il n'y a pas forcément d'opposition ontologique entre science et croyance. On sort d'un modèle dualiste.

Découverte ironique : Conformément aux travaux de chercheurs comme Antonio Damasio, on se rend compte que derrière toute connaissance rationnelle, il y a systématiquement de l'émotion et l'usage du système limbique.

Conclusion radicale : Toute connaissance s'appuie sur des croyances. À un moment donné, on décide d'avoir foi en la méthode scientifique.
Ces deux approches ne sont pas antinomiques

Point crucial : Ces deux méthodes, ces deux points de vue, ne sont pas antinomiques. Au contraire, ils forment un modèle unifié.

Problème dramatique selon Bascar : "Ce que je trouve dramatique, c'est quand on n'a accès qu'à un des deux points de vue. C'est un grand problème."


L'argument d'autorité dans la construction du savoir

Constat fondamental de Thomas : Quand le grand public (et même l'étudiant jusqu'à un certain niveau d'études) construit son corpus de connaissances en sciences, il le fait moins par validation scientifique que par l'autorité qui lui délivre la connaissance.

Exemple de l'étudiant au collège :

Quand un professeur explique qu'un atome est constitué d'un noyau avec des électrons qui orbitent autour, l'étudiant va le prendre pour acquis parce que le professeur peut l'expliquer et parce que le professeur a l'autorité (diplômes, compétences).

C'est la même démarche que fait le grand public.

Exemple du communiqué de presse :

Si une équipe de l'Université d'Oxford publie une étude, très peu du grand public ira lire la publication scientifique qui est à la base du communiqué de presse.

Pourquoi ? Parce que :

C'est souvent en anglais

C'est dans des domaines très techniques

Ça demande un bagage considérable pour comprendre

Test mental proposé par Thomas :

"Si je te dis qu'il y a une nouvelle théorie du tout donnée par Monsieur Trucmuche, tu vas dire 'N'importe quoi'.

Mais si je te donne le même article, un communiqué de presse du Royal College de Londres avec 50 scientifiques derrière, est-ce que tu ne vas pas accorder plus de crédit à cette information qu'au post Facebook de Monsieur Trucmuche ?

Je crois que oui. Sans se mentir, je pense que pour la majorité du grand public, l'autorité qui délivre la connaissance joue un rôle extrêmement important avant d'être capable d'aller discriminer soi-même la véracité de l'information."


Le monde est absurde...

La peur de l'absurdité

Observation de Bascar : Beaucoup de scientifiques refusent de prendre au sérieux des théories qui semblent absurdes.

Biais cognitif simple : Si je vous dis "Pensez à un cheval", il y a peu de chances que vous ayez pensé à un cheval à qui il manque une patte et un œil.

Explication : On a ce besoin de penser en termes de catégories pures. Penser le monde de façon systémique demande plus de glucose que de penser en catégories pures.

Conséquence : Plus l'individu est stressé, plus il aura tendance à catégoriser de manière binaire ("Lui, c'est un con ; lui, c'est un génie"), parce que ça demande moins d'énergie.

Problème épistémologique : "On en est arrivé à un point où on commence même à conceptualiser une théorie avant de l'avoir testée en fonction de critères esthétiques."

Processus critique :

  • On se retrouve devant un tableau blanc
  • On se dit "Comment j'explique ce domaine ?"
  • On devrait partir de différentes idées
  • Mais en réalité, on commence déjà par sélectionner l'idée la plus 'jolie' et harmonieuse
  • On part de là et on exclut le reste

Constat de Thomas : "Ça exclut du jeu un certain nombre de théoriciens qui ne se sont pas lancés dans cet idéal de la beauté."
Position de Bascar sur l'absurdité

Principe fondamental : "L'absurdité, c'est vraiment notre nature, ou en tout cas, l'absurdité, c'est la rencontre du réel avec nos faibles capacités cognitives."

Avertissement : "Si on se sert de la science et de la démarche scientifique pour fuir l'absurdité, ça va nous rattraper. Ça va nous rattraper toujours, comme une forme de retour du refoulé."

"On peut peut-être réussir à laisser de côté pour un temps, mais on n'y échappe pas."


Le besoin fondamental : prévoir pour ne pas avoir peur

Observation de Bascar : "Dans ce que tu dis, on entend le besoin du doudou épistémologique qui dit : 'Je ne veux pas le chaos. Protégez-moi du chaos, chaman, s'il vous plaît.'"

C'est la même logique.

Conclusion provisoire : "De ce point de vue-là, oui, la science est une croyance comme une autre, qui est probablement plus efficace. C'est d'ailleurs pour ça que les chamans scientifiques ont supplanté les chamans religieux."


Ce que ce débat révèle

Ce débat entre Bascar et Thomas met en lumière plusieurs tensions fondamentales dans notre rapport à la science :

  • La science repose sur des axiomes et des croyances - Même si elle se distingue par sa méthode rigoureuse, elle n'échappe pas à la nécessité de postuler certains principes de départ (existence du réel, validité de la logique, etc.).
  • L'argument d'autorité joue un rôle massif - Que ce soit pour le grand public ou pour les étudiants, la construction du savoir scientifique passe largement par la confiance en des autorités (institutions, professeurs, publications prestigieuses).
  • Les scientifiques eux-mêmes ont des croyances - Notamment en l'élégance et la beauté des théories, ce qui peut orienter la recherche de manière non rationnelle.
  • Le "vide de soi" motive beaucoup de comportements - Le besoin de se rassurer face au chaos du monde pousse à chercher des certitudes, que ce soit dans la religion ou dans la science.
  • La pensée en catégories pures est dépassée - L'évolution de la connaissance montre que les systèmes complexes et les hybrides ont remplacé les catégories étanches.
  • Le trans-rationnel est nécessaire - Pour dépasser les limites de la rationalité pure, il faut être au clair avec ses motivations émotionnelles et accepter une certaine ouverture, sans pour autant retomber dans le pré-rationnel.
  • Le monopole universitaire pose problème - La mainmise des institutions sur la science crée des phénomènes de verrouillage, de pression sociale et de rejet des voix divergentes.
  • La notion de "réel" et d'"existence" est dépassée - En épistémologie moderne, on ne cherche plus à accéder au "réel en soi", mais à construire des modèles prédictifs efficaces.

L'invitation finale de Bascar

Le message central : Soyez conscients des présupposés épistémologiques qui sont les vôtres. Interrogez vos motivations émotionnelles. Ne vous enfermez pas dans un mode de pensée en entonnoir. Acceptez la complexité, les hybrides, l'absurde.

Et surtout : Ne remplacez pas une idole par une autre. La science n'est pas un nouveau dieu, c'est un outil extrêmement puissant, mais qui a ses limites et ses biais.

L'ouverture au trans-rationnel n'est pas un retour à l'irrationnel, mais un dépassement lucide de la rationalité qui reconnaît ses propres limites sans y renoncer.


Permalien

Peer-review practices of psychological journals: The fate of published articles, submitted again | Behavioral and Brain Sciences | Cambridge Core

6 janvier 2026 à 19:39

Published online by Cambridge University Press: 04 February 2010
Douglas P. Peters and Stephen J. Ceci

DOI: 10.1017/S0140525X00011183

Un intérêt et une préoccupation croissants concernant l'adéquation et l'équité des pratiques modernes d'évaluation par les pairs dans le domaine de la publication et du financement sont manifestes dans un large éventail de disciplines scientifiques. Bien que des questions aient été soulevées quant à la fiabilité, la responsabilité, les préjugés et la compétence des évaluateurs, très peu de recherches directes ont été menées sur ces variables.

La présente étude visait à examiner directement le processus d'évaluation par les pairs, dans le contexte naturel des évaluations réelles des manuscrits soumis par les revues. Comme matériel d'essai, nous avons sélectionné 12 articles de recherche déjà publiés par des chercheurs issus de départements de psychologie américains prestigieux et très productifs, à raison d'un article provenant de chacune des 12 revues américaines de psychologie les plus réputées et les plus lues, caractérisées par des taux de rejet élevés (80 %) et des pratiques d'évaluation non anonymes.

Après avoir remplacé les noms et les institutions d'origine par des noms et des institutions fictifs (par exemple, Tri-Valley Center for Human Potential), les manuscrits modifiés ont été officiellement soumis à nouveau aux revues qui les avaient initialement évalués et publiés 18 à 32 mois plus tôt.

Sur les 38 rédacteurs en chef et évaluateurs de l'échantillon, seuls trois (8 %) ont détecté les resoumissions. Ce résultat a permis à neuf des douze articles de poursuivre le processus d'évaluation et de recevoir une évaluation réelle : huit des neuf articles ont été rejetés. Seize des dix-huit évaluateurs (89 %) ont recommandé de ne pas les publier et les rédacteurs en chef ont suivi leur avis. Les motifs de rejet ont souvent été décrits comme des « graves défauts méthodologiques ». Plusieurs interprétations possibles de ces données sont examinées et évaluées.


Permalien

Accelerated Radioactive Decay by Nuclear Effects of Great Impacts: A Critique of Uniformitarian Geochronological Dating - Jornal da Ciência

16 novembre 2025 à 12:54

La géochronologie moderne, en intégrant des événements catastrophiques à grande échelle tels que l'impact à l'origine de la Lune (THEA) 7 et l'événement VREDEFORT, est confrontée à une contradiction fondamentale dans ses méthodes de datation.

La thèse centrale de cet article soutient que de tels événements impliquent une accélération de la désintégration radioactive, entraînant un « vieillissement » apparent des roches en quelques millisecondes.

Par conséquent, le principe uniformitariste de la constance quasi éternelle du taux de désintégration, essentiel pour la datation radiométrique, devient insoutenable.

L'analyse des effets nucléaires générés par ces méga-impacts — notamment la spallation, la piézoélectricité nucléaire, la phono-fission et les plasmas à haute intensité — suggère que la géologie, en acceptant la survenue de ces événements, doit reconnaître l'invalidité de la datation radiométrique uniforme, ce qui pourrait expliquer les milliers de contradictions publiées en matière de datation.


Permalien

Consequences of Undecidability in Physics on the Theory of Everything

8 novembre 2025 à 22:22

La relativité générale traite l'espace-temps comme un système dynamique et montre son effondrement au niveau des singularités.

Cet échec est interprété comme une preuve que la gravité quantique n'est pas une théorie formulée {au sein} de l'espace-temps ; au contraire, elle doit expliquer l'{émergence} même de l'espace-temps à partir de degrés de liberté quantiques plus profonds, résolvant ainsi les singularités.

La gravité quantique est donc envisagée comme une structure axiomatique, et les calculs algorithmiques agissant sur ces axiomes sont censés générer l'espace-temps.

Cependant, les théorèmes d'incomplétude de Gödel, le théorème d'indéfinissabilité de Tarski et l'incomplétude informationnelle de Chaitin établissent des limites intrinsèques à tout programme algorithmique de ce type.

Ensemble, ces résultats impliquent qu'une « théorie du tout » entièrement algorithmique est impossible : certaines facettes de la réalité resteront indécidables sur le plan computationnel et ne pourront être appréhendées que par une compréhension non algorithmique.

Nous formalisons cela en construisant une « méta-théorie du tout » fondée sur une compréhension non algorithmique, montrant comment elle peut rendre compte des phénomènes indécidables et démontrant que l'échec des descriptions computationnelles de la nature n'entraîne pas l'échec de la science. Étant donné que toute simulation supposée de l'univers serait elle-même algorithmique, ce cadre implique également que l'univers ne peut pas être une simulation.


Désolé.. mais cette publication scientifique est vraiment à côté de la plaque !!!
Y’a vraiment des gens qui qui veulent se faire remarquer dans un sujet de niche et donc associent un sujet de buzz à côté pour se faire remarquer… et ça marche !!!
Il se trouve que j’ai lu il y a un mois la BD logicomix: https://fr.wikipedia.org/wiki/Logicomix
Qui justement parle de l’histoire de la logique et surtout de la vie de Russel qui a fait de sa vie une quête de LA vérité sous forme mathématique et donc logique. Il est aussi question de Cantor et sa théorie des ensembles qui vise à sous tendre la notion même de nombre. Si j’ai 3 pommes.. et 3 poires.. l’ensemble commun c’est 3.. et voilà comme on prouve un nombre. Russel a écrit un bouquin de 300 pages pour démontrer que 1+1 =2 … voilà le niveau de ce genre de névrosé.. (la BD montre que la plupart des logiciens sont fous car il cherchent la vérité.. et qu’elle n’existe pas… )
Puis Russel sort son paradoxe qui l’a rendu célèbre.. " l'ensemble des ensembles n'appartenant pas à eux-mêmes appartient-il à lui-même ?"
=> ça casse toute la théorie des ensembles.. y’a un paradoxe. ça a fait déprimer plein de mathématiciens !
.. et là dessus Gödel (dont il est question dans l’article) a poursuivi les travaux de Russel en démontrant que tout système logique est incomplet. Donc qu’il y a des propositions indécidable. On ne peut les prouver ni les réfuter. Là ça casse toutes la cohérence des maths…. y’a des choses qu’on saura jamais !!!
→ Ensuite c’est Tarski qui démontre qu’un langage formel ne peut pas définir LA vérité en interne. On est obligé d’avoir un méta-langage, hors du langage lui même pour définir ce qui est vrai. (En bref, le slogan de X-files → la vérité est ailleurs)
→ Puis c’est Chaitlin qui enfonce le clou en étendant ce que dit Gödel en utilisant la théorie de l’information. Si je résume il dit qu’un système formel a des limites en terme d’information qu’il peut gérer. En gros sur un feuille à plat tu peux pas prouver un cube en 3D, t’as pas assez d’information à disposition pour.

Ce dernier point me fait directement penser à une simulation qui doit nécessairement être plus grossière, plus pixelislées que son hôtes.

Donc dans ce papier, les gars disent que la gravité quantique est un algorithme et comme un algorithme est incomplet, alors il peut pas tout simuler, donc la simulation est impossible CQFD….
LOL !!!

Déjà rien ne prouve que la théorie de la gravité quantique est autre chose qu’une théorie. C’est un modèle à la mode maintenant que la théorie des cordes est passée de mode… c’est tout…
De plus, les gars ont une vision très précise de ce qu’est une "simulation", hors rien ne prouve que c’est leur définition qui s’applique. C’est pas des informaticiens les gars. Ils ont l’impression que si un ordinateur est basé sur du binaire, tout doit être binaire dans ce qui émerge. C’est justement nier les phénomènes d’émergence. Le plus impressionnant de nos jours est l’IA..
Perso je pense aussi à un "design pattern" d’architecture informatique courant. C’est le "Modèle vue contrôleur" On a un modèle de donnée, une base de données qui contient des infos, très souvent relationnelles, on a une vue qui est nécessaire pour linéariser les infos les rendre visible à l’écran, et un contrôleur qui manage tout ça.
Dans ma vision du monde, La vue c’est notre monde. C’est là où on crée le temps pour suivre un fil rouge de la base de données qui a toutes les infos en même temps.
Je prend l’exemple d’un blog.. on va crée une vu chronologique. Ou un jeu vidéo, on va dessiner via la carte graphique les objets et les personnage en interaction. (mais que cette partie de la réalité, si il n’y a pas d’observateur, il n’y a rien de calculer.. ce qui fonctionne comme la physique quantique !)

Ainsi les auteurs de l’articles suppose que la simulation est dans le même monde que celui qui est simulé. (pourquoi ? c’est une limitation) Non, on peut avoir un monde plus vaste avec d’autres capacités et loi physique. Moi j’ai aussi un autre espace, c’est mon modèle et mon contrôleur qui font un rendu dans la vue. Donc un monde plus vaste. C’est très matérialiste leur approche !!

Autre point, en informatique on a l’équivalent du théorème d’incomplétude de Gödel, il s’agit du problème de l’arrêt. https://fr.wikipedia.org/wiki/Probl%C3%A8me_de_l%27arr%C3%AAt
C’est Turing qui a montré ceci en 1936 (science étonnante a fait une vidéo sur le sujet cette semaine !!!!)
En bref, si je regarde le code d’un programme, je ne peut pas savoir si le programme va boucler à l’infini ou s’arrêter. C’est une problème indécidable.

Donc toutes nos simulations ont donc des indécidables… et ça fonctionne très bien. Les gars ils disent que le fait d’avoir un indécidable invalide toute simulation !! C’est totalement faux !

J’ai exposé mes arguments à perplexity ainsi que l’article en question. L’IA a validé la plupart de mes observation et m’a donné les sources de physiciens qui ont aussi réfuté les conclusion de cet article: "Les physiciens Melvin Vopson et Javier Moreno soulignent une "erreur de catégorie profonde" dans l'argument de Faizal."

Voilà voilà.. donc non.. c’est pas par ce que c’est publié que c’est vrai….
Merci d’avoir lu mon charabia.. je pense qu’il faut s’accrocher pour comprendre.. (d’où le fait que la plupart des gens ont juste lu le titre à côté de la plaque…) heureusement que c’est un sujet qui est venu à mois ces dernières semaines !


Permalien
❌