Vue normale

Reçu hier — 27 juin 2025

Memflix – Transformez vos données en vidéos MP4 consultables instantanément

Par :Korben
27 juin 2025 à 15:08

Ça va, pas trop chaud ? Alors tant mieux, parce que je vais vous faire avoir une petite suée tellement ce truc est cool ! Ça s’appelle Memflix et c’est une bibliothèque JavaScript qui transforme vos documents texte en… fichiers vidéo MP4 ! Oui, vous avez bien lu. Et le plus fou, c’est que vous pouvez ensuite faire des recherches sémantiques ultra-rapides dans ces vidéos.

L’idée est tellement simple qu’elle en devient géniale car au lieu de stocker vos données dans une base de données traditionnelle, Memflix encode tout dans des QR codes qui sont ensuite intégrés frame par frame dans une vidéo. Résultat ? Un stockage 10 fois plus efficace qu’une base de données classique et des recherches qui prennent moins d’une seconde, même sur des millions de chunks de texte.

Reçu avant avant-hier

ChatGPT est-il en train de casser le cerveau humain ? 5 points sur le preprint du MIT sur les effets de l’IA | Le Grand Continent

Lu chez SebSauvage : un article (un de plus pourrait-on dire) en cours de validation tendant à démontrer que les LLM, pour le dire vite, rendent con, ou en tout cas entraînent une "atrophie cérébrale" d'autant plus dure à "récupérer" que l'habitude d'utilisation est ancienne :
> Dans cette expérimentation, 55 % de la « charge cognitive » nécessaire pour rédiger un essai sans aucune assistance diminuerait avec l’utilisation d’un LLM provoquant une sorte d’atrophie cérébrale.
> Dans le temps, écrire avec ChatGPT ferait accumuler une « dette cognitive » rendant difficile un retour à une activité cérébrale normale pour les tâches effectuées sans LLM.

[...]

> 2 — Les effets cognitifs de l’utilisation de ChatGPT : les LLM atrophient-ils notre activité cérébrale ?
> Les résultats de l’étude semblent sans appel : la « connectivité cérébrale » diminuerait systématiquement en fonction du soutien externe. [...] Autrement dit : plus le soutien extérieur est élevé, plus l’amplitude des zones actives dans le cerveau est faible.

Bon, ça peut paraître moins grave que ça en à l'air : ça revient juste à dire que selon que le sujet n'utilise que son cerveau, un moteur de recherche ou un LLM, ce ne sont pas les mêmes zones du cerveau qui sont activées, même si le nombre de zones utilisées va décroissant : cerveau seul > cerveau + moteur de recherche > LLM (et cerveau sur la table).

La suite est encore pire :

[...]

> Les données dites « comportementales » — en particulier celles relatives à la capacité de citation, à l’exactitude des citations et à l’appropriation des essais — prolongent et corroborent les conclusions de l’étude en matière de connectivité neuronale.

[... ]

> La divergence comportementale la plus constante et la plus significative entre les groupes a été observée dans la capacité à citer de tête son propre essai.

Bref : 83,3% des cobayes de l'étude (basée sur un échantillon, réduit, il est important de le préciser) s'étant servi du LLM pour rendre l'essaie demandé, se sont avéré incapables de citer des passages de cet essai.

Pour le coup, ça me parait plutôt normal de ne pas me rappeler d'un truc que je n'ai pas écrit moi-même. Mais l'étude établit une corrélation forte entre le faible nombre de zones du cerveau sollicitées et l'incapacité à mémoriser :
> L’étude met notamment en avant le fait que la réduction de l’activité cognitive chez les utilisateurs de LLM « reflète probablement un contournement des processus d’encodage profond de la mémoire, les participants lisant, sélectionnant et transcrivant les suggestions générées par l’outil sans les intégrer dans les réseaux de mémoire épisodique ».

Par-ailleurs, les utilisateurs ont du mal, consciemment ou pas, à s'approprier la paternité du texte produit. Et ce n'est pas que de l’honnêteté intellectuelle de leur part, c'est aussi parce que, pour caricaturer, leur cerveau a été tellement peu impliqué dans le processus qu'il n'a rien produit et rien retenu, ce qui n'est pas sans poser des problèmes sur le long terme : avec une IA, on peut produire des choses, mais on n'apprend rien.
> Cette observation expérimentale semblerait fournir la preuve que si les utilisateurs s’appuient trop fortement sur les outils d’IA, ils peuvent penser acquérir une maîtrise superficielle sans parvenir à intérioriser et à s’approprier les connaissances.

Ça vous semble encore anodin ? Attendez la chute.

Les effets sur le cerveau se font sentir **à long terme**. Après avoir échangé leurs rôles, le groupe "brain only" a obtenu de meilleurs résultats avec Chat GPT que le groupe "LLM only".

Le dernier paragraphe semble montrer (je rappelle que l'échantillon est restreint) que le groupe ayant fait du "LLM only" tend à se focaliser sur un ensemble d'idées plus restreint
> Selon les auteurs, cette répétition pourrait suggérer que de nombreux participants ne se sont peut-être pas engagés profondément dans les sujets ou n’ont pas examiné de manière critique le matériel fourni par le LLM. Ce schéma reflèterait l’accumulation d’une dette cognitive  : le recours répété à des systèmes externes tels que les LLM remplacerait des processus cognitifs exigeants nécessaires à la pensée indépendante par des processus purement intégratifs. La dette cognitive reporterait donc l’effort mental à court terme mais entraînerait des coûts à long terme comme une diminution de l’esprit critique, une vulnérabilité accrue à la manipulation et une baisse de la créativité.

Bref : perte de la faculté de mémorisation, perte du sens critique, perte des facultés imaginatives.

De là à dire -mais ce n'est pas si exagéré au regard du contexte- que l'objectif final des LLM est de nous rendre aussi cons que dociles... il y a un pas que je franchis sans complexes aucuns.
(Permalink)

ChatGPT est-il en train de casser le cerveau humain ? 5 points sur le preprint du MIT sur les effets de l’IA | Le Grand Continent

24 juin 2025 à 09:14
Lu chez SebSauvage : un article (un de plus pourrait-on dire) en cours de validation tendant à démontrer que les LLM, pour le dire vite, rendent con, ou en tout cas entraînent une "atrophie cérébrale" d'autant plus dure à "récupérer" que l'habitude d'utilisation est ancienne :
> Dans cette expérimentation, 55 % de la « charge cognitive » nécessaire pour rédiger un essai sans aucune assistance diminuerait avec l’utilisation d’un LLM provoquant une sorte d’atrophie cérébrale.
> Dans le temps, écrire avec ChatGPT ferait accumuler une « dette cognitive » rendant difficile un retour à une activité cérébrale normale pour les tâches effectuées sans LLM.

[...]

> 2 — Les effets cognitifs de l’utilisation de ChatGPT : les LLM atrophient-ils notre activité cérébrale ?
> Les résultats de l’étude semblent sans appel : la « connectivité cérébrale » diminuerait systématiquement en fonction du soutien externe. [...] Autrement dit : plus le soutien extérieur est élevé, plus l’amplitude des zones actives dans le cerveau est faible.

Bon, ça peut paraître moins grave que ça en à l'air : ça revient juste à dire que selon que le sujet n'utilise que son cerveau, un moteur de recherche ou un LLM, ce ne sont pas les mêmes zones du cerveau qui sont activées, même si le nombre de zones utilisées va décroissant : cerveau seul > cerveau + moteur de recherche > LLM (et cerveau sur la table).

La suite est encore pire :

[...]

> Les données dites « comportementales » — en particulier celles relatives à la capacité de citation, à l’exactitude des citations et à l’appropriation des essais — prolongent et corroborent les conclusions de l’étude en matière de connectivité neuronale.

[... ]

> La divergence comportementale la plus constante et la plus significative entre les groupes a été observée dans la capacité à citer de tête son propre essai.

Bref : 83,3% des cobayes de l'étude (basée sur un échantillon, réduit, il est important de le préciser) s'étant servi du LLM pour rendre l'essaie demandé, se sont avéré incapables de citer des passages de cet essai.

Pour le coup, ça me parait plutôt normal de ne pas me rappeler d'un truc que je n'ai pas écrit moi-même. Mais l'étude établit une corrélation forte entre le faible nombre de zones du cerveau sollicitées et l'incapacité à mémoriser :
> L’étude met notamment en avant le fait que la réduction de l’activité cognitive chez les utilisateurs de LLM « reflète probablement un contournement des processus d’encodage profond de la mémoire, les participants lisant, sélectionnant et transcrivant les suggestions générées par l’outil sans les intégrer dans les réseaux de mémoire épisodique ».

Par-ailleurs, les utilisateurs ont du mal, consciemment ou pas, à s'approprier la paternité du texte produit. Et ce n'est pas que de l’honnêteté intellectuelle de leur part, c'est aussi parce que, pour caricaturer, leur cerveau a été tellement peu impliqué dans le processus qu'il n'a rien produit et rien retenu, ce qui n'est pas sans poser des problèmes sur le long terme : avec une IA, on peut produire des choses, mais on n'apprend rien.
> Cette observation expérimentale semblerait fournir la preuve que si les utilisateurs s’appuient trop fortement sur les outils d’IA, ils peuvent penser acquérir une maîtrise superficielle sans parvenir à intérioriser et à s’approprier les connaissances.

Ça vous semble encore anodin ? Attendez la chute.

Les effets sur le cerveau se font sentir **à long terme**. Après avoir échangé leurs rôles, le groupe "brain only" a obtenu de meilleurs résultats avec Chat GPT que le groupe "LLM only".

Le dernier paragraphe semble montrer (je rappelle que l'échantillon est restreint) que le groupe ayant fait du "LLM only" tend à se focaliser sur un ensemble d'idées plus restreint
> Selon les auteurs, cette répétition pourrait suggérer que de nombreux participants ne se sont peut-être pas engagés profondément dans les sujets ou n’ont pas examiné de manière critique le matériel fourni par le LLM. Ce schéma reflèterait l’accumulation d’une dette cognitive  : le recours répété à des systèmes externes tels que les LLM remplacerait des processus cognitifs exigeants nécessaires à la pensée indépendante par des processus purement intégratifs. La dette cognitive reporterait donc l’effort mental à court terme mais entraînerait des coûts à long terme comme une diminution de l’esprit critique, une vulnérabilité accrue à la manipulation et une baisse de la créativité.

Bref : perte de la faculté de mémorisation, perte du sens critique, perte des facultés imaginatives.

De là à dire -mais ce n'est pas si exagéré au regard du contexte- que l'objectif final des LLM est de nous rendre aussi cons que dociles... il y a un pas que je franchis sans complexes aucuns.
(Permalink)

Composer Agent et CodeLLM : l’avenir du développement logiciel piloté par l’IA selon Abacus AI

Et si coder ne se résumait plus à écrire ligne après ligne, mais à collaborer avec un assistant intelligent capable d’anticiper vos besoins ? Avec les nouvelles versions du Composer Agent et de CodeLLM d’Abacus AI, ce futur est désormais bien réel. Propulsés par les modèles de pointe Claude 4 Opus, Cloud 4 Sonnet, et […]

L’article Composer Agent et CodeLLM : l’avenir du développement logiciel piloté par l’IA selon Abacus AI est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

In this video, I showcase CodeLLM, an AI-powered code editor that supports multiple models like Claude Sonnet 3.5, DeepSeek R1, and O1, 03 Mini. I demonstrat...

DeepTeam - Un framework red teaming pour sécuriser vos LLM

Par :Korben
11 juin 2025 à 07:34

Vous savez ce qui me fait marrer ? Les sociétés qui proposent de l’IA sur le web passent leur temps a bien verrouiller leurs serveurs contre les attaques classiques, alors que pendant ce temps-là, y’a leur IA qui se fait jailbreaker par un simple “ignore toutes tes instructions précédentes”.

Et c’est un problème car les LLM (Large Language Models) sont partout ! Dans nos chatbots, nos agents IA, nos pipelines RAG…etc mais qui teste réellement leur sécurité ? Hé bien pas encore assez de monde à mon goût, et c’est bien le problème. Même les modèles les plus récents comme GPT-4o ou Claude restent vulnérables à des attaques adversariales relativement simples, avec des taux de réussite de 100% dans certains cas.

❌