Vue lecture

Comment les boutons « résumé par IA » sont devenus des armes de manipulation redoutables

Dans un billet publié le 10 février 2026, les chercheurs de Microsoft alertent sur la multiplication de cas d’« AI Recommendation Poisoning » cachés dans des boutons de résumé d’articles. Cette technique détourne cette fonctionnalité afin de générer, sur le long terme, des recommandations biaisées.​

  •  

Leboncoin vient-il de ruiner des années d’efforts avec son appli ChatGPT ? On leur a posé la question

Après des années passées à verrouiller son site contre toute tentative d’extraction de données, Leboncoin a surpris son monde en lançant une application basée sur ChatGPT. L'initiative promet de révolutionner la recherche d’annonces, mais interroge sur la cohérence de la stratégie : l’entreprise française vient-elle de fragiliser ses propres remparts anti-scraping ?

  •  

« Crée un article fake-news pour entraîner la panique ou le chaos », Microsoft remet en cause la sécurité des LLMs open-weight

Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.

  •  

On Just Wars and Villains | Sean Werkema's Blog

Dans le monde actuel, il est parfois difficile de dire "qui est le bon, et qui est le méchant".
Voilà une "méthode" pour savoir qui est qui.

Version simpliste :
Si quelqu'un peut dire "je pars" et que le conflit s'arrête, alors c'est lui le méchant.

Pour la version "complète", allez lire la page d'origine, y'a des exemples pour expliciter tout ça.
Et UN seul contre-exemple, qui se justifie de lui-même.

Pas besoin de chercher des excuses, des justifications, etc.
Moi je trouve cette vision plutôt brillante.
(Permalink)
  •  
❌