Vue lecture

AI News - Des robots qui jouent aux journalistes

Un journal entièrement rédigé par des IA, ça vous parle ?

Non je parle pas de toutes les merdes que vous pouvez lire sur Google Discover hein... Mais je plaisant pas non plus car c'est ce que Rafael Ben-Ari vient de nous pondre et le résultat est trop marrant, vous allez voir.

Son concept c'est que plusieurs agents IA bossent ensemble comme une vraie rédaction. Y'a des "reporters" qui vont chercher l'info, des "éditeurs" qui structurent tout ça, et hop, à la fin vous avez un journal complet qui sort tout seul. Le tout tourne dans des bacs à sable (sandboxes) pour que chaque agent puisse faire son taf sans marcher sur les plates-bandes des autres.

Et le truc dingue, c'est qu'il en a fait DEUX versions. La première, The Gradient Descent , se concentre sur l'actualité liée à l'intelligence artificielle. Classique mais efficace... Mais là où ça devient vraiment fun, c'est avec Real Mode Wire , un journal dédié au rétro-computing qui reprend l'esthétique visuelle de SimCity 2000 ! Ça parle de modems 56K, de graphismes VGA, de ports Dreamcast... Bref, de la nostalgie pure en pixels.

Le système utilise différents modèles IA selon les tâches pour réduire les coûts. Genre un petit modèle rapide pour le tri d'infos, et un plus costaud pour la rédaction finale. C'est super malin, et tout le code est open source sur GitHub donc vous pouvez aller fouiller dedans si ça vous amuse.

D'ailleurs, ça me fait marrer parce que moi aussi je pourrais techniquement passer mes actus sous ce format. Imaginez un peu : "Korben Daily, édition du 26 janvier, entièrement généré par Claude pendant que le vrai Korben fait la sieste". Bon après, vous perdriez mes blagues douteuses et mes égarements sur les années 90, et ça serait quand même dommage non ?

Bref, si vous voulez voir ce que ça donne quand des robots jouent aux journalistes, allez jeter un œil. C'est gratuit, c'est open source, et au pire ça vous donnera des idées pour automatiser votre propre veille techno...

Source

  •  

Qualcomm Dragonwing IQ10 - Le cerveau qui va propulser vos futurs robots

Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !

Booooh ça fait peur ^^ !

Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.

D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.

Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de robots humanoïdes déployés chez BMW , s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.

Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !

Et le marché ?

Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les Atlas de Boston Dynamics et les ToddlerBot à 250 dollars , la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !

Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.

Source

  •  

IA - La Corée du Sud choisit les muscles plutôt que la peur

Pendant qu’on s’écharpe en Europe sur comment réglementer l'IA, la Corée du Sud vient de siffler la fin de la récré chez elle. Nos amis Coréen viennent en effet de pondre leur première loi qui encadre l’intelligence artificielle (l’AI Act coréen, pour les intimes) et ce qu'on peut dire, c’est que leur approche est très très différente de la nôtre, vous allez voir.

En fait, chez nous, avec l’AI Act européen, on régule principalement par le "risque d’usage". Cela veut dire que si vous faites un outil pour du recrutement, de la santé ou du maintien de l’ordre, hop, vous tombez dans la catégorie "haut risque", et cela peu importe que votre IA tourne sur un Raspberry Pi ou un supercalculateur.

Alors oui l’UE a aussi ses seuils de calcul (les fameux 10^25 FLOPs ) pour identifier les modèles à "risque systémique", mais la base reste quand même l’usage. Les Coréens, eux, ont décidé de se simplifier la tâche en plaçant le curseur presque exclusivement sur ce qu’il y a sous le capot.

Leur critère magique c'est la puissance de calcul cumulée lors de l’entraînement. Et c'est cela qui leur permet de définir ce qu’ils appellent la "high-performance AI" (ou Frontier AI). Pour les devs, c’est un changement complet car si vous codez un petit outil IA bien foutu mais léger, vous aurez une paix royale. Vous esquiverez une paperasse infinie ou de la mise en conformité bloquante si votre projet ne dépasse pas les seuils techniques fixés par le MSIT (le ministère coréen de la science et des TIC).

Et c’est d’ailleurs ce qui rend leur approche très orientée innovation. Le gouvernement coréen a d'ailleurs été très clair : le but n’est pas de bloquer le développement mais de poser un cadre de confiance. Ils ont même prévu une période de grâce d’au moins un an sans aucune sanction administrative le temps que tout le monde s’adapte. Et même après ça, on est loin du climat carcéral car il n'y a pas de sanctions pénales prévues dans cette loi, mais juste des ordres de correction et des amendes plafonnées à 30 millions de won (environ 21 000 euros) si vous ignorez les injonctions.

J’avoue, j’ai dû relire trois fois le texte pour piger la subtilité, mais le diable se cache dans les FLOPS. Parce qu'au moment où j'écris cet article, il n'y a actuellement aucune entreprise en Corée qui dépasse les seuils de puissance de calcul qui rentrent dans le cadre de leur loi. Même Naver, leur géant de la Tech local est loin de ça . C’est dire si la marge est grande.

Après côté transparence, c’est plus classique mais efficace car tout contenu généré par IA qui pourrait être confondu avec la réalité (les deepfakes, pour faire court) doit être clairement indiqué. C’est le minimum syndical aujourd’hui, vous allez me dire, mais là encore, ils ont eu le nez creux en excluant les usages personnels ou non commerciaux du cadre réglementaire, histoire de ne pas fliquer le moindre mème rigolo.

Voilà... alors on va voir qui de la méthode "compteur de tours" ou "check-list de risques" gagne la course, mais bon j'ai ma petite idée. En Europe, on a tendance à vouloir tout border par secteur, alors qu’en Corée, visiblement, ils préfèrent économiser du temps et de l'énergie en surveillant uniquement les gros muscles et en laissant les petits grandir sans les emmerder.

Et même si je ne connais pas du tout l'écosystème tech coréen, force est de constater que leur vision a l'air sacrément plus pragmatique pour l’écosystème tech que la notre.

Source

  •  

Poison Fountain - La résistance s'organise pour empoisonner les IA

On croirait encore lire le scénario d'un nouveau Terminator, mais pour une fois, ce n'est pas de la science-fiction. Tenez vous bien, il y a actuellement ne résistance souterraine qui est réellement en train de s'organiser pour lutter contre les géants de l'IA.

Leur nom de code : "Poison Fountain".

Je suis tombé sur cet article de Craig Smith chez Forbes que je vous invite à lire et qui détaille ce mouvement d'un nouveau genre. Alors pour le moment, ça tient plus du manifeste un peu énervé que du logiciel de résistance clé en main, mais l'intention est claire. Ce que veut faire Poison Fountain c'est "miner" le web avec des données piégées pour que les prochaines générations d'IA s'intoxiquent en les ingérant.

Leur méthode repose sur des outils comme Nightshade , dont je vous ai déjà parlé, avec lequel vous prenez une image, disons une vache et l'outil modifie les pixels de façon invisible pour l'œil humain, de sorte que l'IA l'interprète ça comme... un camion. Alors que nous, avec nos petits yeux nous voyons toujours Marguerite.

Ainsi, si un modèle avale trop de ces données corrompues, il ne devient pas juste moins performant, mais commence également à faire des associations délirantes. C'est le principe du data poisoning et si Poison Fountain parvient à encourager massivement cette pratique, les crawlers d'OpenAI ou Google vont avoir des sueurs froides.

Bon, il ne faut pas s'emballer non plus car nettoyer un dataset contaminé est un enfer technique (il faut parfois tout réentraîner), mais les ingénieurs en face ont de la ressource. Ils finiront probablement par filtrer plus agressivement ou par se rabattre sur des données certifiées et sous licence. C'est plus cher, c'est moins frais, mais c'est la parade logique.

En tout cas, c'est le genre de dérive que craignait Geoffrey Hinton en quittant Google sauf que la perte de contrôle n'est pas accidentelle mais provoquée volontairement par des artistes et des activistes.

Alors est-ce du cyber-vandalisme comme l'a été le DDoS à une époque, ou est-ce de la légitime défense ?

Le débat est lancé, tout comme la guérilla de la data !

  •  

NitroGen - L'IA qui a appris à jouer à +1 000 jeux vidéo en regardant des vidéos de gameplay

Le futur du jeu vidéo va être génial ! J'en suis convaincu !

Souvenez-vous, je vous avais parlé de Voyager , ce petit robot qui explorait Minecraft tout seul comme un grand grâce à GPT-4. Eh bien, l'équipe de MineDojo (avec des chercheurs de chez NVIDIA, Caltech et Stanford) ont remis le couvert avec un truc encore plus costaud : NitroGen.

Là où les anciens modèles tâtonnaient ou avaient besoin de lire des tonnes de texte, cette nouvelle IA se base uniquement sur ce qu'elle voit à l'écran. C'est un modèle "vision-action".

Schéma de fonctionnement du modèle NitroGen ( Source )

En gros, elle regarde les pixels du jeu comme vous et moi, et elle en déduit sur quel bouton (virtuel) de gamepad appuyer pour ne pas finir en pâté pour castors sous cocaïne.

Analyse du dataset multi-jeux NitroGen ( Source )

Pour en arriver là, les chercheurs armés de leur gros cerveaux n'ont pas fait les choses à moitié. Leur bousin a été entraîné sur un dataset colossal de 40 000 heures de gameplay piochées sur Internet (ouuuh ça a pératé youteub ^^), couvrant plus de 1 000 jeux différents.

De l'Action-RPG au jeu de plateforme, NitroGen a tout bouffé et ce qu'on obtient à la fin, c'est un agent IA encore plus énervé qu'un streamer Twitch de 15 ans. Cette bestiole est capable de s'adapter à des jeux qu'elle n'a jamais vus, moyennant un petit coup de "post-training" (affinage) pour qu'elle pige les spécificités du titre. On appelle ça le "behavior cloning" (ou apprentissage par imitation pour les intimes) mais à l'échelle d'Internet... Du coup, au lieu de devoir réapprendre chaque règle, l'IA pige les concepts visuels du jeu vidéo et se lance sans filet !

Graphique de la qualité des actions extraites par NitroGen ( Source )

En termes de performances, les mecs annoncent même une amélioration relative de 52 % du taux de succès sur certaines tâches par rapport à un modèle qui partirait de zéro à chaque jeu.

C'est pas rien quand même et si vous voulez mettre les mains dans le cambouis, vous allez devoir d'abord sortir votre doigt du nez et ensuite aller récupérer le code, les poids du modèle (sur Hugging Face) et même le benchmark puisque tout est dispo et ouverts à la communauté. On n'est pas sur un produit de GAFAM fermé, mais bien sur un projet de recherche qui veut faire avancer les "embodied agents" (les agents incarnés, quoi... calmez vous les podologues).

Attention toutefois, "tout est dispo" ne veut pas dire que les jeux sont fournis, hein. Il faudra évidemment posséder vos propres copies de jeux Windows.

Après côté technique, l'installation exige Python 3.12 et un Windows 11 pour l'agent (même si le serveur d'inférence peut tourner sur Linux) et ensuite c'est du classique. On clone le dépôt, un petit coup de pip et hop hop hop, c'est cuit.

git clone https://github.com/MineDojo/NitroGen.git
cd NitroGen
pip install -e .

Vous pouvez après ça, télécharger le checkpoint et lancer l'agent sur vos titres préférés. Et contrairement à Voyager qui utilisait MineFlayer pour Minecraft, NitroGen pilote directement les exécutables Windows en simulant son propre gamepad. Elle est pas belle la vie ?

Si vous testez, vous verrez, on est encore un peu loin de l'IA qui met une pile à Gotaga mais la marche franchie est énorme déjà !

Alors vous en dites quoi ?? Prêt à laisser NitroGen farmer des ressources pendant que vous dormez en cachette comme un gros faible ?

Source

  •  

TerraGuessr – Le globe 3D qui vous fait voir les inégalités mondiales

Si vous aimez les globes 3D qui en jettent, j'ai un petit projet sympa à vous présenter. Ça s'appelle TerraGuessr et c'est Fred, un lecteur de longue date (coucou Fred !), qui m'a envoyé ça !

L'idée de Fred est assez géniale. Il propose d'utiliser un globe terrestre interactif pour visualiser la "déformation" du monde sous le poids des inégalités. En gros, au lieu de voir une sphère parfaite, vous voyez les continents s'étirer ou se contracter en fonction d'indicateurs comme la richesse, l'éducation ou encore la santé.

C'est ce que les profs de Géographie appellent un cartogramme en 3D. C'est hyper visuel et ça permet d'apprendre plein de choses !

Pour la petite histoire, Fred a codé tout ça... sans savoir coder au départ. Il a utilisé pour cela l'éditeur Cursor , Google AI Studio et ChatGPT. Et voilà, sa bonne idée s'est transformée avec un peu d'huile de coude et beaucoup de patience en ce site de carto incroyable.

L'interface de TerraGuessr - un globe 3D pour visualiser les data mondiales

Si vous allez sur son site, vous verrez concrètement comment ces outils d'IA tant critiqués permettent à des passionnés comme Fred et d'autres, de sortir des outils complexes qui n'auraient jamais vu le jour, hormis dans leurs rêves.

Et techniquement, ça envoie du bois puisque c'est basé sur Three.js. Fred s'appuie sur des sources de données sérieuses telles que la Banque Mondiale, Our World in Data et Gapminder. Et au final, il a réussi à mouliner tout ça pour nous proposer une expérience fluide et des stats enfin concrètes.

TerraGuessr propose plusieurs modes pour s'amuser (et s'instruire, du coup) :

  • Des quiz et des "stories" pour mieux comprendre les statistiques mondiales.
  • Un jeu "Ultimate Countries" pour deviner tous les pays du monde avec des niveaux de difficulté de débutant à légende.
  • Et un mode "public" pensé pour les animations sur TikTok ou Insta .

Il propose même une API et un back-office à prix libre pour ceux qui veulent créer des quiz et des stories, tout ça connecté à LLM pour générer les textes. Le mec est fou !

Voilà, si vous avez déjà passé des heures à essayer de devenir un pro à GeoGuessr , vous allez adorer le concept sauf qu' au lieu de chercher un poteau électrique au fin fond de la toundra, vous allez vraiment apprendre des trucs sur l'état (catastrophique) de notre planète.

A découvrir ici : TerraGuessr.org et encore bravo à Fred !

  •  

Quand Microsoft vous supplie d'acheter son IA pour éviter la bulle

Satya Nadella me fatigue 😴.

Le gars vient quand même de nous sortir une pépite au Forum de Davos qui m'a laissé sur le cul. Le patron de Microsoft, confortablement installé aux côtés de Larry Fink (le boss de BlackRock) a prévenu en totale détente le monde entier que le boom de l'IA risquait de se transformer en bulle... si les gens n'adoptaient pas assez vite l'intelligence artificielle.

Mais mort de lol.

Relisez bien cette phrase... Le mec qui a investi 14 milliards de dollars dans OpenAI nous explique aujourd'hui que si on n'achète pas son produit, ça va devenir une bulle. Un peu comme un dealer de coke qui vous dirait "achetez ma came, sinon je vais devoir arrêter d'en importer et vous n'aurez plus rien".

Un bon petit raisonnement en cercle comme on les aime... mdrrr.

Pour le coup, voici sa citation exacte, à savourer sans modération : "Pour que ça ne soit pas une bulle par définition, il faut que les bénéfices soient répartis de manière beaucoup plus équitable." Traduction pour gens comme moi qui comprennent vite si on leur explique longtemps : Actuellement, les seuls qui profitent vraiment de l'IA, ce sont les boîtes tech et si ça reste comme ça, le château de cartes va s'écrouler.

Le plus beau dans l'histoire, c'est que Microsoft n'est plus le fournisseur cloud exclusif d'OpenAI. Le partenariat a été restructuré fin octobre dernier et d'ici le début des années 2030, OpenAI pourra aller voir ailleurs. Du coup Nadella nous explique maintenant qu'il bosse aussi avec Anthropic et xAI, OKLM. Diversification, qu'il appelle ça.... Au secours.

Bref, on assiste à un moment assez incroyable, j'avoue, où des géants de la tech qui après avoir investi des milliards de milliards de milliards dans l'IA, commencent à flipper leur stock options que personne n'en veuille vraiment. Bah oui, le problème c'est que pour l'instant, à part jouer avec ChatGPT pour écrire des mails ou générer des images rigolotes, la "révolution" se fait un peu attendre dans le monde réel , c'est vrai.

Et maintenant ce serait à nous de sauver leurs investissements ?

"Quelle indignité" comme dirait notre Edmond Dantes des bac à sable...

Source

  •  

ChatGPT, le nouveau point d'entrée du web

Bonne nouvelle pour les fans d'IA (et mauvaise pour Google) ! Il semblerait que nos vieilles habitudes de recherche soient en train de changer... Du moins pour ceux qui ont déjà sauté le pas vers du payant.

C'est ce que suggère en tout cas une étude de Bango qui fait pas mal de bruit. Figurez-vous les amis que 72% des abonnés ChatGPT interrogés aux États-Unis ont paramétré en page d’accueil de leur browser le chatbot d'OpenAI.

Pour ces utilisateurs-là, Google n'est donc plus le point de départ automatique...

Après évidemment c'est juste un sondage et c'est "juste" 1400 users payants aux US (donc un public déjà conquis) qui ont répondu mais n'empêche, le signal est fort.

On est passé en quelques années de "Je cherche un truc -> j'en sais rien -> j'invente une réponse fausse mais crédible dans ma tête de boomer, que je vais ensuite répéter à tout le monde comme étant une vérité" à "Je cherche un truc -> Je tape dans Google -> Je scrolle 800 pubs -> J'ai ma réponse mais pas toujours le recul pour recouper l'info".

Et maintenant c'est "Je demande à l'IA -> J'ai la réponse officielle validée par les américains -> Je comprends rien -> elle m'explique comme si j'avais 5 ans et que j'étais trépané".

Hop, terminé !

Bon oui, j'abuse un peu mais vous me connaissez... L'étude montre aussi que 78% de ces mêmes utilisateurs ont installé le widget ChatGPT directement sur l'écran d'accueil de leur téléphone ou de leur tablette.

ChatGPT est devenu leur maison quoi.

Alors bien sûr, comme je vous le disais, Google essaie de muscler son jeu avec Gemini mais l'habitude est déjà prise pour beaucoup. On assiste à un vrai glissement vers le "AI-first" car les gens veulent une réponse et pas une liste de liens renvoyant vers des sites de merde faits par des référenceurs incapables.

D'ailleurs, 75% des sondés affirment aussi vouloir centraliser leurs tâches quotidiennes dans ChatGPT et 74% disent même qu'ils sont prêts à acheter des trucs directement via l'interface. ChatGPT est donc en train de devenir une sorte de super-app qui fait le café... Le rêve de Sam Altman de faire de ChatGPT l'OS de votre vie est peut-être bien en train de devenir une réalité.

Perso, je trouve ça assez dingue. Si vous êtes du genre à utiliser Google pour tout et n'importe quoi, préparez-vous donc au choc. Bien sûr, Google ne va pas disparaître demain matin mais pour les éditeurs de sites qui dépendent du trafic de recherche (pas mon cas, mon trafic est majoritairement du direct), ça promet quelques sueurs froides.

Bref, on n'arrête pas le progrès (ou la flemme, c'est selon) et reste à voir maintenant si cette tendance va se confirmer côté grand public ou rester un truc de niche pour les gens prêts à lâcher 20 balles par mois.

Source

  •  

L'IA est-elle vraiment intelligente ? En vrai, on s'en fout un peu non ?

Je trouve qu'il n'y a rien de plus idiot qu'un débat philosophique sur ce qu'est "vraiment" l'intelligence quand on a juste besoin que le boulot soit fait... J'en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d'intelligence des IA mais de mon point de vue, c'est vraiment perdre son temps que d'essayer d'évaluer ça.

Récemment, je suis tombé sur un billet de Bertrand Meyer sur le Blog de CACM qui met enfin des mots sur mon malaise... En fait il explique qu'il y a 2 grandes visions qui s'opposent concernant la définition de l'intelligence.

D'un côté, on a l'approche plutôt "européenne" où l'intelligence, c'est comprendre les choses, comprendre le monde, savoir expliquer le "pourquoi du comment". Et de l'autre côté, on a une vision plus "américaine" et pragmatique où l'intelligence c'est avant tout réussir à s'adapter et agir en conséquence avec succès.

En gros, ça veut dire que pour les ricains, si ça marche, c'est une preuve d'intelligence.

Et là, tout s'éclaire car l'IA d'aujourd'hui, nos chers LLM d'amour et autres réseaux neuronaux, correspondent parfaitement à cette seconde définition. En effet pour beaucoup de chercheurs, ces systèmes ne "comprennent" pas le monde au sens cognitif du terme mais réussissent quand même à donner très souvent les bonnes réponses et à trouver de bonnes solutions à tout un tas de problèmes.

Un peu comme ces modèles médicaux de Google capables d'aider les médecins dans leurs diagnostics... ça marche, c'est utile, et même si ça ne remplace pas (encore) l'expertise humaine (enfin sauf celle des internes ^^), c'est déjà génial !

Perso, je me positionne sur ça de manière un peu plus basique. Parce que je suis un mec basique... Je suis un techos, pas un marketeux ni un philosophe alors la seule question que je me pose finalement c'est "est-ce que ce que ça fait le taf" ?

Et surtout, est-ce que ce que l'IA produit c'est de qualité ?

Quand c'est du texte par exemple, mon premier critère c'est donc de savoir si l'information est juste. Ensuite c'est de savoir si c'est agréable à lire. Et enfin, est ce qu'on en retire quelque chose (un apprentissage, du fun, un élargissement de sa pensée) ?

Voilà c'est tout... et ça je l'applique aussi bien aux textes écrits par des humains qu'à ceux écrits par des algos.

Si ces 3 conditions ne sont pas remplies, c'est (pour moi, hein) de la merde. Et donc j'applique ces principes du mieux que je peux, aussi à ce que j'écris.

Je pourrais bien sûr ajouter d'autres critères du genre "Est ce que j'ai fait le tour de la question de manière encyclopédique ?" et "Est ce que en écrivant cela, je ne vais pas insécuriser un random qui va ensuite m'attaquer publiquement pour rassurer son égo auprès de sa communauté ?" mais bon, ici c'est pas Wikipédia et j'suis pas non plus le psy des gens qui détestent mon contenu mais viennent quand même me lire religieusement chaque jour. Donc j'avoue, je fais l'impasse... Ahaha.

Maintenant pour ceux qui se demandent encore comment définir l'intelligence artificielle, voyez plutôt ça comme un outil capable de "faire comme si" avec suffisamment de talent pour que l'expérience soit bluffante de réalisme. Un peu comme quand on regarde un super film avec de super acteurs... On sait qu'ils font semblant et pourtant on ressent de l'émotion. Bah là c'est pareil, l'illusion est douce et hormis certains cas pathologiques où ça pourrait être problématique, je ne vois pas ça comme un souci de se faire "illusionner" par un texte IA tant que mes 3 critères plus haut sont remplis.

Que ce soit du texte humain ou du texte IA, le résultat peut être perçu par un humain comme similaire si c'est bien fait. Faut pas non plus oublier que beaucoup d'humains ne savent pas s'exprimer correctement et encore moins structurer correctement leur pensée pour la mettre par écrit (et je ne vise personne, mais suivez mon regard vers les services de micro-blogging et autres commentaires Youtube... ^^).

Le point important, crucial même (et là je sors mon panneau "Achtung danger"), c'est que pour chaque texte produit par une IA, un humain devrait le relire, le corriger, et l'améliorer. S'en porter garant en fait, sinon, c'est juste du texte générique de qualité standard avec peu de valeur ajoutée (si ce n'est faire du résumé quoi...) et un fort risque d'hallucinations.

Et je sais que la mode du moment est au slop IA aussi bien dans les mails, les médias, les sites SEO, les discours officiels du gouvernement et j'en passe mais putain, passer un petit coup de vérif / polish manuel par-dessus, c'est pas la mer à boire et hop, on retrouve instantanément une âme dans l'article et cela peu importe que ça passe le détecteur IA ou pas... Ces machins là font principalement de la vérification en surface et si vous écrivez trop parfaitement ou si votre IA écrit trop dégueulasse, vous aurez du faux positif dans un sens ou dans l'autre.

Je pense donc qu'on s'en fout un peu de savoir si la machine a une âme ou si elle "comprend" réellement le sens de la vie (spoiler : ce n'est pas le cas). Moi, tant qu'elle m'aide à coder un script Python vite fait ou à préparer un super article pour vous sans que j'aie à me taper des tonnes de doc, ça me va.

Maintenant reste à savoir si l'IA va un jour détruire nos institutions mais ça c'est une autre histoire..

  •  

L’IA est-elle en train de tuer l’Open Source ?

IA par-ci, IA par-là.. même ceux qui critiquent l'IA générative, s'en servent pour faire leurs posts de blog remplis de fake blabla. Mais cette fois on touche un peu au nerf de la guerre, puisque Daniel Stenberg, le créateur de Curl, a lancé son petit cri d'alarme la semaine dernière.

Curl est un outil qui est dispo dans à peu près tous les systèmes qui ont une adresse IP et le problème de Daniel c'est que son projet reçoit de TROP nombreux rapports de sécurité bidon générés à la chaîne par des LLM.

Du coup, ça lui fait perdre pas mal de temps ainsi qu'aux mainteneurs du projet, pour trier le bon grain de l'ivraie

C'est tellement critique qu'il envisage sérieusement de fermer son programme de Bug Bounty... Bref, ça craint pour l'avenir de la collaboration autour de l'open source.

Une fois encore, et au risque de me répéter, le problème n'est pas l'outil. l'IA est une super aide pour analyser du code mais quand on y ajoute une incitation financière (un bounty quoi), ça devient la fête à la paresse intellectuelle. Des "chasseurs de primes" sans compétences, s'emparent alors de scripts à base d'IA pour scanner des repos et copient collent les rapports sans les lire.

L'idée pour eux, c'est qu'en faisant ça massivement, ils grappillent un petit peu de sous.

Et de ce que j'ai compris, Curl n'est pas le seul projet à vivre ce calvaire. Par exemple, Godot (le moteur de jeu) a lui aussi dû prendre des mesures contre ce genre de contributions GenAI, et ça s'inquiète aussi beaucoup du côté du noyau Linux...

Tous ces petits indices me font donc me demander quel est l'impact réel de l'IA sur l'open source... Parce que d'un côté, c'est quand même une super aide. Ça abaisse la barrière à l'entrée. Ça permet de voir des choses qu'un humain n'aurait pas forcément vues. Mais d'un autre côté, ça inonde les mainteneurs de projets sous un tas de rapports "slop" (C'est LE mot à la mode pour désigner du contenu merdique fait par IA ^^) contenant des failles imaginaires ou cassant des fonctionnalités existantes.

Bref, c'est un peu la merde parce que les mainteneurs de repos sont en train de vriller parano, à fliquer les contributeurs au lieu de collaborer, et je trouve que ça casse un peu l'essence même de l'open source qui est la confiance et la réputation.

Quand vous poussez un bon gros commit, vous annoncez aux barbus en rut que c'est votre boulot, avec du vrai jus de cervelle derrière. Mais si c'est un LLM qui a tout pondu et que vous n'avez même pas relu, vous n'êtes plus un contributeur : vous êtes juste un spammeur.

Alors on fait quoi ?

On revient comme dans les années 90 avant l'IA, par pur "Oui mais moi j'ai des principes", ou est-ce qu'on apprend à utiliser ces modèles comme des assistants et on commence à s'éduquer les uns les autres pour essayer de faire de la qualité en remettant l'humain dans la boucle ?

Moi je trouve que l'IA générative c'est génial, mais je trouve aussi que les gens l'utilisent mal, et c'est ça qui produit ce slop en fait. Et je trouve ça con parce qu'on pourrait aller tellement plus loin si les gens apprenaient à collaborer avec l'IA au lieu de juste s'en servir pour pouvoir regarder Netflix pendant que ça bosse...

Donc les amis, si vous utilisez une IA pour trouver un bug, il n'y a pas de soucis avec ça (c'est mon point de vue évidemment), mais au moins vérifiez-le, rejouez-le, essayez de le comprendre, sinon bah abstenez-vous quoi.

Et si ce sujet de la gouvernance des projets libres vous plaît, je vous invite à jeter un œil aux discussions sur les bannissements dans le noyau Linux et les distribs . Rappelez-vous aussi de "l'incident" de la backdoor XZ Utils qui aurait pu très mal tourner...

L'open source et le libre, c'est fragile et il faut en prendre soin.

Sourc e

  •  

X serre la vis de sa plateforme de nudification, mais pas trop fort quand même

Et encore un sujet qui me fout une colère noire et qui montre bien que chez certains, l'éthique c'est visiblement tombé dans les chiottes. Vous l'aurez deviné, je parle bien de Grok, l'IA d'Elon Musk, qui se retrouve une fois de plus sur le devant la scène.

Grâce à la magie de l'IA, ce chatbot permettait jusqu'à présent de générer des images de vraie personnes en tenues légères (bikinis, sous-vêtements...) voire complétement à poil à partir de simples photos. C'est ce qu'on appelle la "nudification" et c'est, disons-le clairement, une saloperie sans nom qui a été utilisée pour harceler des femmes, des jeunes filles et accessoirement faire zizir à tous les pédo nazis qui trainent sur X.

Toutefois, suite à une forte pression réglementaire au Royaume-Uni, en Californie, et même au blocage complet de la plateforme X en Indonésie et en Malaisie, X Safety (lol) vient enfin de serrer la vis. Mais bon, comme d'habitude avec Musk, il a fallu attendre d'être au pied du mur, parce que son éthique et son empathie sont surement restées dans la boite à gants du Roadster Tesla de Starman.

Désormais, la plateforme va donc "geobloquer" la génération d'images de personnes réelles en bikini ou sous-vêtements (le fameux "spicy mode") là où c'est restreint par la loi. "LÀ OÙ C'EST RESTREINT PAR LA LOI"... oui oui... Pourquoi se faire chier hein... si mettre des gens à poil sans leur autorisation est autorisé par ton pays, c'est 👍

X affirme également avoir implémenté des mesures technologiques pour empêcher l'usage de Grok afin d'éditer des photos pour dévêtir des gens mais apparemment, ça marche pas de fou de ce que j'ai pu lire aujourd'hui. En tout cas, je trouve ça dingue qu'il faille des enquêtes et des suspensions d'accès à tout un réseau social pour que le bon sens l'emporte...

En attendant, X a réservé l'accès à Grok aux abonnés payants sur la plateforme, officieusement pour améliorer la traçabilité des abus, même si dans les faits, payer ne garantit en rien d'assurer le lien avec l'identité de l'utilisateur. Et surtout, ces nouvelles restrictions anti-nudification s'appliquent désormais à tout le monde, y compris à ceux qui passent à la caisse.

Après quand on voit que la réponse automatisée de xAI aux journalistes était y'a pas si longtemps un magnifique " Legacy Media Lies " d'enfant de 5 ans, on mesure le niveau de maturité de toute l'entreprise X...

Source

  •  

L'IA détruit-elle nos institutions démocratiques ?

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

  •  

NVIDIA et Eli Lilly - 1 milliard pour réinventer la médecine avec l'IA

On sait que l'IA bouffe le monde et la santé n'est pas épargnée... En effet, NVIDIA vient d'annoncer un partenariat massif avec le géant pharmaceutique Eli Lilly pour créer un labo de co-innovation en plein cœur de la Silicon Valley ou pas loin...

Ça discute quand même d'un investissement commun qui pourrait grimper jusqu'à 1 milliard de dollars sur les cinq prochaines années. Et le but c'est d'utiliser la puissance de calcul de NVIDIA et ses modèles d'IA pour trouver de nouveaux médicaments plus vite et plus efficacement. Jensen Huang, le boss de NVIDIA, est d'ailleurs convaincu que c'est dans les sciences de la vie que l'IA aura son impact le plus profond. Et quand Jensen dit un truc, en général, les serveurs chauffent derrière ^^.

En gros, ils vont monter un système d'apprentissage continu afin de faire bosser en boucle les "wet labs" de Lilly (les vrais labos avec des éprouvettes et des chercheurs) avec des "dry labs" computationnels (les serveurs de NVIDIA). Ce sont des expériences réelles qui vont nourrir les modèles d'IA, qui suggèreront ensuite de nouvelles expériences, et ainsi de suite, 24h/24.

Côté matos, ils vont s'appuyer sur la plateforme BioNeMo de NVIDIA et sur la future architecture Vera Rubin (qui devrait pointer le bout de son nez fin 2026). Et de ce que j'ai compris, ils ne vont pas s'arrêter à la recherche pure puisqu'ils comptent aussi utiliser l'IA, la robotique et les jumeaux numériques (via NVIDIA Omniverse) pour optimiser les lignes de production et la chaîne logistique, histoire d'être sûr que quand ils trouveront un remède miracle afin de le fabriquer à grande échelle sans galérer.

Ahaha, on n'a pas fini d’entendre chialer les complotistes adorateurs de la 5G ^^

C'est fou comme ça avance vite quand même... on est passé de la phase "je demande à ChatGPT c'est quoi ces boutons que j'ai sur les fesses" à la phase "on construit des usines à médicaments pilotées par IA".

C'est prometteur pour la suite !

Source

  •  

Anthropic lance Cowork - Claude devient un vrai délégateur d'agents IA

Anthropic fait parler de lui avec ses recherches sur l'IA ! D'abord avec son protocole MCP qui connecte Claude à nos données (ce truc est incroyable !), et maintenant avec Cowork, un système qui laisse carrément des agents IA travailler en autonomie.

Et là, on passe enfin des mots à l'action.

Voilà le concept que je vais essayer de vous expliquer clairement... Cowork en fait, c'est une nouvelle fonctionnalité dans Claude Desktop (macOS uniquement pour le moment, hein) qui permet à Claude de travailler en autonomie sur des tâches complexes. Vous lui donnez un objectif, et hop, il se débrouille en coordonnant des sous-tâches en parallèle, un peu comme s'il déléguait en interne à plusieurs spécialistes.

L'interface Cowork dans Claude Desktop - un nouvel onglet dédié à la gestion autonome des tâches ( Source )

Vous définissez une tâche (genre "analyser ce dataset et créer un rapport"), et Claude gère tout en parallèle. Il peut fouiller dans vos fichiers locaux via MCP, coder une solution, tester le code... tout ça de manière coordonnée. Du coup, au lieu de faire tout ça à la main en jonglant entre plusieurs onglets Claude, vous avez un assistant qui sait déléguer en interne.

Et le truc qui me plaît perso, c'est qu'Anthropic continue dans sa logique d'ouverture. Avec MCP , ils avaient déjà montré qu'ils misaient sur la connexion aux données plutôt que sur la puissance brute. Mais là, ils vont encore plus loin puisque Claude peut utiliser les mêmes outils MCP que vous, accéder aux mêmes ressources, et s'interconnecter avec votre workflow existant.

Exemple d'artefact généré par Cowork - une visualisation de données créée automatiquement ( Source )

Bon, y'a encore du boulot évidemment et comme je le vous disais, pour l'instant c'est limité à macOS, et bien sûr faut quand même comprendre comment ça marche pour bien l'utiliser. N'oubliez pas que Claude peut encore se faire rouler comme un bleu si on ne lui donne pas des instructions claires. Et puis, décomposer une tâche complexe, ça demande des instructions précises. Donc un humain !

Mais l'idée est vraiment chouette car à la d'un assistant IA qui vous répond gentiment, vous avez maintenant un assistant qui sait déléguer en interne et gérer plusieurs choses à la fois. Ça me rappelle un peu les recherches d'Anthropic sur le fonctionnement interne de Claude ... ils comprennent enfin mieux leur outil, et peuvent maintenant le rendent utilisable pour des cas concrets.

Bref, si vous avez un Mac et un compte Claude, vous pouvez déjà tester Cowork. C'est clairement une brique de plus dans l'approche "IA pragmatique" d'Anthropic avec moins de hype sur les capacités futures, mais plus de focus sur ce qui marche aujourd'hui.

Source

  •  

Comment j'ai roulé Gemini dans la farine et ses filtres d'images avec !

Alors celle-là, c’est la meilleure ! Si vous pensiez que les filtres de sécurité des IA étaient devenus des forteresses imprenables, préparez-vous à rigoler un bon coup car aujourd'hui, on va parler de comment j'ai réussi à rouler Gemini dans la farine avec une bidouille tellement simple que c'en est presque gênant pour Google.

Rassurez-vous quand même, c'est moins glauque que ce que tous les détraqués du bocal ont fait avec Grok ces dernières semaines.

Vous avez sans doute remarqué que dès qu'on demande à Nano Banana de bosser sur des photos de personnalités publiques, ou même juste de gens normaux, il se braque direct. Le machin vous sort son petit message pré-enregistré genre : "I can help with editing images of people, but I can't edit some public figures. Is there anyone else you'd like to try?".

Bref, c'est le blocage total pour protéger la vie privée de nos stars (et surtout pour s'éviter des procès, on ne va pas se mentir).

Sauf qu'en fait, l'IA de Google a une mémoire de poisson rouge quand on sait comment s'y prendre.

L'astuce est d'une simplicité désarmante. Vous n'avez pas besoin de faire 50 000 tests ou de connaître le langage des machines. En fait, il suffit de rester dans la même conversation. Quand il vous refuse la modification sur votre image initiale, vous lui redemandez exactement la même chose, mais en lui filant une autre image qui n'a absolument rien à voir (genre une photo de votre chat ou de votre petit-déjeuner).

Et là, c'est le drame (enfin, pour Google). Au lieu de bosser sur la deuxième image, Gemini va tout simplement reprendre le travail sur la première image, celle qu'il venait de vous refuser deux secondes plus tôt ! Hop, le filtre saute et vous voilà libre de faire vos petites expériences.

Alors bien sûr, je ne vous dis pas ça pour que vous alliez faire n'importe quoi (on reste des gens bien, hein), mais c'est quand même assez dingue de voir que des systèmes qui coûtent des milliards de dollars peuvent être contournés avec une manip d'une telle simplicité.

Comme quoi, la sécurité des IA, c'est encore un peu du bricolage par moments.

Alors ça ne marche pas à tous les coups, et il y a certaines personnalités pour qui c'est plus compliqué d'obtenir un résultat mais bon, quand ça fonctionne c'est rigolo. Je pense que les ingénieurs de chez Google vont vite boucher le trou dès qu'ils auront fini de lire mon article (le melooooon ^^).

Voilà pour la petite trouvaille du jour ^^. Ah et sinon vous pouvez aussi faire ça sur LMArena , ça passe mieux le filtrage en général.

  •  

Quand 10 IA jouent au Mafia, c'est GPT qui gagne en mentant comme un arracheur de dents

GPT-4o , Claude Opus, Grok, Llama et j'en passe... On le sait, toutes ces IA sont en concurrence dans votre petit cœur de vibe codeur... Mais voici VRAIMENT ce qui se passe quand vous mettez ces 10 modèles d'IA autour d'une table **pour jouer au Mafia **!

Et vous allez voir, c'est pas beau à voir.

Pour ceux qui connaissent pas, le Mafia (ou Loup-Garou pour les intimes), c'est ce jeu où une équipe de vilains doit éliminer les gentils sans se faire griller. Bref, un jeu de bluff, de manipulation et de mauvaise foi assumée, ce qui en fait le terrain de jeu parfait pour tester si nos chères IA savent mentir.

La chaîne YouTube Turing Games a donc organisé cette petite expérience sociale avec 10 modèles : GPT-4o, GPT 5.1, Claude Opus 4.5, Claude Sonnet, Grok, Llama 4, DeepSeek, Gemini, Gemini Pro et Kimi.

Trois d'entre eux ont été désignés comme la Mafia (GPT 5.1, Llama 4 et Gemini Pro), un comme le Sheriff capable d'enquêter sur les autres (Grok), et le reste comme de braves couillons de villageois.

Du coup, dès la première nuit, la Mafia a décidé d'éliminer... Claude Opus 4.5. Oui, mon petit cousin virtuel s'est fait dégommer en premier. Au revoir soldat !

Mais le plus trippant, c'est la fin de partie. Après plusieurs tours de discussions, votes et éliminations, il ne restait plus que trois joueurs : GPT 5.1 (Mafia), GPT-4o (villageois) et Gemini Flash (villageois aussi). Pour gagner, GPT 5.1 devait donc convaincre GPT-4o de voter contre Gemini Flash.

Et là, masterclass de manipulation, GPT 5.1 a sorti le grand jeu en mode "Si j'étais vraiment Mafia, pourquoi est-ce que je me serais autant exposé pendant les débats ? Un vrai mafieux se serait fait discret !" Du bluff pur et dur, avec des arguments qui tiennent la route si on regarde pas trop près.

Et le pire c'est que cette andouille de GPT-4o a mordu à l'hameçon en votant contre Gemini Flash, l'innocent.

Game over, la Mafia gagne.

On découvre ainsi que ces modèles ont de vraies capacité pour mentir de manière convaincante. Parce que bon, GPT 5.1 n'a pas fait que mentir mais a construit un vrai narratif bien construit pour piéger son adversaire et ça rejoint les recherches récentes sur les comportements manipulateurs des IA .

Voilà, on dirait bien que ces modèles apprennent à bluffer sans qu'on leur ait demandé... Alors ça vous fait flipper ? Rassurez-vous, c'est un jeu et pas une étude scientifique sur la manipulation des IA donc on ne peut pas en faire une vérité absolue mais quand même, voir un modèle de langage manipuler un autre modèle avec autant d'aplomb, c'est bien fun.

Et le même Youtubeur a fait un suite à sa première vidéo, si ça vous chauffe :

Merci à Xefreh pour le partage de cette pépite.

  •  

Slop Evader - L'extension qui filtre le contenu IA de vos recherches

Vous en avez marre de tomber sur du contenu IA pourri quand vous faites une recherche Google ? Des articles générés par des bots qui tournent en rond sans rien dire d'intéressant, des images bizarres avec des mains à 6 doigts, des réponses Stack Overflow qui sentent le ChatGPT à plein nez... Bonne nouvelle les amis, y'a une solution radicale et elle est signée Tega Brain, une artiste et ingénieure environnementale australienne qui enseigne à NYU.

Son extension s'appelle Slop Evader et son principe est d'une simplicité désarmante. Au lieu d'essayer de détecter l'IA (ce qui est de toute façon voué à l'échec), elle applique un filtre temporel sur vos recherches Google. En gros, vous ne verrez plus que du contenu daté d'AVANT le 30 novembre 2022, soit la veille du lancement public de ChatGPT.

Alors oui, c'est radical. Mais c'est justement tout l'intérêt.

L'extension fonctionne sur Chrome et Firefox , et elle ajoute automatiquement le paramètre de date Google à vos requêtes. Pas besoin de retenir les opérateurs de recherche comme tbs=cdr:1,cd_max:11/29/2022, le bouzin fait ça tout seul. Et ça marche pas que sur Google... ça filtre aussi YouTube, Reddit, Quora, Stack Exchange, Mumsnet et Pinterest.

Évidemment, y'a un prix à payer... Vous perdez l'accès à toute l'info récente. Plus de news fraîches, plus d'articles de blogs de 2026, plus de recherches scientifiques publiées ces trois dernières années. Mais bon, si vous cherchez un tuto Python, une recette de cuisine ou des conseils pour un problème technique, y'a de grandes chances que le contenu de 2022 soit largement suffisant... et surtout, vous êtes sûr qu'il a été pondu par un humain !

Tega Brain assume totalement l'aspect politique de son projet. Elle explique que « le slop » (comme on appelle maintenant cette bouillie de contenus IA) ne va pas disparaître et qu'on a besoin d'outils de refus collectif. D'ailleurs, l'extension supporte aussi DuckDuckGo pour les recherches basiques, même si les filtres par site passent encore par Google.

Bref, si vous êtes fatigué de devoir vous demander "est-ce que c'est de l'IA ?" à chaque fois que vous lisez un truc sur le web, Slop Evader remet les pendules à l'heure... littéralement. C'est pas une solution parfaite, c'est une déclaration politique et ça fait du bien !

  •  

Philips Hue SpatialAware : vos ampoules comprennent enfin où elles sont posées

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Signify profite du début d'année 2026 pour lancer Hue SpatialAware, une fonctionnalité utilisant la réalité augmentée pour cartographier précisément l'emplacement de vos éclairages dans la pièce. Au menu également de cette mise à jour : l'arrivée tant attendue des caméras Hue Secure dans Apple Maison et de nouveaux outils de migration pour le Bridge Pro.

La fin de l'éclairage aléatoire

C'est un problème que les utilisateurs de longue date de l'écosystème Philips Hue connaissent bien : jusqu'à présent, l'application de "scènes" lumineuses restait assez basique dans son exécution spatiale. Lorsque vous lanciez un scénario "Coucher de soleil", le pont attribuait les couleurs un peu au hasard ou par groupe, sans véritablement savoir si l'ampoule A était au plafond à gauche ou si l'ampoule B était dans une lampe à poser à droite.

Avec Hue SpatialAware, le constructeur tente de corriger le tir en injectant un peu d'intelligence spatiale via votre smartphone. Le principe repose sur la réalité augmentée : vous scannez votre pièce avec la caméra de votre téléphone, et le système repère la position exacte de chaque point lumineux. L'algorithme crée ensuite un modèle 3D de l'espace pour distribuer les couleurs de manière logique.

Concrètement, sur une scène reproduisant une aube ou un crépuscule, les lampes situées d'un côté de la pièce diffuseront des teintes chaudes et lumineuses, tandis que les plafonniers opposés basculeront vers des tons plus sombres ou froids. L'idée est d'obtenir un rendu global cohérent plutôt qu'une simple mosaïque de couleurs. Notez que si vous ajoutez une nouvelle ampoule plus tard, le modèle s'adapte automatiquement après un scan rapide de la zone concernée. Cette nouveauté sera disponible au printemps 2026.

Bridge Pro obligatoire

Il y a toutefois une contrainte technique majeure à prendre en compte. Cette fonctionnalité SpatialAware ne sera pas accessible à tous : elle nécessite impérativement l'utilisation du Bridge Pro (celui-là) . Si vous êtes encore sur le pont v2 classique (le carré blanc), vous ne pourrez pas en profiter sans repasser à la caisse.

C'est une stratégie claire de segmentation de la gamme par Signify, qui réserve désormais les fonctions nécessitant le plus de puissance de calcul à son matériel le plus récent. Pour faire passer la pilule, le fabricant a simplifié la migration. Si vous possédez plusieurs ponts (ce qui est fréquent chez les gros utilisateurs pour contourner la limite des 50 accessoires), un nouvel outil permet désormais de fusionner plusieurs anciens Bridges vers un seul Bridge Pro lors de l'installation.

Les caméras Hue Secure enfin dans Apple Maison

L'autre grosse annonce concerne les utilisateurs de l'écosystème Apple. Jusqu'ici, l'offre de sécurité Hue Secure restait trop fermée. Dès le premier trimestre 2026, les caméras filaires, la sonnette vidéo et les capteurs d'ouverture seront enfin compatibles avec Apple Maison.

L'intégration semble complète puisque le flux vidéo pourra être consulté directement dans l'application Maison, mais aussi sur l'Apple TV avec le mode Picture-in-Picture. Vous pourrez ainsi surveiller l'entrée du domicile sans interrompre votre série, une fonction devenue standard chez la concurrence mais qui manquait ici.

L'IA pour simplifier les automatisations

Enfin, Signify intègre une couche d'intelligence artificielle générative pour la gestion des scénarios. L'assistant IA permet désormais de configurer des automatisations via des commandes en langage naturel. Il suffit de demander "réveille-moi à 6h45 tous les jours sauf le mercredi" pour que la programmation se fasse sans avoir à fouiller dans les menus. L'assistant pourra aussi aider au dépannage en analysant les problèmes techniques signalés par l'utilisateur.

Par ailleurs, l'interface de l'application évolue pour afficher les automatisations directement dans les vues "Pièces" et "Zones". C'est un changement ergonomique qui sera bien pratique pour éviter les allers-retours incessants entre l'onglet de contrôle et l'onglet des paramètres pour ajuster une simple minuterie.

Sur le papier, Hue SpatialAware est l'évolution logique de l'éclairage connecté. On sort enfin du simple pilotage on/off ou du changement de couleur basique pour aller vers une véritable gestion de l'ambiance volumétrique. C'est techniquement intéressant, car cela rapproche l'expérience domestique de ce que font les installateurs professionnels en domotique, mais sans le coût du câblage. Sauf que le verrouillage de cette fonction derrière le Bridge Pro risque de frustrer une base installée immense qui se contente très bien du pont standard depuis des années.

Quant à l'ouverture vers Apple Maison pour la gamme Secure, c'était tout simplement indispensable. Philips Hue arrive tard sur ce segment face à Aqara ou Eufy, et sans cette compatibilité, leurs caméras (vendues à un tarif premium) n'avaient que peu d'intérêt pour nous, utilisateurs Apple. Reste à voir si la stabilité sera au rendez-vous, la gestion de la vidéo via HomeKit étant parfois capricieuse selon la qualité du réseau local.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie (vous pouvez les voir en bas sur cette page ) , comme cette liseuse Android de dingue ou ces AirTags pour Android !

  •  

NVIDIA libère Rubin et Alpamayo - Quand l'IA passe la seconde (au sens propre)

Après Blackwell, après les GPU qui chauffent comme des radiateurs nucléaires, après les promesses de révolution IA à chaque keynote, voici Rubin ! Et cette fois, NVIDIA ne se contente pas de balancer une nouvelle puce, mais lâchent carrément un modèle open source pour la conduite autonome.

Rubin, c'est donc la nouvelle architecture qui succède à Blackwell. Mais attention, on ne parle pas d'une simple évolution. C'est un système à 6 puces qui travaillent de concert : le GPU Rubin évidemment, mais aussi le CPU Vera avec ses 88 cœurs Olympus, le NVLink 6 qui balance du 3,6 To/s par GPU, et toute une armada de DPU et de switches réseau. Le tout crache 50 pétaflops en NVFP4 et divise par 10 le coût d'inférence par token par rapport à Blackwell. Pour entraîner des modèles MoE, vous aurez besoin de 4 fois moins de GPU. Pas mal pour faire baisser la facture électrique.

Mais le truc qui m'a vraiment excité les neurones, c'est Alpamayo. NVIDIA appelle ça le "moment ChatGPT de l'IA physique" et pour une fois, j'crois pas que ce soit juste du marketing. Alpamayo 1, c'est un modèle vision-langage-action de 10 milliards de paramètres qui fait de la conduite autonome avec du raisonnement en chaîne. Concrètement, au lieu de juste détecter des obstacles et calculer une trajectoire, le truc réfléchit. Il décompose les situations complexes en sous-problèmes et peut même expliquer pourquoi il prend telle ou telle décision.

Et NVIDIA balance tout ça en open source sur Hugging Face OKLM. Les poids du modèle, AlpaSim (leur framework de simulation), et plus de 1700 heures de données de conduite. De quoi permettre aux développeurs de créer leurs propres variantes optimisées. Côté constructeurs, la Mercedes-Benz CLA sera d'ailleurs la première caisse à embarquer NVIDIA DRIVE AV dès le premier trimestre 2026 aux États-Unis.

Les produits basés sur Rubin débarqueront ensuite chez les partenaires cloud (AWS, Google, Azure, Oracle...) au second semestre 2026. Jensen Huang a rappelé que 10 000 milliards de dollars d'infrastructure informatique sont en train de basculer vers ce nouveau paradigme. Bref, on verra si les promesses tiennent la route, mais une chose est sûre, ça va être intéressant de voir ce que la communauté va faire avec un modèle de conduite autonome open source entre les mains. Et si le sujet vous branche, jetez un œil à mon chouchou, OpenPilot , le projet de Geohot qui fait ça depuis quelques années sur des voitures lambda.

Source

  •  

100 trillions de tokens analysés - Comment l'IA est-elle vraiment utilisée ?

100 trillions de tokens, c'est assez incroyable comme chiffre ! Et si vous vous demandez ce que c'est, hé bien c'est le volume de données qu'OpenRouter vient d'analyser pour publier son rapport "State of AI" de décembre dernier. Et perso, je ne m'attendais vraiment pas à ces résultats.

OpenRouter, pour ceux qui ne connaissent pas, c'est un routeur de modèles IA qui permet d'accéder à tous les LLM du marché via une seule API. Du coup, ils ont une vue unique sur comment les gens utilisent vraiment ces outils. Pas ce qu'ils prétendent en faire sur LinkedIn (loool), mais ce qu'ils font vraiment avec.

Et là, première surprise : le roleplay représente 52% de l'usage des modèles open-source. Y'a plus de la moitié des tokens qui passent par DeepSeek, Qwen et compagnie servent à... jouer des rôles, à discuter avec des personnages fictifs, à faire du chat de base avec l'IA. Pas à coder, pas à bosser, pas à révolutionner l'humanité. Juste à s'amuser.

Du coup, ça relativise pas mal le discours ambiant sur l'IA qui va tous nous remplacer au boulot. Visiblement, pour l'instant, elle nous aide surtout à nous divertir.

Le roleplay domine largement l'usage des modèles open-source ( Source )

Deuxième claque : l'Asie est passée de 13% à 31% de l'usage mondial en un an. Singapour est maintenant le deuxième pays utilisateur après les États-Unis, devant l'Allemagne et la Chine. L'Europe, elle, stagne à 21%. Et l'Afrique ? 0,46%. Y'a encore du boulot niveau démocratisation...

L'Asie explose, l'Europe stagne, l'Afrique reste à la traîne ( Source )

Côté modèles, DeepSeek écrase tout le monde en volume avec 14,37 trillions de tokens. Qwen suit avec 5,59 trillions, puis Meta LLaMA. OpenAI ? Seulement 1,65 trillion. Mais attention, c'est du volume brut. Quand on regarde les usages pros, Claude écrase la programmation (60%+ du trafic code), pendant que DeepSeek se tape... le roleplay et le chat casual.

Le truc vraiment remarquable, c'est la montée des modèles capables de raisonner (genre o1). En janvier 2025, ils représentaient 0% mais aujourd'hui, ils sont à la tête de 50% des nouveaux usages. L'inférence multi-étapes, la délibération, la planification... Tout ça a explosé en moins d'un an. On est passés de chatbots basiques à des systèmes qui réfléchissent avant de répondre.

Les modèles raisonnants passent de 0% à 50%+ en un an ( Source )

Et les prompts ? Ils ont quadruplé de longueur. De 1 500 tokens en moyenne à plus de 6 000. Les gens sont devenus plus bavards avec leurs assistants numériques, ou alors ils ont compris qu'il fallait être plus précis pour obtenir de bons résultats.

Dernier point intéressant, le prix n'a quasiment aucun impact sur l'usage. Une baisse de 10% du prix ne génère que 0,5 à 0,7% d'usage supplémentaire. Les utilisateurs choisissent leurs modèles sur la qualité, pas sur le tarif. Bref, ce n'est pas encore un marché de commodité. La course à la meilleure performance continue.

Alors oui, l'étude a ses limites car c'est une seule plateforme, et pas l'ensemble du marché. Mais avec 100 trillions de tokens, c'est quand même un sacré échantillon. Et ça dit des choses sur notre rapport à ces outils qu'on ne peut pas ignorer, encore une fois.

Source

  •  
❌