Un an après avoir lancé son propre outil de filtrage, Deezer franchit une nouvelle étape stratégique : la plateforme française met en vente sa technologie de détection de musique générée par intelligence artificielle. Cette ouverture au marché s’adresse directement aux autres acteurs de l’industrie musicale (labels, distributeurs et …
Google dévoile une batterie de fonctionnalités majeures pour Chrome en lien avec Gemini et, donc, l’intelligence artificielle. Au menu : l’intégration profonde de Gemini et, surtout, un mode Auto Browse (navigation automatique) promettant d’automatiser vos tâches les plus complexes sur le Web. Gemini accessible via un panneau latéral …
Microsoft a publié ses résultats financiers pour le trimestre clos fin décembre 2025, et le contraste est frappant entre les scores de la division gaming… et le reste de la société ! Tandis que le groupe affiche une croissance solide portée par le cloud et l’intelligence artificielle, Xbox …
Bon, celle-là elle est gratinée. NVIDIA, le géant des GPU, a directement contacté Anna's Archive pour accéder à environ 500 To de livres piratés. Contacté, négocié, payé. Comme ça, tranquillou.
C'est une class action (dossier
n°1:26-cv-00002
au tribunal fédéral de New York, pour ceux qui veulent aller checker) qui a fait fuiter ces fameux emails internes. En gros, un membre de l'équipe "data strategy" de NVIDIA a négocié un accès haute vitesse aux collections piratées de la bibliothèque. Et le plus beau dans l'histoire c'est qu'Anna's Archive les a PRÉVENUS que les données étaient illégales. Genre, texto : "Vous avez une autorisation interne pour ça ?"
La réponse est arrivée en moins d'une semaine. Feu vert. Sauf que bon, quand on lit ça avec du recul, c'est quand même sacrément culotté.
Le contexte, c'était surtout la pression de livrer pour la GTC 2023 (la Developer Conference de NVIDIA). Fallait nourrir les modèles d'IA coûte que coûte, et le dataset Books3 (196 000 bouquins issus de Bibliotik), plus LibGen, Sci-Hub, Z-Library... ça faisait un buffet de 500 To et de leur côté Anna's Archive facturait des dizaines de milliers de dollars pour l'accès rapide.
Sérieux, j'aurais aimé voir la tête du service juridique de NVIDIA en lisant cet email...
En parallèle, Anna's Archive se prend un procès complètement délirant puisque Spotify, Universal Music, Warner et Sony réclament 13 000 milliards de dollars (13 TRILLIONS, soit à peu près le PIB de la Chine). C'est en lien avec
leur backup de 300 To de Spotify
dont je vous avais parlé ici. Le juge Rakoff a émis une injonction mondiale le 20 janvier, ce qui a fait
tomber plusieurs domaines du site
.
NVIDIA plaide le "fair use" évidemment. Mouais. On verra bien ce qu'en pensera le juge, mais quand les emails prouvent qu'on t'a prévenu que c'était illégal et que t'as quand même dit "go"... c'est pas ouf comme défense.
En attendant, entre le procès Spotify et ces emails, Anna's Archive est devenue l'ennemi public numéro un de toute l'industrie du contenu sur le web.
Après plusieurs mois d’incertitude, la Chine vient d’approuver une première vague d’importations des puces graphiques NVIDIA H200, destinées aux applications avancées en intelligence artificielle. Cette décision marque un tournant stratégique pour l’écosystème technologique chinois, en quête de performances accrues pour ses infrastructures de calcul, et ce malgré un …
Amazon annonce une nouvelle vague massive de licenciements, confirmant l’élimination de 16 000 emplois dans ses bureaux. Cette décision s’inscrit dans une stratégie globale visant à renforcer l’organisation en réduisant les niveaux hiérarchiques et en supprimant la bureaucratie. Ces suppressions d’emplois coïncident directement avec la volonté de l’entreprise …
La startup américaine Figure AI vient de franchir une étape majeure dans l’histoire de la robotique humanoïde. Avec son nouveau modèle d’intelligence artificielle Helix 02, l’entreprise parvient à unifier locomotion, manipulation et équilibre au sein d’un même système neuronal, ouvrant ainsi la voie à des robots capables d’évoluer …
De la génération de scripts complexes au prototypage no-code sur AppSheet, découvrez comment l'IA de Google transforme vos idées en applications fonctionnelles et testables.
L’intelligence artificielle continue de transformer la recherche scientifique, et l’astronomie en offre une nouvelle démonstration spectaculaire. Deux chercheurs de l’Agence spatiale européenne (ESA) ont ainsi mis au point un outil basé sur un réseau neuronal capable d’explorer automatiquement des volumes massifs d’images spatiales. En moins de trois jours, …
La jeune entreprise italienne GEVI Wind veut révolutionner le domaine des énergies renouvelables en concevant une éolienne verticale capable d’adapter ses pales en continu aux variations de vitesse et de direction du vent.
Google renforce les capacités visuelles de son modèle Gemini 3 Flash avec une nouvelle fonctionnalité baptisée Agentic Vision. Cette nouvelle fonctionnalité d’IA vise à rendre les réponses liées aux images plus fiables, en ancrant systématiquement l’analyse dans des preuves visuelles concrètes plutôt que dans de simples estimations probabilistes. …
Des chercheurs viennent de trouver un truc complètement dingue. Un modèle de langage entraîné UNIQUEMENT sur de l'anglais, du texte humain basique quoi, est capable de comprendre la biologie moléculaire sans jamais avoir vu une seule séquence de protéines durant son entraînement.
En gros, GPT-2 qui fait de la paraphrase d'ordinaire est, sans le savoir, un expert en détection d'
homologie protéique
. Je vous jure que c'est vrai !!
Liang Wang, chercheur à l'Université de Wuhan (les pangolins, tout ça tout ça, loool), a publié
une étude sur bioRxiv
qui remet en question pas mal de certitudes. L'idée, c'est que la "grammaire" du langage humain et celle du vivant partagent une structure profonde commune. Du coup, un modèle qui apprend à distinguer des phrases qui ont le même sens mais avec des mots dans un ordre différent... développe aussi la capacité de reconnaitre les protéines qui sont de la même "famille".
Perso, ça me retourne le cerveau parce qu'à la base, on parle "juste" d'un petit GPT-2 de 124 millions de paramètres, entraîné sur le dataset PAWS (des paires de phrases anglaises adverses), qui atteint 84% de précision sur la détection d'homologie protéique. Sans jamais avoir vu d'acides aminés ! C'est comme si votre chat, après avoir appris le français, se mettait soudainement à comprendre le chinois.
Et ça devient encore plus fou quand on scale. Les gros modèles comme Qwen-3 atteignent quasiment 100% de précision sur les benchmarks standards, mais le plus impressionnant, c'est leur performance dans la "zone crépusculaire" de l'évolution, là où les séquences protéiques ont moins de 25% d'identité entre elles. Dans ce régime où même les outils spécialisés comme
ESM-2
peinent à maintenir leurs performances, les LLM généralistes maintiennent 75% de précision.
Ils raisonnent là où les autres mémorisent !
D'ailleurs, si vous aimez l'actu IA et biologie, vous avez peut-être déjà lu mes articles sur
Evo 2
ou
SimpleFold d'Apple
. Ces outils-là sont entraînés sur des montagnes de données biologiques alors que dans le cas que je vous expose ici, c'est l'inverse. C'est un LLM tout ce qu'il y a de plus classique qui n'a pas BESOIN de ces données spécifiques pour comprendre la structure du vivant (enfin, ça doit encore être bien validé par d'autres équipes mais on verra bien).
Alors vous vous en doutez, curieux, les chercheurs ont analysé ce qui se passe dans la tête du modèle. Certaines "
têtes d'attention
" du transformer deviennent des détecteurs universels de différences. La même tête qui repère une inversion sujet-objet dans une phrase anglaise va spontanément repérer les mutations d'acides aminés dans une protéine. Et voilà comment la syntaxe du langage humain et la syntaxe de la vie se retrouvent projetées sur le même "manifold" c'est à dire dans la même "surface" géométrique dans l'espace latent du modèle.
Et quand on demande aux gros modèles d'expliquer leur raisonnement via Chain-of-Thought (enchainement de pensées comme ce que propose ChatGPT 5.2 en mode thinking par exemple), ils font du "mental folding". C'est à dire qu'ils imaginent la structure 3D des protéines à partir de la séquence 1D. Le modèle identifie explicitement des motifs structurels comme "
Hélice-Coude-Hélice
" versus "
Tonneau TIM
" pour déterminer si deux protéines sont apparentées. Et tout ça sans jamais avoir reçu de coordonnées 3D en entrée.
Pour formaliser tout ça, l'équipe a donc créé BioPAWS, un benchmark qui évalue la capacité des modèles à transférer leur compréhension syntaxique du langage vers l'ADN, l'ARN et les protéines. Le dataset est dispo sur
Hugging Face
pour ceux qui veulent jouer avec.
Bref, si la grammaire humaine et la grammaire biologique sont vraiment des manifestations d'une même structure universelle, ça change pas mal de choses sur comment on pourrait faire de la découverte scientifique à moindre coût. Plus besoin de datasets monstrueux pour chaque domaine, les patterns abstraits sont peut-être déjà là, encodés dans le langage qu'on utilise tous les jours.
Vous vous êtes déjà demandé à quoi ressemblerait un magazine fabriqué quasi entièrement par des IA ?
Hé bien ne cherchez plus et allez lire
Les Heures Claires
! Il s'agit d'un mensuel d'environ 90 pages où 99% du contenu, des articles aux illustrations, est généré avec l'aide d'outils comme Midjourney, DALL-E 3 ou ChatGPT. "Avec l'aide" ça veut dire qu'il y a quand même des humains derrière, hein...
Le projet est né de l'imagination de Rémi Rostan, un photographe Google Street View certifié et le gars connaît bien l'image et la technologie, car ça se sent dans le résultat.
Concrètement, le mag est découpé en trois sections. Y'a "Les Heures Innovantes" qui cause tech et IA, "Les Heures Claires" qui explore le côté créatif et artistique, et "Les Heures Sombres" pour le ton plus décalé et humoristique. Perso, c'est ce mélange des genres qui rend le truc intéressant... On est donc loin d'un énième catalogue de prompts Midjourney ou d'un PDF SlopAI ^^.
Et d'ailleurs, en parlant de Midjourney, c'est là que
GenIArt
entre en jeu. Cette communauté francophone, fondée par Nicolas, un fidèle lecteur de Korben.info, en avril 2023, regroupe plus de 3000 membres sur Discord et contribue régulièrement au magazine avec des tutoriels et des techniques de prompt engineering. Ils ont même remporté un prix aux AI Film Awards de Cannes 2025 avec leur clip "Croquette Crew".
Pas mal pour des passionnés !
Côté diffusion, le mag a déjà conquis environ 10 000 lecteurs, avec 1000 à 1500 nouveaux abonnés chaque mois. Vous pouvez le lire gratuitement en PDF et depuis quelques mois, y'a même une version anglaise pour l'international.
Ce qui est vraiment dingue, c'est que Rémi et ses contributeurs utilisent plus de 20 outils IA différents pour produire chaque numéro. Magnific pour l'upscaling, Generative Fill pour les retouches, et tout un arsenal de modèles de langage pour les textes... Et depuis, le projet a évolué avec la création de
StudioLHC
, un studio créatif qui propose maintenant ses services aux marques et agences qui veulent intégrer l'IA générative dans leur communication.
La boucle est bouclée !
Moi je trouve ça génial. Les articles sont excellents et les illustrations et autres photos, vraiment très bien exécutées. En plus on apprend des choses.
Bref, si vous voulez voir ce que donne la création de contenu assistée par IA quand c'est bien fait, Les Heures Claires est un exemple plutôt convaincant. Ça fait réfléchir sur l'avenir de l'édition... et c'est un peu le but.
Alors ça, c'est une news qui m'énerve un peu ! Parce que oui, écouter sa communauté c'est bien, sauf que ça veut pas dire qu'elle a toujours raison.
En ce moment, y'a une vague de joueurs en colère qui forcent des studios de jeux vidéos à annuler des projets ou à prendre leurs distances avec tout ce qui touche de près ou de loin à l'IA générative. Et du coup, des jeux se font dézinguer avant même d'avoir prouvé quoi que ce soit.
Prenez Postal: Bullet Paradise. Le trailer sort, des joueurs crient à l'IA dans les graphismes, et
hop, l'éditeur Running With Scissors annule tout
. Le studio Goonswarm Games ferme boutique. Pouf, tout ça pour des soupçons ! Ils ont admis après coup que du matos promo contenait peut-être de l'IA, mais le jeu lui-même ? Nop, y'avait pas d'IA. C'est con hein ?
Y'a aussi
Clair Obscur: Expedition 33
, le RPG de Sandfall Interactive qui a raflé le Game of the Year aux The Game Awards 2025 (avec 9 prix sur 12 nominations !). Sauf que les Indie Game Awards lui ont retiré ses deux prix parce que le studio avait utilisé de l'IA comme placeholders pendant le dev. Le directeur Guillaume Broche a pourtant été clair : tout dans le jeu final est fait par des humains. Hé bien ça n'a pas suffi !
Et même Larian, les papas de Baldur's Gate 3, se sont pris un shitstorm quand Swen Vincke a confirmé que le studio utilisait l'IA générative pour le concept art et l'exploration d'idées sur le prochain Divinity. Il a dû faire marche arrière après que des ex-employés ont révélé que certains devs étaient contre cette décision en interne. Tout ça pour du concept art qui n'aurait même pas été dans le jeu final !
Perso, je comprends pas que ce soit un débat. Un bon jeu, c'est quoi ? C'est un gameplay qui tient la route, une histoire qui accroche, des mécaniques bien foutues. Pas le fait qu'un humain ait dessiné chaque pixel à la main.
Y'a des tas d'humains qui produisent de la merde tous les jours. Pourquoi ce serait automatiquement meilleur qu'une IA bien pilotée par des gens qui savent ce qu'ils veulent ? Une IA toute seule, ça fait du slop générique. Mais une IA guidée par des créatifs avec une vision ? Ça peut aller plus vite, réduire les coûts, et même permettre d'explorer des trucs qu'on n'aurait jamais tentés autrement.
Les studios qui cèdent à la pression et annulent des projets juste pour prouver qu'ils ont embauché des artistes, je suis pas sûr que ça donne de meilleurs jeux au final. Ça donne juste des jeux qui ont coûté plus cher à produire !
Bref, à la fin il restera que les bons jeux. IA ou pas. Au chiotte le slop IA, et aux chiottes les Angry Gamers qui tuent des projets sur des suppositions à la con !
Pour ce nouvel épisode de Projets Libres, nous abordons l'Open Source par les yeux de Amel Charleux, Maître de conférences à l'Université de Montpellier.
Amel nous partage :
la manière dont elle travaille
sa relation avec les autres chercheuses et chercheurs qui travaillent sur ces sujets
comment la recherche peut aider à la réflexion ou à la mise en place de structures (avec l'exemple de l'association OpenRail Association)
CapCut Desktop démocratise le détourage vidéo grâce à l'IA, mais la réussite de l'incrustation dépend encore de règles optiques strictes pour éviter les artefacts.
Un journal entièrement rédigé par des IA, ça vous parle ?
Non je parle pas de toutes les merdes que vous pouvez lire sur Google Discover hein... Mais je plaisant pas non plus car c'est ce que
Rafael Ben-Ari
vient de nous pondre et le résultat est trop marrant, vous allez voir.
Son concept c'est que plusieurs agents IA bossent ensemble comme une vraie rédaction. Y'a des "reporters" qui vont chercher l'info, des "éditeurs" qui structurent tout ça, et hop, à la fin vous avez un journal complet qui sort tout seul. Le tout tourne dans des bacs à sable (sandboxes) pour que chaque agent puisse faire son taf sans marcher sur les plates-bandes des autres.
Et le truc dingue, c'est qu'il en a fait DEUX versions. La première,
The Gradient Descent
, se concentre sur l'actualité liée à l'intelligence artificielle. Classique mais efficace... Mais là où ça devient vraiment fun, c'est avec
Real Mode Wire
, un journal dédié au rétro-computing qui reprend l'esthétique visuelle de SimCity 2000 ! Ça parle de modems 56K, de graphismes VGA, de ports Dreamcast... Bref, de la nostalgie pure en pixels.
Le système utilise différents modèles IA selon les tâches pour réduire les coûts. Genre un petit modèle rapide pour le tri d'infos, et un plus costaud pour la rédaction finale. C'est super malin, et tout le code est open source
sur GitHub
donc vous pouvez aller fouiller dedans si ça vous amuse.
D'ailleurs, ça me fait marrer parce que moi aussi je pourrais techniquement passer mes actus sous ce format. Imaginez un peu : "Korben Daily, édition du 26 janvier, entièrement généré par Claude pendant que le vrai Korben fait la sieste". Bon après, vous perdriez mes blagues douteuses et mes égarements sur les années 90, et ça serait quand même dommage non ?
Bref, si vous voulez voir ce que ça donne quand des robots jouent aux journalistes, allez jeter un œil. C'est gratuit, c'est open source, et au pire ça vous donnera des idées pour automatiser votre propre veille techno...
Si vous bidouillez un peu avec des modèles CoreML sur votre Mac Silicon, vous savez que c'est vite la croix et la misère comme je dis souvent... Car dès qu'il s'agit de tester un truc rapide, faut ouvrir Xcode, pisser du Swift, ou se battre avec des scripts Python... Bref, l'usine à gaz juste pour vérifier une prédiction vite fait.
Hé bien bonne nouvelle les amis, un petit outil en ligne de commande vient de sortir pour nous éviter de trop galérer.
Ça s'appelle coreml-cli et comme son nom l'indique, c'est une interface pour inspecter et lancer vos modèles depuis le terminal. L'objectif c'est de pouvoir manipuler vos fichiers .mlmodel sans jamais avoir besoin de lancer l'IDE d'Apple.
Si vous êtes chaud bouillant, ça s'installe hyper facilement via Homebrew :
brew tap schappim/coreml-cli
brew install coreml-cli
Et une fois que c'est là, vous pouvez TOUT faire. Genre vous voulez voir ce qu'il y a dans un modèle ? Hop, un petit coreml inspect MobileNetV2.mlmodel et vous avez toute la structure, les entrées et les sorties qui s'affichent.
Et pour lancer des prédictions, c'est également très simple plus simple. Par exemple, avec le modèle MobileNet qui détecte les objets présents dans une image, vous lui donnez une image, et avec l'option --json, il vous sort le résultat proprement.
Et pour ceux qui veulent automatiser des traitements, le mode "batch" permet de traiter tout un dossier d'images d'un coup. C'est quand même plus rapide que de le faire à la main un par un, comme le ferait un ingé de Perpignan nourri aux graines de chia.
Le développeur a même intégré un outil de benchmark pour mesurer la latence. Ça vous permet de lancer des tests sur le CPU, le GPU ou le fameux Neural Engine d'Apple pour comparer les perfs. C'est le top pour optimiser vos apps avant de les déployer.
Du coup, si vous bossez avec de l'IA locale sur Mac, un peu comme ce qu'on a déjà testé par le passé avec
MocoLlamma
ou
sur de gros clusters Mac Studio
comme ce furieux, ce petit binaire risque de vite devenir indispensable dans vos scripts CI/CD.
Une réflexion intéressante sur le fait que l'industrie de l'IA se torche admirablement avec le consentement de ses utilisateurs (ou de ses cibles en l'occurrence).