La hotte de la culture bourdonnait. J’ai regardé un clip granuleux de neurones humains guidant un curseur à travers DOOM et j’ai senti le sol se dérober sous les hypothèses familières concernant l’informatique. Vous devriez être mal à l’aise et curieux en même temps. Un banc de laboratoire sentait légèrement le milieu de culture avant […]
Yann LeCun est très critique envers les modèles d’IA générative. Pour lui, ils présentent une impasse et c’est pour cette raison qu’ils ne parviendront pas à se hisser en tant qu’IA générale. Avec sa société AMI Labs basée à Paris, il vient d’attirer un financement de près d’un milliard d’euros...
C’est l’annonce que l’écosystème des éditeurs de modèles IA attendait depuis que Yann LeCun avait annoncé son départ de Meta et son intention de développer Advanced Machine Intelligence (AMI) Labs.
Restaient les questions en suspens : Avec qui ? Avec quels fonds ? Quand ?
L’ex directeur de Facebook AI Research (FAIR) a levé le voile ce 10 mars en annonçant une levée de fonds de 1,03 milliard $ (environ 890 millions €) en amorçage, pour une valorisation pré-money de 3,5 milliards $. Un record en Europe pour un tour d’amorçage, dépassé seulement par l’américaine Thinking Machines Lab, fondée par Mira Murati, ancienne directrice technique d’OpenAI., qui avait levé 2 milliards $ en juin 2025.
Une équipe de chercheurs issus de Meta
On connait aussi désormais l’équipe qui va développer le business d’AMI Labs : ils sont six co-fondateurs, tous anciens de Meta. Alexandre Lebrun, ancien CEO de la start-up de santé Nabla (rachetée par Meta en 2015 sous le nom Wit.ai), prend la tête d’AMI Labs en tant que directeur général, tandis que Yann LeCun en préside le conseil d’administration.
Laurent Solly, ex patron de Meta pour l’Europe, assure le rôle de directeur des opérations. A ses côtés, Pascale Fung est directrice de la recherche et de l’innovation, Saining Xie est directeur scientifique, et Michael Rabbat est responsable des « représentations du monde ».
AMI Labs compterait aujourd’hui une dizaine de salariés et vise 30 à 50 personnes d’ici six mois, répartis entre son siège social de Paris et ses bureaux de New York, Montréal et Singapour.
Les « world models » contre les LLM
Au cœur du projet d’AMI Labs : une rupture revendiquée avec les grands modèles de langage (LLM) comme ChatGPT, Claude ou Gemini. Pour Yann LeCun, ces systèmes entraînés principalement sur du texte ne pourront jamais atteindre le niveau de raisonnement d’un humain, ni même celui d’un enfant de 6 ans ou d’un chat. « L’architecture générative entraînée par l’apprentissage auto-supervisé imite l’intelligence ; Ils ne comprennent pas vraiment le monde », résume Alexandre Lebrun.
L’alternative que développe AMI Labs s’appelle « world models » (modèles du monde) : des architectures d’IA capables de se représenter l’environnement physique de manière abstraite et conceptuelle, de mémoriser des informations et de planifier des séquences d’actions complexes comme anticiper qu’un objet tombera s’il arrive au bord d’une table.
AMI Labs s’appuiera sur les travaux conduits par Yann LeCun chez Meta autour de l’architecture JEPA (Joint Embedding Predictive Architecture), entraînée sur des vidéos et des données spatiales plutôt que sur du texte.
Des ambitions industrielles et robotiques
AMI se positionne d’abord comme un projet de recherche fondamentale, mais avec des débouchés commerciaux clairement identifiés : fabricants, constructeurs automobiles, entreprises aérospatiales, acteurs du biomédical et de la pharmacie. « Nous voulons devenir le principal fournisseur de systèmes intelligents, quelle que soit l’application », a déclaré Yann LeCun à Reuters.
La robotique constitue l’une des applications prioritaires. « Pourquoi aujourd’hui, on a des systèmes qui passent l’examen du barreau, qui démontent des théorèmes, qui écrivent du code, mais on n’a toujours pas de robots domestiques ou de voitures qui se conduisent toutes seules ? » » insistait-il sur France Inter.
Il envisage également des usages grand public avec le déploiement de cette technologie dans ses lunettes connectées Ray-Ban Meta. « C’est probablement l’une des applications potentielles à court terme » a-t-il annoncé à Reuters.
AMI Labs va proposer ses modèles sous deux formes : un accès via API (modèle payant à la requête) et une version téléchargeable, potentiellement en open source. Un atout différenciateur, notamment pour recruter des profils de recherche de haut niveau.
Un tour de table mondial, un ancrage européen
Initialement ciblé à 500 millions $,la demande des investisseurs a largement dépassé les attentes. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le fonds de Jeff Bezos). Nvidia, habitué des investissements dans les start-up d’IA, figure également parmi les participants, aux côtés du fonds singapourien Temasek, de SBVA (SoftBank), de Toyota Ventures et de Samsung.
Côté européen et français, on retrouve Daphni, Bpifrance, le Groupe industriel Marcel Dassault, l’Association Familiale Mulliez, Aglaé Ventures (LVMH), Zebox Ventures (CMA CGM) et Xavier Niel, à titre personnel.
« Il y a des investisseurs très diversifiés avec un peu plus du tiers qui sont européens, une grande partie de Français, un peu moins du tiers viennent d’Asie et du Moyen-Orient, et à peu près un tiers sont américains. Quand une entreprise dépasse une valorisation d’un milliard, on appelle ça une licorne, nous, on dépasse les trois milliards, donc on est un tricératops » se rejouit Yann LeCunil.
Le premier partenaire stratégique d’AMI Labs sera Nabla, la start-up d’IA pour la santé cofondée par Alex Lebrun, qui gardera en parallèle un rôle de directeur scientifique dans cette société. Une façon de tester dès le départ les modèles du monde sur des données réelles dans un secteur à fort enjeu.
Après son départ de Meta sur fond de désaccord avec la nouvelle stratégie de Mark Zuckerberg, Yann Le Cun, considéré par ses pairs comme un des inventeurs modernes de l'IA, a lancé AMI Labs, une startup française spécialisée dans les « world models ». Elle vient de lever 1 milliard de dollars et voir sa valorisation monter à 3,5 milliards : le monde de l'IA croit en Yann Le Cun.
Cortical Labs avait déjà fait jouer ses neurones à Pong. Du coup, forcément, fallait que ça leur monte à la tête... car cette fois, ils ont lâché environ 200 000 cellules cérébrales humaines sur Doom, et en moins d'une semaine, elles ont appris à y jouer !
Pour ceux qui auraient loupé l'épisode précédent,
le CL1 c'est un bioordinateur
avec environ 800 000 neurones humains cultivés sur une puce (dont ~200 000 utilisés ici). J'en avais parlé à son lancement, quand les neurones se contentaient de faire des parties de Pong (ce qui était déjà pas mal pour des cellules dans une boîte de Petri). Mais bon, Pong c'est sympa 5 minutes... mais l'équipe de Cortical Labs a visé plus haut !
Aidés par le développeur indépendant, Sean Cole, ils ont réussi à connecter Doom au CL1 via l'API cloud de Cortical Labs afin que les neurones reçoivent une version simplifiée de l'écran sous forme de stimulations électriques et renvoient des spikes décodés en commandes (avancer, tourner, tirer).
Le Dr. Brett Kagan, le directeur scientifique de la boîte, explique que "les cellules jouent un peu comme un débutant"... et arrivent quand même à chercher les ennemis, leur tirer dessus et tourner sur elles-mêmes.
Le truc carrément chelou, c'est que personne ne comprend exactement COMMENT les neurones apprennent à jouer. On sait juste qu'ils utilisent un truc appelé "adaptive real-time goal-directed learning"... ou plutôt, on sait qu'ils apprennent, mais en fait personne ne sait POURQUOI ça marche. Les cellules s'auto-organisent et bricolent des stratégies toutes seules, quoi...
D'ailleurs, la complexité de Doom a poussé Cortical Labs à développer le Cortical Cloud, une infra dédiée pour gérer le traitement en temps réel. Bref, Doom sur des neurones biologiques, ça demande un poil plus de tuyauterie que Pong et si vous pensiez que c'était réservé aux labos, détrompez-vous.
En effet, le projet est open source, dispo sur
GitHub
, et les développeurs peuvent accéder au CL1 via l'API cloud. Ça rappelle un peu
le projet chinois Darwin Monkey
qui simule un cerveau de singe, sauf qu'ici ce sont de VRAIS neurones humains, pas une simulation.
Attention quand même, faut pas s'emballer... les neurones jouent comme des pieds. Ils galèrent, ils tournent en rond, ils ratent des ennemis à bout portant. On dirait moi sur Arc Raider... Et ça ne marche pas à tous les coups non plus, puisque les performances varient d'une session à l'autre. Mais le fait qu'ils apprennent sans qu'on leur dise comment... je trouve ça carrément dingue.
Du coup, si vous voulez voir des neurones galérer sur Doom, je vous invite à regarder cette vidéo :
Je pense que je vais acheter un CL1 pour moi et lui apprendre à écrire des articles, parce que c'est pas bien compliqué ^^ et comme ça après, je pourrais prendre ma retraite et jouer à Doom ^^.
Depuis quelques jours, la communauté Arduino grince des dents : les nouvelles Conditions d’utilisation et la Politique de confidentialité, fraîchement mises en ligne après l’acquisition par Qualcomm, changent sensiblement la donne. Entre collecte élargie de données, droits très étendus sur les contenus publiés et restrictions de rétro-ingénierie, beaucoup s’interrogent : l’esprit open-source d’Arduino est-il en […]
Quand on cherche à faire fabriquer ses propres circuits imprimés, on pense souvent en premier aux plateformes asiatiques, notamment chinoises. Pourtant, il existe des alternatives fiables et performantes en Europe… mais aussi au Canada. Bittele Electronics, dont le siège est basé à Toronto, propose une solution clé en main pour la fabrication et l’assemblage de […]
Avez-vous déjà rêvé d’apprendre une nouvelle langue de manière plus naturelle et intuitive ? Eh bien, Google pourrait bien avoir la solution avec sa toute nouvelle expérience Google Labs : Little Language Lessons. Accrochez-vous, car cet outil alimenté par Gemini pourrait révolutionner votre façon d’apprendre les langues ! Qu’est-ce que Little Language Lessons ? Imaginez un tuteur […]