Vue normale

Reçu hier — 6 janvier 2026

La plateforme Rubin de Nvidia : Élever le rôle de la mémoire dans l’IA au CES 2026

6 janvier 2026 à 14:32

L’engouement autour de l’IA est palpable, surtout avec la demande croissante pour la mémoire qui fait les gros titres partout où vous regardez. Au CES 2026 à Las Vegas, Nvidia était sous les projecteurs, présentant ses dernières innovations conçues pour aborder ce problème de front. Cette semaine, Nvidia a lancé la plateforme Rubin—un ensemble de […]

Le post La plateforme Rubin de Nvidia : Élever le rôle de la mémoire dans l’IA au CES 2026 est apparu en premier sur Moyens I/O.

L’architecture Rubin propulse Nvidia dans une nouvelle ère de calcul IA

6 janvier 2026 à 13:00

Jensen Huang annonce officiellement la disponibilité de Vera Rubin lors du CES. Le dirigeant du fabricant californien qualifie sa nouvelle architecture de pointe absolue en matière de matériel dédié à l’intelligence artificielle. Déjà en production, le système devrait monter en puissance durant le second semestre. Une accélération remarquable compte tenu des besoins exponentiels de puissance ... Lire plus

L'article L’architecture Rubin propulse Nvidia dans une nouvelle ère de calcul IA est apparu en premier sur Fredzone.

NVIDIA libère Rubin et Alpamayo - Quand l'IA passe la seconde (au sens propre)

Par :Korben
6 janvier 2026 à 08:03

Après Blackwell, après les GPU qui chauffent comme des radiateurs nucléaires, après les promesses de révolution IA à chaque keynote, voici Rubin ! Et cette fois, NVIDIA ne se contente pas de balancer une nouvelle puce, mais lâchent carrément un modèle open source pour la conduite autonome.

Rubin, c'est donc la nouvelle architecture qui succède à Blackwell. Mais attention, on ne parle pas d'une simple évolution. C'est un système à 6 puces qui travaillent de concert : le GPU Rubin évidemment, mais aussi le CPU Vera avec ses 88 cœurs Olympus, le NVLink 6 qui balance du 3,6 To/s par GPU, et toute une armada de DPU et de switches réseau. Le tout crache 50 pétaflops en NVFP4 et divise par 10 le coût d'inférence par token par rapport à Blackwell. Pour entraîner des modèles MoE, vous aurez besoin de 4 fois moins de GPU. Pas mal pour faire baisser la facture électrique.

Mais le truc qui m'a vraiment excité les neurones, c'est Alpamayo. NVIDIA appelle ça le "moment ChatGPT de l'IA physique" et pour une fois, j'crois pas que ce soit juste du marketing. Alpamayo 1, c'est un modèle vision-langage-action de 10 milliards de paramètres qui fait de la conduite autonome avec du raisonnement en chaîne. Concrètement, au lieu de juste détecter des obstacles et calculer une trajectoire, le truc réfléchit. Il décompose les situations complexes en sous-problèmes et peut même expliquer pourquoi il prend telle ou telle décision.

Et NVIDIA balance tout ça en open source sur Hugging Face OKLM. Les poids du modèle, AlpaSim (leur framework de simulation), et plus de 1700 heures de données de conduite. De quoi permettre aux développeurs de créer leurs propres variantes optimisées. Côté constructeurs, la Mercedes-Benz CLA sera d'ailleurs la première caisse à embarquer NVIDIA DRIVE AV dès le premier trimestre 2026 aux États-Unis.

Les produits basés sur Rubin débarqueront ensuite chez les partenaires cloud (AWS, Google, Azure, Oracle...) au second semestre 2026. Jensen Huang a rappelé que 10 000 milliards de dollars d'infrastructure informatique sont en train de basculer vers ce nouveau paradigme. Bref, on verra si les promesses tiennent la route, mais une chose est sûre, ça va être intéressant de voir ce que la communauté va faire avec un modèle de conduite autonome open source entre les mains. Et si le sujet vous branche, jetez un œil à mon chouchou, OpenPilot , le projet de Geohot qui fait ça depuis quelques années sur des voitures lambda.

Source

❌