Vue normale

Reçu — 20 novembre 2025

JUPITER atteint l’exascale : que fait-on avec ce supercalculateur ?

20 novembre 2025 à 17:09

Avec JUPITER, l’Europe entre dans l’ère exascale.

Cette promesse faite début septembre à l’inauguration du supercalculateur est validée dans le dernier TOP500. Le système a atteint 1 exaflops tout rond, soit un milliard de milliard d’opérations par seconde en précision 64 bits.

Une telle puissance favorise – voire conditionne – la mise en œuvre des projets qui ont obtenu du temps de calcul. Aux dernières nouvelles, ils sont une centaine, sélectionnés principalement par deux voies. D’un côté, un « programme d’accès anticipé »
porté par EuroHPC. De l’autre, une « compétition IA »
organisée par le Gauss Centre for Supercomputing (GSC), qui réunit les trois centres de calcul nationaux allemands.

Une simulation quantique à 50 qubits

L’un de ces centres – le JSC, situé à Juliers, en Rhénanie-du-Nord-Westphalie – héberge JUPITER. À l’occasion de l’inauguration, il avait mis en avant deux projets, consacrés respectivement à la simulation quantique et climatique.

Le premier vient d’atteindre son objectif : simuler un ordinateur quantique universel à 50 qubits, avec une version compilée de l’algorithme de Shor (factorisation d’entiers) et un recuit quantique du modèle de Hubbard (interaction entre électrons). Il bat ainsi le record précédent de 48 qubits, établi par une autre équipe du JSC sur le superordinateur K (aujourd’hui décommissionné ; il était localisé au Japon).

L’architecture mémoire hybride des puces NVIDIA GH200 qui composent la partition JUPITER Booster y a contribué. Le logiciel de simulation a été adapté pour en tirer parti. Plus précisément, pour permettre des débordements temporaires vers la mémoire CPU avec une perte minimale de performance.

D’autres innovations y ont été greffées. Dont une méthode d’encodage des octets divisant par 8 la quantité de mémoire nécessaire. Et un algorithme dynamique optimisant en continu les échanges de données.

Le deuxième projet doit approfondir des travaux conduits sur le supercalculateur Alps (Suisse) par l’Institut Max-Planck de météorologie. Il s’agit d’optimiser le modèle climatique ICON pour le faire passer à l’échelle sur les 24 000 GPU de JUPITER, afin d’aboutir à des simulations sur une échelle de plusieurs décennies, à une résolution de l’ordre du km, et en incluant le cycle carbone complet.

Des projets que l’exascale rend réalisables

Dans le domaine de la physique, l’exascale bénéficiera par exemple à l’université de Bonn, dans son projet d’étude de la formation des éléments lourds, vu le nombre de particules impliquées. Il s’agira, en particulier, d’explorer les propriétés des objets les plus denses de l’Univers : les étoiles à neutrons.

L’université de Cologne estime elle aussi avoir besoin d’une puissance exaflopique, dans le cadre d’un projet touchant à la dynamique des liquides biologiques. Elle souhaite comprendre l’organisation des micro-organismes actifs (algues, bactéries, spermatozoïdes…) et les structures qui se forment à des échelles bien plus grandes. Des applications sont envisagées dans la robotique en essaim, la capture du carbone et les biocarburants.

L’université de Hambourg perçoit également un bénéfice à l’exascae dans son étude de la turbulence magnétohydrodynamique (comportement d’un fluide porteur de charges électriques en présence de champs électromagnétiques), vu l’extrême gamme dynamique induite.

Pour l’université de Ratisbonne, un supercalculateur exaflopique est synonyme de boîtes spatio-temporelles plus grandes pour l’étude de la physique des quarks et des gluons. Et de précision accrue à basse énergie.

Davantage de précision spatiale et temporelle

À l’université de technologie de Darmstadt, on s’intéresse à la dynamique de combustion de l’hydrogène, très différente de celle des carburants conventionnels. L’exascale doit permettre de descendre à l’échelle de la nanoseconde et de capturer la structure des flammes turbulentes au micromètre près.

De par les échelles de temps qu’implique son projet d’étude de l’interaction onde de choc – couche limite, l’université de Stuttgart entend aussi trouver un bénéfice dans l’exascale. Comprendre ce phénomène est crucial pour améliorer la conception des cellules et des systèmes de propulsion des aéronefs… et, au bout, réduire l’empreinte carbone.

L’Institut Max-Planck de biophysique mise sur JUPITER pour la simulation dynamique des pores nucléaires, qui font partie des plus grands complexes protéiques. Comprendre comment y est régulé le transport moléculaire promet des débouchés thérapeutiques et dans les nanotechnologies.

JUPITER va former une flopée de LLM

Quelques projets sélectionnés par EuroHPC visent à développer des modèles d’IA. Par exemple à l’université Louis-et-Maximilien de Munich : des modèles de diffusion « légers » pour générer de la vidéo. L’exascale doit permettre d’entraîner sur de gros datasets et ouvrir la voie à des LLM capables de généraliser bien au-delà de leurs données d’entraînement.

Des projets de LLM, il y en a à foison parmi ceux qu’a retenus le GSC. Celui que projette la PME française Dragon LLM (ex-Lingua Custodia ; voir notre article à son sujet) en fait partie. Celui de Tilde aussi. L’entreprise lettone vise un LLM focalisé sur les langues baltiques et d’Europe de l’Est. Elle mise sur JUPITER pour générer des données synthétiques grâce à des modèles open weight.

L’université d’Édimbourg attend elle aussi beaucoup en matière de génération de données synthétiques. En particulier de longs documents et de chaînes de pensée, son projet étant censé produire des modèles de raisonnement.

Du côté de la Bibliothèque nationale de Suède, on projette un LLM spécial langues scandinaves. On compte sur JUPITER pour pouvoir entraîner de plus gros modèles et exploiter de plus gros datasets.

Chez Multiverse Computing (Espagne), on travaille sur des techniques de compression des modèles, avec un focus sur DeepSeek-R1 (671 milliards de paramètres). Textgain (Belgique) s’appuie quant à lui sur le projet CaLICO (modèle de modération de contenu) pour développer des encodeurs de texte capables de créer efficacement des représentations contextualisées. Il espère que la puissance de JUPITER lui permettra d’aller chercher des sources qu’il n’a pas exploitées jusque-là, comme les réseaux sociaux.

Le GSC a aussi sélectionné le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), qui porte un projet de modélisation de la Terre à résolution kilométrique. Il a également accordé du temps de calcul à l’université Sapienza de Rome et au Cryprus Institute. La première a un projet d’étude de l’échauffement et de la traînée aérodynamique dans les véhicules super et hypersoniques. Le second s’intéresse à la chromodynamique quantique pour analyser la structure des constituants fondamentaux de la matière.

La partition Rhea toujours en attente

La construction de JUPITER avait démarré en décembre 2023.

Au printemps 2024, un « modèle réduit » (JEDI, JUPITER Exascale Development Instrument) avait été mis en service. Ayant permis de développer la stack de gestion du supercalculateur, il a fini par se hisser en tête du Green500, à 72,7 Gflops/W.

Un premier stade d’évolution avait été atteint fin 2024 avec la mise en service de JETI (JUPITER Exascale Transition Instrument). Cette itération à 10 racks représentait 1/12 de la puissance finale attendue. Elle avait atteint 83 Pflops au TOP500, se classant 18e.

La partition Booster était apparue dans ce même TOP500 en juin 2025, avec une performance de 793 Pflops.

Une partition Cluster, fournie par ParTec (Allemagne), doit encore être ajoutée. Elle a pris du retard, concomitamment au processeur censé l’équiper : le Rhea-1 du français SiPearl.

Illustration © Forschungszentrum Jülich / Sascha Kreklau

The post JUPITER atteint l’exascale : que fait-on avec ce supercalculateur ? appeared first on Silicon.fr.

Reçu — 14 novembre 2025

IBM vise l’avantage quantique en tandem avec le HPC

14 novembre 2025 à 06:58

Il y a avantage quantique lorsque l’association des méthodes quantiques et classiques est plus performante que les méthodes classiques seules.

Aux dernières nouvelles, c’est la définition que donne IBM.

Il n’en a pas toujours été ainsi. En tout cas dans la communication publique du groupe américain.
Encore récemment, il n’était pas explicitement question d’association classique-quantique. La notion était simplement décrite comme la capacité d’un ordinateur quantique à effectuer un calcul de manière plus précise, économique ou efficace (« more accurately, cheaply, or efficiently« ) qu’un ordinateur classique.

Avantage quantique : une méthodo, puis un tracker

Un livre blanc publié à l’été 2025 avec la start-up française PASQAL a témoigné de l’évolution du discours. Y est formulé le postulat selon lequel atteindre un avantage quantique à court terme suppose une intégration avec les infrastructures HPC.

Rappelant, à ce sujet, avoir publié des plug-in Slurm, les deux entreprises établissent surtout, par l’intermédiaire de ce whitepaper, une méthodologie de validation scientifique de l’avantage quantique.

Ce jalon posé, IBM a créé, avec BlueQubit (USA), Algorithmiq (Finlande) et des chercheurs du Flatiron Institute, un « tracker d’avantage quantique ». Lui et ses partenaires sur ce projet ont soumis diverses expérimentations, réparties en trois catégories :

  • Estimation des observables quantiques
  • Algorithmes quantiques variationnels (destinés à résoudre des problèmes combinatoires)
  • Problèmes pour lesquels la vérification quantique est efficace

À travers son API C, Qiskit se rapproche du HPC

L’un des derniers marqueurs de rapprochement vis-à-vis des environnements HPC fut l’introduction d’une fonction autonome de transpilation de circuits dans l’API C de Qiskit. C’était avec la version 2.2 du SDK, publiée en octobre 2025.

Cette API, introduite au printemps 2025 avec Qiskit 2.0, est dotée d’une interface de fonction étrangère qui permet d’exploiter d’autres langages. En première ligne, C++, particulièrement populaire pour le calcul scientifique. Et, plus globalement, les langages compilés (Qiskit a été développé à l’origine en Python, un langage interprété).

Relay-BP, Samplomatic… Des briques à l’édifice de la correction d’erreurs

Entre les deux, Qiskit 2.1 a introduit la possibilité d’ajouter des flags à des régions spécifiques d’un circuit. Une bibliothèque logicielle – Samplomatic, en bêta – y a été adossée. Elle permet de personnaliser ces régions. Et, au bout, de faciliter la construction de circuits dynamiques (qui incorporent des opérations classiques au cours de leur exécution).

Cette personnalisation est aussi censée faciliter la mise en œuvre de techniques de correction d’erreurs.

Sur ce volet, IBM compte notamment avoir assemblé, pour fin 2025, un prototype de processeur. Appelé Loon, il doit réunir divers composantes-clés dont la faisabilité a déjà été démontrée séparément : connectivité à 6 voies, accroissement des couches de routage à la surface de la puce, coupleurs physiquement plus longs, techniques de réinitialisation plus rapide des qubits…

Parmi les autres composantes-clés annoncées cette année, il y a Relay-BP, un algorithme de décodage d’erreurs. IBM en a récemment annoncé une implémentation sur FPGA AMD. Il annonce « moins de 480 nanosecondes » par tâche de décodage, en reconnaissant qu’il reste du travail dans la perspective d’un passage à l’échelle.

Nighthawk en attendant Starling

Relay-BP est arrivé en avance par rapport à la feuille de route. Il était effectivement prévu pour 2026.

À ce même horizon, IBM entend ajouter à Qiskit des outils de profilage de workloads hybrides (quantique-classique). Il prévoit aussi de lancer Kookabura, puce censée réunir unité de calcul et mémoire quantique.

En attendant, la dernière nouveauté côté processeurs s’appelle Nighthawk. Elle prend la suite de la génération Heron avec moins de qubits pour commencer (120 contre 156), mais autant de portes logiques (5000), davantage de coupleurs (218 vs 176), un taux d’erreur médian réduit… et la perspective de monter en capacité :

  • Pour 2026 : 7500 portes et jusqu’à 3 x 120 qubits
  • Pour 2027 : 10 000 portes et jusqu’à 9 x 120 qubits
  • Pour 2028 : 15 000 portes et jusqu’à 9 x 120 qubits

Un ordinateur quantique tolérant aux erreurs reste visé pour 2029. Avec, en ligne de mire, la puce Starling (100 millions de portes, 200 qubits). Blue Jay (1 milliard de portes, 2000 qubits) est censé suivre en 2030.

IBM prévoit un jeu d’instructions tolérant aux erreurs pour 2028

Depuis 2024, Qiskit est assorti d’un catalogue de fonctions : résolution d’équations différentielles (ColibriTD), de problèmes de classification (Multiverse Computing), de problèmes d’optimisation (Q-CTRL, Kipu Quantum), etc.

Ces fonctions trouveront une continuité sous la forme de bibliothèques d’applications quantiques. Les premières sont prévues pour 2027. IBM promet, pour la même échéance, un accélérateur pour au moins un workflow ayant démontré un avantage quantique. Puis, pour 2028, un jeu d’instructions tolérant aux erreurs.

À consulter en complément :

La roadmap d’IBM érige 2029 en année charnière
Transition post-quantique : l’agenda de l’ANSSI se remplit
D-Wave revendique la suprématie quantique : qui l’a fait avant lui ?
Avec son processeur quantique Ocelot, Amazon mise sur les qubits de chat

Illustration © IBM

The post IBM vise l’avantage quantique en tandem avec le HPC appeared first on Silicon.fr.

❌