Vue normale

JUPITER atteint l’exascale : que fait-on avec ce supercalculateur ?

20 novembre 2025 à 17:09

Avec JUPITER, l’Europe entre dans l’ère exascale.

Cette promesse faite début septembre à l’inauguration du supercalculateur est validée dans le dernier TOP500. Le système a atteint 1 exaflops tout rond, soit un milliard de milliard d’opérations par seconde en précision 64 bits.

Une telle puissance favorise – voire conditionne – la mise en œuvre des projets qui ont obtenu du temps de calcul. Aux dernières nouvelles, ils sont une centaine, sélectionnés principalement par deux voies. D’un côté, un « programme d’accès anticipé »
porté par EuroHPC. De l’autre, une « compétition IA »
organisée par le Gauss Centre for Supercomputing (GSC), qui réunit les trois centres de calcul nationaux allemands.

Une simulation quantique à 50 qubits

L’un de ces centres – le JSC, situé à Juliers, en Rhénanie-du-Nord-Westphalie – héberge JUPITER. À l’occasion de l’inauguration, il avait mis en avant deux projets, consacrés respectivement à la simulation quantique et climatique.

Le premier vient d’atteindre son objectif : simuler un ordinateur quantique universel à 50 qubits, avec une version compilée de l’algorithme de Shor (factorisation d’entiers) et un recuit quantique du modèle de Hubbard (interaction entre électrons). Il bat ainsi le record précédent de 48 qubits, établi par une autre équipe du JSC sur le superordinateur K (aujourd’hui décommissionné ; il était localisé au Japon).

L’architecture mémoire hybride des puces NVIDIA GH200 qui composent la partition JUPITER Booster y a contribué. Le logiciel de simulation a été adapté pour en tirer parti. Plus précisément, pour permettre des débordements temporaires vers la mémoire CPU avec une perte minimale de performance.

D’autres innovations y ont été greffées. Dont une méthode d’encodage des octets divisant par 8 la quantité de mémoire nécessaire. Et un algorithme dynamique optimisant en continu les échanges de données.

Le deuxième projet doit approfondir des travaux conduits sur le supercalculateur Alps (Suisse) par l’Institut Max-Planck de météorologie. Il s’agit d’optimiser le modèle climatique ICON pour le faire passer à l’échelle sur les 24 000 GPU de JUPITER, afin d’aboutir à des simulations sur une échelle de plusieurs décennies, à une résolution de l’ordre du km, et en incluant le cycle carbone complet.

Des projets que l’exascale rend réalisables

Dans le domaine de la physique, l’exascale bénéficiera par exemple à l’université de Bonn, dans son projet d’étude de la formation des éléments lourds, vu le nombre de particules impliquées. Il s’agira, en particulier, d’explorer les propriétés des objets les plus denses de l’Univers : les étoiles à neutrons.

L’université de Cologne estime elle aussi avoir besoin d’une puissance exaflopique, dans le cadre d’un projet touchant à la dynamique des liquides biologiques. Elle souhaite comprendre l’organisation des micro-organismes actifs (algues, bactéries, spermatozoïdes…) et les structures qui se forment à des échelles bien plus grandes. Des applications sont envisagées dans la robotique en essaim, la capture du carbone et les biocarburants.

L’université de Hambourg perçoit également un bénéfice à l’exascae dans son étude de la turbulence magnétohydrodynamique (comportement d’un fluide porteur de charges électriques en présence de champs électromagnétiques), vu l’extrême gamme dynamique induite.

Pour l’université de Ratisbonne, un supercalculateur exaflopique est synonyme de boîtes spatio-temporelles plus grandes pour l’étude de la physique des quarks et des gluons. Et de précision accrue à basse énergie.

Davantage de précision spatiale et temporelle

À l’université de technologie de Darmstadt, on s’intéresse à la dynamique de combustion de l’hydrogène, très différente de celle des carburants conventionnels. L’exascale doit permettre de descendre à l’échelle de la nanoseconde et de capturer la structure des flammes turbulentes au micromètre près.

De par les échelles de temps qu’implique son projet d’étude de l’interaction onde de choc – couche limite, l’université de Stuttgart entend aussi trouver un bénéfice dans l’exascale. Comprendre ce phénomène est crucial pour améliorer la conception des cellules et des systèmes de propulsion des aéronefs… et, au bout, réduire l’empreinte carbone.

L’Institut Max-Planck de biophysique mise sur JUPITER pour la simulation dynamique des pores nucléaires, qui font partie des plus grands complexes protéiques. Comprendre comment y est régulé le transport moléculaire promet des débouchés thérapeutiques et dans les nanotechnologies.

JUPITER va former une flopée de LLM

Quelques projets sélectionnés par EuroHPC visent à développer des modèles d’IA. Par exemple à l’université Louis-et-Maximilien de Munich : des modèles de diffusion « légers » pour générer de la vidéo. L’exascale doit permettre d’entraîner sur de gros datasets et ouvrir la voie à des LLM capables de généraliser bien au-delà de leurs données d’entraînement.

Des projets de LLM, il y en a à foison parmi ceux qu’a retenus le GSC. Celui que projette la PME française Dragon LLM (ex-Lingua Custodia ; voir notre article à son sujet) en fait partie. Celui de Tilde aussi. L’entreprise lettone vise un LLM focalisé sur les langues baltiques et d’Europe de l’Est. Elle mise sur JUPITER pour générer des données synthétiques grâce à des modèles open weight.

L’université d’Édimbourg attend elle aussi beaucoup en matière de génération de données synthétiques. En particulier de longs documents et de chaînes de pensée, son projet étant censé produire des modèles de raisonnement.

Du côté de la Bibliothèque nationale de Suède, on projette un LLM spécial langues scandinaves. On compte sur JUPITER pour pouvoir entraîner de plus gros modèles et exploiter de plus gros datasets.

Chez Multiverse Computing (Espagne), on travaille sur des techniques de compression des modèles, avec un focus sur DeepSeek-R1 (671 milliards de paramètres). Textgain (Belgique) s’appuie quant à lui sur le projet CaLICO (modèle de modération de contenu) pour développer des encodeurs de texte capables de créer efficacement des représentations contextualisées. Il espère que la puissance de JUPITER lui permettra d’aller chercher des sources qu’il n’a pas exploitées jusque-là, comme les réseaux sociaux.

Le GSC a aussi sélectionné le Centre européen pour les prévisions météorologiques à moyen terme (ECMWF), qui porte un projet de modélisation de la Terre à résolution kilométrique. Il a également accordé du temps de calcul à l’université Sapienza de Rome et au Cryprus Institute. La première a un projet d’étude de l’échauffement et de la traînée aérodynamique dans les véhicules super et hypersoniques. Le second s’intéresse à la chromodynamique quantique pour analyser la structure des constituants fondamentaux de la matière.

La partition Rhea toujours en attente

La construction de JUPITER avait démarré en décembre 2023.

Au printemps 2024, un « modèle réduit » (JEDI, JUPITER Exascale Development Instrument) avait été mis en service. Ayant permis de développer la stack de gestion du supercalculateur, il a fini par se hisser en tête du Green500, à 72,7 Gflops/W.

Un premier stade d’évolution avait été atteint fin 2024 avec la mise en service de JETI (JUPITER Exascale Transition Instrument). Cette itération à 10 racks représentait 1/12 de la puissance finale attendue. Elle avait atteint 83 Pflops au TOP500, se classant 18e.

La partition Booster était apparue dans ce même TOP500 en juin 2025, avec une performance de 793 Pflops.

Une partition Cluster, fournie par ParTec (Allemagne), doit encore être ajoutée. Elle a pris du retard, concomitamment au processeur censé l’équiper : le Rhea-1 du français SiPearl.

Illustration © Forschungszentrum Jülich / Sascha Kreklau

The post JUPITER atteint l’exascale : que fait-on avec ce supercalculateur ? appeared first on Silicon.fr.

Développement d’applications IA : une demande sectorielle pour l’heure insatisfaite

20 novembre 2025 à 12:14

Des modèles spécialisés aux templates d’applications, la demande en solutions sectorielles est croissante, mais le marché n’est pas encore mature.

Gartner fait la remarque dans son premier Magic Quadrant des « plates-formes de développement d’applications IA ».

Il est tentant d’y voir la continuité de celui consacré aux « services d’IA cloud pour les développeurs » (dernière édition : avril 2024). La majorité des fournisseurs classés dans l’un se retrouvent d’ailleurs dans l’autre. À commencer par les quatre désignés « leaders » : AWS, Google, IBM et Microsoft.

D’un Magic Quadrant à l’autre, l’idée reste la même : les solutions évaluées permettent d’intégrer de l’IA dans des applications. La terminologie évolue néanmoins pour englober la notion de plate-forme. Un mouvement que Gartner a suivi ces derniers temps pour quantité d’autres marchés (gouvernance des données et stockage d’entreprise, par exemple).

La gouvernance, critère obligatoire ; pas l’observabilité

Les briques fonctionnelles à fournir impérativement étaient, dans les grandes lignes : développement avec et sans code, ancrage, garde-fous, catalogue de modèles, déploiement, gouvernance et évaluations.

Les éléments suivants n’étaient pas obligatoires :

  • Gestion de la sécurité et du risque (DLP, sandbox, IAM…)
  • Routage intelligent des prompts (selon cas d’usage, performance et coût)
  • Passerelle IA (pour la continuité d’activité)
  • Observabilité
  • Techniques « avancées » d’ancrage (graphes de connaissances, chunking, reranking…)
  • Composabilité (intégration de solutions tierces)
  • Gestion des protocoles émergents (MCP, A2A, etc.)
  • Simulation
  • Catalogues et marketplaces d’outils, de données et d’agents

Il fallait aussi respecter quelques seuils business. Principalement, avoir dégagé au moins 100 M$ de CA en 2024 avec les offres concernées ou bien être en mesure de revendiquer au moins 500 organisations clientes.

Ces seuils ont coûté leur place à Cohere, CrewAI, Dify, Live Tech et WRITER, qui ont cependant tous droit à une « mention honorable ». Même situation pour H2O.ai, qui figurait dans le dernier Magic Quadrant des services d’IA cloud pour les développeurs.

11 fournisseurs, 4 « leaders »

Les offreurs sont jugés sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre censé refléter la capacité à répondre effectivement à la demande du marché (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

Sur cet axe « exécution », la situation est la suivante :

Rang Fournisseur
1 Google
2 AWS
3 Microsoft
4 IBM
5 Volcano Engine
6 Alibaba Cloud
7 Palantir
8 Tencent Cloud
9 LangChain
10 OpenAI
11 CoreWeave

Sur l’axe « vision » :

Rang Fournisseur
1 Microsoft
2 Google
3 AWS
4 OpenAI
5 IBM
6 Volcano Engine
7 Alibaba Cloud
8 Palantir
9 Tencent Cloud
10 CoreWeave
11 LangChain

Des 11 fournisseurs classés, 4 n’étaient pas présents dans le Magic Quadrant des services d’IA cloud pour les développeurs :

  • CoreWeave, avec son offre Weights & Biases (issue de l’acquisition de la société éponyme)
  • LangChain, avec ses frameworks LangChain et LangGraph ainsi que sa plate-forme commerciale LangSmith
  • Palantir avec son Artificial Intelligence Platform, commercialisée avec Palantir Foundry
  • Volcano Engine, avec son offre Volcano Ark

AWS doit mieux communiquer sur la valeur métier

AWS a été évalué sur son offre Bedrock (hors AgentCore, lancé après les derniers relevés de Gartner).

Sa stratégie sectorielle fait mouche auprès du cabinet américain, entre agents prêts à l’emploi, modèles spécialisés (TelClaude pour les télécoms, par exemple) et gestion de formats de données comme FHIR (Fast Healthcare Interoperability Resources) ou ODSU (Open Subsurface Data Universe). Bon point également pour une brique que Gartner a déjà saluée en d’autres occasions : la vérification par raisonnement automatisé.

AWS gagnerait à améliorer sa communication sur la valeur métier, ainsi qu’auprès de certains secteurs de marché, estime Gartner. Qui souligne par ailleurs le risque potentiel lié au choix de s’appuyer sur de l’« innovation organique » et des partenariats (AWS acquiert moins de technologies IA et recrute moins de talents que la concurrence).

Google peut progresser sur le déploiement et la gouvernance

Avec Vertex AI, Google propose un licensing « parmi les plus flexibles » entre les fournisseurs classés au Magic Quadrant. Gartner note les promotions accordées aux start-up, les programmes académiques et les partenariats d’intégration (Accenture, Cognizant, Deloitte, Onix et Quantiphi sont cités). Il rappelle aussi que Google est à l’origine du protocole A2A – lancé en 2025 puis confié à la Fondation Linux – et qu’il permet de déployer Vertex AI sur site et en périphérie.

Les utilisateurs de Vertex AI ont tendance à le noter moins bien que les solutions concurrentes concernant les capacités de déploiement et de gouvernance. Quant au modèle économique, encore principalement fondé sur une facturation, sa transition vers du SaaS avec débit garanti est lente, entraînant un risque de perte de compétitivité. Google doit aussi gagner en notoriété avec des campagnes plus ciblées, estime Gartner.

IBM, en retard sur la multimodalité

Avec watsonx, IBM est salué pour son marketing, tant de par sa capacité à cibler divers profils et métiers que de par sa présence sur les réseaux sociaux… et son sponsoring sportif (F1, Wimbledon). Autre point positif : son positionnement « ouvert » dont témoignent, selon Gartner, les modèles Granite (open-weight, licence Apache2) et le framework BeeAI.

Les scores attribués par les clients sont plus faibles que chez les autres « leaders » sur l’observabilité et les agents prêts à l’emploi. IBM a par ailleurs du retard sur la gestion de la multimodalité et sur les certifications de conformité dans certaines régions géographiques.

Microsoft, encore largement branché à OpenAI

Microsoft a efficacement communiqué le rebranding d’Azure AI en Azure AI Foundry, juge Gartner, qui salue aussi une bonne communication autour des outils pour les développeurs. Sur le plan fonctionnel, le cabinet américain apprécie les capacités d’orchestration et de développement multimodal. Ainsi que l’extension du catalogue de ressources et des options de déploiement.

Les scores attribués par les clients sont inférieurs à ceux des autres « leaders » sur la partie services et support. Ils le sont aussi sur le prix. Gartner y ajoute une dépendance encore importante aux technologies d’OpenAI.

Illustration générée par IA

The post Développement d’applications IA : une demande sectorielle pour l’heure insatisfaite appeared first on Silicon.fr.

Le partenariat SAP-Mistral AI trouve un relais dans l’administration publique

20 novembre 2025 à 09:23

La collaboration entre SAP et Mistral AI devient une affaire d’États.

La France et l’Allemagne ont annoncé leur intention d’établir un partenariat public-privé avec les deux sociétés. Elles promettent la signature d’un accord-cadre contraignant d’ici à mi-2026.

À partir de là, et jusqu’en 2030, des cas d’usage seront déployés dans les administrations publiques. Il est notamment question d’automatiser des workflows financiers – en particulier le classement des factures et les contrôles d’audit. On nous parle aussi d’agents pour :

  • Aide à la décision et conformité
  • Rédaction, simulatin de scénarios et justification budgétaire
  • Contrôle d’éligibilité et aide au remplissage des formulaires pour les citoyens

Pour piloter l’initiative, Paris et Berlin entendent convoquer un comité dédié au Consortium franco-allemand pour l’infrastructure européenne. Un EDIC dont on n’avait pas entendu parler jusque-là.

Le partenariat se traduira aussi par des labos communs d’innovation en matière d’IA-ERP. Il est ouvert à d’autres fournisseurs européens.

SAP et Mistral AI, officiellement alliés depuis juin 2024

Mistral AI se montre plus emphatique : il évoque l’ambition de livrer « une stack IA souveraine pour l’Allemagne et l’Europe », en intégrant ses modèles dans l’AI Foundation de SAP et en codéveloppant des solutions sectorielles.

Dans la pratique, plusieurs modèles ont déjà été intégrés dans cette couche de conception et d’orchestration qui repose sur l’offre SAP BTP (Business Technology Platform). Parmi eux, Mistral Large 2. Son intégration fut l’un des premiers temps forts du « partenariat multiannuel » que les deux entreprises avaient annoncé en juin 2024.

La prochaine phase va consister à intégrer Mistral AI Studio et Le Chat dans l’AI Foundation. Ils voisineront avec des LLM de Cohere, d’IBM et de NVIDIA, tous hébergés sur l’infra SAP. Ainsi qu’avec d’autres accessibles par API via Bedrock, Vertex AI et Azure OpenAI.

Les Chemins de fer suisses, un client référent pour Mistral AI sur SAP

L’intégration de Mistral Large sur SAP a un client référent : les Chemins de fer suisses. Le modèle est intégré dans les workflows via le portail SAP Build Work Zone et Microsoft Teams. Il apporte un support utilisateur multilingue (allemand, français, italien) dans le contexte d’une migration vers S/4HANA.

Aux dernières nouvelles, le projet semblait devoir se porter sur l’automatisation des achats, à travers les capacités d’appel d’outils et de fonctions de Mistral AI. Était aussi évoqué Agent Accruals. Ce service de tenue de journal comptable fait partie de la quinzaine d’agents Joule que SAP a promis de rendre disponibles d’ici à mi-2026.

Illustration © BMDS/Woithe

The post Le partenariat SAP-Mistral AI trouve un relais dans l’administration publique appeared first on Silicon.fr.

Agent 365 : après l’orchestration, Microsoft promet l’encadrement de l’IA agentique

20 novembre 2025 à 07:11

Quel modèle économique pour Agent 365 ?
On avait peu de certitudes avant son officialisation. On n’en a pas beaucoup plus après*.

La composition de l’offre est plus claire. Microsoft adapte des produits existants – essentiellement Entra, Purview et Defender – pour constituer un « plan de contrôle des agents IA ». En premier lieu, ceux créés avec ses outils (Agent Framework, Copilot Studio, Azure AI Foundry, Semantic Kernel). Mais aussi ceux conçus avec certains frameworks tiers (pour le moment, OpenAI Agents, Claude Code et LangGraph).

Le SDK qui établit le lien avec ces frameworks n’apporte ni la logique, ni l’orchestration. En cela, il est dit complémentaire au SDK Microsoft 365 Agents, en permettant principalement de :

  • Doter les agents d’une identité à l’échelle de l’écosystème Microsoft
  • Leur permettre de répondre à des événements dans ce même écosystème
  • Les superviser sur une base OpenTelemetry
  • Les connecter à des outils (serveurs MCP pour Word, SharePoint/OneDrive, Teams, Outlook, Dataverse/Dynamics 365 et Copilot Search)

Un nouveau profil d’« utilisateur agentique »

Certaines composantes d’Agent 365 étaient déjà en phase expérimentale, à l’image d’Entra Agent ID. Cette brique adosse à l’annuaire un registre où sont consignées toutes les instances d’agents. Chacune a une relation directe avec une identité agentique ; et, éventuellement, avec un « utilisateur agentique ».

registre d'agents

Le mode « utilisateur agentique » est une nouveauté d’Agent 365. Il complète la possibilité d’utiliser un agent au nom d’un utilisateur humain (délégation des tokens et des permissions) ou comme une application indépendante (attribution d’une identité de workload). Il permet, par exemple, qu’un agent soit invoqué dans les apps Microsoft via les mentions (@) ou ait sa propre adresse e-mail et son stockage OneDrive… sous réserve de disposer des bonnes licences.

C’est à un admin d’attribuer ces licences, au moment d’activer des agents. Plus précisément des instances d’agents, créées à partir de templates approuvés au préalable et publiés soit dans le magasin Microsoft 365 Copilot, soit dans le catalogue d’apps de Teams.

Quoique complémentaire à Microsoft 365, Agent 365 en est distinct sur le plan commercial. Il est pour le moment en bêta publique, dans le cadre du programme Frontier (accès anticipé aux fonctionnalités IA).

* Il y a quelques indices, comme le fait que la protection des identités d’agents est « incluse dans Entra P2 pendant la preview« .

Illustration principale générée par IA

The post Agent 365 : après l’orchestration, Microsoft promet l’encadrement de l’IA agentique appeared first on Silicon.fr.

❌