Vue normale

Reçu — 14 novembre 2025

IBM vise l’avantage quantique en tandem avec le HPC

14 novembre 2025 à 06:58

Il y a avantage quantique lorsque l’association des méthodes quantiques et classiques est plus performante que les méthodes classiques seules.

Aux dernières nouvelles, c’est la définition que donne IBM.

Il n’en a pas toujours été ainsi. En tout cas dans la communication publique du groupe américain.
Encore récemment, il n’était pas explicitement question d’association classique-quantique. La notion était simplement décrite comme la capacité d’un ordinateur quantique à effectuer un calcul de manière plus précise, économique ou efficace (« more accurately, cheaply, or efficiently« ) qu’un ordinateur classique.

Avantage quantique : une méthodo, puis un tracker

Un livre blanc publié à l’été 2025 avec la start-up française PASQAL a témoigné de l’évolution du discours. Y est formulé le postulat selon lequel atteindre un avantage quantique à court terme suppose une intégration avec les infrastructures HPC.

Rappelant, à ce sujet, avoir publié des plug-in Slurm, les deux entreprises établissent surtout, par l’intermédiaire de ce whitepaper, une méthodologie de validation scientifique de l’avantage quantique.

Ce jalon posé, IBM a créé, avec BlueQubit (USA), Algorithmiq (Finlande) et des chercheurs du Flatiron Institute, un « tracker d’avantage quantique ». Lui et ses partenaires sur ce projet ont soumis diverses expérimentations, réparties en trois catégories :

  • Estimation des observables quantiques
  • Algorithmes quantiques variationnels (destinés à résoudre des problèmes combinatoires)
  • Problèmes pour lesquels la vérification quantique est efficace

À travers son API C, Qiskit se rapproche du HPC

L’un des derniers marqueurs de rapprochement vis-à-vis des environnements HPC fut l’introduction d’une fonction autonome de transpilation de circuits dans l’API C de Qiskit. C’était avec la version 2.2 du SDK, publiée en octobre 2025.

Cette API, introduite au printemps 2025 avec Qiskit 2.0, est dotée d’une interface de fonction étrangère qui permet d’exploiter d’autres langages. En première ligne, C++, particulièrement populaire pour le calcul scientifique. Et, plus globalement, les langages compilés (Qiskit a été développé à l’origine en Python, un langage interprété).

Relay-BP, Samplomatic… Des briques à l’édifice de la correction d’erreurs

Entre les deux, Qiskit 2.1 a introduit la possibilité d’ajouter des flags à des régions spécifiques d’un circuit. Une bibliothèque logicielle – Samplomatic, en bêta – y a été adossée. Elle permet de personnaliser ces régions. Et, au bout, de faciliter la construction de circuits dynamiques (qui incorporent des opérations classiques au cours de leur exécution).

Cette personnalisation est aussi censée faciliter la mise en œuvre de techniques de correction d’erreurs.

Sur ce volet, IBM compte notamment avoir assemblé, pour fin 2025, un prototype de processeur. Appelé Loon, il doit réunir divers composantes-clés dont la faisabilité a déjà été démontrée séparément : connectivité à 6 voies, accroissement des couches de routage à la surface de la puce, coupleurs physiquement plus longs, techniques de réinitialisation plus rapide des qubits…

Parmi les autres composantes-clés annoncées cette année, il y a Relay-BP, un algorithme de décodage d’erreurs. IBM en a récemment annoncé une implémentation sur FPGA AMD. Il annonce « moins de 480 nanosecondes » par tâche de décodage, en reconnaissant qu’il reste du travail dans la perspective d’un passage à l’échelle.

Nighthawk en attendant Starling

Relay-BP est arrivé en avance par rapport à la feuille de route. Il était effectivement prévu pour 2026.

À ce même horizon, IBM entend ajouter à Qiskit des outils de profilage de workloads hybrides (quantique-classique). Il prévoit aussi de lancer Kookabura, puce censée réunir unité de calcul et mémoire quantique.

En attendant, la dernière nouveauté côté processeurs s’appelle Nighthawk. Elle prend la suite de la génération Heron avec moins de qubits pour commencer (120 contre 156), mais autant de portes logiques (5000), davantage de coupleurs (218 vs 176), un taux d’erreur médian réduit… et la perspective de monter en capacité :

  • Pour 2026 : 7500 portes et jusqu’à 3 x 120 qubits
  • Pour 2027 : 10 000 portes et jusqu’à 9 x 120 qubits
  • Pour 2028 : 15 000 portes et jusqu’à 9 x 120 qubits

Un ordinateur quantique tolérant aux erreurs reste visé pour 2029. Avec, en ligne de mire, la puce Starling (100 millions de portes, 200 qubits). Blue Jay (1 milliard de portes, 2000 qubits) est censé suivre en 2030.

IBM prévoit un jeu d’instructions tolérant aux erreurs pour 2028

Depuis 2024, Qiskit est assorti d’un catalogue de fonctions : résolution d’équations différentielles (ColibriTD), de problèmes de classification (Multiverse Computing), de problèmes d’optimisation (Q-CTRL, Kipu Quantum), etc.

Ces fonctions trouveront une continuité sous la forme de bibliothèques d’applications quantiques. Les premières sont prévues pour 2027. IBM promet, pour la même échéance, un accélérateur pour au moins un workflow ayant démontré un avantage quantique. Puis, pour 2028, un jeu d’instructions tolérant aux erreurs.

À consulter en complément :

La roadmap d’IBM érige 2029 en année charnière
Transition post-quantique : l’agenda de l’ANSSI se remplit
D-Wave revendique la suprématie quantique : qui l’a fait avant lui ?
Avec son processeur quantique Ocelot, Amazon mise sur les qubits de chat

Illustration © IBM

The post IBM vise l’avantage quantique en tandem avec le HPC appeared first on Silicon.fr.

Reçu — 13 novembre 2025

IBM dévoile deux nouvelles puces quantiques pour atteindre la « suprématie quantique » d’ici 2026

13 novembre 2025 à 12:00

IBM accélère sa course vers la suprématie quantique avec la présentation de deux nouvelles puces, Nighthawk et Loon. Ces processeurs de nouvelle génération visent à atteindre – d’ici à peine la fin 2026 – le fameux « quantum advantage », soit la capacité d’un ordinateur quantique à résoudre des problèmes …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article IBM dévoile deux nouvelles puces quantiques pour atteindre la « suprématie quantique » d’ici 2026 est apparu en premier sur KultureGeek.

Reçu — 28 octobre 2025

IBM Cloud arrête les nouveaux contrats VMware

28 octobre 2025 à 09:13

IBM Cloud ne signera bientôt plus de nouveaux contrats VMware.

La bascule interviendra le 31 octobre 2025. Il ne pourra alors plus vendre de licences qu’aux clients qui disposaient d’au moins un workload actif avant cette date.

Par workload, il faut entendre au moins 1 VM déployée ou migrée sur du VCFaaS multilocataire. Ou bien au moins 1 hôte sur une des offres suivantes :

  • VMware on Bare Metal Servers for Classic
  • VCF for Classic – Automated
  • VCF for Classic – Flexible
  • VCF for VPC
  • VCFaaS monolocataire

Des restrictions sur VCF as a service

Les clients existants – c’est à dire qui ont un compte IBM Cloud ou un compte Entreprise enfant – pourront continuer à utiliser leurs environnements et à les étendre. Ils n’auront cependant pas la possibilité d’aller sur une offre différente de celle contractualisée. Plusieurs restrictions s’appliqueront par ailleurs à l’offre VCFaaS :

  • Pas d’extension des workloads au-delà des régions et des groupes de ressources actuels
  • Limité au modèle de consommation existant (à la demande ou réservé)
  • Pas de sauvegarde des VM avec l’add-on Veeam Backup si celui-ci n’est pas utilisé avant la date butoir
  • Pas d’extension de Veeam Backup au-delà des régions dans lesquelles il est dpéloyé
  • Nouveaux dépôts Veeam Scale-Out Backup limités à du stockage objet

Les contrats signés avant la date limite pourront être honorés jusqu’à leur terme.

Programme VCSP : la fin d’une ère

En toile de fond, une décision officialisée en août. Au nom de la portabilité des licences, les abonnements VCF devront être acquis auprès de Broadcom et non plus des hyperscalers. Ce à partir du 3 novembre 2025 (début de son exercice fiscal).

Les relations avec les fournisseurs vont évoluer plus largement. Une nouvelle incarnation du programme VCSP (VMware Cloud Service Provider) prendra effet début novembre. Elle élimine notamment la possibilité de revente en marque blanche pour les plus petits fournisseurs.

Illustration © ZayNyi – Adobe Stock

The post IBM Cloud arrête les nouveaux contrats VMware appeared first on Silicon.fr.

Reçu — 6 octobre 2025

Les derniers LLM d’IBM n’ont plus grand-chose de transformateurs

3 octobre 2025 à 13:36

Un peu de Transformers, beaucoup de Mamba : avec les modèles de langage Granite 4.0, IBM opère une transition architecturale.

Mamba est censé pallier les limites des modèles transformateurs lors du traitement de longues séquences. Dans ces scénarios, le mécanisme d’attention constitue un goulet d’étranglement, du fait qu’il utilise une forme de cache clé-valeur permettant à chaque token d’accéder aux précédents lors de la prédiction. Plus la taille de contexte augmente, plus l’empreinte mémoire et la latence augmentent, de façon quadratique.
Des méthodes telles que la fenêtre glissante et l’attention flash peuvent atténuer cet effet. Mamba va plus loin en remplaçant le composant d’attention par un mécanisme inspiré de la théorie du contrôle : les SSM (State Space Models). Avec eux, la montée en charge est linéaire. On permet aux paramètres SSM d’être fonction de l’input, de sorte qu’une sélection des informations à conserver s’opère au moment de la mémorisation – et non au moment de la remémoration, comme c’est le cas pour les transformeurs.

Transformers réduit à la portion congrue

IBM n’écarte pas totalement Transformers, mais le réduit à la portion congrue : seules 4 couches sur 40 dans chacun des modèles Granite 4.0 aujourd’hui publiés (open-weight, licence Apache 2.0). Sont plus précisément combinés, de façon séquentielle, un groupe de 9 blocs Mamba, un bloc Transformers unique, et ainsi de suite. Les blocs Transformers sont maintenus notamment en ce qu’ils apportent des avantages sur les tâches avec apprentissage en contexte (few-shot prompting, typiquement).

Les modèles ainsi architecturés n’utilisent pas d’encodage positionnel : de par son fonctionnement, Mamba préserve intrinsèquement l’ordre des tokens. Ce n’est pas le cas de Transformers. On a donc tendance à y allier cet encodage positionnel… au détriment de la capacité des modèles à travailler sur des séquences plus longues que celles sur lesquelles on les a entraînés.

Des versions thinking à venir

Comme leurs prédécesseurs, les modèles Granite 4.0 sont destinés à générer du texte et du code. On en compte actuellement 4, tous déclinés en versions base et instruct (versions thinking à venir « d’ici à fin 2025 ») :

  • H-Small
    Hybride Mamba/Transformers en MoE (32 milliards de paramètres dont 9 milliards actifs, soit 10 experts sur 72).
  • H-Tiny
    Hybride Mamba/Transformers en MoE (7 milliards de paramètres dont 1 milliard actifs, soit 6 experts sur 64).
  • H-Micro
    Hybride Mamba/Transformers dense (3 milliards de paramètres).
  • Micro
    Variante « classique » (Transformers) de H-Micro.

L’ensemble est disponible dans des versions quantisées (GGUF, avec également du FP8 pour H-Small instruct).
En précision 8 bits, H-Small nécessite 33 Go de RAM ; H-Tiny, 8 Go ; H-Micro, 4 Go, contre 9 Go pour sa variante Transformers. IBM ne manque pas de mettre en avant ce gain pour l’inférence, surtout dans les tâches à contexte long et/ou à sessions multiples (agent de service client traitant plusieurs tickets en parallèle, par exemple).

consommation RAM

Tous les modèles Granite 4.0 ont été validés pour des séquences de 128k. L’entraînement des versions de base a suivi un pipeline en 4 étapes (cf. tableau ci-dessous), sur des serveurs GB200 NVL72 chez CoreWeave. Le fine-tuning a reposé sur « des jeux de données ouverts sous licence permissive », des datasets synthétiques internes et des données annotées par l’humain.

entraînement Base

Intégrer Mamba dans l’écosystème

H-Small et H-Tiny ont une autre forme d’hybridité : ils sont les premiers modèles MoE d’IBM à utiliser des « experts partagés ». En d’autres termes, des paramètres toujours actifs qui permettent aux autres experts de mieux se spécialiser.

Des modèles Nano et Medium sont sur la feuille de route. Il s’agira aussi de pousser la prise en charge de Mamba dans l’écosystème. Des outils comme llama.cpp ne la gèrent pas encore. C’est dans cet esprit qu’IBM a conservé un modèle « classique » dans sa gamme.

Le catalogue open-weight d’IBM comprend des modèles multimodaux, dont :

  • Granite Speech (reconnaissance vocale ; dernière version publiée en août, à 2B et 8B)
  • Granite Vision (dernière version – 2B – publiée en juin, avec un dérivé pour l’embedding ajouté en août)
  • Granite Guardian (modération de contenu ; dernière version – 8B – publiée en septembre)
  • Granite Docling (extraction de données structurées ; dernière version – 258M – publiée en septembre)

Ses derniers modèles « spécial code » remontent à 2024. Il existe aussi des modèles Granite pour le traitement de données géospatiales et de séries chronologiques.

À consulter en complément, notre brève revue des LLM Granite 3.0. Sortis il y a près d’un an, ils introduisaient alors, au catalogue des modèles IBM, des techniques telles que ScatterMoE (une implémentation n’imposant pas de plafond de tokens par expert) et Evol-Instruct (génération de données synthétiques à partir de questions racines dont on crée des versions améliorées à renfort de prompt engineering).

Illustration principale générée par IA

The post Les derniers LLM d’IBM n’ont plus grand-chose de transformateurs appeared first on Silicon.fr.

Qu’est-ce que la certification ISO 42001, que revendiquent des fournisseurs d’IA ?

3 octobre 2025 à 10:21

Architecture hybride Mamba/Transformers, modèles spécifiques pour le raisonnement, mécanisme d’experts partagés… IBM a quelques nouveautés à mettre en avant avec la dernière génération des LLM Granite.

Celle-ci a une autre particularité : une certification ISO 42001. IBM l’a obtenue mi-septembre* pour le système de management sous-jacent.

Cette norme, publiée fin 2023, encadre effectivement la conception, l’implémentation et l’exploitation d’un système de management de l’IA. Elle est, en quelque sorte, ce que l’ISO 27001 est à la sécurité de l’information, l’ISO 9001 à la qualité et l’ISO 27701 à la protection de la vie privée. Y être conforme est censé témoigner d’une approche éthique et responsable.

L’ISO 42001 est potentiellement applicable à toute organisation qui développe, fournit ou utilise des produits ou services reposant sur des systèmes d’IA. Nombre des exigences qu’elle contient s’apparentent aux mesures que l’AI Act a imposées. Autant sur la gouvernance que sur la documentation, l’analyse de risque ou l’information des parties intéressées.

La norme impose de prendre en compte à la fois le contexte interne (gouvernance, procédures, obligations contractuelles…) et externe (législation, environnement culturel et concurrentiel, impact sur les tiers…). Elle aborde, entre autres :

  • Implication du top management
    Compatibilité de la politique IA avec la stratégie de l’organisation, intégration des exigences du système de management dans les processus métiers, etc. 
  • Planification
    Analyses d’impact, plans d’amélioration continue et de traitement des risques, gestion des exceptions, etc.
  • Support
    Fourniture des ressources nécessaires au système de management (data, outils, systèmes informatiques, compétences humaines).
  • Relations avec les tiers
    Documentation à leur adresse, mécanismes de recours/signalement, communication des incidents, gestion des fournisseurs, etc.

La certification est valable 3 ans et soumise à audit annuel. La procédure aura duré 3 mois, affirme IBM, qui met l’annonce en parallèle de son partenariat bug bounty avec Hacker One et de la généralisation de la signature cryptographique des checkpoints des modèles Granite.

D’AWS à Zendesk, quelques autres titulaires de la certification 42001

Parmi les fournisseurs de modèles de fondation, Anthropic a obtenu la certification ISO 42001 en janvier 2025. Elle englobe les LLM Claude sur l’API, au sein de l’offre Claude Enterprise ainsi que dans Amazon Bedrock et Vertex AI.
Cohere l’a quant à lui obtenue en juin 2025.

AWS avait été certifié en novembre 2024 pour les services Amazon Bedrock, Q Business, Textract et Transcribe. Google l’avait été en décembre, pour dix produits dont Vertex AI, Gemini pour Google Workspace et les API Cloud Translation et Document AI. Microsoft les a rejoints en mars 2025, pour Copilot et Copilot Chat dans Microsoft 365. Red Hat, en septembre, pour OpenShift AI.

365Talents et Workday sont respectivement ISO 42001 depuis février et juin 2025. Autodesk l’est depuis août, pour sa plate-forme centrale destinée à développer des produits et fonctionnalités d’IA. Zendesk l’est depuis septembre, pour tout son cœur IA, à l’exception de deux acquisitions récentes (Local Measure et HyperArc). Snowflake l’est depuis juin.

Des dizaines de plus petits éditeurs ont obtenu la certification. Pour en citer quelques-uns : Scrut Automation (Inde, GRC, février 2025), Noxtua (ex-Xayn ; Allemagne, logiciels juridiques, décembre 2024), FloQast (USA, comptabilité, janvier 2025), Gpi (Italie, logiciels pour la santé, juillet 2025) et Swimlane (USA, SOAR, juin 2025). Des ESN également, comme Datamatics (Inde, juin 2024).

Illustration générée par IA

The post Qu’est-ce que la certification ISO 42001, que revendiquent des fournisseurs d’IA ? appeared first on Silicon.fr.

❌