IBM accélère sa stratégie autour de la donnée et de l’intelligence artificielle en annonçant le rachat de Confluent pour 11 milliards de dollars en numéraire. Big Blue propose 31 dollars par action Confluent, soit une prime d’environ 50 % par rapport au dernier cours connu. Ce rachat de …
Avec l’acquisition de Confluent pour une valeur de 11 milliards $, IBM réalise l’une de ses plus importantes opérations depuis le rachat de Red Hat en 2019.
Cette transaction permet au groupe d’Armonk de s’emparer d’une technologie devenue stratégique : le traitement de données massives en temps réel, indispensable au fonctionnement des applications d’intelligence artificielle les plus avancées.
Avec cette acquisition, IBM entend créer une plateforme de données intelligente spécialement conçue pour l’IA d’entreprise, capable de connecter et faire circuler les informations entre environnements, applications et interfaces de programmation.
Confluent : un acteur clé du streaming de données
Basée à Mountain View en Californie, Confluent s’est imposée comme un pionnier du streaming de données en temps réel, une technologie devenue cruciale pour alimenter les applications d’intelligence artificielle. La plateforme, construite sur Apache Kafka, permet aux entreprises de connecter, traiter et gérer des flux massifs de données instantanément, éliminant les silos inhérents aux systèmes d’IA agentique.
La société compte plus de 6 500 clients à travers le monde, dont plus de 40% des entreprises du Fortune 500. Michelin utilise ainsi sa plateforme pour optimiser en temps réel ses stocks de matières premières et semi-finies. Instacart a déployé la technologie pour développer des systèmes de détection de fraude et améliorer la visibilité des produits disponibles sur sa plateforme de livraison.
Une stratégie d’acquisitions assumée
Pour Arvind Krishna, PDG d’IBM depuis 2020, cette transaction s’inscrit dans une politique volontariste de croissance externe visant à positionner le groupe sur les segments à forte croissance et marges élevées du logiciel et du cloud.
Cette acquisition fait suite au rachat d’HashiCorp pour 6,4 milliards $ en avril 2024 et, surtout, à l’opération Red Hat de 34 milliards $ en 2019, considérée par les analystes comme le catalyseur central de la transformation cloud d’IBM.
Le timing de l’opération n’est pas anodin. Selon IDC, plus d’un milliard de nouvelles applications logiques devraient émerger d’ici 2028, remodelant les architectures technologiques dans tous les secteurs. Le marché adressable de Confluent a doublé en quatre ans, passant de 50 milliards $ à 100 milliards en 2025.
Des synergies attendues
Les deux entreprises collaboraient déjà depuis cinq ans dans le cadre d’un partenariat permettant à certains clients d’IBM d’utiliser la plateforme de Confluent. L’intégration devrait permettre de créer des synergies substantielles à travers l’ensemble du portefeuille d’IBM, notamment dans l’IA, l’automatisation, les données et le conseil.
Les principaux actionnaires de Confluent, détenant collectivement environ 62% des droits de vote, ont conclu un accord de vote avec IBM, s’engageant à soutenir la transaction et à s’opposer à toute opération alternative. En cas d’échec ou de résiliation de l’accord, IBM devra verser à Confluent une indemnité de rupture de 453,6 millions $.
IBM a financé l’opération avec sa trésorerie disponible. La transaction, soumise à l’approbation des actionnaires de Confluent et aux autorisations réglementaires, devrait se finaliser d’ici la mi-2026.
Il y a avantage quantique lorsque l’association des méthodes quantiques et classiques est plus performante que les méthodes classiques seules.
Aux dernières nouvelles, c’est la définition que donne IBM.
Il n’en a pas toujours été ainsi. En tout cas dans la communication publique du groupe américain.
Encore récemment, il n’était pas explicitement question d’association classique-quantique. La notion était simplement décrite comme la capacité d’un ordinateur quantique à effectuer un calcul de manière plus précise, économique ou efficace (« more accurately, cheaply, or efficiently« ) qu’un ordinateur classique.
Avantage quantique : une méthodo, puis un tracker
Un livre blanc publié à l’été 2025 avec la start-up française PASQAL a témoigné de l’évolution du discours. Y est formulé le postulat selon lequel atteindre un avantage quantique à court terme suppose une intégration avec les infrastructures HPC.
Rappelant, à ce sujet, avoir publié des plug-in Slurm, les deux entreprises établissent surtout, par l’intermédiaire de ce whitepaper, une méthodologie de validation scientifique de l’avantage quantique.
Ce jalon posé, IBM a créé, avec BlueQubit (USA), Algorithmiq (Finlande) et des chercheurs du Flatiron Institute, un « tracker d’avantage quantique ». Lui et ses partenaires sur ce projet ont soumis diverses expérimentations, réparties en trois catégories :
Estimation des observables quantiques
Algorithmes quantiques variationnels (destinés à résoudre des problèmes combinatoires)
Problèmes pour lesquels la vérification quantique est efficace
À travers son API C, Qiskit se rapproche du HPC
L’un des derniers marqueurs de rapprochement vis-à-vis des environnements HPC fut l’introduction d’une fonction autonome de transpilation de circuits dans l’API C de Qiskit. C’était avec la version 2.2 du SDK, publiée en octobre 2025.
Cette API, introduite au printemps 2025 avec Qiskit 2.0, est dotée d’une interface de fonction étrangère qui permet d’exploiter d’autres langages. En première ligne, C++, particulièrement populaire pour le calcul scientifique. Et, plus globalement, les langages compilés (Qiskit a été développé à l’origine en Python, un langage interprété).
Relay-BP, Samplomatic… Des briques à l’édifice de la correction d’erreurs
Entre les deux, Qiskit 2.1 a introduit la possibilité d’ajouter des flags à des régions spécifiques d’un circuit. Une bibliothèque logicielle – Samplomatic, en bêta – y a été adossée. Elle permet de personnaliser ces régions. Et, au bout, de faciliter la construction de circuits dynamiques (qui incorporent des opérations classiques au cours de leur exécution).
Cette personnalisation est aussi censée faciliter la mise en œuvre de techniques de correction d’erreurs.
Sur ce volet, IBM compte notamment avoir assemblé, pour fin 2025, un prototype de processeur. Appelé Loon, il doit réunir divers composantes-clés dont la faisabilité a déjà été démontrée séparément : connectivité à 6 voies, accroissement des couches de routage à la surface de la puce, coupleurs physiquement plus longs, techniques de réinitialisation plus rapide des qubits…
Parmi les autres composantes-clés annoncées cette année, il y a Relay-BP, un algorithme de décodage d’erreurs. IBM en a récemment annoncé une implémentation sur FPGA AMD. Il annonce « moins de 480 nanosecondes » par tâche de décodage, en reconnaissant qu’il reste du travail dans la perspective d’un passage à l’échelle.
Nighthawk en attendant Starling
Relay-BP est arrivé en avance par rapport à la feuille de route. Il était effectivement prévu pour 2026.
À ce même horizon, IBM entend ajouter à Qiskit des outils de profilage de workloads hybrides (quantique-classique). Il prévoit aussi de lancer Kookabura, puce censée réunir unité de calcul et mémoire quantique.
En attendant, la dernière nouveauté côté processeurs s’appelle Nighthawk. Elle prend la suite de la génération Heron avec moins de qubits pour commencer (120 contre 156), mais autant de portes logiques (5000), davantage de coupleurs (218 vs 176), un taux d’erreur médian réduit… et la perspective de monter en capacité :
Pour 2026 : 7500 portes et jusqu’à 3 x 120 qubits
Pour 2027 : 10 000 portes et jusqu’à 9 x 120 qubits
Pour 2028 : 15 000 portes et jusqu’à 9 x 120 qubits
Un ordinateur quantique tolérant aux erreurs reste visé pour 2029. Avec, en ligne de mire, la puce Starling (100 millions de portes, 200 qubits). Blue Jay (1 milliard de portes, 2000 qubits) est censé suivre en 2030.
IBM prévoit un jeu d’instructions tolérant aux erreurs pour 2028
Depuis 2024, Qiskit est assorti d’un catalogue de fonctions : résolution d’équations différentielles (ColibriTD), de problèmes de classification (Multiverse Computing), de problèmes d’optimisation (Q-CTRL, Kipu Quantum), etc.
Ces fonctions trouveront une continuité sous la forme de bibliothèques d’applications quantiques. Les premières sont prévues pour 2027. IBM promet, pour la même échéance, un accélérateur pour au moins un workflow ayant démontré un avantage quantique. Puis, pour 2028, un jeu d’instructions tolérant aux erreurs.
IBM Cloud ne signera bientôt plus de nouveaux contrats VMware.
La bascule interviendra le 31 octobre 2025. Il ne pourra alors plus vendre de licences qu’aux clients qui disposaient d’au moins un workload actif avant cette date.
Par workload, il faut entendre au moins 1 VM déployée ou migrée sur du VCFaaS multilocataire. Ou bien au moins 1 hôte sur une des offres suivantes :
VMware on Bare Metal Servers for Classic
VCF for Classic – Automated
VCF for Classic – Flexible
VCF for VPC
VCFaaS monolocataire
Des restrictions sur VCF as a service
Les clients existants – c’est à dire qui ont un compte IBM Cloud ou un compte Entreprise enfant – pourront continuer à utiliser leurs environnements et à les étendre. Ils n’auront cependant pas la possibilité d’aller sur une offre différente de celle contractualisée. Plusieurs restrictions s’appliqueront par ailleurs à l’offre VCFaaS :
Pas d’extension des workloads au-delà des régions et des groupes de ressources actuels
Limité au modèle de consommation existant (à la demande ou réservé)
Pas de sauvegarde des VM avec l’add-on Veeam Backup si celui-ci n’est pas utilisé avant la date butoir
Pas d’extension de Veeam Backup au-delà des régions dans lesquelles il est dpéloyé
Nouveaux dépôts Veeam Scale-Out Backup limités à du stockage objet
Les contrats signés avant la date limite pourront être honorés jusqu’à leur terme.
Programme VCSP : la fin d’une ère
En toile de fond, une décision officialisée en août. Au nom de la portabilité des licences, les abonnements VCF devront être acquis auprès de Broadcom et non plus des hyperscalers. Ce à partir du 3 novembre 2025 (début de son exercice fiscal).
Les relations avec les fournisseurs vont évoluer plus largement. Une nouvelle incarnation du programme VCSP (VMware Cloud Service Provider) prendra effet début novembre. Elle élimine notamment la possibilité de revente en marque blanche pour les plus petits fournisseurs.
Un peu de Transformers, beaucoup de Mamba : avec les modèles de langage Granite 4.0, IBM opère une transition architecturale.
Mamba est censé pallier les limites des modèles transformateurs lors du traitement de longues séquences. Dans ces scénarios, le mécanisme d’attention constitue un goulet d’étranglement, du fait qu’il utilise une forme de cache clé-valeur permettant à chaque token d’accéder aux précédents lors de la prédiction. Plus la taille de contexte augmente, plus l’empreinte mémoire et la latence augmentent, de façon quadratique.
Des méthodes telles que la fenêtre glissante et l’attention flash peuvent atténuer cet effet. Mamba va plus loin en remplaçant le composant d’attention par un mécanisme inspiré de la théorie du contrôle : les SSM (State Space Models). Avec eux, la montée en charge est linéaire. On permet aux paramètres SSM d’être fonction de l’input, de sorte qu’une sélection des informations à conserver s’opère au moment de la mémorisation – et non au moment de la remémoration, comme c’est le cas pour les transformeurs.
Transformers réduit à la portion congrue
IBM n’écarte pas totalement Transformers, mais le réduit à la portion congrue : seules 4 couches sur 40 dans chacun des modèles Granite 4.0 aujourd’hui publiés (open-weight, licence Apache 2.0). Sont plus précisément combinés, de façon séquentielle, un groupe de 9 blocs Mamba, un bloc Transformers unique, et ainsi de suite. Les blocs Transformers sont maintenus notamment en ce qu’ils apportent des avantages sur les tâches avec apprentissage en contexte (few-shot prompting, typiquement).
Les modèles ainsi architecturés n’utilisent pas d’encodage positionnel : de par son fonctionnement, Mamba préserve intrinsèquement l’ordre des tokens. Ce n’est pas le cas de Transformers. On a donc tendance à y allier cet encodage positionnel… au détriment de la capacité des modèles à travailler sur des séquences plus longues que celles sur lesquelles on les a entraînés.
Des versions thinking à venir
Comme leurs prédécesseurs, les modèles Granite 4.0 sont destinés à générer du texte et du code. On en compte actuellement 4, tous déclinés en versions base et instruct (versions thinking à venir « d’ici à fin 2025 ») :
H-Small
Hybride Mamba/Transformers en MoE (32 milliards de paramètres dont 9 milliards actifs, soit 10 experts sur 72).
H-Tiny
Hybride Mamba/Transformers en MoE (7 milliards de paramètres dont 1 milliard actifs, soit 6 experts sur 64).
H-Micro
Hybride Mamba/Transformers dense (3 milliards de paramètres).
Micro
Variante « classique » (Transformers) de H-Micro.
L’ensemble est disponible dans des versions quantisées (GGUF, avec également du FP8 pour H-Small instruct).
En précision 8 bits, H-Small nécessite 33 Go de RAM ; H-Tiny, 8 Go ; H-Micro, 4 Go, contre 9 Go pour sa variante Transformers. IBM ne manque pas de mettre en avant ce gain pour l’inférence, surtout dans les tâches à contexte long et/ou à sessions multiples (agent de service client traitant plusieurs tickets en parallèle, par exemple).
Tous les modèles Granite 4.0 ont été validés pour des séquences de 128k. L’entraînement des versions de base a suivi un pipeline en 4 étapes (cf. tableau ci-dessous), sur des serveurs GB200 NVL72 chez CoreWeave. Le fine-tuning a reposé sur « des jeux de données ouverts sous licence permissive », des datasets synthétiques internes et des données annotées par l’humain.
Intégrer Mamba dans l’écosystème
H-Small et H-Tiny ont une autre forme d’hybridité : ils sont les premiers modèles MoE d’IBM à utiliser des « experts partagés ». En d’autres termes, des paramètres toujours actifs qui permettent aux autres experts de mieux se spécialiser.
Des modèles Nano et Medium sont sur la feuille de route. Il s’agira aussi de pousser la prise en charge de Mamba dans l’écosystème. Des outils comme llama.cpp ne la gèrent pas encore. C’est dans cet esprit qu’IBM a conservé un modèle « classique » dans sa gamme.
Le catalogue open-weight d’IBM comprend des modèles multimodaux, dont :
Granite Speech (reconnaissance vocale ; dernière version publiée en août, à 2B et 8B)
Granite Vision (dernière version – 2B – publiée en juin, avec un dérivé pour l’embedding ajouté en août)
Granite Guardian (modération de contenu ; dernière version – 8B – publiée en septembre)
Granite Docling (extraction de données structurées ; dernière version – 258M – publiée en septembre)
Ses derniers modèles « spécial code » remontent à 2024. Il existe aussi des modèles Granite pour le traitement de données géospatiales et de séries chronologiques.
À consulter en complément, notre brève revue des LLM Granite 3.0. Sortis il y a près d’un an, ils introduisaient alors, au catalogue des modèles IBM, des techniques telles que ScatterMoE (une implémentation n’imposant pas de plafond de tokens par expert) et Evol-Instruct (génération de données synthétiques à partir de questions racines dont on crée des versions améliorées à renfort de prompt engineering).
Architecture hybride Mamba/Transformers, modèles spécifiques pour le raisonnement, mécanisme d’experts partagés… IBM a quelques nouveautés à mettre en avant avec la dernière génération des LLM Granite.
Celle-ci a une autre particularité : une certification ISO 42001. IBM l’a obtenue mi-septembre* pour le système de management sous-jacent.
Cette norme, publiée fin 2023, encadre effectivement la conception, l’implémentation et l’exploitation d’un système de management de l’IA. Elle est, en quelque sorte, ce que l’ISO 27001 est à la sécurité de l’information, l’ISO 9001 à la qualité et l’ISO 27701 à la protection de la vie privée. Y être conforme est censé témoigner d’une approche éthique et responsable.
L’ISO 42001 est potentiellement applicable à toute organisation qui développe, fournit ou utilise des produits ou services reposant sur des systèmes d’IA. Nombre des exigences qu’elle contient s’apparentent aux mesures que l’AI Act a imposées. Autant sur la gouvernance que sur la documentation, l’analyse de risque ou l’information des parties intéressées.
La norme impose de prendre en compte à la fois le contexte interne (gouvernance, procédures, obligations contractuelles…) et externe (législation, environnement culturel et concurrentiel, impact sur les tiers…). Elle aborde, entre autres :
Implication du top management Compatibilité de la politique IA avec la stratégie de l’organisation, intégration des exigences du système de management dans les processus métiers, etc.
Planification
Analyses d’impact, plans d’amélioration continue et de traitement des risques, gestion des exceptions, etc.
Support
Fourniture des ressources nécessaires au système de management (data, outils, systèmes informatiques, compétences humaines).
Relations avec les tiers
Documentation à leur adresse, mécanismes de recours/signalement, communication des incidents, gestion des fournisseurs, etc.
La certification est valable 3 ans et soumise à audit annuel. La procédure aura duré 3 mois, affirme IBM, qui met l’annonce en parallèle de son partenariat bug bounty avec Hacker One et de la généralisation de la signature cryptographique des checkpoints des modèles Granite.
D’AWS à Zendesk, quelques autres titulaires de la certification 42001
Parmi les fournisseurs de modèles de fondation, Anthropic a obtenu la certification ISO 42001 en janvier 2025. Elle englobe les LLM Claude sur l’API, au sein de l’offre Claude Enterprise ainsi que dans Amazon Bedrock et Vertex AI. Cohere l’a quant à lui obtenue en juin 2025.
AWS avait été certifié en novembre 2024 pour les services Amazon Bedrock, Q Business, Textract et Transcribe. Google l’avait été en décembre, pour dix produits dont Vertex AI, Gemini pour Google Workspace et les API Cloud Translation et Document AI. Microsoft les a rejoints en mars 2025, pour Copilot et Copilot Chat dans Microsoft 365. Red Hat, en septembre, pour OpenShift AI.
365Talents et Workday sont respectivement ISO 42001 depuis février et juin 2025. Autodesk l’est depuis août, pour sa plate-forme centrale destinée à développer des produits et fonctionnalités d’IA. Zendesk l’est depuis septembre, pour tout son cœur IA, à l’exception de deux acquisitions récentes (Local Measure et HyperArc). Snowflake l’est depuis juin.
Des dizaines de plus petits éditeurs ont obtenu la certification. Pour en citer quelques-uns : Scrut Automation (Inde, GRC, février 2025), Noxtua (ex-Xayn ; Allemagne, logiciels juridiques, décembre 2024), FloQast (USA, comptabilité, janvier 2025), Gpi (Italie, logiciels pour la santé, juillet 2025) et Swimlane (USA, SOAR, juin 2025). Des ESN également, comme Datamatics (Inde, juin 2024).