La pression monte sur OpenAI. Dans un mémo interne envoyé ce lundi et consulté par le Wall Street Journal, Sam Altman convoque une « alerte rouge » pour améliorer la qualité de ChatGPT. Une décision qui implique de reléguer d’autres projets au second plan, dont le développement de la publicité, des agents IA pour le shopping et la santé, ainsi que Pulse, un assistant personnel produisant des actualités matinales personnalisées.
Ce virage stratégique intervient alors que Google vient de reprendre la main technologique. Le géant de Mountain View vient de lancer son modèle Gemini 3, qui a surpassé le GPT-5 d’OpenAI sur les tests de référence de l’industrie. De son côté, Anthropic, autre rival montant, a également dépassé OpenAI avec son modèle Opus 4.5.
Les chiffres témoignent que la dynamique profite à Google qui affirme que sa base d’utilisateurs actifs mensuels est passée de 450 millions en juillet à 650 millions en octobre, dopée notamment par le lancement d’un générateur d’images en août. Plus révélateur encore : d’après Similarweb, les internautes passent désormais plus de temps à discuter avec Gemini qu’avec ChatGPT, même si OpenAI conserve une large avance en nombre d’utilisateurs avec plus de 800 millions d’utilisateurs hebdomadaires.
Un modèle économique sous tension
Le défi pour OpenAI ne se limite pas à la technologie. L’entreprise fait face à un désavantage structurel majeur : elle n’est pas rentable et doit lever des fonds quasiment en continu pour survivre, contrairement à Google qui peut financer ses investissements sur ses revenus courants. Selon ses propres projections financières, OpenAI devra atteindre environ 200 milliards $ de chiffre d’affaires pour devenir profitable en 2030.
Dans son mémo, Sam Altman insiste sur la nécessité d’apporter des améliorations substantielles à ChatGPT, en matière de personnalisation, de rapidité, de fiabilité et de capacité à répondre à un éventail plus large de questions. Pour y parvenir, il a instauré des conférences téléphoniques quotidiennes avec les équipes responsables et encouragé les transferts temporaires entre services.
Cette « alerte rouge » succède à une précédente « alerte orange ». OpenAI utilise un système de trois codes couleur (jaune, orange, rouge) pour hiérarchiser l’urgence des problématiques à traiter.
Malgré ces difficultés, Sam Altman conserve des arguments pour rassurer. Dans son mémo, il a affirmé qu’un nouveau modèle de raisonnement prévu la semaine prochaine surpassera le dernier Gemini de Google. Nick Turley, responsable de ChatGPT, a d’ailleurs souligné lundi soir sur X que l’objectif était de poursuivre la croissance « tout en rendant ChatGPT encore plus intuitif et personnel ».
Reste que cette mobilisation générale confirme ce que beaucoup soupçonnaient : la domination initiale d’OpenAI dans l’IA générative appartient désormais au passé. La course de fond ne fait que commencer.
Pour les données sensibles, le SaaS n’est pas admissible, à moins d’apporter ses propres clés de chiffrement.
L’association suisse privatim – qui réunit des autorités de surveillance en matière de protection des données des organes publics – a récemment communiqué cette position. Elle vise plus précisément les solutions de « grands fournisseurs internationaux […], comme […] Microsoft 365 ». Un raisonnement qui tient entre autres à l’existence du CLOUD Act… et aux perspectives d’accès à des données par les autorités américaines sans respect des règles de l’entraide judiciaire internationale.
La plupart des solutions SaaS n’offrent pas encore de véritable chiffrement de bout en bout, fait également remarquer privatim. Qui dénonce aussi une transparence insuffisante des « entreprises opérant à l’échelle mondiale » pour que les autorités suisses puissent vérifier le respect des obligations contractuelles en matière de protection des données. Ce constat, poursuit l’association, vaut autant pour la mise en œuvre de mesures techniques et la gestion des changements, que pour l’engagement et le contrôle des collaborateurs et des sous-traitants.
Microsoft 365 : trois options pour utiliser ses propres clés de chiffrement
Microsoft 365 fournit un chiffrement de base au niveau du volume via BitLocker et DKM (Distributed Key Manager, techno côté client qui utilise un ensemble de clés secrètes). Depuis octobre 2023, c’est de l’AES256-CBC par défaut.
La voie principale pour apporter ses propres clés est l’option Customer Key de Purview. Elle fonctionne avec les licences suivantes :
Office 365 E5
Microsoft 365 E5
Purview Suite (ex-Microsoft 365 E5 Compliance)
Microsoft 365 E5 Information Protection & Governance
Microsoft 365 Security and Compliance for FLW
Purview Customer Key s’appuie sur le service Azure Key Vault. Au niveau Standard, les clés – générées dans le coffre-fort ou importées – sont protégées par logiciel. Au niveau Premium, elles sont stockées dans des HSM (modules de sécurité matériels). Il existe une option monolocataire dite Managed HSM.
Autre possibilité : le chiffrement à double clé : une sous le contrôle du client, l’autre stockée dans Azure. Une solution à réserver aux données très sensibles, selon Microsoft. Elle condamne effectivement l’accès à des fonctionnalités comme l’eDiscovery, la recherche et l’indexation, les web apps Office, les règles antimalware/antispam qui exigent une visibilité sur les pièces jointes… et Copilot.
Même avec l’option Customer Key, Microsoft conserve une clé maître (« clé de disponibilité », que le client peut demander à activer en cas de perte de ses propres clés.
Trois mois après sa création en septembre 2025, Gradium annonce officiellement son lancement avec une levée de fonds de 60 millions € en tour d’amorçage. Un montant rare pour une entreprise aussi jeune mais qui témoigne de l’appétit des investisseurs pour les technologies d’IA vocale de nouvelle génération.
Une technologie fondée sur les modèles de langage audio
L’approche technique de Gradium repose sur les modèles de langage audio, équivalents natifs-audio des large language models (LLM) textuels. Cette architecture, initialement inventée par les fondateurs de l’entreprise, permet de traiter la voix de manière native sans passer par une transcription intermédiaire en texte, contrairement aux systèmes traditionnels qui enchaînent reconnaissance vocale, traitement textuel et synthèse vocale.
Cette approche native offre plusieurs avantages techniques : réduction de la latence, préservation de l’expressivité vocale et capacité à gérer n’importe quelle tâche vocale de manière unifiée. Les modèles de langage audio sont désormais devenus le standard dominant de l’industrie depuis leur invention par les fondateurs.
L’équipe fondatrice réunit quatre chercheurs reconnus dans le domaine de l’IA audio : Neil Zeghidour (CEO, ex-Meta et Google DeepMind), Olivier Teboul (CTO, ex-Google Brain), Laurent Mazaré (Chief Coding Officer, ex-Google DeepMind et Jane Street) et Alexandre Défossez (Chief Scientist Officer, ex-Meta). Leur expertise s’appuie sur plus d’une décennie de recherche fondamentale menée notamment au sein de Kyutai, laboratoire de recherche en IA à but non lucratif dont Neil Zeghidour et Laurent Mazaré étaient deux membres fondateurs.
Cette collaboration avec Kyutai se poursuit et constitue un atout stratégique : elle donne à Gradium un accès privilégié aux avancées de la recherche fondamentale, qu’elle peut ensuite transférer rapidement vers des applications commerciales. La technologie sous-jacente de Gradium sera identique à celle de Moshi, l’IA vocale développée par Kyutai, a précisé Neil Zeghidour à Bloomberg.
Un positionnement « qualité-latence-coût »
Gradium affirme résoudre un compromis technique majeur du secteur : les systèmes vocaux actuels obligent généralement à choisir entre qualité d’interaction, faible latence et coût abordable. La startup vise à proposer simultanément une expressivité vocale réaliste, une transcription précise et une interaction à très faible latence, tout en maintenant des prix permettant un déploiement à grande échelle.
Cette proposition de valeur s’adresse en priorité aux développeurs et aux entreprises via une plateforme API. Le service supporte déjà cinq langues au lancement (anglais, français, allemand, espagnol et portugais), avec d’autres en préparation.
Gradium affirme générer ses premiers revenus quelques semaines seulement après sa création. L’entreprise compte déjà des clients dans plusieurs secteurs : gaming, agents IA, service client, apprentissage des langues et santé.
Le tour de seed de 60 millions d’euros a été co-mené par FirstMark Capital et Eurazeo, avec la participation de DST Global Partners, Eric Schmidt (ancien CEO et Chairman de Google), Xavier Niel (Iliad), Rodolphe Saadé (CMA CGM), Korelya Capital et Amplify Partners.
Ce montant positionne Gradium parmi les levées de seed les plus importantes de l’écosystème français et européen, reflétant les attentes du marché sur le potentiel de l’IA vocale. Selon Neil Zeghidour, le secteur en est encore au stade où se trouvaient les chatbots avant l’émergence des LLM : les systèmes existants restent fragiles, coûteux et limités dans leur capacité à proposer des interactions naturelles.
L’ambition affichée de Gradium est de devenir le socle technologique de référence pour la voix à l’échelle mondiale, en faisant de la voix l’interface principale entre humains et machines.
Alphabet, maison mère de Google, a retiré sa plainte antitrust déposée auprès de la Commission européenne contre les pratiques cloud de Microsoft, une semaine après l’ouverture par Bruxelles de trois enquêtes de marché sur AWS et Microsoft Azure dans le cadre du Digital Markets Act (DMA).
Désormais, Google affirme vouloir contribuer aux travaux des autorités dans ce cadre plus large, et indique rester engagé dans le dialogue avec les décideurs publics pour faire évoluer les règles de concurrence et les conditions de licences dans le cloud.
Google avait saisi la Commission européenne en 2024 en accusant Microsoft d’utiliser des conditions de licences logicielles pour enfermer les clients dans sa plateforme Azure. La plainte mettait en avant des pénalités financières, des restrictions d’usage de Windows Server et des obstacles d’interopérabilité pour les entreprises souhaitant exécuter les logiciels Microsoft sur des clouds concurrents ou migrer leurs charges de travail hors d’Azure.
Ces griefs faisaient écho à des préoccupations déjà exprimées par l’association professionnelle CISPE, soutenue par Amazon, qui avait elle-même déposé puis retiré une plainte contre Microsoft après un accord transactionnel en 2024.
Enquêtes de l’UE sur le cloud
Les enquêtes ouvertes par la Commission visent à déterminer si AWS et Azure doivent être désignés comme « contrôleurs d’accès » (gatekeepers) pour leurs services cloud, alors même qu’ils ne remplissent pas automatiquement tous les seuils chiffrés prévus par le DMA. Bruxelles veut évaluer si certaines caractéristiques du secteur (effets de verrouillage, coûts de sortie, barrières techniques au multicloud) renforcent le pouvoir de marché de ces hyperscalers au détriment de la concurrence.
Une troisième enquête examinera si les dispositions actuelles du DMA suffisent à traiter les pratiques susceptibles de limiter la contestabilité et l’équité dans le cloud, ou si des ajustements réglementaires sont nécessaires. La Commission a indiqué que ces travaux s’inscrivent dans un effort plus large pour adapter les outils de concurrence numérique aux spécificités de l’informatique en nuage dans l’UE.
Les grandes entreprises combinent plusieurs clouds pour répartir les workloads, optimiser les coûts, rapprocher les données des utilisateurs et limiter les risques de dépendance à un seul fournisseur. Jusqu’ici, relier ces environnements impliquait soit l’usage d’Internet public sans garanties de bande passante, soit des montages de connectivité privée complexes, longs à déployer et coûteux à exploiter.
L’alliance entre AWS et Google Cloud combine le nouveau service AWS Interconnect- multicloud et Google Cloud Cross-Cloud Interconnect pour proposer une connectivité privée et automatisée entre les deux environnements. Elle fournit une connectivité entre VPC AWS et VPC/VPC‑SC Google Cloud, intégrée de manière native aux consoles et APIs des deux fournisseurs.
Google Cloud avait déjà positionné Cross-Cloud Interconnect comme brique clé de son architecture “Cross-Cloud Network”, permettant de relier Google Cloud à AWS, Azure, Oracle Cloud Infrastructure et d’autres MSP via des liens privés à haut débit.
Les deux acteurs mettent en avant une automatisation poussée : les clients peuvent réserver de la capacité dédiée à la demande et établir la connectivité en quelques minutes, sans gérer directement le câblage, les circuits ni l’infrastructure physique sous‑jacente.
L’annonce inclut une spécification ouverte pour l’interopérabilité réseau entre clouds décrite comme un standard commun de connectivité privée qui vise à réduire la complexité de l’adressage, du routage et de la gestion des politiques réseau entre environnements AWS et Google Cloud.
L’objectif est de permettre à d’autres fournisseurs de cloud d’implémenter le même modèle, afin d’étendre ce socle d’interopérabilité au‑delà du seul duo AWS–Google Cloud. Cette ouverture pourrait favoriser l’émergence d’un écosystème où les clouds majeurs s’alignent sur des standards communs de connectivité privée, à l’image de ce qui existe déjà pour certains protocoles réseau et interfaces de peering.
Caractéristiques techniques mises en avant
Sur le plan technique, Cross-Cloud Interconnect fournit des liaisons privées avec des capacités de 10 ou 100 Gbit/s dans de nombreux sites mondiaux, gérées par Google côté physique, avec des métriques de performance détaillées (latence, pertes de paquets, temps de trajet aller‑retour).
Les documents techniques de Google décrivent un modèle de double attachement (primaire et redondant) et l’utilisation de BGP pour l’échange de routes entre Google Cloud et AWS, avec des exigences de haute disponibilité.
AWS Interconnect-multicloud, en préview, est présenté comme un service managé offrant des connexions privées simples, résilientes et à haut débit vers d’autres clouds, intégrées avec les outils réseau et d’observabilité AWS.
L’intégration avec Cross-Cloud Interconnect vise à abstraire la gestion des ports, des circuits et des délais de provisioning, en exposant une expérience de type “cloud‑native” dans les deux consoles.
Cas d’usage et bénéfices clients
L’alliance cible des scénarios où les données ou applications sont réparties entre AWS et Google Cloud, par exemple pour des plateformes analytiques, des charges IA/ML, ou l’intégration de SaaS opérant sur plusieurs clouds.
Un exemple cité concerne l’intégration de Salesforce Data 360, qui nécessite des ponts privés robustes entre différents environnements pour alimenter des cas d’usage d’IA et d’analytique sur des données réparties.
Pour les clients, les bénéfices mis en avant sont la réduction du temps de mise en service des liaisons, la simplification opérationnelle (moins de gestion d’infrastructure physique) et de meilleures garanties de performance que l’Internet public. L’approche standardisée doit aussi faciliter la gouvernance réseau et la sécurité dans des environnements multicloud complexes, où les architectures doivent concilier segmentation, conformité et performance de bout en bout.
Sous le feu des critiques des associations professionnelles et scrutés par les régulateurs, les deux grands CSP américains engagent un mouvement vers un modèle où la connectivité inter‑cloud devient un service managé de première classe, au même titre que le compute ou le stockage, plutôt qu’un assemblage de liens télécoms et de configurations spécifiques.
Reste à observer dans quelle mesure les autres fournisseurs adopteront la spécification proposée et comment les intégrateurs réseau et opérateurs télécoms adapteront leurs offres face à cette montée en puissance de la connectivité multicloud native.
HSBC a signé un accord pluriannuel avec Mistral AI afin d’intégrer des outils d’intelligence artificielle générative dans l’ensemble de la banque.
HSBC déploiera les modèles commerciaux de Mistral ainsi que leurs futures mises à jour sur une infrastructure auto-hébergée. Cette approche permettra de combiner les capacités technologiques internes du groupe bancaire avec l’expertise de Mistral dans la conception de modèles d’IA.
Les deux entreprises collaboreront au développement de solutions d’IA couvrant plusieurs usages : analyse financière, traduction multilingue, évaluation des risques ou encore communications personnalisées avec les clients.
Selon HSBC, ces outils pourraient réduire de manière significative le temps consacré par les employés aux tâches routinières ; par exemple, les équipes crédit et financement pourront analyser plus rapidement des dossiers complexes et volumineux.
HSBC utilise déjà des centaines de cas d’usage d’IA dans le monde, notamment en matière de détection de fraude, de surveillance des transactions, de conformité et de service client. La banque estime que l’accord avec Mistral AI permettra d’accélérer ses cycles d’innovation et de lancer plus rapidement de nouvelles fonctionnalités reposant sur l’IA.
Le rapport intitulé “The State of Generative AI 2025” édité par Palo Alto Networks le montre : les cas d’usage des IA génératives ont explosé en 2024. Le trafic vers ces services s’est accru de 890 % en 2024 et une grande organisation exploite 66 applications d’IA générative en moyenne, dont 10 % peuvent être qualifiées à haut risque.
Qu’il s’agisse de services de traduction, de synthèse de documents, mais aussi de chatbots, moteurs de recherche et outils dédiés aux développeurs, ces IA sont désormais adoptées dans tous les secteurs d’activité.
Pierre Jacob, DG de Magellan Sécurité.
Sécuriser ces infrastructures présente quelques spécificités. Les IA restent des workloads IT standards avec des conteneurs logiciels qu’il faut protéger, mais les LLM présentent des vulnérabilités intrinsèques à l’apprentissage machine. « Pour les entreprises qui souhaitent réaliser l’entraînement de leurs modèles, il est extrêmement important de sécuriser la chaîne d’alimentation des modèles » explique Pierre Jacob, DG de Magellan Sécurité.
Le consultant estime qu’il est relativement facile d’empoisonner un modèle et introduire des biais importants dans son comportement : « Il ne faut qu’un pourcentage finalement assez faible de données pour faire dérailler un modèle. Il est donc extrêmement important de sécuriser soigneusement les infrastructures d’entraînements. »
La Cyber s’invite dans les infrastructures NVidia
NVidia a pleinement pris conscience des risques pesant sur les IA entraînées et exécutées sur ses infrastructures. Le californien a implémenté des fonctions d’informatique confidentielle sur ses architectures Nvidia Hopper et Blackwell, avec la capacité d’entraîner les IA sur des données chiffrées de bout en bout. De même, les fournisseurs de solution de sécurité sont invités à déployer leurs briques de sécurité sur les infrastructures IA.
Au début de l’été, Crowdstrike annonçait l’intégration de sa plateforme Falcon Cloud Security avec les microservices LLM NIM de NVidia, ainsi qu’à NeMo, sa plateforme de développement d’IA. On retrouve cette même volonté de rapprochement avec Nvidia chez Check Point.
Adrien Merveille, CTO France de Check Point Software
« Nous avons signé un partenariat avec Nvidia pour venir directement dans les GPU qui vont assurer l’apprentissage des moteurs d’IA » explique Adrien Merveille, CTO France de Check Point Software. « Cela va permettre d’appliquer les règles de sécurité à la fois pour segmenter les données d’entraînement, contrôler l’accès par les administrateurs et les manipulations mémoire pour éviter les attaques de type Prompt Injection. »
De même, l’éditeur a intégré à son WAF les protections du Top 10 WASP LLM pour protéger les IA contre les types d’attaques connus. Ce classement référence les 10 types d’attaque les plus fréquents sur les LLM, depuis la Prompt Injection, le Data Poisoning, mais aussi le vol de modèle et les vulnérabilités sur la chaîne d’alimentation en données des modèles en phase d’apprentissage ou en production.
Éric Vedel, CISO de Cisco, rappelle que même des LLM téléchargés sur Hugging Face peuvent avoir été piégés et doivent être vérifiés avant d’être mis en production. Cisco pousse en avant sa solution Cisco AI Defence afin de détecter les vulnérabilités dans les modèles. Celle-ci a été officiellement lancée le 15 janvier 2025, mais elle est issue de l’acquisition de l’éditeur Robust Intelligence quelques mois plus tôt.
Éric Vedel, CISO de Cisco
« Cette éditeur avait déjà mis en place ses moyens de protection chez de très gros clients pour lutter contre le Shadow AI en accroissant la visibilités sur les usage de l’IA en interne, de la détection des vulnérabilités dans les modèles mis en œuvre et la mise en place de garde-fous et contremesures contre ces risques liés à l’IA. Chose unique sur le marché, nous avons embarqué cette offre au sein de notre offre SSE (Secure Access Security Edge). »
Cette solution s’inscrit dans la mouvance des solutions d’AI SPM apparues pour sécuriser les modèles et les données.
Palo Alto Networks a récemment pris position sur ce marché avec une plateforme complète entièrement dédiée aux IA et couvrir tous les risques recensés par l’OWASP : « Pour couvrir l’ensemble de ces risques, nous avons fait le choix de créer une nouvelle plateforme, Prisma AIRS » explique Eric Antibi, directeur technique de Palo Alto Networks. « Celle-ci amène tout un ensemble de solutions conçues pour la sécurité de ces architectures complexes et des risques spécifiques qui pèsent sur la GenAI. »
Eric Antibi, directeur technique de Palo Alto Networks.
La suite intègre un module de Model Scanning pour trouver des vulnérabilités dans les modèles, un module de Posture Management pour identifier tout problème de configuration dans l’architecture. Le module de Red Teaming teste en permanence les modèles pour s’assurer que de nouvelles vulnérabilités ne sont pas apparues à l’occasion de mises à jour, par exemple.
Enfin, des modules assurent la sécurité runtime des IA ainsi que celle des agents intelligents. « Prisma AIRS est une plateforme à part entière, néanmoins, la composante réseau est importante dans la sécurité de ces infrastructures, notamment pour surveiller les échanges entre les datasets et les moteurs de LLM. De ce fait, la console d’administration de notre plateforme Network Security est utilisée, mais cela reste des modules différents. »
Si les solutions d’AI SPM sont encore assez nouvelles et encore peu répandues, les équipes sécurité et IA doivent s’en emparer et commencer à monter en maturité et faire évoluer vers le haut leurs politiques de sécurité vis-à-vis des IA.
Pierre Jacob, DG de Magellan Sécurité : «Ne pas s’arc-bouter sur une position unique. »
« Il faut adapter ses choix de LLM aux usages et aux risques. Il est possible de déployer un LLM ou un SLM sur un poste de travail si le cas d’usage impose d’être en mode déconnecté. Les machines Apple se prêtent assez bien au déploiement de SLM en local par exemple. De même, il ne faut pas rejeter un LLM parce qu’il est dans le Cloud public. Il faut avoir une vision architecture et penser la sécurité by design et être capable de jongler avec les modèles, mettre en place des architectures applicatives à base de microservices capables de consommer ses modèles sans en être dépendantes. »
Le plan de contrôle de Route 53 n’est plus tout à fait monorégion.
AWS l’a effectivement répliqué en partie. Et ainsi réduit la dépendance à la région cloud us-east-1.
En toile de fond, l’incident d’octobre. Il a pris racine dans cette région cloud, (re)mettant en lumière le point faible qu’elle constitue. Entre autres, donc, parce que quantité de services y ont leur plan de contrôle.
Une récupération « accélérée »…
La réplication partielle de celui de Route 53 se traduit par une option de « récupération accélérée ». On peut l’activer pour chaque zone hébergée publique (conteneur d’enregistrements définissant l’acheminement du trafic d’un domaine spécifique sur le réseau Internet). Une copie de la zone est alors conservée dans la région us-west-1.
… avec un RTO de 60 minutes
En cas d’indisponibilité prolongée dans la région us-east-1, une bascule est censée s’effectuer… dans un délai de 60 minutes. On n’a alors pas accès à l’ensemble des méthodes API. Mais les principales sont disponibles : listage des zones, des enregistrements et des ensembles de délégation, soumission et suivi de changements, etc.
En période de bascule, il n’est pas possible de créer de zones, ni d’en supprimer. On ne peut pas non plus (dés)activer la signature DNSSEC. Et les connexions AWS PrivateLink ne fonctionnent pas. Par après, pour supprimer une zone, il faut d’abord désactiver l’option de « récupération accélérée ». Laquelle, pour préciser, ne concerne pas le volet DNS privé de Route 53.
Chez Veeam, l’heure est aux intégrations natives avec les hyperviseurs.
La feuille de route est en tout cas bien remplie : de 7 hyperviseurs, on pourrait passer à 13 en 2026.
Le premier environnement géré fut VMware, dès la première version sortie en 2008. Hyper-V s’y était ajouté en 2011.
Le troisième sur la liste fut Nutanix AHV. Le plug-in existe depuis 2018. Avec la dernière version de Veeam (v13, lancée ce mois-ci), l’appliance a été intégrée dans le serveur de backup. La distribution des workers a été améliorée (images déployées au besoin) et il est devenu possible de déployer un agent léger persistant sur les VM – ce qui élimine la nécessité d’un compte à privilèges.
La prise en charge de Red Hat Virtualization est assurée depuis 2021. Aux dernières nouvelles, elle le sera au moins jusqu’à fin 2026 (Red Hat a abandonné cette solution au profit d’OpenShift). Oracle Linux Virtualization Manager, autre solution basée sur KVM, est quant à lui intégré depuis 2024.
Pour l’un et l’autre, la dernière version de Veeam intègre aussi l’appliance dans le serveur de backup. Le placement des workers est amélioré (priorisation de ceux situés dans le même cluster que la VM) et il devient possible de les connecter à plusieurs réseaux. La stratégie de conservation basée sur les points de restauration est remplacée par une stratégie basée sur le temps, ouvrant la voie à de l’immuabilité.
Proxmox en 2024, Scale Computing cette année
Autre hyperviseur géré depuis 2024 : Proxmox VE. Veeam 13 y apporte – sur le papier – un élément important : la sauvegarde au niveau des applications (app-aware) par intégration avec le VSS, pour Active Directory, Exchange, SharePoint, SQL Server, Oracle et PostgreSQL. Elle généralise par ailleurs la disponibilité des fonctions de détection de malwares (analyse des activités suspectes sur le système de fichiers, recherche de menaces, scans YARA après sauvegarde…).
Le dernier hyperviseur ajouté sur la liste le fut en septembre 2025 : HyperCore, de Scale Computing. Ses principales capacités à l’heure actuelle :
Sauvegarde complète ou incrémentale
Sélection de VM, de tags et de clusters comme sources
Exclusions possibles niveau VM et disque
Notification par e-mail pour chaque job
Niveau de compression et taille de bloc personnalisables
Restauration vers/depuis AHV, Proxmox, KVM, AWS, Azure et Google Cloud
XCP-ng, HPE VM Essentials et OpenShift Virtualization prévus pour 2026
Des intégrations avec 4 hyperviseurs supplémentaires sont prévues pour le premier semestre 2026.
Parmi eux, XenServer (que Citrix a décidé de relancer face à VMware) et son forkXCP-ng.
Le plug-in pour XCP-ng (version 8.3 et ultérieures) est en bêta publique depuis fin septembre. Il est préinstallé dans une version spécifique de l’ISO Veeam Backup and Restore 12.3.2. Les possibilités sont proches de celles offertes par le plug-in HyperCore, mais VeeamZIP n’est pas encore géré, comme l’exclusion de VM ou de disques.
VM Essentials, de HPE, est aussi prévu pour le premier semestre. Veeam avait officialisé son intention de développer un plug-in en juin 2025. Une bêta devrait être disponible en décembre.
Un hyperviseur chinois est également sur la liste : Sangfor, proposé par un fournisseur de solutions hyperconvergées sur base KVM.
L’échéance n’est pas aussi précise concernant OpenShift Virtualization : ce sera pour 2026, nous promet-on simplement.
On en arrivera ainsi à 12 hyperviseurs. Si Veeam en compte 13, c’est qu’il inclut un projet d’API « universelle » censée favoriser l’intégration d’autres solutions…
Prenez une offre de « cloud souverain » et greffez-y de l’IA : chez SAP, cela donne EU AI Cloud.
La partie « cloud souverain » est promue depuis quelques années sous la marque SAP Sovereign Cloud.
Le volet IA consiste notamment en l’intégration de modèles génératifs dans l’offre SAP BTP (Business Technology Platform). Une démarche qui s’étend actuellement aux services adossés à ces modèles. Par exemple, Mistral AI Studio et Le Chat, ou la plate-forme Cohere North.
L’approche « cloud distribué », mais sous l’angle IA
Sous la bannière EU AI Cloud, SAP promet la possibilité d’exploiter ces modèles et services sur des infrastructures « souveraines » à quatre niveaux :
Données (localisation)
Exploitation (opérations sensibles effectuées en local avec du personnel situé sur place ou dans un « pays de confiance »)
Technique (plans de contrôle locaux)
Juridique (entités locales ou établies dans des « pays de confiance »)
Quatre options de déploiement.sont proposées : sur l’infrastructure SAP, chez le client (en managé), chez des hyperscalers*… et chez Delos Cloud – filiale du groupe allemand – pour le secteur public.
En fonction des territoires, ces modes de déploiement ne sont pas tous disponibles. En France, c’est pour le moment sur site ou sur le IaaS SAP. Une option de déploiement alternative est « en cours d’évaluation », nous assure-t-on.
Des licences au CLOUD Act, un « cloud souverain » qui interroge
Les fondements de SAP Sovereign Cloud sont à trouver dans l’offre NS2 (National Security Services), exploitée depuis une vingtaine d’années aux États-Unis.
Malgré cette expérience, on est encore loin d’une parité fonctionnelle entre le « cloud souverain » et le cloud commercial, a récemment admis le responsable de l’offre SAP Sovereign Cloud au Royaume-Uni.
En France, l’USF (association professionnelle des utilisateurs SAP francophones) se demande ce que l’option de déploiement sur site apportera par rapport à l’offre SAP CDC qui existait précédemment. Elle s’interroge aussi quant aux risques liés au CLOUD Act au niveau du IaaS SAP. Tout en appelant à des clarifications sur la gouvernance du modèle de Delos Cloud, qui semble se rapprocher fortement de la future offre de Bleu.
Son homologue allemande – le DSAG – attend une « transparence totale » sur le contenu des services et leur date de disponibilité. Elle affirme par ailleurs que la question des licences dans les environnements hybrides est cruciale.
* SAP a récemment confirmé que l’offre AWS European Sovereign Cloud sera une option de déploiement. Le cloud d’Amazon est déjà proposé en Australie et en Nouvelle-Zélande (depuis 2023), au Royaume-Uni (2024), ainsi qu’en Inde et au Canada (2025).
Pas d’audio, ni de vidéo. SNCF Connect & Tech en a décidé ainsi dans une perspective d’écoconception de son site web.
WebP, lazy loading… et noir et blanc
Pour ce qui est des images, le format WebP a été adopté. Avec lazy loading (on ne charge un élément que lorsque son emplacement devient visible à l’écran). Leur taille est par ailleurs automatiquement réduite de 5 % lors du traitement et les images monochromes sont fournies en noir et blanc.
Un cahier des charges pour les PDF
Pour chaque fichier proposé au téléchargement, le poids est indiqué. Le format PDF a été généralisé. Pour tout nouveau document, les contributeurs sont invités à se demander s’il est strictement nécessaire ou si on peut le remplacer par un autre contenu sur le site. On les incite aussi à contrôler que les images sont bien nécessaires, que les annotations ont été supprimées, que les polices sont bien des polices système… et que les bons paramètres d’export ont été appliqués.
Pas de carrousel ni de préchargement au survol
En front-office, la bibliothèque shadcn/ui a été retenue pour gérer les composants complexes, en raison de son faible environnemental, avance SNCF Connect & Tech. Certains composants prévus pour un usage unique ont été abandonnés au profits d’éléments réutilisables. Le format carrousel a été volontairement écarté – il n’aurait été utilisé qu’une fois – et remplacé par un composant de type tabulation. Quant aux préchargements au survol, ils ont été désactivés.
Autoscaling à 50-60 % de CPU
En back-office, trois services d’autoscaling sont en place. Pour Next.js, on ajoute une instance si la consommation CPU dépasse 50 % pendant 3 minutes. On en supprime une si l’utilisation tombe sous les 30 % pendant 6 minutes. Pour Drupal et le proxy, ces seuils sont à 60 % et 30 %. Dans tous les cas, le nombre d’instances est plafonné à 16.
Les environnements de développement sont créés à la volée, automatiquement éteints en dehors des heures de travail et détruits une fois le développement achevé.
Un an en cache côté client
Par défaut, toutes les ressources maîtrisées sont mises en cache côté client avec une durée de validité d’un an (polices, CSS et JavaScript, notamment). Certaines ressources ont des règles spécifiques, comme les images statiques (30 jours).
Côté serveur, les données les plus fréquemment demandées sont mises dans un cache Redis. Drupal gère le cache des pages dynamiques ; Cloudflare, la mise en cache des ressources statiques à grande échelle.
Des pages de 3 Mo maximum
L’impact environnemental est analysé à intervalle trimestriel. SNCF Connect & Tech s’astreint à un maximum de 3 Mo par page, 60 requêtes par écran, 1,6 Mo de données transférées et un score Ecoindex d’au moins D.
Quelques pages représentatives analysées au 23 avril 2025 :
Page
Ecoindex
Poids (en ko)
Requêtes
Données transférées (en kb)
Accueil
C
1707
40
11,4
Contact
C
1403
32
9,8
Offres d’emploi
C
1431
31
13,8
Espace presse
D
2283
48
715
Stratégie de rémunération
C
1625
33
69,1
Mission
C
1517
34
25,8
Les choix d’entreprises (fournisseur, solutions mutualisées) limitent l’intégration de services tiers plus propres, admet SNCF Connect & Tech.
Lorsqu’on prépare un dataset mixte pour le fine-tuning, il est possible de tirer parti d’une « propriété additive ».
Le rapport technique du modèle Phi-4 (de Microsoft) comprend une remarque à ce sujet.
La propriété en question permet d’optimiser le mix de données domaine par domaine puis de concaténer les poids qui en résultent, sans perte.
Open-R1 en a fait usage. Le projet, emmené par Hugging Face, a démarré en janvier 2025. Son objectif : créer une reproduction ouverte de DeepSeek-R1, en développant les « pièces manquantes ». À savoir datasets et code d’entraînement.
Le plan est décliné en trois temps :
Être capable de distiller un ensemble de données de raisonnement de haute qualité à partir de DeepSeek-R1
Répliquer le pipeline d’apprentissage par renforcement de R1-Zero
Appliquer cette combinaison à des modèles de base pour en faire des modèles de raisonnement
Les maths d’abord
Open-R1 a d’abord centré ses travaux sur un dataset de raisonnement mathématique : OpenR1-Math-220k. Publié sous licence Apache 2.0, il couvre 400 000 problèmes (2 à 4 traces pour chacun) tirés de NuminaMath-1.5. Filtré, il en conserve 220 000. On l’a divisé en deux parties. L’une, dite « par défaut », regroupe 94 000 problèmes et engendre les meilleures performances. L’autre, dite « étendue », réunit 131 000 problèmes… et ne produit pas d’aussi bons résultats, problablement parce que les questions sont plus simples.
En faisant travailler Qwen-7B-Math-Instruct pour trois cycles sur la partie « par défaut », Hugging Face affirme être parvenu à égaler la performance de DeepSeek-Distill-Qwen-7B. Il a, en l’occurrence, obtenu le même score sur AIME 25 (40) et fait un peu moins bien sur MATH-500 (90,6 vs 91,6).
Le code ensuite
Les travaux se sont ensuite étendus au codage, avec la production d’un dataset basé sur les compétitions CodeForces. Au menu, environ 10 000 problèmes (avec jusqu’à 5 traces), dont 60 % accompagnés de l’explication de la solution correcte par les organisatieurs.
Sur cette base, il a été demandé à R1 de produire des chaînes de pensée (environ 100 000 exemples), aboutissant au datasetCodeForces-CoTs. Publié sous licence ODC-BY, il a servi à affiner Qwen-2.5-Coder-Instruct 7B et 32B. En ont découlé les modèles OlympicCoder. Mis à l’épreuve sur la dernière Olympiade internationale d’informatique, ils ont rivalisé avec des LLM à l’état de l’art (le 32B s’en sortant même mieux que R1.
La science pour finir
Une partie de CodeForces-CoTs (83 000 traces de problèmes Python et C++) et d’OpenR1-Math-220k (la partie « par défaut ») a finalement été combinée à un sous-ensemble du dataset de post-entraînement de Llama Nemotron pour former Mixture-of-Thoughts. Au code et aux maths s’est donc ajoutée la science, pour un total d’environ 350 000 traces. Aucune licence n’a été ajoutée (c’est une demanderégulière).
Cette base, appliquée à une variante de Qwen-2.5-Math-7B (fréquence RoPE de base étendue à 300k pour permettre l’entraînement sur une fenêtre de 32k), a produit OpenR1-Distill-7B. Le modèle s’est montré plus performant que R1-Distill-Qwen-7B sur AIME 2024 (52,7 vs 51,3), GPQA Diamond (52,8 vs 52,4) et LiveCodeBench v5 (39,4 vs 37,4). Ces scores s’entendent en pass@1 (un essai, avec 4 à 64 réponses par requête en fonction des tâches), à température 0,6 et top_p 0,95.
L’Autorité de la concurrence vient de rendre une décision importante dans le secteur des moteurs de recherche en rejetant la plainte déposée par Qwant à l’encontre de Microsoft.
Le moteur de recherche français l’accusait de plusieurs pratiques anticoncurrentielles.
Depuis 2016, Qwant s’appuie partiellement sur la technologie de Bing pour fournir ses résultats de recherche. C’est dans le cadre de cette relation commerciale que sont nés les différends. Qwant reprochait à Microsoft d’abuser de sa position dominante et de maintenir une situation de dépendance économique à son égard.
Les griefs portaient sur plusieurs points : des pratiques d’exclusivité et de ventes liées, des restrictions empêchant le développement d’un modèle d’intelligence artificielle, et une discrimination dans l’accès aux services de publicité en ligne.
Pour comprendre cette affaire, il faut saisir le fonctionnement du marché des moteurs de recherche. Lorsqu’un internaute effectue une recherche, il obtient deux types de résultats : les résultats algorithmiques classés par pertinence, et les résultats payants sélectionnés via un système d’enchères.
Hormis Google et Microsoft, la plupart des moteurs de recherche doivent acquérir ces résultats dans le cadre de contrats de syndication via leurs offres Google Ads et Microsoft Advertising qui dominent le secteur de la publicité liée aux recherches.
Pas de preuves suffisantes selon l’Autorité
L’Autorité de la concurrence a estimé que Qwant n’apportait pas de preuves suffisantes pour démontrer la position dominante de Microsoft sur le marché de la syndication de résultats de recherche.
Premier élément déterminant : Google propose également des services de syndication. Surtout, la Commission européenne considère que Google détient une position ultradominante sur le marché de la publicité en ligne liée aux recherches. Cette prééminence de Google exerce une pression concurrentielle importante sur Microsoft, rendant improbable une position dominante de ce dernier sur le marché de la syndication.
Concernant la dépendance économique alléguée, l’Autorité reconnaît que Microsoft représente une part importante du chiffre d’affaires de Qwant. Cependant, les autres critères ne sont pas réunis. La notoriété de Bing reste relative face à celle de Google. Par ailleurs, Qwant dispose de capacités de recherche propres et est même le seul moteur autorisé contractuellement par Microsoft à développer sa propre technologie dans ce cadre.
Un élément factuel a particulièrement pesé dans la décision : en juin 2025, Qwant a lancé avec Ecosia une offre de syndication basée sur leur propre technologie de recherche, European Search Perspective. Cette initiative démontre que des alternatives existent.
L’Autorité a également examiné en détail chacune des pratiques dénoncées par Qwant. Pour l’exclusivité d’approvisionnement en publicités, la vente liée de résultats organiques et payants, la discrimination dans l’accès à la publicité, et les restrictions sur l’intelligence artificielle, elle a conclu qu’aucun élément suffisamment probant ne soutenait ces accusations.
Wallix, spécialiste de la sécurisation des identités et des accès rachète Malizen, spécialisée dans l’analyse comportementale des utilisateurs grâce à l’intelligence artificielle. L’opération, d’une valeur de 1,6 million € va renforcer les capacités d’analyse proactive et de détection de menaces au sein des solutions du groupe.
Basée à Rennes au cœur du Pôle d’excellence cyber, Malizen est issue de travaux de recherche menés à l’Inria et de l’Université de Rennes 1, sous la direction de son fondateur Christopher Humphries. Sa technologie, dite de User Behaviour Analytics, repose sur l’analyse du comportement des utilisateurs -humains et machines – pour identifier les anomalies et anticiper les cyberattaques.
Wallix prévoit d’intégrer ces capacités dès 2026 dans ses suites logicielles IAM (Identity and Access Management) et PAM (Privileged Access Management) pour renforcer la résilience des infrastructures IT et OT de ses clients.
Le rapprochement doit permettre à Wallix d’adresser plus efficacement plusieurs segments de marché : les grands comptes confrontés à des volumes d’accès élevés, les entreprises industrielles soucieuses d’autonomie stratégique et les MSP cherchant à renforcer leur capacité d’analyse à grande échelle.
Inria, l’Institut national de recherche en sciences et technologies du numérique, et Doctolib vont collaborer pour développer des modèles d’intelligence artificielle cliniques fiables et souverains dans le secteur de la santé, indiquent les deux acteurs.
Première étape : la création d’une équipe de recherche réunissant doctorants, postdoctorants et ingénieurs de recherche des deux organisations pour travailler sur plusieurs axes stratégiques.
Quatre axes de recherche prioritaires
Elle travaillera sur le développement d’une IA médicale de confiance, notamment la protection des données, la transparence et le respect du patient. Les chercheurs s’attacheront à créer des systèmes capables de suivre le raisonnement médical en comprenant les liens de cause à effet, en croisant symptômes, historique médical, contexte de vie et connaissances médicales pour estimer l’état de santé et son évolution.
Un troisième axe concerne le choix des meilleures actions de santé personnalisées, qu’il s’agisse de dépistages, vaccins ou changements de mode de vie. Cela nécessite des systèmes de raisonnement causal capables d’apprendre de données réelles tout en tenant compte des risques, coûts et préférences individuelles.
Enfin, l’équipe travaillera sur des systèmes capables de motiver durablement les changements de comportement en accompagnant les patients dans la durée, en s’adaptant à leur psychologie et leurs contraintes.
Deux projets en cours
L’équipe a débuté ses travaux sur deux sujets spécifiques. Le premier vise à optimiser le parcours de soins des patients en développant un modèle génératif capable de recommander des séquences optimales d’actions cliniques, afin de réduire l’errance médicale et améliorer la pertinence des soins.
Le second projet concerne l’établissement de diagnostics cliniques assistés par IA. L’équipe développe des méthodes pour quantifier l’incertitude des hypothèses diagnostiques et les faire évaluer par des praticiens sur des cas réels, l’IA restant un outil d’aide sans remplacer le jugement clinique.
Selon François Cuny, Directeur Général Délégué à l’Innovation chez Inria, ce partenariat s’inscrit dans une volonté de renforcer la collaboration entre Inria et les industriels français dans le secteur de la santé, en montant des projets communs, en soutenant les dynamiques entrepreneuriales et en attirant les meilleurs talents internationaux.
« Avec Inria et d’autres instituts de recherche de référence, nous construisons un laboratoire commun vers un système général d’intelligence médicale. Nous visons à créer en France, en Allemagne et en Europe un écosystème ouvert et collaboratif dans lequel les institutions publiques et privées pourront réaliser des avancées cliniques en IA pour améliorer la santé des personnes et celle des professionnels de santé.» explique Stanislas Niox-ChateauStanislas Niox-Chateau, le CEO, sur son compte LinkedIn.
Non, Gemini 3 Pro n’est pas partout dans l’écosystème Google. Mais tout de même…
Le groupe américain a été remarquablement prompt à intégrer ce modèle dans ses services. Jusqu’à son moteur de recherche, au niveau du « mode IA ». Initialement aux États-Unis, pour les abonnés Google AI Pro et Ultra. Lesquels auront aussi une avant-première sur le routage automatique des requêtes vers le modèle adéquat.
Un modèle aux réponses plus interactives
Avec Gemini 3 Pro arrivent les « UI génératives ». Le modèle peut, en réponse à des requêtes, afficher une vue de type magazine (visual layout) voire coder un canevas interactif (dynamic view).
Cette capacité n’est pas disponible que dans Google Search. Elle l’est aussi dans l’application Gemini. Le modèle y est accessible pour tous les utilisateurs. Il s’accompagne d’une nouvelle fonctionnalité Gemini Agent, réservée pour le moment aux abonnés AI Ultra. Inspirée de Project Mariner (agent autonome pour la navigation web), elle orchestre les tâches à plusieurs étapes en lien avec les services Google.
Antigravity, vitrine pour le codage agentique
Google a également fait place nette à Gemini 3 Pro dans ses outils développeurs*. Parmi eux, un nouveau venu : Antigravity. Cet IDE est disponible en preview sur Windows, Mac et Linux. À l’interface d’édition de code, il en associe une autre : un centre de contrôle d’agents, articulé en espaces de travail, avec une messagerie centralisée. Sur cette UI, pas de code : les agents produisent des « artefacts » (listes de tâches, plans d’implémentation, résumés des actions réalisées) sur lesquels l’utilisateur peut donner son feed-back sans que l’exécution soit interrompue. Gemini 3 Pro peut faire office de modèle principal – comme Claude Sonnet 4.5 et GPT-OSS – avec deux modes de pensée : dynamique/élevée (high) ou faible (low).
Des niveaux de vision en plus des niveaux de pensée
On retrouve ce réglage – en attendant une option medium supplémentaire – sur l’API Gemini, avec le paramètre thinking_level. Il n’est pas spécifique à Gemini 3 Pro, au contraire du paramètre media-resolution. Celui-ci détermine le nombre maximal de tokens alloués à la vision. Il se règle pour chaque média entrant ou de façon globale. S’il n’est pas défini, des valeurs par défaut sont utilisées (1120 tokens par image, 560 par page de PDF, 70 par frame de vidéo ou 280 pour les vidéos qui contiennent beaucoup de texte).
La tarification de Gemini 3 Pro sur l’API Gemini :
En entrée : 2 $ par million de tokens pour les requêtes de moins de 200 000 tokens (4 $ sinon)
En sortie : 12 $ par million de tokens pour les requêtes de moins de 200 000 tokens (18 $ sinon)
Mise en cache du contexte : 0,20 $ par million de tokens pour les requêtes de moins de 200 000 tokens (0,40 $ sinon) ; stockage : 4,50 $/heure par million de tokens
Ancrage Google Search (pas encore disponible) : 5000 requêtes gratuites, puis 14 $ les 1000
Pour rappel, Gemini 2.5 Pro est respectivement à 1,25 et 2,50 $ en entrée ; à 10 et 15 $ en sortie.
Au niveau 1 de l’API, les limites sont à 50 requêtes par minute, 1000 tokens par minute et 1000 requêtes par jour.
Au niveau 2 (au moins 250 $ dépensés), elles montent à 1000 RPM, 5 millions de TPM et 50 000 RPJ. Au niveau 3 (au moins 1000 $), on passe à 2000 RPM et 8 millions de TPM, sans plafond quotidien de requêtes.
Gemini 3 Pro a aussi un mode image, à 2 $ par million de tokens en entrée (texte/image) ; et, en sortie, 12 $ (texte/réflexion) ou 120 $ (images). Il est diffusé dans les produits Google sous la marque Nano Banana Pro (dans la lignée de Nano Banana, fondé sur Gemini 2.5 Flash).
Des éloges… notamment sur le codage
Nano Banana Pro semble avoir plu à Andrej Karpathy, membre fondateur d’OpenAI et ancien directeur de l’IA de Tesla. L’intéressé dit avoir plus globalement une impression positive sur Gemini 3 Pro, entre personnalité, humour, écriture et vibe coding.
Gemini Nano Banana Pro can solve exam questions *in* the exam page image. With doodles, diagrams, all that.
ChatGPT thinks these solutions are all correct except Se_2P_2 should be « diselenium diphosphide » and a spelling mistake (should be « thiocyanic acid » not « thoicyanic »)
Marc Benioff, le patron de Salesforce, s’est montré plus emphatique – à son habitude : il ne « reviendra pas en arrière ».
Holy shit. I’ve used ChatGPT every day for 3 years. Just spent 2 hours on Gemini 3. I’m not going back. The leap is insane — reasoning, speed, images, video… everything is sharper and faster. It feels like the world just changed, again. https://t.co/HruXhc16Mq
Gemini 3 created this playable maze in just three prompts
First, it created a top down Gemini maze, and then we asked it to build an app that allows me to upload a pixel maze, and turn it into a playable Three JS scene.
Ces capacités ne font pas l’unanimité, cependant. Les témoignages dans la communauté Cursor l’illustrent. On y pointe notamment un taux d’hallucinations important et une difficulté à suivre les instructions, en dépit d’aptitudes notables pour la planification, entre autres face à OpenAI Codex. Le phénomène apparaît, selon certains, moins prononcé dans Antigravity.
Divers retours sur le subreddit Gemini mettent pareillement en lumière les hallucinations de Gemini 3 Pro. Par exemple :
Confusion de deux offres d’emploi que le modèle devait analyser
Attribution répétée des caractéristiques d’un personnage à un autre lors d’une session d’écriture créative
Invention de variables sur un exercice visant à créer des outputs basés sur des combinaisons de 4 variables
Gemini 3 Pro est très utile… lorsqu’il vous écoute, résume un utilisateur à propos du suivi des instructions. Il n’est pas seul à constater que le modèle a parfois tendance à l’arbitraire.
D’autres évoquent une certaine paresse, préjudiciable en particulier à l’écriture créative. Le reflet, en quelque sorte, des promesses de Google : un modèle « concis » et « direct », « sans clichés ni flatterie »…
L’effet benchmark
Au-delà des performances que communique Google, Gemini 3 Pro se distingue sur le benchmark LMArena. Il s’est hissé en tête du classement sur plusieurs évaluations. Au dernier pointage :
Texte : 1492 points (contre 1482 pour Grok 4.1 Thinking et 1466 pour Claude Opus 4.5)
Vision : 1324 points (contre 1249 pour Gemini 2.5 Pro et 1237 pout GPT-4o)
Génération d’images : 1242 points (contre 1161 pour Hunyan Image 3.0 de Tencent et 1158 pour Gemini 2.5 Flash)
Édition d’images : 1371 points (contre 1330 pour Gemini 2.5 Flash et 1311 pour Seedream 4 de ByteDance)
Les performances de Gemini 3 Pro sont notables sur un autre benchmark : ARC-AGI-2. Celui-ci se focalise sur les connaissances qui sont « innées » chez l’humain ou acquises très tôt dans la vie. Ainsi, il n’inclut par exemple pas de tâches touchant aux langues, qui sont des acquis culturels. Cette approche est censée illustrer les capacités de généralisation. Elle implique, entre autres, des exercices d’interprétation symbolique (comprendre la signification de symboles visuels) et de raisonnement compositionnel (application simultanée de plusieurs règles interdépendantes).
Gemini 3 Pro Deep Think atteint, sur ARC-AGI-2, un score de 45,1 %, pour un coût de 77,16 $ par tâche. L’écart est net avec Claude Opus 4.5 Thinking : qui est toutefois moins onéreux : 37,6 % et 2,40 $ par tâche en 64k ; 30,6 % et 1,29 $ par tâche en 32k ; 22,8 % et 0,79 $ par tâche en 16k. Suivent GPT-5 Pro (18,3 % et 7,14 $ par tâche) et Grok 4 Thinking (16 % et 2,17 $ par tâche).
Congrats to Google on Gemini 3! Looks like a great model.
* Gemini 3 Pro est aussi disponible dans la dernière version d’Android Studio (y compris en usage gratuit), dans les SDK Firebase AI Logic (abonnement Blaze ; pas encore possible de régler le niveau de raisonnement) et dans le CLI Gemini (abonnement Ultra et clés d’API Gemini ; à venir dans Gemini Code Assist Enterprise ; liste d’attente pour les autres utilisateurs). Ainsi que dans divers services tiers (Cursor, GitHub, JetBrains, Manus, Replit…).
Entre États membres de l’UE, le principe de minimisation des données peut être diversement interprété.
Le projet HealthData@EU Pilot, destiné à poser les jalons du futur Espace européen de données de santé (EHDS, European Health Data Space), en a fait l’expérience. En particulier sur l’un des 5 cas d’usages qu’il a explorés entre 2022 et 2024. Il s’agissait de créer des modèles prédisant le risque de développer des maladies cardio-vasculaires à partir des historiques de parcours de soins.
Quatre pays ont été impliqués : Danemark, Finlande, Norvège… et France, avec un nœud localisé à l’université de Bordeaux.
En Norvège, des inquiétudes furent soulevées quant au risque de réidentification de personnes, vu la quantité et le niveau de détail des variables demandées. En conséquence, il a été décidé de se passer de dates exactes et de réduire la granularité de codes de diagnostic.
En France, la CNIL a considéré qu’accéder à des données concernant l’ensemble de la population n’était pas justifié par le cas d’usage. Elle a demandé que l’échantillon soit limité à 12 millions d’individus, soit le plus gros volume que le Health Data Hub (français) avait exploité jusque-là pour une étude.
Les problèmes d’accès aux données ont contribué à l’allongement du projet HealthData@EU Pilot, qui devait à l’origine s’échelonner sur 2 ans. Au-delà des interprétations divergentes du principe de minimisation, les exigences concernant les documents à soumettre étaient variables. La diversité des statuts des acteurs impliqués n’a pas aidé. Tout comme l’absence de processus clairs pour encadrer l’accès de certains organismes de santé à des données ne relevant pas de ce domaine (données socio-économiques, par exemple).
Ces jalons posés, le développement de l’EHDS se poursuit, avec une feuille de route jusqu’à début 2027, à raison d’une release tous les 4 mois environ.
L’infrastructure doit connecter 3 catégories de participants :
Les États membres, dont chacun désigne un point de contact national (qui établit un catalogue national de métadonnées) et nomme un ou plusieurs organismes chargés d’examiner les demandes d’accès aux données de santé
Les institutions, organismes et agences de l’UE, représentés par un service de la Commission européenne (l’UHDAS, Union Health Data Access Service) qui a lui aussi un rôle d’examinateur de demandes
D’autres participants autorisés (consortiums d’infrastructure numérique ou de recherche, organisations internationales…)
Au cœur de l’infrastructure EHDS est la plate-forme centrale, qui agrège les métadonnées des catalogues nationaux. Elle est hébergée sur AWS, exploitant, entre autres services, EFS (stockage fichier), KMS (chiffrement), ECR (registre de conteneurs), OpenSearch et DocumentDB.
Le demandes d’accès sont soumises par l’intermédiaire de la plate-forme centrale, avec un formulaire commun. Les échanges reposent sur eDelivery – implémentation du protocole de messagerie AS4 qui constitue aujourd’hui un « bloc de base » de l’Europe numérique.
DCAT-AP, Piveau-Hub, Simpl… Des briques européennes pour structurer l’EHDS
Pour harmoniser la description des datasets, a été développée une extension de la spécification DCAT-AP. Cette dernière se base sur un standard W3C (l’ontologie RDF Data Catalogue Vocabulary). Elle alimente quantité de portails de données de l’Union européenne. Il en existe d’autres extensions, par exemple pour les données statistiques et les données géographiques.
Pour assurer l’interopérabilité avec les autres data spaces européens, une autre brique financée par la Commission européenne est mise à contribution : le middlewareSimpl. Il a déjà été expérimenté dans le cadre d’un projet qui associait l’EHDS et 5 autres data spaces européens (marchés publics, données linguistiques, Destination Earth, etc.).
D’autres briques européennes portent l’EHDS, dont EU Login (authentification ; avec Keycloak pour l’autorisation), eTranslation (traduction machine), Europa Analytics, Corporate Notification Service et Interoperability Test Bed (tests de conformité). Le catalogue de métadonnées s’appuie sur Piveau-Hub, dont l’interface a été adaptée aux guidelines de l’ECL (Europa Component Library).
L’estimation des coûts et les indicateurs de qualité des datasets seront pour 2026
Depuis la v4, sortie en mai 2025, l’UI est multilingue (toutes les langues officielles de l’UE + norvégien et islandais, sur l’ensemble des contenus statiques).
La v5 (septembre 2025) a ajouté la possibilité de demander l’accès partiel à un jeu de données. Elle a aussi introduit un back-end Drupal pour la gestion du contenu statique, un explorateur de spec HealthDCAT-AP, un assistant de description de datasets et une traduction automatique des jeux de données entrants et des demandes.
Avec la v6 (janvier 2026), il est prévu de pouvoir réceptionner, sur la plate-forme centrale, les mises à jour du statut des demandes. Un registre européen des décisions d’accès est également dans les cartons, ainsi que la possibilité de demander la modification d’une autorisation d’accès comme de faire appel d’une décision négative.
La v7 (mai 2026) est censée permettre d’appliquer des contraintes de temps sur des statuts spécifiques. Ainsi que de calculer les frais associés à des demandes. Doit par ailleurs y être adjoint un registre des sanctions et pénalités infligées.
Un indicateur de qualité et d’utilité des datasets est sur la roadmap pour la v8 (septembre 2026). Même chose pour l’assignation de rôles d’autorisation spécifiques au sein d’une organisation.
L’EHDS est architecturé en microservices avec API REST. OpenSearch est utilisé pour indexer les données (un éditeur de requêtes SPARQL est disponible sur la plate-forme centrale) ; PostgreSQL, pour stocker les statistiques ; MongoDB, pour conserver les informations sur les fichiers uploadés.
Alors qu’OpenAI caracole en tête des valorisations technologiques, le modèle financier du géant de l’intelligence artificielle révèle un appétit gargantuesque pour les centres de données.
Selon une analyse approfondie de l’équipe logicielle et services américains de HSBC, citée par le Financial Times, l’entreprise se dirige vers un déficit de financement cumulé de 207 milliards $ d’ici 2030. En cause : ses engagements massifs en matière de calcul.
Des coûts de calcul vertigineux
Le point de départ de l’analyse de HSBC réside dans la prise en compte des récents accords de location de « cloud compute » : 250 milliards $ auprès de Microsoft et 38 milliards $ auprès d’Amazon. Des transactions portent la puissance de calcul totale sous contrat à 36 gigawatts.
Basée sur une valeur cumulée totale des accords pouvant atteindre 1800 milliards $ , la facture annuelle de location de centres de données d’OpenAI pourrait grimper à environ 620 milliards $. Bien que seul un tiers de cette capacité soit attendu en ligne d’ici la fin de la décennie, les analystes de HSBC anticipent des coûts de location cumulés de 792 milliards $ entre aujourd’hui et 2030, un chiffre qui atteindrait 1400 milliards $ d’ici 2033.
Un modèle de revenus hyper-agressif
Pour estimer la capacité d’OpenAI à honorer ces dettes, HSBC a dû bâtir un modèle de prévision de revenus extrêmement optimiste. Trois hypothèses projettent une croissance exponentielle :
> Explosion de la base d’utilisateurs. Le nombre d’utilisateurs devrait atteindre 3 milliards d’ici 2030, soit l’équivalent de 44 % de la population adulte mondiale hors Chine (contre environ 800 millions actuellement).
> Ubiquité des abonnements . Les abonnements aux grands modèles de langage (LLM) sont appelés à devenir « aussi omniprésents et utiles que Microsoft 365 ». HSBC modélise que 10 % des utilisateurs d’OpenAI deviendront payants d’ici 2030, contre une estimation actuelle de 5 %.
> Diversification des recettes. Outre les abonnements, de nouveaux vecteurs de croissance comme la publicité, l’IA agentique et potentiellement le projet Jony Ive devraient émerger. Les sociétés éditrices de LLM sont ainsi supposées capter 2 % du marché de la publicité numérique d’ici la fin de la décennie.
HSBC anticipe que le marché de l’IA grand public générera 129 milliards $ de revenus annuels d’ici 2030 (dont 56 % pour OpenAI) et que l’IA d’entreprise atteindra 386 milliards $ (dont 37 % pour OpenAI).
Un déficit de financement de 207 milliards $
Malgré cette croissance fulgurante, l’augmentation parallèle des coûts signifie qu’OpenAI devrait continuer à subventionner ses utilisateurs bien au-delà de la prochaine décennie. C’est dans ce contexte que se creuse l’énorme besoin de financement.
La synthèse financière de HSBC pour la période cumulée jusqu’en 2030 est la suivante :
Éléments financiers (cumulé 2023-2030)
Montant (en milliards $ )
Coûts de location des centres de données
792
Flux de trésorerie disponible (Free Cash Flow)
282
Autres injections de capitaux (Nvidia, AMD)
26
Total des entrées de liquidités
308
Déficit brut de financement (Coûts – Entrées)
-484
*Le déficit final est estimé à 207 Mds $ après intégration des facilités de dette et liquidités disponibles.
En incluant les facilités de dette et de capitaux propres non tirées (24 milliards $) et les liquidités disponibles (17,5 milliards $ mi-2025), le modèle de HSBC aboutit à un déficit de financement de 207 milliards $, auquel les analystes ajoutent une réserve de trésorerie de 10 milliards $ portant le besoin total à 217 milliards $.
Une perspective qui reste ultra-optimiste
Face à ces chiffres abyssaux, HSBC pondère en explorant quelques pistes de revenus additionnels. Ainsi, une conversion de 20 % des utilisateurs de ChatGPT en abonnements payants, par exemple, pourrait générer 194 milliards $ de revenus supplémentaires sur la période.
L’hypothèse du scénario du pire, pour OpenAI, pourrait être de renégocier et d’annuler certaines obligations contractuelles liées aux centres de données, compte tenu des relations entremêlées entre les acteurs de l’IA, du cloud et des semi-conducteurs.
Néanmoins, l’analyse de HSBC se veut très optimiste sur le concept de l’IA qui devrait
« pénétrer tous les processus de production » et générer des gains de productivité au niveau mondial.
Elle estime son impact potentiel sur le PIB mondial de plus de 110 000 milliards $. De quoi largement éclipser ce qui est actuellement perçu comme des dépenses en capital (capex) déraisonnables.
L’infrastructure dédiée à l’IA joue plus que jamais le rôle de locomotive pour le secteur technologique. Et Dell en est une parfaite illustration en profitant à plein régime des investissements massifs des « Big Tech » et des startups spécialisées dans la construction de centres de données.
Au cours du troisième trimestre clos le 31 octobre, Dell a enregistré pour 12,3 milliards $ de nouvelles commandes de serveurs IA. Le carnet de commandes (backlog) atteint désormais un niveau record de 18,4 milliards $, les livraisons peinant encore à suivre la cadence des achats.
Le groupe texan, qui intègre les GPU Nvidia dans ses machines, compte parmi ses clients des acteurs comme la startup xAI d’Elon Musk ou CoreWeave. Fort de cette dynamique, Dell anticipe désormais que ses livraisons de serveurs IA généreront 25 milliards $ de revenus sur l’exercice fiscal 2026, contre une estimation précédente de 20 milliards.
Le défi des coûts et des marges
Si le chiffre d’affaires du troisième trimestre (27,01 milliards $) est ressorti très légèrement en deçà du consensus, la rentabilité et les perspectives ont séduit les analystes.
Pour le trimestre en cours, Dell table sur des revenus compris entre 31 et 32 milliards $, bien au-dessus des 27,59 milliards attendus par Wall Street. Et sur l’ensemble de l’année, le groupe a relevé sa fourchette de chiffre d’affaires entre 111,2 et 112,2 milliards $.
La montée en puissance de l’IA s’accompagne toutefois de défis structurels, notamment une inflation rapide du coût des composants, en particulier les mémoires DRAM et NAND. « Nous n’avons jamais vu les coûts évoluer à une telle vitesse », a souligné Jeff Clarke, le directeur des opérations (COO), lors de la conférence avec les analystes.
Malgré ces vents contraires, Dell a démontré sa capacité à protéger sa rentabilité. La marge opérationnelle de sa division infrastructure (incluant les serveurs) s’est établie à 12,4 %, dépassant les estimations de 11,2 %. Dans un marché où la demande excède largement l’offre, le constructeur dispose d’un « pricing power » lui permettant de répercuter une partie de la hausse des coûts sur ses clients finaux.
Du côté de l’activité historique des PC, la reprise reste plus modérée, avec une hausse de 5 % des revenus commerciaux, inférieure aux attentes des analystes.
Quand on a déjà du SAM, à quoi bon acquérir une solution de gestion du SaaS ?
Dans sa synthèse du dernier Magic Quadrant consacré à ce marché, Gartner ne tranche pas la question. Il note néanmoins qu’existe, chez les acheteurs, une forme de « résistance à l’ajout d’un autre outil »…
Ces acheteurs évoluent le plus souvent dans les achats et l’exploitation informatique. Tels sont en tout cas les principaux profils que les fournisseurs ciblent, plutôt que les métiers de la sécurité/conformité IT et de la gestion des actifs informatiques.
Le message communiqué l’an dernier quant à la faible maturité du marché reste d’actualité. Comme le conseil qui en découle : négocier des contrats de 2 ans maximum, vu le manque de garanties sur la viabilité de nombreux offreurs. Cette situation les expose à des acquisitions… y compris par des acteurs du SAM.
De la gestion des contrats aux scores de risque, de nombreuses briques facultatives
D’une année à l’autre, le cahier des charges fonctionnel pour figurer dans ce Magic Quadrant a peu évolué.
Illustration sur la découverte de l’usage du SaaS. Seule l’intégration avec des outils de sécurité a été ajoutée sur la liste des options. Il s’agissait toujours d’en proposer au moins trois, entre celle-ci et :
Extension de navigateur
Agent
Système de gestion financière ou des dépenses
SSO
Outil de gestion des terminaux
Messagerie électronique
OAuth
Connexion API directe
Comme l’an dernier, il fallait assurer un minimum d’orchestration de workflows sans code pour l’automatisation de tâches courantes dont l’onboarding/offboarding employé. Étaient également attendues, sur le volet optimisation des dépenses, des possibilités d’identification des apps redondantes, de révocation/réallocation de licences et – nouveauté – de délégation d’ownership aux métiers hors IT, avec contrôle d’accès basé sur les rôles.
Les intégrations ITSM étaient facultatives. Comme les scores de risque et de conformité, les rapports d’adoption, la gestion des contrats et des fournisseurs, la GenAI pour les admins ou les procédures de traitement des demandes d’applications par les employés.
17 fournisseurs, 5 « leaders »
L’évaluation des fournisseurs s’est faite sur deux axes. L’un prospectif (« vision »), portant sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre centré sur la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).
La situation sur l’axe « exécution » :
Rang
Fournisseur
Évolution annuelle
1
Zylo
=
2
Torii
=
3
Flexera
+ 1
4
BetterCloud
+ 3
5
Zluri
– 2
6
1Password
+ 3
7
Lumos
– 1
8
ServiceNow
– 3
9
Calero
+ 1
10
CloudEagle.ai
+ 2
11
Auvik
nouvel entrant
12
USU
– 1
13
Axonius
nouvel entrant
14
Josys
=
15
Corma
nouvel entrant
16
Viio
nouvel entrant
17
MegaZoneCloud
nouvel entrant
Sur l’axe « vision » :
Rang
Fournisseur
Évolution annuelle
1
Zylo
=
2
Torii
=
3
BetterCloud
+ 1
4
Flexera
+ 2
5
Zluri
– 2
6
Lumos
– 1
7
Calero
+ 3
8
1Password
+ 1
9
CloudEagle.ai
+ 3
10
ServiceNow
– 1
11
Viio
nouvel entrant
12
Josys
+ 1
13
Axonius
nouvel entrant
14
Auvik
nouvel entrant
15
USU
– 4
16
Corma
nouvel entrant
17
MegaZoneCloud
nouvel entrant
L’an dernier, trois fournisseurs étaient classés « leaders » : Torii, Zluri et Zylo. Ils le restent, rejoints par BetterCloud et Flexera.
FinQuery et Oomnitza ont disparu des radars, ne vendant plus de plate-forme autonome de gestion du SaaS. Productiv aussi est sorti, parce qu’il ne respectait pas complètement le critère d’orchestration de workflows. Quant à Trelica, il a été acquis par 1Password (que nous ne signalons ainsi pas, dans les tableaux ci-dessus, comme un nouvel entrant).
Les « leaders » mis à part, la quasi-totalité des offreurs sont dans la catégorie « acteurs de niche », témoin de la faible maturité du marché.
Plage de support limitée chez BetterCloud
BetterCloud se distingue par son adaptation à l’évolution des besoins. Les acquisitions de G2 Track et de Tricent ont enrichi son offre, respectivement sur la gestion des dépenses et la gouvernance du partage de fichiers. Gartner salue aussi un ciblage efficace des acheteurs IT, finance et sécurité, avec une stratégie de ristournes flexible. Bon point également pour la cadence de livraison de nouvelles fonctionnalités.
BetterCloud ne permet pas de choisir la localisation des données et n’assure de support que du lundi au vendredi entre 8 heures et 20 heures (heure de l’Est*). Sa tarification est plus élevée que la moyenne du marché (modèle à trois niveaux et module complémentaire pour la gouvernance). Gartner note aussi l’absence d’extension de navigateur pour la découverte de l’usage du SaaS.
Flexera n’a pas fini d’intégrer Snow Software
Flexera bénéficie d’une présence physique mondiale (États-Unis, Canada, Brésil, Royaume-Uni, Suède, Australie, Inde) et d’un réseau d’intégrateurs étendu. Gartner apprécie sa capacité de ciblage commercial, tant d’un point de vue sectoriel que géographique. Ainsi que ses prix, généralement plus bas que chez la concurrence et assortis d’une politique de ristournes flexible. Bon point également pour le marketing, qui, entre webinaires et événements physiques, alimente la notoriété de Flexera, y compris sur le SAM.
En attendant que soit finalisée l’intégration de Snow Software, Flexera ne propose pas de moyen de mesurer ou de stimuler l’adoption du SaaS. Gartner signale aussi l’inconsistance du support et de la qualité des partenaires intégrateurs. Il y ajoute le nombre limité d’intégrations directes par API.
La résidence des données, absente chez Torii…
Torri est crédité d’un bon point pour son recueil du feed-back, et par là même pour sa roadmap. Il l’est aussi pour sa cadence de livraison d’améliorations fonctionnelles. Et pour sa tendance à « anticiper » le besoi. En tout cas à introduire des capacités avant que la demande soit généralisée. Gartner en veut pour preuve l’usage de la GenAI pour, entre autres, traiter les contrats, enrichir les profils d’applications et concevoir des automatisations.
Comme chez BetterCloud, pas de choix de l’emplacement des données (Amérique du Nord uniquement). Si le licensing est flexible, Torii propose, avec son niveau Enterprise, l’une des offres les plus onéreuses de tout le Magic Quadrant. Plus « petit » que les autres « leaders », il n’a pas la même capacité pour passer à l’échelle ses équipes commerciales.
… et coûteuse chez Zluri
La tarification de base de Zluri est parmi les plus avantageuses du Magic Quadrant et elle s’assortit d’une stratégie intéressante de remise sur volume. Comme chez Flexera, le marketing est jugé efficace. L’intégration de l’IA l’est aussi (traitement des contrats, analyse de l’activité des utilisateurs, dimensionnement des licences…), d’autant plus qu’elle favorise la prise en main de la solution.
Zluri permet de choisir la localisation des données… mais c’est plus cher (le prix dépend, en particulier, de la taille de l’entreprise et du volume de données). Les avis sont de plus variés quant à la qualité du support et à l’efficacité de la solution. Par ailleurs, les éléments qui figurent en tête de la feuille n’apparaissent pas alignés sur les principales demandes des clients.
Avec Zylo, des coûts potentiellement difficiles à prévoir
Bon point marketing pour Zylo également, de son podcast et sa chaîne YouTube à son SaaS Management Index annuel. Gartner salue aussi la qualité de l’expérience client, entre customer success managers et méthodes de maximisation de la valeur. Il note aussi l’enrichissement de la bibliothèque d’applications (chacune incluant des informations financières, fonctionnels et de risque) et les capacités « exhaustives » de mesure d’adoption.
Chez Zylo, les données sont localisées exclusivement en Amérique du Nord. Et le personnel, exclusivement aux États-Unis (élément à prendre d’autant plus en compte dans le contexte géopolitique que l’on connaît). Vigilance aussi sur la tarification : il peut être difficile de la comprendre… et de prévoir les coûts. À noter également l’absence d’approche sectorielle sauf pour gouvernements et pharma.
* Fuseau horaire du Québec et de New York, entre autres. 6 heures de décalage avec Paris.