Vue normale

Trois ans après, que devient le Health Data Hub européen ?

26 novembre 2025 à 13:12

Entre États membres de l’UE, le principe de minimisation des données peut être diversement interprété.

Le projet HealthData@EU Pilot, destiné à poser les jalons du futur Espace européen de données de santé (EHDS, European Health Data Space), en a fait l’expérience. En particulier sur l’un des 5 cas d’usages qu’il a explorés entre 2022 et 2024. Il s’agissait de créer des modèles prédisant le risque de développer des maladies cardio-vasculaires à partir des historiques de parcours de soins.

Quatre pays ont été impliqués : Danemark, Finlande, Norvège… et France, avec un nœud localisé à l’université de Bordeaux.
En Norvège, des inquiétudes furent soulevées quant au risque de réidentification de personnes, vu la quantité et le niveau de détail des variables demandées. En conséquence, il a été décidé de se passer de dates exactes et de réduire la granularité de codes de diagnostic.
En France, la CNIL a considéré qu’accéder à des données concernant l’ensemble de la population n’était pas justifié par le cas d’usage. Elle a demandé que l’échantillon soit limité à 12 millions d’individus, soit le plus gros volume que le Health Data Hub (français) avait exploité jusque-là pour une étude.

Les problèmes d’accès aux données ont contribué à l’allongement du projet HealthData@EU Pilot, qui devait à l’origine s’échelonner sur 2 ans. Au-delà des interprétations divergentes du principe de minimisation, les exigences concernant les documents à soumettre étaient variables. La diversité des statuts des acteurs impliqués n’a pas aidé. Tout comme l’absence de processus clairs pour encadrer l’accès de certains organismes de santé à des données ne relevant pas de ce domaine (données socio-économiques, par exemple).

Le cœur fonctionnel hébergé sur AWS

Le bilan des cas d’usage fut livré en décembre 2024. Le document d’architecture l’avait été en novembre.

Ces jalons posés, le développement de l’EHDS se poursuit, avec une feuille de route jusqu’à début 2027, à raison d’une release tous les 4 mois environ.

L’infrastructure doit connecter 3 catégories de participants :

  • Les États membres, dont chacun désigne un point de contact national (qui établit un catalogue national de métadonnées) et nomme un ou plusieurs organismes chargés d’examiner les demandes d’accès aux données de santé
  • Les institutions, organismes et agences de l’UE, représentés par un service de la Commission européenne (l’UHDAS, Union Health Data Access Service) qui a lui aussi un rôle d’examinateur de demandes
  • D’autres participants autorisés (consortiums d’infrastructure numérique ou de recherche, organisations internationales…)

Au cœur de l’infrastructure EHDS est la plate-forme centrale, qui agrège les métadonnées des catalogues nationaux. Elle est hébergée sur AWS, exploitant, entre autres services, EFS (stockage fichier), KMS (chiffrement), ECR (registre de conteneurs), OpenSearch et DocumentDB.

Le demandes d’accès sont soumises par l’intermédiaire de la plate-forme centrale, avec un formulaire commun. Les échanges reposent sur eDelivery – implémentation du protocole de messagerie AS4 qui constitue aujourd’hui un « bloc de base » de l’Europe numérique.

DCAT-AP, Piveau-Hub, Simpl… Des briques européennes pour structurer l’EHDS

Pour harmoniser la description des datasets, a été développée une extension de la spécification DCAT-AP. Cette dernière se base sur un standard W3C (l’ontologie RDF Data Catalogue Vocabulary). Elle alimente quantité de portails de données de l’Union européenne. Il en existe d’autres extensions, par exemple pour les données statistiques et les données géographiques.

Pour assurer l’interopérabilité avec les autres data spaces européens, une autre brique financée par la Commission européenne est mise à contribution : le middleware Simpl. Il a déjà été expérimenté dans le cadre d’un projet qui associait l’EHDS et 5 autres data spaces européens (marchés publics, données linguistiques, Destination Earth, etc.).

D’autres briques européennes portent l’EHDS, dont EU Login (authentification ; avec Keycloak pour l’autorisation), eTranslation (traduction machine), Europa Analytics, Corporate Notification Service et Interoperability Test Bed (tests de conformité). Le catalogue de métadonnées s’appuie sur Piveau-Hub, dont l’interface a été adaptée aux guidelines de l’ECL (Europa Component Library).

L’estimation des coûts et les indicateurs de qualité des datasets seront pour 2026

Depuis la v4, sortie en mai 2025, l’UI est multilingue (toutes les langues officielles de l’UE + norvégien et islandais, sur l’ensemble des contenus statiques).

La v5 (septembre 2025) a ajouté la possibilité de demander l’accès partiel à un jeu de données. Elle a aussi introduit un back-end Drupal pour la gestion du contenu statique, un explorateur de spec HealthDCAT-AP, un assistant de description de datasets et une traduction automatique des jeux de données entrants et des demandes.

Avec la v6 (janvier 2026), il est prévu de pouvoir réceptionner, sur la plate-forme centrale, les mises à jour du statut des demandes. Un registre européen des décisions d’accès est également dans les cartons, ainsi que la possibilité de demander la modification d’une autorisation d’accès comme de faire appel d’une décision négative.

La v7 (mai 2026) est censée permettre d’appliquer des contraintes de temps sur des statuts spécifiques. Ainsi que de calculer les frais associés à des demandes. Doit par ailleurs y être adjoint un registre des sanctions et pénalités infligées.

Un indicateur de qualité et d’utilité des datasets est sur la roadmap pour la v8 (septembre 2026). Même chose pour l’assignation de rôles d’autorisation spécifiques au sein d’une organisation.

L’EHDS est architecturé en microservices avec API REST. OpenSearch est utilisé pour indexer les données (un éditeur de requêtes SPARQL est disponible sur la plate-forme centrale) ; PostgreSQL, pour stocker les statistiques ; MongoDB, pour conserver les informations sur les fichiers uploadés.

Illustration © your123 – Adobe Stock

The post Trois ans après, que devient le Health Data Hub européen ? appeared first on Silicon.fr.

Pourquoi OpenAI doit trouver 207 milliards $ pour survivre, selon HSBC

26 novembre 2025 à 11:56

Alors qu’OpenAI caracole en tête des valorisations technologiques, le modèle financier du géant de l’intelligence artificielle révèle un appétit gargantuesque pour les centres de données.

Selon une analyse approfondie de l’équipe logicielle et services américains de HSBC, citée par le Financial Times, l’entreprise se dirige vers un déficit de financement cumulé de 207 milliards $ d’ici 2030. En cause : ses engagements massifs en matière de calcul.

Des coûts de calcul vertigineux

Le point de départ de l’analyse de HSBC réside dans la prise en compte des récents accords de location de « cloud compute » : 250 milliards $ auprès de Microsoft et 38 milliards $ auprès d’Amazon. Des transactions portent la puissance de calcul totale sous contrat à 36 gigawatts.

Basée sur une valeur cumulée totale des accords pouvant atteindre 1800 milliards $ , la facture annuelle de location de centres de données d’OpenAI pourrait grimper à environ 620 milliards $. Bien que seul un tiers de cette capacité soit attendu en ligne d’ici la fin de la décennie, les analystes de HSBC anticipent des coûts de location cumulés de 792 milliards $ entre aujourd’hui et 2030, un chiffre qui atteindrait 1400 milliards $ d’ici 2033.

Un modèle de revenus hyper-agressif

Pour estimer la capacité d’OpenAI à honorer ces dettes, HSBC a dû bâtir un modèle de prévision de revenus extrêmement optimiste. Trois hypothèses projettent une croissance exponentielle :

> Explosion de la base d’utilisateurs.
Le nombre d’utilisateurs devrait atteindre 3 milliards d’ici 2030, soit l’équivalent de 44 % de la population adulte mondiale hors Chine (contre environ 800 millions actuellement).

> Ubiquité des abonnements .
 Les abonnements aux grands modèles de langage (LLM) sont appelés à devenir « aussi omniprésents et utiles que Microsoft 365 ». HSBC modélise que 10 % des utilisateurs d’OpenAI deviendront payants d’ici 2030, contre une estimation actuelle de 5 %.

> Diversification des recettes.
Outre les abonnements, de nouveaux vecteurs de croissance comme la publicité, l’IA agentique et potentiellement le projet Jony Ive devraient émerger. Les sociétés éditrices de LLM sont ainsi supposées capter 2 % du marché de la publicité numérique d’ici la fin de la décennie.

HSBC anticipe que le marché de l’IA grand public générera 129 milliards $ de revenus annuels d’ici 2030 (dont 56 % pour OpenAI) et que l’IA d’entreprise atteindra 386 milliards $ (dont 37 % pour OpenAI).

Un déficit de financement de 207 milliards $

Malgré cette croissance fulgurante, l’augmentation parallèle des coûts signifie qu’OpenAI devrait continuer à subventionner ses utilisateurs bien au-delà de la prochaine décennie. C’est dans ce contexte que se creuse l’énorme besoin de financement.

La synthèse financière de HSBC pour la période cumulée jusqu’en 2030 est la suivante :

Éléments financiers (cumulé 2023-2030) Montant (en milliards $ )
Coûts de location des centres de données 792
Flux de trésorerie disponible (Free Cash Flow) 282
Autres injections de capitaux (Nvidia, AMD) 26
Total des entrées de liquidités 308
Déficit brut de financement (Coûts – Entrées) -484
*Le déficit final est estimé à 207 Mds $ après intégration des facilités de dette et liquidités disponibles.

 

En incluant les facilités de dette et de capitaux propres non tirées (24 milliards $) et les liquidités disponibles (17,5 milliards $ mi-2025), le modèle de HSBC aboutit à un déficit de financement de 207 milliards $, auquel les analystes ajoutent une réserve de trésorerie de 10 milliards $ portant le besoin total à 217 milliards $.

Une perspective qui reste ultra-optimiste

Face à ces chiffres abyssaux, HSBC pondère en explorant quelques pistes de revenus additionnels. Ainsi, une conversion de 20 % des utilisateurs de ChatGPT en abonnements payants, par exemple, pourrait générer 194 milliards $ de revenus supplémentaires sur la période.

L’hypothèse du scénario du pire, pour OpenAI, pourrait être de renégocier et d’annuler certaines obligations contractuelles liées aux centres de données, compte tenu des relations entremêlées entre les acteurs de l’IA, du cloud et des semi-conducteurs.

Néanmoins, l’analyse de HSBC se veut très optimiste sur le concept de l’IA qui devrait
« pénétrer tous les processus de production » et générer des gains de productivité au niveau mondial.

Elle estime son impact potentiel sur le PIB mondial de plus de 110 000 milliards $.  De quoi largement éclipser ce qui est actuellement perçu comme des dépenses en capital (capex) déraisonnables.

The post Pourquoi OpenAI doit trouver 207 milliards $ pour survivre, selon HSBC appeared first on Silicon.fr.

Dell dopé par la demande de serveurs IA

26 novembre 2025 à 11:08

L’infrastructure dédiée à l’IA  joue plus que jamais le rôle de locomotive pour le secteur technologique. Et Dell en est une parfaite illustration en profitant à plein régime des investissements massifs des « Big Tech » et des startups spécialisées dans la construction de centres de données.

Au cours du troisième trimestre clos le 31 octobre, Dell a enregistré pour 12,3 milliards $ de nouvelles commandes de serveurs IA. Le carnet de commandes (backlog) atteint désormais un niveau record de 18,4 milliards $, les livraisons peinant encore à suivre la cadence des achats.

Le groupe texan, qui intègre les GPU Nvidia dans ses machines, compte parmi ses clients des acteurs comme la startup xAI d’Elon Musk ou CoreWeave. Fort de cette dynamique, Dell anticipe désormais que ses livraisons de serveurs IA généreront 25 milliards $ de revenus sur l’exercice fiscal 2026, contre une estimation précédente de 20 milliards.

Le défi des coûts et des marges

Si le chiffre d’affaires du troisième trimestre (27,01 milliards $) est ressorti très légèrement en deçà du consensus, la rentabilité et les perspectives ont séduit les analystes.

Pour le trimestre en cours, Dell table sur des revenus compris entre 31 et 32 milliards $, bien au-dessus des 27,59 milliards attendus par Wall Street. Et sur l’ensemble de l’année, le groupe a relevé sa fourchette de chiffre d’affaires entre 111,2 et 112,2 milliards $.

La montée en puissance de l’IA s’accompagne toutefois de défis structurels, notamment une inflation rapide du coût des composants, en particulier les mémoires DRAM et NAND. « Nous n’avons jamais vu les coûts évoluer à une telle vitesse », a souligné Jeff Clarke, le directeur des opérations (COO), lors de la conférence avec les analystes.

Malgré ces vents contraires, Dell a démontré sa capacité à protéger sa rentabilité. La marge opérationnelle de sa division infrastructure (incluant les serveurs) s’est établie à 12,4 %, dépassant les estimations de 11,2 %. Dans un marché où la demande excède largement l’offre, le constructeur dispose d’un « pricing power » lui permettant de répercuter une partie de la hausse des coûts sur ses clients finaux.

Du côté de l’activité historique des PC, la reprise reste plus modérée, avec une hausse de 5 % des revenus commerciaux, inférieure aux attentes des analystes.

The post Dell dopé par la demande de serveurs IA appeared first on Silicon.fr.

❌