La pression monte sur OpenAI. Dans un mémo interne envoyé ce lundi et consulté par le Wall Street Journal, Sam Altman convoque une « alerte rouge » pour améliorer la qualité de ChatGPT. Une décision qui implique de reléguer d’autres projets au second plan, dont le développement de la publicité, des agents IA pour le shopping et la santé, ainsi que Pulse, un assistant personnel produisant des actualités matinales personnalisées.
Ce virage stratégique intervient alors que Google vient de reprendre la main technologique. Le géant de Mountain View vient de lancer son modèle Gemini 3, qui a surpassé le GPT-5 d’OpenAI sur les tests de référence de l’industrie. De son côté, Anthropic, autre rival montant, a également dépassé OpenAI avec son modèle Opus 4.5.
Les chiffres témoignent que la dynamique profite à Google qui affirme que sa base d’utilisateurs actifs mensuels est passée de 450 millions en juillet à 650 millions en octobre, dopée notamment par le lancement d’un générateur d’images en août. Plus révélateur encore : d’après Similarweb, les internautes passent désormais plus de temps à discuter avec Gemini qu’avec ChatGPT, même si OpenAI conserve une large avance en nombre d’utilisateurs avec plus de 800 millions d’utilisateurs hebdomadaires.
Un modèle économique sous tension
Le défi pour OpenAI ne se limite pas à la technologie. L’entreprise fait face à un désavantage structurel majeur : elle n’est pas rentable et doit lever des fonds quasiment en continu pour survivre, contrairement à Google qui peut financer ses investissements sur ses revenus courants. Selon ses propres projections financières, OpenAI devra atteindre environ 200 milliards $ de chiffre d’affaires pour devenir profitable en 2030.
Dans son mémo, Sam Altman insiste sur la nécessité d’apporter des améliorations substantielles à ChatGPT, en matière de personnalisation, de rapidité, de fiabilité et de capacité à répondre à un éventail plus large de questions. Pour y parvenir, il a instauré des conférences téléphoniques quotidiennes avec les équipes responsables et encouragé les transferts temporaires entre services.
Cette « alerte rouge » succède à une précédente « alerte orange ». OpenAI utilise un système de trois codes couleur (jaune, orange, rouge) pour hiérarchiser l’urgence des problématiques à traiter.
Malgré ces difficultés, Sam Altman conserve des arguments pour rassurer. Dans son mémo, il a affirmé qu’un nouveau modèle de raisonnement prévu la semaine prochaine surpassera le dernier Gemini de Google. Nick Turley, responsable de ChatGPT, a d’ailleurs souligné lundi soir sur X que l’objectif était de poursuivre la croissance « tout en rendant ChatGPT encore plus intuitif et personnel ».
Reste que cette mobilisation générale confirme ce que beaucoup soupçonnaient : la domination initiale d’OpenAI dans l’IA générative appartient désormais au passé. La course de fond ne fait que commencer.
Trois mois après sa création en septembre 2025, Gradium annonce officiellement son lancement avec une levée de fonds de 60 millions € en tour d’amorçage. Un montant rare pour une entreprise aussi jeune mais qui témoigne de l’appétit des investisseurs pour les technologies d’IA vocale de nouvelle génération.
Une technologie fondée sur les modèles de langage audio
L’approche technique de Gradium repose sur les modèles de langage audio, équivalents natifs-audio des large language models (LLM) textuels. Cette architecture, initialement inventée par les fondateurs de l’entreprise, permet de traiter la voix de manière native sans passer par une transcription intermédiaire en texte, contrairement aux systèmes traditionnels qui enchaînent reconnaissance vocale, traitement textuel et synthèse vocale.
Cette approche native offre plusieurs avantages techniques : réduction de la latence, préservation de l’expressivité vocale et capacité à gérer n’importe quelle tâche vocale de manière unifiée. Les modèles de langage audio sont désormais devenus le standard dominant de l’industrie depuis leur invention par les fondateurs.
L’équipe fondatrice réunit quatre chercheurs reconnus dans le domaine de l’IA audio : Neil Zeghidour (CEO, ex-Meta et Google DeepMind), Olivier Teboul (CTO, ex-Google Brain), Laurent Mazaré (Chief Coding Officer, ex-Google DeepMind et Jane Street) et Alexandre Défossez (Chief Scientist Officer, ex-Meta). Leur expertise s’appuie sur plus d’une décennie de recherche fondamentale menée notamment au sein de Kyutai, laboratoire de recherche en IA à but non lucratif dont Neil Zeghidour et Laurent Mazaré étaient deux membres fondateurs.
Cette collaboration avec Kyutai se poursuit et constitue un atout stratégique : elle donne à Gradium un accès privilégié aux avancées de la recherche fondamentale, qu’elle peut ensuite transférer rapidement vers des applications commerciales. La technologie sous-jacente de Gradium sera identique à celle de Moshi, l’IA vocale développée par Kyutai, a précisé Neil Zeghidour à Bloomberg.
Un positionnement « qualité-latence-coût »
Gradium affirme résoudre un compromis technique majeur du secteur : les systèmes vocaux actuels obligent généralement à choisir entre qualité d’interaction, faible latence et coût abordable. La startup vise à proposer simultanément une expressivité vocale réaliste, une transcription précise et une interaction à très faible latence, tout en maintenant des prix permettant un déploiement à grande échelle.
Cette proposition de valeur s’adresse en priorité aux développeurs et aux entreprises via une plateforme API. Le service supporte déjà cinq langues au lancement (anglais, français, allemand, espagnol et portugais), avec d’autres en préparation.
Gradium affirme générer ses premiers revenus quelques semaines seulement après sa création. L’entreprise compte déjà des clients dans plusieurs secteurs : gaming, agents IA, service client, apprentissage des langues et santé.
Le tour de seed de 60 millions d’euros a été co-mené par FirstMark Capital et Eurazeo, avec la participation de DST Global Partners, Eric Schmidt (ancien CEO et Chairman de Google), Xavier Niel (Iliad), Rodolphe Saadé (CMA CGM), Korelya Capital et Amplify Partners.
Ce montant positionne Gradium parmi les levées de seed les plus importantes de l’écosystème français et européen, reflétant les attentes du marché sur le potentiel de l’IA vocale. Selon Neil Zeghidour, le secteur en est encore au stade où se trouvaient les chatbots avant l’émergence des LLM : les systèmes existants restent fragiles, coûteux et limités dans leur capacité à proposer des interactions naturelles.
L’ambition affichée de Gradium est de devenir le socle technologique de référence pour la voix à l’échelle mondiale, en faisant de la voix l’interface principale entre humains et machines.
Alphabet, maison mère de Google, a retiré sa plainte antitrust déposée auprès de la Commission européenne contre les pratiques cloud de Microsoft, une semaine après l’ouverture par Bruxelles de trois enquêtes de marché sur AWS et Microsoft Azure dans le cadre du Digital Markets Act (DMA).
Désormais, Google affirme vouloir contribuer aux travaux des autorités dans ce cadre plus large, et indique rester engagé dans le dialogue avec les décideurs publics pour faire évoluer les règles de concurrence et les conditions de licences dans le cloud.
Google avait saisi la Commission européenne en 2024 en accusant Microsoft d’utiliser des conditions de licences logicielles pour enfermer les clients dans sa plateforme Azure. La plainte mettait en avant des pénalités financières, des restrictions d’usage de Windows Server et des obstacles d’interopérabilité pour les entreprises souhaitant exécuter les logiciels Microsoft sur des clouds concurrents ou migrer leurs charges de travail hors d’Azure.
Ces griefs faisaient écho à des préoccupations déjà exprimées par l’association professionnelle CISPE, soutenue par Amazon, qui avait elle-même déposé puis retiré une plainte contre Microsoft après un accord transactionnel en 2024.
Enquêtes de l’UE sur le cloud
Les enquêtes ouvertes par la Commission visent à déterminer si AWS et Azure doivent être désignés comme « contrôleurs d’accès » (gatekeepers) pour leurs services cloud, alors même qu’ils ne remplissent pas automatiquement tous les seuils chiffrés prévus par le DMA. Bruxelles veut évaluer si certaines caractéristiques du secteur (effets de verrouillage, coûts de sortie, barrières techniques au multicloud) renforcent le pouvoir de marché de ces hyperscalers au détriment de la concurrence.
Une troisième enquête examinera si les dispositions actuelles du DMA suffisent à traiter les pratiques susceptibles de limiter la contestabilité et l’équité dans le cloud, ou si des ajustements réglementaires sont nécessaires. La Commission a indiqué que ces travaux s’inscrivent dans un effort plus large pour adapter les outils de concurrence numérique aux spécificités de l’informatique en nuage dans l’UE.
Les grandes entreprises combinent plusieurs clouds pour répartir les workloads, optimiser les coûts, rapprocher les données des utilisateurs et limiter les risques de dépendance à un seul fournisseur. Jusqu’ici, relier ces environnements impliquait soit l’usage d’Internet public sans garanties de bande passante, soit des montages de connectivité privée complexes, longs à déployer et coûteux à exploiter.
L’alliance entre AWS et Google Cloud combine le nouveau service AWS Interconnect- multicloud et Google Cloud Cross-Cloud Interconnect pour proposer une connectivité privée et automatisée entre les deux environnements. Elle fournit une connectivité entre VPC AWS et VPC/VPC‑SC Google Cloud, intégrée de manière native aux consoles et APIs des deux fournisseurs.
Google Cloud avait déjà positionné Cross-Cloud Interconnect comme brique clé de son architecture “Cross-Cloud Network”, permettant de relier Google Cloud à AWS, Azure, Oracle Cloud Infrastructure et d’autres MSP via des liens privés à haut débit.
Les deux acteurs mettent en avant une automatisation poussée : les clients peuvent réserver de la capacité dédiée à la demande et établir la connectivité en quelques minutes, sans gérer directement le câblage, les circuits ni l’infrastructure physique sous‑jacente.
L’annonce inclut une spécification ouverte pour l’interopérabilité réseau entre clouds décrite comme un standard commun de connectivité privée qui vise à réduire la complexité de l’adressage, du routage et de la gestion des politiques réseau entre environnements AWS et Google Cloud.
L’objectif est de permettre à d’autres fournisseurs de cloud d’implémenter le même modèle, afin d’étendre ce socle d’interopérabilité au‑delà du seul duo AWS–Google Cloud. Cette ouverture pourrait favoriser l’émergence d’un écosystème où les clouds majeurs s’alignent sur des standards communs de connectivité privée, à l’image de ce qui existe déjà pour certains protocoles réseau et interfaces de peering.
Caractéristiques techniques mises en avant
Sur le plan technique, Cross-Cloud Interconnect fournit des liaisons privées avec des capacités de 10 ou 100 Gbit/s dans de nombreux sites mondiaux, gérées par Google côté physique, avec des métriques de performance détaillées (latence, pertes de paquets, temps de trajet aller‑retour).
Les documents techniques de Google décrivent un modèle de double attachement (primaire et redondant) et l’utilisation de BGP pour l’échange de routes entre Google Cloud et AWS, avec des exigences de haute disponibilité.
AWS Interconnect-multicloud, en préview, est présenté comme un service managé offrant des connexions privées simples, résilientes et à haut débit vers d’autres clouds, intégrées avec les outils réseau et d’observabilité AWS.
L’intégration avec Cross-Cloud Interconnect vise à abstraire la gestion des ports, des circuits et des délais de provisioning, en exposant une expérience de type “cloud‑native” dans les deux consoles.
Cas d’usage et bénéfices clients
L’alliance cible des scénarios où les données ou applications sont réparties entre AWS et Google Cloud, par exemple pour des plateformes analytiques, des charges IA/ML, ou l’intégration de SaaS opérant sur plusieurs clouds.
Un exemple cité concerne l’intégration de Salesforce Data 360, qui nécessite des ponts privés robustes entre différents environnements pour alimenter des cas d’usage d’IA et d’analytique sur des données réparties.
Pour les clients, les bénéfices mis en avant sont la réduction du temps de mise en service des liaisons, la simplification opérationnelle (moins de gestion d’infrastructure physique) et de meilleures garanties de performance que l’Internet public. L’approche standardisée doit aussi faciliter la gouvernance réseau et la sécurité dans des environnements multicloud complexes, où les architectures doivent concilier segmentation, conformité et performance de bout en bout.
Sous le feu des critiques des associations professionnelles et scrutés par les régulateurs, les deux grands CSP américains engagent un mouvement vers un modèle où la connectivité inter‑cloud devient un service managé de première classe, au même titre que le compute ou le stockage, plutôt qu’un assemblage de liens télécoms et de configurations spécifiques.
Reste à observer dans quelle mesure les autres fournisseurs adopteront la spécification proposée et comment les intégrateurs réseau et opérateurs télécoms adapteront leurs offres face à cette montée en puissance de la connectivité multicloud native.
L’Autorité de la concurrence vient de rendre une décision importante dans le secteur des moteurs de recherche en rejetant la plainte déposée par Qwant à l’encontre de Microsoft.
Le moteur de recherche français l’accusait de plusieurs pratiques anticoncurrentielles.
Depuis 2016, Qwant s’appuie partiellement sur la technologie de Bing pour fournir ses résultats de recherche. C’est dans le cadre de cette relation commerciale que sont nés les différends. Qwant reprochait à Microsoft d’abuser de sa position dominante et de maintenir une situation de dépendance économique à son égard.
Les griefs portaient sur plusieurs points : des pratiques d’exclusivité et de ventes liées, des restrictions empêchant le développement d’un modèle d’intelligence artificielle, et une discrimination dans l’accès aux services de publicité en ligne.
Pour comprendre cette affaire, il faut saisir le fonctionnement du marché des moteurs de recherche. Lorsqu’un internaute effectue une recherche, il obtient deux types de résultats : les résultats algorithmiques classés par pertinence, et les résultats payants sélectionnés via un système d’enchères.
Hormis Google et Microsoft, la plupart des moteurs de recherche doivent acquérir ces résultats dans le cadre de contrats de syndication via leurs offres Google Ads et Microsoft Advertising qui dominent le secteur de la publicité liée aux recherches.
Pas de preuves suffisantes selon l’Autorité
L’Autorité de la concurrence a estimé que Qwant n’apportait pas de preuves suffisantes pour démontrer la position dominante de Microsoft sur le marché de la syndication de résultats de recherche.
Premier élément déterminant : Google propose également des services de syndication. Surtout, la Commission européenne considère que Google détient une position ultradominante sur le marché de la publicité en ligne liée aux recherches. Cette prééminence de Google exerce une pression concurrentielle importante sur Microsoft, rendant improbable une position dominante de ce dernier sur le marché de la syndication.
Concernant la dépendance économique alléguée, l’Autorité reconnaît que Microsoft représente une part importante du chiffre d’affaires de Qwant. Cependant, les autres critères ne sont pas réunis. La notoriété de Bing reste relative face à celle de Google. Par ailleurs, Qwant dispose de capacités de recherche propres et est même le seul moteur autorisé contractuellement par Microsoft à développer sa propre technologie dans ce cadre.
Un élément factuel a particulièrement pesé dans la décision : en juin 2025, Qwant a lancé avec Ecosia une offre de syndication basée sur leur propre technologie de recherche, European Search Perspective. Cette initiative démontre que des alternatives existent.
L’Autorité a également examiné en détail chacune des pratiques dénoncées par Qwant. Pour l’exclusivité d’approvisionnement en publicités, la vente liée de résultats organiques et payants, la discrimination dans l’accès à la publicité, et les restrictions sur l’intelligence artificielle, elle a conclu qu’aucun élément suffisamment probant ne soutenait ces accusations.
Alors qu’OpenAI caracole en tête des valorisations technologiques, le modèle financier du géant de l’intelligence artificielle révèle un appétit gargantuesque pour les centres de données.
Selon une analyse approfondie de l’équipe logicielle et services américains de HSBC, citée par le Financial Times, l’entreprise se dirige vers un déficit de financement cumulé de 207 milliards $ d’ici 2030. En cause : ses engagements massifs en matière de calcul.
Des coûts de calcul vertigineux
Le point de départ de l’analyse de HSBC réside dans la prise en compte des récents accords de location de « cloud compute » : 250 milliards $ auprès de Microsoft et 38 milliards $ auprès d’Amazon. Des transactions portent la puissance de calcul totale sous contrat à 36 gigawatts.
Basée sur une valeur cumulée totale des accords pouvant atteindre 1800 milliards $ , la facture annuelle de location de centres de données d’OpenAI pourrait grimper à environ 620 milliards $. Bien que seul un tiers de cette capacité soit attendu en ligne d’ici la fin de la décennie, les analystes de HSBC anticipent des coûts de location cumulés de 792 milliards $ entre aujourd’hui et 2030, un chiffre qui atteindrait 1400 milliards $ d’ici 2033.
Un modèle de revenus hyper-agressif
Pour estimer la capacité d’OpenAI à honorer ces dettes, HSBC a dû bâtir un modèle de prévision de revenus extrêmement optimiste. Trois hypothèses projettent une croissance exponentielle :
> Explosion de la base d’utilisateurs. Le nombre d’utilisateurs devrait atteindre 3 milliards d’ici 2030, soit l’équivalent de 44 % de la population adulte mondiale hors Chine (contre environ 800 millions actuellement).
> Ubiquité des abonnements . Les abonnements aux grands modèles de langage (LLM) sont appelés à devenir « aussi omniprésents et utiles que Microsoft 365 ». HSBC modélise que 10 % des utilisateurs d’OpenAI deviendront payants d’ici 2030, contre une estimation actuelle de 5 %.
> Diversification des recettes. Outre les abonnements, de nouveaux vecteurs de croissance comme la publicité, l’IA agentique et potentiellement le projet Jony Ive devraient émerger. Les sociétés éditrices de LLM sont ainsi supposées capter 2 % du marché de la publicité numérique d’ici la fin de la décennie.
HSBC anticipe que le marché de l’IA grand public générera 129 milliards $ de revenus annuels d’ici 2030 (dont 56 % pour OpenAI) et que l’IA d’entreprise atteindra 386 milliards $ (dont 37 % pour OpenAI).
Un déficit de financement de 207 milliards $
Malgré cette croissance fulgurante, l’augmentation parallèle des coûts signifie qu’OpenAI devrait continuer à subventionner ses utilisateurs bien au-delà de la prochaine décennie. C’est dans ce contexte que se creuse l’énorme besoin de financement.
La synthèse financière de HSBC pour la période cumulée jusqu’en 2030 est la suivante :
Éléments financiers (cumulé 2023-2030)
Montant (en milliards $ )
Coûts de location des centres de données
792
Flux de trésorerie disponible (Free Cash Flow)
282
Autres injections de capitaux (Nvidia, AMD)
26
Total des entrées de liquidités
308
Déficit brut de financement (Coûts – Entrées)
-484
*Le déficit final est estimé à 207 Mds $ après intégration des facilités de dette et liquidités disponibles.
En incluant les facilités de dette et de capitaux propres non tirées (24 milliards $) et les liquidités disponibles (17,5 milliards $ mi-2025), le modèle de HSBC aboutit à un déficit de financement de 207 milliards $, auquel les analystes ajoutent une réserve de trésorerie de 10 milliards $ portant le besoin total à 217 milliards $.
Une perspective qui reste ultra-optimiste
Face à ces chiffres abyssaux, HSBC pondère en explorant quelques pistes de revenus additionnels. Ainsi, une conversion de 20 % des utilisateurs de ChatGPT en abonnements payants, par exemple, pourrait générer 194 milliards $ de revenus supplémentaires sur la période.
L’hypothèse du scénario du pire, pour OpenAI, pourrait être de renégocier et d’annuler certaines obligations contractuelles liées aux centres de données, compte tenu des relations entremêlées entre les acteurs de l’IA, du cloud et des semi-conducteurs.
Néanmoins, l’analyse de HSBC se veut très optimiste sur le concept de l’IA qui devrait
« pénétrer tous les processus de production » et générer des gains de productivité au niveau mondial.
Elle estime son impact potentiel sur le PIB mondial de plus de 110 000 milliards $. De quoi largement éclipser ce qui est actuellement perçu comme des dépenses en capital (capex) déraisonnables.
L’infrastructure dédiée à l’IA joue plus que jamais le rôle de locomotive pour le secteur technologique. Et Dell en est une parfaite illustration en profitant à plein régime des investissements massifs des « Big Tech » et des startups spécialisées dans la construction de centres de données.
Au cours du troisième trimestre clos le 31 octobre, Dell a enregistré pour 12,3 milliards $ de nouvelles commandes de serveurs IA. Le carnet de commandes (backlog) atteint désormais un niveau record de 18,4 milliards $, les livraisons peinant encore à suivre la cadence des achats.
Le groupe texan, qui intègre les GPU Nvidia dans ses machines, compte parmi ses clients des acteurs comme la startup xAI d’Elon Musk ou CoreWeave. Fort de cette dynamique, Dell anticipe désormais que ses livraisons de serveurs IA généreront 25 milliards $ de revenus sur l’exercice fiscal 2026, contre une estimation précédente de 20 milliards.
Le défi des coûts et des marges
Si le chiffre d’affaires du troisième trimestre (27,01 milliards $) est ressorti très légèrement en deçà du consensus, la rentabilité et les perspectives ont séduit les analystes.
Pour le trimestre en cours, Dell table sur des revenus compris entre 31 et 32 milliards $, bien au-dessus des 27,59 milliards attendus par Wall Street. Et sur l’ensemble de l’année, le groupe a relevé sa fourchette de chiffre d’affaires entre 111,2 et 112,2 milliards $.
La montée en puissance de l’IA s’accompagne toutefois de défis structurels, notamment une inflation rapide du coût des composants, en particulier les mémoires DRAM et NAND. « Nous n’avons jamais vu les coûts évoluer à une telle vitesse », a souligné Jeff Clarke, le directeur des opérations (COO), lors de la conférence avec les analystes.
Malgré ces vents contraires, Dell a démontré sa capacité à protéger sa rentabilité. La marge opérationnelle de sa division infrastructure (incluant les serveurs) s’est établie à 12,4 %, dépassant les estimations de 11,2 %. Dans un marché où la demande excède largement l’offre, le constructeur dispose d’un « pricing power » lui permettant de répercuter une partie de la hausse des coûts sur ses clients finaux.
Du côté de l’activité historique des PC, la reprise reste plus modérée, avec une hausse de 5 % des revenus commerciaux, inférieure aux attentes des analystes.
La nuit du 10 au 11 novembre 2025 restera gravée dans les mémoires des utilisateurs de Weda. Vers 23h30, l’éditeur a détecté une activité inhabituelle sur certains comptes utilisateurs, laissant penser à des tentatives d’accès non autorisés. La réaction a été immédiate : suspension totale de l’accès à la plateforme. Un black-out qui durera jusqu’au vendredi 14 novembre au matin, avec un retour en mode très dégradé.
Pour les 23 000 professionnels de santé concernés sur les 85 000 utilisateurs revendiqués par Weda, filiale du groupe Vidal depuis 2019, l’impact est brutal. Les cabinets médicaux ont basculé sur papier pendant près d’une semaine, privés de leurs dossiers patients informatisés, de l’historique des consultations, des résultats d’examens et des prescriptions antérieures.
Philippe Mauboussin, médecin généraliste dans l’Eure, résume la situation à l’AFP, avec une métaphore : perdre l’accès au logiciel professionnel équivaut à perdre l’eau et l’électricité tout en ayant 15 personnes à dîner le soir. Les praticiens se sont retrouvés à consulter « à l’aveugle », sans accès aux antécédents médicaux, aux traitements en cours ou aux doses prescrites.
Une attaque par des identifiants compromis
Contrairement aux ransomwares qui ont défrayé la chronique ces derniers mois dans le secteur hospitalier, l’intrusion proviendrait d’identifiants utilisateurs compromis. Plusieurs comptes de professionnels auraient été piratés via des logiciels malveillants installés sur leurs postes de travail, permettant aux hackers de voler leurs mots de passe Weda.
À ce stade, aucun groupe de cybercriminels n’a revendiqué l’attaque, et l’éditeur n’a pas évoqué de demande de rançon. La question cruciale demeure sans réponse claire : des données ont-elles été exfiltrées ? Weda reste évasif sur ce point, évoquant une possible « extraction partielle » sans confirmer formellement l’ampleur d’une éventuelle fuite.
Pourtant, certaines structures sanitaires comme la maison de santé de Saint-Jean-en-Royans rapportent une perte de confidentialité sur un serveur et une consultation éventuelle de données. Les informations en jeu sont particulièrement sensibles : dossiers médicaux complets, pathologies, traitements, résultats d’examens, numéros de Sécurité sociale.
Gérer la dépendance numérique
Cet incident ravive les débats sur la fiabilité des outils numériques dans le secteur de la santé. Le docteur Bernard Huynh, président de la FMF-Spé, pointe du doigt une asymétrie problématique : les éditeurs de logiciels subventionnés dans le cadre du Ségur du numérique n’ont pas d’obligation de continuité de service, contrairement aux médecins.
Le syndicat MG France déplore la fragilité des systèmes d’information en santé « tout en ligne », alors que l’usage de ces outils devient progressivement obligatoire pour les praticiens. Un paradoxe que souligne Bernard Huynh : l’État et l’Assurance maladie misent tout sur le numérique, mais les médecins constatent quotidiennement les failles du système.
Depuis le 14 novembre, l’accès aux dossiers a été priorisé, mais des fonctions comme la facturation restent entravées. Weda a déployé des procédures manuelles pour limiter les retards et ferme désormais sa plateforme chaque nuit de 22h à 7h. L’entreprise a informé l’ANSSI et la CNIL, déposé plainte et fait appel à des experts en cybersécurité pour renforcer ses protocoles d’authentification.
Pour les cabinets médicaux, l’après-crise impose de nouvelles contraintes : changement obligatoire de tous les mots de passe, vérification de l’intégrité des dossiers, surveillance accrue des tentatives de phishing ciblé. Les maisons de santé pluri-professionnelles doivent désormais activer leurs plans de continuité d’activité et revoir leurs clauses contractuelles.
« Encore une vulnérabilité liée à la supply chain qui offre une porte d’entrée à de potentiels attaquants, et qui rappelle une fois de plus la fragilité des services essentiels. Ce cas est d’autant plus insidieux que des professionnels de santé indépendants et de petits centres médicaux, entièrement dépendants de leur solution SaaS médicale et pas nécessairement équipés de défenses de cybersécurité, en sont les victimes indirectes.» estime Bernard Montel, CTO EMEA chez le spécialiste du cyber risque Tenable.
« Cet épisode rappelle à quel point les prestataires technologiques jouent un rôle essentiel dans des secteurs comme la santé. Cela illustre également l’importance de la directive NIS2 et de sa transposition en France. La résilience des fournisseurs tiers est un enjeu majeur pour garantir la continuité des services médicaux. » ajoute-t-il.
Les maladies génétiques rares touchent des centaines de millions de personnes dans le monde, mais nombre d’entre elles ne reçoivent jamais de diagnostic précis.
Une équipe de scientifiques du Centre de Régulation Génomique de Barcelone et de la Harvard Medical School vient de franchir une étape décisive avec la création de popEVE, un modèle d’intelligence artificielle capable de détecter si une mutation génétique inconnue est susceptible de causer une maladie.
Une technologie basée sur l’évolution
Publiée dans la revue Nature, cette innovation s’appuie sur des données évolutives provenant de centaines de milliers d’espèces, principalement animales. Le modèle analyse comment les modifications génétiques affectent les instructions données au corps pour produire les protéines, ces éléments fondamentaux du vivant.
« Il existe de nombreuses façons dont des variants génétiques uniques peuvent provoquer des maladies, et pour ce très grand nombre de patients, il y a souvent une terrible pénurie d’informations. », explique Jonathan Frazer, chercheur au Centre de Régulation Génomique de Barcelone. « Il est difficile de diagnostiquer la maladie, difficile de comprendre comment la traiter. Nous espérons avoir fourni un nouvel outil très général pour guider ce processus.»
Des résultats impressionnants
Les scientifiques se sont concentrés sur les mutations « faux-sens », des changements qui entraînent la substitution d’un seul acide aminé, la sous-unité de base des protéines. En examinant la diversité évolutive des séquences génétiques chez différentes espèces, ils ont pu évaluer si certaines mutations étaient probablement nocives : si des changements génétiques sont absents des archives, cela peut signifier qu’ils sont destructeurs, les organismes qui en souffraient ayant eu de faibles perspectives de survie.
Ces données ont été combinées avec les informations de la UK Biobank et des bases de données génétiques humaines gnomAD, permettant de calibrer les observations animales avec ce que les humains en bonne santé peuvent tolérer comme mutations.
Le test décisif a été mené sur des données génétiques provenant de 31 000 familles dont les enfants souffraient de troubles développement sévères. Dans 513 cas où les jeunes présentaient une mutation génétique complètement nouvelle, popEVE a correctement identifié celle-ci comme le variant le plus dommageable dans leur organisme dans 98% des cas.
Un avantage sur la concurrence
Le modèle a également révélé 123 gènes, souvent actifs dans le cerveau en développement et interagissant physiquement avec des protéines connues pour causer des maladies, mais jamais auparavant liés à des troubles développementaux.
Selon les chercheurs, popEVE surpasse les modèles développés par Google DeepMind, notamment AlphaMissense, tant pour prédire la gravité des maladies que pour s’adapter aux populations d’ascendances non européennes.
Un outil accessible pour tous
Autre atout majeur : popEVE ne nécessite pas de grandes quantités d’énergie pour fonctionner, ce qui le rend particulièrement adapté aux pays à revenus faibles et intermédiaires. Le modèle a déjà été utilisé avec succès sur des patients au Sénégal, notamment pour traiter un patient souffrant d’atrophie musculaire grâce à un supplément en vitamine B2.
« Ce dernier travail permettra une application évolutive à chaque gène », souligne Damian Smedley, professeur de génomique computationnelle à la Queen Mary University de Londres.
« Être capable d’évaluer systématiquement l’impact de tous les variants dans le génome d’un patient est essentiel pour tenir pleinement la promesse du séquençage génomique dans les soins de santé.»
popEVE représente une extension significative des capacités du modèle EVE original, développé en 2021, et sera particulièrement utile pour les patients dont les échantillons génétiques parentaux ne sont pas disponibles. Cette avancée ouvre la voie à un diagnostic plus rapide et plus précis pour des millions de patients souffrant de maladies rares à travers le monde.
La Commission européenne a présenté ce mercredi un ensemble de modifications appelé « Omnibus numérique » (Digital Omnibus) visant à alléger la réglementation numérique qui s’applique aux 27 États membres de l’UE, dans un contexte de pression pour améliorer sa compétitivité face aux États-Unis et à la Chine dans le domaine de l’intelligence artificielle.
Ces propositions nécessitent l’approbation des pays de l’Union européenne et du Parlement européen.
Report de l’application des règles sur l’IA à haut risque
Les entreprises utilisant des systèmes d’IA considérés comme « à haut risque » bénéficieraient d’un délai supplémentaire de 16 mois avant l’entrée en vigueur des réglementations strictes. La date d’application serait ainsi repoussée de août 2026 à décembre 2027.
Les systèmes d’IA à haut risque concernent les domaines des forces de l’ordre, de l’éducation, de la justice, de l’asile et de l’immigration, des services publics, de la gestion du personnel, des infrastructures critiques comme l’eau, le gaz ou l’électricité, ainsi que l’utilisation de données biométriques.
Modifications ciblées de la loi sur l’IA
La Commission propose également des amendements spécifiques à la loi sur l’IA qui prévoient :
Simplifications pour les PME : Extension de certaines simplifications accordées aux petites et moyennes entreprises et aux petites entreprises de taille intermédiaire, notamment des exigences de documentation technique simplifiées, permettant d’économiser au moins 225 millions € par an.
Élargissement des mesures de conformité : Davantage d’innovateurs pourront utiliser des « sandboxes » réglementaires (environnements de test contrôlés), y compris une sandbox au niveau de l’UE à partir de 2028, ainsi que davantage de tests en conditions réelles, notamment dans des secteurs clés comme l’automobile.
Renforcement de la supervision : Les pouvoirs de l’Office AI seront renforcés et la surveillance des systèmes d’IA construits sur des modèles d’IA à usage général sera centralisée, réduisant ainsi la fragmentation de la gouvernance.
Facilitation de l’accès aux données personnelles
La proposition vise à clarifier le moment où des données cessent d’être considérées comme « personnelles » au regard de la législation sur la vie privée. Selon le texte, des informations anonymisées ne seraient pas considérées comme des données personnelles si l’entité qui les traite n’a pas les moyens de réidentifier la personne concernée.
Les entreprises seraient autorisées à utiliser de vastes ensembles de données pour l’entraînement de systèmes d’IA, même s’ils contiennent des informations personnelles sensibles comme des données de santé ou biométriques, à condition de faire des efforts raisonnables pour les supprimer.
Amélioration de l’accès aux données pour l’innovation
L’Omnibus numérique vise à améliorer l’accès aux données en tant que moteur clé de l’innovation, en simplifiant les règles relatives aux données :
Consolidation de la législation : Regroupement des règles européennes sur les données via le Data Act, fusionnant quatre textes législatifs en un seul pour une clarté juridique accrue.
Exemptions ciblées : Introduction d’exemptions ciblées à certaines règles du Data Act concernant le changement de fournisseur cloud pour les PME et petites entreprises de taille intermédiaire, générant environ 1,5 milliard d’euros d’économies ponctuelles.
Nouveaux outils de conformité : Fourniture de nouvelles orientations sur la conformité au Data Act via des clauses contractuelles types pour l’accès et l’utilisation des données, ainsi que des clauses contractuelles standard pour les contrats de cloud computing.
Soutien aux entreprises d’IA européennes : Déblocage de l’accès à des ensembles de données de haute qualité et récentes pour l’IA, renforçant le potentiel d’innovation global des entreprises dans toute l’UE.
Réformer le RGPD
Des amendements ciblés au Règlement général sur la protection des données (RGPD) harmoniseront, clarifieront et simplifieront certaines règles pour stimuler l’innovation et soutenir la conformité des organisations, tout en maintenant intact le cœur du RGPD et le plus haut niveau de protection des données personnelles.
Les amendements visent à moderniser les règles relatives aux cookies pour améliorer l’expérience des utilisateurs en ligne. Les bannières de consentement aux cookies apparaîtraient beaucoup moins fréquemment.
Les utilisateurs pourraient définir leurs préférences en matière de cookies une seule fois, soit par un simple clic valable six mois, soit via les paramètres de leur navigateur ou système d’exploitation applicables à tous les sites web. Certaines fonctions basiques des sites, comme le comptage des visiteurs, ne nécessiteraient plus de fenêtres de consentement.
Les sites web devraient toutefois toujours obtenir un consentement explicite avant d’accéder aux données stockées sur les appareils des utilisateurs, comme la localisation ou l’historique de navigation.
Simplification des rapports de cybersécurité
L’ Omnibus numérique introduit un point d’entrée unique où les entreprises peuvent remplir toutes leurs obligations de déclaration d’incidents. Actuellement, les entreprises doivent signaler les incidents de cybersécurité en vertu de plusieurs lois, notamment la directive NIS2, le RGPD et la loi sur la résilience opérationnelle numérique (DORA). L’interface sera développée avec des garanties de sécurité robustes et fera l’objet de tests approfondis pour garantir sa fiabilité et son efficacité.
Allègement des contraintes administratives pour les PME
Les petites et moyennes entreprises développant ou utilisant des systèmes d’IA feraient face à des exigences de documentation considérablement réduites, ce qui pourrait leur faire économiser au moins 225 millions d’euros par an, selon la Commission.
Les petites entreprises seraient également exemptées de certaines règles relatives au changement de fournisseur cloud, leur permettant d’économiser environ 1,5 milliard d’euros en coûts de conformité ponctuels.
Le plan prévoit aussi la création d’un « European Business Wallet », un passeport numérique fonctionnant dans les 27 États membres de l’UE, permettant aux entreprises de signer et d’horodater numériquement des documents et de gérer des dépôts administratifs à travers l’Europe. La Commission estime que cet outil pourrait éliminer jusqu’à 150 milliards € de coûts administratifs annuels une fois largement adopté.
Dans un rapport de 2024 sur la compétitivité européenne, l’ancien Premier ministre italien Mario Draghi avait identifié l’étendue de la réglementation numérique du bloc comme un frein aux performances des entreprises technologiques locales.
Le président français Emmanuel Macron et le chancelier allemand Friedrich Merz ont apporté leur soutien à certaines parties de la proposition lors d’un sommet sur la souveraineté numérique à Berlin cette semaine.
Des groupes de la société civile ont toutefois mis en garde contre le fait que ces changements favoriseraient les intérêts des grandes entreprises technologiques et affaibliraient les protections de la vie privée en place depuis deux décennies. Les responsables de la Commission maintiennent que les modifications préserveraient les normes strictes de confidentialité de la région.
Sept ans après le lancement de sa stratégie nationale pour l’intelligence artificielle, la France se hisse au cinquième rang mondial du Global AI Index. Un succès en trompe-l’œil, selon la Cour des comptes, qui épingle dans un rapport publié ce 19 novembre une politique publique certes volontariste, mais largement en-deçà de ses ambitions initiales et de l’ampleur de la révolution en marche.
Un budget amputé d’un tiers et une exécution laborieuse
Les chiffres parlent d’eux-mêmes. Pour la phase 2023-2025, baptisée « phase d’accélération », l’État aura finalement programmé 1,055 milliard €, soit un tiers de moins que les 1,5 milliard initialement annoncés en novembre 2021. Pire encore : au 30 juin 2025, seuls 35% de ces crédits avaient été consommés (289 millions € de paiements effectifs), traduisant la lenteur du démarrage des dispositifs.
Les chiffres de la première phase (2018-2022) ne sont guère plus encourageants : sur 1,527 milliard programmés, seuls 1,272 milliard ont finalement été engagés. Plus inquiétant, la Cour pointe un «suivi lacunaire» des crédits et des « difficultés à identifier la part des financements généralistes rattachables à la SNIA ». Bref, l’État peine à suivre ses propres dépenses en matière d’IA.
Cette mauvaise exécution budgétaire illustre un problème structurel : la nécessité de réallouer en urgence des moyens pour soutenir le développement de l’IA générative, «enjeu qui n’avait pas été anticipé à la veille de la révolution ChatGPT», souligne les sages de la rue Cambon.
Le dispositif phare des « IA Clusters », doté du budget le plus élevé (360 millions € après une réduction de 90 millions), n’a vu ses premiers engagements concrétisés qu’à la fin 2024, trois ans après son annonce.
La recherche, unique point fort
Dans ce tableau mitigé, un secteur tire son épingle du jeu : la recherche.
La France compte désormais plus de 4 000 chercheurs travaillant sur l’IA et se hisse au troisième rang mondial en matière de recherche et formation dans ce domaine. Les instituts d’excellence (3IA) créés depuis 2018 commencent à porter leurs fruits : quatre pôles à Paris, Nice, Grenoble et Toulouse regroupent 150 chaires de recherche et ont noué plus d’une centaine de partenariats industriels. En quatre ans, ce réseau a réuni 500 chercheurs, financé près de 500 doctorants et formé chaque année plus de 13 000 personnes.
Le supercalculateur Jean Zay, installé sur le plateau de Saclay en 2019 et progressivement étendu, constitue l’autre réussite emblématique. Avec une puissance de calcul portée à 37 pétaflop/s, il permet à de nombreuses équipes d’accéder à des infrastructures de calcul pour développer des systèmes d’IA à coûts réduits. Bonus écologique : son système de récupération de chaleur chauffe l’équivalent de 1 000 logements, une première en Europe à cette échelle.
Le pays peut également se targuer d’avoir vu émerger une dizaine d’acteurs positionnés sur l’IA générative en quelques mois, là où il n’en comptait qu’un seul début 2023. Plus de 1 000 startups sont désormais actives dans le domaine, ayant levé près de 2 milliards € en 2024. Seize licornes françaises intègrent l’intelligence artificielle dans leur proposition de valeur. La France est devenue le premier pays européen en nombre de projets d’investissement étrangers dans l’IA et le premier hébergeur européen de centres de recherche des leaders mondiaux du secteur.
Mais ces réussites comportent leurs limites. L’effet structurel des dispositifs n’a pas toujours été favorisé : le recours à une « succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », a créé une fragmentation et nui à la cohérence d’ensemble. Le processus de sélection des instituts 3IA a écarté des acteurs majeurs comme l’Université Paris-Saclay. Et l’attractivité internationale des talents reste limitée, faute de salaires compétitifs et de mesures d’accompagnement à l’installation.
Les angles morts d’une stratégie à géométrie variable
Mais ces succès masquent des carences béantes. Premier angle mort pointé par la Cour : «l’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes ». Entreprises, administrations, citoyens : tous ont été largement négligés par une stratégie trop centrée sur l’excellence scientifique.
Les PME et ETI, qui devraient constituer le cœur de cible de la diffusion de l’IA dans l’économie, n’ont bénéficié que de « dispositifs très modestes » : le programme « IA Booster », censé accompagner les entreprises, n’a reçu que 10 millions € de budget, soit à peine 1% de l’enveloppe totale. Résultat : « l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’ont pas eu lieu ». Un constat d’échec pour une phase censée précisément viser cet objectif.
Deuxième faille majeure : la formation. Les 128 millions € initialement prévus pour l’enseignement supérieur hors doctorat dans la première phase n’ont jamais été dépensés. « Le retard pris en matière d’adaptation à l’IA de l’ensemble des formations initiales et continues n’a pas été rattrapé », déplore la juridiction. Plus grave encore, l’annulation en 2023 du programme « numérique et éducation » (77 millions €), pourtant annoncé par le Premier ministre en octobre 2021, a fait perdre « plusieurs années » dans la transformation des apprentissages par l’IA.
L’administration à la traîne
Paradoxe ultime : l’État, architecte de cette stratégie, reste lui-même « globalement en retard » dans sa propre transformation numérique. « En dépit d’initiatives ponctuelles », la Cour constate que l’adoption de l’IA par l’administration publique demeure « très décevante ».
Quelques expérimentations ont certes vu le jour : le « Lab IA » a accompagné 25 projets dans les administrations d’État, l’appel à projets « transformation publique » a financé 46 projets liés à l’IA (pour 80 millions €). Mais ces initiatives sont restées « isolées » et leur « effet transformatif très circonscrit ». Les services publics peinent à déployer des cas d’usage, faute de formation des agents, de budgets dédiés et d’une véritable volonté politique.
Le fiasco emblématique de cette inertie : la plateforme des données de santé (Health Data Hub). Lancée en 2019 avec 80 millions € de financement, elle devait révolutionner la recherche médicale en regroupant toutes les données de santé françaises. Mais le choix d’héberger ces données sensibles sur le cloud de Microsoft a déclenché une polémique sur la souveraineté. Suspendu par le Conseil d’État en octobre 2020, le projet n’a fonctionné qu’au ralenti pendant près de cinq ans. Il a fallu attendre juillet 2025 pour qu’un marché public soit lancé pour un « hébergement souverain », avec une mise en service annoncée pour… l’été 2026.
Un pilotage baroque
La gouvernance de cette politique publique relève, selon les magistrats, d’un «jeu complexe entre de nombreux acteurs ». Pas moins de cinq ministères, l’Inria, le CNRS, Bpifrance et un coordonnateur national se partagent les responsabilités, sans véritable chef d’orchestre. Cette fragmentation nuit à la cohérence d’ensemble et à la rapidité de mise en œuvre.
Le coordonnateur national, pourtant censé piloter l’ensemble, « ne dispose que d’une équipe très restreinte » avec «pour l’essentiel un adjoint ». Son rattachement a d’ailleurs changé trois fois en sept ans : d’abord à la direction du numérique de l’État (2018-2020), puis à la direction générale des entreprises du ministère de l’Économie (depuis 2020), avant qu’une ministre déléguée spécifique à l’IA soit nommée en décembre 2024.
Le suivi des crédits s’avère lui-même « lacunaire », rendant difficile une évaluation précise des résultats. Comble de la légèreté méthodologique, la Cour note que la deuxième phase a été «lancée sans évaluation préalable » de la première, malgré les 1,3 milliard € dépensés entre 2018 et 2022. Les administrations ont eu « les plus grandes difficultés à reconstituer des données budgétaires cohérentes et fiables» lors du contrôle de la Cour.
La course contre la Chine et les États-Unis
Ces faiblesses interrogent d’autant plus que la compétition mondiale s’intensifie. Si la France peut légitimement se comparer à ses concurrents européens, le fossé avec les États-Unis et la Chine demeure abyssal. Ces deux superpuissances investissent des montants sans commune mesure : l’administration Biden a annoncé 32 milliards $ pour l’IA sur cinq ans, tandis que Pékin consacre des sommes estimées à plus de 100 milliards $.
Dans ce contexte, les 2,4 milliards € mobilisés par la France sur sept ans apparaissent dérisoires. Le risque est réel de voir le pays décrocher dans une course où la capacité d’investissement et la vitesse d’exécution font la différence.
Dix recommandations pour changer de braquet
Face à ce constat, la Cour formule dix recommandations destinées à «permettre à la politique publique de l’intelligence artificielle de changer d’échelle ». Premier chantier : renforcer le pilotage interministériel par la création d’un secrétariat général ad hoc d’ici fin 2025.
Les magistrats appellent aussi à « accroître les capacités de calcul » via de nouveaux partenariats public-privé, à «anticiper les évolutions du marché de l’emploi », et surtout à
« accompagner l’accélération et la massification de l’adoption par les entreprises ». Objectif affiché : faire entrer les PME dans l’ère de l’IA dans les cinq prochaines années.
La question des données, jusqu’ici négligée, doit également devenir une priorité : qualité, accès, protection et stockage souverain constituent des enjeux stratégiques majeurs. De même, la Cour insiste sur la nécessité de « construire une ambition réaliste » sur les composants électroniques, secteur dans lequel l’Europe accuse un retard considérable face aux Asiatiques et aux Américains.
Une troisième phase déjà lancée
Le gouvernement n’a pas attendu ce rapport pour réagir. Une troisième phase de la stratégie nationale a été annoncée en février 2025 lors du sommet de Paris sur l’IA, un événement qui a confirmé la place particulière de la France sur la scène internationale. Les contours de cette nouvelle phase, précisés dans les mois suivants, visent notamment à corriger les défauts identifiés.
Mais la Cour reste sceptique : « Considérer que les priorités sur lesquels la SNIA a remporté de premiers succès ne nécessitent plus d’attention serait une erreur eu égard aux dynamiques très rapides d’évolution du paysage de l’IA». Les magistrats appellent à ne pas relâcher l’effort sur la recherche tout en comblant les retards accumulés ailleurs.
Une course contre la montre
Au-delà des querelles de chiffres et de gouvernance, la Cour souligne surtout l’urgence de la situation. «La révolution induite par cette technologie à usage général atteint une magnitude à laquelle peu d’autres ruptures technologiques dans l’Histoire peuvent être comparées», martèle le rapport. L’IA «n’est plus une affaire réservée à des spécialistes, elle touche tous les champs du savoir, l’économie et toute la société».
Cette accélération impose un changement radical de paradigme. La France a certes réussi à créer « une dynamique réelle » et à se hisser « en tête du peloton européen ». Mais pour rester dans la course face aux géants américains et chinois, et surtout pour transformer en profondeur son économie et son modèle social, elle devra impérativement combler ses lacunes.
Le prochain sommet de l’IA, prévu en février 2026, constituera un test décisif. La France saura-t-elle passer des promesses aux actes ? Répondre présent à ce rendez-vous suppose une mobilisation sans précédent de tous les acteurs – État, entreprises, universités, collectivités locales – et surtout une volonté politique au long cours. Car dans cette révolution, comme le rappelle la Cour, « les années qui viennent seront critiques ». Le temps presse.
La Commission européenne lance trois enquêtes de marché sur les offres d’AWS et Microsoft Azure dans le cadre du Digital Markets Act (DMA) dont l’objectif est de limiter le pouvoir des grandes entreprises technologiques, désignées comme « contrôleurs d’accès » , et de garantir des conditions de concurrence équitables pour les rivaux plus petits.
Les investigations se décomposent en trois volets distincts :
Désignation en tant que « contrôleurs d’accès ». A travers deux enquêtes, la Commission va évaluer si Amazon Web Services (AWS) et Microsoft Azure doivent être désignés comme « contrôleurs d’accès » pour leurs services cloud.Si cette désignation est confirmée, ces services cloud seraient ajoutés à la liste des services de plateforme essentiels pour lesquels Amazon et Microsoft sont déjà considérés comme contrôleurs d’accès.
Efficacité du DMA dans le cloud. Cette troisième enquête vise à évaluer l’efficacité des obligations actuelles du DMA pour lutter contre les pratiques déloyales ou anticoncurrentielles dans le secteur du Cloud. L’examen porte notamment sur les obstacles à l’interopérabilité, l’accès limité aux données pour les entreprises utilisatrices, les services de vente liée et de groupage, ainsi que les clauses contractuelles potentiellement déséquilibrées.
Les critères de la DMA
Le DMA, entré en vigueur en 2023, définit un « contrôleur d’accès » comme une entreprise proposant un service de plateforme essentiel, avec plus de 45 millions d’utilisateurs actifs mensuels et une capitalisation boursière d’au moins 75 milliards € (86,87 milliards $). AWS est le plus grand fournisseur de cloud au niveau mondial, avec 30 %de parts de marché, suivi par Microsoft Azure (20%) et Google Cloud (13 %).
Les entreprises désignées comme « contrôleurs d’accès » sont tenues de rendre leurs services interopérables avec ceux de leurs concurrents et ne peuvent pas favoriser leurs propres services au détriment de ceux de leurs rivaux. En cas de violation du DMA, les entreprises encourent des amendes pouvant atteindre 10 % de leur chiffre d’affaires annuel mondial.
La cheffe de l’antitrust de l’UE, Teresa Ribera, a déclaré que la Commission cherchera également à déterminer si « les règles existantes du règlement sur les marchés numériques doivent être mises à jour afin que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques dans le secteur de l’informatique en nuage ».
Un porte-parole de Microsoft a indiqué que l’entreprise était prête à contribuer à l’enquête.
Du côté d’AWS, on estime que « désigner les fournisseurs de cloud comme contrôleurs d’accès ne vaut pas le risque d’étouffer l’invention ou d’augmenter les coûts pour les entreprises européennes ».
La Commission veut conclure les deux enquêtes sur la désignation d’AWS et Azure dans un délai de 12 mois. L’enquête sur l’application du DMA aux marchés du cloud donnera lieu à la publication d’un rapport final dans un délai de 18 mois.
Le « Projet Kuiper », qui n’était qu’un nom de code interne inspiré de la ceinture d’astéroïdes située au-delà de Neptune, devient Amazon Leo, en référence à l’orbite terrestre basse (Low Earth Orbit) où évoluent ses satellites.
Ce changement de marque intervient à un moment charnière : Amazon a déjà déployé plus de 150 satellites en orbite et compte déjà des clients professionnels tels que JetBlue, L3Harris ou Sky Brasil. Le groupe prévoit plus de 80 missions supplémentaires pour constituer sa constellation complète, avec l’objectif d’atteindre 1 600 satellites d’ici la fin juillet 2026.
Une offre à trois niveaux
L’offre d’Amazon Leo se décline en trois formules: Leo Nano ( vitesses jusqu’à 100 Mbps), Leo Pro ( jusqu’à 400 Mbps) et Leo Ultra (jusqu’à 1 Gbps). Aucune grille tarifaire n’est communiquée.
La France doit faire partie des premiers pays où le service sera commercialisé, avec un lancement envisagé dès fin 2025 ou début 2026.
Amazon Leo arrive sur un marché où SpaceX dispose d’une avance considérable. Starlink compte déjà plus de 10 000 satellites en orbite et dessert plus de 2 millions de clients. Amazon a d’ailleurs dû faire appel à SpaceX pour certains de ses lancements : 3 missions via Falcon 9 ont permis de placer 72 satellites en orbite, illustrant le paradoxe de devoir collaborer avec son principal concurrent.
Un recours devant le Conseil d’État
L’arrivée d’Amazon Leo en France ne se fait pas sans opposition. Le syndicat CFE-CGC Télécoms a déposé un recours en annulation devant le Conseil d’État contre la décision (n° 2025-1347) de l’autorité de régulation des télécoms qui a accordé, en juillet, une autorisation d’utilisation de fréquences radioélectriques à Amazon Kuiper.
Le syndicat, représentant les personnels du secteur des télécommunications, soulève plusieurs préoccupations majeures.
Sur la concurrence et la souveraineté, la CFE-CGC Télécoms estime que l’ARCEP n’a pas mesuré la menace que représente Amazon Kuiper sur l’équilibre du marché français.
Le syndicat dénonce une distorsion de concurrence car les constellations satellitaires comme Starlink et Amazon Leo peuvent rentabiliser leurs satellites à l’échelle de plusieurs pays et ne sont pas soumises aux mêmes obligations que les opérateurs terrestres français.
Sur l’impact économique, elle estime que le déploiement de ces réseaux satellitaires fragilise les gros investissements réalisés par les opérateurs français, notamment dans la fibre optique, et met en péril l’emploi et l’expertise technique dans l’hexagone. Enfin, le syndicat déplore l’absence d’analyse par le régulateur de l’impact environnemental des constellations satellitaires, notamment concernant l’envoi de satellites en orbite basse, leur faible durée de vie et la problématique croissante des débris spatiaux.
« Ce recours gracieux est un signal d’alerte pour forcer le législateur à réguler les services satellitaires car c’est tout l’écosystème français des Télécoms qui est en jeu. Ne rien demander aux acteurs américains et laisser peser sur les opérateurs français taxes et obligations nous semble en effet irresponsable » déclare Kathleen Beaude, Présidente, et Sébastien Crozier, Vice-Président du syndicat.
Au-delà du cas français, la multiplication des constellations de satellites soulève des inquiétudes croissantes. Avec des milliers de satellites déployés par Starlink, Amazon Leo, OneWeb et d’autres projets, les spécialistes alertent sur les risques accrus de collisions, l’explosion du nombre de débris spatiaux, les menaces pour les missions habitées et les perturbations pour les observations astronomiques.
La succession de Tim Cook entre-elle dans une phase décisive chez Apple ? La réponse est Oui selon le Financial Times, qui cite plusieurs sources proches des discussions internes, le conseil d’administration et les cadres dirigeants du groupe ont intensifié leurs travaux de planification en vue d’un départ du CEO dès l’année prochaine.
John Ternus, responsable de l’ingénierie matérielle, se profile comme le successeur le plus probable, bien qu’aucune décision définitive n’ait été prise à ce stade. Cette accélération des préparatifs ne serait pas motivée par des difficultés opérationnelles : Apple anticipe au contraire une forte dynamique commerciale pour l’iPhone lors des fêtes de fin d’année. Sollicité par le Financial Times, le groupe n’a pas souhaité commenter.
John Ternus, successeur favori
Selon le quotidien britannique, Apple devrait attendre la publication de ses résultats de fin janvier avant toute annonce officielle. Cette chronologie permettrait à la nouvelle direction de prendre ses marques avant deux rendez-vous majeurs : la conférence développeurs de juin et la présentation traditionnelle de l’iPhone en septembre. Ce calendrier reste toutefois susceptible d’évoluer.
Ces discussions interviennent dans un contexte de mouvement au sein de l’équipe dirigeante. Luca Maestri a quitté son poste de directeur financier début 2024, tandis que Jeff Williams, directeur des opérations, a annoncé son départ prévu pour juillet, rapporte le Financial Times.
La nomination éventuelle de John Ternus replacerait un profil technique à la tête du groupe, alors qu’Apple peine à conquérir de nouveaux marchés et affiche un retard face à ses concurrents dans le domaine de l’intelligence artificielle. Tim Cook a toujours privilégié une succession interne et évoqué l’existence de plans détaillés sur le sujet.
L’Union européenne ouvre un test de marché pour évaluer les engagements présentés par SAP dans le cadre d’une enquête antitrust lancée en septembre dernier, visant des soupçons de distorsion de concurrence concernant les services de maintenance et de support pour ses logiciels installés sur site (on-premise).
L’autorité de régulation européenne s’interrogeait notamment sur quatre pratiques susceptibles d’avoir contribué à exclure la concurrence. (lire notre article sur le sujet).
Face à ces accusations, SAP a soumis cette semaine des propositions pour répondre à ses préoccupations :
> L’octroi d’un plus grand choix aux clients dans la sélection de leurs fournisseurs de services de support logiciel
> Une flexibilité accrue concernant les licences logicielles
> La suppression de certains frais de licence
Un test de marché décisif
« Dans nos remèdes proposés, nous clarifions leur fonctionnement dans le cadre de notre engagement plus large en faveur de la transparence et du choix des clients. Nous n’anticipons pas que cette procédure aura des impacts significatifs sur notre performance financière. » indique SAP dans un communiqué.
Le lancement d’un test de marché auprès des concurrents et des clients de SAP doit évaluer si les propositions de l’éditeur allemand suffisent à dissiper les inquiétudes concurrentielles. Si aucune objection majeure n’est soulevée durant cette phase, les régulateurs européens devraient abandonner la menace de sanctions financières.
La sanction maximale prévue est une amende d’un montant équivalent à 10 % de son chiffre d’affaires mondial (34 Md€ en 2024).
Il y aura bien un procès opposant Apple et OpenAI à Elon Musk.
Le juge Mark Pittman, du tribunal fédéral de Fort Worth au Texas, a décidé que la plainte intentée par X et xAI contre Apple et OpenAI pourra se poursuivre. Déposée en août dernier, elle réclame plusieurs milliards de dollars de dommages et intérêts. Le juge a demandé aux deux parties de soumettre de nouveaux documents pour défendre leurs positions respectives dans cette affaire.
Elon Musk accuse Apple d’avoir violé les lois antitrust en intégrant exclusivement ChatGPT dans les fonctionnalités Apple Intelligence sur ses plus récents iPhone, iPad et Mac. Selon les plaignants, cette décision d’Apple inhibe la concurrence et l’innovation dans l’industrie de l’IA, tout en privant les consommateurs de choix.
La plainte affirme que ce choix d’Apple inhibe la concurrence et l’innovation dans l’industrie de l’IA, tout en privant les consommateurs de choix. Elle dénonce aussi le placement de ChatGPT dans la liste des « Must-Have Apps » de l’App Store contribuant à marginaliser les concurrents.
Les arguments de la défense rejetés
Apple et OpenAI avaient demandé le rejet pur et simple de cette action en justice, mais leurs arguments n’ont pas convaincu le magistrat. Dans son ordonnance, le juge Pittman précise que sa décision ne devait pas être considérée comme un jugement sur le fond des allégations, et qu’il examinera les litiges factuels à un stade ultérieur de la procédure.
Les avocats d’Apple ont fait valoir que l’accord avec OpenAI n’est pas exclusif, soulignant que d’autres chatbots restent disponibles via les navigateurs et applications.
De son côté, OpenAI accuse Elon Musk de mener « une campagne de guerre judiciaire ». Le milliardaire poursuit séparément OpenAI et ses dirigeants devant un tribunal fédéral en Californie.
Should I stay or should I go ? Voilà plusieurs mois que la question trotte dans la tête de Yann LeCun, scientifique en chef de l’intelligence artificielle chez Meta depuis 2013.
Selon le Financial Times (FT), le lauréat du prix Turing aurait informé ses proches de son intention de partir dans les prochains mois. Il serait également en discussions préliminaires pour lever des fonds destinés à sa future startup, selon des sources proches du dossier citées par le FT.
Une issue qui n’est pas vraiment une surprise tant le chercheur franco-américain, considéré comme l’un des pères fondateurs de l’IA moderne, apparait éloigné de la nouvelle stratégie souhaitée par Mark Zuckerberg pour coller à la roue d’OpenAI.
En effet, le fondateur de Meta a décidé de délaisser les travaux de recherche fondamentale menés par le laboratoire FAIR (Fundamental AI Research Lab), dirigé par LeCun, au profit d’un déploiement accéléré de modèles et produits d’IA commerciaux. Cette réorientation fait suite à la performance décevante du modèle Llama 4, qui s’est révélé inférieur aux offres concurrentes de Google, OpenAI et Anthropic.
Une réorganisation qui bouleverse les hiérarchies
L’été dernier, Mark Zuckerberg a recruté Alexandr Wang, fondateur de la startup Scale AI, pour diriger une nouvelle équipe dédiée à la « superintelligence ». Cette embauche s’est accompagnée d’un investissement de 14,3 milliards $ pour acquérir 49% de Scale AI. Conséquence directe : LeCun, qui reportait jusqu’alors au directeur produit Chris Cox, se retrouve désormais sous la supervision de Wang, âgé de 28 ans.
Le patron de Meta a parallèlement constitué une équipe exclusive, baptisée TBD Lab, chargée de développer la prochaine génération de grands modèles de langage. Pour attirer des talents d’OpenAI et de Google, des packages de rémunération atteignant 100 millions $ ont été proposés. En juillet, Shengjia Zhao, co-créateur de ChatGPT chez OpenAI, a été embauché comme scientifique en chef du laboratoire Superintelligence.
Un désaccord fondamental sur l’avenir de l’IA
Cette réorganisation met en lumière une divergence stratégique profonde. LeCun défend depuis longtemps la thèse selon laquelle les grands modèles de langage (LLM), au cœur de la nouvelle stratégie de Mark Zuckerberg, sont certes utiles mais ne permettront jamais d’atteindre des capacités de raisonnement et de planification comparables à celles des humains.
Le scientifique concentre ses travaux au sein de FAIR sur une génération entièrement nouvelle de systèmes d’IA : les « modèles du monde ». Ces architectures visent à comprendre le monde physique en apprenant à partir de vidéos et de données spatiales plutôt que de simples contenus textuels. LeCun estime toutefois qu’une décennie pourrait être nécessaire pour développer pleinement cette technologie. Son prochain projet entrepreneurial portera précisément sur l’approfondissement de ces recherches selon le FT.
Le départ annoncé de Yann LeCun n’est pas le premier des « vétérans de l’IA » à quitter Meta. En mai, c’est Joelle Pineau, vice-présidente de la recherche en IA, qui avait rejoint la startup canadienne Cohere. En octobre, ce sont environ 600 personnes de son unité de recherche qui avaient été licenciées.
La Commission européenne prévoit de suspendre temporairement certaines dispositions de sa législation phare sur l’intelligence artificielle (IA), dans un contexte de fortes pressions exercées par les grandes entreprises technologiques et le gouvernement américain, rapporte le Financial Times (FT).
Selon le FT, Bruxelles devrait alléger une partie de son règlement numérique, notamment l’AI Act, qui est entré en vigueur en août 2024, lors de l’adoption d’un « paquet de simplification » prévue le 19 novembre. Cette initiative s’inscrit dans les efforts de l’UE pour renforcer sa compétitivité face aux États-Unis et à la Chine.
Le projet de proposition intervient alors qu’un débat plus large oppose les autorités européennes à la manière dont elles devraient appliquer les règles numériques, face à une vive opposition des géants de la technologie soutenus par l’ancien président américain Donald Trump. L’UE a également dû gérer des pressions de la part de groupes européens inquiets des effets de l’AI Act, considéré comme le régime de régulation de l’IA le plus strict au monde.
D’après un responsable européen cité par le FT, l’UE a « engagé des discussions » avec l’administration Trump sur des ajustements à l’AI Act et à d’autres régulations numériques dans le cadre du processus de simplification.
Un délai supplémentaire pour appliquer les sanctions prévues dans l’IA Act
Bien que la législation soit entrée en vigueur, de nombreuses dispositions ne prendront effet que dans les années à venir. Les principales obligations pour les systèmes d’IA susceptibles de présenter des « risques sérieux » pour la santé, la sécurité ou les droits fondamentaux des citoyens sont prévues pour août 2026.
Le projet de la Commission, consulté par le FT, envisage d’accorder aux entreprises enfreignant les règles sur les usages d’IA les plus risqués un délai de grâce d’un an. Cette mesure pourrait concerner les fournisseurs de systèmes d’IA générative déjà commercialisés avant la date de mise en œuvre, afin de leur laisser « le temps de s’adapter sans perturber le marché ».
Bruxelles propose également de reporter l’imposition d’amendes pour violation des nouvelles règles de transparence jusqu’en août 2027, pour « permettre aux fournisseurs et utilisateurs d’IA de s’adapter ». Le projet vise en outre à simplifier le fardeau réglementaire pour les entreprises et à centraliser l’application de la loi via un bureau européen de l’IA.
Une porte-parole de la Commission a précisé au FT que « plusieurs options sont à l’étude » concernant un éventuel report de certaines dispositions de l’AI Act, tout en affirmant que l’UE reste « pleinement attachée à la loi et à ses objectifs ».
Google annonce son plus important accord d’achat de crédits carbone issus de la reforestation, avec la startup brésilienne Mombak sur 200 000 tonnes métriques de compensation d’émissions de CO2, soit quatre fois le volume du contrat pilote signé en septembre 2024.
Mombak transforme d’anciennes terres de pâturage dégradées en forêt amazonienne,
Les deux entreprises ont refusé de divulguer la valeur financière de la transaction. En 2023, lors de sa vente à McLaren Racing, Mombak avait facturé ses crédits en moyenne à plus de 50 dollars la tonne.
Un revirement vers la photosynthèse
L’accord marque un tournant dans la stratégie de décarbonation de Google. En 2024, l’entreprise avait initialement investi plus de 100 millions $ dans diverses technologies de capture du carbone – altération minérale, biochar, capture directe dans l’air et acidification des rivières. L’accord de septembre 2024 avec Mombak représentait sa première incursion dans les crédits carbone basés sur la nature au Brésil.
« La technologie la moins risquée dont nous disposons pour réduire le carbone dans l’atmosphère est la photosynthèse », explique Randy Spock, responsable des crédits carbone chez Google, cité par Reuters.
Cette multiplication des engagements répond à une explosion des émissions liées aux activités de Google. Selon son dernier rapport environnemental, ses émissions de scope 2 liées au marché – principalement l’électricité achetée pour ses centres de données et bureaux – ont plus que triplé entre 2020 et 2024, atteignant 3,1 millions de tonnes d’équivalent CO2.
La coalition Symbiosis élève les standards
En 2024, Google s’était associé à Meta, Salesforce, McKinsey et Microsoft – le plus gros acheteur à ce jour – pour créer la Symbiosis Coalition qui s’est engagée à contracter plus de 20 millions de tonnes de compensations carbone basées sur la nature d’ici 2030.
La coalition impose des normes strictes : comptabilité carbone conservatrice et transparente, préservation à long terme et bénéfices pour la biodiversité et les communautés locales. Sur 185 projets examinés, celui de Mombak est le premier à satisfaire ces critères.
Cette annonce intervient alors que la COP30 qui s’ouvre aujourd’hui à Belem ( Brésil) doit annoncer, entre autres initiatives, un nouveau fonds de soutien pour les forêts tropicales.
Grosse alerte pour le champion national de la e-santé. L’Autorité de la concurrence vient d’infliger à Doctolib une amende de 4,6 millions € pour avoir abusé de sa position dominante sur deux marchés stratégiques : la prise de rendez-vous médicaux en ligne et les solutions de téléconsultation.
La sanction fait suite d’une plainte de Cegedim Santé déposée en 2019 et d’une opération de visite et saisie réalisée en 2021,
Une décision qui révèle les coulisses d’une stratégie de verrouillage du marché, documentée par des échanges internes particulièrement explicites.
Les chiffres parlent d’eux-mêmes. Entre 2017 et 2022, Doctolib a détenu des parts de marché constamment supérieures à 50 % dans la prise de rendez-vous médicaux en ligne, dépassant même les 90 % certaines années.
Sur le marché de la téléconsultation, lancé en 2019, l’entreprise a rapidement capté plus de 40 % des parts. Une domination renforcée par la crise sanitaire, lorsque le gouvernement a confié en 2021 à Doctolib, aux côtés de Maiia et KelDoc, la gestion des rendez-vous de vaccination contre la Covid-19.
Trois pratiques dans le collimateur
L’instruction, déclenchée en 2021 après une plainte de Cegedim Santé et suivie de perquisitions, a mis au jour trois pratiques anticoncurrentielles distinctes.
Premier grief : les clauses d’exclusivité. Jusqu’en septembre 2023, les contrats d’abonnement imposaient aux professionnels de santé de recourir exclusivement aux services Doctolib. Des documents internes saisis lors des perquisitions révèlent une stratégie délibérée : les dirigeants affichaient ouvertement leur volonté d’« être une interface obligatoire et stratégique entre le médecin et son patient afin de les verrouiller tous les deux ».
Plus embarrassant encore, alors que la direction juridique alertait sur l’illégalité de ces clauses et « insistait vraiment fortement pour les supprimer », le président de Doctolib décidait de les maintenir, arguant « qu’il faut stratégiquement la garder ».
Deuxième grief : les ventes liées. Pour accéder à Doctolib Téléconsultation, les praticiens étaient obligés de souscrire au préalable à Doctolib Patient, le service de prise de rendez-vous. Cette pratique commerciale a mécaniquement renforcé la position dominante de l’entreprise sur le marché des agendas médicaux, privant les concurrents d’opportunités commerciales.
Troisième grief : l’acquisition de MonDocteur. En juillet 2018, Doctolib rachète son principal concurrent », la société MonDocteur. Une opération qui n’a pas fait l’objet d’un examen par les autorités de concurrence, les seuils de notification n’étant pas atteints.
Mais les documents internes sont accablants : Doctolib voulait « killer le produit », la « création de valeur » résidant « non pas dans l’ajout de l’actif MonDocteur mais sa disparition en tant que concurrent ». Un document commandé par Doctolib affirme même qu’après cette acquisition,
« Doctolib fonctionnera sans plus aucune concurrence en France ».
Des effets concrets sur les prix et la concurrence
Cette stratégie a porté ses fruits. L’acquisition de MonDocteur a permis à Doctolib de gagner 10 000 nouveaux professionnels de santé et d’augmenter durablement ses parts de marché.
Les documents internes évoquent la possibilité de « réduire la pression sur les prix » et
d’« augmenter les tarifs de 10 à 20 % ». De fait, Doctolib a procédé à plusieurs hausses successives, allant même au-delà des augmentations initialement envisagées, de 3 points de pourcentage supplémentaires, sans perte de clientèle ni ralentissement de la croissance, malgré des tarifs supérieurs à ceux de ses concurrents.
Les clauses d’exclusivité ont, elles, provoqué l’abandon ou le gel de projets concurrents. Des acteurs comme Solocal ou Qare ont cessé de développer leur service de prise de rendez-vous médicaux ou ont renoncé à en lancer un.
Une décision historique
L’amende se décompose en 4, 615 millions € pour les pratiques d’exclusivité et de ventes liées, que l’Autorité qualifie d’« infraction unique complexe et continue » visant à « verrouiller le marché », et 50 000 € pour l’acquisition de MonDocteur.
Cette dernière sanction, symbolique, reflète l’incertitude juridique qui prévalait avant l’arrêt Towercast de la Cour de justice de l’Union européenne du 16 mars 2023. Pour la première fois, l’Autorité sanctionne ainsi une acquisition prédatrice située sous les seuils de notification.
L’Autorité souligne que ces pratiques ont eu « pour effet, au moins potentiel, d’évincer les concurrents sur les marchés concernés », tout en précisant que « les mérites propres de cette entreprise ne sont pas contestés ».
Doctolib fait appel de la décision. Dans un communiqué, elle réfute les griefs pointé par l’Autorité.
« La décision se fonde étonnamment sur l’acquisition par Doctolib d’une petite start-up (Mon Docteur) en 2018, qui équipait 2 % des soignants au moment du rachat. Cette opération de croissance externe visant à regrouper deux PME pour innover plus rapidement est d’une banalité absolue dans la vie d’une entreprise. (…)
En outre, la décision remet en cause le lien entre la téléconsultation et le reste du logiciel Doctolib, alors que la déconnecter aboutirait à des difficultés conséquentes pour le suivi des patients et l’activité quotidienne des soignants. C’est cette connexion qui permet l’accès au dossier patient, le partage d’ordonnance et la facturation.(…)
Elle s’appuie enfin sur l’existence passée d’une clause d’exclusivité il y a 11 ans, qui était présente seulement pour prévenir un mauvais usage de notre logiciel par les soignants.»