L’accélération est spectaculaire. Nvidia a intensifié ses investissements dans les jeunes pousses européennes de l’IA, participant à 14 tours de financement en 2025 ( sur un total de 86), selon la plateforme Dealroom. Un doublement par rapport aux sept opérations de 2024, et une progression fulgurante quand on sait que le fabricant de puces n’avait réalisé aucun investissement sur le continent en 2020 et 2021.
Cette offensive européenne de Jensen Huang s’inscrit dans une stratégie mondiale d’envergure. pour tisser des liens étroits avec les sociétés les plus prometteuses du secteur, en leur apportant non seulement des capitaux, mais aussi une expertise technique et un accès privilégié à sa chaîne d’approvisionnement.
Des montants records déployés
Parmi les opérations les plus marquantes figure le troisième investissement de Nvidia dans le français Mistral AI, qui a levé 1,7 milliard € en septembre 2025, atteignant une valorisation de 11,7 milliards €.
Autre investissement majeur, les 500 millions de livres sterling dans Nscale, annoncé en septembre par Jensen Huang lui-même. Cette startup britannique, qui développe des centres de données et fournit des services de cloud computing pour l’IA, a rapidement bouclé deux tours de financement successifs fin septembre et début octobre, avec Nvidia à chaque fois au capital.
Le géant américain a également soutenu le laboratoire allemand Black Forest Labs en décembre, participant à une levée de 300 millions $ qui a propulsé la valorisation de cette société spécialisée dans les modèles d’IA pour le contenu visuel à 3,25 milliards $. Nvidia était aussi de la partie lors de la levée de fonds de Lovable, une startup travaillant sur le « vibe coding », valorisée à 6,6 milliards $
Autre pari relevé : celui sur Quantinuum, une entreprise d’informatique quantique qui a levé des fonds en septembre avec le soutien de Nvidia, atteignant une valorisation de 10 milliards $. Ces capitaux doivent financer le développement du système quantique de nouvelle génération Helios.
L’Europe, terre d’opportunités pour l’IA physique
Cette tendance s’est poursuivie en 2026. La startup britannique Synthesia a ainsi annoncé la participation de Nvidia à son dernier tour de table.
Pour Jensen Huang, qui s’exprimait récemment au Forum économique mondial de Davos, l’Europe dispose d’atouts considérables dans la robotique et l’intelligence artificielle physique. L’Europe possède une base industrielle et manufacturière particulièrement solide, qu’elle peut désormais fusionner avec l’IA pour se positionner sur ce marché émergent. Cette combinaison permettrait même à l’Europe de rattraper son retard dans le domaine logiciel, dominé par les États-Unis.
Reste un défi majeur : l’énergie. Jensen Huang a martelé ce point à Davos : pour que l’écosystème de l’IA puisse se développer pleinement en Europe, le continent doit résoudre la question de son approvisionnement énergétique. Avec des coûts parmi les plus élevés au monde, l’Europe peine à attirer les investissements massifs nécessaires au déploiement des infrastructures d’IA. Un constat partagé par Satya Nadella, le patron de Microsoft, qui juge que les coûts énergétiques seront déterminants dans la course mondiale à l’IA.
Un écosystème en pleine ébullition
Au-delà de l’Europe, Nvidia s’impose comme le faiseur de rois de l’IA. Les hyperscalers se précipitent pour construire leurs capacités et le groupe dispose de liquidités considérables à déployer. Jensen Huang parle du démarrage du plus grand déploiement d’infrastructures de l’histoire de l’humanité.
Les chiffres parlent d’eux-mêmes. L’année 2025 a enregistré l’un des plus hauts niveaux d’investissement en capital-risque jamais atteints, avec plus de 100 milliards $ déployés dans le monde, essentiellement vers des startups natives de l’IA. Ces entreprises opèrent dans la santé, la robotique, l’industrie manufacturière et les services financiers, des secteurs où les modèles d’IA sont désormais suffisamment matures pour permettre le développement d’applications concrètes.
——
Les principaux investissements de Nvidia en Europe en 2025
Startup
Pays
Secteur
Montant levé
Valorisation
Date
Mistral AI
France
Modèles de langage IA open source
1,7 Md€
11,7 Md€
Sept. 2025
Nscale
Royaume-Uni
Centres de données / Cloud IA
500 M£
N.C.
Sept. 2025
Black Forest Labs
Allemagne
Modèles IA pour contenu visuel
300 M$
3,25 Md$
Déc. 2025
Lovable
N.C.
« Vibe coding »
N.C.
6,6 Md$
2025
Quantinuum
N.C.
Informatique quantique
N.C.
10 Md$
Sept. 2025
Note : Sur les 86 levées de fonds mondiales auxquelles Nvidia a participé en 2025, 14 concernaient des startups européennes, contre 7 en 2024.
Les services natifs du cloud provider pour les métriques et les alertes, OpenTelemetry pour les traces.
Un article paru il y a quelques semaines dans l’International Journal of Computer Techniques propose cette stratégie d’observabilité pour le serverless. On le doit à une ancienne de Microsoft, qui fut notamment directrice scientifique au sein de l’activité Azure AI.
Son analyse porte plus précisément sur un sous-ensemble du calcul sans serveur : le FaaS (functions as a service). Dans ces environnements, les ressources sont généralement éphémères, distribuées et à haute concurrence. Les points d’intégration peuvent par ailleurs être nombreux… et inclure des services managés « en boîte noire » qui exigent de l’instrumentation.
Natif, full OpenTelemetry ou hybride ?
Les conclusions n’ont pas valeur de vérité absolue : l’expérimentation a été effectuée à petite échelle – de sorte qu’on peut la reproduire en local ou dans un compte de test – et tous les paramètres étaient sous contrôle.
Le cas d’usage exploré reposait sur des traces synthétiques de type e-commerce. Le workflow – présenté uniquement à haut niveau – comprenait 4 étapes : passerelle API -> fonction A -> fonction B (appel HTTP à une API externe non spécifiée) -> DynamoDB. Il s’agissait d’y adosser diverses stratégies d’observabilité, en mesurant 4 indicateurs :
Allongement médian de la durée d’exécution des fonctions
Proportion de traces complètes
Délai médian pour découvrir la cause racine sur des simulations d’erreurs à partir de la télémétrie disponible
Coût par million de requêtes (base : tarification publique de X-Ray et CloudWatch + estimations pour un back-end Jaeger autohébergé)
La première stratégie évaluée reposait intégralement sur les outils d’observabilité d’AWS (CloudWatch pour métriques et alertes, X-Ray pour les traces). La deuxième était full OpenTelemetry. La troisième, hybride, associait CloudWatch (télémétrie pilotée par les SLO) et OpenTelemetry (back-end Jaeger/Tempo ou managé), avec un échantillonnage adaptatif.
Overhead
Traces complètes
MTRC
Coût
Natif
9 – 12 ms
82 %
18 min
6,20 $
OTel
18 – 25 ms
95 %
9 min
4,80 $
Hybride
11 – 15 ms
93 %
10 min
5,10 $
La méthode native est celle qui entraîne le moins de surcharge. Mais elle produit le plus de traces incomplètes, sauf à ajouter de l’instrumentation. Et s’il simplifie l’exploitation, X-Ray implique un certain verrouillage (limites de portabilité et de conservation de la télémétrie).
En centralisant sur OpenTelemetry, les traces sont plus « riches ». Mais l’overhead augmente. Comme les coûts, en plus des compétences nécessaires.
L’approche hybride orientée SLO (on ne collecte en haute fidélité que pour les éléments critiques de ce point de vue) n’est ni la plus « légère », ni la plus précise, ni la plus économique. Mais elle constitue un compromis.
À consulter en complément, une étude universitaire qui pointe – et chiffre – divers facteurs techniques et contractuels générateurs de surcoûts sur les principales plates-formes serverless.
40% des entreprises interrogées ont subi au moins une cyberattaque significative en 2025, selon les chiffres de la 11ème édition du baromètre CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) réalisé avec OpinionWay.
Un chiffre qui pourrait sembler rassurant au premier abord, puisqu’il s’inscrit dans une tendance baissière observée depuis plusieurs années. Mais les 397 directeurs cybersécurité et responsables de la sécurité des systèmes d’information (RSSI) interrogés sont formels : cette diminution ne signifie pas que la menace recule mais plutôt d’une amélioration progressive des capacités de détection et de prévention.
Car lorsqu’une attaque réussit à franchir les défenses, les dégâts sont considérables. 80% des entreprises victimes signalent un impact sur leur activité, qu’il s’agisse de perturbations de production, de pertes d’image ou de vol de données, cette dernière conséquence demeurant la plus fréquente.
La géopolitique s’invite dans les stratégies cyber
Plus d’une entreprise sur deux constate une augmentation de la menace d’origine étatique. Dans un contexte international tendu, le cyberespionnage est désormais perçu comme un risque élevé par 40% des répondants, quelle que soit leur taille.
Cette prise de conscience se traduit par un intérêt croissant pour la souveraineté numérique. Plus d’une entreprise sur deux se déclare concernée par ces questions et par le cloud de confiance, une hausse significative par rapport à l’année précédente.
Le baromètre révèle toutefois un paradoxe : pour les RSSI, la souveraineté ne se limite pas à la nationalité des outils utilisés. Elle réside avant tout dans la capacité à maîtriser les dépendances, à négocier les contrats et à auditer les fournisseurs. Les principaux risques liés au cloud sont d’ailleurs identifiés comme juridiques et contractuels, avec des clauses difficilement négociables, des lois extraterritoriales et un manque de maîtrise de la chaîne de sous-traitance.
Le maillon faible des fournisseurs
Un tiers des entreprises estime que plus de la moitié de leurs incidents de cybersécurité proviennent de tiers. Les failles chez les fournisseurs, prestataires ou partenaires deviennent un vecteur majeur de compromission. Face à ce constat, les organisations renforcent leurs dispositifs : 85% intègrent des clauses de sécurité dans leurs contrats et 74% utilisent des questionnaires de sécurité. Le cyber-rating, outil d’évaluation des tiers, progresse également et est désormais utilisé par près de la moitié des entreprises.
Des techniques d’attaque éprouvées qui évoluent
Les vecteurs d’attaque dominants restent inchangés, mais se structurent et se spécialisent. Le phishing, sous toutes ses formes, demeure le principal point d’entrée des cyberattaques significatives dans 55% des incidents.
Viennent ensuite l’exploitation de failles de sécurité (41%) et les attaques indirectes via des tiers (35%). Les attaques par déni de service distribué touchent 21% des organisations victimes et s’inscrivent de plus en plus dans des stratégies hybrides.
Parmi les vecteurs émergents, l’arnaque utilisant des technologies de deepfake reste encore minoritaire, mais illustre une évolution préoccupante des attaques d’ingénierie sociale, rendues plus crédibles par l’intelligence artificielle.
Des défenses renforcées mais des failles persistantes
Les entreprises progressent nettement dans la maîtrise de leurs actifs numériques. 81% d’entre elles estiment disposer d’une vision complète de leurs actifs, tandis que 92% ont identifié ou sont en cours d’identification de leurs actifs critiques. Dans les environnements cloud, la proportion d’organisations déclarant une mauvaise visibilité recule à 31%.
L’authentification multifacteurs ( MFA) s’impose comme un standard. Les approches Zero Trust progressent également, adoptées par 31% des entreprises, tandis que 26% disposent d’un centre d’opérations de gestion des vulnérabilités. Mais des fragilités persistent, notamment dans la gestion des accès à privilèges des administrateurs et des sous-traitants, ainsi que dans la sécurisation d’environnements toujours plus hybrides.
L’intelligence artificielle, nouvelle surface d’attaque
L’utilisation par les salariés de services d’IA non approuvés, le « shadow IA », est identifiée comme le comportement numérique le plus risqué. 66% des entreprises le jugent à risque élevé ou très élevé. Plus largement, 60% considèrent l’usage massif de services cloud ou de logiciels non approuvés comme un facteur de risque important.
Si l’exploitation directe de l’IA comme vecteur d’attaque reste marginale, citée par seulement 3% des entreprises victimes, elle apparaît déjà dans des incidents significatifs. Les premiers malwares capables d’adapter leur comportement en temps réel ou de réécrire partiellement leur logique pour échapper à la détection font leur apparition.
La pression réglementaire s’intensifie
85 % des entreprises déclarent être impactées par au moins une réglementation cyber. La directive européenne NIS2 s’impose comme le cadre le plus structurant, citée par 59% des organisations, devant DORA (32%) et le Cyber Resilience Act (30%).
Une maturité qui s’installe
En 2025, 92% des organisations positionnent le risque cyber dans leur top 5 des risques, et près de deux tiers le placent dans le top 3, dont 16% comme risque numéro un. La cybersécurité fait désormais l’objet d’un suivi régulier en comité de direction.
Sur le plan budgétaire, le baromètre note un léger infléchissement. La part des entreprises consacrant 5% ou plus de leur budget informatique à la cybersécurité recule à 42%, contre 48% l’an dernier. Cette baisse ne traduit pas un désengagement mais plutôt une phase de consolidation et d’optimisation après plusieurs années d’investissements soutenus.
Du côté des compétences, 85% des entreprises estiment que leurs collaborateurs sont sensibilisés aux risques cyber. Mais le baromètre souligne l’atteinte d’un plafond de verre en matière de sensibilisation, face à des usages numériques toujours plus complexes.
Capturer sélectivement des paquets réseau sans tout transmettre vers l’espace utilisateur : telle fut la première raison d’être de BPF (Berkeley Packet Filter). C’était dans les années 90, sur les systèmes UNIX-BSD. La technologie permettait, à l’appui d’un jeu d’instructions virtuel RISC-like et d’un interpréteur, d’injecter des programmes dans le noyau pour en étendre les capacités à l’exécution.
Les premiers usages au-delà du réseau avaient émergé au début des années 2010. À commencer par l’outil seccomp-bpf, servant à filtrer les syscalls. Les travaux de modernisation lancés dans ce contexte aboutirent à eBPF (extended BPF). Cette nouvelle incarnation fut intégrée à Linux en 2014. À la clé, entre autres, des instructions et des structures de données supplémentaires, davantage de registres, un compilateur JIT et des points d’attache additionnels pour les programmes. La promesse demeurait : apporter de l’extensibilité au kernel sans passer par des modules ou changer le code source.
Sur ce socle, des projets sont d’abord nés dans le domaine du traçage. Des couches d’abstraction ont pris corps en parallèle, comme la boîte à outils BCC (BPF Compiler Collection), associant front-end Python/Lua et back-end C pour faciliter l’écriture de programmes. Tandis que le compilateur fut intégré dans LLVM.
Cilium, une couche d’abstraction devenue référente
Facebook fut l’un des premiers à industrialiser eBPF, avec un équilibreur de charge L4 pour ses datacenters : Katran, aujourd’hui open source. La possibilité d’attacher eBPF très en amont sur le chemin de réception – en l’occurrence, au niveau du piote NIC – permet d’effectuer le load balancing à la source, sans NAT (paquets traités avant interception par le noyau).
Google a quant à lui contribué à faire avancer les choses dans le champ de la sécurité. Dans le cadre de l’extension de son offre Kubernetes vers les infrastructures sur site (sous les marques Anthos et GDC), il a donné naissance au frameworkBPF LSM. Celui-ci adapte le principe des modules de sécurité à l’écosystème eBPF, en permettant d’utiliser les mêmes hooks (points d’attache) que SELinux.
Pour rendre la technologie plus accessible, le projet Cilium fut lancé en 2016. Avec, pour le porter, une société aujourd’hui référente dans l’écosystème eBPF : Isovalent, qui appartient à Cisco depuis 2024. Il assurait initialement la mise en réseau de conteneurs. Dans ces environnements où les adresses IP tournent beaucoup, ses tables de hachage en ont fait une alternative plus « élastique » à Iptables/netfilter.
Et vint l’observabilité
Après la mise en réseau vint l’observabilité, favorisée par la multiplicité des points d’attache exploitables. En plus de ceux prédéfinis (appels système, entrées/sorties de fonctions, tracepoints…), on peut utiliser des sondes noyau (kprobes) et utilisateur (uprobes). Mais aussi des fonctions arbitraires, en les étiquetant. L’exécution est orientée événements : les programmes eBPF se déclenchent lorsque le noyau ou une application passe par ces hooks.
Ce modèle ouvre la porte à la collecte de données sans instrumentation (pas de modification du code des applications ou des agents d’observabilité) et consommant potentiellement moins de ressources système. Cilium l’implémente via une plate-forme intégrée : Hubble, qui cartographie les services et donne une visibilité des flux grâce aux identités de workloads. Il y a ajouté une brique pour sécuriser l’exécution : Tetragon, qui met en œuvre des politiques de contrôle d’accès sur les fonctions noyau, les syscalls, etc.
S’économiser l’instrumentation… dans certains cas
Datadog aussi a un usage assez transversal d’eBPF : analyse de performance des applications (Universal Service Monitoring), visibilité sur le trafic réseau (Cloud Network Monitoring), détection des menaces (Workload Protection), supervision d’intégrité des fichiers (application de règles pour limiter les envois)…
« Sans eBPF, on aurait probablement besoin de consentir un effort de modification de la configuration des agents », fait remarquer Pejman Tabassomi, Field CTO EMEA, concernant le monitoring réseau. Sur la partie APM (surveillance des performances des applications), l’approche traditionnelle d’instrumentation « permet d’aller loin dans les détails, mais c’est contraignant parce qu’on est dépendant d’un framework ou d’un runtime», explique l’intéressé. eBPF « permet d’arriver à un objectif par tout à fait identique mais comparable, sans avoir à recourir à une librairie », déclare-t-il.
Pas tout à fait identique, donc. « Il y a une sorte de compromis entre le niveau d’introspection et la facilité de mise en œuvre », résume Pejman Tabassomi. Il l’illustre par un cas d’observation des temps de réponse entre deux services. Pour mesurer le nombre et la durée des appels, eBPF peut suffire. En revanche, s’il y a besoin de comprendre les lignes de code qui peuvent poser problème, les appels de fonctions et de méthodes qui sont en cause, « à ce moment-là, on va plutôt faire de l’APM. » Non sans surveiller des initiatives communautaires tel le profiler de code en cours de développement dans l’univers OpenTelemetry.
Chez Splunk, « l’histoire avec eBPF a démarré lors du rachat de Flowmill » en 2020, fait savoir Stéphane Estevez, EMEA Market Advisor pour l’observabilité. Cet outil de monitoring réseau a alimenté la stratégie « full OpenTelemetry » de l’éditeur. « Être chez Cisco nous a donné l’accès à Isovalent pour l’observabilité et la sécurité », précise Stéphane Estevez. Tetragon, par exemple, alimente des dashboards TCP et DNS dans la composante Network Explorer.
Chez IBM, Instana est le principal terrain d’implémentation d’eBPF. La technologie présente une utilité particulière pour la détection des crashs système, selon Éric Cattoir, membre d’une équipe au niveau EMEA qui couvre les sujets regroupés sous la bannière IT Automation. En écho à Pejman Tabassomi, il déclare, sur le volet instrumentation : « Ça rend la vie plus facile pour notre produit : on a moins à suivre l’évolution des technologies (nouvelles versions de langages, de compilateurs…) ». Instana a toujours eu une approche d’auto-instrumentation, rappelle-t-il, « mais c’est difficile à mettre en place pour certains langages : eBPF facilite cela en permettant d’obtenir de manière standard des informations de profilage ».
On trouve aussi de l’eBPF dans le produit SevOne (observabilité réseau), pour la couche overlay de Kubernetes.
Des programmes composables et portables
Avec les années, les programmes eBPF sont devenus composables : ils peuvent appeler des fonctions (forme de gosub)… et d’autres programmes en remplaçant le contexte d’exécution (goto). Un mécanisme CO-RE (« Compile Once, Run Everywhere ») a été instauré à partir d’un format spécifique de métadonnées (BTF, BPF Type Format) pour procurer une portabilité entre les versions du kernel. Et des passerelles se sont créées avec l’espace utilisateur, à travers une des structures de données que gère eBPF : les magasins clé-valeur dits maps. Des outils sont par ailleurs apparus pour exécuter des programmes en userspace (rBPF, uBPF, bpftime). Ils ont accompagné l’émergence de langages de jaut niveau tel bpftrace – inspiré de DTrace, avec LLVM en back-end et BCC pour interagir avec le sous-système eBPF.
Ce programme eBPF basique (codé en C) écrit un message dans le noyau.
Sauf à activer le mode sans privilèges avec accès limité au noyau, les processus qui chargent des programmes eBPF doivent s’exécuter en mode admin ou avoir la capacité CAP_BPF. La mémoire est protégée en lecture seule et les accès sont masqués pour limiter les effets secondaires observables de l’exécution spéculative. Si une entité tente de modifier le programme, le noyau plante.
Le code passe dans tous les cas par un vérificateur statique. Lequel contrôle, en particulier, que le programme est d’une complexité finie, qu’il se terminera bien et qu’il n’entraînera pas de deadlock ni d’accès mémoire hors limites. Dans la pratique, l’outil reste sujet aux faux positifs. Jusqu’à Linux 5.3, les boucles étaient d’ailleurs proscrites dans les programmes eBPF, le vérificateur étant jugé capable de les évaluer efficacement.
Une fondation où convergent les Big Tech
Depuis 2021, il existe une Fondation eBPF. Google, Meta et Isovalent en sont membres platine. CrowdStrike – qui exploite la techno pour détecter les mouvements de données non autorisés – l’est aussi. Ainsi que Huawei, Intel, Microsoft – qui développe eBPF pour Windows tout en l’exploitant en remplacement du fournisseur d’événements AuditD dans Defender pour Linux – et Red Hat. Datadog est membre argent. Netflix, qui avait pris très tôt le train eBPF, l’est aussi.
Architecture cible d’eBPF pour Windows
Conjointement aux initiatives du marché, cette fondation soutient des projets académiques, à l’instar d’eBPF Governor, alternative aux sous-systèmes de gestion de l’alimentation sur Linux. Des recherches sont également en cours sur la vérification formelle des programmes, en complément à la réécriture du vérificateur en Rust.
Plusieurs projets devenus référents dans l’écosystème eBPF sont maintenant sous l’aile de la CNCF (Cloud Native Computing Foundation). Outre Cilium, on peut citer Falco (détection de menaces), confié en 2018 par Sysdig. Dans le champ de l’observabilité, il y a Pixie, que New Relic a reversé à la CNCF en 2021, quelques mois après en avoir fait l’acquisition (il en propose aujourd’hui une version SaaS).
Pièce maîtresse du réseau mondial de Cloudflare, eBPF a aussi investi les clouds hyperscale. À l’instar de Google sur GKE, AWS s’en sert sur son Kubernetes managé (Caretta pour la cartographie réseau, Hubble pour l’analyse du trafic). Il l’a aussi intégré dans CloudWatch (composante Network Flow Monitor) et de GuardDuty (EC2 Runtime Monitoring). Microsoft l’exploite pour contourner Iptables sur les data planes de offre AKS (Azure Kubernetes Services).
Pour le monitoring, Dynatrace a choisi de s’appuyer sur Inspektor Gadget, framework CNCF qui encapsule les programmes eBPF sous forme d’images OCI. Il le met à contribution dans un module de découverte de services.
Chez Elastic, eBPF alimente le profilage continu, ainsi que la protection de Linux et de Kubernetes dans le cadre de l’offre SIEM/XDR.
Après des semaines de polémique sur la capacité de Grok à générer des deepfakes sexualisés de femmes et d’enfants, la Commission européenne ouvre une procédure d’infraction au titre du Digital Services Act (DSA).Entrée en vigueur en 2023, cette loi impose aux grandes plateformes des obligations strictes en matière de lutte contre les contenus illégaux et la désinformation.
L’enquête va examiner si X a correctement évalué et atténué les risques liés au déploiement de Grok dans l’Union européenne, notamment ceux concernant la dissémination d’images sexuelles manipulées, y compris des contenus susceptibles de constituer du matériel pédopornographique, selon la Commission.
« Les deepfakes sexuels non consentis de femmes et d’enfants constituent une forme violente et inacceptable de dégradation », a déclaré la commissaire européenne chargée de la tech, Henna Virkkunen. Et d’ajouter que l’investigation déterminera si X a respecté ses obligations légales ou si la plateforme a traité les droits des citoyens européens comme des « dommages collatéraux de son service ».
Le scandale a éclaté après que des utilisateurs de plusieurs pays ont signalé que le chatbot de xAI générait et diffusait des images sexualisées sur le réseau social X ainsi que sur l’application Grok. Face à la controverse, xAI a restreint l’usage de Grok aux abonnés payants et affirme avoir mis en place des mesures technologiques pour limiter la génération de certaines images sexualisées.
Une pression réglementaire mondiale
L’Union européenne n’est pas seule à réagir. Le régulateur britannique des médias Ofcom a ouvert sa propre enquête sur Grok au titre de l’Online Safety Act, tandis que la Malaisie et l’Indonésie ont purement et simplement banni le chatbot. La France et l’Inde ont également dénoncé la création illégale d’images sexualisées sans consentement.
Dans un communiqué du 14 janvier, X a indiqué que xAI avait restreint l’édition d’images pour les utilisateurs de Grok et bloqué, selon leur localisation, la génération d’images de personnes en tenues légères dans les juridictions où cela est illégal, sans préciser lesquelles.
Mais pour Bruxelles, ces ajustements ne suffisent pas. Un haut responsable de la Commission a expliqué aux journalistes que l’exécutif européen avait des raisons de croire que X n’avait pas procédé à une évaluation ad hoc avant de déployer les fonctionnalités de Grok en Europe.
Extension de l’enquête aux systèmes de recommandation
En parallèle, la Commission a élargi une procédure ouverte en décembre 2023 pour déterminer si X a correctement évalué et atténué tous les risques systémiques liés à ses systèmes de recommandation, notamment l’impact du passage récemment annoncé à un système basé sur Grok.
Les régulateurs ont prévenu que X pourrait faire l’objet de mesures provisoires en l’absence d’ajustements significatifs de son service. En cas de violation avérée du DSA, la plateforme s’expose à des amendes pouvant atteindre 6% de son chiffre d’affaires mondial annuel, compris entre 2 et 3 milliards $, selon les estimations.
Un nouveau clash avec Washington ?
Cette investigation intervient dans un contexte de tensions croissantes entre Bruxelles et l’administration Trump au sujet de la régulation des grandes plateformes technologiques américaines. En décembre dernier, la Commission avait infligé une amende de 120 millions € à X pour manquement à ses obligations de transparence, notamment concernant son système de certification par badge bleu, l’accès aux données pour les chercheurs et son registre publicitaire.
X n’a pas immédiatement répondu aux demandes de commentaires sur cette nouvelle enquête. La plateforme avait précédemment déclaré qu’elle retirait les contenus illégaux, y compris le matériel pédopornographique, suspendait les comptes concernés et coopérait avec les forces de l’ordre si nécessaire. « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à avoir une tolérance zéro pour toute forme d’exploitation sexuelle d’enfants, de nudité non consentie et de contenu sexuel non désiré », avait indiqué la plateforme.
La Commission irlandaise des médias, coordinateur national des services numériques dans le pays d’établissement de X au sein de l’UE, sera associée à cette investigation conformément au DSA. L’ouverture d’une procédure formelle ne préjuge pas de son issue, mais elle confère à la Commission des pouvoirs d’enquête élargis, notamment la possibilité de mener des inspections, des auditions et d’adopter une décision de non-conformité.
La nouvelle a quelques mois, mais voilà qu’elle dépasse l’île de Guam : Microsoft a fourni des clés BitLocker au FBI.
Sur place, 7 individus sont inculpés de fraude organisée à l’assurance-chômage dans le cadre d’un programme fédéral instauré lors de la crise Covid.
En octobre 2025, la presse locale s’était fait l’écho d’un mandat de la justice. Le destinataire : Microsoft, qui s’y est conformé… en communiquant les clés de récupération BitLocker pour trois ordinateurs saisis 6 mois plus tôt.
Le déchiffrement semble avoir fonctionné, apprend-on désormais. En tout cas à en croire les propos rapportés d’une des avocates de la défense. Le procureur lui aurait fourni des éléments comprenant des informations issues de l’ordinateur de sa cliente et incluant des références aux clés en question.
Les serveurs de Microsoft, option de sauvegarde « par défaut »
Microsoft a confirmé avoir accédé à cette demande – et précisé qu’il en reçoit une vingtaine de ce genre par an. Son message, en substance : utilisateurs, vous êtes les mieux placés pour décider comment vous gérez vos clés BitLocker.
La sauvegarde sur les serveurs de Microsoft n’est effectivement pas la seule option… même si elle est généreusement mise en avant sur les éditions « grand public » de Windows. Il est également possible de la sauvegarder dans un fichier texte, de la créer sur un média amovible (format .bek) ou simplement de choisir de l’imprimer. En environnement d’entreprise, on peut la stocker dans Active Directory.
Cette clé – un mot de passe de 48 chiffres, répartis en 8 groupes – est le dernier étage d’un mécanisme de chiffrement en enveloppe. Elle protège une autre clé (dité « clé principale de volume ») qui en protège elle-même une autre (dite « clé de chiffrement de volume »). L’une et l’autre demeurent sur le lecteur chiffré.
Depuis Windows 11 24H2, BitLocker s’active automatiquement pour qui utilise l’expérience de paramétrage par défaut du système. Si un compte Microsoft est disponible, y sauvegarder la clé de récupération BitLocker est la première option proposée. Elle n’apparaît pas si on opte pour un compte local – ce qui est néanmoins de plus en plus difficile, en tout cas sur les éditions Famille et Pro.