Vue normale

L’omnibus numérique fait tiquer les CNIL européennes

13 février 2026 à 18:37

Au Parlement et au Conseil : prière de ne pas adopter telle quelle la proposition de règlement omnibus numérique.

Le CEPD (Comité européen de la protection des données) et l’EDPS* (Contrôleur européen de la protection des données) avertissent ainsi les colégislateurs de l’UE. Dans leur collimateur, un amendement au RGPD modifiant la définition des données personnelles.

À l’heure actuelle, est définie comme telle toute information se rapportant à une personne physique identifiée ou identifiable.

L’omnibus impose d’apprécier la notion du point de vue de chaque entité. Des informations n’auraient pas de caractère personnel pour qui ne peut pas identifier la personne concernée à l’aide de moyens raisonnables. De même, elles ne le deviendraient pas du point de vue de cette même entité simplement parce qu’un destinataire ultérieur aurait raisonnablement les moyens de réaliser cette identification.

Une modification guidée par un arrêt CJUE

D’après le CEPD et l’EDPB, cette modification vise à codifier essentiellement un arrêt CJUE de septembre 2025.

L’affaire impliquait le Conseil de résolution unique (CRU, autorité de résolution de l’Union bancaire européenne). Ce dernier avait, lors de la résolution de Banco Popular Español, collecté des données d’actionnaires et de créanciers. Il en avait envoyé une partie à Deloitte pour analyse, après les avoir pseudonymisées, mais sans informer de ce transfert les personnes concernées.

Saisi à ce sujet, le CEPD avait estimé que les données en question conservaient un caractère personnel. Et que Deloitte devait donc être mentionné comme destinataire.
Le Tribunal de l’UE avait jugé que non. Selon lui, la qualification devait s’apprécier du point de vue du cabinet, qui n’avait pas la possibilité de réidentifier.

Le CEPD avait formé pourvoi auprès de la CJUE… qui a en quelque sorte coupé la poire en deux. Elle a en l’occurrence considéré que les données avaient un caractère personnel pour le CRU (en tant que responsable initial), mais pas pour Deloitte (destinataire non réidentifiant).

Des lignes directrices plutôt qu’une définition ?

L’affaire a ses spécificités, et la Commission européenne semble en faire fi, clament aujourd’hui l’EDPB et le CEPD. Modifier la définition des données personnelles sur la base d’une codification de ce seul arrêt risque d’engendrer de l’incertitude juridique, poursuivent-ils. Incertitude que renforce, d’une part, la tournure « négative » selon laquelle des informations n’acquièrent pas de caractère personnel simplement par existence d’un potentiel destinataire réidentifiant. Et de l’autre, l’emploi du terme « entité », juridiquement non défini dans le contexte du RGPD.

En plus de « restreindre nettement » la notion de données personnelles, ce changement pourrait inciter les responsables de traitement à trouver des failles, ajoutent le CEPD et l’EDPB. Par exemple, externaliser « artificiellement » certaines activités pour les séparer des moyens de réidentification.

L’EDPB a mené une consultation publique en vue de mettre à jour ses lignes directrices sur la pseudonymisation. Les contributions, déclare-t-il, ont montré que l’arrêt CJUE soulève de nombreuses questions dès lors qu’on prend en considération le reste de la jurisprudence de la cour. Et d’affirmer que ces questions seront mieux traitées par ces lignes directrices que par une modification de la définition des données personnelles.

* L’EDPS veille au respect du RGPD par les institutions et organes de l’UE.

Illustration générée par IA

The post L’omnibus numérique fait tiquer les CNIL européennes appeared first on Silicon.fr.

OpenAI apprend à penser l’inférence sans NVIDIA

13 février 2026 à 15:54

Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.

Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.

Cerebras WSE-3

Un complément basse latence à l’option GPU

Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.

Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.

OpenAI va généraliser WebSocket

Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.

Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.

On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.

À consulter en complément :

Comment OpenAI a diversifié ses fournisseurs
Microsoft veut voler de ses propres ailes dans l’IA
Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité
Claude crée son propre compilateur C : oui, mais…
Codage agentique : le retour d’expérience de Spotify

Illustration principale générée par IA

The post OpenAI apprend à penser l’inférence sans NVIDIA appeared first on Silicon.fr.

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

13 février 2026 à 13:16

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

❌