Vue normale

Reçu aujourd’hui — 13 novembre 2025 Silicon

{ Tribune Expert } – Cloud computing : un choix technologique devenu un choix d’avenir

13 novembre 2025 à 14:19

Pour une entreprise, les données représentent la base de son activité, la confiance de ses clients, ainsi que la souveraineté numérique de son pays. Or, ces mêmes données peuvent échapper à son contrôle, non pas à cause d’une violation ou d’une erreur humaine, mais simplement parce que l’entreprise a accepté les conditions générales d’un fournisseur de cloud plusieurs années auparavant. Bien qu’elle puisse accéder à ses données et les utiliser, elle n’a désormais plus aucun contrôle sur l’écosystème qui les entoure, ni sur leur évolution et leurs changements.

Loin d’être une simple hypothèse, ce cas de figure est une réalité quotidienne pour des milliers d’entreprises partout en Europe et dans d’autres pays. Cette situation soulève alors une question cruciale : comment garantir aux entreprises la maîtrise de leurs données et la liberté de choix dans un tel contexte ?

La promesse du multicloud : entre attentes et réalité

Face à ce constat, les entreprises, notamment les PME, se sont tournées vers le multicloud. En effet, travailler avec plusieurs fournisseurs permet de gagner en flexibilité, sécurité et portabilité des workloads. L’idée consiste donc à migrer les applications existantes puis à les optimiser pour le cloud.

Or, dans la pratique, cette promesse n’est pas souvent tenue. Les entreprises sont confrontées à la nécessité de « transférer » leurs applications monolithes sur site vers le cloud, tout en composant avec de nouvelles applications cloud-first créées par une toute nouvelle génération d’ingénieurs et des silos de données fédérés et distribués.

Au cœur du problème se trouve également quelque chose de plus fondamental qu’une simple part de marché : il s’agit de l’érosion de la liberté de choix et, par conséquent, de l’érosion de la souveraineté. Cette dépendance croissante vis-à-vis des plateformes externes nuit à l’innovation.

En parallèle, les DSI sont chargés de vérifier le respect de la conformité pour les écosystèmes tiers, ce qui enferme les autorités chargées de la réglementation dans des interfaces propriétaires. L’avenir du numérique se confond alors étrangement avec le passé et se retrouve monopolisé par une poignée de personnes à la logique interne obscure et aux motivations incompatibles avec celles de la société.

Sécurité nationale, innovation et éthique : des enjeux globaux

Cette dépendance vis-à-vis de quelques fournisseurs soulève alors trois grand enjeux.

C’est d’abord une question de sécurité nationale. Les pays européens prennent conscience que dépendre d’hyperscalers étrangers pour entraîner et déployer leurs modèles d’IA représente un risque pour leur souveraineté. Plusieurs questions se posent alors : que se passerait-il en cas de changements géopolitiques ? Que se passerait-il si l’accès d’un gouvernement aux données de ses propres citoyens est restreint en raison d’obligations légales étrangères ?

C’est aussi une question d’innovation. En effet, les start-ups ne peuvent pas se permettre de payer des frais de sortie qui pénalisent l’exploration et les universités ne devraient pas avoir à adapter leurs recherches aux contraintes commerciales d’un seul fournisseur. Si l’IA est l’équivalent du « moteur à vapeur » du XXIe siècle, il est essentiel de veiller à ce que son carburant, à savoir les données et la puissance de calcul, reste à la fois accessible et portable.

Enfin, c’est une question d’éthique. L’une des plus grandes erreurs dans la gouvernance de l’IA est l’idée que l’éthique peut être superposée à des systèmes fermés. Que les biais des modèles, l’équité algorithmique et l’explicabilité peuvent être réglementés, tout en déployant les modèles les plus sensibles via des API tierces exécutées dans des environnements « Black Box ».

La véritable gouvernance de l’IA commence par la gouvernance des infrastructures. Cela signifie qu’il faut savoir où les modèles sont hébergés, qu’il faut enregistrer et auditer chaque inférence, mais aussi s’assurer que les modèles ne franchissent pas les frontières et ne transgressent pas les règles locales en matière de résidence des données. Or, le fait d’être lié à un seul fournisseur ou de dépendre de services managés purs qui fonctionnent comme des boîtes noires rend tout cela possible.

Vers un cloud souverain et portable

La prochaine évolution technologique est une plateforme qui ne se contente pas de promettre la portabilité, mais qui la met en œuvre. Là où les moteurs de calcul suivent les données et pas l’inverse. Et surtout, là où l’IA peut être exécutée de manière privée, sécurisée et en toute simplicité. Il n’est pas question d’abandonner le cloud, loin de là. Sa flexibilité, son évolutivité et son potentiel de démocratisation sont révolutionnaires. Mais les révolutions doivent être encadrées et le cloud doit avant tout être un choix.

Aujourd’hui, les entreprises sont confrontées à un choix difficile : continuer à dépendre des fournisseurs, accepter l’augmentation des coûts et la réduction de l’autonomie qui en découle, ou basculer vers un environnement où l’infrastructure est fluide, où l’IA peut être souveraine et où le cloud est une capacité qui leur appartient.

Les DSI, les CTO et les CDO doivent être les garants du contrôle absolu des données au sein de l’entreprise, tant du point de vue budgétaire que de celui de la conformité. Une chose est sûre : le droit de traiter les données doit rester entre les mains des personnes qui sont propriétaires de ces données.

*Sergio Gago est Chief Technology Officer chez Cloudera

The post { Tribune Expert } – Cloud computing : un choix technologique devenu un choix d’avenir appeared first on Silicon.fr.

Le PRA se réinvente à l’heure du Cloud et de l’automatisation

13 novembre 2025 à 12:01

Si aucun fournisseur d’infrastructure n’est totalement à l’abri d’un feu de datacenter ou d’une catastrophe naturelle majeure, la cyberattaque est aujourd’hui la menace n°1 pour les données. Les sauvegardes sont un moyen de redémarrer le SI… si celles-ci n’ont pas été elles-mêmes détruites par l’attaquant !

« Si les sauvegardes peuvent permettre à une entreprise de repartir, il faut encore que celles-ci soient saines , au risque de repartir sur un PRA déjà infecté. Il est donc aujourd’hui indispensable d’intégrer des solutions de sécurité dans les outils de sauvegarde » explique Maxime Baudout, Manager de l’équipe Infrastructure de Jiliti.

Maxime Baudout, Manager de l’équipe Infrastructure de Jiliti

« On retrouve de plus en plus de fonctions cyber  intégrées dans les outils gérant les PRA. Cela va du chiffrement de bout en bout lors d’un PRA externalisé pour garantir que les données ne seront pas lues par le prestataire, à des outils avancés d’inspection des données. » ajoute-t-il.

Illustration de cette convergence entre outils de sauvegarde et cyber, Acronis qui propose désormais une plateforme MSP multi-tenant, pour assurer la sauvegarde des données et la reprise d’activité, l’activité historique de l’éditeur, mais aussi de la cybersécurité avec la protection de la messagerie, de la protection endpoint avec un EDR, du RMM management et du DLP.

Le Cloud, un coup de jeune pour les PRA

L’autre grande tendance forte qui pousse à la refonte des PRA, c’est bien évidemment le Cloud.

Stéphanie Ledoux, PDG et fondatrice d’Alcyconie.

« Les PRA modernes s’appuient de plus en plus sur des solutions hybrides combinant cloud, automatisation, et orchestration des processus de bascule » explique Stéphanie Ledoux, PDG et fondatrice d’Alcyconie. « L’automatisation des tests, la réplication temps réel des données critiques et l’utilisation de plateformes d’orchestration permettent de réduire le temps de bascule et de simplifier les tests réguliers — une étape encore trop souvent négligée. »

Et d'ajouter qu'une approche modulaire des PRA par service ou par périmètre critique doit faciliter aussi leur actualisation. « Ces technologies transforment le PRA en un processus dynamique et non plus en un simple document figé. »

Outre les ressources internes, il est devenu nécessaire d’intégrer à ces PRA les données stockées sur les infrastructures IaaS, PaaS et même SaaS.

« Un plan de reprise d’activité efficace doit pouvoir s’appliquer à l’ensemble de l’infrastructure informatique, quels que soient les environnements utilisés » résume Richard Cassidy, Field CISO EMEA de Rubrik. « Notre solution prend en charge les infrastructures sur site, les environnements cloud, hybrides et SaaS (tels que Microsoft 365 ou Salesforce). L’organisation des sauvegardes est structurée selon des règles de gouvernance adaptées aux priorités de l’entreprise, ce qui permet d’optimiser les processus de sauvegarde, de limiter les coûts d’exploitation et de moderniser les architectures existantes. »

L’éditeur pointe l’intérêt d’une solution Cloud offrant une gestion centralisée et une automatisation basée sur des règles préétablies. Un moyen aussi de contenir les coûts liés à la mise en œuvre d’un PRA. Cette approche contribue à simplifier les opérations informatiques, en s’affranchissant des contraintes associées à des outils anciens ou à des infrastructures complexes. »

Le stockage Cloud S3 est aujourd’hui totalement supporté par les principaux logiciels de sauvegarde et un PRA 100 % Cloud et managé apparaît comme une solution particulièrement intéressante pour les ETI et PME dont les moyens de sauvegarde ne sont pas toujours très fiables.

---------------------------------------------------------------------

Régis Karakozian, directeur Cloud chez KDDI France.

Régis Karakozian, directeur Cloud chez KDDI France 

« L’analyse d’impact métier est cruciale »

« Avant tout, il est crucial d’opérer une analyse d’impact métier (BIA) pour identifier les services critiques, les priorités de reprise, et les délais tolérables d’interruption (RPO/RTO). Cette étape doit se faire en étroite collaboration avec les directions métier, car un PRA n’est pas qu’une question IT.

La documentation du plan, son automatisation, ainsi que la régularité des tests sont aussi essentielles. Un PRA n’a de valeur que s’il est testé régulièrement (au moins 1 fois par an), maintenu à jour et capable d’être activé rapidement. Il faut également prévoir une communication de crise, incluant les parties prenantes internes et externes. »

------------------------------------------------------------------------

Maxime Baudout, Manager de l'équipe Infrastructure de Jiliti

Maxime Baudout, Manager de l'équipe Infrastructure de Jiliti

« L’automatisation permet d’orchestrer un PRA de bout en bout.»

« Les nouvelles technologies ont fait fortement évoluer la gestion des PRA. L’évolution la plus intéressante est pour moi l’automatisation qui permet d’orchestrer un PRA de bout en bout. Cela permet de tester beaucoup plus facilement son PRA et de limiter les erreurs humaines. »

« Le second point clé est l’utilisation du Cloud et de l’hybridation. Il est maintenant facile d’avoir sa production On-Premise et son PRA dans le cloud, ou son infrastructure cloud et le PRA dans un autre Cloud. Cela permet de simplifier grandement les besoins en infrastructure et de limiter les investissements tout en répondant aux exigences réglementaires qui imposent d’avoir son PRA dans un environnement isolé de la production ou distant de X kilomètres. »

-----------------------------------------------------------------------------

Stéphanie Ledoux, PDG et fondatrice d’Alcyconie.

Stéphanie Ledoux, PDG et fondatrice d’Alcyconie

« Externaliser la solution ne doit jamais signifier externaliser la responsabilité de la continuité.»

« Un PRA 100% Cloud, 100% managé peut être pertinent, à condition de bien maîtriser les risques associés. Le cloud managé apporte agilité, scalabilité et externalisation des contraintes techniques. Mais attention aux dépendances critiques, à la localisation des données, à la conformité réglementaire et à la capacité réelle du fournisseur à garantir la disponibilité en cas de crise. Le tout managé ne dispense pas de conserver la gouvernance, le pilotage des tests et la maîtrise des scénarios. »

The post Le PRA se réinvente à l’heure du Cloud et de l’automatisation appeared first on Silicon.fr.

Google relance un Cameyo plus intégré à l’écosystème Chrome

13 novembre 2025 à 12:00

Ne dites plus Cameyo, mais Cameyo by Google.

En parallèle de ce changement de marque, la communication autour du produit évolue. Elle se porte plus sensiblement sur les intégrations avec l’écosystème Chrome.

En la matière, on ne partait pas de zéro. Mi-2024, lorsque Google avait annoncé acquérir Cameyo, des jonctions étaient déjà en place. Essentiellement vis-à-vis de ChromeOS (intégration avec le système de fichiers local, gestion du presse-papiers, livraison d’apps en tant que PWA…).

Est désormais mise en avant l’idée d’expérience unifiée au sein de Chrome Enterprise. Les applications client lourd virtualisées avec Cameyo bénéficieraient, d’un côté, du même contexte de sécurité que le SaaS (filtrage d’URL, DLP, protection contre les menaces…). Et de l’autre, de la même couche IA, à travers l’assistant Gemini for Chrome.

platforms devices
Google érige désormais Cameyo au rang de plate-forme.

La virtualisation Linux, moins mise en avant sous l’ère Google

À l’exception de quelques renvois vers chez Google, le site Internet de Cameyo est demeuré tel qu’il était avant l’acquisition.

Parmi les promesses d’alors, il y avait celle de pouvoir virtualiser des applications Linux et des web apps internes sans avoir besoin d’une licence Windows Server.

Dans le giron de Google, cette possibilité n’est pas exclue, mais elle est nettement moins mise en avant, jusque dans l’assistance en ligne.

Le modèle de licence n’a pas non plus changé (abonnement par utilisateur), mais le nombre minimal d’utilisateurs a augmenté : 50 dorénavant, contre 25 auparavant (voire 15 sur la version autohébergée de Cameyo).

La version managée n’est plus déployable sur Azure : Google Cloud est maintenant l’hébergeur exclusif. Il est, dans ce cadre, responsable du déploiement des VM et de leur mise à l’échelle. Mais pas des logiciels – y compris l’OS – qui fonctionnent sur ces VM.

Des jonctions avec Drive et l’annuaire Google Workspace

Sur GCP, un serveur Cameyo peut exploiter 6 niveaux de capacité, variant en vCPU (1 à 16), en RAM (3,75 à 60 Go) et en réseau (pas d’accès Internet sur les deux premiers niveaux). Des clusters peuvent être mise en place pour l’autoscaling.
Pour l’autohébergement, il faut compter au moins 2 CPU et 8 Go de RAM, avec au minimum Windows Server 2019 (Windows Server 2025 n’est pas encore pris en charge).

D’autres jonctions avec l’écosystème Google ont été établies pour l’authentification des utilisateurs (SSO avec compte Google) et la configuration des permissions (annuaire Google Workspace). Drive a par ailleurs été intégré directement dans les sessions (explorateur et fenêtres de dialogue spécifiques).

Cameyo ne gère pas les applications qui ont besoin d’un accès direct à des périphériques locaux (webcams, imprimantes…). Ni celles qui dépendent de fonctions système (enregistrement d’écran, compression de fichiers…).

Illustrations © Google

The post Google relance un Cameyo plus intégré à l’écosystème Chrome appeared first on Silicon.fr.

Comment un ransomware s’est infiltré au CH Rueil-Malmaison

13 novembre 2025 à 09:00

Entre Ngrok et Pinggy, pas de jaloux : les attaquants qui s’en sont pris au centre hospitalier Stell de Rueil-Malmaison ont exploité l’un et l’autre de ces services de tunneling.

C’était en mars dernier. Au bout, le déploiement d’un ransomware qui avait chiffré des serveurs Windows. La gestion administrative des patients, entre autres, s’en était trouvée indisponible pendant un temps. Des données personnelles ont par ailleurs possiblement été exfiltrées.

Un compte de test admin de domaine

Le point d’entrée fut un ancien compte de test, réactivé le 4 mars 2025 pour un audit Wi-Fi. Ce compte au mot de passe faible avait des privilèges d’admin de domaine et disposait d’un accès VPN.

L’accès initial, via ce vecteur, a lieu le 17 mars (un lundi). Le 22, une latéralisation est mise en œuvre par connexion RDP sur le contrôleur de domaine. Un mécanisme de persistance est ensuite déployé, en ajoutant Pinggy pour établir une connexion SSH sur le port 443.

Vendredi 28 mars, un canal est mis en place entre le contrôleur de domaine et le serveur de l’attaquant grâce à Ngrok. Le même jour, le ransomware est déployé et exécuté. Le lendemain, les traces de l’attaque sur les systèmes sont supprimées.

Le CH de Rueil-Malmaison passe au tiering AD

Le chiffrement n’est constaté que lundi 31 mars. À partir de là, les flux VPN sont coupés ; les serveurs impactés, isolés. Le lendemain, les sauvegardes sont mises hors réseau en vérifiant leur intégrité. L’ANSSI et le CERT Santé se déplacent sur site.

Le 2 avril, l’analyse des serveurs compromis démarre. Et du matériel (postes, clés 4G…) est demandé à l’ARS.

La reconstruction AD débute le 7, parallèlement à la fin des analyses. Le 10, la bascule est achevée. Le service de sauvegarde est relancé, les services métiers impactés sont restaurés et une formation d’administration sécurisée est dispensée.

La période d’avril-mai est marquée par le rétablissement progressif des services RH et d’admission, ainsi que le déploiement de nouveaux postes. Entre juin et septembre, un modèle par niveaux de privilège est mis en place pour l’AD.

Illustration générée par IA

The post Comment un ransomware s’est infiltré au CH Rueil-Malmaison appeared first on Silicon.fr.

Reçu hier — 12 novembre 2025 Silicon

Le RGPD, parti pour changer jusqu’à la définition des données personnelles

12 novembre 2025 à 16:08

Dans la réglementation européenne, les « données à caractère personnel » seront peut-être bientôt une notion moins absolue.

L’omnibus numérique, que Bruxelles doit présenter la semaine prochaine, va en tout cas dans ce sens. Tout du moins si on en croit le brouillon qui a filtré.

À l’heure actuelle, le RGPD définit les données personnelles comme toute information se rapportant à une personne physique identifiée ou identifiable.

L’omnibus numérique impose d’apprécier la notion du point de vue de chaque entité : des informations n’ont pas de caractère personnel pour qui ne peut pas identifier la personne concernée à l’aide de moyens raisonnables. De même, elles ne le deviendraient pas du point de vue de cette même entité simplement parce qu’un destinataire ultérieure aurait raisonnablement les moyens de réaliser cette identification.

Traitement de catégories particulières de données : une exception à la faveur des systèmes d’IA

L’omnibus numérique modifierait une autre définition inscrite dans le RGPD : celle des « données concernant la santé ». Il ne s’agirait plus que de celles qui révèlent « directement » des informations sur l’état de santé d’une personne.

La même approche serait adoptée pour amender l’article 9 (traitement de catégories particulières de données personnelles). Ne serait plus interdit que le traitement de données personnelles révélant « directement » l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques, etc.

En l’état, cette interdiction ne s’applique pas si certaines conditions sont remplies. Par exemple, l’obtention d’un consentement explicite ou une nécessité pour la sauvegarde des intérêts vitaux de la personne concernée.
L’omnibus y ajoute deux possibilités, dont une touchant au développement et à l’exploitation de systèmes d’IA. Ce à condition d’avoir mis en place les mesures techniques et organisationnelles appropriées pour éviter autant que possible la collecte de catégories particulières de données personnelles. Et, le cas échéant, de supprimer ces données ou d’éviter qu’elles alimentent des outputs, soient divulguées ou soient rendues accessibles à des tiers.

Un allégement des exigences d’information des personnes concernées

L’omnibus numérique amenderait aussi l’article 13 (informations à fournir lorsque des données personnelles sont collectées auprès de la personne concernée).

Actuellement, les dispositions ne s’appliquent pas lorsque la personne concernée dispose déjà de ces informations.

À l’avenir, elles ne s’appliqueraient pas dès lors que les collectes seraient effectuées dans le cadre d’une relation « claire et délimitée » par un responsable de traitement exerçant une activité « non intensive en données ». Et qu’il existe des motifs raisonnables de supposer que la personne connaît déjà les finalités et la base juridique du traitement, ainsi que l’identité et les coordonnées du responsable.
Tout cela ne vaudrait pas si les données étaient transmises à d’autres destinataires ou catégories de destinataires, transférées vers des pays tiers, exploitées pour de la décision automatisée, ou si le traitement pose un risque élevé pour les droits et libertés des personnes concernées.

De « interdit sauf si » à « autorisé sauf si » : une tournure plus favorable aux décisions individuelles automatisées

La décision individuelle automatisée (article 22) évoluerait aussi en conséquence de l’omnibus numérique.

Actuellement, il est établi que la personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire. Ce droit ne s’applique pas lorsque la décision est :

  • Nécessaire à la conclusion ou à l’exécution d’une contrat
  • Autorisée par le droit de l’UE ou de l’État membre auquel le responsable de traitement est soumis
  • Fondée sur le consentement explicite de la personne concernée

Le fond ne changerait pas. Mais la forme, si, au profit d’une rédaction de type « traitement automatisé autorisé sauf si… ».

Violations de données personnelles : notifications restreintes et délai allongé

Un autre assouplissement est prévu sur l’article 33.

Celui-ci impose actuellement aux responsables de traitement de notifier les violations de données personnelles à l’autorité de contrôle référente sous 72 heures.

L’omnibus numérique cette obligation aux violations engendrant un risque élevé pour les droits et libertés de personnes physiques. Il porterait par ailleurs le délai à 96 heures.

Les autorités de contrôle n’établiraient plus leur liste d’AIPD

La conception de listes des types d’opérations de traitement exigeant une AIPD (analyse d’impact préalable) est actuellement à la charge des autorités de contrôle, qui les communiquent aux Comité européen de la protection des données.

L’omnibus numérique supprimerait cet échelon : la liste serait directement élaborée par ledit comité, qui la transmettrait à la Commission européenne.

Traitements de données au travail : un cadre précisé pour les données des terminaux

L’article 88, relatif au traitement des données dans le cadre des relations de travail, n’évoluerait pas en lui-même. Mais trois articles 88a, 88b et 88c viendraient le compléter.

L’article 88a encadrerait le traitement de données personnelles stockées sur ou provenant de terminaux. Il l’autoriserait s’il est nécessaire pour :

  • Acheminer une communication électronique
  • Fournir un service explicitement demandé par la personne concernée
  • Agréger des infos sur l’usage d’une service en ligne afin de mesurer son audience
  • Maintenir ou restaurer la sécurité d’un service demandé par la personne concernée ou du terminal utilisé pour fournir ce service

Pour toutes autres finalités, les traitements auraient à respecter les bases légales énoncées à l’article 6 du RGPD et éventuellement l’article 9 (catégories particulières de données personnelles). Un éventuel consentement devrait pouvoir être manifesté par un clic sur un bouton « ou par des moyens équivalents ». Le responsable de traitement aurait à respecter ce choix pour au moins 6 mois.

Une (énième) perspective d’expression automatisée du consentement

L’article 88b ouvre la voie à une expression du consentement de manière automatisée et lisible par la machine. Une solution que l’UE explore depuis bien longtemps : un amendement de 2009 à la directive ePrivacy avait déjà encouragé un tel mécanisme, notamment par l’intermédiaire des paramètres de navigateur web.

Une fois les normes harmonisées établies, les responsables de traitement auraient 6 mois pour faire en sorte que leurs services gèrent ces signaux. Les médias – tels que définis dans l’European Media Freedom Act de 2024 – n’y seraient pas tenus, « vu l’importance que les revenus publicitaires représentent pour eux ».

En cas d’adoption insuffisante par les fournisseurs de navigateurs web et de systèmes d’exploitation, la Commission européenne aurait le pouvoir de les contraindre par actes délégués.

L’article 88c concernerait les traitements dans le contexte du développement et de l’exploitation de systèmes d’IA. Ils les autoriserait s’ils sont nécessaires au sens de l’article 6(1)(f). C’est-à-dire au nom des intérêts légitimes du responsable de traitement ou d’un tiers, à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée.

Illustration générée par IA

The post Le RGPD, parti pour changer jusqu’à la définition des données personnelles appeared first on Silicon.fr.

Pourquoi Yann LeCun quitte Meta

12 novembre 2025 à 14:49

Should I stay or should I go ? Voilà plusieurs mois que la question trotte dans la tête de Yann LeCun, scientifique en chef de l’intelligence artificielle chez Meta depuis 2013.

Selon le Financial Times (FT), le lauréat du prix Turing aurait informé ses proches de son intention de partir dans les prochains mois. Il serait également en discussions préliminaires pour lever des fonds destinés à sa future startup, selon des sources proches du dossier citées par le FT.

Une issue qui n’est pas vraiment une surprise tant le chercheur franco-américain, considéré comme l’un des pères fondateurs de l’IA moderne, apparait éloigné de la nouvelle stratégie souhaitée par Mark Zuckerberg pour coller à la roue d’OpenAI.

En effet, le fondateur de Meta a décidé de délaisser les travaux de recherche fondamentale menés par le laboratoire FAIR (Fundamental AI Research Lab), dirigé par LeCun, au profit d’un déploiement accéléré de modèles et produits d’IA commerciaux. Cette réorientation fait suite à la performance décevante du modèle Llama 4, qui s’est révélé inférieur aux offres concurrentes de Google, OpenAI et Anthropic.

Une réorganisation qui bouleverse les hiérarchies

L’été dernier, Mark Zuckerberg a recruté Alexandr Wang, fondateur de la startup Scale AI, pour diriger une nouvelle équipe dédiée à la « superintelligence ». Cette embauche s’est accompagnée d’un investissement de 14,3 milliards $ pour acquérir 49% de Scale AI. Conséquence directe : LeCun, qui reportait jusqu’alors au directeur produit Chris Cox, se retrouve désormais sous la supervision de Wang, âgé de 28 ans.

Le patron de Meta a parallèlement constitué une équipe exclusive, baptisée TBD Lab, chargée de développer la prochaine génération de grands modèles de langage. Pour attirer des talents d’OpenAI et de Google, des packages de rémunération atteignant 100 millions $ ont été proposés. En juillet, Shengjia Zhao, co-créateur de ChatGPT chez OpenAI, a été embauché comme scientifique en chef du laboratoire Superintelligence.

Un désaccord fondamental sur l’avenir de l’IA

Cette réorganisation met en lumière une divergence stratégique profonde. LeCun défend depuis longtemps la thèse selon laquelle les grands modèles de langage (LLM), au cœur de la nouvelle stratégie de Mark Zuckerberg, sont certes utiles mais ne permettront jamais d’atteindre des capacités de raisonnement et de planification comparables à celles des humains.

Le scientifique concentre ses travaux au sein de FAIR sur une génération entièrement nouvelle de systèmes d’IA : les « modèles du monde ». Ces architectures visent à comprendre le monde physique en apprenant à partir de vidéos et de données spatiales plutôt que de simples contenus textuels. LeCun estime toutefois qu’une décennie pourrait être nécessaire pour développer pleinement cette technologie. Son prochain projet entrepreneurial portera précisément sur l’approfondissement de ces recherches selon le FT.

Le départ annoncé de Yann LeCun n’est pas le premier des « vétérans de l’IA » à quitter Meta. En mai, c’est Joelle Pineau, vice-présidente de la recherche en IA, qui avait rejoint la startup canadienne Cohere. En octobre, ce sont environ 600 personnes de son unité de recherche qui avaient été licenciées.

The post Pourquoi Yann LeCun quitte Meta appeared first on Silicon.fr.

Omnibus numérique : le grand chantier du Data Act

12 novembre 2025 à 12:59

L’échéance approche : le 19 novembre, la Commission européenne devrait présenter son « omnibus numérique ».

Un brouillon, non daté, a filtré avant l’heure. Il est proposé d’y amender 5 textes :

  • Data Act (règlement 2023/2854)
  • RGPD (règlement 2016/679)
  • AI Act (règlement 2024/1689)
  • ePrivacy (directive 2002/58/EC)
  • SRI 2 (directive 2022/2555)

Il s’agit aussi d’en abroger 4 :

  • Data Governance Act (règlement 2022/868)
  • Directive Open Data (2019/1024)
  • Règlement sur la libre circulation des données à caractère non personnel au sein de l’UE (2018/1807, dit FFDR)
  • Règlement promouvant l’équité et la transparence pour les entreprises utilisatrices de services d’intermédiation en ligne (2019/150, dit P2B)

Le Data Act va « absorber » plusieurs autres textes

Data Governance Act, directive Open Data et règlement FFDR seraient consolidés au sein du Data Act. Une démarche d’autant plus logique, à en croire Bruxelles, que ces textes se chevauchent sans que leurs interactions soient toujours claires. Le FFDR, par exemple, a en partie été remplacé par le chapitre VI du Data Act (relatif au changement de services de traitement de données). Quant au chapitre II du Data Governance Act (réutilisation de certaines catégories de données détenues par des organismes du secteur public), il complète les dispositions de la directive Open Data.

La proposition d’omnibus numérique identifie quatre éléments « importants » pour assurer un équilibre entre disponibilité des données et droits/intérêts de leurs détenteurs  :

  • Nécessité de renforcer les garde-fous contre le risque de fuite de secrets commerciaux vers des pays tiers dans le contexte des dispositions sur le partage de données des produits connectés
  • Risque d’ambiguïtés juridiques au vu du périmètre étendu du cadre business-to-government
  • Risque d’incertitude en lien avec les exigences essentielles pour les smart contracts exécutant des accords de partage de données
  • Insuffisance de prise en compte, dans le cadre du changement de fournisseur de traitement de données, des services adaptés aux besoin d’un client ou fournis par des PME/small caps

Vers la fin des exigences sur les smart contracts

Les exigences concernant les smart contracts se trouvent au chapitre VIII du Data Act (« Interopérabilité »). Elles touchent au contrôle de l’accès, à l’archivage des données, à la résiliation en toute sécurité, etc. L’omnibus numérique les supprimerait.

Données IoT : une protection renforcée du secret des affaires

Le chapitre II du Data Act régit le partage de données relatives aux produits connectés et aux services connexes. Actuellement, il permet à un détenteur de données de refuser de les communiquer au nom du secret des affaires s’il démontre qu’il existe un risque de préjudice économique grave.
L’omnibus numérique ajouterait un motif de refus supplémentaire : l’existence d’un risque élevé d’acquisition ou d’usage par des pays tiers qui ne garantissent pas un niveau de protection des données équivalent à celui de l’UE.

Un régime « spécial très grandes entreprises » pour l’open data public

Une simplification du cadre business-to-government serait effectuée au niveau du chapitre V du Data Act. Celui-ci régit la mise à disposition de données au bénéfice d’organismes du secteur public, de la Commission européenne, de la BCE ou d’un organe de l’UE « sur le fondement d’un besoin exceptionnel ».
L’omnibus numérique préciserait le champ d’application en remplaçant « besoin exceptionnel » par « urgence publique ».

La fusion des dispositions de la directive Open Data et du Data Governance Act en un chapitre sur la réutilisation des données du secteur public s’accompagnerait d’évolutions. Parmi elles, la possibilité de facturer plus l’accès aux très grandes entreprises – en première ligne, les « contrôleurs d’accès » tels que définis dans le DMA – et d’y assortir des conditions spécifiques.
En parallèle, les règles du Data Governance Act concernant certaines catégories de données protégées seraient introduites dans le Data Act sous forme simplifiée, avec une clarification sur les règles applicables dans les cas où des données personnelles ont été rendues anonymes.

Des facilités pour les PME qui fournissent de services traitement de données…

Le changement de fournisseur de traitement de données est encadré par le chapitre VI du Data Act.

L’omnibus numérique créerait un régime spécifique plus « léger » pour les services « personnalisés » (non commercialisés sur étagère et qui ne fonctionneraient pas sans une adaptation préalable aux besoins de l’utilisateur) à l’exception du IaaS. Ceux faisant l’objet d’un contrat signé avant le 12 septembre 2025 ne seraient soumis à aucune des obligations du chapitre (information, bonne foi, transparence sur les accès internationaux…) sauf celle relative à la suppression progressive des frais de changement.

Ce régime s’appliquerait aussi aux services fournis – dans le cadre de contrats signés avant cette même date – par des PME et des small caps. Ces dernières auraient la possibilité d’inclure, dans les contrats à durée déterminée, des pénalités de résiliation anticipée.

… et pour les fournisseurs de services d’intermédiation de données

L’omnibus numérique incorporerait dans le Data Act deux régimes actuellement inscrits dans le Data Governance Act. D’une part, le chapitre III, qui impose une notification des autorités compétentes par les prestataires de services d’intermédiation de données. De l’autre, le chapitre IV, qui établit un mécanisme d’enregistrement volontaire des organismes altruistes en matière de données au sein de registres publics nationaux.

Vu la nature émergente des services d’intermédiation de données, leurs prestataires ne devraient pas être obligés de notifier les autorités, estime Bruxelles. Le brouillon de l’omnibus numérique va dans ce sens. Il élimine par ailleurs l’obligation de séparation juridique vis-à-vis d’autres services, la remplaçant par une exigence de séparation fonctionnelle.
En ce qui concerne les organisations altruistes en matière de données, les obligations de transparence et de reporting seraient supprimées.

Règlement FFDR : un seul principe préservé

Du règlement FFDR ne serait conservé qu’un principe : celui qui interdit les exigences de localisation des données sauf si elles sont justifiées par des motifs de sécurité publique.

Illustration générée par IA

The post Omnibus numérique : le grand chantier du Data Act appeared first on Silicon.fr.

Reçu — 7 novembre 2025 Silicon

De prompt en vibe coding, le lexique de l’IA générative entre dans l’usage

7 novembre 2025 à 13:17

Et le mot de l’année 2025 est… vibe coding.

Ainsi en a décidé le Collins.
Le dictionnaire britannique qualifie d’argotique (slang) ce terme qui désigne « l’usage de l’intelligence artificielle en langage naturel pour aider à l’écriture de code infomatique ». Il l’attribue à Andrej Karpathy, membre fondateur d’OpenAI et ancien directeur de l’IA de Tesla. Il a également des entrées pour vibe coder (nom) et vibe-code (verbe).

Sur la shortlist figuraient aussi, entre autres :

  • taskmasking
    « Fait de donner une fausse impression d’être productif au bureau ».
  • broligarchy
    « Petite clique d’hommes très riches qui exercent une influence politique ». En première ligne, les milliardaires de la tech présents à l’investiture de Donald Trump pour son deuxième mandat de président des États-Unis.
  • clanker
    « Terme péjoratif pour un ordinateur, un robot ou une source d’intelligence artificielle ». Il trouve son origine dans la franchise Star Wars et dérive du nom clank, qui désigne un cliquetis, un « bruit sec et métallique »

Les « mots de l’année » du Collins ont régulièrement trait aux technologies :

  • Geek en 2013 (Bitcoin et phablet étaient sur la shortlist)
  • Fake news en 2017
  • NFT en 2021 (crypto, metaverse et hybrid working étaient sur la shortlist)
  • AI en 2023

Je prompte, tu promptes, il prompte…

En France, les dictionnaires de référence n’ont pas encore intégré le vibe coding.

Parmi les mots nouveaux du Petit Robert 2026 (publié en mai 2025) figure l’hypertrucage.
Cette recommandation officielle pour « deepfake » vient du Canada, mais elle « se fait une place en français », nous assure-t-on. Preuve en serait de son emploi dans la version française de l’AI Act.
En parallèle, le mot hallucination voit son sens enrichi (« réponse fausse produite par une intelligence artificielle générative, avec une apparence de vérité »).

Le Petit Robert 2026 a également accueilli « apprentissage profond » (recommandation officielle pour deep learning), « clonage de voix »… et le verbe prompter.

Le substantif prompt était arrivé l’année précédente. Comme « solutionnisme (technologique) »/ »technosolutionnisme« , défini comme une « idéologie qui consiste à rechercher des solutions technologiques aux problèmes (sociaux, écologiques, etc.) sans en examiner les causes profondes ».

L’édition 2024 du Petit Robert avait accueilli métavers et minage (au sens de « validation, en échange d’une rémunération, d’un ensemble de transactions effectuées en cryptomonnaie avant inscription sur une blockchain »). Ainsi que disquette, au sens (familier) de « phrase, formule peu flatteuse, souvent lourde, destinée à séduire quelqu’un » (ou de « parole trompeuse ; mensonge »).

Le modèle de langage est entré dans le Petit Larousse

« Prompter » n’est pas encore dans le Petit Larousse, mais « prompt » y est entré cette année. Comme « modèle de langage« . Et l’adjectif haptique, se référant à une « technologie qui reproduit en temps réel la sensation du toucher dans un environnement virtuel »).

L’édition 2025 du Petit Larousse avait accueilli les noms bot et cyberattaque, l’expression « détox digitale » et le verbe cracker (« faire sauter illégalement les dispositifs de protection d’un système informatique »), venu compléter le substantif cracke(u)r. En 2024, « instagrammable », entre autres, avait fait son entrée.

À consulter en complément :

Canva impose le vibe coding pour le recrutement des développeurs
Vibe coding : bonne ou mauvaise vibe ?
Assistants de codage : un marché volatil où les prix sont peu lisibles

Illustration générée par IA

The post De prompt en vibe coding, le lexique de l’IA générative entre dans l’usage appeared first on Silicon.fr.

L’Union européenne va-t-elle reporter sa législation sur l’IA ?

7 novembre 2025 à 12:13

La Commission européenne prévoit de suspendre temporairement certaines dispositions de sa législation phare sur l’intelligence artificielle (IA), dans un contexte de fortes pressions exercées par les grandes entreprises technologiques et le gouvernement américain, rapporte le Financial Times (FT).

Selon le FT, Bruxelles devrait alléger une partie de son règlement numérique, notamment l’AI Act, qui est entré en vigueur en août 2024, lors de l’adoption d’un « paquet de simplification » prévue le 19 novembre. Cette initiative s’inscrit dans les efforts de l’UE pour renforcer sa compétitivité face aux États-Unis et à la Chine.

Le projet de proposition intervient alors qu’un débat plus large oppose les autorités européennes à la manière dont elles devraient appliquer les règles numériques, face à une vive opposition des géants de la technologie soutenus par l’ancien président américain Donald Trump. L’UE a également dû gérer des pressions de la part de groupes européens inquiets des effets de l’AI Act, considéré comme le régime de régulation de l’IA le plus strict au monde.

D’après un responsable européen cité par le FT, l’UE a « engagé des discussions » avec l’administration Trump sur des ajustements à l’AI Act et à d’autres régulations numériques dans le cadre du processus de simplification.

Un délai supplémentaire pour appliquer les sanctions prévues dans l’IA Act

Bien que la législation soit entrée en vigueur, de nombreuses dispositions ne prendront effet que dans les années à venir. Les principales obligations pour les systèmes d’IA susceptibles de présenter des « risques sérieux » pour la santé, la sécurité ou les droits fondamentaux des citoyens sont prévues pour août 2026.

Le projet de la Commission, consulté par le FT, envisage d’accorder aux entreprises enfreignant les règles sur les usages d’IA les plus risqués un délai de grâce d’un an. Cette mesure pourrait concerner les fournisseurs de systèmes d’IA générative déjà commercialisés avant la date de mise en œuvre, afin de leur laisser « le temps de s’adapter sans perturber le marché ».

Bruxelles propose également de reporter l’imposition d’amendes pour violation des nouvelles règles de transparence jusqu’en août 2027, pour « permettre aux fournisseurs et utilisateurs d’IA de s’adapter ». Le projet vise en outre à simplifier le fardeau réglementaire pour les entreprises et à centraliser l’application de la loi via un bureau européen de l’IA.

Une porte-parole de la Commission a précisé au FT que « plusieurs options sont à l’étude » concernant un éventuel report de certaines dispositions de l’AI Act, tout en affirmant que l’UE reste « pleinement attachée à la loi et à ses objectifs ».

The post L’Union européenne va-t-elle reporter sa législation sur l’IA ? appeared first on Silicon.fr.

EDF choisit Bleu et S3NS : une vision du cloud de confiance qui interpelle

7 novembre 2025 à 10:06

« Bleu et S3NS existent grâce à la circulaire ‘cloud au centre’. […] EDF ne fait que déployer la stratégie de l’État voulue par les ministres de l’époque.« 

Alain Garnier, patron de Jamespot, exprime un certain fatalisme quant à la décision du groupe industriel de recourir à ces deux fournisseurs dans la perspective de compléter son cloud privé.

Yann Lechelle, ancien DG de Scaleway, lui fait écho. Il voit, en Bleu et S3NS, des joint-ventures « coercitives » au bénéfice du modèle « cloud de confiance » annoncé en 2021 par Bruno Le Maire. « Le montage répond au cahier des charges qui n’apporte qu’une réponse (très) partielle à notre situation« , ajoute l’intéressé. Non sans affirmer que si la souveraineté de la donnée est garantie (en supposant que la qualification SecNumCloud soit atteinte), la souveraineté technologique ne l’est pas.

SecNumCloud ne résout pas tout…

On retrouve ce discours chez Alain Issarni. « Comment parler de souveraineté quand la technologie sous-jacente reste à ce point contrôlée par les GAFAM ? » se demande l’ancien patron de NumSpot. EDF est, estime-t-il, dans la lignée de l’État français, « qui, sur le Health Data Hub, a refusé pendant 5  ans toute sortie d’Azure« . Il redoute que le groupe tombe dans « le même piège » que l’US Navy, qui a récemment admis qu’il lui faudrait 3 ans pour sortir du cloud de Microsoft, faute de réversibilité réelle.

Une qualification SecNumCloud ne suffit pas à effacer les dépendances structurelles, clame Alain Issarni : que se passe-t-il si Google ou Microsoft décide de couper les mises à jour ? Et comment assurer la souveraineté des « escortes numériques » (accès niveau 3), alors même que le département de la Défense des États-Unis a condamné ce modèle, jugeant Microsoft incapable d’en assurer le contrôle ?

… notamment l’exposition au FISA

« Le plan que j’imaginais se met en place« , commente Tariq Krim. Le fondateur de Netvibes et ancien vice-président du Conseil national du numérique fait référence à un billet qu’il avait publié en juin 2025 : « Comment l’État a confisqué le marché de la souveraineté numérique ».

Dns ce billet, Tariq Krim postule qu’à la fin du premier mandat d’Emmanuel Macron, trois crises (« Covid, polarisation Trump I et émotion autour de l’hébergement du HDH chez Microsoft ») ont servi de prétexte à l’État pour reprendre la main sur la « souveraineté » en écartant les acteurs historiques.
Un glissement sémantique de « souveraineté numérique » à « cloud de confiance » a neutralisé la dimension géopolitique. Trois pôles ont alors façonné la doctrine actuelle, « chacun selon son intérêt » :

  • La DGE et l’ANSSI ont élaboré SecNumCloud, qui a verrouillé l’accès au marché
  • Bercy a suivi les recommandations des grands groupes, qui réclamaient un Office 365 souverain
  • La présidence de la République souhaite continuer à soutenir une start-up nation très dépendante des GAFAM

Le « cloud de confiance », tel que promu par l’État, ne protège pas du FISA (Foreign Intelligence Surveillance Act), déclare Tariq Krim. Il rappelle la récente extension de la portée de cette loi américaine, qui englobe désormais la surveillance des infrastructures en plus de tout logiciel connecté à un réseau, y compris lorsqu’il est déployé sur site. Lors d’une audition au Sénat, l’ANSSI a expliqué disposer d’une solution pour garantir une immunité, mais elle n’en a pas fait de démo publique.

Michel-Marie Maudet fait remarquer qu’EDF lui-même met des guillemets autour de « cloud de confiance ». « Ce n’est pas anodin« , affirme le directeur général de LINAGORA. Il regrette à la fois, un « message désastreux envoyé au marché » et une « erreur stratégique majeure » pour le CSF « Logiciels et solutions numériques de confiance ».

Illustration générée par IA

The post EDF choisit Bleu et S3NS : une vision du cloud de confiance qui interpelle appeared first on Silicon.fr.

Gestion du travail collaboratif : un segment dont l’IA brouille les frontières

7 novembre 2025 à 07:02

Parler d’un marché des solutions de gestion du travail collaboratif a-t-il encore un sens ?

Gartner le fait encore dans le cadre de son Magic Quadrant. L’an dernier, il avait toutefois reconnu que les frontières s’estompaient avec des offres issues de segments adjacents (gestion de projets, intranets, outils de développement, suites bureautiques cloud…) tendant à développer de telles capacités.

La même dynamique est évoquée cette année, mais dans le sens inverse : à mesure que l’IA les gagne, les solutions de gestion du travail collaboratif entrent en concurrence avec des applications métier qui relèvent d’autres segments dans la nomenclature du cabinet américain.

Ce phénomène est aussi porté par la multiplication de ce que Gartner appelle des « accélérateurs de cas d’usage ». En quelque sorte, des kits de démarrage associant modèles de données, workflows et configurations prêts à l’emploi. Une proposition de valeur qui réduisent, tout du moins sur le papier, le besoin en applications spécialisées.

9 fournisseurs… tous « leaders » ou presque

D’une année à l’autre, les critères d’inclusion au Magic Quadrant ont peu évolué. Sur le volet fonctionnel, il fallait toujours, dans les grandes lignes, couvrir au minimum les aspects planification, collaboration (y compris création de contenu), workflows et automatisation, reporting et analytics, en fournissant également lesdits « accélérateurs de cas d’usage ». Un élément s’est ajouté : « assistance intelligente ». Y sont regroupées des capacités fondées sur l’IA générative, dont la création et l’édition de contenu, l’aide à l’utilisation des produits et l’optimisation de workflows.

Les offreurs sont évalués sur deux axes. L’un prospectif (« vision »), centré sur les stratégies (sectorielle, géographique, commerciale, marketing, produit…). L’autre censé refléter la capacité à répondre effectivement à la demande (« exécution » : expérience client, performance avant-vente, qualité des produits/services…).

Les 9 fournisseurs classés sont les mêmes que l’an dernier. En 2024, ils étaient 5 dans le carré des « leaders »… et les 4 autres n’en étaient pas si loin. Un an plus tard, ils sont 7 « leaders » et les 2 autres en sont encore plus proches.

La situation sur l’axe « exécution » :

Rang Fournisseur Évolution annuelle
1 monday.com +1
2 Smartsheet – 1
3 Asana =
4 Adobe =
5 Airtable + 1
6 Wrike – 1
7 Atlassian =
8 ClickUp =
9 Quickbase =

L’expérience client et la qualité des produits ont eu un poids élevé dans la notation. La viabilité (santé financière et probabilité d’investissement continu dans la solution), un poids moyen. L’exécution commerciale et marketing, un poids bas.

Sur l’axe « vision » :

Rang Fournisseur Évolution annuelle
1 monday.com =
2 Asana =
3 Smartsheet =
4 Airtable =
5 Wrike =
6 ClickUp + 1
7 Quickbase + 2
8 Atlassian =
9 Adobe – 3

La stratégie produit a eu un poids élevé dans la notation. L’innovation, un poids moyen. La compréhension du marché, un poids bas, comme les stratégies commerciale, marketing et géographique. La stratégie sectorielle n’a pas été notée.

Du channel aux solutions sectorielles, des éléments « en développement » chez Airtable

Airtable se distingue autant sur la composante low-code que sur la scalabilité de son socle HyperDB. Gartner salue aussi l’innovation en matière d’IA, avec une approche associant chatbot global et agents embarqués au sein des applications.

À grande échelle, il peut s’avérer difficile de maintenir une gouvernance cohérente des applications personnalisés. Attention aussi à la courbe d’apprentissage pour qui est néophyte des concepts de base de données. Gartner souligne aussi qu’Airtable développe actuellement sa présence hors de son cœur de marché (présence physique, channel, datacenters) et sur les solutions sectorielles.

Avec Asana, attention à la courbe d’apprentissage

Bon point pour Asana sur la notoriété de marque, la communauté et le taux d’adoption pour certains usages (planification du travail, en particulier). Gartner apprécie aussi l’architecture Work Graph, entre le modèle de données qui la porte et les agents IA qui y sont greffés. Il note également l’exhaustivité de l’offre sur la gestion de tâches et des projets ainsi que sur le suivi d’objectifs et résultats.

De par son exhaustivité, Asana est susceptible de présenter une certaine courbe d’apprentissage. Gartner relève aussi une marge de progression sur l’approche sectorielle : certains cas d’usage peuvent ne pas être efficacement couverts. Le cabinet américain remarque également que la croissance des revenus d’Asana a ralenti, tandis que l’effectif n’a pas augmenté. Potentiellement le signe, estime-t-il, d’une dépendance au modèle product-led (le produit comme moyen privilégié d’acquisition, par opposition au sales-led ou au marketing-led).

Atlassian : des faiblesses sur la gestion des actifs et du temps

Atlassian se distingue par son niveau de présence sur le marché ; et par sa notoriété, notamment chez les développeurs et l’IT. Il a aussi pour lui son écosystème (partenaires, marketplace fournie, certification de produits tiers…). Et sa tarification, jugée transparente et compétitive.

Certains produits ayant tendance à se chevaucher (Gartner cite Trello et Jira), l’offre d’Atlassian peut s’avérer difficile à appréhender. S’y ajoute une approche commerciale et marketing moins développée que chez les concurrents sur l’aspect sectoriel. Au niveau fonctionnel, il existe des faiblesses sur la gestion d’actifs, l’allocation de ressources et le suivi du temps.

ClickUp, pas déployé à la même échelle que les concurrents directs

Gartner note la croissance notable de la clientèle de ClickUp et du nombre d’utilisateurs actifs. Il souligne aussi la facilité d’utilisation, tant au niveau de l’interface que de par la flexibilité offerte sur la gestion de tâches, avec une configuration initiale minimale. Bon point également sur la convergence « travail-connaissances-communication », qui minimise le changement de contexte.

Hors de l’Union européenne, la présence géographique de ClickUp est limité. Ses plus gros déploiements sont plus petits que ceux des concurrents directs (moindres volumes de données et d’utilisateurs simultanés). Quant au réseau de partenaires, il est « en évolution », tout comme le ciblage de secteurs et de métiers (pas de programme commercial dédié).

Tarification, cœur fonctionnel… Les contreparties des « accélérateurs » de monday.com

monday.com jouit d’une notoriété portée par son niveau d’offre gratuit, son UX jugée intuitive et son ciblage efficace de relais d’influence dans plusieurs secteurs. Autre élément de distinction : ses « accélérateurs » (CRM, développement logiciel, service management…), qui comment à concurrencer des apps métier. Gartner apprécie aussi les investissements dans la gestion du cycle de vie des données et la personnalisation par API.

Point fort, les « accélérateurs » sont en même temps susceptibles de limiter les investissements dans le cœur fonctionnel. Ils entraînent aussi, avec leur tarification spécifique, une complexité pour qui recherche une solution multiusage. Gartner recommande par ailleurs de vérifier la disponibilité d’expertise sur les plaques géographiques où monday.com est essentiellement en indirect.

Smartsheet : les complexités du nouveau modèle de licence

Bon point sur le plan fonctionnel pour Smartsheet, qui s’avère adapté aux workflows complexes nécessitant de l’élasticité. Les briques de gestion de projet, de gestion de ressources et de reporting tendent à être appréciées des grandes entreprises. Autres points forts : la notoriété (Smartsheet est le fournisseur le plus souvent benchmarké dans les requêtes faites à Gartner) et la partie collaboration de contenu (versioning, pistes d’audit, fonctionnalité de révision avec fils de discussion).

L’an dernier, Gartner rappelait que Smartsheet allait redevenir une entreprise privée et appelait à porter attention aux impacts sur la visibilité de la stratégie, de la roadmap et des résultats. Il n’en dit pas moins cette année, même si la transition a été bouclée depuis (janvier 2025). Dans cet intervalle, la croissance des revenus et de l’effectif a été plus faible que chez les principaux concurrents. Quant à la transition vers le modèle à l’abonnement par utilisateur, elle a engendré des complexités de réconciliation et de gestion des licences ; complexités renforcées par la suppression de l’option free collaborator.

La marketplace de Wrike, en défaut de capacités-clés

L’acquisition de Klaxoon a renforcé les capacités de Wrike sur la collaboration visuelle et ouvert la voie au développement d’agents IA autour de cette brique. Gartner apprécie aussi les possibilités en matière de gestion des données (synchronisation des systèmes tiers, moteur no code avec connecteurs préconstruits…). Et la tarification, jugée transparente, compétitive et particulièrement accessible aux petites équipes comme aux déploiements multiusages.

Comme chez Smartsheet, la dynamique business n’est pas positive, tant sur la croissance des revenus et de la clientèle que sur la visibilité globale. La présence physique reste limitée dans certaines régions géographiques et le réseau de partenaires n’est pas le plus étendu sur ce marché. Des services-clés manquent par ailleurs sur la marketplace (publication en self-service, évaluations et discussions d’utilisateurs).

Illustration © nsit0108 – Adobe Stock

The post Gestion du travail collaboratif : un segment dont l’IA brouille les frontières appeared first on Silicon.fr.

Reçu — 6 novembre 2025 Silicon

MAI Superintelligence Team : Microsoft mise sur l’IA médicale

6 novembre 2025 à 15:17

Microsoft poursuit ses investissements dans l’IA médicale avec la création d’une nouvelle équipe baptisée MAI Superintelligence Team. Son ambition :  développer une intelligence artificielle capable de surpasser largement les capacités humaines dans des domaines spécifiques, à commencer par le diagnostic médical

Microsoft prévoit d’investir « beaucoup d’argent » dans ce projet, selon Mustafa Suleyman, directeur de l’IA du groupe et responsable de cette initiative

Premier objectif : le diagnostic médical

Son équipe  se concentrera sur des modèles spécialisés atteignant ce que Mustafa Suleyman qualifie de performances surhumaines, tout en présentant « pratiquement aucun risque existentiel ». Il cite comme exemples potentiels une IA capable de développer de nouvelles molécules, faisant référence à AlphaFold, les modèles d’IA de DeepMind capables de prédire les structures protéiques.

Pour le diagnostic médical, domaine d’intérêt historique pour l’IA et sur lequel Microsoft s’est déjà penché avec son. système nommé Microsoft AI Diagnostic Orchestrator, Suleyman estime avoir « une visibilité vers une superintelligence médicale dans les deux à trois prochaines années ».

Illustration : © Microsoft

The post MAI Superintelligence Team : Microsoft mise sur l’IA médicale appeared first on Silicon.fr.

L’IA générative commence à alimenter l’exécution des malwares

6 novembre 2025 à 14:49

L’IA générative n’est plus seulement utilisée dans la phase de développement des malwares : elle l’est aussi lors de leur exploitation.

Google s’en fait l’écho… et en donne 5 exemples. Parmi eux, un dropper VBScript qu’il a appelé PROMPTFLUX.

Un dropper réécrit son code grâce à Gemini

Identifié début juin, le malware fait appel à la dernière version de Gemini Flash 1.5 – via l’API, la clé étant intégrée en dur – pour l’aider à obscurcir son code. Et ainsi maximiser ses chances d’éviter la détection par les antivirus.

Des variants ont été découverts. Dont un qui, toutes les heures, demande à Gemini de réécrire l’intégralité de son code source. Et de sauvegarder chaque nouvelle version dans le dossier de démarrage, afin d’établir une persistance.

PROMPTFLUX a aussi les attributs d’un ver, capable en l’occurrence de se propager sur des partages réseau et des supports amovibles. Il ne semble cependant pas à même de compromettre un réseau ou même un appareil. Certaines de ses fonctions sont effectivement commentées, dont celle par laquelle il modifie son code grâce aux éléments fournis par Gemini. Mais la présence de cette fonction, comme d’ailleurs de la journalisation des réponses IA, illustre clairement sa finalité.

Un data miner génère des commandes Windows via Qwen

Autre exemple : PROMPTSTEAL. Lui aussi identifié en juin, il a été utilisé par APT28 (groupe à la solde de la Russie) contre l’Ukraine.

Il s’agit d’un data miner Python déguisé en programme de création d’images. Il contient un script compilé qui fait appel à Qwen2.5-Coder-32B-Instruct via l’API Hugging Face, probablement grâce à un jeton volé. Objectif : générer des commandes Windows destinées à collecter des infos système et à copier des documents dans un dossier spécifique en vue des les exfiltrer.

Quand les outils IA de l’hôte ciblé servent à rechercher des secrets

Google évoque aussi PROMPTLOCK, un ransomware codé en Go. Jugé expérimental, il exploite un LLM (non spécifié) pour générer des scripts Lua. Il inclut des capacités de découverte de système de fichiers, d’exfiltration de données et de chiffrement sur Windows comme sur Linux.

FRUITSHELL et QUIETVAULT, au contraire, on été observés dans des opérations.
Le premier, disponible publiquement, est un reverse shell écrit en PowerShell. Il embarque des prompts censés lui éviter la détection par les systèmes de sécurité reposant sur des LLM.
Le second, codé en JavaScript, est censé exfiltrer des tokens GitHub et NPM en les poussant sur un repo public. Pour recherche d’autres secrets, il se nourrit des outils IA en ligne de commande disponibles sur l’hôte.

Illustration générée par IA

The post L’IA générative commence à alimenter l’exécution des malwares appeared first on Silicon.fr.

Google investit dans la reforestation pour compenser son empreinte carbone

6 novembre 2025 à 13:50

Google annonce son plus important accord d’achat de crédits carbone issus de la reforestation,  avec la startup brésilienne Mombak sur 200 000 tonnes métriques de compensation d’émissions de CO2, soit quatre fois le volume du contrat pilote signé en septembre 2024.

Mombak transforme d’anciennes terres de pâturage dégradées en forêt amazonienne,

Les deux entreprises ont refusé de divulguer la valeur financière de la transaction. En 2023, lors de sa vente à McLaren Racing, Mombak avait facturé ses crédits en moyenne à plus de 50 dollars la tonne.

Un revirement vers la photosynthèse

L’accord marque un tournant dans la stratégie de décarbonation de Google. En 2024, l’entreprise avait initialement investi plus de 100 millions $ dans diverses technologies de capture du carbone – altération minérale, biochar, capture directe dans l’air et acidification des rivières. L’accord de septembre 2024 avec Mombak représentait sa première incursion dans les crédits carbone basés sur la nature au Brésil.

« La technologie la moins risquée dont nous disposons pour réduire le carbone dans l’atmosphère est la photosynthèse », explique Randy Spock, responsable des crédits carbone chez Google, cité par Reuters.

Cette multiplication des engagements répond à une explosion des émissions liées aux activités de Google. Selon son dernier rapport environnemental, ses émissions de scope 2 liées au marché – principalement l’électricité achetée pour ses centres de données et bureaux – ont plus que triplé entre 2020 et 2024, atteignant 3,1 millions de tonnes d’équivalent CO2.

La coalition Symbiosis élève les standards

En 2024, Google s’était associé à Meta, Salesforce, McKinsey et Microsoft – le plus gros acheteur à ce jour – pour créer la Symbiosis Coalition  qui s’est engagée à contracter plus de 20 millions de tonnes de compensations carbone basées sur la nature d’ici 2030.

La coalition impose des normes strictes : comptabilité carbone conservatrice et transparente, préservation à long terme et bénéfices pour la biodiversité et les communautés locales. Sur 185 projets examinés, celui de Mombak est le premier à satisfaire ces critères.

Cette annonce intervient alors que la COP30 qui s’ouvre aujourd’hui à Belem ( Brésil) doit annoncer, entre autres initiatives, un nouveau fonds de soutien pour les forêts tropicales.

The post Google investit dans la reforestation pour compenser son empreinte carbone appeared first on Silicon.fr.

Amazon vs Perplexity : un premier litige emblématique pour le commerce agentique

6 novembre 2025 à 13:26

Prière de ne plus faire passer Comet pour Google Chrome.

Amazon l’intime à Perplexity… entre autres doléances consignées dans une lettre de mise en demeure rendue publique.

En toile de fond, la confrontation de deux conceptions du commerce agentique, à cheval entre liberté et protection du consommateur.

(In)satisfaction client et (in)sécurité

Amazon appelle Perplexity à cesser, sans délai, d’utiliser les agents IA de son navigateur Comet pour « s’introduire secrètement » dans son périmètre e-commerce. Il lui demande d’identifier lesdits agents de manière transparente, au nom du droit des fournisseurs de services à superviser l’activité agentique.

Ce droit de supervision doit permettre d’empêcher les comportements qui dégradent l’expérience d’achat et la confiance du client avec, tout en créant des risques pour ses données.

Avec la technologie de Perplexity, l’expérience d’achat n’est pas adéquate, affirme Amazon : Comet ne peut pas sélectionner le meilleur prix, la meilleure méthode de livraison et les recommandations. Il ne donne pas non plus la possibilité d’ajouter des produits à des commandes déjà effectuées.

Quant à la sécurité des données des clients, c’est portes ouvertes, d’après Amazon. Preuve en serait des conditions d’utilisation et la notice de confidentialité de Perplexity, qui lui donnent le droit de collecter mots de passe, clés de sécurité, méthodes de paiement, historiques d’achats et autres données sensibles… tout en excluant toute responsabilité.

Amazon pointe des contournements répétés

Les premiers faits que le groupe américain juge répréhensibles remontent au moins à novembre 2024. À partir de là, à travers la fonctionnalité « Buy with Pro », des commandes ont été réalisées au nom d’utilisateurs, en exploitant une poignée de comptes Amazon – dont des comptes Prime – gérés par Perplexity.

En plus de violer les conditions d’utilisation de Prime, cette pratique aurait engendré une mauvaise expérience client. Par exemple en compliquant les retours de produits.
Perplexity avait fini par accepter d’y mettre un terme. Et, plus globalement, de ne pas déployer d’autres agents dans le Store jusqu’à négociation d’un accord. Il aurait, depuis, renié cette promesse, en changeant de tactique, avec des agents qui se connectent aux comptes des utilisateurs.

Amazon explique avoir découvert cette activité en août. N’étant pas parvenu à faire entendre raison à Perplexity, il avait coupé l’accès à Comet… qui, dans les 24 heures, avait contourné le blocage. Les relances ultérieures n’ont pas plus porté leurs fruits, Perplexity continuant à « déguiser » ses agents en instances Chrome.

Pour Amazon, cette opacité est d’autant plus troublante que les preuves de vulnérabilité de Comet aux injections de prompts se sont accumulées ces derniers temps.

Le groupe américain regrette aussi d’avoir dû dédier des ressources aux investigations et à implémentation de contre-mesures. Soulignant que le risque s’accroîtra probablement maintenant que Comet est ouvert au grand public, il réclame des mesures injonctives et une compensation financière. Non sans prétendre qu’il y a infraction aux Codes pénaux des États-Unis et de Californie.

Perplexity brandit la liberté du consommateur

En réponse, Perplexity ne mâche pas ses mots : cette offensive juridique est « une menace pour tous les internautes ».

De son avis, Amazon devrait se montrer favorable à Comet : une expérience d’achat plus simple signifie davantage de transactions et des clients plus heureux. S’il ne réagit pas ainsi, c’est parce que « son intérêt est de vous servir de la publicité, des résultats sponsorisés, et influencer vos décisions d’achat avec […] des offres embrouillantes ».

Rappelant en filigrane que les authentifiants qu’utilise Comet ne sont jamais stockés sur ses serveurs, Perplexity appelle à ne pas confondre « expérience du consommateur » avec « exploitation du consommateur ». Les utilisateurs veulent des assistants IA qui travaillent pour eux pour pour personne d’autre, ajoute-t-il. Non sans laisser comprendre qu’Amazon, dans sa volonté de travailler à terme avec des fournisseurs d’agents, chercherait d’abord à en encadrer le fonctionnement.

Or, l’IA agentique est justement l’occasion, pour les utilisateurs, de reprendre le contrôle de leurs expériences en ligne, veut croire Perplexity. En ce sens, et au nom de la liberté de choix, une entreprise n’aurait aucunement le droit de discriminer les utilisateurs sur la base des IA qu’ils choisissent pour les représenter.

Perplexity veut croire que de telles aspirations font de lui une cible idéale à intimider. Il invite en tout cas Amazon à ne pas oublier les combats qu’il a lui-même menés pour en arriver là, précisément au nom de la liberté du consommateur et avec la même conviction d’avoir un « produit qui change le monde ». Et de conclure : « Le commerce agentique est une évolution naturelle et les gens en sont demandeurs. Nous exigeons de pouvoir l’offrir.« 

Un gatekeeper remis en cause ?

Certains auront fait remarquer que Perplexity est gonflé, vu le contenu de ses propres conditions d’utilisation (l’usage de spiders, de crawlers, de scrapers et autres robots ou « processus automatisés » y est très largement proscrit).

D’autres se réjouissent au contraire de cette résistance, y voyant un moyen de remettre en cause le monopole qu’Amazon aurait sur la recherche de produits sur sa marketplace. Et par là même la position de force dans laquelle il est vis-à-vis des vendeurs tiers.

En intercalant des IA entre lui et le client, Amazon verrait plus globalement son rôle de gatekeeper un tant soit peu remis en cause. Au risque de perdre, in fine, du business.

Entre autres arguments, circule aussi celui selon lequel les logiciels avec lesquels l’utilisateur accède à un service ne regardent que lui. À l’inverse, certains estiment que tout propriétaire de site(s) e-commerce doit pouvoir ne pas autoriser des IA dans son écosystème.

Illustration générée par IA

The post Amazon vs Perplexity : un premier litige emblématique pour le commerce agentique appeared first on Silicon.fr.

Doctolib sanctionné d’une amende de 4,6 millions € pour abus de position dominante

6 novembre 2025 à 11:32

Grosse alerte pour le champion national de la e-santé. L’Autorité de la concurrence vient d’infliger à Doctolib une amende de 4,6 millions € pour avoir abusé de sa position dominante sur deux marchés stratégiques : la prise de rendez-vous médicaux en ligne et les solutions de téléconsultation.

La sanction fait suite d’une plainte de Cegedim Santé déposée en 2019 et d’une opération de visite et saisie réalisée en 2021,

Une décision qui révèle les coulisses d’une stratégie de verrouillage du marché, documentée par des échanges internes particulièrement explicites.

Les chiffres parlent d’eux-mêmes. Entre 2017 et 2022, Doctolib a détenu des parts de marché constamment supérieures à 50 % dans la prise de rendez-vous médicaux en ligne, dépassant même les 90 % certaines années.

Sur le marché de la téléconsultation, lancé en 2019, l’entreprise a rapidement capté plus de 40 % des parts. Une domination renforcée par la crise sanitaire, lorsque le gouvernement a confié en 2021 à Doctolib, aux côtés de Maiia et KelDoc, la gestion des rendez-vous de vaccination contre la Covid-19.

Trois pratiques dans le collimateur

L’instruction, déclenchée en 2021 après une plainte de Cegedim Santé et suivie de perquisitions, a mis au jour trois pratiques anticoncurrentielles distinctes.

Premier grief : les clauses d’exclusivité. Jusqu’en septembre 2023, les contrats d’abonnement imposaient aux professionnels de santé de recourir exclusivement aux services Doctolib. Des documents internes saisis lors des perquisitions révèlent une stratégie délibérée : les dirigeants affichaient ouvertement leur volonté d’« être une interface obligatoire et stratégique entre le médecin et son patient afin de les verrouiller tous les deux ».

Plus embarrassant encore, alors que la direction juridique alertait sur l’illégalité de ces clauses et « insistait vraiment fortement pour les supprimer », le président de Doctolib décidait de les maintenir, arguant « qu’il faut stratégiquement la garder ».

Deuxième grief : les ventes liées. Pour accéder à Doctolib Téléconsultation, les praticiens étaient obligés de souscrire au préalable à Doctolib Patient, le service de prise de rendez-vous. Cette pratique commerciale a mécaniquement renforcé la position dominante de l’entreprise sur le marché des agendas médicaux, privant les concurrents d’opportunités commerciales.

Troisième grief : l’acquisition de MonDocteur. En juillet 2018, Doctolib rachète son principal concurrent  », la société MonDocteur. Une opération qui n’a pas fait l’objet d’un examen par les autorités de concurrence, les seuils de notification n’étant pas atteints.

Mais les documents internes sont accablants : Doctolib voulait « killer le produit », la « création de valeur » résidant « non pas dans l’ajout de l’actif MonDocteur mais sa disparition en tant que concurrent ». Un document commandé par Doctolib affirme même qu’après cette acquisition,
« Doctolib fonctionnera sans plus aucune concurrence en France ».

Des effets concrets sur les prix et la concurrence

Cette stratégie a porté ses fruits. L’acquisition de MonDocteur a permis à Doctolib de gagner 10 000 nouveaux professionnels de santé et d’augmenter durablement ses parts de marché.

Les documents internes évoquent la possibilité de « réduire la pression sur les prix » et
d’« augmenter les tarifs de 10 à 20 % ». De fait, Doctolib a procédé à plusieurs hausses successives, allant même au-delà des augmentations initialement envisagées, de 3 points de pourcentage supplémentaires, sans perte de clientèle ni ralentissement de la croissance, malgré des tarifs supérieurs à ceux de ses concurrents.

Les clauses d’exclusivité ont, elles, provoqué l’abandon ou le gel de projets concurrents. Des acteurs comme Solocal ou Qare ont cessé de développer leur service de prise de rendez-vous médicaux ou ont renoncé à en lancer un.

Une décision historique

L’amende se décompose en 4, 615 millions € pour les pratiques d’exclusivité et de ventes liées, que l’Autorité qualifie d’« infraction unique complexe et continue » visant à « verrouiller le marché », et 50 000 € pour l’acquisition de MonDocteur.

Cette dernière sanction, symbolique, reflète l’incertitude juridique qui prévalait avant l’arrêt Towercast de la Cour de justice de l’Union européenne du 16 mars 2023. Pour la première fois, l’Autorité sanctionne ainsi une acquisition prédatrice située sous les seuils de notification.

L’Autorité souligne que ces pratiques ont eu « pour effet, au moins potentiel, d’évincer les concurrents sur les marchés concernés », tout en précisant que « les mérites propres de cette entreprise ne sont pas contestés ».

 Doctolib fait appel de la décision. Dans un communiqué, elle réfute les griefs pointé par l’Autorité.

« La décision se fonde étonnamment sur l’acquisition par Doctolib d’une petite start-up (Mon Docteur) en 2018, qui équipait 2 % des soignants au moment du rachat. Cette opération de croissance externe visant à  regrouper deux PME pour innover plus rapidement est d’une banalité absolue dans la vie d’une entreprise. (…)
En outre, la décision remet en cause le lien entre la téléconsultation et le reste du logiciel Doctolib, alors que la déconnecter aboutirait à des difficultés conséquentes pour le suivi des patients et l’activité quotidienne des soignants. C’est cette connexion qui permet l’accès au dossier patient, le partage d’ordonnance et la facturation.(…)
Elle s’appuie enfin sur l’existence passée d’une clause d’exclusivité il y a 11 ans, qui était présente seulement pour prévenir un mauvais usage de notre logiciel par les soignants.»

Ilustration : image générée par l’IA

The post Doctolib sanctionné d’une amende de 4,6 millions € pour abus de position dominante appeared first on Silicon.fr.

Reçu — 5 novembre 2025 Silicon

Snowflake rejoint Databricks dans SAP Business Data Cloud

5 novembre 2025 à 18:00

Databricks voisinera bientôt avec Snowflake dans le périmètre SAP Business Data Cloud.

L’éditeur allemand avait lancé cette offre SaaS en février 2025. La promesse : pouvoir créer des produits de données entièrement gérés, autour d’un catalogue unifié.

Datasphere, Analytics Cloud et Business Warehouse en sont les principales composantes. Avec, par-dessus, la brique Insight apps (devenue Intelligent applications) : des apps low code embarquant leurs dashboards et leurs modèles sémantiques.

Databricks intégré depuis mai 2025 ; Snowflake pour début 2026

À cet assemblage s’est ajouté, début mai, SAP Databricks*, une édition spécifique déployée en tant qu’extension Business Data Cloud. Puis est arrivé un connecteur (Business Data Cloud Connect) pour faire la jonction avec les instances Databricks externes – là aussi sans ETL, grâce notamment aux partages Delta.

SAP Business Data Cloud schéma

Le même type d’approche va être mis en place avec Snowflake. L’édition spécifique est prévue pour le premier trimestre 2026. Le connecteur, pour le premier semestre.

En attendant, l’éventail des sources de données s’est élargi avec, en particulier, SAP Customer Data Plaform (intégré en juillet) et SuccessFactors (octobre). L’offre a par ailleurs été déployée sur Azure (4 régions dont Amsterdam) et GCP (4 régions dont Francfort) en plus d’AWS (7 régions dont Francfort).

SAP étend ainsi le terrain de jeu potentiel de Joule… et probablement de ses technologies d’automatisation, comme Signavio.

* SAP Databricks fait l’impasse sur certaines fonctionnalités (la fédération de lakehouses, entre autres), tandis que des briques sont remplacées par celles du groupe allemand (la BI par Analytics Cloud, par exemple).

À consulter en complément :

Où en est SAP Joule dans son tournant agentique ?
SAP sous enquête de concurrence : ce que lui reproche Bruxelles
SAP engage 20 M€ dans une offre de cloud souverain en Europe
Databricks renforce l’intégration des modèles d’OpenAI
Le tandem lakehouse-IA s’impose dans le branding d’Oracle

Illustrations © SAP

The post Snowflake rejoint Databricks dans SAP Business Data Cloud appeared first on Silicon.fr.

Quand un rapport de l’ANSSI révélait les défaillances cyber du Louvre

5 novembre 2025 à 15:16

Sécurité du musée du Louvre, épisode 2. Après le « braquage du siècle » dans la galerie Apollon exécuté à grands coups de scie circulaire, Libération révèle que le dispositif de cybersécurité du plus grand musée du monde était aussi fragile que les vitrines censées protéger les bijoux de la couronne.

Le quotidien a exhumé « des documents confidentiels ou publiés dans le cadre d’appels d’offres » qui révèle l’ampleur du fiasco cyber.

Première étape : décembre 2014. L’Agence nationale de la sécurité des systèmes d’information (ANSSI) réalise un premier audit du réseau de sûreté du musée qui contrôle les systèmes les plus critiques : contrôle d’accès, alarmes, vidéosurveillance. Les conclusions, consignées dans un rapport de 26 pages estampillé « diffusion restreinte », sont alarmantes.

Les experts de l’ANSSI parviennent facilement à s’introduire dans le réseau de sûreté depuis les simples postes bureautiques. Comment ? Grâce à des mots de passe que l’agence qualifie pudiquement de « triviaux » : il suffisait de taper  » LOUVRE  » pour accéder à un serveur de vidéosurveillance.

Une fois infiltrés, les auditeurs démontrent qu’il serait possible de compromettre le système de vidéo-protection, de modifier les droits d’accès des badges, et ce même depuis l’extérieur du musée. Le rapport pointe également la présence de systèmes obsolètes fonctionnant encore sous Windows 2000.

L’ANSSI recommande alors de renforcer les mots de passe, corriger les vulnérabilités et migrer vers des systèmes à jour. Mais qu’en a-t-il été fait réellement ?

2017 : de « grosses carences » persistent

Trois ans plus tard, un nouvel audit mené par l’Institut national des hautes études de la sécurité et de la justice confirme que les problèmes subsistent. Le rapport  » Sûreté « , classé confidentiel, déplore « de grosses carences » dans le dispositif global, certaines similaires à celles identifiées en 2014.

Les systèmes d’exploitation obsolètes (Windows 2000 et Windows XP) sont toujours en service, sans mise à jour d’antivirus, souvent dépourvus de mots de passe ou de verrouillage de session. Les technologies de sûreté sont décrites comme « vieillissantes » avec des « dysfonctionnements techniques » réguliers et une maintenance « partielle ».

Le document avertit solennellement : si le musée « a jusqu’à présent été relativement épargné, il ne peut plus ignorer faire potentiellement l’objet d’une atteinte dont les conséquences pourraient se révéler dramatiques ».

2025 : huit logiciels impossibles à mettre à jour

Les documents techniques récents, publiés dans le cadre d’appels d’offres entre 2019 et 2025, révèlent que le problème n’est toujours pas résolu. Le système de sécurité du Louvre s’est complexifié au fil des années, accumulant les couches de circuits informatiques et de logiciels pour gérer vidéosurveillance analogique et numérique, détection d’intrusion, contrôles d’accès, badges…

Parmi ces outils figure Sathi, un logiciel édité par Thales et acheté en 2003 pour superviser la vidéoprotection et le contrôle d’accès. Problème : ce système ne bénéficie plus de développement depuis des années. En 2021, il fonctionnait encore sur Windows Server 2003, une solution abandonnée par Microsoft depuis 2015.

Plus inquiétant encore, un document d’appel d’offres de l’été 2025 liste pas moins de huit logiciels « ne pouvant pas être mis à jour », tous essentiels au fonctionnement de la sûreté du musée : vidéosurveillance, contrôles d’accès, serveurs…

Début 2025, la préfecture de police de Paris a lancé un audit de la sûreté du musée. Vincent Annereau, en charge de l’étude, confirmait le 29 octobre devant le Sénat que l’outil informatique « avait besoin d’être, véritablement, modernisé ».

Reste une question en suspens : comment le premier musée du monde, gardien de trésors inestimables, a-t-il pu ignorer pendant une décennie les alertes répétées sur ses vulnérabilités informatiques ?

Illustration : générée par l’IA

The post Quand un rapport de l’ANSSI révélait les défaillances cyber du Louvre appeared first on Silicon.fr.

Microsoft signe plus de 60 milliards $ de contrats avec les « neo-clouds »

5 novembre 2025 à 11:47

Microsoft a engagé plus de 60 milliards $ auprès « neo-clouds » pour sécuriser la capacité de calcul nécessaire à ses projets d’intelligence artificielle, selon des informations rapportées par Bloomberg.
Cette somme marque une nette accélération des investissements du groupe dans les infrastructures externes, dans un contexte de forte demande pour les services liés à l’IA.
La part la plus importante de ces engagements — environ 23 milliards $— concerne la scale-up britannique Nscale. Cet accord donnera à Microsoft accès à environ 200 000 puces GB300 de Nvidia sur plusieurs sites situés au Royaume-Uni, en Norvège, au Portugal et au Texas.
Depuis le début du mois d’octobre, les engagements financiers de Microsoft envers de  » neo-clouds » ont presque doublé, en totalisant les deux derniers accords, totalisant plus de 10 milliards $. : 9,7 milliards avec la société australienne Iren et un contrat de plusieurs milliards avec Lambda  La plupart de ces contrats sont conclus pour une durée de cinq ans.
Ces contrats permettent à Microsoft d’accélérer le déploiement de capacités de calcul sans attendre la construction de ses nouveaux centres de données.
Lors de sa dernière communication financière, Microsoft a annoncé une hausse de ses dépenses d’investissement, qui ont atteint près de 35 milliards $ au dernier trimestre, principalement pour des baux de centres de données et des équipements serveurs.

Fournisseur Montant en $
Nscale 23 milliards
Nebius 19, 4 milliards
CoreWeave Plus de 10 milliards
Iren 9,7 milliards
Lambda Plus de 2 milliards
Oracle Inconnu

The post Microsoft signe plus de 60 milliards $ de contrats avec les « neo-clouds » appeared first on Silicon.fr.

Clément Dudouet, nouveau DSI de Crédit Agricole Personal Finance & Mobility

5 novembre 2025 à 11:23

Clément Dudouet est le nouveau Directeur des Systèmes d’Information Groupe de Crédit Agricole Personal Finance & Mobility. Il est rattaché à Jean-Marie Malherbe, Directeur Général Adjoint en charge de l’Industrialisation et des Synergies Groupe.

Cette nomination intervient dans un contexte d’évolution des outils informatiques du groupe, liée à la mise en œuvre du plan moyen terme 2026-2028.

Parcours au sein de Crédit Agricole

Clément Dudouet a débuté sa carrière en 2008 au sein de CACEIS, filiale du groupe Crédit Agricole, en tant que chargé d’études et de développement. En 2011, il rejoint l’Inspection Générale du groupe, où il exerce les fonctions de chef de mission d’audit, puis de superviseur adjoint Audit Informatique Groupe.

En 2016, il est nommé Secrétaire général du Pôle Innovation, Transformation Digitale & IT Groupe (ITD) de Crédit Agricole. En 2021, il rejoint le comité de direction de Crédit Agricole Leasing & Factoring (CAL&F) en tant que Directeur des Systèmes d’Information et de la Digitalisation (DSID).

Clément Dudouet est ingénieur informatique diplômé de l’ENSIIE et titulaire d’un Master of Science (MSc) in Computer Science de l’Université d’Oxford.

The post Clément Dudouet, nouveau DSI de Crédit Agricole Personal Finance & Mobility appeared first on Silicon.fr.

❌