Vue lecture

L’Europe tient son programme CVE décentralisé

Ceci n’est pas un concurrent du programme CVE de MITRE, mais un complément.

En façade, telle a toujours été la position du CERT luxembourgeois depuis l’annonce du projet GCVE (Global CVE Allocation System). C’était en avril 2025. On nous promettait alors le développement d’un système décentralisé : les autorités de numérotation allaient pouvoir attribuer des identifiants et gérer la divulgation sans passer par un organisme central.

Neuf mois plus tard, l’initiative, cofinancée par l’UE, a effectivement pris corps… dans une certaine mesure. Une base de vulnérabilités vient notamment d’y être adossée. Plusieurs bonnes pratiques ont par ailleurs été publiées pour assurer le fonctionnement du système. Et une vingtaine d’entités, de natures assez diverses, ont été désignées autorités de numérotation.

Autorité Identifiant
CIRCL (CERT luxembourgeois) 1
EUVD 2
Red Hat 3
Swisscom 79
VulDB 100
Ericsson 101
EAGC 102
Schutzwerk 103
AboutCode Europe 104
OPC Foundation 105
SK-CERT 106
Thales PSIRT 107
Securin 108
Concinnity Risks 109
Vulnetix 110
Mogwai Labs 111
CERT-QC 112
VulnCheck 404
DFN-CERT Services 680
Austin Hackers Anonymous 1337
Pentagrid 2342
Cisco Talos 31337

Cette diversité reflète les critères d’admission : en théorie, quiconque a une politique de divulgation publique de vulnérabilités peut prétendre devenir autorité de numérotation.

L’identifiant 1 a été réservé au CIRCL, porteur du projet. Le 2, à la base EUVD (EU Vulnerability Database), opérée par l’ENISA (Agence européenne pour la sécurité). L’identifiant 0 est quant à lui dédié au mapping des CVE.

GCVE, contre les aléas géopolitiques

L’annuaire des autorités de numérotation est publié au format JSON. Ces dernières ont deux options pour communiquer les données sur les vulnérabilités. D’un côté, un endpoint statique fournissant un fichier. De l’autre, une API REST avec des points de terminaison recent et latest, éventuellement assortis de filtres (sources et nombre de résultats). Le projet GCVE n’impose pas de format, mais recommande de s’aligner sur CVE Record.

Les bonnes pratiques publiées concernent la vérification de l’intégrité du fichier d’annuaire, la divulgation coordonnée de vulnérabilités et l’attribution d’identifiants. Trois autres sont à l’état de brouillon. Elles abordent les formats de déclaration des vulnérabilités et le protocole de publication décentralisée.

Un outil open source sert d’implémentation de référence pour ces bonnes pratiques : vulnerability-lookup… qu’on doit aussi au CIRCL. C’est sur lui que repose la base GCVE*. L’EUVD aussi, d’ailleurs.

Pas d’opposition frontale avec MITRE, donc, mais un enjeu de résilience non dissimulé. Il s’agit à la fois d’éviter le « point de défaillance unique »… et de moins dépendre des aléas géopolitiques. En toile de fond, l’avenir un temps très incertain du programme CVE. L’an dernier, le gouvernement américain l’avait refinancé in extremis.

* Base hébergée dans les datacenters du CERT luxembourgeois.

Illustration générée par IA

The post L’Europe tient son programme CVE décentralisé appeared first on Silicon.fr.

  •  

ServiceNow et OpenAI embrayent sur le vocal… et le legacy

Pour faire tomber la barrière de la langue, il y a OpenAI.

ServiceNow présente les choses ainsi. En toile de fond, un accord sur 3 ans qui le verra, entre autres, exploiter GPT-5.2 pour développer des technologies de compréhension et de synthèse vocales. Au bout, nous promet-on, il y aura des agents multilingues qui fonctionneront sans passer par la modalité texte.

Les modèles GPT seront également mis à contribution sur la partie computer use (« agent utilisateur d’ordinateur »). En ligne de mire, notamment, l’orchestration des outils bureautiques et l’automatisation des systèmes hérités (ServiceNow évoque les mainframes).

Les modèles OpenAI, déjà bien ancrés dans ServiceNow

Dans la pratique, ServiceNow a déjà établi de multiples passerelles avec OpenAI.

Sur sa plate-forme, les fonctionnalités conversationnelles, génératives et agentiques sont majoritairement regroupées sous la marque Now Assist.

Les produits Now Assist s’installent comme des plug-in. Ils donnent accès à trois types de composantes : des skills génératives, des agents et des flux agentiques. Ces briques ciblent généralement un usage au sein d’une application. Par exemple, pour les skills, la génération de documentation sur la partie gestion du travail collaboratif. Pour les workflows agentiques, l’obtention de conseils de gouvernance dans la CMDB.

Certains flux agentiques opèrent au niveau de la plate-forme : enquêter sur des incidents, créer des tâches à partir d’images, proposer des réponses à un sondage…

Par défaut, Now Assist repose sur un service interne, qui associe des modèles maison spécialisés* et des modèles ouverts « sélectionnés, configurés ou améliorés par ServiceNow, sa communauté ou ses partenaires ».

Pour certaines skills, il est possible de basculer sur des fournisseurs alternatifs : Google (Gemini 2.5 Flash et 2.5 Pro), Anthropic (Claude 3.7 Sonnet sur Amazon Bedrock)… ou OpenAI (GPT-4.1 et GPT-4.1-mini sur Azure OpenAI).

Avec toute application est installé un « contrôleur d’IA générative ». Il permet d’interfacer des LLM externes par API, au niveau des concepteurs de flux, d’agents et de scripts. En standard, cela donne quatre possibilités :

  • Générer du texte à propos d’un topic ServiceNow
  • Résumer un topic
  • Créer un use case et un prompt associé
  • Faire de l’analyse de sentiment

Ce contrôleur fait la passerelle avec OpenAI et Azure OpenAI. Ainsi qu’avec Google, Aleph Alpha, Amazon (Bedrock) et IBM (watsonx). Il inclut aussi un connecteur générique.

* En tête de liste, un modèle 12B à usage général (création de flux, modération, écriture de code…) fondé sur Mistral Nemo Instruct.

Illustration générée par IA

The post ServiceNow et OpenAI embrayent sur le vocal… et le legacy appeared first on Silicon.fr.

  •  

Accor a écarté Terraform de sa stack data engineering

Terraform est efficace pour gérer de l’infrastructure ; pas des workflows data.

À force de s’en servir en conjonction avec Snowflake, Accor en est arrivé à ce constat. Entre absence de validation locale, gestion manuelle des dépendances et nécessité d’outils externes pour contrôler la qualité des données, la mise à l’échelle et la collaboration s’en trouvaient limitées.

Le groupe hôtelier a fini par basculer vers une stack associant dbt Core pour les transformations et un Airflow managé (Astro) pour l’orchestration, avec la bibliothèque Cosmos – proposée par le fournisseur d’Astro – pour faire la passerelle. Cette dernière déduit automatiquement le lignage des tâches et déclenche les contrôles de data quality immédiatement après la matérialisation d’une table ou d’une vue lors d’un dbt run.

Une déploiement Airflow « léger » qui rafraîchit uniquement les DAG

Le passage au tandem dbt-Airflow a impliqué un changement des pratiques de data engineering. Entre autres, passer d’étapes séparées pour la création et le peuplement de tables à une action unique utilisant exclusivement la commande SQL SELECT.

Chaque équipe possède son repo et déploie indépendamment. Tout part d’un template géré avec Copier. L’ensemble est réconcilié dans le projet principal, poussé vers Astro. Les scripts CI/CD sont centralisés dans un dépôt étiqueté.

Par défaut, Astro reconstruit l’image Docker à chaque modification. Le déploiement : dure alors environ 5 minutes. Il existe toutefois un mode « léger » dont Accor a tiré parti. Celui-ci synchronise simplement les DAG (graphes acycliques dirigés, représentant les tâches à exécuter) et évite ainsi un rebuild.

Pour exploiter ce mécanisme, le pipeline CI/CD place chaque projet dbt dans le répertoire dags/ du projet principal. Le déploiement dure alors environ 1 minute. Il couvre 95 % des exécutions. L’autre option reste utilisée pour l’upgrade des dépendances et les changements sur l’image de base (i.e. modification des fichiers include, requirements.txt ou Dockerfile).

Imbriquer chaque projet dbt dans le répertoire dags/ permet à Cosmo de générer automatiquement les tâches Airflow correspondantes. Et de construire des DAG sans intervention manuelle. Les tests peuvent se faire en local, avec dbt run et dbt test.

Accor vise un pipeline pour chaque équipe

Avec une telle configuration multilocataire, les cycles d’upgrade d’Airflow peuvent ralentir. Il n’y a, par ailleurs, pas moyen de prioriser des jobs. Et l’existence d’un seul chemin CI/CD vers la prod pose la question du point unique de défaillance, en plus des risques de conflit de noms et de bibliothèques.

Accor réfléchit donc à donner à chaque équipe son pipeline et à découpler la propriété du code. Tout en permettant l’hibernation des workflows à faible trafic.

Illustration générée par IA

The post Accor a écarté Terraform de sa stack data engineering appeared first on Silicon.fr.

  •  

Kubernetes : les projets CNCF les plus déployés en production

Au tour d’Argo et de cert-manager de dépasser les 50 % de taux d’usage en production.

C’est tout du moins ce que donne à voir le dernier sondage annuel de la CNCF (Cloud Native Computing Foundation). L’échantillon comprend 628 répondants, interrogés en septembre 2025.

L’édition précédente avait recueilli 750 réponses à l’automne 2024. Six projets CNCF dépassaient alors les 50 % de taux d’usage en production : Kubernetes, Helm, etcd, Prometheus, CoreDNS et containerd.

Les 10 projets de l’écosystème Kubernetes les plus utilisés en production

34 projets ont désormais atteint le plus haut stade de maturité à la CNCF. Le sondage s’en est tenu au 30 premiers à y être arrivés (de Kubernetes en mars 2018 à CubeFS en décembre 2024).

Taux d’usage en prod 2024 Taux d’usage en prod 2025 Évolution Nature du projet Sandbox Incubation Gradué
Kubernetes 85 % 87 % + 2 pts Orchestrateur de conteneurs Mars 2016 Mars 2018
Helm 77 % 81 % + 4 pts Gestionnaire de paquets Juin 2018 Mai 2020
etcd 70 % 81 % + 11 pts Magasin clé-valeur distribué Décembre 2018 Novembre 2020
Prometheus 73 % 77 % + 4 pts Monitoring Mai 2016 Août 2018
CoreDNS 59 % 76 % + 17 pts Serveur DNS Février 2017 Février 2018 Janvier 2019
containerd 62 % 74 % + 12 pts Runtime Mars 2017 Février 2019
cert-manager 48 % 58 % + 10 pts Gestionnaire de certificats TLS Novembre 2020 Septembre 2022 Septembre 2024
Argo 43 % 52 % + 9 pts Déploiement GitOps Mars 2020 Décembre 2022
Fluentd 39 % 41 % + 2 pts Journalisation Novembre 2016 Avril 2019
Istio 31 % 36 % + 5 pts Maillage de services Septembre 2022 Juillet 2023

Les projets classés 11 à 20

Taux d’usage en prod 2024 Taux d’usage en prod 2025 Évolution Nature du projet Sandbox Incubation Gradué
CRI-O 25 % 34% + 9 pts Interface de runtime Avril 2019 Juillet 2023
Envoy 22 % 33 % + 11 pts Proxy Septembre 2017 Novembre 2018
Harbor 20 % 32 % + 12 pts Registre Juillet 2018 Novembre 2018 Juin 2020
Cilium 20 % 29 % + 9 pts Mise en réseau Octobre 2021 Octobre 2023
Open Policy Agent 18 % 25 % + 7 pts Moteur de politiques Mars 2018 Avril 2019 Janvier 2021
Flux 17 % 23 % + 6 pts Déploiement GitOps Juillet 2019 Mars 2021 Novembre 2022
Jaeger 14 % 22 % + 8 pts Traçage distribué Septembre 2017 Octobre 2019
KEDA 16 % 22 % + 6 % Autoscaler piloté par les événements Mars 2020 Août 2021 Août 2023
Falco 8 % 13 % + 5 pts Détection d’intrusions Octobre 2018 Janvier 2020 Février 2024
Rook 6 % 12 % + 6 pts Orchestration du stockage Janvier 2018 Septembre 2018 Octobre 2020

Les projets classés 21 à 30

Taux d’usage en prod 2024 Taux d’usage en prod 2025 Évolution Nature du projet Sandbox Incubation Gradué
Linkerd 8 % 11 % + 3 pts Maillage de services Janvier 2017 Avril 2018 Juillet 2021
CloudEvents 5 % 9 % + 4 pts Spécification pour la description de données d’événements Mai 2018 Octobre 2019 Janvier 2024
KubeEdge 6 % 5 % – 1 pt Kubernetes pour l’edge Mars 2019 Septembre 2020 Septembre 2024
SPIFFE 5 % 5 % = Framework de gestion des identités Mars 2018 Octobre 2019 Janvier 2024
Dapr 3 % 5 % + 2 pts Runtime piloté par les événements Novembre 2021 Octobre 2024
CubeFS 2 % 3 % + 1 pt Stockage distribué Décembre 2019 Juin 2022 Décembre 2024
SPIRE 3 % 3 % = Mise en œuvre de référence de SPIFFE Mars 2018 Juin 2020 Août 2022
Vitess 1 % 3 % + 2 pts Base de données compatible MySQL Février 2018 Novembre 2019
TUF 2 % 2 % = Framework de sécurisation des systèmes de mise à jour logicielles Octobre 2017 Décembre 2019
TiKV 1 % 2 % + 1 pt Base de données clé-valeur Août 2018 Septembre 2020

Pour quelques projets, le taux d’expérimentation (pilotes/tests) a aussi augmenté. En tête de liste :

  • KEDA (+ 5 pts, à 16 %)
  • Open Policy Agent (+ 3 pts, à 20 %)
  • Harbor (+ 3 pts, à 12 %)

À consulter en complément sur le sujet Kubernetes :

Les premières distros Kubernetes « certifiées IA »
L’arrivée à maturité de Knative, couche serverless pour Kubernetes
Les choix de Databricks pour le load balancing Kubernetes
Michelin a réinternalisé son Kubernetes après 3 ans chez VMware

The post Kubernetes : les projets CNCF les plus déployés en production appeared first on Silicon.fr.

  •  

ROI de l’IA générative : la tentation du prisme court-termiste

Infrastructures, licences, accès aux données, ingénierie… L’IA a des coûts évidents. Mais entre évolution des compétences, refonte des processus et gestion des risques, elle implique aussi des coûts cachés.

Ces derniers pourraient représenter une charge supplémentaire de l’ordre de 30 à 40 % des coûts génériques. Telle est en tout cas l’estimation d’IBM. Le Cigref y fait référence dans une note consacrée à l’évaluation du ROI des solutions d’IA générative et agentique.

Se concentrer sur l’utilisation du temps libéré

L’association mentionne une autre donnée chiffrée : les IA horizontales – les « assistants » – feraient gagner 50 minutes par jour à certains profils. Cela ne dit rien, néanmoins, de la manière dont ce temps libéré est utilisé.

Le Cigref appelle justement à se concentrer sur cet aspect. Il s’agit « que les gains de productivité d’aujourd’hui ne deviennent pas une fin en soi, mais le levier d’une compétitivité pour demain ». On distinguera, dans ce cadre, ce qui relève de la modernisation (efficience opérationnelle) et ce qui relève de la véritable transformation.

Dans cet esprit, des entreprises font la différence entre les hard savings (économies tangibles, mesurables dans un compte de résultat) et les soft savings (porteuses de gains futurs : réduction des erreurs, accélération des workflows…).

Entre arbres de valeur et suivi des nouvelles activités

Pour se focaliser sur la création de valeur rendue possible, le Cigref suggère l’approche « gestion de portefeuille ». Les cas d’usage n’y sont pas évalués isolément, mais au sein d’un ensemble équilibré d’initiatives, chacune ayant ses métriques de succès.

Concernant les actions de transformation prérequises (modernisation des logiciels, gouvernance des données, etc.), la métrique est le time-to-market pour de futurs cas d’usage, et la réduction des risques.

Pour les IA horizontales, des entreprises ont prévu de traiter l’enjeu de réallocation du temps par l’intermédiaire d’enquêtes qualitatives à propos de la nature des nouvelles activités.
L’une d’entre elles a décidé, pour les IA verticales, de coconstruire des arbres de création de valeur avec les métiers. L’objectif stratégique est décliné en leviers opérationnels sur lesquels l’IA peut agir. L’impact est ainsi mesuré sur des KPI existants.

Quelques éléments à intégrer dans l’évaluation des coûts et des bénéfices

Le Cigref distingue quatre catégories de coûts :

  • Liés aux IA (matériel, licences, ingénierie, intégration, services…)
  • Maintenance et supervision
  • Gestion des risques et des échecs
  • Transformation (modernisation de logiciels, refonte de processus métier, reskilling…)

Quatre catégories également pour ce qui est des éléments à prendre en compte dans l’estimation des bénéfices (opérationnels, organisationnels, stratégiques, financiers).

Sur le volet opérationnel, aux gains de productivité et à l’optimisation du temps d’implémentation s’ajoute la détection proactive des fraudes et des anomalies.

En matière organisationnelle, il y a l’exploitation et la valorisation des données (amélioration des modèles prédictifs, passage à l’échelle rendu possible…). Il y a aussi l’attractivité de l’organisation (mise en place de principes éthiques, engagement des employés…). La réduction du nombre d’outils par personne participant à un processus de décision fait partie des autres indicateurs pertinents.

Côté stratégique, le Cigref évoque, d’une part, l’expérience client (réduction du temps de réponse, personnalisation des interactions…). De l’autre, l’engagement et l’innovation (réduction du lead time, création de modèles économiques…).

La partie financière se partage entre génération de revenus (diminution du churn, optimisation du pricing…) et réduction des coûts et des risques.

L’ensemble peut être industrialisé en s’inspirant des modèles de centre d’excellence IA ou d’AI Factory. À condition notamment de définir des standards et de fournir des outils d’observabilité.

À consulter en complément :

Pourquoi il devient difficile de choisir une solution de gouvernance des données
L’Agentic AI Foundation veut des standards de l’IA autonome
En France, l’Autorité de la concurrence s’intéresse à l’aval de la chaîne GenAI
De prompt en vibe coding, le lexique de l’IA générative entre dans l’usage

Illustration générée par IA

The post ROI de l’IA générative : la tentation du prisme court-termiste appeared first on Silicon.fr.

  •  

L’Europe enclenche le passage à l’échelle de ses « fabriques d’IA »

La contribution financière de l’UE à EuroHPC peut désormais officiellement dépasser les 4 Md€.

En toile de fond, l’élargissement des missions de cette coentreprise.
Établie en 2021, elle fut d’abord chargée de développer un réseau de supercalculateurs.
En 2024, son périmètre d’activité avait été étendu aux « fabriques d’IA » (AI Factories). Des entités définies comme fournissant des « supercalculateurs optimisés par l’IA », conçus « principalement pour entraîner des modèles d’IA à usage général et à grande échelle ainsi que des applications d’IA émergentes ».

Depuis quelques jours, ce périmètre englobe les « gigafabriques d’IA » (AI GigaFactories). Elles sont définies comme des installations « [dotées] d’une capacité suffisante pour gérer l’ensemble du cycle de vie […] de très grands modèles et applications d’IA ».

La Commission européenne avait ouvert la voie à cette extension des responsabilités d’EuroHPC en juin 2025. Les AI GigaFactories embarqueraient « plus de 100 000 puces avancées » (en équivalent H100), contre 25 000 pour les plus grandes AI Factories, avait-elle affirmé.

Dans ce contexte, la notion de consortium, présente à la marge en 2021 et précisée dans une certaine mesure en 2024, devient centrale. Avec elle arrive la notion de gigafabrique multisite, étendue sur un ou plusieurs pays mais fonctionnant en tout cas comme une « entité technique intégrée » – avec au moins un site « correspondant à l’échelle d’une GigaFactory ».

L’informatique quantique en filigrane

En parallèle, le développement d’un écosystème d’informatique quantique apparaît dans les missions, les objectifs et les piliers d’activité d’EuroHPC.

L’enveloppe financière dédiée à la coentreprise augmente en conséquence. Elle passe de 3 081 300 000 € à 4 122 300 000 €, à raison de :

  • 760 000 € de plus sur le programme Horizon Europe (dont 160 k€ pour le quantique)
  • 161 000 € sur le programme pour une Europe numérique
  • 120 000 € sur le mécanisme pour l’interconnexion en Europe

Le soutien des piliers d’activité – administration exceptée – via d’autres programmes de l’UE reste possible.

Pour les AI Factories, l’UE finance jusqu’à la moitié des dépenses d’investissement et des coûts d’exploitation. Il en va de même pour les ordinateurs et les simulateurs quantiques. Mais pas pour les AI GigaFactories : c’est au maximum 17 % des CAPEX. Un ou plusieurs États participants doivent apporter un montant au minimum équivalent. Les investissements restants sont à la charge du consortium, tout comme l’entièreté des OPEX. Au cas où une AI Factory deviendrait une AI GigaFactory, le soutien financier reçu en première phase serait reporté sur la seconde (pas de cumul, donc).

* États membres de l’UE + Albanie, Islande, Israël, Macédoine du Nord, Moldavie, Monténégro, Royaume-Uni, Serbie, Suisse et Turquie.

Illustration générée par IA

The post L’Europe enclenche le passage à l’échelle de ses « fabriques d’IA » appeared first on Silicon.fr.

  •  

Face à la persistance de NTLMv1, Mandiant publie ses rainbow tables

Les années passent… et il y a encore du NTLMv1 qui traîne.

Mandiant a récemment émis un rappel à ce sujet… et l’a accompagné de rainbow tables. Il y en a pour environ 100 Go de données, sous licence CC BY 4.0, téléchargeables via la console Google Cloud ou l’outil gsutil (elles sont dans des buckets GCP).

Promesse : grâce à ces tables, récupérer des clés en moins de 12 heures avec du matériel grand public coûtant moins de 600 $. Une méthode alternative aux attaques par force brute avec hashcat et Cie. Lesquelles sont moins efficaces à mesure que la longueur des secrets augmente.

Pour quelques rainbow tables de plus

Les rainbow tables de Mandiant semblent cibler les mots de passe de 7 caractères de longueur.

Le projet RainbowCrack – une référence dans le domaine, intégré à notamment à Kali Linux – va jusqu’à 10 avec ses propres tables. Il annonce des taux de réussite entre 96,8 % et 99,9 %.

Plage de caractères Nombre de caractères Taux de réussite Poids
Ascii 32 à 95 7 99,9 % 52 Go
Ascii 32 à 95 8 96,8 % 460 Go
Majuscules, minuscules, chiffres 8 99,9 % 127 Go
Majuscules, minuscules, chiffres 9 96,8 % 690 Go
Minuscules, chiffres 9 99,9 % 65 Go
Minuscules, chiffres 10 96,8 % 316 Go

NTLM, un grand chantier pour Microsoft

De longue date, la v1 du protocole NTLM est considérée comme insuffisamment sécurisé. Le guide de l’ANSSI sur l’administration des environnements Active Directory résume sa faiblesse : il permet d’obtenir des condensats (hashs) par simple capture du trafic réseau. Dans la pratique, les attaques forceront typiquement l’authentification depuis un objet AD à haut niveau de privilèges, comme un contrôleur de domaine.

NTLMv1 a officiellement été supprimé des OS Microsoft avec Windows 11 24H2 et Windows Server 2025. Mais il y a des restes dans certains scénarios. Entre autres lors de l’utilisation de MS-CHAPv2 (Microsoft Challenge Handshake Authentication Protocol version 2) dans un environnement joint à un domaine. Solution recommandée : déployer Credential Guard… et exploiter les fonctionnalités d’audit, renforcées pour l’occasion.

L’objectif de Microsoft est de désactiver complètement le protocole à terme, pour aller vers Kerberos. Il a fallu adapter ce dernier afin de lui apporter certaines caractéristiques spécifiques de NTLM – qui ont d’ailleurs favorisé son intégration « en dur » par certaines applications. Par exemple, l’absence d’exigence de connexion réseau locale à un contrôleur de domaine. La fonctionnalité dite IAKerb a été introduite à ces fins. Elle permet l’authentification sur un contrôleur de domaine via un serveur mandataire.

Illustration générée par IA

The post Face à la persistance de NTLMv1, Mandiant publie ses rainbow tables appeared first on Silicon.fr.

  •  

Comment l’IA redessine les outils collaboratifs

Intelligence artificielle, automatisation et intégration multiplateforme : les solutions de travail collaboratif changent de dimension. Pour les managers IT, ces évolutions représentent à la fois une opportunité de productivité et un défi d’intégration.

  •  

Pourquoi le Desktop as a Service (DaaS) devient une alternative

Le Desktop as a Service (DaaS) est désormais compétitif par rapport aux PC traditionnels. Gartner estime que les offres cloud, combinées à des clients légers, peuvent alléger fortement les dépenses des petites et moyennes entreprises — sans sacrifier la sécurité ni la flexibilité.

  •  
❌