Vue normale

Reçu aujourd’hui — 28 janvier 2026 Silicon

Les premières applications MCP « interactives » arrivent

28 janvier 2026 à 12:49

Une dizaine d’applications connectées à Claude sont désormais « interactives ».

En toile de fond, la stabilisation de la spécification MCP Apps. Elle avait pris forme il y a quelques semaines, à la croisée du projet MCP-UI et de l’Apps SDK d’OpenAI, avec Anthropic dans la boucle. La promesse : standardiser la déclaration de ressources UI par les serveurs MCP.

La spec initiale se concentre sur le contenu text/html. Elle sépare les données des templates pour permettre aux applications hôtes de contrôler ces derniers avant exécution. Le rendu passe par un iframe. Les communications se font sur JSON-RPC et sont donc auditables.

Lors de la connexion à un serveur MCP, l’hôte signale s’il gère ou non ces composants UI. Dans la négative, les outils associés ne délivrent que du texte. Il communique aussi diverses préférences : locale et timezone, thème (clair ou sombre), mode d’affichage (inline, plein écran ou incrustation), plate-forme (mobile, web ou desktop)…

INTER

Microsoft a intégré MCP Apps dans Visual Studio Code pour les bêtatesteurs. L’agent de codage Goose a aussi franchi le pas. Comme OpenAI, censé officialiser dans la semaine ses premières « applications interactives » fondées sur cette spécification.

En attendant, on peut en expérimenter une dizaine sur les versions payantes de Claude (Pro, Max, Team, Enterprise).

Amplitude

Mis à jour avec le support de MCP Apps, le connecteur pour Amplitude permet de créer des graphes et de les explorer (modification du format, affichage d’informations au survol, lien pour les ouvrir dans le navigateur).

Asana

Avec MCP Apps, le connecteur Asana peut créer des projets à partir de prompts et/ou de documents. Pour chaque tâche, les assignations et les dates d’échéance sont modifiables sur l’interface, où on peut aussi afficher une vue calendrier.

Box

MCP Apps permet au connecteur Box d’avoir un aperçu d’un fichiers et de poser des questions à son sujet. L’IA de Box peut prendre le relais de Claude pour résumer des documents et en extraire des actions ou des données structurées.

Canva

MCP Apps pour le connecteur Canva donne la possibilité de créer divers types de contenus (diagrammes, présentations, templates…), de les éditer, d’y faire des recherches et des les redimensionner/exporter.

Clay

En plus des visualisations interactives, MCP Apps apporte, entre autres possibilités, la génération et l’édition de texte, ainsi que la consultation de cartes de profils avec possibilité d’envoyer un message.

Figma

La création de diagrammes – y compris à partir de documents – arrive aussi dans l’application Figma. L’interface permet également d’implémenter un design en HTML/CSS et d’implémenter des composants en s’appuyant sur les standards d’une codebase.

Hex

MCP apporte diverses visualisations interactives (diagrammes, tables, étapes de raisonnement). Les réponses héritent du contexte et des contrôles d’accès de l’espace de travail Hex, nous précise-t-on.

Monday.com

Les visualisations apportées par MCP Apps permettent de créer des tableaux (boards), de mettre à jour le statut de certains éléments et d’obtenir des suggestions pour l’attribution de tâches.

Monday Claude MCP Apps

Slack

Telle que présentée, l’intégration Claude-Slack à la mode MCP Apps permet de composer/éditer des messages et de les envoyer dans des canaux ou à des membres d’équipe.

Toutes ces fonctionnalités sont accessibles sur le web et la version de bureau. Pas sur l’app mobile Claude. Anthropic affirme qu’il les étendra « bientôt » à son produit Cowork.

Illustration principale générée par IA

The post Les premières applications MCP « interactives » arrivent appeared first on Silicon.fr.

Quel est ce contrat avec l’ICE qui ébranle Capgemini ?

28 janvier 2026 à 12:45

Capgemini est dans la tourmente après la révélation d’un contrat sensible signé par sa filiale américaine avec l’agence fédérale de l’immigration ICE.

Le 18 décembre 2025, Capgemini Government Solutions (CGS), sa filiale américaine, s’est vu attribuer par l’Immigration and Customs Enforcement (ICE) un contrat de 4,8 millions $.

L’objet du contrat, clairement indiqué dans les documents officiels publiés par l’agence fédérale américaine des achats, consiste à fournir des « services de recherche de personnes (skip tracing) pour les opérations d’exécution et d’expulsion ».

C’est le média en ligne L’Observatoire des multinationales qui a révélé cette information le 21 janvier 2026, provoquant une vague de réactions après avoir été reprise par le journal de 20h de France 2, le 26 janvier.

Selon les informations du média américain The Intercept publiées en décembre  2025 sur ce type de contrat, celui-ci prévoit des « primes financières ou des ajustements tarifaires fondés sur le taux de réussite du fournisseur dans la vérification des adresses des étrangers ».

Au total, treize entreprises ont signé ce contrat avec l’ICE mais, sur la base des contrats publiés, CGS serait l’entreprise qui pourrait tirer le plus profit du programme, avec une somme maximale évoquée de l’ordre de 365 millions $.

Une « relation étroite » avec ICE

Ce n’est pas le premier contrat que Capgemini Government Solutions remporte avec le département de la sécurité intérieure américain. Les premiers accords remontent à plus de quinze ans. L’entreprise s’occupait déjà de la « planification des détentions » et des lits des centres de rétention.

Sur son site web, CGS se vantait même dans la rubrique « histoires de clients » de « travailler étroitement pour aider [l’ICE] à minimiser le temps requis et le coût de l’expulsion de tous les étrangers illégaux expulsables hors des Etats-Unis ». Cette page a depuis été supprimée mais L’Observatoire des multinationales a conservé une capture d’écran. 

Une filiale sous statut spécial

Créée en 2002 à McLean en Virginie, CGS opère dans le cadre d’un Special Security Agreement qui lui permet de travailler sur des missions classifiées pour le gouvernement américain. Ce statut impose une séparation stricte de ses opérations par rapport au groupe Capgemini.

Face à la polémique, Aiman Ezzat, directeur général de Capgemini, a réagi le 25 janvier sur LinkedIn. Il rappelle que CGS  « est une société atténuée FOCI qui opère sous un accord de sécurité spécial », avec « un conseil d’administration contrôlé par des administrateurs indépendants américains habilités » et une prise de décision séparée. Le groupe Capgemini  « ne peut accéder à aucune information classifiée, contrat classifié ou quoi que ce soit lié aux opérations techniques de CGS, comme l’exige la réglementation américaine » précise-t-il.

Le dirigeant affirme avoir été  « récemment informé, par des sources publiques, de la nature d’un contrat attribué à CGS par l’ICE du département de la sécurité intérieure en décembre 2025». Il reconnaît que « la nature et la portée de ce travail ont soulevé des questions par rapport à ce que nous faisons habituellement en tant qu’entreprise de services et de technologie».

Aiman Ezzat indique que « dans le plein respect de la gouvernance séparée et des restrictions de CGS », il a été informé que « le conseil d’administration indépendant a déjà commencé le processus d’examen du contenu et de la portée de ce contrat et des procédures de contractualisation de CGS ».

Une levée de boucliers en interne et en externe

Ces révélations ont provoqué de vives réactions chez les représentants du personnel de Capgemini. La CFTC  « condamne fermement et demande l’arrêt immédiat du contrat signé avec l’ICE », estimant que « aucun impératif commercial ne peut justifier moralement un tel contrat ». La CGT exprime également sa condamnation et rappelle qu’elle s’inquiétait déjà depuis plusieurs mois du rapprochement entre Capgemini et Palantir, éditeur américain de logiciels d’analyse de données fondé notamment par Peter Thiel, partisan de Donald Trump.

Le contexte est particulièrement sensible : l’ICE est vivement mise en cause pour ses méthodes après la mort de deux citoyens américains lors d’opérations menées ces dernières semaines dans le Minnesota.

Côté politique français, le ministre de l’économie Roland Lescure a demandé à l’entreprise de « faire la lumière de manière extrêmement transparente » sur ses activités. La ministre des armées Catherine Vautrin a appelé à examiner précisément le contenu de ces contrats, rappelant que « le respect des droits de l’homme est un sujet ».

Cette crise survient quelques jours seulement après l’annonce par Capgemini d’un plan de réorganisation pouvant conduire à la suppression de 2.400 postes en France, ajoutant une pression supplémentaire sur le groupe français.

The post Quel est ce contrat avec l’ICE qui ébranle Capgemini ? appeared first on Silicon.fr.

DSA : après bientôt 3 ans, où en est la mise en application

28 janvier 2026 à 09:14

Après Facebook et Instagram, voilà WhatsApp soumis au DSA.

Meta a 4 mois pour mettre le service en conformité. Pas dans son ensemble, néanmoins : uniquement sur les chaînes (la messagerie n’entre pas dans le champ du règlement).

Ces dernières ont dépassé le seuil des 45 millions d’utilisateurs uniques par mois. En conséquence de quoi WhatsApp a été désigné comme « très grande plate-forme en ligne » (VLOP, Very Large Online Platform). Il en rejoint 24 autres. Nous les listons ci-dessous, avec une synthèse des enquêtes éventuellement ouvertes contre elles.

AliExpress

Au dernier pointage, la plate-forme compte 104,3 millions d’utilisateurs uniques par mois dans l’UE. Elle a fait partie des 17 premières VLOP désignées. C’était en avril 2023, quelques jours avant l’entrée en application du DSA.

En mars 2024, la Commission européenne avait ouvert une enquête. Elle s’intéressait notamment aux systèmes de lutte contre la mise en vente de produits illégaux, généralement contrefaits. Le système de gestion des réclamations était aussi dans son collimateur, comme la transparence des systèmes de publicité et de recommandation. La procédure englobait également la mise à disposition de données publiques pour la recherche.

Alibaba a fini par prendre des engagements, que Bruxelles a acceptés en juin 2025. Le groupe chinois a promis, entre autres, de renforcer le processus de vérification des vendeurs et des membres de son programme d’affiliation. Il s’est aussi engagé à permettre aux utilisateurs – y compris ceux non connectés – de faire appel de décisions de modération de contenu par l’intermédiaire d’un lien intégré dans lesdites décisions. Et à signaler clairement toutes les publicités, y compris là aussi pour les utilisateurs non connectés. Tout en proposant une API dédiée à l’accès aux données publiques, assortie de la fourniture de jeux de données personnalisés sur demande.

Amazon

Sa marketplace fait partie des VLOP désignées en avril 2023.
Elle compte 181,3 millions d’utilisateurs uniques par mois dans l’UE.

App Store

Le magasin d’applications d’Apple est aussi VLOP depuis avril 2023.
Il réunit 123 millions d’utilisateurs uniques par mois dans l’UE.

Bing

Le moteur de recherche de Microsoft est VLOP depuis avril 2023. Il réunit 119 millions d’utilisateurs uniques par mois dans l’UE.

Booking.com

La Commission européenne ne fournit pas de chiffres précis sur la fréquentation du site de réservation touristique, VLOP depuis avril 2023.

Facebook et Instagram

Pour l’un et l’autre, désignés en avril 2023, on nous annonce 259 millions d’utilisateurs uniques par mois dans l’UE.

La Commission européenne a ouvert deux enquêtes coup sur coup, en avril et mai 2024. La première englobe la gestion des publicités trompeuses et de la désinformation. Elle touche aussi au mécanisme de signalement des contenus, jugé insuffisamment intuitif. Ainsi qu’aux obligations de transparence concernant les contenus à caractère politique. Sur ce point, Bruxelles s’est indigné de l’abandon, par Meta, de l’outil CrowdTangle, qui favorisait la en veille période électorale.

L’enquête lancée en mai 2024 porte sur la protection des mineurs. La Commission européenne a des inquiétudes sur la vérification d’âge et sur les risques de comportements d’addiction.

Google Maps, Play, Search et Shopping

Toutes ces plates-formes sont des VLOP depuis avril 2023.
Maps : 275,6 millions d’utilisateurs uniques par mois dans l’UE.
Play : 284,6 millions.
Search : 364 millions.
Shopping : 70,8 millions.

LinkedIn

Désigné VLOP en avril 2023, le réseau social fédère 45,2 millions d’utilisateurs actifs connectés par mois dans l’UE. S’y ajoutent 132,5 millions de visites par mois en mode déconnecté.

Pinterest

Le réseau social fait partie des VLOP depuis avril 2023. Il annonce 124 millions d’utilisateurs uniques par mois dans l’UE.

Pornhub, XNXX et XVideos

Pas de chiffres de fréquentation précis pour Pornhub, VLOP depuis décembre 2023. Ni pour XNXX, qui l’est depuis juillet 2024. XVideos, désigné en décembre 2023, en est à 160 millions d’utilisateurs uniques par mois dans l’UE.

En mai 2025, la Commission européenne a ouvert une procédure ciblant également Stripchat (qui n’est plus VLOP aujourd’hui), XNXX et XVideos. Elle s’inquiète notamment de l’absence de dispositifs efficaces de vérification d’âge. Et, plus globalement, de mesures appropriées pour garantir la sûreté, la sécurité et la vie privée des mineurs.

Shein

La plate-forme e-commerce est VLOP depuis avril 2024. Elle fédère 108 millions d’utilisateurs uniques par mois dans l’UE.

Snapchat

Snapchat est de la première vague des VLOP, désignées en avril 2023. Son compteur en est à 102 millions d’utilisateurs uniques par mois dans l’UE.

Temu

La plate-forme e-commerce est VLOP depuis mai 2024. Elle compte 75 millions d’utilisateurs uniques par mois dans l’UE.

En octobre 2024, la Commission européenne a ouvert une enquête. Elle s’intéresse aux mesures prises contre la vente de produits non conformes dans l’UE et aux risques de comportements addictifs que présentent les programmes de récompenses. La procédure touche aussi aux systèmes de recommandation (entre autres, la nécessité de donner au moins une option non fondée sur le profilage) et à la fourniture de données en accès public pour la recherche.

TikTok

Désigné VLOP en avril 2023, TikTok compte 135,9 millions d’utilisateurs actifs par mois dans l’UE.

Plusieurs enquêtes ont été menées à son encontre. La première, ouverte en février 2024, a examiné les risques de comportements d’addiction (et avec eux, les dispositifs de vérificaton d’âge), les paramètres de vie privée par défaut pour les mineurs, la transparence publicitaire et l’open data.

Une autre enquête est en cours depuis décembre 2024. Le sujet : l’intégrité de la plate-forme en périodes électorales. En toile de fond, les présidentielles roumaines… et la forte suspicion d’interférences étrangères. Bruxelles se focalise notamment, dans ce cadre, sur les risques de manipulation des systèmes de recommandation.

Les deux parties sont parvenues, en décembre 2025, à une conciliation partielle sur la transparence publicitaire. TikTok a accepté de publier, dans un répertoire spécifique et sous 24 heures maximum, les annonces telles qu’elles apparaissent dans les flux, tout en précisant les critères de ciblage sélectionnés par les annonceurs et en fournissant divers filtres de recherche.

Sur la partie open data, qui intéresse aussi la Commission européenne, on en reste aux conclusions préliminaires de cette dernière. Elle estime que les procédures de demande d’accès sont lourdes. Et qu’elles résultent souvent en l’obtention de données partielles ou non fiables.

Entre les deux enquêtes, une autre procédure fut lancée en avril 2024. Le contexte : l’arrivée de TikTok Lite en France et en Espagne. Au nom du risque d’addiction, Bruxelles avait demandé le retrait du programme « Task and Reward » récompensant les utilisateurs pour effectuer certaines tâches. TikTok avait quasi immédiatement accepté de le suspendre. D’abord pour 60 jours. Un engagement devenu permanent au mois d’août.

WhatsApp

Petit nouveau sur la liste des VLOP (désigné le 26 janvier 2026). Ses chaînes comptent 51,7 millions d’utilisateurs uniques par mois dans l’UE.

Wikipédia

L’encyclopédie est VLOP depuis avril 2023. Elle réunit 151,1 millions d’utilisateurs actifs par mois dans l’UE.

X

Le réseau social et VLOP depuis avril 2023. Il en est à 115,1 millions d’utilisateurs uniques par mois dans l’UE.

La Commission européenne avait ouvert une enquête en décembre 2023. La lutte contre la dissémination de contenu illégal était dans son viseur, ainsi que le mécanisme de signalement associé. Le système de modération Community Notes l’était aussi. Comme la « coche bleue », jugée trompeuse : tout le monde pouvant l’obtenir en prenant un forfait payant, elle compromettrait la capacité à distinguer l’authenticité des comptes.

Bruxelles considérait aussi que X n’était pas dans les clous en matière de transparence publicitaire. Ni d’open data (interdiction des accès indépendants dans les conditions d’utilisation, tarification onéreuse de l’API).

La sanction est finalement tombée en décembre 2025 : 120 M€, pour des manquements sur ces différents aspects. Une enquête vient par d’ailleurs d’être ouverte sur l’IA Grok et sur les systèmes de recommandation.

YouTube

La plate-forme est VLOP depuis avril 2023. Elle compte 416,6 millions d’utilisateurs mensuels actifs dans l’UE.

Zalando

La plate-forme e-commerce est VLOP depuis avril 2023. Elle compte 74,5 millions d’utilisateurs uniques actifs par mois sur la partie retail (26,8 millions sur les contenus tiers).

Illustration © Bartek – Adobe Stock

The post DSA : après bientôt 3 ans, où en est la mise en application appeared first on Silicon.fr.

Reçu hier — 27 janvier 2026 Silicon

10 chiffres sur le déploiement de l’IA chez France Travail

27 janvier 2026 à 15:47

Dix ans déjà que « La bonne alternance » a émergé chez France Travail, dans la lignée de « La bonne boîte ».

Ces services font chacun intervenir un algorithme qui analyse les recrutements passés pour prédire ceux à venir. Ils ont fait partie des premiers cas d’usage de l’IA au sein de l’établissement public.

Depuis, deux programmes se sont organisés. D’abord, « Intelligence emploi », mis en œuvre en 2019 et 2022. Il a permis la constitution d’une plate-forme technologique sur base open source et d’une équipe au sein de la DSI. Ensuite, « Data IA », engagé depuis 2024. Il est motivé par l’IA générative, le renforcement du pilotage de la donnée et l’élargissement des missions de France Travail avec la loi plein emploi.

La Cour des comptes s’est intéressée au déploiement de l’IA par l’agence d’emploi publique sur la période 2017-2025. Voici quelques éléments tirés de son rapport.

87 cas d’usage

La Cour des comptes a relevé 87 cas d’usage déployés ou testés sur la période en question.

Parmi eux, 27 sont utilisés à grande échelle. 16 sont en test. 25 sont en cours de conception. 17 ont été abandonnés au stade du test ou après déploiement. Plusieurs sont les variantes d’un même outil. Notamment de ChatFT (chatbot généraliste).

L’essentiel de ces 87 cas d’usage – 61, dont 26 déployés – ont pour seuls bénéficiaires directs les agents de France Travail. L’illustration, selon la Cour des comptes, d’une volonté de développer d’abord une culture de l’IA en interne.

Les principaux cas d’usage dont les demandeurs d’emploi sont bénéficiaires directs visent à :

  • Faciliter le remplissage du profil dans l’espace personnel
  • Suggérer des métiers en fonction des compétences
  • Lire automatiquement les documents téléchargés et extraire des informations

Ces cas d’usage présentent des résultats plutôt positifs. Parmi eux, l’analyse automatique des CV, qu’utilisent 75 % des demandeurs d’emploi.

Des 6 cas d’usage bénéficiant directement aux entreprises, 3 ont été abandonnés en 2017. L’un touchait à l’analyse prédictive de l’attractivité des offres d’emploi.
Les deux seuls actuellement déployés consistent à :

  • Prévoir le délai de pourvoi d’une offre à 30 jours (peu utilisé)
  • Présenter, sur un site public, des données générales sur l’emploi à l’échelon territorial (peu de valeur ajoutée dans les projets de recrutement)

9 % d’utilisateurs quotidiens de l’IA

L’effectif de France Travail avoisine 54 000 agents.

Sur 34 945 ayant répondu à une enquête interne menée en mars 2025, 9 % ont déclaré utiliser chaque jour l’IA mise à leur disposition. 18 % ont affirmé s’en servir plusieurs fois par semaine. 39 % ont dit ne pas y recourir.

ChatFT est accessible à tout le personnel depuis novembre 2024. À fin juin 2025, 37 600 agents l’avaient utilisé au moins une fois. Ce mois-là, 17 400 s’en étaient servis au moins trois journées distinctes.
Sur la fin de la phase de test, une étude interne sur environ 700 conversations avait révélé que l’usage principal consistait à formuler des réponses à des e-mails (51 % des conversations), loin devant la recherche d’informations générales (10 %).

108 millions d’euros de coûts

En retenant une estimation basse des coûts de développement, France Travail a mobilisé 93 M€ pour l’IA entre 2017 et 2024.

Période Montant des dépenses
Avant 2018 3 M€
Intelligence emploi 2018-2022 64 M€
Data IA 2019-2022 9 M€
Data IA 2023-2024 16 M€
Autres dépenses non rattachées 1 M€

Les « autres dépenses non rattachées » correspondent aux budgets pour une application « Reconnaissance des émotions ».

On en arrive aux 93 M€ sus évoqués. En y ajoutant le budget prévisionnel de 15 M€ pour 2025, le coût total du développement de l’IA sur la période considérée s’élève à 108 M€. La Cour des comptes compare ce montant aux 66 M€ que le ministère de l’Économie et des Finances a engagés sur 2015-2023 et explique la différence par un plus grand nombre de relations directes avec les usagers.

120 M€ de gains d’efficience

On atteint ce montant en retenant une estimation haute des gains réalisés depuis 2017. Cela inclut trois gains directs attendus :

  • Cas d’usage du programme « Intelligence emploi » : 205 ETP par an à partir de 2023
  • Service « Upload simplifié » (reconnaissance de documents) : 350 ETP/an à partir de 2024
  • Service MatchFT (préqualification de profils par échange de SMS avec une IA) : 100 ETP en 2025

Soit, sur l’ensemble de la période étudiée, un total de 1415 ETP, que la Cour des comptes estime valorisables à 85 M€.

Les gains « indirects » liés à une charge de travail évitée par les conseillers seraient de 375 ETP. D’un côté, pour l’analyse automatique de CV, 27 ETP e 2023 et 48 par an à partir de 2024. De l’autre, 84 ETP par an à partir de 2023 pour le service « Lego », qui identifie les offres d’emploi illégales et empêche leur diffusion. L’ensemble serait valorisable à 23 M€.

Il faut y ajouter les coûts évités du fait du remplacement de logiciels par certains cas d’usage. En première ligne, la reconnaissance automatique de documents avec « Upload simplifié ».

14,4 M€ de dépassement pour « Intelligence emploi »

Le budget prévu pour ce programme était de 49,5 M€.
Le budget exécuté s’est élevé à 63,9 M€ (29 M€ de masse salariale, 33,9 M€ de dépenses de fonctionnement et 1 M€ de dépenses d’investissement).

France Travail justifie ce dépassement par l’allongement de 10 mois de la durée du projet, essentiellement en raison :

  • De la crise Covid
  • Du développement de cas d’usage initialement non prévus (Lego, analyse des CV, aide à la recherche d’info sur les sites de Pôle emploi…)
  • De la comptabilisation de dépenses liées aux capacités techniques communes à d’autres développements de solutions d’IA non intégrées au programme

Dès janvier 2020, donc avant l’épisode Covid, la Dinum avait alerté quant au montant de dépenses de prestations intellectuelles envisagé (22,7 M€). Elle l’avait jugé « surdimensionné pour une démarche exploratoire dont le retour sur investissement n’est pas garanti ».
Les prestations extérieurs ont, en définitive, coûté 33,9 M€.

La Dinum avait aussi anticipé, à raison, le potentiel incertain d’appropriation, par les conseillers, du cas d’usage « Gestion automatisée des mails et assistant virtuel ». Pôle emploi avait refusé d’y mettre un terme, au motif que des gains d’efficience et de satisfaction pourraient être constatés à court terme.

205 ETP gagnés avec « Intelligence emploi »

En 2018, Pôle emploi prévoyait un gain annuel de 164 ETP à l’horizon 2022 (87 grâce à « Contact via mail » et 77 par l’utilisation d’un chatbot).

Le gain a finalement atteint 205 ETP (107 grâce à « Contact via mail », le reste via Lego). Objectif dépassé, donc ; mais qui, a posteriori, apparaît peu ambitieux. La Cour des comptes en veut pour preuve le ROI significativement plus faible que pour une sélection de projets IA du ministère de l’Économie et des Finances.

Ces gains ne se sont pas traduits par une réduction nette des effectifs, mais par des « redéploiements intra-postes ».

De 18 à 4 mois pour déployer un cas d’usage

Avant le premier programme, il fallait 18 mois pour déployer un cas d’usage. Il en faut maintenant 4. En parallèle, le recours à des intervenants extérieurs est passé de 60 % des prestations globales sur 2019-2020 à 40 % sur 2021-2022.

Des six cas d’usage principaux réalisés sur la durée du programme « Intelligence emploi », trois étaient consacrés essentiellement à faciliter le travail des conseillers. Un déséquilibre entre les publics ciblés qui allait s’accentuer avec le programme « Data IA ».

Avant le lancement du programme « Intelligence emploi », France Travail avait détecté plus de 80 cas d’usage potentiels. 90 % se sont révélés inadéquats. Essentiellement du fait de difficultés au niveau de la data ou de l’intégration au SI, ou à cause d’une surestimation de la valeur.

30 minutes de moins pour remplir un profil

Les cas d’usage mis en place lors du premier programme ont entraîné des gains d’efficience assez limités. Quelques minutes par jour pour la gestion des e-mails, par exemple.

La valeur ajoutée réside surtout dans le service rendu. L’analyse automatique du CV réduit ainsi de 45 à 15 minutes le temps nécessaire au demandeur d’emploi pour remplir son profil de compétences.

779 ETP à libérer sur 2025-2027

Le travail de transformation engagé pour répondre à l’élargissement des missions de France Travail est formalisé dans un programme, prolongé dans un plan d’efficience sur 3 ans (2025-2027).

Aux dernières nouvelles, ce plan vise à dégager un gain équivalant au minimum à 3192 ETP. L’IA doit y concourir à hauteur de 779 ETP.
En avril 2025, il était question de 822, dont 78 % provenant de trois cas d’usage :

  • Aide rédactionnelle via ChatFT (226 ETP)
  • Préparation d’entretiens via Néo, moteur de recherche d’infos dans les dossiers des demandeurs d’emploi (241 ETP)
  • Alimentation plus facile de la GED via Panoptes (157 ETP), dont « Upload simplifié » est la déclinaison sur le site Internet de France Travail (en agence, cela s’appelle « Scanner », la version proposée aux services de l’État se nommant « Scanlab »)

Une analyse éthique pour 18 cas d’usage

Le respect des engagements pris dans la charte éthique publiée en avril 2022 n’est pas garanti, note la Cour des comptes. Seuls 18 cas d’usage ont fait l’objet d’un début d’analyse éthique formalisé.

Le recours à l’IA s’inscrit dans un contexte de numérisation de la relation avec France Travail. Entre 2017 et 2024, le nombre de visites annuelles en agence a chuté de 42 %. Tandis que le volume d’e-mails a augmenté de 72 %.

Illustration générée par IA

The post 10 chiffres sur le déploiement de l’IA chez France Travail appeared first on Silicon.fr.

DMA : Bruxelles laisse 6 mois à Google pour ouvrir Android aux concurrents

27 janvier 2026 à 14:46

Nouveau coup de semonce pour Google. Ce mardi, la Commission européenne a ouvert deux procédures de spécification dans le cadre du Digital Markets Act (DMA). Cette législation phare de l’UE vise à réguler les géants du numérique.

L’objectif ? Contraindre Alphabet, sa maison mère, à préciser ses intentions. Google doit expliquer comment il permettra aux développeurs d’IA et aux moteurs de recherche concurrents d’accéder à ses services. Cela concerne Android et les données de Google Search. L’accès doit se faire dans des conditions équitables.

« Avec ces procédures, nous voulons aider Google », déclare Teresa Ribera, commissaire européenne à la concurrence. « Nous expliquons plus en détail comment il doit se conformer à ses obligations d’interopérabilité et de partage de données de recherche en ligne. » Une formulation diplomatique qui masque mal la pression sur le groupe californien.

Android dans le viseur

La première procédure concerne une obligation précise pour Google. Le géant doit offrir aux développeurs tiers une interopérabilité « gratuite et effective ». Cela vise les fonctionnalités matérielles et logicielles d’Android.

Bruxelles va spécifier les modalités d’accès pour les fournisseurs de services d’IA tiers. Google doit leur accorder un accès « aussi efficace » que celui de ses propres services, comme Gemini. L’objectif est clair : empêcher Google de favoriser ses propres outils d’IA. Le groupe ne doit pas privilégier ses solutions au détriment de la concurrence sur mobile.

Les données de recherche convoitées

La seconde procédure vise le partage des données de Google Search. La Commission exige un accès équitable pour les moteurs concurrents. Google doit leur fournir des données anonymisées : classement, requêtes, clics et vues. Les conditions doivent être « équitables, raisonnables et non discriminatoires ».

Les discussions porteront sur plusieurs points. Quelle sera l’étendue des données concernées ? Quelle méthode d’anonymisation Google utilisera-t-il ? Quelles seront les conditions d’accès ? Les fournisseurs de chatbots IA seront-ils éligibles ?

Un accès effectif à ces données changerait la donne. Les alternatives à Google pourraient optimiser leurs services. Les utilisateurs bénéficieraient de véritables choix.

« Nous voulons maximiser le potentiel de ce profond changement technologique », justifie Teresa Ribera. « Nous nous assurons que le terrain de jeu reste ouvert et équitable. Il ne doit pas pencher en faveur des plus grands acteurs. »

Google conteste

Sans surprise, Google exprime ses réticences. « Android est ouvert par conception », a répliqué Clare Kelly, conseillère principale à la concurrence chez Google. « Nous accordons déjà des licences sur les données de recherche à nos concurrents dans le cadre du DMA. »

Elle se dit préoccupée par les conséquences. « Des règles supplémentaires compromettront la confidentialité des utilisateurs », affirme-t-elle. Selon Google, ces règles menacent aussi la sécurité et l’innovation. Le groupe estime que les concurrents motivent ces règles par leurs griefs. L’intérêt des consommateurs ne serait pas la priorité.

Six mois pour se conformer

La Commission dispose de six mois pour conclure ces procédures. Dans les trois prochains mois, elle communiquera ses conclusions préliminaires à Google. Elle détaillera les mesures qu’elle envisage d’imposer. La Commission publiera des résumés non confidentiels. Les tiers pourront formuler des commentaires.

Ces procédures ne constituent pas encore une enquête formelle. Mais elles font clairement monter la pression. Si Google ne se conforme pas, des sanctions tomberont. Les amendes pourraient atteindre 10% du chiffre d’affaires mondial annuel du groupe. Un précédent existe : Apple a reçu des directives similaires il y a deux ans. L’objectif était d’ouvrir son écosystème fermé.

Un arsenal déjà impressionnant

Cette nouvelle offensive s’ajoute à un arsenal existant. Google fait face à des sanctions imminentes dans le cadre du DMA. Le groupe aurait favorisé ses propres services dans son empire de recherche. Il aurait également empêché les développeurs d’applications d’agir librement. Ces derniers ne pouvaient pas orienter les consommateurs vers des offres en dehors du Play Store.

Une autre enquête vise Google. Elle concerne le déclassement présumé de certains résultats d’actualités. Au total, l’UE a déjà infligé 9,5 milliards € d’amendes à Google.

The post DMA : Bruxelles laisse 6 mois à Google pour ouvrir Android aux concurrents appeared first on Silicon.fr.

 » Visio  » : la solution de l’État qui divise l’écosystème tech français

27 janvier 2026 à 11:56

Un nouveau pari pour la Dinum. Plus d’un an après avoir été étrillé par un rapport de la Cour des comptes, le bras armé de l’Etat pour la stratégie numérique a annoncé la généralisation de
 » Visio », un outil de visioconférence développé par ses soins, à l’ensemble des services de l’État d’ici 2027.

Lancé par Le ministre délégué chargé de la Fonction publique et de la Réforme de l’État, David Amiel, l’opération  » Visio »  est présenté comme faisant partie de  » La Suite « , cet outil estampillé français et développé par les ingénieurs de la Dinum vise à remplacer la multitude de solutions actuellement adoptées par les différents appareils d’État : Teams, Zoom, GoTo Meeting ou encore Webex, dans un objectif de souveraineté numérique et de sécurité des données publiques.

Une expérimentation sur 40 000 utilisateurs

Lancé sous forme expérimentale il y a un an,  » Visio  » compterait déjà 40 000 utilisateurs réguliers parmi les agents publics. Parmi les premières administrations à expérimenter la solution figurent le CNRS, l’Assurance Maladie, la Direction Générale des Finances publiques (DGFIP) et le ministère des Armées.

Le CNRS prévoit notamment de remplacer d’ici fin mars ses licences Zoom par Visio pour ses 34 000 agents et les 120 000 chercheurs associés à ses unités de recherche.

L’arrêt des licences logicielles payantes devrait générer une économie d’1 million € par tranche de 100 000 utilisateurs supplémentaires, selon les chiffres annoncés par le gouvernement.

Sécurité et souveraineté technologique

Selon la Dinum,  » Visio  » est  déployé avec l’appui de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et offre des garanties de confidentialité adaptées aux besoins des agents publics, avec un hébergement (SecNumCloud) chez Outscale, filiale de Dassault Systèmes.. C’est la moindre des choses, serait-on tenté de dire.

Sur le plan technique, l’outil intègre des innovations françaises. La transcription des réunions par intelligence artificielle utilise les technologies de séparation des locuteurs développées par la startup française Pyannote. D’ici l’été 2026, un sous-titrage en temps réel sera proposé grâce aux technologies développées par le laboratoire de recherche en IA français Kyutai.

Les critiques de l’écosystème tech français

Cette annonce a suscité des réactions vives au sein de l’industrie française du numérique représentée au sein du Comité Stratégique de Filière Logiciels et Solutions Numériques de Confiance.

Selon les Echos, son président, Michel Paulin, a vivement réagi lors « des rencontres de la souveraineté numérique » un évènement organisé ce Lundi à Bercy. « Croire qu’une solution développée par trois développeurs en CDD dans le secteur public peut aller concurrencer Microsoft est une hérésie », a tancé Michel Paulin

Une intervention saluée par les applaudissements nourris d’un parterre de décideurs présents.

Autres réactions recueillies par le quotidien économique, celle de Renaud Ghia, président de Tixeo, éditeur français d’outils de visioconférence : « Si l’accès au secteur public est fermé par une solution développée et opérée par l’administration, les éditeurs français perdent leur premier levier de croissance. En lui refusant l’accès à son propre marché domestique, l’Etat français handicape ses champions à l’international. »

La mission et les réalisations de la Dinum sont depuis longtemps l’objet des critiques de la filière, souvent sur le ton de la concurrence déloyale…Rebondissant sur les conclusions de la Cour des comptes à propos de La Suite Numérique, le Conseil national du logiciel libre accusait l’an dernier la DINUM de concurrencer le secteur privé… dont les acteurs du logiciel libre.

Illustration: © DR

The post  » Visio  » : la solution de l’État qui divise l’écosystème tech français appeared first on Silicon.fr.

Puces IA : face à Amazon et Google, Microsoft se replace

27 janvier 2026 à 10:40

Microsoft, désormais au niveau de Google et d’Amazon sur les puces IA ?

La deuxième génération des accélérateurs Maia – tout juste annoncée – s’accompagne en tout cas d’un comparatif de performance. Cela n’avait pas été le cas pour la première, présentée fin 2023.

D’une génération à l’autre, on est passé de 5 à 3 nm, de la HBM2 à la HBM3… et d’une approche généraliste à un message centré sur l’inférence, avant tout à faible précision (4 et 8 bits).

Vu ce focus, on aurait pu penser que Microsoft ferait la comparaison avec les puces Inferentia2 d’Amazon. Mais celles-ci ont, il est vrai, un certain âge (introduites fin 2022). L’accélérateur Maia 200 est donc opposé aux Trainium3 (dévoilées en décembre 2025 ; dédiées à l’entraînement). Ainsi qu’à la dernière génération de TPU de Google (Ironwood, introduite en avril 2025).

Maia 200 Trainium3

(specs disponibles ici)

TPUv7x

(specs disponibles ici)

Mémoire HBM 216 Go 144 Go 192 Go
Bande passante HBM 7 To/s 4,9 To/s 7,4 To/s
Bande passante scale-up 2,8 To/s 2,56 To/s 1,2 To/s
BF16 1268 Tflops 671 Tflops 2307 Tflops
FP8 5072 Tops 2517 Tops 4614 Tops
FP4 10 145 Tops 2517 Tops n/a

Microsoft annonce une enveloppe thermique de 750 W pour Maia 200, tandis que les puces d’Amazon et de Google fonctionnent à environ 1000 W. Au final, il prétend que son accélérateur est « 40 % moins cher que les autres »…lame Maia 200

Les puces Maia, pas exposées directement au client

Maia 100 n’est pas exposé directement aux clients finaux : il porte des services comme Copilot et Azure OpenAI, ainsi que des workloads HPC. La même stratégie se dessine avec les accélérateurs Maia 200. La division Microsoft Superintelligence en sera la première utilisatrice. On nous parle aussi d’une exploitation dans le cadre de Microsoft 365 et d’Azure AI Foundry. Mais pas d’une mise à disposition dans l’offre de compute.

Physiquement parlant, les premières puces seront localisées dans la région US Central (Iowa). La région US West 3 (Arizona) suivra. Elles sont déployables en configuration à refroidissement liquide ou à air.

De Maia 100 à Maia 200, on retrouve une couche réseau basée sur Ethernet, avec un protocole type RoCE. Une topologie intranœud est mise en place, connectant des groupes de 4 puces « en direct », sans switch. Un cluster peut accueillir au maximum 6144 puces.

La couche mémoire évolue, avec un partitionnement de la SRAM (272 Mo par puce) en deux niveaux logiques, chacun ayant son sous-système DMA. Le premier (TSRAM) alimente les tiles (plus petite unité autonome de calcul et de stockage local, embarquant moteurs matriciel et vectoriel) ; le deuxième (CSRAM), les clusters.
Cette approche favorise diverses stratégies de data management en fonction des noyaux. Les kernels d’attention, par exemple, peuvent épingler des tenseurs en TSRAM pour minimiser l’overhead. Tandis que les pipelines cross-kernel peuvent exploiter la CSRAM comme tampon pour le chaînage à haut débit.

rack Maia 200

Illustrations © Microsoft

The post Puces IA : face à Amazon et Google, Microsoft se replace appeared first on Silicon.fr.

Reçu — 26 janvier 2026 Silicon

Pourquoi Nvidia multiplie ses investissements en Europe dans l’IA

26 janvier 2026 à 15:39

L’accélération est spectaculaire. Nvidia a intensifié ses investissements dans les jeunes pousses européennes de l’IA, participant à 14 tours de financement en 2025 ( sur un total de 86), selon la plateforme Dealroom. Un doublement par rapport aux sept opérations de 2024, et une progression fulgurante quand on sait que le fabricant de puces n’avait réalisé aucun investissement sur le continent en 2020 et 2021.

Cette offensive européenne de Jensen Huang s’inscrit dans une stratégie mondiale d’envergure. pour tisser des liens étroits avec les sociétés les plus prometteuses du secteur, en leur apportant non seulement des capitaux, mais aussi une expertise technique et un accès privilégié à sa chaîne d’approvisionnement.

Des montants records déployés

Parmi les opérations les plus marquantes figure le troisième investissement de Nvidia dans le français Mistral AI, qui a levé 1,7 milliard € en septembre 2025, atteignant une valorisation de 11,7 milliards €.

Autre investissement majeur, les 500 millions de livres sterling dans Nscale, annoncé en septembre par Jensen Huang lui-même. Cette startup britannique, qui développe des centres de données et fournit des services de cloud computing pour l’IA, a rapidement bouclé deux tours de financement successifs fin septembre et début octobre, avec Nvidia à chaque fois au capital.

Le géant américain a également soutenu le laboratoire allemand Black Forest Labs en décembre, participant à une levée de 300 millions $ qui a propulsé la valorisation de cette société spécialisée dans les modèles d’IA pour le contenu visuel à 3,25 milliards $. Nvidia était aussi de la partie lors de la levée de fonds de Lovable, une startup travaillant sur le « vibe coding », valorisée à 6,6 milliards $

Autre pari relevé : celui sur Quantinuum, une entreprise d’informatique quantique qui a levé des fonds en septembre avec le soutien de Nvidia, atteignant une valorisation de 10 milliards $. Ces capitaux doivent financer le développement du système quantique de nouvelle génération Helios.

L’Europe, terre d’opportunités pour l’IA physique

Cette tendance s’est poursuivie en 2026. La startup britannique Synthesia a ainsi annoncé la participation de Nvidia à son dernier tour de table.

Pour Jensen Huang, qui s’exprimait récemment au Forum économique mondial de Davos, l’Europe dispose d’atouts considérables dans la robotique et l’intelligence artificielle physique. L’Europe possède une base industrielle et manufacturière particulièrement solide, qu’elle peut désormais fusionner avec l’IA pour se positionner sur ce marché émergent. Cette combinaison permettrait même à l’Europe de rattraper son retard dans le domaine logiciel, dominé par les États-Unis.

Reste un défi majeur : l’énergie. Jensen Huang a martelé ce point à Davos : pour que l’écosystème de l’IA puisse se développer pleinement en Europe, le continent doit résoudre la question de son approvisionnement énergétique. Avec des coûts parmi les plus élevés au monde, l’Europe peine à attirer les investissements massifs nécessaires au déploiement des infrastructures d’IA. Un constat partagé par Satya Nadella, le patron de Microsoft, qui juge que les coûts énergétiques seront déterminants dans la course mondiale à l’IA.

Un écosystème en pleine ébullition

Au-delà de l’Europe, Nvidia s’impose comme le faiseur de rois de l’IA. Les hyperscalers se précipitent pour construire leurs capacités et le groupe dispose de liquidités considérables à déployer. Jensen Huang parle du démarrage du plus grand déploiement d’infrastructures de l’histoire de l’humanité.

Les chiffres parlent d’eux-mêmes. L’année 2025 a enregistré l’un des plus hauts niveaux d’investissement en capital-risque jamais atteints, avec plus de 100 milliards $ déployés dans le monde, essentiellement vers des startups natives de l’IA. Ces entreprises opèrent dans la santé, la robotique, l’industrie manufacturière et les services financiers, des secteurs où les modèles d’IA sont désormais suffisamment matures pour permettre le développement d’applications concrètes.

——

Les principaux investissements de Nvidia en Europe en 2025

Startup Pays Secteur Montant levé Valorisation Date
Mistral AI France Modèles de langage IA open source 1,7 Md€ 11,7 Md€ Sept. 2025
Nscale Royaume-Uni Centres de données / Cloud IA 500 M£ N.C. Sept. 2025
Black Forest Labs Allemagne Modèles IA pour contenu visuel 300 M$ 3,25 Md$ Déc. 2025
Lovable N.C. « Vibe coding » N.C. 6,6 Md$ 2025
Quantinuum N.C. Informatique quantique N.C. 10 Md$ Sept. 2025
Note : Sur les 86 levées de fonds mondiales auxquelles Nvidia a participé en 2025, 14 concernaient des startups européennes, contre 7 en 2024.

 

The post Pourquoi Nvidia multiplie ses investissements en Europe dans l’IA appeared first on Silicon.fr.

Serverless : faut-il privilégier l’observabilité native ?

26 janvier 2026 à 15:13

Les services natifs du cloud provider pour les métriques et les alertes, OpenTelemetry pour les traces.

Un article paru il y a quelques semaines dans l’International Journal of Computer Techniques propose cette stratégie d’observabilité pour le serverless. On le doit à une ancienne de Microsoft, qui fut notamment directrice scientifique au sein de l’activité Azure AI.

Son analyse porte plus précisément sur un sous-ensemble du calcul sans serveur : le FaaS (functions as a service). Dans ces environnements, les ressources sont généralement éphémères, distribuées et à haute concurrence. Les points d’intégration peuvent par ailleurs être nombreux… et inclure des services managés « en boîte noire » qui exigent de l’instrumentation.

Natif, full OpenTelemetry ou hybride ?

Les conclusions n’ont pas valeur de vérité absolue : l’expérimentation a été effectuée à petite échelle – de sorte qu’on peut la reproduire en local ou dans un compte de test – et tous les paramètres étaient sous contrôle.

Le cas d’usage exploré reposait sur des traces synthétiques de type e-commerce. Le workflow – présenté uniquement à haut niveau – comprenait 4 étapes : passerelle API -> fonction A -> fonction B (appel HTTP à une API externe non spécifiée) -> DynamoDB. Il s’agissait d’y adosser diverses stratégies d’observabilité, en mesurant 4 indicateurs :

  • Allongement médian de la durée d’exécution des fonctions
  • Proportion de traces complètes
  • Délai médian pour découvrir la cause racine sur des simulations d’erreurs à partir de la télémétrie disponible
  • Coût par million de requêtes (base : tarification publique de X-Ray et CloudWatch + estimations pour un back-end Jaeger autohébergé)

La première stratégie évaluée reposait intégralement sur les outils d’observabilité d’AWS (CloudWatch pour métriques et alertes, X-Ray pour les traces). La deuxième était full OpenTelemetry. La troisième, hybride, associait CloudWatch (télémétrie pilotée par les SLO) et OpenTelemetry (back-end Jaeger/Tempo ou managé), avec un échantillonnage adaptatif.

Overhead Traces complètes MTRC Coût
Natif 9 – 12 ms 82 % 18 min 6,20 $
OTel 18 – 25 ms 95 % 9 min 4,80 $
Hybride 11 – 15 ms 93 % 10 min 5,10 $

 

La méthode native est celle qui entraîne le moins de surcharge. Mais elle produit le plus de traces incomplètes, sauf à ajouter de l’instrumentation. Et s’il simplifie l’exploitation, X-Ray implique un certain verrouillage (limites de portabilité et de conservation de la télémétrie).
En centralisant sur OpenTelemetry, les traces sont plus « riches ». Mais l’overhead augmente. Comme les coûts, en plus des compétences nécessaires.
L’approche hybride orientée SLO (on ne collecte en haute fidélité que pour les éléments critiques de ce point de vue) n’est ni la plus « légère », ni la plus précise, ni la plus économique. Mais elle constitue un compromis.

À consulter en complément, une étude universitaire qui pointe – et chiffre – divers facteurs techniques et contractuels générateurs de surcoûts sur les principales plates-formes serverless.

Illustration © Aryan – Adobe Stock

The post Serverless : faut-il privilégier l’observabilité native ? appeared first on Silicon.fr.

Cyberattaques : les entreprises françaises mieux armées mais toujours sous pression

26 janvier 2026 à 14:57

40% des entreprises interrogées ont subi au moins une cyberattaque significative en 2025, selon les chiffres de la 11ème édition du baromètre CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) réalisé avec OpinionWay.

Un chiffre qui pourrait sembler rassurant au premier abord, puisqu’il s’inscrit dans une tendance baissière observée depuis plusieurs années. Mais les 397 directeurs cybersécurité et responsables de la sécurité des systèmes d’information (RSSI) interrogés sont formels : cette diminution ne signifie pas que la menace recule mais plutôt d’une amélioration progressive des capacités de détection et de prévention.

Car lorsqu’une attaque réussit à franchir les défenses, les dégâts sont considérables. 80% des entreprises victimes signalent un impact sur leur activité, qu’il s’agisse de perturbations de production, de pertes d’image ou de vol de données, cette dernière conséquence demeurant la plus fréquente.

La géopolitique s’invite dans les stratégies cyber

Plus d’une entreprise sur deux constate une augmentation de la menace d’origine étatique. Dans un contexte international tendu, le cyberespionnage est désormais perçu comme un risque élevé par 40% des répondants, quelle que soit leur taille.

Cette prise de conscience se traduit par un intérêt croissant pour la souveraineté numérique. Plus d’une entreprise sur deux se déclare concernée par ces questions et par le cloud de confiance, une hausse significative par rapport à l’année précédente.

Le baromètre révèle toutefois un paradoxe : pour les RSSI, la souveraineté ne se limite pas à la nationalité des outils utilisés. Elle réside avant tout dans la capacité à maîtriser les dépendances, à négocier les contrats et à auditer les fournisseurs. Les principaux risques liés au cloud sont d’ailleurs identifiés comme juridiques et contractuels, avec des clauses difficilement négociables, des lois extraterritoriales et un manque de maîtrise de la chaîne de sous-traitance.

Le maillon faible des fournisseurs

Un tiers des entreprises estime que plus de la moitié de leurs incidents de cybersécurité proviennent de tiers. Les failles chez les fournisseurs, prestataires ou partenaires deviennent un vecteur majeur de compromission. Face à ce constat, les organisations renforcent leurs dispositifs : 85% intègrent des clauses de sécurité dans leurs contrats et 74% utilisent des questionnaires de sécurité. Le cyber-rating, outil d’évaluation des tiers, progresse également et est désormais utilisé par près de la moitié des entreprises.

Des techniques d’attaque éprouvées qui évoluent

Les vecteurs d’attaque dominants restent inchangés, mais se structurent et se spécialisent. Le phishing, sous toutes ses formes, demeure le principal point d’entrée des cyberattaques significatives dans 55% des incidents.

Viennent ensuite l’exploitation de failles de sécurité (41%) et les attaques indirectes via des tiers (35%). Les attaques par déni de service distribué touchent 21% des organisations victimes et s’inscrivent de plus en plus dans des stratégies hybrides.

Parmi les vecteurs émergents, l’arnaque utilisant des technologies de deepfake reste encore minoritaire, mais illustre une évolution préoccupante des attaques d’ingénierie sociale, rendues plus crédibles par l’intelligence artificielle.

Des défenses renforcées mais des failles persistantes

Les entreprises progressent nettement dans la maîtrise de leurs actifs numériques. 81% d’entre elles estiment disposer d’une vision complète de leurs actifs, tandis que 92% ont identifié ou sont en cours d’identification de leurs actifs critiques. Dans les environnements cloud, la proportion d’organisations déclarant une mauvaise visibilité recule à 31%.

Les solutions de détection et réponse sur les terminaux (EDR) demeurent massivement déployées et bénéficient d’un très haut niveau de confiance, avec 95% d’efficacité perçue.

L’authentification multifacteurs ( MFA) s’impose comme un standard. Les approches Zero Trust progressent également, adoptées par 31% des entreprises, tandis que 26% disposent d’un centre d’opérations de gestion des vulnérabilités. Mais des fragilités persistent, notamment dans la gestion des accès à privilèges des administrateurs et des sous-traitants, ainsi que dans la sécurisation d’environnements toujours plus hybrides.

L’intelligence artificielle, nouvelle surface d’attaque

L’utilisation par les salariés de services d’IA non approuvés, le « shadow IA », est identifiée comme le comportement numérique le plus risqué. 66% des entreprises le jugent à risque élevé ou très élevé. Plus largement, 60% considèrent l’usage massif de services cloud ou de logiciels non approuvés comme un facteur de risque important.

Si l’exploitation directe de l’IA comme vecteur d’attaque reste marginale, citée par seulement 3% des entreprises victimes, elle apparaît déjà dans des incidents significatifs. Les premiers malwares capables d’adapter leur comportement en temps réel ou de réécrire partiellement leur logique pour échapper à la détection font leur apparition.

La pression réglementaire s’intensifie

85 % des entreprises déclarent être impactées par au moins une réglementation cyber. La directive européenne NIS2 s’impose comme le cadre le plus structurant, citée par 59% des organisations, devant DORA (32%) et le Cyber Resilience Act (30%).

Une maturité qui s’installe

En 2025, 92% des organisations positionnent le risque cyber dans leur top 5 des risques, et près de deux tiers le placent dans le top 3, dont 16% comme risque numéro un. La cybersécurité fait désormais l’objet d’un suivi régulier en comité de direction.

Sur le plan budgétaire, le baromètre note un léger infléchissement. La part des entreprises consacrant 5% ou plus de leur budget informatique à la cybersécurité recule à 42%, contre 48% l’an dernier. Cette baisse ne traduit pas un désengagement mais plutôt une phase de consolidation et d’optimisation après plusieurs années d’investissements soutenus.

Du côté des compétences, 85% des entreprises estiment que leurs collaborateurs sont sensibilisés aux risques cyber. Mais le baromètre souligne l’atteinte d’un plafond de verre en matière de sensibilisation, face à des usages numériques toujours plus complexes.

The post Cyberattaques : les entreprises françaises mieux armées mais toujours sous pression appeared first on Silicon.fr.

Observabilité : eBPF, un atout dans la main des DevOps

26 janvier 2026 à 14:11

Capturer sélectivement des paquets réseau sans tout transmettre vers l’espace utilisateur : telle fut la première raison d’être de BPF (Berkeley Packet Filter). C’était dans les années 90, sur les systèmes UNIX-BSD. La technologie permettait, à l’appui d’un jeu d’instructions virtuel RISC-like et d’un interpréteur, d’injecter des programmes dans le noyau pour en étendre les capacités à l’exécution.

Les premiers usages au-delà du réseau avaient émergé au début des années 2010. À commencer par l’outil seccomp-bpf, servant à filtrer les syscalls. Les travaux de modernisation lancés dans ce contexte aboutirent à eBPF (extended BPF). Cette nouvelle incarnation fut intégrée à Linux en 2014. À la clé, entre autres, des instructions et des structures de données supplémentaires, davantage de registres, un compilateur JIT et des points d’attache additionnels pour les programmes. La promesse demeurait : apporter de l’extensibilité au kernel sans passer par des modules ou changer le code source.

Sur ce socle, des projets sont d’abord nés dans le domaine du traçage. Des couches d’abstraction ont pris corps en parallèle, comme la boîte à outils BCC (BPF Compiler Collection), associant front-end Python/Lua et back-end C pour faciliter l’écriture de programmes. Tandis que le compilateur fut intégré dans LLVM.

BCC outils

Cilium, une couche d’abstraction devenue référente

Facebook fut l’un des premiers à industrialiser eBPF, avec un équilibreur de charge L4 pour ses datacenters : Katran, aujourd’hui open source. La possibilité d’attacher eBPF très en amont sur le chemin de réception – en l’occurrence, au niveau du piote NIC – permet d’effectuer le load balancing à la source, sans NAT (paquets traités avant interception par le noyau).

flux Katran eBPF

Google a quant à lui contribué à faire avancer les choses dans le champ de la sécurité. Dans le cadre de l’extension de son offre Kubernetes vers les infrastructures sur site (sous les marques Anthos et GDC), il a donné naissance au framework BPF LSM. Celui-ci adapte le principe des modules de sécurité à l’écosystème eBPF, en permettant d’utiliser les mêmes hooks (points d’attache) que SELinux.

Pour rendre la technologie plus accessible, le projet Cilium fut lancé en 2016. Avec, pour le porter, une société aujourd’hui référente dans l’écosystème eBPF : Isovalent, qui appartient à Cisco depuis 2024. Il assurait initialement la mise en réseau de conteneurs. Dans ces environnements où les adresses IP tournent beaucoup, ses tables de hachage en ont fait une alternative plus « élastique » à Iptables/netfilter.

Et vint l’observabilité

Après la mise en réseau vint l’observabilité, favorisée par la multiplicité des points d’attache exploitables. En plus de ceux prédéfinis (appels système, entrées/sorties de fonctions, tracepoints…), on peut utiliser des sondes noyau (kprobes) et utilisateur (uprobes). Mais aussi des fonctions arbitraires, en les étiquetant. L’exécution est orientée événements : les programmes eBPF se déclenchent lorsque le noyau ou une application passe par ces hooks.

Ce modèle ouvre la porte à la collecte de données sans instrumentation (pas de modification du code des applications ou des agents d’observabilité) et consommant potentiellement moins de ressources système. Cilium l’implémente via une plate-forme intégrée : Hubble, qui cartographie les services et donne une visibilité des flux grâce aux identités de workloads. Il y a ajouté une brique pour sécuriser l’exécution : Tetragon, qui met en œuvre des politiques de contrôle d’accès sur les fonctions noyau, les syscalls, etc.

Cilium écosystème eBPF

S’économiser l’instrumentation… dans certains cas

Datadog aussi a un usage assez transversal d’eBPF : analyse de performance des applications (Universal Service Monitoring), visibilité sur le trafic réseau (Cloud Network Monitoring), détection des menaces (Workload Protection), supervision d’intégrité des fichiers (application de règles pour limiter les envois)…

Pejman Tabassomi Datadog« Sans eBPF, on aurait probablement besoin de consentir un effort de modification de la configuration des agents », fait remarquer Pejman Tabassomi, Field CTO EMEA, concernant le monitoring réseau. Sur la partie APM (surveillance des performances des applications), l’approche traditionnelle d’instrumentation « permet d’aller loin dans les détails, mais c’est contraignant parce qu’on est dépendant d’un framework ou d’un runtime », explique l’intéressé. eBPF « permet d’arriver à un objectif par tout à fait identique mais comparable, sans avoir à recourir à une librairie », déclare-t-il.

Pas tout à fait identique, donc. « Il y a une sorte de compromis entre le niveau d’introspection et la facilité de mise en œuvre », résume Pejman Tabassomi. Il l’illustre par un cas d’observation des temps de réponse entre deux services. Pour mesurer le nombre et la durée des appels, eBPF peut suffire. En revanche, s’il y a besoin de comprendre les lignes de code qui peuvent poser problème, les appels de fonctions et de méthodes qui sont en cause, « à ce moment-là, on va plutôt faire de l’APM. » Non sans surveiller des initiatives communautaires tel le profiler de code en cours de développement dans l’univers OpenTelemetry.

Stéphane Estevez SplunkChez Splunk, « l’histoire avec eBPF a démarré lors du rachat de Flowmill » en 2020, fait savoir Stéphane Estevez, EMEA Market Advisor pour l’observabilité. Cet outil de monitoring réseau a alimenté la stratégie « full OpenTelemetry » de l’éditeur. « Être chez Cisco nous a donné l’accès à Isovalent pour l’observabilité et la sécurité », précise Stéphane Estevez. Tetragon, par exemple, alimente des dashboards TCP et DNS dans la composante Network Explorer.

Eric Cattoir IBMChez IBM, Instana est le principal terrain d’implémentation d’eBPF. La technologie présente une utilité particulière pour la détection des crashs système, selon Éric Cattoir, membre d’une équipe au niveau EMEA qui couvre les sujets regroupés sous la bannière IT Automation. En écho à Pejman Tabassomi, il déclare, sur le volet instrumentation : « Ça rend la vie plus facile pour notre produit : on a moins à suivre l’évolution des technologies (nouvelles versions de langages, de compilateurs…) ». Instana a toujours eu une approche d’auto-instrumentation, rappelle-t-il, « mais c’est difficile à mettre en place pour certains langages : eBPF facilite cela en permettant d’obtenir de manière standard des informations de profilage ».

On trouve aussi de l’eBPF dans le produit SevOne (observabilité réseau), pour la couche overlay de Kubernetes.

Des programmes composables et portables

Avec les années, les programmes eBPF sont devenus composables : ils peuvent appeler des fonctions (forme de gosub)… et d’autres programmes en remplaçant le contexte d’exécution (goto). Un mécanisme CO-RE (« Compile Once, Run Everywhere ») a été instauré à partir d’un format spécifique de métadonnées (BTF, BPF Type Format) pour procurer une portabilité entre les versions du kernel. Et des passerelles se sont créées avec l’espace utilisateur, à travers une des structures de données que gère eBPF : les magasins clé-valeur dits maps. Des outils sont par ailleurs apparus pour exécuter des programmes en userspace (rBPF, uBPF, bpftime). Ils ont accompagné l’émergence de langages de jaut niveau tel bpftrace – inspiré de DTrace, avec LLVM en back-end et BCC pour interagir avec le sous-système eBPF.

code eBPF
Ce programme eBPF basique (codé en C) écrit un message dans le noyau.

Sauf à activer le mode sans privilèges avec accès limité au noyau, les processus qui chargent des programmes eBPF doivent s’exécuter en mode admin ou avoir la capacité CAP_BPF. La mémoire est protégée en lecture seule et les accès sont masqués pour limiter les effets secondaires observables de l’exécution spéculative. Si une entité tente de modifier le programme, le noyau plante.

Le code passe dans tous les cas par un vérificateur statique. Lequel contrôle, en particulier, que le programme est d’une complexité finie, qu’il se terminera bien et qu’il n’entraînera pas de deadlock ni d’accès mémoire hors limites. Dans la pratique, l’outil reste sujet aux faux positifs. Jusqu’à Linux 5.3, les boucles étaient d’ailleurs proscrites dans les programmes eBPF, le vérificateur étant jugé capable de les évaluer efficacement.

Une fondation où convergent les Big Tech

Depuis 2021, il existe une Fondation eBPF. Google, Meta et Isovalent en sont membres platine. CrowdStrike – qui exploite la techno pour détecter les mouvements de données non autorisés – l’est aussi. Ainsi que Huawei, Intel, Microsoft – qui développe eBPF pour Windows tout en l’exploitant en remplacement du fournisseur d’événements AuditD dans Defender pour Linux – et Red Hat. Datadog est membre argent. Netflix, qui avait pris très tôt le train eBPF, l’est aussi.

eBPF Windows
Architecture cible d’eBPF pour Windows

Conjointement aux initiatives du marché, cette fondation soutient des projets académiques, à l’instar d’eBPF Governor, alternative aux sous-systèmes de gestion de l’alimentation sur Linux. Des recherches sont également en cours sur la vérification formelle des programmes, en complément à la réécriture du vérificateur en Rust.

Plusieurs projets devenus référents dans l’écosystème eBPF sont maintenant sous l’aile de la CNCF (Cloud Native Computing Foundation). Outre Cilium, on peut citer Falco (détection de menaces), confié en 2018 par Sysdig. Dans le champ de l’observabilité, il y a Pixie, que New Relic a reversé à la CNCF en 2021, quelques mois après en avoir fait l’acquisition (il en propose aujourd’hui une version SaaS).

Pièce maîtresse du réseau mondial de Cloudflare, eBPF a aussi investi les clouds hyperscale. À l’instar de Google sur GKE, AWS s’en sert sur son Kubernetes managé (Caretta pour la cartographie réseau, Hubble pour l’analyse du trafic). Il l’a aussi intégré dans CloudWatch (composante Network Flow Monitor) et de GuardDuty (EC2 Runtime Monitoring). Microsoft l’exploite pour contourner Iptables sur les data planes de offre AKS (Azure Kubernetes Services).

Pour le monitoring, Dynatrace a choisi de s’appuyer sur Inspektor Gadget, framework CNCF qui encapsule les programmes eBPF sous forme d’images OCI. Il le met à contribution dans un module de découverte de services.

Chez Elastic, eBPF alimente le profilage continu, ainsi que la protection de Linux et de Kubernetes dans le cadre de l’offre SIEM/XDR.

Illustration principale © kwanchaift – Adobe Stock

The post Observabilité : eBPF, un atout dans la main des DevOps appeared first on Silicon.fr.

DSA : Bruxelles ouvre une enquête sur X, Grok et ses deepfakes

26 janvier 2026 à 14:07

Après des semaines de polémique sur la capacité de Grok à générer des deepfakes sexualisés de femmes et d’enfants, la Commission européenne ouvre une procédure d’infraction au titre du Digital Services Act (DSA).Entrée en vigueur en 2023, cette loi impose aux grandes plateformes des obligations strictes en matière de lutte contre les contenus illégaux et la désinformation.

L’enquête va examiner si X a correctement évalué et atténué les risques liés au déploiement de Grok dans l’Union européenne, notamment ceux concernant la dissémination d’images sexuelles manipulées, y compris des contenus susceptibles de constituer du matériel pédopornographique, selon la Commission.

« Les deepfakes sexuels non consentis de femmes et d’enfants constituent une forme violente et inacceptable de dégradation », a déclaré la commissaire européenne chargée de la tech, Henna Virkkunen. Et d’ajouter que l’investigation déterminera si X a respecté ses obligations légales ou si la plateforme a traité les droits des citoyens européens comme des  « dommages collatéraux de son service ».

Le scandale a éclaté après que des utilisateurs de plusieurs pays ont signalé que le chatbot de xAI générait et diffusait des images sexualisées sur le réseau social X ainsi que sur l’application Grok. Face à la controverse, xAI a restreint l’usage de Grok aux abonnés payants et affirme avoir mis en place des mesures technologiques pour limiter la génération de certaines images sexualisées.

Une pression réglementaire mondiale

L’Union européenne n’est pas seule à réagir. Le régulateur britannique des médias Ofcom a ouvert sa propre enquête sur Grok au titre de l’Online Safety Act, tandis que la Malaisie et l’Indonésie ont purement et simplement banni le chatbot. La France et l’Inde ont également dénoncé la création illégale d’images sexualisées sans consentement.

Dans un communiqué du 14 janvier, X a indiqué que xAI avait restreint l’édition d’images pour les utilisateurs de Grok et bloqué, selon leur localisation, la génération d’images de personnes en tenues légères dans les juridictions où cela est illégal, sans préciser lesquelles.

Mais pour Bruxelles, ces ajustements ne suffisent pas. Un haut responsable de la Commission a expliqué aux journalistes que l’exécutif européen avait des raisons de croire que X n’avait pas procédé à une évaluation ad hoc avant de déployer les fonctionnalités de Grok en Europe.

Extension de l’enquête aux systèmes de recommandation

En parallèle, la Commission a élargi une procédure ouverte en décembre 2023 pour déterminer si X a correctement évalué et atténué tous les risques systémiques liés à ses systèmes de recommandation, notamment l’impact du passage récemment annoncé à un système basé sur Grok.

Les régulateurs ont prévenu que X pourrait faire l’objet de mesures provisoires en l’absence d’ajustements significatifs de son service. En cas de violation avérée du DSA, la plateforme s’expose à des amendes pouvant atteindre 6% de son chiffre d’affaires mondial annuel, compris entre 2 et 3 milliards $, selon les estimations.

Un nouveau clash avec Washington ?

Cette investigation intervient dans un contexte de tensions croissantes entre Bruxelles et l’administration Trump au sujet de la régulation des grandes plateformes technologiques américaines. En décembre dernier, la Commission avait infligé une amende de 120 millions € à X pour manquement à ses obligations de transparence, notamment concernant son système de certification par badge bleu, l’accès aux données pour les chercheurs et son registre publicitaire.

X n’a pas immédiatement répondu aux demandes de commentaires sur cette nouvelle enquête. La plateforme avait précédemment déclaré qu’elle retirait les contenus illégaux, y compris le matériel pédopornographique, suspendait les comptes concernés et coopérait avec les forces de l’ordre si nécessaire. « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à avoir une tolérance zéro pour toute forme d’exploitation sexuelle d’enfants, de nudité non consentie et de contenu sexuel non désiré », avait indiqué la plateforme.

La Commission irlandaise des médias, coordinateur national des services numériques dans le pays d’établissement de X au sein de l’UE, sera associée à cette investigation conformément au DSA. L’ouverture d’une procédure formelle ne préjuge pas de son issue, mais elle confère à la Commission des pouvoirs d’enquête élargis, notamment la possibilité de mener des inspections, des auditions et d’adopter une décision de non-conformité.

The post DSA : Bruxelles ouvre une enquête sur X, Grok et ses deepfakes appeared first on Silicon.fr.

Microsoft confirme avoir transmis des clés BitLocker aux forces de l’ordre

26 janvier 2026 à 10:53

La nouvelle a quelques mois, mais voilà qu’elle dépasse l’île de Guam : Microsoft a fourni des clés BitLocker au FBI.

Sur place, 7 individus sont inculpés de fraude organisée à l’assurance-chômage dans le cadre d’un programme fédéral instauré lors de la crise Covid.

En octobre 2025, la presse locale s’était fait l’écho d’un mandat de la justice. Le destinataire : Microsoft, qui s’y est conformé… en communiquant les clés de récupération BitLocker pour trois ordinateurs saisis 6 mois plus tôt.

Le déchiffrement semble avoir fonctionné, apprend-on désormais. En tout cas à en croire les propos rapportés d’une des avocates de la défense. Le procureur lui aurait fourni des éléments comprenant des informations issues de l’ordinateur de sa cliente et incluant des références aux clés en question.

Les serveurs de Microsoft, option de sauvegarde « par défaut »

Microsoft a confirmé avoir accédé à cette demande – et précisé qu’il en reçoit une vingtaine de ce genre par an. Son message, en substance : utilisateurs, vous êtes les mieux placés pour décider comment vous gérez vos clés BitLocker.

La sauvegarde sur les serveurs de Microsoft n’est effectivement pas la seule option… même si elle est généreusement mise en avant sur les éditions « grand public » de Windows. Il est également possible de la sauvegarder dans un fichier texte, de la créer sur un média amovible (format .bek) ou simplement de choisir de l’imprimer. En environnement d’entreprise, on peut la stocker dans Active Directory.

Cette clé – un mot de passe de 48 chiffres, répartis en 8 groupes – est le dernier étage d’un mécanisme de chiffrement en enveloppe. Elle protège une autre clé (dité « clé principale de volume ») qui en protège elle-même une autre (dite « clé de chiffrement de volume »). L’une et l’autre demeurent sur le lecteur chiffré.

Depuis Windows 11 24H2, BitLocker s’active automatiquement pour qui utilise l’expérience de paramétrage par défaut du système. Si un compte Microsoft est disponible, y sauvegarder la clé de récupération BitLocker est la première option proposée. Elle n’apparaît pas si on opte pour un compte local – ce qui est néanmoins de plus en plus difficile, en tout cas sur les éditions Famille et Pro.

Illustration générée par IA

The post Microsoft confirme avoir transmis des clés BitLocker aux forces de l’ordre appeared first on Silicon.fr.

Reçu — 23 janvier 2026 Silicon

IA : Lenovo mise sur une stratégie multi-LLM

23 janvier 2026 à 15:33

C’est un virage stratégique que Winston Cheng, directeur financier de Lenovo, a détaillé en marge du Forum économique mondial de Davos. Le leader mondial de l’informatique personnelle ne veut plus seulement être un assembleur de machines, mais le pivot d’un écosystème mondial d’IA

Son ambition ? Équiper l’ensemble de sa gamme – des PC aux smartphones en passant par les objets connectés – d’une intelligence cross-canal baptisée « Qira ».

Qira se distingue comme un système d’intelligence « cross-device » qui intègre de multiples modèles de langage tiers (LLM) pour permettre de  s’adapter aux régulations de chaque marché mondial

Un modèle à l’opposé d’Apple

Pour réussir ce pari, Lenovo mise sur une approche dite d’« orchestrateur ». Contrairement à Apple, dont l’écosystème reste verrouillé avec des partenariats exclusifs avec OpenAI et plus récemment avec Google Gemini, la firme chinoise joue la carte de l’ouverture géographique et technologique.

« Nous sommes la seule entreprise, avec Apple, à détenir une part de marché significative à la fois sur le PC et le mobile, mais nous opérons dans les écosystèmes ouverts Android et Windows », a souligné Winston Cheng à Reuters.

Un avantage comparatif que l’ancien banquier d’affaires, arrivé dans le groupe en 2024 et nommé CFO en avril 2025, compte bien exploiter pour contourner les complexités réglementaires locales.

Une diplomatie de l’IA tous azimuts

Plutôt que de développer son propre modèle de langage (LLM), Lenovo préfère s’allier aux meilleurs experts régionaux. Le groupe discute déjà avec des acteurs variés comme Mistral AI en Europe, Humain en Arabie Saoudite ainsi que e Alibaba et DeepSeek en Chine.

Cette stratégie permet à Lenovo de proposer des solutions adaptées aux régulations de chaque marché tout en évitant les coûts de développement d’un modèle propriétaire.

Sur le front du matériel, Lenovo ne néglige pas l’infrastructure. Un partenariat majeur a été scellé en janvier avec l’américain Nvidia pour soutenir les fournisseurs de cloud. Ensemble, les deux géants déploient une infrastructure d’IA hybride dotée d’un système de refroidissement liquide, permettant une mise en service rapide des centres de données.

Winston Cheng a d’ailleurs évoqué un déploiement mondial, avec une fabrication locale et des lancements envisagés en Asie et au Moyen-Orient.

 

The post IA : Lenovo mise sur une stratégie multi-LLM appeared first on Silicon.fr.

TikTok US : pourquoi Oracle et ses partenaires lâchent 14 milliards $

23 janvier 2026 à 15:02
 Le feuilleton TikTok touche enfin à sa fin. La plateforme de médias sociaux annonce officiellement le rachat de ses activités américaines. Un consortium, mené par trois investisseurs principaux, prend les commandes de la nouvelle entité se nomme TikTok USDS Joint Venture LLC.
Cette décision met un terme à des années d’incertitude sur l’avenir du réseau social aux Etats-Unis.

Oracle, le fonds Silver Lake et MGX (basé à Abu Dhabi) en détiennent la majorité. D’autres investisseurs rejoignent l’aventure. On y trouve notamment Dell Family Office, la société de Michael Dell, ainsi que NJJ Capital, le family office de Xavier Niel.

Le cadre légal et financier de l’accord

La loi sur la protection des Américains contre les applications contrôlées par des adversaires étrangers a imposé cette vente.

Signé en 2024 par Joe Biden, ce texte obligeait ByteDance à réduire sa participation dans TikTok US à moins de 20 %. Le groupe chinois devait céder le contrôle avant le 20 janvier 2025 pour éviter une interdiction nationale.

Désormais, ByteDance limite sa participation à 19,9 %. Toutefois, le groupe conserve le contrôle sur les segments les plus lucratifs. Il garde notamment la main sur la division publicitaire et la branche e-commerce TikTok Shop, actuellement en pleine croissance.

Par ailleurs, Adam Presser prendra la direction de cette nouvelle entité. Ce lieutenant de longue date de Shou Zi Chew, le PDG. de TikTok assurera la continuité opérationnelle du réseau.

Le Wall Street Journal révèle que les investisseurs versent une commission de plusieurs milliards de dollars à l’État américain. Donald Trump avait précédemment qualifié ce concept de « tremendous fee-plus ».

Quatre piliers pour la sécurité nationale

La joint-venture s’appuiera sur des garanties strictes pour protéger la sécurité nationale. Ces mesures concernent les données, l’algorithme, la modération et les logiciels.

    • Protection des données : USDS Joint Venture protégera les données des utilisateurs américains via l’infrastructure cloud sécurisée d’Oracle. Un programme complet de cybersécurité, audité par des experts tiers, encadrera l’ensemble. Ce dispositif respectera les normes NIST CSF, ISO 27001 et les exigences de la CISA.

    • Sécurité de l’algorithme : La nouvelle entité entraînera et testera l’algorithme de recommandation de contenu sur le sol américain. Oracle supervisera directement la gestion des données et l’entraînement de ces modèles.

Assurance logicielle et gouvernance

En complément, la joint-venture sécurisera les applications grâce à des protocoles d’assurance logicielle. Oracle examinera et validera le code source de manière continue pour garantir une transparence totale.

En matière de modération, la joint-venture aura l’autorité finale sur les politiques de confiance et de sécurité. Le personnel américain de TikTok rejoindra cette nouvelle unité.

Cependant, la situation reste nuancée. Selon des sources proches du dossier, de nombreux employés resteront rattachés à ByteDance, même si une partie intègre la joint-venture.

The post TikTok US : pourquoi Oracle et ses partenaires lâchent 14 milliards $ appeared first on Silicon.fr.

{ Tribune Expert } – Gestion des vulnérabilités : les 4 étapes qui distinguent les organisations matures

23 janvier 2026 à 10:46

La gestion des vulnérabilités est souvent perçue comme un exercice purement technique : surveiller les failles, appliquer les correctifs, réduire l’exposition.

Sur le terrain, la réalité est bien différente. Avec plus de 130 nouvelles vulnérabilités publiées chaque jour, aucune organisation ne peut raisonnablement tout suivre, tout analyser et tout corriger. Pourtant, beaucoup continuent d’essayer.

Les organisations les plus matures ne sont pas celles qui traitent le plus d’alertes, mais celles qui ont structuré une méthode claire, reproductible et mesurable. Cette maturité repose généralement sur quatre étapes clés.

1. Accepter que tout surveiller est impossible, et définir ce qui compte vraiment

La première rupture consiste à abandonner l’illusion du “tout surveiller”. Surveiller l’intégralité des vulnérabilités publiées n’est pas seulement irréaliste, c’est contre-productif. Une organisation de taille moyenne utilise typiquement plusieurs dizaines d’éditeurs et parfois plus d’une centaine de produits différents. Sans périmètre clair, la veille devient rapidement ingérable.

Les organisations matures commencent par cartographier leurs éditeurs et produits réellement critiques : applications métier centrales, systèmes exposés sur Internet, environnements traitant des données sensibles. L’objectif n’est pas l’exhaustivité, mais la pertinence. Dans la pratique, 20 % des actifs concentrent souvent 80 % du risque. C’est sur ce périmètre assumé que la veille doit être prioritairement focalisée.

2. Structurer les sources et transformer le flux en information utile

Une fois le périmètre défini, encore faut-il s’informer efficacement. Les bulletins de sécurité des éditeurs restent les sources les plus fiables, complétées par les bases de données officielles comme les référentiels CVE. Mais s’appuyer uniquement sur ces bases expose à des angles morts : certaines vulnérabilités ne sont jamais cataloguées ou arrivent tardivement.

Sans filtrage ni centralisation, les équipes peuvent voir remonter des dizaines, voire des centaines d’alertes par jour, dont seule une minorité concerne réellement leur environnement. Les organisations matures cherchent donc à réduire le bruit : elles centralisent les sources, filtrent par éditeurs et produits suivis, et surtout qualifient l’information pour la rendre actionnable.

3. Prioriser au-delà du score CVSS et clarifier les responsabilités

Le score CVSS reste un indicateur utile, mais insuffisant. Une vulnérabilité très sévère sur un serveur de test isolé ne présente pas le même risque qu’une faille “moins critique” sur un service exposé et stratégique. Les organisations matures complètent donc l’évaluation technique par des critères contextuels : exposition réelle, exploitabilité connue, impact métier, sensibilité des données.

Cette priorisation n’a de valeur que si elle s’accompagne d’une organisation claire. Qui est responsable de la correction ? Dans quels délais ? Que fait-on lorsqu’un correctif n’est pas applicable ? Sans réponses explicites, les alertes s’accumulent et les décisions se diluent. La mise en place d’une matrice de gestion des correctifs (traitement immédiat, rapide, planifié ou mise en veille) devient alors un langage commun entre équipes techniques, sécurité et direction.

4. Mesurer pour piloter et faire évoluer le dispositif

La dernière étape distingue clairement les organisations réactives des organisations matures : la mesure. Traçabilité des décisions, délais de correction par niveau de criticité, taux de couverture des actifs critiques… Ces indicateurs transforment la gestion des vulnérabilités en levier de pilotage, et non plus en simple flux d’alertes.

Les retours d’expérience montrent qu’une veille structurée permet de réduire drastiquement le temps passé à trier l’information, souvent de plusieurs heures par jour à quelques dizaines de minutes, tout en améliorant la réactivité sur les vulnérabilités réellement critiques. À moyen terme, cette mesure gérée en continu permet d’optimiser les processus et d’anticiper les périodes de charge, plutôt que de subir l’urgence permanente.

La maturité en gestion des vulnérabilités ne repose ainsi ni sur la multiplication des outils ni sur la surveillance exhaustive. Elle repose sur des choix assumés, une priorisation contextualisée, une organisation claire et une capacité à mesurer dans le temps. Dans un contexte où le volume de vulnérabilités ne cesse d’augmenter, la capacité à décider devient aussi importante que la capacité à détecter.

* Marc Béhar est PDG Fondateur du cabinet de conseil en cybersécurité XMCO

 

The post { Tribune Expert } – Gestion des vulnérabilités : les 4 étapes qui distinguent les organisations matures appeared first on Silicon.fr.

SEALD absorbé par OVHcloud : ce qu’apporte cette acquisition

23 janvier 2026 à 09:36

« Et puis il y a eu ce post LinkedIn qui a attiré l’attention d’Octave Klaba […] »

Jérôme Masurel, président de 50 Partners, contextualise ainsi l’acquisition de SEALD par OVHcloud. L’accélérateur connaît bien cette entreprise francilienne : il avait participé, en 2018, à sa levée d’amorçage.

Depuis lors, SEALD est resté sur le même créneau : le chiffrement de bout en bout. Sa technologie se décline en logiciels bureautiques et sous forme de SDK. Elle avait obtenu le visa CSPN en décembre 2020 (trois ans de validité).

Les premières briques de SEALD posées en Californie

Créé en 2016, SEALD s’est d’abord appelé STASH. Ce pendant quelques semaines, le temps qu’une agence marketing française portant le même nom lui adresse une mise en demeure.

Les quatre fondateurs étaient alors dans leur vingtaine. Trois d’entre eux avaient convergé à UC Berkeley, dans le cadre d’un programme en partenariat avec l’École polytechnique. Les jalons de SEALD furent posés sur place par Timothée Rebours (32 ans aujourd’hui), qui prendrait la présidence de l’entreprise. Aux côtés de trois directeurs généraux : Mehdi Kouen (33 ans, CTO), Maxime Huber (34 ans, CPO) et Dan Lousqui (37 ans, directeur de la sécurité informatique).

Quelques semaines avant l’obtention de la CSPN, SEALD avait fait partie des finalistes du prix de l’innovation des Assises de la sécurité. Plus récemment (2023), il a figuré dans les lauréats de l’appel à projets « Suites bureautiques collaboratives cloud », en consortium avec Linagora, WaToo, Wimi et XWiki. Entre-temps, il y avait eu une alerte : une continuation d’activité malgré la perte de la moitié du capital.

Framatome et Stellantis comme références

La déclinaison « bureautique » de SEALD est basée sur une application desktop (Windows, Mac, Linux) qui permet de chiffrer des fichiers, d’assurer leur suivi et de contrôler les accès. La technologie couvre aussi les e-mails et leurs pièces jointes, en éventuelle conjonction avec les moteurs de DLP.

La version « bibliothèque logicielle » permet d’intégrer du chiffrement côté client dans des apps web, mobiles et de bureau. La promesse par rapport aux bibliothèques open source : supprimer les difficultés de gestion des clés, des appareils multiples, des droits d’accès sur les données, etc. Des SDK sont disponibles pour JavaScript, Android, iOS et Flutter.

Framatome y a fait appel pour sécuriser une application interne collectant des données sensibles. L’opérateur télécoms belge Proximus, pour une application de téléconsultation médicale (Doktr). Recare, pour son outil de bed management (orchestration des transferts interhospitaliers). Lovehoney Group, pour protéger une messagerie de couple basée sur CometChat. Stellantis et Lefebvre Sarrut font aussi partie des clients.

Le ticket d’entrée est à 250 €/mois pour 5000 utilisateurs protégés. Au-delà, SEALD facture un supplément dégressif par utilisateur (0,04 €jusqu’à 20 000 ; 0,03 € jusqu’à 50 000 ; 0,02 € au-delà).

« Ensemble, nous allors démocratiser [la] sécurité dans les services [collaboratifs] (et pas que…) », commente Octave Klaba.

Illustration générée par IA

The post SEALD absorbé par OVHcloud : ce qu’apporte cette acquisition appeared first on Silicon.fr.

Reçu — 22 janvier 2026 Silicon

L’Europe tient son programme CVE décentralisé

22 janvier 2026 à 16:47

Ceci n’est pas un concurrent du programme CVE de MITRE, mais un complément.

En façade, telle a toujours été la position du CERT luxembourgeois depuis l’annonce du projet GCVE (Global CVE Allocation System). C’était en avril 2025. On nous promettait alors le développement d’un système décentralisé : les autorités de numérotation allaient pouvoir attribuer des identifiants et gérer la divulgation sans passer par un organisme central.

Neuf mois plus tard, l’initiative, cofinancée par l’UE, a effectivement pris corps… dans une certaine mesure. Une base de vulnérabilités vient notamment d’y être adossée. Plusieurs bonnes pratiques ont par ailleurs été publiées pour assurer le fonctionnement du système. Et une vingtaine d’entités, de natures assez diverses, ont été désignées autorités de numérotation.

Autorité Identifiant
CIRCL (CERT luxembourgeois) 1
EUVD 2
Red Hat 3
Swisscom 79
VulDB 100
Ericsson 101
EAGC 102
Schutzwerk 103
AboutCode Europe 104
OPC Foundation 105
SK-CERT 106
Thales PSIRT 107
Securin 108
Concinnity Risks 109
Vulnetix 110
Mogwai Labs 111
CERT-QC 112
VulnCheck 404
DFN-CERT Services 680
Austin Hackers Anonymous 1337
Pentagrid 2342
Cisco Talos 31337

Cette diversité reflète les critères d’admission : en théorie, quiconque a une politique de divulgation publique de vulnérabilités peut prétendre devenir autorité de numérotation.

L’identifiant 1 a été réservé au CIRCL, porteur du projet. Le 2, à la base EUVD (EU Vulnerability Database), opérée par l’ENISA (Agence européenne pour la sécurité). L’identifiant 0 est quant à lui dédié au mapping des CVE.

GCVE, contre les aléas géopolitiques

L’annuaire des autorités de numérotation est publié au format JSON. Ces dernières ont deux options pour communiquer les données sur les vulnérabilités. D’un côté, un endpoint statique fournissant un fichier. De l’autre, une API REST avec des points de terminaison recent et latest, éventuellement assortis de filtres (sources et nombre de résultats). Le projet GCVE n’impose pas de format, mais recommande de s’aligner sur CVE Record.

Les bonnes pratiques publiées concernent la vérification de l’intégrité du fichier d’annuaire, la divulgation coordonnée de vulnérabilités et l’attribution d’identifiants. Trois autres sont à l’état de brouillon. Elles abordent les formats de déclaration des vulnérabilités et le protocole de publication décentralisée.

Un outil open source sert d’implémentation de référence pour ces bonnes pratiques : vulnerability-lookup… qu’on doit aussi au CIRCL. C’est sur lui que repose la base GCVE*. L’EUVD aussi, d’ailleurs.

Pas d’opposition frontale avec MITRE, donc, mais un enjeu de résilience non dissimulé. Il s’agit à la fois d’éviter le « point de défaillance unique »… et de moins dépendre des aléas géopolitiques. En toile de fond, l’avenir un temps très incertain du programme CVE. L’an dernier, le gouvernement américain l’avait refinancé in extremis.

* Base hébergée dans les datacenters du CERT luxembourgeois.

Illustration générée par IA

The post L’Europe tient son programme CVE décentralisé appeared first on Silicon.fr.

Thoma Bravo : le géant qui redessine la carte du logiciel mondial

22 janvier 2026 à 14:43

Oubliez les levées de fonds de quelques millions dans la Silicon Valley. Chez Thoma Bravo, on joue dans la catégorie des poids lourds mondiaux. Au 1er janvier 2026, les chiffres donnent le vertige : le fonds gère 184 milliards $ d’actifs et a réalisé plus de 565 acquisitions depuis sa création (en 2003), pour une valeur transactionnelle cumulée dépassant les 285 milliards $.

Cette puissance de feu est le fruit d’une spécialisation monomaniaque : le logiciel d’entreprise. Contrairement aux fonds de Venture Capital qui diversifient leurs prises de participation, Thoma Bravo – du nom de ses deux co-fondateurs Carl Thoma et Orlando Bravo – a bâti un empire sur un constat simple : le logiciel est le business model le plus prévisible et le plus rentable de l’histoire.

La trajectoire est fulgurante : en 2016, Thoma Bravo gérait  « seulement » 9 milliards $. Moins de dix ans plus tard, il affiche une multiplication par vingt de ses actifs.

En 2025, le fonds a encore frappé un grand coup en levant 34,4 milliards $ pour ses nouveaux véhicules d’investissement : Fund XVI (24,3 milliards, le plus grand fonds tech de l’histoire), Discover Fund V (8,1 milliards) et un fonds Europe inaugural de 1,8 milliard €. Tous ont dépassé leurs objectifs initiaux, prouvant que même dans un contexte de taux élevés et de difficultés généralisées de collecte dans le private equity, l’appétit des investisseurs pour la méthode Bravo reste insatiable.

Le « buy and build » : construire des forteresses par l’acquisition

La stratégie de Thoma Bravo ne s’arrête pas au rachat d’une entreprise mais repose sur le concept de « plateforme ». Le fonds identifie un leader de secteur, le rachète pour plusieurs milliards, puis s’en sert comme d’un aimant pour absorber ses concurrents plus petits. Avec plus de 40 sociétés de logiciels en portefeuille générant 30 milliards $ de revenus annuels dont 90% récurrents via le SaaS, Thoma Bravo s’est transformé en véritable « banque centrale » du logiciel B2B.

Le rythme s’est d’ailleurs intensifié : 36 acquisitions réalisées en 2024 contre 22 en 2023, et une cadence soutenue en 2025 avec des deals majeurs comme Olo (2 milliards de dollars), Dayforce (12,3 milliards) et Verint (2 milliards). Sans oublier l’acquisition spectaculaire de l’activité Digital Aviation Solutions de Boeing pour 10,55 milliards $ démontrant que le fonds joue désormais dans la même cour que les grands groupes cotés.

La cybersécurité et le SaaS en étendard

Axe central de ses investissements : la cybersécurité. L’idée est de. créer un guichet unique de la cyber capable de verrouiller un marché mondial attendu à plusieurs milliers de milliards de dollars d’ici la fin de la décennie.

Après avoir racheté Sophos pour 3,9 milliards $ en 2019, le fonds a multiplié les « add-ons » (acquisitions complémentaires) comme Barracuda Networks, SailPoint, Darktrace ou encore Proofpoint (payé 12,3 milliards en 2021). Aujourd’hui, plus de 20 plateformes de cybersécurité représentent environ 60 milliards $ de valeur d’entreprise cumulée dans son portefeuille.

L’idée : créer un guichet unique de la sécurité informatique capable de verrouiller un marché mondial attendu à plusieurs milliers de milliards de dollars d’ici la fin de la décennie.

Thoma Bravo agit avec la même frénésie pour la conquête du SaaS d’entreprise. Dans la relation client et le go-to-market, il assemble progressivement un quasi-géant caché. L’acquisition d’Anaplan (10,7 milliards), Coupa Software (8 milliards en 2022), Conga, Hyland, et plus récemment de PROS (1,4 milliard $pour ce spécialiste de la tarification dynamique) dessine une stratégie pour contrôler toute la chaîne des « revenue operations », du CPQ à la gestion des prix en passant par le contenu et la donnée client.

La « Méthode Bravo » : l’alchimie de la rentabilité opérationnelle

Ce qui distingue Thoma Bravo, c’est ce qu’il se passe après la signature du rachat. Le fonds déploie ses Operating Partners, des anciens directeurs opérationnels qui appliquent un « playbook » (manuel de gestion) ultra-standardisé. La méthode est de maximiser la génération de cash à partir de revenus récurrents, puis le recycler dans des acquisitions ciblées. Les recettes sont rodées : rationalisation des coûts, recentrage produit, hausse des prix là où l’élasticité le permet, et intégration de briques complémentaires pour densifier la plateforme.

Ellie Mae est sans doute le coup le plus fumant de l’histoire du fonds. Thoma Bravo rachète ce spécialiste des logiciels de crédit immobilier pour 3,7 milliards $. Dix-huit mois plus tard, il le revend pour 11 milliards $ à Intercontinental Exchange. Le secret : en un an et demi, les marges d’EBITDA sont passées de 18% à 60%. Une transformation chirurgicale des coûts et du modèle de vente.

Un autre cas d’école est celui de Compuware/Dynatrace. En 2014, Thoma Bravo rachète Compuware pour 2,2 milliards $, isole Dynatrace, accélère son positionnement sur le cloud puis l’introduit en Bourse avec un multiple largement supérieur à celui payé sur l’ensemble du groupe initial. L’éditeur de solutions de monitoring applicatif (APM) est entièrement reconfiguré, passant d’un modèle de vente de licences à un modèle d’abonnement (SaaS), avant d’être réintroduit avec succès au Nasdaq avec une marge opérationnelle dépassant les 30%.

Le fonds ne se contente pas de couper dans les budgets ; il force ses entreprises à adopter la « Règle des 40 » (la somme de la croissance du chiffre d’affaires (en %) et de la marge mesurée en EBITDA (en %) doit être supérieure à 40%). Pour Thoma Bravo, une entreprise IT qui ne génère pas de cash-flow massif est une erreur de casting. Et quand la discipline opérationnelle l’exige, le fonds n’hésite pas : les coupes de 40 à 50% des effectifs annoncées début 2026 dans les actifs de Boeing Digital Aviation Solutions en témoignent.

Une machine à sorties qui défie les cycles

Même avec un marché des IPO atone, Thoma Bravo continue d’encaisser. Entre 2023 et 2025, la firme a généré entre 25 et 35 milliards $ de cessions cumulées, via des ventes secondaires, des exits industriels ( comme le rachat d’Imperva par Thales) ou des introductions en Bourse sélectives.

Son bilan historique parle de lui-même : 131 acquisitions, 82 exits réalisées, dont 4 en 2024 (Greenphire, ServiceTitan, Solifi). Cette capacité à liquider ses participations avec profit dans tous les environnements de marché fait de Thoma Bravo un cas unique dans le private equity tech.

C’est même devenu un faiseur de rois, capable d’orienter à lui seul les valorisations et les consolidations dans des pans entiers de l’IT mondiale. Chaque opération de Thoma Bravo pèse sur les multiples et les attentes de rendement : les valorisations offertes, les plans de restructuration et les arbitrages entre Bourse et marché privé.

Le « Grand Bond » européen : 1,8 milliard € pour le continent

Avec le lancement d’un fonds Europe de 1,8 milliard d’euros, l’offensive s’étend au Vieux Continent, avec en ligne de mire des éditeurs allemands et français, notamment dans la conformité et la cybersécurité. C’est ainsi que Vade, le spécialiste français de la sécurité de la messagerie, est tombé dans son escarcelle via son rachat par l’allemand Hornet Security, lui même repris par Proofpoint.

Le bureau de Londres n’est plus une simple antenne, c’est devenu le poste de commandement d’une conquête méthodique qui redessine la carte de la souveraineté numérique européenne. Orlando Bravo a identifié une faille structurelle : un continent sous-numérisé par rapport aux États-Unis, mais qui regorge d’ingénieurs de talent et d’éditeurs de niche à valorisation déprimée.

Le marché européen de l’IT croît à 8,7% par an, soit trois fois plus vite que le PIB de la zone euro, créant un terreau idéal pour sa méthode. La cible : des entreprises de logiciels valorisées entre 500 millions et 2 milliards € trop grandes pour le capital-risque classique, mais trop petites pour les géants industriels.

Le cas Darktrace illustre parfaitement cette approche. En 2024, Thoma Bravo a déboursé 5,3 milliards $ pour racheter ce fleuron britannique de la cybersécurité. Objectif : appliquer le  » playbook américain » en basculant 100% des revenus vers un modèle d’abonnement pur et forcer l’entrée sur le marché américain, là où les marges sont les plus élevées.

Autre exemple révélateur : EQS Group en Allemagne. Racheté pour environ 400 millions €, ce spécialiste de la conformité réglementaire et de l’ESG incarne la stratégie du fonds qui vise les logiciels que les régulateurs rendent obligatoires. En sortant EQS de la bourse de Francfort, le fonds peut désormais le fusionner avec d’autres acteurs de la RegTech (Regulatory Technology) pour bâtir un champion paneuropéen de la conformité, un marché promis à une croissance exponentielle avec le durcissement des normes européennes.

En France, la sonnette d’alarme du CESIN

La puissance de Thoma Bravo n’est pas passée inaperçue en Europe. En juillet 2024, le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique), qui regroupe plus d’un millier de CISO français, a publiquement tiré la sonnette d’alarme.

Pour Alain Bouillé, son délégué général, outre les inquiétudes sur la méthode, l’aspect le plus sensible concerne les données. Ces solutions de cybersécurité sont par nature extrêmement intrusives : elles collectent et analysent les flux réseau, les emails, les données applicatives. Une concentration de cette ampleur entre les mains d’un fonds américain pose la question de la souveraineté numérique.

Outre-Atlantique, les critiques se multiplient également. Le Department of Justice américain a ouvert plusieurs enquêtes approfondies sur les acquisitions du fonds, notamment sur le rachat de ForgeRock en 2022. Les régulateurs antitrust craignaient qu’en combinant ForgeRock avec Ping Identity, déjà dans le portefeuille de Thoma Bravo, le fonds ne contrôle une part excessive du marché stratégique de la gestion d’identités.

L’affaire a même poussé plusieurs directeurs de Thoma Bravo à démissionner de conseils d’administration pour éviter une violation du Clayton Act, qui interdit les administrateurs communs entre entreprises concurrentes. En 2022, l’éditeur britannique Mimecast a refusé une offre de Thoma Bravo pourtant supérieure de 16% à celle d’un concurrent, estimant que la fusion avec Proofpoint créerait une position dominante de plus de 50% sur le marché de la sécurité email, avec un risque réglementaire trop élevé.

Le « Frankenstein » de la cyber

Dans l’industrie IT elle-même, les avertissements se font entendre. Nir Zuk, fondateur de Palo Alto Networks, a qualifié la stratégie de Thoma Bravo de construction d’un monstre de Frankenstein dans la cybersécurité. Avec un portefeuille représentant environ 58 milliards de dollars de valeur d’entreprise, 6,5 milliards de revenus annuels et 19 000 employés le fonds pourrait du jour au lendemain créer un géant capable de concurrencer les trois leaders historiques du marché (Cisco, Check Point et Palo Alto Networks).

Mais c’est peut-être l’affaire RealPage qui cristallise le plus les critiques. Cette entreprise de gestion locative, rachetée par Thoma Bravo en 2021, fait face à plus de 30 class actions et à des poursuites du Department of Justice et de huit États pour pratiques anticoncurrentielles. Son algorithme de tarification est accusé de permettre aux propriétaires de coordonner leurs prix et d’éviter la concurrence, contribuant à l’inflation des loyers. San Francisco, Minneapolis, San Diego et Philadelphie ont même banni l’utilisation du logiciel sur leur territoire.

Matt Stoller, auteur de « Goliath: The 100-Year War Between Monopoly Power and Democracy« , résume la critique dans une formule cinglante : Thoma Bravo augmente les prix et réduit la qualité, mais personne n’écoute les responsables IT qui lancent des alertes sur les risques et la dégradation des logiciels. Le scandale SolarWinds en 2020, où une faille de sécurité massive a permis à des hackers russes d’infiltrer des agences gouvernementales américaines, a ravivé ces inquiétudes. SolarWinds, propriété de Thoma Bravo, aurait sous-investi dans la sécurité pour maximiser ses marges.

Orlando Bravo à Davos : « L’IA est une opportunité, pas une menace »

Pas de quoi ébranler la confiance d’Orlando Bravo dans. son modèle. Lors du Forum économique mondial de Davos, il a expliqué au Financial Times que la récente correction des valorisations des éditeurs de logiciels, provoquée par les peurs autour de l’intelligence artificielle, créait une opportunité d’achat massive.

Sa thèse : les investisseurs surréagissent en imaginant que les grandes entreprises vont remplacer leurs logiciels traditionnels par des outils IA maison. Selon lui, c’est méconnaître la nature même de la valeur du logiciel. Ce qui compte, ce n’est pas le code ou la technologie, c’est la connaissance profonde des métiers. La plupart des éditeurs de logiciels maîtrisent un secteur vertical, un processus ou une fonction si spécifique qu’il n’existe que trois à cinq entreprises au monde capables de le faire, et environ vingt individus qui le comprennent vraiment. Cette expertise irremplaçable constitue la véritable franchise, la valeur réelle que l’IA ne peut pas répliquer.

Une vision qui contraste frontalement avec celle d’autres géants du private equity. Apollo Global a réduit son exposition aux éditeurs de logiciels et a même parié à la baisse sur certaines de leurs dettes par crainte de l’IA. Jonathan Gray, président de Blackstone, a fait de l’évaluation des risques liés à l’IA la priorité absolue du groupe pour les nouveaux investissements.

L’optimisme d’Orlando Bravo n’est pas nouveau. En 2021, alors que les valorisations tech atteignaient des sommets, il déclarait qu’il serait presque irresponsable de se retenir d’investir par peur des prix élevés, ironisant sur ceux qui attendent que le marché devienne bon marché. Quelques mois plus tard, la remontée brutale des taux de la Fed faisait s’effondrer les valorisations tech. Cette année-là, Thoma Bravo avait réalisé une vague de rachats à des multiples que beaucoup de financiers jugent aujourd’hui trop élevés.

L’acquisition de Medallia pour 6,4 milliards $ en est l’illustration : l’opération a depuis tourné au vinaigre, en partie à cause de problèmes liés… à l’IA. Un rappel que même la machine Thoma Bravo n’est pas infaillible.

The post Thoma Bravo : le géant qui redessine la carte du logiciel mondial appeared first on Silicon.fr.

ServiceNow et OpenAI embrayent sur le vocal… et le legacy

22 janvier 2026 à 12:33

Pour faire tomber la barrière de la langue, il y a OpenAI.

ServiceNow présente les choses ainsi. En toile de fond, un accord sur 3 ans qui le verra, entre autres, exploiter GPT-5.2 pour développer des technologies de compréhension et de synthèse vocales. Au bout, nous promet-on, il y aura des agents multilingues qui fonctionneront sans passer par la modalité texte.

Les modèles GPT seront également mis à contribution sur la partie computer use (« agent utilisateur d’ordinateur »). En ligne de mire, notamment, l’orchestration des outils bureautiques et l’automatisation des systèmes hérités (ServiceNow évoque les mainframes).

Les modèles OpenAI, déjà bien ancrés dans ServiceNow

Dans la pratique, ServiceNow a déjà établi de multiples passerelles avec OpenAI.

Sur sa plate-forme, les fonctionnalités conversationnelles, génératives et agentiques sont majoritairement regroupées sous la marque Now Assist.

Les produits Now Assist s’installent comme des plug-in. Ils donnent accès à trois types de composantes : des skills génératives, des agents et des flux agentiques. Ces briques ciblent généralement un usage au sein d’une application. Par exemple, pour les skills, la génération de documentation sur la partie gestion du travail collaboratif. Pour les workflows agentiques, l’obtention de conseils de gouvernance dans la CMDB.

Certains flux agentiques opèrent au niveau de la plate-forme : enquêter sur des incidents, créer des tâches à partir d’images, proposer des réponses à un sondage…

Par défaut, Now Assist repose sur un service interne, qui associe des modèles maison spécialisés* et des modèles ouverts « sélectionnés, configurés ou améliorés par ServiceNow, sa communauté ou ses partenaires ».

Pour certaines skills, il est possible de basculer sur des fournisseurs alternatifs : Google (Gemini 2.5 Flash et 2.5 Pro), Anthropic (Claude 3.7 Sonnet sur Amazon Bedrock)… ou OpenAI (GPT-4.1 et GPT-4.1-mini sur Azure OpenAI).

Avec toute application est installé un « contrôleur d’IA générative ». Il permet d’interfacer des LLM externes par API, au niveau des concepteurs de flux, d’agents et de scripts. En standard, cela donne quatre possibilités :

  • Générer du texte à propos d’un topic ServiceNow
  • Résumer un topic
  • Créer un use case et un prompt associé
  • Faire de l’analyse de sentiment

Ce contrôleur fait la passerelle avec OpenAI et Azure OpenAI. Ainsi qu’avec Google, Aleph Alpha, Amazon (Bedrock) et IBM (watsonx). Il inclut aussi un connecteur générique.

* En tête de liste, un modèle 12B à usage général (création de flux, modération, écriture de code…) fondé sur Mistral Nemo Instruct.

Illustration générée par IA

The post ServiceNow et OpenAI embrayent sur le vocal… et le legacy appeared first on Silicon.fr.

❌