Vue lecture

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

  •  

OpenAI accuse DeepSeek de copier ses LLM

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

  •  

Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA

Proofpoint annonce l’acquisition d’Acuvity, une société spécialisée dans la sécurité et la gouvernance de l’intelligence artificielle. L’opération vise à intégrer à sa plateforme de des capacités de visibilité et de contrôle sur les usages de l’IA au sein des environnements de travail.

L’essor rapide de l’IA générative dans les entreprises crée de nouveaux défis en matière de sécurité et de conformité. Les déploiements d’agents autonomes, d’assistants conversationnels ou d’applications connectées aux grands modèles de langage exposent les organisations à des risques émergents : perte de données sensibles, fuites de propriété intellectuelle, non-conformité réglementaire ou encore attaques de type prompt injection.

L’intégration d’Acuvity devrait permettre à Proofpoint d’apporter une surveillance en temps réel des interactions entre utilisateurs, données et agents d’IA. La technologie d’Acuvity, conçue pour détecter et encadrer les usages internes comme externes de l’IA, offre une cartographie complète des points d’accès utilisés (endpoints, navigateurs, outils locaux ou infrastructures d’IA). Elle aide également à contrôler les données échangées avec les services d’IA tiers.

Selon Proofpoint, cette acquisition complète ses offres existantes en sécurité des collaborateurs et en protection de l’information, afin d’y ajouter une couche de gouvernance des usages d’IA dans les flux de travail critiques.

Ni le montant de la transaction ni les termes précis de l’intégration n’ont été dévoilés.

Image : © DR

The post Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA appeared first on Silicon.fr.

  •  

{ Tribune Expert } – Le vrai prix de l’ingestion de données

Les plateformes d’ingestion de données sont souvent perçues comme un investissement coûteux. Cette perception, centrée sur leur prix affiché, ne tient pas compte du coût réel des solutions développées en interne. Entre dette technique, instabilité opérationnelle et pression sur les équipes, le choix de l’ingestion mérite d’être réévalué à l’aune du coût total de possession.

Comparer des prix ne suffit plus

Dans un contexte d’optimisation budgétaire permanente, l’ingestion de données est encore trop souvent considérée comme un poste secondaire. Le raisonnement est connu : pourquoi payer une plateforme spécialisée quand une équipe interne peut construire des flux “maison” avec les outils disponibles ?

Ce calcul, en apparence rationnel, repose sur une illusion comptable. Il compare une dépense explicite à une dépense implicite. Il oppose une ligne budgétaire visible à une réalité économique éclatée, diffuse, sous-estimée. Et il fait perdre de vue l’essentiel ; dans un système d’information moderne, l’ingestion n’est pas un projet ponctuel, c’est une fonction continue, critique et structurante.

La fausse économie des pipelines internes

Le développement de pipelines en interne est perçu comme un levier de flexibilité. Il l’est, mais à un prix que peu d’entreprises sont capables de mesurer. Derrière chaque ingestion artisanale se cachent des heures de configuration, de patchs, de réajustements, de surveillance.

Ces tâches mobilisent des profils techniques hautement qualifiés, souvent en tension sur d’autres priorités. À mesure que les sources de données se multiplient, que les formats évoluent, que les systèmes en amont se transforment, ces pipelines deviennent fragiles, rigides, coûteux à faire évoluer.

Il ne s’agit plus d’outillage, mais de dette technique. Cette dette ne se voit pas sur une facture, mais pèse dans les délais, dans la qualité des données, dans la frustration des équipes. Elle enferme les entreprises dans une logique de réparation continue.

Chaque incident absorbe des journées entières, retarde des projets, impose des arbitrages entre maintien en conditions opérationnelles et développement de nouvelles capacités. Et surtout, elle crée une dépendance à des individus. Ce n’est pas le système qui garantit la fiabilité, ce sont des personnes-clés, difficilement remplaçables, dont l’indisponibilité ou le départ devient un risque opérationnel majeur.

L’ingestion instable contamine toute la chaîne de valeur

Ce qui dysfonctionne dans l’ingestion ne reste jamais confiné à l’IT. Lorsque les données n’arrivent pas à temps, ou arrivent incomplètes, ou dans un format inutilisable, c’est toute la chaîne de valeur qui vacille.

Les équipes métiers prennent des décisions sur la base d’informations erronées ou obsolètes. Les outils d’analyse produisent des indicateurs incohérents. Les alertes automatiques se déclenchent trop tard ou à tort. L’ensemble du système perd en fiabilité, et avec lui, la capacité de l’entreprise à se coordonner, à anticiper, à réagir.

Ce coût opérationnel est rarement chiffré, mais ses effets sont bien réels. Il ralentit les cycles de décision. Il détériore la confiance dans les données. Il alimente un climat de suspicion entre les équipes techniques et les métiers. Et il oblige les organisations à surdimensionner leur système de contrôle pour compenser ce que l’ingestion aurait dû fiabiliser en amont.

La perspective financière : sortir de l’illusion du gratuit

Pour les directions financières, cette situation pose un vrai problème de gouvernance. Ce n’est pas la préférence d’un outil sur un autre qui est en jeu, mais la capacité à appliquer une logique d’investissement cohérente.

Comparer une plateforme au coût apparent élevé à une solution interne supposément gratuite revient à nier l’existence des coûts cachés. Or, dans un système complexe, ces coûts invisibles finissent toujours par réapparaître, sous la forme de retards, de burn-out, de turn-over, de projets gelés ou avortés.

À l’inverse, une plateforme d’ingestion expose ses coûts. Elle formalise un engagement de service. Elle mutualise des efforts de maintenance, d’évolution, de conformité. Et surtout, elle introduit de la prévisibilité. Elle permet de planifier, de budgéter, d’industrialiser. Elle transforme une dette en charge maîtrisée. La discipline financière rend visible ce qui est structurellement opaque.

La perspective technologique : l’infrastructure avant tout

Du côté des directions informatiques, le constat est encore plus limpide. L’ingestion ne fait pas partie des domaines où l’entreprise peut se différencier. Aucun client ne choisira un produit parce que ses pipelines sont faits maison. En revanche, tous les services numériques reposent sur des données fiables, disponibles, bien synchronisées. L’ingestion est donc une fonction d’infrastructure. Comme pour le réseau, la cybersécurité, ou encore le stockage, la question n’est pas d’innover, mais d’assurer. Et dans cette logique, l’externalisation à un outil robuste, éprouvé, maintenu, s’impose comme un choix de bon sens.

Confier l’ingestion à une plateforme dédiée permet aux équipes internes de se concentrer sur les vrais enjeux différenciants comme l’architecture, la gouvernance, la qualité et l’analyse. Continuer à bricoler l’ingestion en interne, c’est détourner des ressources rares de leur cœur de mission.

Ce n’est pas la plateforme qui coûte cher, c’est l’improvisation

Dire qu’une plateforme d’ingestion est trop chère, c’est se tromper d’indicateur. Ce qui pèse le plus lourd dans les bilans, ce ne sont pas les lignes de licence, ce sont les heures perdues, les erreurs accumulées, les décisions mal orientées. Ce n’est pas la dépense visible qui menace la compétitivité, c’est l’instabilité tolérée. Dans un environnement où la donnée est vitale, chaque faille d’ingestion est une brèche dans le fonctionnement global.

L’heure n’est plus à la comparaison des devis. Elle est à la mesure de la résilience. Et à ce jeu-là, la question n’est plus de savoir combien coûte une plateforme, mais l’absence de celle-ci.

*Virginie Brard est RVP France & Benelux chez Fivetran

The post { Tribune Expert } – Le vrai prix de l’ingestion de données appeared first on Silicon.fr.

  •  

Anthropic lève 30 milliards $, porté par ses outils de codage

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

  •  

GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique

Les « identités non humaines » sont désormais bien ancrées dans la communication de GitGuardian.

L’annonce d’un nouveau tour de table en témoigne. L’entreprise française a levé 50 M$* qui lui serviront notamment à « répondre à la crise des identités non humaines ». Il s’agira aussi de combler le « vide sécuritaire » (security gap) des agents IA.

Le tour de table précédent (44 M$, série B) avait été officialisé fin 2021. GitGuardian ne parlait pas encore d’identités non humaines, d’autant qu’il n’avait pas de produit dédié.
Celui-ci serait lancé au printemps 2025. Il apporterait une gestion centralisée des secrets, complétant les offres axées sur leur détection (monitoring interne + surveillance de l’activité publique sur GitHub).

Au démarrage n’était que cette partie surveillance externe. La brique de monitoring interne avait été lancée en 2020, dans la foulée du tour de table de série A (12 M$). GitGuardian promettait alors de transformer ce socle en une « plate-forme exhaustive de sécurité du code ». L’année suivante, il remporterait le grand prix de la start-up au FIC.

Découvrir les secrets de l’IA agentique

La stratégie s’oriente donc désormais sur les systèmes d’IA… et sur la gouvernance des secrets qu’ils exploitent. En parallèle, pour la première fois dans le cadre d’une annonce de levée de fonds, GitGuardian évoque une extension de ses activités au Moyen-Orient, en Asie et en Amérique du Sud. Autre évolution : il ne met plus l’accent sur son public de développeurs individuels, mais de développeurs en entreprise (« plus de 115 000 »).

Sur le volet gestion des identités machine, GitGuardian a récemment fait la jonction avec AWS IAM et Entra ID. Anthropic et OpenAI ont rejoint son catalogue de connecteurs ; comme, dernièrement, Datadog, Snowflake, Okta et Slack, entre autres.

Du machine learning est venu enrichir la description des secrets découverts, le regroupement d’incidents et le scoring des risques. GitGuardian a aussi intégré une couche de langage naturel pour parcourir les journaux d’audit. Et un serveur MCP pour lire et analyser des incidents, automatiser leur résolution et générer des pots de miel.

* Tour de table emmené par le fonds américain Insight Partners. La société de gestion française Quadrille Capital a participé, aux côtés d’investisseurs existants (Balderton Capital, Bpifrance, Sapphire Ventures et le fonds allemand Fly Ventures).

Illustration générée par IA

The post GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique appeared first on Silicon.fr.

  •  

Microsoft veut voler de ses propres ailes dans l’IA

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

  •  

De WhatsApp à MAX : Moscou met fin au chiffrement des communications

Le couperet est tombé ce jeudi. WhatsApp, propriété de Meta, est désormais totalement inaccessible en Russie. « En raison du refus de Meta de se conformer à la législation russe, une telle décision a effectivement été prise et mise en œuvre », a déclaré Dmitri Peskov, porte-parole du Kremlin, suggérant aux Russes de basculer vers MAX, la messagerie nationale soutenue par l’État.

Cette mesure, qui touche plus de 100 millions d’utilisateurs, marque l’aboutissement de six mois de pression sur l’entreprise américaine et s’inscrit dans une stratégie plus large du pouvoir russe : créer et contrôler une infrastructure de communication « souveraine » où les géants technologiques étrangers se soumettent ou disparaissent.

La fin d’un modèle de sécurité

Le blocage ne se limite pas à un simple changement d’application. Il fait basculer les utilisateurs d’un système de « confidentialité par conception » vers un modèle de « transparence par défaut » vis-à-vis des opérateurs et des autorités.

WhatsApp repose sur un chiffrement de bout en bout : les clés cryptographiques sont générées et stockées uniquement sur les terminaux des utilisateurs. Même l’opérateur ne peut pas lire le contenu des messages. Pour intercepter des communications, il faut compromettre directement le téléphone de l’émetteur ou du destinataire, une opération complexe et coûteuse qui rend impraticable toute surveillance de masse.

MAX et les autres messageries promues par Moscou utilisent un chiffrement de  » transport »  ( entre l’appareil et le serveur) mais les messages restent lisibles en clair côté serveur. Cette architecture rouvre la porte à un accès direct par l’opérateur ou les services de sécurité, à des mandats légaux intrusifs et à des risques d’attaques internes.

Dans ce nouveau schéma, toute la sécurité repose sur un serveur central qui concentre contenus, métadonnées, carnets d’adresses et historiques. Les chercheurs ayant audité MAX décrivent une application qui collecte et journalise massivement les interactions, au point d’en faire « un outil de surveillance plutôt qu’une messagerie zéro connaissance ».

Cette concentration augmente mécaniquement la surface d’attaque : une seule brèche dans l’infrastructure peut exposer à grande échelle conversations et profils d’utilisateurs. Elle facilite aussi les opérations de corrélation : identifier qui parle à qui, quand, depuis où, même sans inspecter systématiquement le contenu.

Conformité avec la loi « Yarovaïa »

Le basculement s’inscrit dans le cadre de la loi  » Yarovaïa « , qui oblige les fournisseurs à remettre aux services de sécurité contenus et métadonnées, et à fournir les moyens techniques d’accès aux flux chiffrés. Les protocoles de chiffrement de bout en bout modernes rendent ces obligations difficilement applicables sans « casser » la cryptographie, ce qui explique l’hostilité particulière de Moscou envers WhatsApp, Signal et les « secret chats » de Telegram.

Avec MAX, ces exigences sont facilement satisfaites : accès direct aux bases de données, requêtes ciblées, voire écoute en temps quasi réel. Pour les utilisateurs, cela se traduit par un affaiblissement des garanties de confidentialité, même si le cadre est présenté politiquement comme un renforcement de la « sécurité » nationale.

Des risques pour les profils sensibles

Pour un particulier peu exposé, le changement se traduit par une perte diffuse de vie privée et un accroissement du traçage comportemental. Mais pour les journalistes, les ONG, les opposants ou les professions réglementées, la disparition d’un canal chiffré augmente significativement les risques : identification de sources, mise sous surveillance ciblée, remontée de réseaux entiers à partir de simples métadonnées.

Le contournement via VPN, seule alternative pour continuer à utiliser WhatsApp, introduit ses propres dangers. Des services non fiables peuvent intercepter le trafic, injecter des malwares ou affaiblir les vérifications de certificats, ouvrant la voie à des attaques de type « homme du milieu ».

Meta, désigné comme organisation extrémiste en Russie, a dénoncé cette mesure : « Tenter d’isoler plus de 100 millions d’utilisateurs d’une communication privée et sécurisée est un pas en arrière qui ne peut que conduire à moins de sécurité pour les gens en Russie. »

Depuis décembre, de nombreux Russes ne pouvaient déjà plus utiliser WhatsApp qu’avec un VPN. Le blocage complet marque une nouvelle étape dans la construction d’un internet « souverain » où le Kremlin contrôle non seulement les contenus, mais aussi l’architecture même des communications numériques.

The post De WhatsApp à MAX : Moscou met fin au chiffrement des communications appeared first on Silicon.fr.

  •  

L’ANSSI affirme l’open source comme levier de sa politique industrielle

Sur le GitHub de l’ANSSI, les projets seront bientôt classés par « niveau d’ouverture ».

L’agence le signale désormais sur la page qui présente sa politique open source. Elle utilisera la classification qu’a élaborée la DINUM :

  • Contributif (contributions extérieures activement recherchées et traitées)
  • Ouvert (contributions extérieures traitées mais non activement recherchées)
  • Publié (contributions extérieures non traitées)

Autre nouveauté sur la page en question : l’évocation de l’open source en tant que levier d’action de la politique industrielle de l’ANSSI. Par ce lien « récent et en développement », l’agence cherche à favoriser la disponibilité de solutions cyber alignées sur les besoins.

Par rapport à l’ancienne version de la page, l’aspect « liste de projets » est moins marqué. L’ANSSI insiste davantage sur les licences, le transfert de projets et sur sa propre utilisation de solutions open source. Elle a ajouté des références à la communauté BlueHats ainsi qu’à celle des OSPO français.

Une partie des projets auparavant mentionnés se retrouvent sur la page d’accueil de l’organisation GitHub ANSSI-FR. Entre autres, DFIR ORC (outils de recherche de compromission), WooKey (micronoyau + environnement de dev pour le prototypage de solutions IoT) et CLIP OS (système d’exploitation Linux durci). Le premier est d’une envergure suffisante pour avoir sa propre orga GitHub. Les deux autres ont aussi la leur, mais parce qu’ils sont archivés.

Audit CSPN réussi pour Barbican, Suricata et KeePassXC

L’ANSSI évoque toujours son financement d’évaluations de sécurité, ad hoc ou sur les critères CSPN.

En 2018 avait démarré l’évaluation CSPN de Barbican (service de gestion de clés de la pile OpenStack), finalement certifié. La même année avait commencé celle de Suricata (détection et prévention d’intrusion), qui avait lui aussi réussi l’audit.

S2OPC (implémentation du protocole de communication OPC UA), nftables (sous-système Linux de filtrage de paquets) et KeePassXC (gestionnaire de mots de passe) ont également obtenu la CSPN.

Par deux fois, la version « originale » de KeePass (pour Windows) n’a pas réussi l’audit CSPN. Ça n’est pas non plus passé pour Keystone et Ansible (en 2018), strongSWAN (2019), Secretin, Belenios et Sudo (2021), ainsi que WireGuard (2023).

Les derniers audits ad hoc ont permis d’identifier 4 vulnérabilités dans CAS, 1 dans step-ca… et aucune dans HAProxy.

Illustration générée par IA

The post L’ANSSI affirme l’open source comme levier de sa politique industrielle appeared first on Silicon.fr.

  •  

Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes

Centres d’appels, support technique dans les casinos, assistants IA pour tous les collaborateurs…le Groupe Barrière déploie l’intelligence artificielle sur trois fronts simultanés.

L’acteur centenaire de l’hôtellerie de luxe, qui compte 33 établissements de jeux et 20 hôtels, expérimente avec méthode. Salomon Bentolila, Directeur Data & Acquisition, pilote le projet avec le cabinet de conseil Artefact comme prestataire.

Une feuille de route autour de trois axes

Son approche repose sur trois objectifs clairement définis. Premier axe, l’amélioration de la productivité et des opérations : l’IA est accessible à tous les employés, quel que soit leur niveau de maîtrise technologique, et s’applique à tous les secteurs d’activité. Deuxième axe, la transformation de l’expérience client et employé : les chatbots et solutions d’assistance par IA améliorent l’efficacité opérationnelle sans compromettre l’excellence du service. Enfin, le Groupe expérimente de nouveaux modèles commerciaux pour se différencier grâce à l’IA générative.

Il a ainsi développé une plateforme d’IA générative articulée autour de trois agents principaux, déployés progressivement selon une approche itérative.

Barrière GPT : démocratiser l’accès à l’IA

Basé sur Gemini, Barrière GPT offre un accès sécurisé à un modèle de langage avancé. La plateforme intègre des bibliothèques de prompts que les équipes peuvent partager et réutiliser. Déployé auprès d’une centaine de collaborateurs, l’outil a déjà généré plus de 4 000 prompts.

« Nous apprenons et progressons très vite en questionnant les choses. Google intègre de nombreuses fonctionnalités dans son Workspace. Cela soulève la question : devons-nous maintenir Barrière GPT ou nous appuyer sur des outils natifs ? Nous restons agiles », explique Salomon Bentolila.

Cette phase pilote permet d’évaluer l’adoption réelle et d’ajuster la stratégie en temps réel, plutôt que de s’engager dans un déploiement massif.

Agent centre d’appels : centraliser l’information

Les conseillers devaient consulter de multiples sources – procédures, catalogues de produits – et perdaient un temps précieux lors des interactions clients. L’équipe a développé un agent basé sur l’architecture RAG (Retrieval-Augmented Generation) qui centralise toute la documentation commerciale.

Les résultats sont probants : plus de 1 000 interactions générées par plus de 60 utilisateurs actifs, avec un score de satisfaction de 3,64/4. Le déploiement est prévu dans tous les centres d’appels du Groupe.

Support Barrière Play : une assistance 24/7

Barrière Play est une application permettant aux clients de se connecter aux machines à sous grâce à un portefeuille électronique rechargeable. Face aux problèmes techniques que les équipes terrain ne maîtrisaient pas toujours, le Groupe a créé une FAQ intégrée à un système RAG offrant une assistance par IA 24h/24 et 7j/7.

Testé dans trois casinos pilotes, il compte plus de 350 questions, plus de 30 utilisateurs actifs et un score de satisfaction de 3,77/4.

L’adoption utilisateur, clé de la réussite

« Nos employés du centre d’appels ont déjà accès à une trentaine d’outils. Cela représentait un outil supplémentaire à maîtriser. Il fallait donc que l’investissement en vaille vraiment la peine », souligne Salomon Bentolila.

Les retours terrain ont nécessité des ajustements. Pour les centres d’appels, les équipes ont dû améliorer la qualité des bases documentaires dans les RAG et démontrer la valeur ajoutée de manière concrète. Pour l’agent Barrière Play, l’interface initiale via Google Chat n’étant pas adaptée aux collaborateurs mobiles, le Groupe a intégré l’agent directement dans les outils de gestion via API.

LLM en tant que juge : garantir la qualité

La pérennité du système repose sur un contrôle rigoureux. Artefact et Groupe Barrière ont mis en place un système de juge-expert pour évaluer en continu la pertinence des réponses. Cette méthodologie se déroule en quatre étapes. D’abord, la création de bibliothèques de données de référence avec des paires question/réponse annotées. Ensuite, la génération de réponses via l’agent RAG à évaluer. Puis, un expert en droit attribue automatiquement une note de 1 à 4 à la prédiction, avec une justification explicite. Enfin, la révision des justifications et la modification du contexte de l’agent/RAG.

Ce cycle d’amélioration continue renforce la confiance des utilisateurs et garantit la fiabilité à long terme.

Avec plus de 5 000 demandes générées, le Groupe prévoit de nouveaux cas d’utilisation en 2026. L’agilité demeure la priorité.

« Plutôt que de suivre une feuille de route rigide, nous privilégions la saisie des opportunités susceptibles d’intéresser nos équipes. Nous définissons un budget que nous déployons en fonction des besoins », conclut Salomon Bentolila.

Photo : © DR

The post Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes appeared first on Silicon.fr.

  •  

Stephan Teerling, nouveau Chief IT & Technology Officer d’Allianz France

Allianz France renforce sa gouvernance avec la nomination de Stephan Teerling au sein de son Comité Exécutif. En tant que nouveau Chief IT & Technology Officer, il prend désormais la direction des systèmes d’information de l’assureur.Un expert du conseil et de la tech

Âgé de 45 ans, Stephan Teerling est titulaire d’un Master « Business Systems Engineering » de l’Université de Duisburg. Avant d’intégrer le groupe Allianz, il a forgé son expérience dans le secteur du conseil et du management IT au sein de cabinets de référence tels que BCG Platinion et Accenture.

Un parcours au sein du Groupe Allianz

Entré chez Allianz Allemagne en 2015 pour diriger l’analyse des données de santé (Health Analytics), il accélère son parcours en 2019 en devenant Deputy Managing Director d’Allianz Digital Health. À ce poste, il a activement contribué à la création de l’entité, au déploiement international de solutions IT santé et à la croissance de ce segment.

Depuis 2022, Stephan Teerling occupait les fonctions de directeur de Cabinet d’Oliver Bäte, Directeur général d’Allianz SE. Dans ce rôle, il a piloté des projets stratégiques d’envergure mondiale, notamment le programme « Rapid Productivity » déployé dans 19 entités du Groupe à travers le monde.

Photo : © DR

The post Stephan Teerling, nouveau Chief IT & Technology Officer d’Allianz France appeared first on Silicon.fr.

  •  

Windows 11 26H1, cette épine dans le pied des admins

Microsoft vient-il de bouleverser le modèle mental et opérationnel auquel les admins de parcs Windows se sont habitués ?

Le groupe américain a eu droit à ce commentaire à propos de Windows 11 26H1.

Cette version, stable depuis le 10 février, est particulière à plusieurs titres. D’abord, elle ne cible pour le moment qu’une plate-forme : les Snapdragon X2 (les premiers PC qui en seront équipés sont attendus pour mars-avril). Ensuite, comme elle a son propre cœur Windows, elle aura aussi son propre chemin de mise à niveau – non défini pour l’heure. Autrement dit, elle ne pourra pas basculer vers le futur Windows 11 26H2.

Dans ce contexte, Windows 11 24H2 et 25H2 restent les versions recommandées pour les déploiements en entreprise, explique Microsoft. Il faut voir Windows 11 26H1 comme le moyen d’évaluer de nouvelles plates-formes… même si les Insiders ont pu l’expérimenter sur des appareils Arm existants comme Surface Laptop.

Windows 11 26H1, un simple glissement sémantique ?

À parité fonctionnelle avec Windows 11 25H2, Windows 11 26H1 suivra le même cycle de vie : 24 mois de support standard pour l’édition Pro, 36 mois pour l’édition Entreprise. En l’état, il ne gère pas le mécanisme des mises à jour correctives à chaud (hotpatch)*.

Pour les admins, c’est une nouvelle approche à assimiler, en tout cas sur le plan sémantique. À l’avenir, « mise à jour de fonctionnalités » pourrait ne plus rimer avec « deuxième semestre de l’année »… et donc avec « version H2 ». Ce qui pourrait avoir un impact en matière de planification et de gouvernance.

* Avec le hotpatch, les appareils reçoivent tous les trimestres une mise à jour cumulative de base qui nécessite un redémarrage. Mais les mois intercalaires, ils peuvent installer des correctifs de sécurité sans avoir à redémarrer.

Illustration générée par IA

The post Windows 11 26H1, cette épine dans le pied des admins appeared first on Silicon.fr.

  •  

Mistral AI investit 1,2 milliard € dans un datacenter IA

C’est un coup d’accélérateur dans la bataille de l’IA européenne. Mistral AI, valorisée à près de 12 milliards €, annonce un investissement colossal de 1,2 milliard € en partenariat avec l’opérateur suédois EcoDataCenter. Objectif : ériger à Borlänge, au cœur de la Suède, une infrastructure de calcul de nouvelle génération dédiée à l’entraînement et au déploiement de ses modèles d’IA.

Pourquoi la Suède ? La réponse tient autant à la géographie qu’à la géopolitique. Le royaume scandinave offre un cocktail d’avantages difficilement égalable : une électricité 100% renouvelable issue de l’hydroélectrique et de l’éolien, des températures favorables au refroidissement des serveurs, et des coûts énergétiques compétitifs.

Un choix nordique stratégique

Le datacenter, dont l’ouverture est prévue pour 2027, accueillera les GPU NVIDIA Vera Rubin de dernière génération et promet des performances de pointe avec un PUE (Power Usage Effectiveness) parmi les plus bas du marché. EcoDataCenter, qui assurera la conception, la construction et l’exploitation du site, capitalise sur son expertise reconnue en infrastructures haute densité optimisées pour le calcul intensif.

Au-delà des aspects techniques, c’est un projet éminemment politique que porte Arthur Mensch, CEO et cofondateur de Mistral AI. « C’est un pas concret vers des capacités indépendantes en Europe », affirme-t-il.

Le partenariat vise à constituer une pile technologique entièrement européenne, du silicium aux algorithmes. Les données seront traitées et stockées localement, sous le cadre juridique de l’Union européenne, avec l’ambition affichée de proposer un « cloud IA européen » aux entreprises, administrations publiques et centres de recherche.

Pour la Suède, ce projet confirme son statut de hub européen des infrastructures numériques avancées, aux côtés d’autres projets HPC (High Performance Computing) déjà déployés dans le pays.

The post Mistral AI investit 1,2 milliard € dans un datacenter IA appeared first on Silicon.fr.

  •  

{ Tribune Expert } – La confiance, enjeu essentiel des forums cybercriminels

Dans l’écosystème cybercriminel, la confiance constitue un pilier essentiel au bon fonctionnement des échanges, alors même que ceux-ci reposent sur l’anonymat, l’absence de recours légaux et une instabilité structurelle permanente.

Acheteurs et vendeurs interagissent sous pseudonyme, sans connaître l’identité réelle de leurs interlocuteurs, dans un environnement exposé aux arnaques, aux exit scams, aux démantèlements des forces de l’ordre et aux conflits internes entre acteurs. Cette situation rend la construction de relations de confiance particulièrement complexe sur les forums et marketplaces du Deep et du Dark Web.

Malgré ces contraintes, la communauté cybercriminelle a mis en place des mécanismes visant à encadrer les transactions et limiter les abus. Ces dispositifs incluent la restriction des inscriptions, la modération des contenus, les systèmes de réputation, le recours à des tiers (escrow), ainsi que la création de véritables « tribunaux » communautaires permettant le règlement des litiges entre membres. Ces mécanismes jouent un rôle central dans la structuration des échanges et la régulation des comportements frauduleux.

Un écosystème structuré autour de la réputation et des rôles de chacun

Avant d’analyser ces outils, il convient de rappeler les principaux profils d’acteurs en présence. Les forums cybercriminels fonctionnent comme des marchés où une offre (bases de données, accès, malwares, services frauduleux) rencontre une demande, avec des transactions généralement réalisées en cryptomonnaies ou via des systèmes de crédits internes.

Ces échanges sont encadrés par des administrateurs et des modérateurs chargés de faire respecter les règles, ainsi que par des membres de confiance comme les escrows, dont la réputation est censée garantir la sécurité des transactions. La réputation, matérialisée par l’ancienneté du compte, l’activité, les évaluations des pairs, les dépôts financiers ou l’acquisition de grades, constitue un facteur clé dans l’établissement de la confiance.

Fragilisation de la confiance et réponses face à l’instabilité

Toutefois, malgré ces garde-fous, les arnaques demeurent présentes. Ventes de données falsifiées, reventes de fuites publiques, usurpation d’identité de groupes connus, faux escrows ou exit scams illustrent les multiples formes de fraude qui fragilisent l’écosystème.

Cette défiance est accentuée par la pression exercée par les autorités, comme en témoignent les opérations internationales majeures (Cronos, Endgame) ayant conduit à la saisie de plateformes et à l’arrestation d’administrateurs. Ces actions, en sapant la crédibilité des forums, ont profondément mis à mal la confiance entre utilisateurs de forums cybercriminels.

Face à cette instabilité, les cybercriminels ont dû mettre en place certains garde-fous : durcissement des conditions d’accès, renforcement des règlements internes, multiplication des contrôles de réputation et migration partielle vers des plateformes alternatives comme Telegram. Dans ce contexte, les systèmes de tribunaux internes sont devenus un élément central afin de créer de la confiance au sein de la communauté cybercriminelle.

Les scam reports de DarkForums comme mécanisme de régulation

C’est dans cette perspective que cet article s’intéresse au système de scam reports de DarkForums, forum cybercriminel en forte croissance depuis le démantèlement de BreachForums.

Héritier direct des mécanismes de RaidForums et BreachForums, ce système permet à un membre de signaler publiquement un litige à l’encontre d’un autre utilisateur.

À partir d’une analyse qualitative et quantitative de 61 scam reports publiés entre décembre 2024 et novembre 2025, cette étude évalue l’efficience du mécanisme et son rôle dans la création de confiance.

Les résultats montrent que la majorité des litiges concernent des escroqueries liées au non-respect des transactions, suivies par la vente de données falsifiées et la revente de données publiques. Dans près des trois quarts des cas, la réponse des administrateurs se limite à l’exclusion de l’accusé, les remboursements étant rares en raison de l’absence de système de dépôt sur DarkForums. Malgré ces limites, la transparence des tickets, leur archivage public, la rapidité de traitement et l’implication de certains utilisateurs jouant un rôle de « justiciables » contribuent à renforcer la capacité des membres à évaluer la fiabilité de leurs interlocuteurs.

L’étude met également en évidence des dérives, notamment l’ouverture de plaintes malveillantes ou instrumentalisées à des fins de vengeance ou de concurrence. Ces abus rappellent que le système reste imparfait et vulnérable aux manipulations.

Néanmoins, malgré ces failles, les scam reports et le rôle des modérateurs constituent un outil essentiel de régulation. Ils offrent un cadre minimal de contrôle et de visibilité, permettant de maintenir un niveau de confiance suffisant pour assurer la continuité des échanges de données et de services illicites au sein de l’écosystème cybercriminel.

*Julie Arnoux, Ambroise Da Silva et Nicolas Boussange sont experts cyber chez XMCO*

The post { Tribune Expert } – La confiance, enjeu essentiel des forums cybercriminels appeared first on Silicon.fr.

  •  

ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado

Le réveil est un peu brutal pour les Entreprises de Services Numériques (ESN) françaises. Selon le dernier baromètre réalisé par la banque d’affaires Crescendo Finance en partenariat avec le cabinet PAC, le secteur entre dans une phase de normalisation après des années de surchauffe.

Après un pic d’activité M&A (fusions-acquisitions) en 2022 avec 73 opérations recensées, le marché montre des signes de fatigue : la croissance des services IT en France devrait même se contracter de 2,1% en 2025.

Le blues des multiples

Le temps où les vendeurs dictaient leurs conditions semble s’éloigner. Les multiples d’EBITDA *, qui avaient grimpé jusqu’à 13,9x en 2022 pour les acquéreurs stratégiques, sont retombés à 9,2x en 2024. « Le contexte économique affecte de façon symétrique les multiples », tempère l’étude, notant que pour la première fois depuis 2021, la valorisation des ESN françaises est repassée légèrement sous l’indice Argos des PME non cotées.

Pourtant, cette moyenne cache de profondes disparités. C’est un marché à deux vitesses : d’un côté, l’infogérance classique, dont les multiples plafonnent péniblement à 6,3x EBITDA. De l’autre, les « chouchous » des investisseurs : la cybersécurité et la Data/IA, qui continuent d’afficher des valorisations insolentes, dépassant parfois les 15x l’EBITDA pour les cibles les plus pointues.

IA générative : 3,2 milliards € en ligne de mire

Si le marché global ronronne, l’IA générative (IAGen) agit comme un booster de croissance. PAC estime que les dépenses externes liées à l’IAGen en France vont littéralement exploser, passant de 425 millions € en 2024 à 3,2 milliards € dès 2028.
« 72% des entreprises font de l’adoption de l’IA générative une priorité absolue», souligne l’étude. Cette « frénésie » pousse les grands prédateurs du secteur à sortir le carnet de chèques pour ne pas rater le train de l’IA agentique.

Accenture et Capgemini sont en première ligne, avec des budgets d’investissement se comptant en milliards de dollars pour renforcer leurs compétences via des acquisitions ciblées.

Les fonds d’investissement à l’affût des ETI

Le paysage des transactions reste dominé à 75% par les « corporates » (les ESN elles-mêmes), qui privilégient les petites cibles de moins de 15 millions € de chiffre d’affaires pour muscler leurs expertises locales. Les fonds d’investissement, bien que représentant seulement 25% des volumes, jouent les arbitres sur les dossiers plus matures : 47% de leurs jetons sont misés sur des entreprises réalisant plus de 50 millions € de CA.

Pour 2025, les experts prévoient une stabilisation. L’assouplissement des conditions de financement et la nécessité impérieuse de souveraineté numérique devraient soutenir un volume d’opérations honorable. Mais pour séduire les acheteurs, il faudra désormais plus qu’une simple croissance organique : la récurrence des revenus (modèle SaaS) et la maîtrise de la data sont devenues les nouveaux juges de paix de la valorisation.

*EBITDA est l’abréviation de « bénéfice avant intérêts, impôts, dépréciation et amortissement ».

The post ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado appeared first on Silicon.fr.

  •  

Google-Wiz : l’UE valide en balayant les craintes

La Commission européenne n’ira pas plus loin dans l’examen du dossier Google-Wiz : elle a validé l’acquisition sans condition.

Bruxelles ne nie pas le risque de remise en cause de la neutralité de l’entreprise israélienne. Mais considère que les clients pourront, le cas échéant, accéder à des solutions alternatives « crédibles » de sécurité cloud.

Balayé également l’effet « cheval de Troie » qu’avait notamment dénoncé le CISPE. Certes, l’opération procurera à Google des données concernant les clouds concurrents. Mais elles ne sont « pas commercialement sensibles », en plus d’être généralement accessibles à d’autres fournisseurs de logiciels de sécurité.

Google franchit là un autre étape importante après le feu vert que les États-Unis lui ont donné en novembre 2025. Reste une enquête en Australie, avec une décision prévue d’ici au 23 février 2026.

« Rappelle-toi DoubleClick… »

Wiz était précieux par son indépendance, déplore un collectif d’organisations de la société civile basées en Allemagne (Rebalance Now), aux Pays-Bas (SOMO), au Royaume-Uni (Article 19, Balanced Economy Project) et aux États-Unis (Open Markets Institute).

La Commission européenne sait que le contrôle d’une couche stratégique peut être mis à profit pour consolider une position sur des marchés annexes, regrettent ces organisations. Partant, il ne fallait pas valider sur la base de parts de marché* et de considérations tarifaires, poursuivent-elles.

Il y a quelques semaines, dans la perspective de l’examen du projet d’acquisition, une des membres de Rebalance Now avait copublié un article intitulé « L’empire caché de Google ». Elle y postulait que Google s’était imposé comme une arme géopolitique pour les USA, par là même susceptibles de préférer en renforcer le pouvoir plutôt que de le contrôler.

L’article pointait les risques d’intégration verticale. Et établissait, à ce sujet, un parallèle avec l’acquisition de DoubleClick – que l’UE avait validée en 2008. Il insistait aussi sur l’ancrage profond de Google dans l’écosystème start-up/innovation (plus de 6000 sociétés acquises ou soutenues dans l’économie numérique et au-delà). Et sur sa croissance supérieure à celle d’Amazon et de Microsoft dans le cloud d’infrastructure.

Fin 2025, Wiz a atteint le milliard de dollars de revenu anuel récurrent. Google compte s’en emparer pour 32 milliards de dollars en cash. Jusqu’ici, la plus chère de ses acquisitions fut celle de Motorola Mobility (12,5 Md$ en 2012).

* Dans ce même esprit, la Commission européenne n’a pas inclus Google dans son enquête visant à déterminer s’il faut soumettre des plates-formes cloud au DMA.

Illustration générée par IA

The post Google-Wiz : l’UE valide en balayant les craintes appeared first on Silicon.fr.

  •  

Un an après, que devient l’initiative EU AI Champions ?

Ne cherchez plus Heineken ni Henkel : ils ne font plus partie des « supporters » d’EU AI Champions.

Cette initiative était née il y a tout juste un an, à l’occasion du Sommet pour l’action sur l’IA. Une soixantaine d’organisations – fournisseurs, utilisateurs et quelques associations représentatives – s’y étaient ralliées, sous la houlette du fonds de capital-risque General Catalyst. Sur le papier, l’objectif principal était simple : contribuer à accélérer le développement et l’adoption de l’intelligence artificielle en Europe. Entre renforcement de l’infrastructure de datacenters, développement des compétences et financement d’entreprises spécialisées, une vingtaine d’investisseurs s’étaient engagés à débloquer un total de 150 milliards d’euros sur 5 ans.

Une première discussion avec un groupe de P-DG et de responsables politiques eut lieu au lendemain du Sommet. EU AI Champions appelait alors, entre autres, à simplifier la réglementation, à commencer par l’AI Act. Sa mobilisation sur le sujet avait culminé au mois juillet, quelques semaines avant l’entrée en vigueur des dispositions du règlement concernant les modèles d’IA à usage général. Par une lettre ouverte, la majorité de ses membres avaient réclamé un moratoire de 2 ans sur l’application des principales obligations du texte. Parmi les signataires figuraient, côté français, Arthur Mensch (Mistral AI), Éléonore Crespo (Pigment), Patrick Pouyanné (TotalEnergies), Guillaume Faury (Airbus), Bernard Charlès (Dassault Systèmes), Alexandre Bompard (Carrefour) et Jean-Laurent Bonnafé (BNP Paribas).

L’UE n’est pas allée jusque-là, mais elle a lâché du lest avec son omnibus numérique.

Une com qui s’est recentrée sur les membres

La liste des « supporters » comprend aujourd’hui 114 logos, rattachés à une centaine d’organisations. Elle n’a globalement pas évolué depuis mars 2025. Heineken et Henkel étaient alors déjà sortis de la boucle.

EU AI Champions a fait de LinkedIn son principal canal de communication au public. Initialement, il y mit régulièrement en avant des organisations qui ne comptaient pas parmi ses membres (Bosch, Langfuse, PortiaAI…). C’est devenu plus rare.

Fin 2025, dans la lignée de ses appels à un allègement réglementaire, le collectif s’était fait l’écho de la position du gouvernement allemand sur l’omnibus numérique. Il s’en était réjoui, y voyant « la première réponse réglementaire sérieuse à ce que l’industrie européenne de l’IA signalait depuis des mois ». Il faut dire que Berlin préconisait notamment de reporter d’un an l’application des règles relatives aux systèmes d’IA « à haut risque ».

Une initiative européenne à dominante franco-allemande

Quoique à dimension européenne, EU AI Champions a des fondations largement franco-allemandes. Sur ses 114 logos, une trentaine sont rattachés à des organisations françaises et une quarantaine, à des organisations allemandes.

France Allemagne
Airbus Bilfinger (construction et services)
Airbus Defence and Space Black Forest Labs (labo d’IA à l’origine des modèles multimodaux FLUX)
Alan Cambrium (fabricant de produits chimiques)
Autone (optimisation des stocks) Covestro (fabricant de produits chimiques)
AXA DeepL
BNP Paribas Deutsche Bank
Carrefour Deutsche Telekom
CMA CGM Edgeless Systems (cybersécurité)
Contentsquare Flix (traveltech)
Dassault Systèmes Genesis Cloud (« néocloud »)
Dataiku German AI Association (fédération des entreprises allemandes de l’IA)
Doctolib GetYourGuide (réservation de voyages)
Dust (plate-forme IA axée production de contenu) Giesecke+Devrient (solutions de sécurité)
EDF Hapag-Lloyd (transport maritime en conteneurs)
Kering Helsing (technologies de défense)
L’Oréal Holtzbrinck (maison d’édition)
Lighton Hexagon (technologies de mesure)
Mirakl Infineon
Mistral AI K+S (entreprise minière)
Orange LangDock (plate-forme IA d’entreprise)
Owkin LOH Group (industrie manufacturière et services)
Pelico (plate-forme d’orchestration de la production) Lufthansa
Photoroom Merantix Capital
Pigment (plate-forme de planification) Mercedes-Benz
Publicis Groupe Northern Data Group (« néocloud »)
Renault Group Orbem (technologies d’IRM)
Sanofi Otto Group (vente à distance)
Shift (détection de fraude à l’assurance) Parloa (conception et déploiement d’IA)
TotalEnergies Personio (logiciels RH)
RobCo (robotique)
SAP
Schwarz (groupe de distribution)
Siemens
Siemens Energy
Skeleton (stockage de l’énergie)
SPREAD (IA industrielle)
Startup Verband (fédération des start-up allemandes)
Südzucker (groupe sucrier)
United Internet (services numériques)
ZF (équipementier automobile)

À ce contingent s’ajoutent deux entreprises dont les fondateurs sont français, mais qui ont leur siège aux États-Unis. Une du secteur aérospatial (Loft Orbital, qui a un pied à Toulouse). L’autre qui fournit des logiciels RH (Deel).

Un pot-pourri de projets annoncé à Berlin

Le dernier « temps fort » d’EU AI Champions s’est déroulé au Sommet sur la souveraineté numérique organisé à Berlin. C’était mi-novembre 2025. Ses membres y ont annoncé un pot-pourri de partenariats, d’accords commerciaux et d’engagements individuels, valorisés dans leur ensemble à 1 Md€.

Projets Grandes lignes des engagements
Allianz (Allemagne) x Parloa (Allemagne) Le premier va exploiter les technologies du second pour le service client.
Black Forest Labs (Allemagne) x Mercedes-Benz (Allemagne) Le groupe automobile va développer des outils IA sur la base des modèles FLUX de la start-up.
Charité Comprehensive Cancer Center (Allemagne) x Gustave Roussy (France) x Owkin (France) Ce projet associe les deux centres autour de la structuration de données biomédicales et d’un modèle de raisonnement pour la recherche biologique et le développement de médicaments.
Current AI x SPRIND Current AI est un partenariat global né au Sommet de l’IA, sous l’impulsion de DeepMind, de Salesforce, d’AI Collaborative (initiative d’Omidyar Group), du ministère français de l’Europe et des Affaires étrangères et de trois fondations (Ford, MacArthur, McGovern).
SPRIND est l’agence fédérale allemande pour l’innovation de rupture.
Les deux parties travailleront sur l’application de l’IA aux données de santé.
Deutsche Telekom (Allemagne) x PhysicsX (Angleterre) L’entreprise anglais va exploiter le cloud du groupe allemand pour déployer sa plate-forme d’ingénierie fondée sur de l’IA physique. Le partenariat court pour 3 ans.
Doctolib (France) Pas de partenariat, mais un engagement à investir dans le système de santé allemand.
ESTIA (European Sovereign Tech Industry Alliance) Naissance de cette alliance qui réunit A1, Airbus, Dassault Systèmes, Deutsche Telekom, Evroc, OpenNebula Systems, Orange, OVHcloud, Post Luxembourg, Schwarz Digits, Sopra Steria et TIM.
Helsing (Allemagne) x Mistral AI (France) Nouvelle phase de collaboration, axée sur la conception de modèles vision-langage pour la défense et la sécurité.
ICEYE (Finlande) Ce fabricant de micro-satellites a constitué un joint-venture avec le groupe allemand Rheinmetall (armement et équipement automobile).
Legora (Suède) Cette legaltech a annoncé vouloir doubler son effectif sur un an et établit des points de présence supplémentaires en Europe.
MBDA (France) x Rheinmetall (Allemagne) x SPREAD (Allemagne) SPREAD contribue au jumeau numérique de défense de Rheinmetall et à l’automatisation de la validation chez MBDA (aéronautique, spatial et armement).
Mercedes-Benz (Allemagne) Engagement à collaborer avec les start-up et les fournisseurs de modèles d’IA européens.
Multiverse (Angleterre) Cette edtech s’est engagé à ouvrir un bureau en Allemagne. Elle compte former, sur place, 100 000 personnes à l’IA en 5 ans.
Nextcloud (Allemagne) L’entreprise s’engage à investir « plus de 250 M€ » dans son programme Sovereignty 2030 pour « faire de l’IA ouverte souveraine une réalité en Europe ».
Otto Group (Allemagne) Engagement à investi 350 M€ sur 3 ans pour faire évoluer le e-commerce, notamment à renfort de GenAI.
SAP (Allemagne) x Mistral AI (France) Extension du partenariat à travers lequel SAP fournit les modèles Mistral via sa Business Technology Platform (voir notre article à ce sujet).
Siemens Engagement à développer un « écosystème européen de données industrielles » qui alimentera des modèles de fondation industriels.
SPRIND Lancement, en juin 2026, d’un défi « Next Frontier AI » doté de 125 M€. Objectif : faire émerger des labos européens exporant des « approches alternatives » de l’IA, en particulier la frugalité en données et en énergie.

À cette même occasion, EU AI Champions a déclaré que 20 Md€ avaient été engagés sur les 150 Md€ alloués.

Son document référent reste le rapport « Un agenda ambitieux pour l’IA européenne » que General Catalyst avait publié au Sommet de l’IA 2025

Illustration générée par IA

The post Un an après, que devient l’initiative EU AI Champions ? appeared first on Silicon.fr.

  •  

L’infrastructure à l’ère de l’IA : les choix techniques qui engagent l’avenir

L’adoption de l’IA en entreprise ne se limite plus à des expérimentations et des proof of concept. Pour l’industrialiser, il est désormais nécessaire de repenser en profondeur l’infrastructure IT, avec des choix structurants qui engagent l’organisation sur le long terme. C’est précisément l’objet de cette matinale organisée par Silicon.

La première table ronde attaque un sujet majeur : « Cloud, On-premise ou Hybride : Quel socle technique pour maîtriser les coûts et la puissance de calcul ? »

Face à l’explosion des besoins en puissance de calcul, les directions IT doivent arbitrer entre l’internalisation de GPU pour garder le contrôle, le recours au cloud pour sa flexibilité, ou une approche hybride. Jean-Jacques Mok, Cloud Program Manager chez MATMUT, et Grégoire Martinon, AI Research Director chez EMERTON, partageront leurs retours d’expérience sur ces décisions où se mêlent performance, souveraineté des données et maîtrise des coûts.

Sécurité et résilience, deux piliers non négociables

L’intelligence artificielle amplifie les risques autant qu’elle offre d’opportunités. La matinale Silicon accorde une place centrale aux enjeux de cybersécurité et de continuité d’activité, deux priorités absolues pour tout CISO.

La seconde table ronde abordera cet enjeu crucial : « De la conception à la production : sécuriser les pipelines et gouverner la donnée à l’ère des LLM ». Avec Chahir Al Echi, responsable du service Experts Cybersécurité à la Caisse des dépôts, et Franck Rouxel de la Fédération Française de Cybersécurité, les échanges porteront sur la gouvernance des données à l’ère des LLM, la protection des modèles, et l’industrialisation sécurisée de l’IA. Car déployer un modèle d’IA en production, c’est ouvrir de nouvelles surfaces d’attaque qu’il faut anticiper et protéger.

Un format pensé pour les décideurs IT

Le programme alterne intelligemment tables rondes thématiques et interventions de partenaires technologiques (Vertiv, Fivetran), permettant de croiser les perspectives stratégiques et les approches techniques.

Pour les CIO, cet événement permet de confronter leurs choix d’infrastructure aux retours d’expérience de pairs confrontés aux mêmes dilemmes : où placer le curseur entre performance et coûts ? Comment justifier des investissements massifs en GPU ?

Pour les CISO, c’est l’occasion de comprendre comment sécuriser des chaînes de traitement IA complexes, où les données sensibles circulent entre multiples environnements, et comment assurer la résilience face à des menaces de plus en plus sophistiquées.

Pour les CTO, les échanges éclaireront les arbitrages techniques entre différentes architectures, et les critères de choix pour bâtir un socle évolutif capable d’absorber la croissance exponentielle des usages IA.

La Matinale Silicon  vous propose deux heures pour prendre de la hauteur, confronter ses réflexions à celles d’autres décideurs, et repartir avec des clés concrètes pour l’action.

Rejoignez-nous le 19 février en vous inscrivant ici.

The post L’infrastructure à l’ère de l’IA : les choix techniques qui engagent l’avenir appeared first on Silicon.fr.

  •  

Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel »

L’IA générative n’est plus seulement utilisée pour développer des malwares : elle alimente aussi leur exécution.

En novembre 2025, Google avait proposé une analyse à ce sujet. Il avait donné plusieurs exemples. Dont celui d’un dropper VBScript faisant appel à l’API Gemini pour l’aider à obscurcir son code.

L’analyse est reprise en source dans l’International AI Safety Report 2026. Il s’agit du rapport « officiel » préfigurant le Sommet de l’IA qui se tiendra en Inde du 16 au 20 février. Comme celui de l’an dernier, il donne un instantané de la compréhension scientifique des IA généralistes, sous l’angle de la sûreté. Parmi les experts impliqués, il y a, côté français, Jonathan Collas  conseiller industrie et numérique au SGDSN. Et Gaël Varoquaux (Inria), chef de projet pour le consortium Scikit-learn.

Pour cette édition, la définition des « risques émergents » a été restreinte. Il s’agit désormais de ceux « qui naissent à la frontière des capacités de l’IA ». Une manière, nous explique-t-on, de mieux se poser en complément à des initiatives telles que le panel scientifique de l’ONU sur l’IA.

Des IA plus persuasives, mais une influence « non démontrée à l’échelle »

Depuis l’an dernier, les systèmes dit de raisonnement se sont répandus. Les performances en mathématiques, code et sciences en ont particulièrement bénéficié. Côté méthodes d’entraînement, le rapport met en avant la distillation, avec l’exemple de DeepSeek-R1, dont les chaînes de pensée ont nourri DeepSeek-V3.

Des avancées, il y en a aussi eu sur le contenu que génèrent les IA. Constat, dans les grandes lignes : il est devenu plus difficile à détecter. Pour l’illustrer, le rapport cite, entre autres, les observations de chercheurs de l’université de Californie à San Diego sur un test de Turing avec GPT-4o. Dans 77 % des cas, les participants ont considéré comme d’origine humaine un texte en fait créé par le LLM.
Une autre expérience citée émane d’UC Berkeley. Elle a porté sur le clonage de voix. Dans 80 % des cas, les participants ont pris l’IA pour le locuteur d’origine.

Autre étude d’UC Berkeley, autre aspect : les capacités de persuasion dont les IA font preuve. Elles se montrent parfois plus efficaces que l’humain. Les preuves en ce sens « se sont accumulées » ces derniers mois, précise le rapport, qui en dresse un tableau récapitulatif. Centré sur les effets négatifs (propagande politique, notamment), il témoigne cependant aussi d’effets potentiellement positifs, dont la réduction de l’adhésion aux théories du complot.

L’efficacité du contenu IA par rapport au contenu que crée l’humain n’est toutefois pas démontrée à l’échelle, nous explique-t-on. Cela peut s’expliquer par le coût de distribution et par l’effet de balance que suscite, en conditions réelles, l’exposition à des points de vue antagonistes.

Cybersécurité : pas encore d’IA à tout faire, même si la détection de vulnérabilités est acquise

Sur le volet cyber, la difficulté à établir des relations de cause à effet complique l’estimation du rôle de l’IA dans la sévérité et l’échelle des attaques.

Les LLM se révèlent en tout cas performants pour découvrir des vulnérabilités. À ce sujet, on nous mentionne le dernier DARPA AI Cyber Challenge. Lors de cette compétition, un système agentique s’est hissé dans les hauteurs du classement en découvrant 77 % des failles.

Malgré ces progrès, aucune attaque intégralement autonome n’a pour le moment été signalée. Au moins un incident s’en est néanmoins approché. Il a impliqué les services d’Anthropic. Celui-ci s’en est fait l’écho en novembre 2025, estimant que l’attaquant avait automatisé, par ce biais, 80 à 90 % du travail, l’humain n’intervenant que pour des décisions critiques.

De manière générale, le rapport invite à ne pas surestimer le potentiel actuel des IA. Ne serait-ce que parce que la plupart des évaluations n’englobent que des compétences isolées ; pas des attaques de bout en bout. Jusqu’ici, les outils à disposition ont surtout accéléré ou mise à l’échelle des méthodes existantes.

L’évolution de la balance entre usages offensifs et défensifs dépendra des choix sur l’accès aux modèles, le financement de la recherche et les normes de déploiement. Le manque de méthodes standards d’assurance qualité pour les outils IA, par exemple, complique leur adoption dans des secteurs critiques. Alors que dans le même temps, les acteurs de la menace n’ont pas cette contrainte…

Conscience situationnelle ne rime pas avec perte de contrôle

Quant aux dysfonctionnements et aux risques que cela implique, il y a, dans le rapport, à boire et à manger.

Des références à plusieurs études rappellent que des modèles ont démontré des capacités de conscience situationnelle. Autrement dit, une aptitude à détecter l’environnement dans lequel ils évoluent. De là la possibilité de se comporter différemment dans un scénario d’évaluation que dans le monde réel. Ou à dégrader artificiellement ses performances pour éviter des restrictions de déploiement. Ou encore à contourner sciemment des garde-fous pour remplir à tout prix un objectif, tout en le niant par après.

Le risque d’une perte de contrôle sur le long terme demeure cependant faible, faute de capacités à maintenir un fonctionnement autonome sur la durée.
Certes, cette durée s’est allongée dans quelques disciplines, à commencer par le codage. Mais un seul grain de sable peut faire dérailler la machine, comme l’illustre une étude universitaire axée sur la perturbation des systèmes langage-vision à partir d’une pop-up.

Le biais d’automatisation s’amplifie

Concernant l’impact de l’IA sur le marché du travail, le rapport cite des études – au Danemark et aux États-Unis – qui n’ont pas démontré de corrélation forte. Mais il en mentionne aussi plusieurs ayant conclu à un déclin de la demande en profils juniors.

L’amplification du « biais d’automatisation » apparaît plus claire. Déjà prononcé avec les systèmes automatisés « non IA », le phénomène se perpétue au contact des LLM. Le rapport cite deux études qui en témoignent. L’une démontre la tendance des utilisateurs d’outils d’assistance à l’écriture à adopter le point de vue que suggère le modèle. L’autre met en lumière le processus des raccourcis mentaux : sur une tâche d’annotation assistée, les participants ont moins corrigé les suggestion erronées venant d’une IA lorsque cela exigeait un effort supplémentaire.

Illustration générée par IA

The post Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel » appeared first on Silicon.fr.

  •  

Naval Group et Thales accélèrent dans l’IA de défense souveraine

Naval Group vient d’annoncer son entrée au capital de CortAIx, l’accélérateur d’IA créé par Thales en 2024, marquant une étape stratégique dans la convergence des industries françaises de défense sur le terrain de l’IA.

L’opération, dont le montant reste confidentiel, représente 20% du capital de la division française de CortAIx. Elle s’inscrit dans un engagement pluriannuel de coopération entre les deux groupes, tant sur le volume d’activité que sur les cas d’usage. Naval Group rejoint par ailleurs le conseil d’administration de l’entité, consolidant ainsi une alliance structurante autour des technologies critiques de demain.

Une IA au cœur des systèmes de combat collaboratif

L’objectif affiché est de mutualiser les compétences en matière d’intelligence artificielle appliquée au combat collaboratif, aux systèmes d’aide à la décision et à la guerre électronique. Quinze ingénieurs de Naval Group rejoindront dès mars les équipes de CortAIx, qui comptent quelque 800 spécialistes répartis sur cinq sites. Un nouveau centre de recherche à Ollioules (Var) ouvrira dès mai, renforçant la proximité entre les équipes R&D des deux partenaires.

« Innover dans le secteur de la défense requiert de plus en plus d’intelligence artificielle. C’est un démultiplicateur de performance opérationnelle », souligne Éric Papin, directeur technique de Naval Group dans les Echos. De son côté, Mickael Brossard, directeur de CortAIx, évoque une « mutualisation très forte » destinée à accélérer la montée en puissance de solutions souveraines et sécurisées.

Des technologies critiques pour la souveraineté européenne

Les ingénieurs de CortAIx développent depuis deux ans des modèles d’IA destinés à des applications sensibles : capteurs du Rafale, radars de surveillance, reconnaissance faciale ou pilotage d’essaims de drones. Ces technologies opèrent à la fois dans des environnements embarqués et en data centers sécurisés, en partenariat avec des acteurs français tels que Mistral AI.

Thales et Naval Group pourront également s’appuyer sur la puissance de calcul du supercalculateur inauguré par l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), livré en 2025 par HPE et Orange, pour le traitement de données classifiées.

Un écosystème français en plein foisonnement

Cette union s’inscrit dans un contexte d’effervescence autour de l’IA de défense en France. Dassault Aviation a déjà noué un partenariat technologique avec CortAIx fin 2025, tandis que sa participation dans la start-up Harmattan AI, valorisée 1,4 milliard $, témoigne de l’émergence d’un tissu industriel compétitif.

L’État, actionnaire à 62 % de Naval Group et 27 % de Thales, joue un rôle d’amplificateur dans cette stratégie de souveraineté industrielle et numérique. L’articulation de ces champions nationaux autour de CortAIx vise à positionner la France parmi les leaders mondiaux de l’IA de défense, à l’heure où les budgets militaires européens connaissent une croissance sans précédent.

The post Naval Group et Thales accélèrent dans l’IA de défense souveraine appeared first on Silicon.fr.

  •  
❌