Vue normale

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

13 février 2026 à 12:16

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA

13 février 2026 à 11:06

Proofpoint annonce l’acquisition d’Acuvity, une société spécialisée dans la sécurité et la gouvernance de l’intelligence artificielle. L’opération vise à intégrer à sa plateforme de des capacités de visibilité et de contrôle sur les usages de l’IA au sein des environnements de travail.

L’essor rapide de l’IA générative dans les entreprises crée de nouveaux défis en matière de sécurité et de conformité. Les déploiements d’agents autonomes, d’assistants conversationnels ou d’applications connectées aux grands modèles de langage exposent les organisations à des risques émergents : perte de données sensibles, fuites de propriété intellectuelle, non-conformité réglementaire ou encore attaques de type prompt injection.

L’intégration d’Acuvity devrait permettre à Proofpoint d’apporter une surveillance en temps réel des interactions entre utilisateurs, données et agents d’IA. La technologie d’Acuvity, conçue pour détecter et encadrer les usages internes comme externes de l’IA, offre une cartographie complète des points d’accès utilisés (endpoints, navigateurs, outils locaux ou infrastructures d’IA). Elle aide également à contrôler les données échangées avec les services d’IA tiers.

Selon Proofpoint, cette acquisition complète ses offres existantes en sécurité des collaborateurs et en protection de l’information, afin d’y ajouter une couche de gouvernance des usages d’IA dans les flux de travail critiques.

Ni le montant de la transaction ni les termes précis de l’intégration n’ont été dévoilés.

Image : © DR

The post Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA appeared first on Silicon.fr.

{ Tribune Expert } – Le vrai prix de l’ingestion de données

13 février 2026 à 10:42

Les plateformes d’ingestion de données sont souvent perçues comme un investissement coûteux. Cette perception, centrée sur leur prix affiché, ne tient pas compte du coût réel des solutions développées en interne. Entre dette technique, instabilité opérationnelle et pression sur les équipes, le choix de l’ingestion mérite d’être réévalué à l’aune du coût total de possession.

Comparer des prix ne suffit plus

Dans un contexte d’optimisation budgétaire permanente, l’ingestion de données est encore trop souvent considérée comme un poste secondaire. Le raisonnement est connu : pourquoi payer une plateforme spécialisée quand une équipe interne peut construire des flux “maison” avec les outils disponibles ?

Ce calcul, en apparence rationnel, repose sur une illusion comptable. Il compare une dépense explicite à une dépense implicite. Il oppose une ligne budgétaire visible à une réalité économique éclatée, diffuse, sous-estimée. Et il fait perdre de vue l’essentiel ; dans un système d’information moderne, l’ingestion n’est pas un projet ponctuel, c’est une fonction continue, critique et structurante.

La fausse économie des pipelines internes

Le développement de pipelines en interne est perçu comme un levier de flexibilité. Il l’est, mais à un prix que peu d’entreprises sont capables de mesurer. Derrière chaque ingestion artisanale se cachent des heures de configuration, de patchs, de réajustements, de surveillance.

Ces tâches mobilisent des profils techniques hautement qualifiés, souvent en tension sur d’autres priorités. À mesure que les sources de données se multiplient, que les formats évoluent, que les systèmes en amont se transforment, ces pipelines deviennent fragiles, rigides, coûteux à faire évoluer.

Il ne s’agit plus d’outillage, mais de dette technique. Cette dette ne se voit pas sur une facture, mais pèse dans les délais, dans la qualité des données, dans la frustration des équipes. Elle enferme les entreprises dans une logique de réparation continue.

Chaque incident absorbe des journées entières, retarde des projets, impose des arbitrages entre maintien en conditions opérationnelles et développement de nouvelles capacités. Et surtout, elle crée une dépendance à des individus. Ce n’est pas le système qui garantit la fiabilité, ce sont des personnes-clés, difficilement remplaçables, dont l’indisponibilité ou le départ devient un risque opérationnel majeur.

L’ingestion instable contamine toute la chaîne de valeur

Ce qui dysfonctionne dans l’ingestion ne reste jamais confiné à l’IT. Lorsque les données n’arrivent pas à temps, ou arrivent incomplètes, ou dans un format inutilisable, c’est toute la chaîne de valeur qui vacille.

Les équipes métiers prennent des décisions sur la base d’informations erronées ou obsolètes. Les outils d’analyse produisent des indicateurs incohérents. Les alertes automatiques se déclenchent trop tard ou à tort. L’ensemble du système perd en fiabilité, et avec lui, la capacité de l’entreprise à se coordonner, à anticiper, à réagir.

Ce coût opérationnel est rarement chiffré, mais ses effets sont bien réels. Il ralentit les cycles de décision. Il détériore la confiance dans les données. Il alimente un climat de suspicion entre les équipes techniques et les métiers. Et il oblige les organisations à surdimensionner leur système de contrôle pour compenser ce que l’ingestion aurait dû fiabiliser en amont.

La perspective financière : sortir de l’illusion du gratuit

Pour les directions financières, cette situation pose un vrai problème de gouvernance. Ce n’est pas la préférence d’un outil sur un autre qui est en jeu, mais la capacité à appliquer une logique d’investissement cohérente.

Comparer une plateforme au coût apparent élevé à une solution interne supposément gratuite revient à nier l’existence des coûts cachés. Or, dans un système complexe, ces coûts invisibles finissent toujours par réapparaître, sous la forme de retards, de burn-out, de turn-over, de projets gelés ou avortés.

À l’inverse, une plateforme d’ingestion expose ses coûts. Elle formalise un engagement de service. Elle mutualise des efforts de maintenance, d’évolution, de conformité. Et surtout, elle introduit de la prévisibilité. Elle permet de planifier, de budgéter, d’industrialiser. Elle transforme une dette en charge maîtrisée. La discipline financière rend visible ce qui est structurellement opaque.

La perspective technologique : l’infrastructure avant tout

Du côté des directions informatiques, le constat est encore plus limpide. L’ingestion ne fait pas partie des domaines où l’entreprise peut se différencier. Aucun client ne choisira un produit parce que ses pipelines sont faits maison. En revanche, tous les services numériques reposent sur des données fiables, disponibles, bien synchronisées. L’ingestion est donc une fonction d’infrastructure. Comme pour le réseau, la cybersécurité, ou encore le stockage, la question n’est pas d’innover, mais d’assurer. Et dans cette logique, l’externalisation à un outil robuste, éprouvé, maintenu, s’impose comme un choix de bon sens.

Confier l’ingestion à une plateforme dédiée permet aux équipes internes de se concentrer sur les vrais enjeux différenciants comme l’architecture, la gouvernance, la qualité et l’analyse. Continuer à bricoler l’ingestion en interne, c’est détourner des ressources rares de leur cœur de mission.

Ce n’est pas la plateforme qui coûte cher, c’est l’improvisation

Dire qu’une plateforme d’ingestion est trop chère, c’est se tromper d’indicateur. Ce qui pèse le plus lourd dans les bilans, ce ne sont pas les lignes de licence, ce sont les heures perdues, les erreurs accumulées, les décisions mal orientées. Ce n’est pas la dépense visible qui menace la compétitivité, c’est l’instabilité tolérée. Dans un environnement où la donnée est vitale, chaque faille d’ingestion est une brèche dans le fonctionnement global.

L’heure n’est plus à la comparaison des devis. Elle est à la mesure de la résilience. Et à ce jeu-là, la question n’est plus de savoir combien coûte une plateforme, mais l’absence de celle-ci.

*Virginie Brard est RVP France & Benelux chez Fivetran

The post { Tribune Expert } – Le vrai prix de l’ingestion de données appeared first on Silicon.fr.

Anthropic lève 30 milliards $, porté par ses outils de codage

13 février 2026 à 10:28

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

❌