Vue normale

Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud

9 janvier 2026 à 15:59

Snowflake a signé un accord définitif pour le rachat d’Observe, une jeune pousse spécialisée dans l’observabilité basée en Californie et historiquement construite sur l’architecture de données de Snowflake.

Selon The Information, le montant du deal serait d’environ 1 milliard $, ce qui en ferait l’un des plus importants rachats de startup de Snowflake.

La finalisation de l’acquisition est attendue au cours de l’année 2026, sous réserve des conditions habituelles de clôture et d’éventuelles approbations réglementaires.

Observe propose une plateforme d’observabilité capable de collecter et corréler logs, métriques et traces afin d’aider les équipes à diagnostiquer les incidents et surveiller les performances applicatives. La solution s’appuie sur une architecture de graphe de contexte et sur un langage de requête maison (OPAL) pour l’analyse de séries temporelles, avec des fonctions d’assistant IA pour les tâches de troubleshooting et de SRE.

La startup s’est différenciée par un modèle conçu pour ingérer de très grands volumes de télémétrie à moindre coût, en tirant parti du stockage objet et du calcul élastique de Snowflake. Elle revendique plusieurs pétaoctets de données ingérées par mois.

L’observabilité au cœur de l’AI Data Cloud

Snowflake prévoit d’intégrer directement les capacités d’Observe dans son AI Data Cloud, en considérant la télémétrie (logs, métriques, traces) comme des données « de première classe » au même titre que les autres données analytiques.

L’architecture cible repose sur des standards ouverts, notamment Apache Iceberg pour le stockage de tables et OpenTelemetry pour la collecte de données d’observabilité, afin de faciliter l’interopérabilité avec l’écosystème existant.

L’éditeur met en avant la possibilité pour les clients de conserver 100% de leurs données d’observabilité au sein de Snowflake, avec des promesses de réduction des coûts pouvant aller jusqu’à 60% par rapport aux solutions traditionnelles basées sur l’échantillonnage et des durées de rétention courtes.

Du point de vue de Snowflake, l’observabilité devient un enjeu central au moment où les entreprises déploient des agents et applications d’IA de plus en plus complexes, pour lesquels la fiabilité est présentée comme une exigence métier autant que technique.

En absorbant Observe, Snowflake veut offrir une chaîne complète : ingestion, gouvernance et analyse des données métier et de télémétrie, puis construction et supervision d’agents et de modèles, dans un environnement unifié.

L’éditeur positionne la future offre comme un socle d’observabilité pour agents d’IA, capable de gérer des volumes de télémétrie allant du téraoctet au pétaoctet, en s’appuyant sur l’élasticité de son moteur et sur des workflows de résolution assistés par IA.

Un pas de plus vers le marché des opérations IT

Avec ce rachat, Snowflake étend son périmètre au-delà de la seule gestion de données pour entrer plus directement sur le marché des logiciels de gestion des opérations IT, estimé à plus de 50 milliards $ et en croissance d’environ 9% par an.

L’intégration d’Observe renforce la réponse de Snowflake face aux acteurs de l’observabilité et du monitoring (Datadog, Splunk, New Relic, Dynatrace, etc.) ainsi que face aux grands clouds généralistes qui combinent déjà infrastructure, données et outils de supervision.

Pour les clients existants, l’enjeu sera de mesurer dans les prochains mois la maturité des intégrations, la politique tarifaire associée aux volumes de télémétrie et la capacité réelle de la plateforme unifiée à remplacer ou compléter les outils d’observabilité déjà en place.

The post Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud appeared first on Silicon.fr.

{ Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu

9 janvier 2026 à 12:07

L’observabilité a beaucoup évolué au cours de la dernière décennie, à l’époque où on l’appelait encore monitoring. Si auparavant, la technologie servait principalement à maintenir les services et les systèmes en état de marche, l’essor des expériences numériques en fait un outil essentiel pour la continuité d’activité, alimentant la prise de décision pour améliorer la satisfaction des clients, prévenir une défaillance ou même pour déterminer quels produits développer.

Aujourd’hui, l’IA déclenche un nouveau séisme et les pratiques d’observabilité doivent assumer des responsabilités plus lourdes encore : superviser les workloads complexes et dynamiques de l’IA pour en garantir la performance et la fiabilité. Cette évolution fait de l’observabilité non seulement un véritable fondement de l’expérience client, mais aussi un facteur clé d’innovation et de croissance dans les entreprises axées sur l’IA.

De la réaction à l’anticipation avec l’observabilité prédictive

 Pendant des années, l’observabilité s’est limitée à répondre aux questions : « Qu’est-ce qui s’est passé ? » et « Pourquoi ? ». En 2026, ce paradigme bascule radicalement. Les plateformes d’observabilité deviennent des systèmes d’intelligence pilotés par l’IA, capables non seulement d’expliquer les incidents, mais de les anticiper, de les corriger automatiquement et d’effectuer une auto-réparation pilotée par une IA générative et agentique.

Cette révolution s’appuie sur des LLM et des techniques de recherche augmentée (RAG) appliquées à la télémétrie privée des entreprises : les cahiers de procédures s’automatisent, la corrélation des données s’accélère et l’analyse des causes profondes devient instantanée. Plus besoin de naviguer dans des tableaux de bord complexes ; le langage naturel devient l’interface privilégiée pour interroger les données d’observabilité.

L’observabilité au service de la stratégie métier

Mais cette IA ne doit pas servir qu’à optimiser les performances techniques. Les organisations les plus matures établissent une corrélation directe entre les signaux techniques et l’impact métier réel. Les indicateurs évoluent : ils ne mesurent plus seulement la latence ou la disponibilité des serveurs, mais le revenu à risque, le coût par demande et l’impact sur l’expérience client.

Cette approche business-centric redéfinit les priorités IT. Chaque décision d’infrastructure, chaque investissement en observabilité, doit être justifié par son impact sur les SLO (objectifs de niveau de service), le MTTR (Mean Time To Resolution) et, à terme, sur la satisfaction et la fidélité des clients. 2026 marque la fin de l’IT en silo, déconnectée des enjeux métiers.

Maîtriser les coûts : l’enjeu oublié de l’observabilité

 Les factures d’observabilité explosent. C’est malheureusement une réalité pour de nombreuses entreprises. Elles font face à des surcoûts imprévus liés à l’ingestion de données, à la cardinalité élevée et aux fonctionnalités premium. En conséquence, beaucoup consolident leurs chaînes d’outils fragmentées et renforcent le contrôle des coûts liés à l’ingestion, au stockage et à la conservation des données. Pour cela, les organisations se tournent vers les plateformes unifiées, la consolidation étant perçue comme un gain à la fois en termes de coûts et de productivité.

Mais attention : la consolidation ne suffit pas. En 2026, les utilisateurs finaux devront aller au-delà des économies globales et examiner attentivement le modèle de facturation automatique de chaque fournisseur. Les prix liés à ces surcoûts peuvent encore générer des factures d’un montant inattendu si la croissance des données n’est pas étroitement contrôlée.

De même, les acheteurs doivent évaluer la puissance des capacités de gestion du pipeline de données de chaque plateforme (filtrage, routage, fédération et stockage hiérarchisé, par exemple) afin de pouvoir déterminer activement quelles données sont collectées, où elles sont stockées et combien de temps elles seront conservées. Ce n’est qu’en combinant la consolidation avec une facturation transparente et des contrôles rigoureux du pipeline que les organisations peuvent maintenir les dépenses d’observabilité à un niveau prévisible et alignées sur la valeur qu’elles tirent des données. 

OpenTelemetry : la norme qui libère

L’émergence d’OpenTelemetry (OTel) comme standard par défaut marque un tournant majeur. Finie l’époque des agents propriétaires verrouillant les organisations dans des écosystèmes fermés : OTel offre une architecture ouverte et interopérable pour l’ingestion de métriques, de logs et de traces.

Ce qui différenciera les organisations en 2026, ce ne sera plus l’ingestion des données, mais ce qu’elles en font après : analyses à haute cardinalité, espaces de travail guidés par l’IA, workflows intelligents. L’ouverture du standard crée un terrain de jeu égal, où l’innovation se concentre sur la valeur, pas sur le verrouillage technologique.

L’observabilité au cœur de l’IA et du cloud complexe

 L’explosion des workloads d’IA et des architectures cloud hyperscale impose une nouvelle norme : l’observabilité des LLM et des agents IA. En 2026, superviser la latence, le coût et le comportement des modèles de langage deviendra aussi critique que de monitorer une base de données. La gouvernance des agents IA, la visibilité des pipelines IA, le suivi des ressources GPU… autant de domaines où l’observabilité devient indispensable.

Parallèlement, les environnements hybrides et à l’edge demeurent ancrés dans le cloud natif et Kubernetes, mais l’observabilité y joue un rôle nouveau : elle devient le catalyseur d’expériences numériques résilientes basées sur l’IA et les API.

En 2026, l’observabilité ne sera pas une simple évolution technologique. C’est une refonte complète du modèle : de la réaction à l’anticipation, de l’infrastructure aux résultats métiers, de la complexité à la transparence, et de l’isolement à l’intégration écosystémique. Les organisations qui maîtriseront ces quatre piliers (observabilité prédictive, alignement métier, maîtrise des coûts et standardisation ouverte) seront celles qui tireront le maximum de valeur de leurs données et de leurs systèmes. Les autres risquent de rester bloquées dans une observabilité fragmentée, coûteuse et inefficace.

*Stéphane Estevez est EMEA Observability Market Advisor chez Splunk

The post { Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu appeared first on Silicon.fr.

Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie

9 janvier 2026 à 10:30

Lock-in, contrôle limité sur les mises à jour logicielles, exposition potentielle à la surveillance et aux réglementations étrangères… Finalement, le secteur européen de l’énergie est largement confronté aux mêmes risques que d’autres industries.

Ce constat ressort d’une étude réalisée à la demande de l’UE. Elle dresse un état des lieux de la dépendance à des solutions numériques étrangères. Une section est dédiée au secteur de l’énergie, avec un focus sur les solutions cyber qui y sont déployées. Comme au niveau global, les fournisseurs américains – et, dans une moindre mesure, israéliens – dominent.

Sécurité réseau

Firewalls : Check Point (Israël), Fortinet (USA), Palo Alto Networks (USA), Siemens (Allemagne), Stormshield (France).

IDS/IPS : Cisco (USA), Dragos (USA), Nozomi Networks (USA, mais en projet d’acquisition par l’entreprise japonaise Mitsubishi Electric), Siemens (Allemagne), Stormshield (France).

Segmentation : Schneider Electric (France), Siemens (Allemagne), TDi (USA), Waterfall Security (Israël).

Endpoints

CrowdStrike (USA), McAfee (USA), Microsoft (USA), SentinelOne (USA), Sophos (Royaume-Uni), Symantec (USA ; acquis en 2019 par Broadcom), Trellix (USA), Trend Micro (Japon).

IAM

Gestion des patchs : Ivanti (USA), ManageEngine (Inde), Microsoft (USA), SolarWinds (USA).

RBAC : IBM (USA), Micro Focus (Royaume-Uni, mais acquis en 2023 par l’entreprise canadienne OpenText), Okta (USA), SailPoint (USA), Savyint (USA).

MFA : Duo Security (USA, acquis par Cisco en 2018), Microsoft (USA), RSA (USA), Yubico (Suède).

PAM : BeyondTrust (USA), CyberArk (Israël ; acquis par Palo Alto Networks en 2025), One Identity (USA), Thycotic (USA ; fusionné en 2021 avec Centrify pour donner Delinea).

Supervision et réponse à incident

SIEM : ArcSight (USA, mais acquis par Micro Focus en 2023), IBM (USA), LogRhythm (USA, fusionné dans Exabeam en 2024), Splunk (USA, acquis par Cisco en 2024).

XDR/SOAR : Armis (USA ; en projet d’acquisition par ServiceNow), Claroty (USA), Dragos (USA), Nozomi Networks (USA).

Protection des données

Chiffrement : IBM (USA), Microsoft (USA), Symantec (USA), Thales (France).

Détection d’anomalies : Acronis (Suisse), Commvault (USA), Rubrik (USA), Veeam (Suisse).

Un secteur plus enclin à « accepter » un risque cyber

La domination américaine est plus nette sur la partie IT, même si des fournisseurs spécialisés sont parvenus à se positionner sur l’OT.

Quasi absente dans les solutions cyber, la Chine est en revanche très présente sur les équipements. Elle fournit par exemple approximativement 80 % des panneaux solaires de l’UE… et les vulnérabilités – voire backdoors – potentielles qui vont avec.

L’ENISA s’est dernièrement penchée sur le cas du secteur de l’énergie. Elle en a conclu à une résilience très inégale, par exemple entre l’électricité (relativement mature) et le gaz (en retard sur la préparation et la réponse, en particulier). Il faut dire que les professionnels du secteur s’affirment souvent prêts à accepter un risque cyber accru en contrepartie à davantage de possibilités d’innovation.

Illustration générée par IA

The post Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie appeared first on Silicon.fr.

❌