Vue normale
Capture de Maduro au Venezuela : oui, l'indice pizza du Pentagone est toujours aussi fiable
Les commandes de pizzas se sont multipliés au Pentagone et à Washington quelques heures avant l'attaque américaine sur le Venezuela.
— Permalien
Europol alerte sur le crime autonome à l’horizon 2035
IA : CE QUE CACHE LA BULLE [ARGENT MAGIQUE] - YouTube
Est-ce que l’IA est une bulle financière sur le point d’exploser ? Est-ce que cette nouvelle technologie va nous permettre de nous libérer du travail ? C’est ce que nous allons voir dans ce nouveau Argent Magique !
SOUTENIR LE COLLECTIF :
https://stup.media/don
Soutenir directement le programme :
https://fr.ulule.com/argentmagique/
Journalistes : Marino et @Heu7reka
Co-auteur : Arnaud Gantier (@StupidEco )
Réalisation : Valentin Levetti
Montage : @SplineLND
Production : https://stup.media/
--
LIEN DES SOURCES :
https://docs.google.com/document/d/1CYGva4dGfINo4iK1dZkvEN7k3DfadjqyxKj7YQEr46s/edit?usp=sharing
— Permalien
Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud
Snowflake a signé un accord définitif pour le rachat d’Observe, une jeune pousse spécialisée dans l’observabilité basée en Californie et historiquement construite sur l’architecture de données de Snowflake.
Selon The Information, le montant du deal serait d’environ 1 milliard $, ce qui en ferait l’un des plus importants rachats de startup de Snowflake.
La finalisation de l’acquisition est attendue au cours de l’année 2026, sous réserve des conditions habituelles de clôture et d’éventuelles approbations réglementaires.
Observe propose une plateforme d’observabilité capable de collecter et corréler logs, métriques et traces afin d’aider les équipes à diagnostiquer les incidents et surveiller les performances applicatives. La solution s’appuie sur une architecture de graphe de contexte et sur un langage de requête maison (OPAL) pour l’analyse de séries temporelles, avec des fonctions d’assistant IA pour les tâches de troubleshooting et de SRE.
La startup s’est différenciée par un modèle conçu pour ingérer de très grands volumes de télémétrie à moindre coût, en tirant parti du stockage objet et du calcul élastique de Snowflake. Elle revendique plusieurs pétaoctets de données ingérées par mois.
L’observabilité au cœur de l’AI Data Cloud
Snowflake prévoit d’intégrer directement les capacités d’Observe dans son AI Data Cloud, en considérant la télémétrie (logs, métriques, traces) comme des données « de première classe » au même titre que les autres données analytiques.
L’architecture cible repose sur des standards ouverts, notamment Apache Iceberg pour le stockage de tables et OpenTelemetry pour la collecte de données d’observabilité, afin de faciliter l’interopérabilité avec l’écosystème existant.
L’éditeur met en avant la possibilité pour les clients de conserver 100% de leurs données d’observabilité au sein de Snowflake, avec des promesses de réduction des coûts pouvant aller jusqu’à 60% par rapport aux solutions traditionnelles basées sur l’échantillonnage et des durées de rétention courtes.
Du point de vue de Snowflake, l’observabilité devient un enjeu central au moment où les entreprises déploient des agents et applications d’IA de plus en plus complexes, pour lesquels la fiabilité est présentée comme une exigence métier autant que technique.
En absorbant Observe, Snowflake veut offrir une chaîne complète : ingestion, gouvernance et analyse des données métier et de télémétrie, puis construction et supervision d’agents et de modèles, dans un environnement unifié.
L’éditeur positionne la future offre comme un socle d’observabilité pour agents d’IA, capable de gérer des volumes de télémétrie allant du téraoctet au pétaoctet, en s’appuyant sur l’élasticité de son moteur et sur des workflows de résolution assistés par IA.
Un pas de plus vers le marché des opérations IT
Avec ce rachat, Snowflake étend son périmètre au-delà de la seule gestion de données pour entrer plus directement sur le marché des logiciels de gestion des opérations IT, estimé à plus de 50 milliards $ et en croissance d’environ 9% par an.
L’intégration d’Observe renforce la réponse de Snowflake face aux acteurs de l’observabilité et du monitoring (Datadog, Splunk, New Relic, Dynatrace, etc.) ainsi que face aux grands clouds généralistes qui combinent déjà infrastructure, données et outils de supervision.
Pour les clients existants, l’enjeu sera de mesurer dans les prochains mois la maturité des intégrations, la politique tarifaire associée aux volumes de télémétrie et la capacité réelle de la plateforme unifiée à remplacer ou compléter les outils d’observabilité déjà en place.
The post Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud appeared first on Silicon.fr.

{ Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu
L’observabilité a beaucoup évolué au cours de la dernière décennie, à l’époque où on l’appelait encore monitoring. Si auparavant, la technologie servait principalement à maintenir les services et les systèmes en état de marche, l’essor des expériences numériques en fait un outil essentiel pour la continuité d’activité, alimentant la prise de décision pour améliorer la satisfaction des clients, prévenir une défaillance ou même pour déterminer quels produits développer.
Aujourd’hui, l’IA déclenche un nouveau séisme et les pratiques d’observabilité doivent assumer des responsabilités plus lourdes encore : superviser les workloads complexes et dynamiques de l’IA pour en garantir la performance et la fiabilité. Cette évolution fait de l’observabilité non seulement un véritable fondement de l’expérience client, mais aussi un facteur clé d’innovation et de croissance dans les entreprises axées sur l’IA.
De la réaction à l’anticipation avec l’observabilité prédictive
Pendant des années, l’observabilité s’est limitée à répondre aux questions : « Qu’est-ce qui s’est passé ? » et « Pourquoi ? ». En 2026, ce paradigme bascule radicalement. Les plateformes d’observabilité deviennent des systèmes d’intelligence pilotés par l’IA, capables non seulement d’expliquer les incidents, mais de les anticiper, de les corriger automatiquement et d’effectuer une auto-réparation pilotée par une IA générative et agentique.
Cette révolution s’appuie sur des LLM et des techniques de recherche augmentée (RAG) appliquées à la télémétrie privée des entreprises : les cahiers de procédures s’automatisent, la corrélation des données s’accélère et l’analyse des causes profondes devient instantanée. Plus besoin de naviguer dans des tableaux de bord complexes ; le langage naturel devient l’interface privilégiée pour interroger les données d’observabilité.
L’observabilité au service de la stratégie métier
Mais cette IA ne doit pas servir qu’à optimiser les performances techniques. Les organisations les plus matures établissent une corrélation directe entre les signaux techniques et l’impact métier réel. Les indicateurs évoluent : ils ne mesurent plus seulement la latence ou la disponibilité des serveurs, mais le revenu à risque, le coût par demande et l’impact sur l’expérience client.
Cette approche business-centric redéfinit les priorités IT. Chaque décision d’infrastructure, chaque investissement en observabilité, doit être justifié par son impact sur les SLO (objectifs de niveau de service), le MTTR (Mean Time To Resolution) et, à terme, sur la satisfaction et la fidélité des clients. 2026 marque la fin de l’IT en silo, déconnectée des enjeux métiers.
Maîtriser les coûts : l’enjeu oublié de l’observabilité
Les factures d’observabilité explosent. C’est malheureusement une réalité pour de nombreuses entreprises. Elles font face à des surcoûts imprévus liés à l’ingestion de données, à la cardinalité élevée et aux fonctionnalités premium. En conséquence, beaucoup consolident leurs chaînes d’outils fragmentées et renforcent le contrôle des coûts liés à l’ingestion, au stockage et à la conservation des données. Pour cela, les organisations se tournent vers les plateformes unifiées, la consolidation étant perçue comme un gain à la fois en termes de coûts et de productivité.
Mais attention : la consolidation ne suffit pas. En 2026, les utilisateurs finaux devront aller au-delà des économies globales et examiner attentivement le modèle de facturation automatique de chaque fournisseur. Les prix liés à ces surcoûts peuvent encore générer des factures d’un montant inattendu si la croissance des données n’est pas étroitement contrôlée.
De même, les acheteurs doivent évaluer la puissance des capacités de gestion du pipeline de données de chaque plateforme (filtrage, routage, fédération et stockage hiérarchisé, par exemple) afin de pouvoir déterminer activement quelles données sont collectées, où elles sont stockées et combien de temps elles seront conservées. Ce n’est qu’en combinant la consolidation avec une facturation transparente et des contrôles rigoureux du pipeline que les organisations peuvent maintenir les dépenses d’observabilité à un niveau prévisible et alignées sur la valeur qu’elles tirent des données.
OpenTelemetry : la norme qui libère
L’émergence d’OpenTelemetry (OTel) comme standard par défaut marque un tournant majeur. Finie l’époque des agents propriétaires verrouillant les organisations dans des écosystèmes fermés : OTel offre une architecture ouverte et interopérable pour l’ingestion de métriques, de logs et de traces.
Ce qui différenciera les organisations en 2026, ce ne sera plus l’ingestion des données, mais ce qu’elles en font après : analyses à haute cardinalité, espaces de travail guidés par l’IA, workflows intelligents. L’ouverture du standard crée un terrain de jeu égal, où l’innovation se concentre sur la valeur, pas sur le verrouillage technologique.
L’observabilité au cœur de l’IA et du cloud complexe
L’explosion des workloads d’IA et des architectures cloud hyperscale impose une nouvelle norme : l’observabilité des LLM et des agents IA. En 2026, superviser la latence, le coût et le comportement des modèles de langage deviendra aussi critique que de monitorer une base de données. La gouvernance des agents IA, la visibilité des pipelines IA, le suivi des ressources GPU… autant de domaines où l’observabilité devient indispensable.
Parallèlement, les environnements hybrides et à l’edge demeurent ancrés dans le cloud natif et Kubernetes, mais l’observabilité y joue un rôle nouveau : elle devient le catalyseur d’expériences numériques résilientes basées sur l’IA et les API.
En 2026, l’observabilité ne sera pas une simple évolution technologique. C’est une refonte complète du modèle : de la réaction à l’anticipation, de l’infrastructure aux résultats métiers, de la complexité à la transparence, et de l’isolement à l’intégration écosystémique. Les organisations qui maîtriseront ces quatre piliers (observabilité prédictive, alignement métier, maîtrise des coûts et standardisation ouverte) seront celles qui tireront le maximum de valeur de leurs données et de leurs systèmes. Les autres risquent de rester bloquées dans une observabilité fragmentée, coûteuse et inefficace.
*Stéphane Estevez est EMEA Observability Market Advisor chez Splunk
The post { Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu appeared first on Silicon.fr.

GitHub - microsoft/autogen: A programming framework for agentic AI
GeForce RTX 50 SUPER, Nvidia met tout en pause
NVIDIA aurait revu ses plans concernant les GeForce RTX 50 SUPER. Selon plusieurs sources, ce lancement serait en pause dans un contexte de coûts élevés et d’absence de concurrence
Cet article GeForce RTX 50 SUPER, Nvidia met tout en pause a été publié en premier par GinjFo.
Microsoft and PayPal Launch Copilot Checkout for In-Chat Purchases - gHacks Tech News
ça sent l'idée foireuse.
— Permalink
Predator Helios Neo 16S AI: Slim Gaming Laptop With Intel Core Ultra 9 And RTX 5070

Gmail bascule dans l’ère Gemini : votre boîte de réception va changer radicalement - Numerama
2 points me viennent en tête :
- Est-ce que mes correspondants sous Gmail vont encore recevoir mes mails ?
- Comment exploiter Gemini / détourner à partir d'un mail ?
— Permalink
Kioxia BG7 Series : un SSD M.2. NVMe décliné en trois formats (2230, 2242, 2280)
Un nouveau SSD est annoncé chez Kioxia : le BG7 Series. C'est un SSD M.2. NVMe qui profite d'une interface PCI Express 4.0 4x et qui exploite de la mémoire BiCS Flash TLC de 8ème génération.
The post Kioxia BG7 Series : un SSD M.2. NVMe décliné en trois formats (2230, 2242, 2280) first appeared on Bhmag.Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable »
Dans les couloirs de l’industrie musicale, l’annonce fait du bruit. Universal Music Group (UMG), premier major mondial de la musique, et Nvidia, poids lourd des semi-conducteurs et de l’IA, ont noué une alliance de long terme pour développer des modèles d’intelligence artificielle appliqués au catalogue du label.
L’objectif affiché : transformer en profondeur la découverte musicale, l’engagement des fans et les processus de création, tout en garantissant la protection des droits d’auteur.
Un modèle qui « pense » comme un mélomane
Au cœur du dispositif, on trouve Music Flamingo, le modèle audio-langage développé par Nvidia fin 2025. Cette technologie se distingue par sa capacité à analyser des morceaux de près de 15 minutes dans leur intégralité.
Contrairement aux systèmes traditionnels qui se contentent d’étiqueter par genre ou style, Music Flamingo décortique structure harmonique, instrumentation, paroles et trajectoires émotionnelles. Le tout pour reproduire, selon ses concepteurs, la façon dont un auditeur humain appréhende une œuvre.
Cette approche ouvre des perspectives inédites : fini les recherches par simple mot-clé, place aux requêtes par ambiance, contexte narratif ou résonance culturelle. Les plateformes de streaming adossées au catalogue d’UMG pourraient ainsi proposer des recommandations fondées sur des similarités musicales profondes plutôt que sur des playlists thématiques conventionnelles.
Trois axes de développement
Le partenariat s’articule autour de trois piliers. D’abord, la découverte musicale : les algorithmes permettront d’explorer le catalogue selon des critères émotionnels et structurels sophistiqués. Ensuite, l’engagement des fans : artistes et auditeurs pourront interagir avec la musique dans un environnement « conversationnel et contextuel », loin du simple listing de titres.
Troisième volet, et non des moindres : la création. Un incubateur réunissant auteurs, compositeurs et producteurs verra le jour dans des studios prestigieux comme Abbey Road à Londres ou Capitol Studios à Los Angeles. Mission : co-concevoir de nouveaux outils alimentés par l’IA. UMG martèle toutefois que ces technologies resteront des aides à la création humaine, et non des machines à générer automatiquement de la musique.
La question brûlante des droits d’auteur
Derrière les promesses technologiques se cache un enjeu majeur : celui de la propriété intellectuelle. UMG et Nvidia promettent une IA « responsable », intégrant dès la conception la protection des œuvres, l’attribution et la rémunération des créateurs. Une posture qui tranche avec les pratiques de certaines start-up, accusées d’avoir entraîné leurs modèles sur des catalogues commerciaux sans autorisation.
Pour UMG, ce partenariat avec un mastodonte comme Nvidia représente une opportunité de dicter les standards du marché, en conciliant innovation technologique et respect du cadre légal. Le groupe entend proposer un « antidote » à la prolifération de contenus générés par des IA génériques, en misant sur un acteur capable d’intégrer nativement les contraintes de copyright dans ses outils.
Un coup stratégique pour les deux camps
Pour l’industrie musicale, l’accord peut faire jurisprudence et ouvrir la voie à d’autres alliances entre majors, plateformes et fournisseurs d’IA. Il valorise les catalogues musicaux comme ressources stratégiques pour entraîner des modèles spécialisés et pourrait creuser l’écart entre services premium dotés d’une découverte « intelligente » et offres standard aux algorithmes classiques.
Côté Nvidia, le deal marque une nouvelle étape dans la conquête des industries culturelles. Après le jeu vidéo et la vidéo, le groupe démontre que ses GPUs, ses plateformes de modélisation et ses modèles pré-entraînés comme Music Flamingo peuvent s’adapter aux exigences spécifiques de la musique. Un positionnement stratégique au moment où la régulation de l’IA se durcit dans de nombreux pays.
Illustration : image générée par l’IA
The post Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable » appeared first on Silicon.fr.

Pourquoi le Paulownia peut vite devenir un arbre envahissant et problématique ?
Planter un Paulownia semble une bonne idée : pousse rapide, fleurs mauves superbes, bois léger. Pourtant, cet arbre impérial peut aussi devenir un invité encombrant.
L’article Pourquoi le Paulownia peut vite devenir un arbre envahissant et problématique ?, rédigé par Méline Kleczinski, est apparu en premier sur NeozOne.
AGIBOT Brings Its Humanoid Robot Lineup and Genie Sim 3.0, Built for Real-World Deployment

GeForce Now Is Finally Getting A Native Linux App

L’architecture Rubin propulse Nvidia dans une nouvelle ère de calcul IA
Jensen Huang annonce officiellement la disponibilité de Vera Rubin lors du CES. Le dirigeant du fabricant californien qualifie sa nouvelle architecture de pointe absolue en matière de matériel dédié à l’intelligence artificielle. Déjà en production, le système devrait monter en puissance durant le second semestre. Une accélération remarquable compte tenu des besoins exponentiels de puissance ... Lire plus
L'article L’architecture Rubin propulse Nvidia dans une nouvelle ère de calcul IA est apparu en premier sur Fredzone.Nvidia ambitionne de dominer l’écosystème robotique avec une stratégie inspirée d’Android
Le géant des processeurs graphiques déploie une offensive majeure dans la robotique généraliste au CES 2026. Son approche vise à reproduire le succès d’Android dans la téléphonie mobile en s’imposant comme plateforme incontournable pour les machines intelligentes. L’entreprise californienne dévoile simultanément des modèles fondamentaux, des environnements de simulation avancés et du matériel optimisé pour la ... Lire plus
L'article Nvidia ambitionne de dominer l’écosystème robotique avec une stratégie inspirée d’Android est apparu en premier sur Fredzone.Réduire au silence – Sophie Lemaître
«En France et dans le monde, les lois et le système judiciaire sont utilisés pour réduire au silence les médias, ONG, lanceurs d’alerte, chercheurs qui nous informent sur des sujets d’intérêt général.»
vid{644e5d753a1ab744044f823ce459af49e559cc7e4deddd5be637ed8d5ef09af6}
— Permalink