Vue lecture

Xiaomi Mijia Pro 12kg Smart Washer: High-Efficiency Cleaning And HyperOS Support

Xiaomi has released the Mijia Washing Machine Pro 12 kg, a new smart washer-dryer with a large capacity for home use and increased washing effectiveness. With its 12 kg washing and 9 kg drying capacity, this appliance is ideal for large families or users who do laundry frequently. The product, which combines performance, hygiene, and smart features, is a major advancement in Xiaomi’s home appliance lineup. When compared to many […]

  •  

GenAI : l’Autorité de la concurrence bascule en aval de la chaîne

Dans son analyse du secteur de l’IA générative, l’Autorité de la concurrence va désormais voir en aval. Elle s’est effectivement autosaisie pour se pencher sur les chatbots.

En la matière, le paysage concurrentiel apparaît dynamique, avec la présence de plusieurs acteurs, note-t-elle. Mais les derniers développements montrent que les chatbots pourraient avoir un impact sur le fonctionnement de plusieurs secteurs-clés de l’économie.

L’autorité entend examiner cet aspect en s’intéressant notamment au commerce agentique. La relation entre chatbots et moteurs de recherche n’est en revanche pas dans le champ d’analyse, précise-t-elle.

Le volet énergétique et environnemental, déjà analysé

Son premier avis sur le secteur avait été publié en juin 2024. Il traitait essentiellement de l’amont de la chaîne de valeur. Y furent soulignés, entre autres, la dépendance envers CUDA, le verrouillage potentiel inhérent à l’octroi de crédits cloud pour les start-up de la GenAI et les risques en termes d’accords de non-débauchage et de fixation de salaires.

Plus récemment (mi-décembre 2025), l’autorité a rendu ses conclusions sur un autre sujet : les enjeux concurrentiels liés à l’impact énergétique et environnemental de l’IA. Son analyse suit 3 axes :

  • Difficultés d’accès au réseau électrique et incertitudes sur le prix de l’énergie
  • Montée en puissance des services d’IA frugaux
  • Standardisation, notamment des méthodes de détermination d’empreinte environnementale

Sur l’accès au réseau électrique

L’autorité constate que si l’inférence demeure sensible à la latence, la phase d’entraînement offre davantage de flexibilité en matière d’implantation géographique.
Elle aborde aussi la fin du dispositif d’accès régulé à l’électricité nucléaire historique (ARENH). Lui succède un système dual. D’un côté, la redistribution des bénéfices d’EDF aux consommateurs finaux via un versement nucléaire universel (VNU ; en cours d’examen parlementaire). De l’autre, le développement, par EDF, de contrats d’allocation de long terme adossés à la production nucléaire (CAPN).

Plusieurs opérateurs de datacenters ont passé des commandes sur le fondement des CAPN. L’Autorité de la concurrence surveille ces contrats, craignant qu’ils donnent lieu à des comportements verrouillant le marché des consommateurs grands industriels. Elle entend plus globalement veiller à l’absence de barrières à l’entrée ou à l’expansion pour les acteurs « de taille modeste ». Et reste attentive à la potentielle entrée des grands acteurs du numérique en tant qu’offreurs sur les marchés de l’énergie, surtout à l’étranger.

Sur l’IA frugale

L’autorité estime que la montée en puissance des services d’IA frugaux pourrait favoriser l’émergence de solutions compétitives sur le plan tarifaire. Et ainsi permettre aux fameux acteurs « de taille modeste » de rivaliser avec les grands du secteur. La concurrence pourrait aussi être affectée par le prisme de la qualité, au sens où l’IA s’adapterait à des déploiements moins importants utilisant éventuellement des infrastructures existantes.

Il existe un risque que des acteurs adoptent, de manière coordonnée ou non, et y compris involontairement, des comportements trompeurs qui ne reposeraient pas sur des méthodologies robustes en termes scientifiques. Ou bien qu’ils fassent en sorte de limiter l’innovation ou de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande.

Sur la standardisation

La standardisation des méthodes de détermination d’empreinte environnementale est fondamentale pour garantir une concurrence sur la base des mérites, déclare l’autorité.

Elle mentionne deux documents – le référentiel général d’écoconception Arcep/Arcom et celui sur l’IA frugale porté par l’Afnor – et appelle à les voir comme la préfiguration d’une normalisation à l’échelle européenne voire internationale. Mais reste vigilante concernant, en particulier :

  • Adoption d’outils sans méthodologie sous-jacente robuste
  • Conditions privant des acteurs du bénéfice de la standardisation ou empêchant l’expression de la frugalité comme paramètre de concurrence
  • Comportements empêchant cette standardisation ou ralentissant son élaboration
  • Découragement des acteurs à aller plus loin que ce que propose la standardisation

Illustration générée par IA

The post GenAI : l’Autorité de la concurrence bascule en aval de la chaîne appeared first on Silicon.fr.

  •  

IA : CE QUE CACHE LA BULLE [ARGENT MAGIQUE] - YouTube

Est-ce que l’IA est une bulle financière sur le point d’exploser ? Est-ce que cette nouvelle technologie va nous permettre de nous libérer du travail ? C’est ce que nous allons voir dans ce nouveau Argent Magique !

SOUTENIR LE COLLECTIF :
https://stup.media/don

Soutenir directement le programme :
https://fr.ulule.com/argentmagique/

Journalistes : Marino et ‪‪@Heu7reka
Co-auteur : Arnaud Gantier (‪@StupidEco )
Réalisation : Valentin Levetti
Montage : ‪‪@SplineLND ​
Production : https://stup.media/

--
LIEN DES SOURCES :
https://docs.google.com/document/d/1CYGva4dGfINo4iK1dZkvEN7k3DfadjqyxKj7YQEr46s/edit?usp=sharing

#argentmagique


Permalien
  •  

Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud

Snowflake a signé un accord définitif pour le rachat d’Observe, une jeune pousse spécialisée dans l’observabilité basée en Californie et historiquement construite sur l’architecture de données de Snowflake.

Selon The Information, le montant du deal serait d’environ 1 milliard $, ce qui en ferait l’un des plus importants rachats de startup de Snowflake.

La finalisation de l’acquisition est attendue au cours de l’année 2026, sous réserve des conditions habituelles de clôture et d’éventuelles approbations réglementaires.

Observe propose une plateforme d’observabilité capable de collecter et corréler logs, métriques et traces afin d’aider les équipes à diagnostiquer les incidents et surveiller les performances applicatives. La solution s’appuie sur une architecture de graphe de contexte et sur un langage de requête maison (OPAL) pour l’analyse de séries temporelles, avec des fonctions d’assistant IA pour les tâches de troubleshooting et de SRE.

La startup s’est différenciée par un modèle conçu pour ingérer de très grands volumes de télémétrie à moindre coût, en tirant parti du stockage objet et du calcul élastique de Snowflake. Elle revendique plusieurs pétaoctets de données ingérées par mois.

L’observabilité au cœur de l’AI Data Cloud

Snowflake prévoit d’intégrer directement les capacités d’Observe dans son AI Data Cloud, en considérant la télémétrie (logs, métriques, traces) comme des données « de première classe » au même titre que les autres données analytiques.

L’architecture cible repose sur des standards ouverts, notamment Apache Iceberg pour le stockage de tables et OpenTelemetry pour la collecte de données d’observabilité, afin de faciliter l’interopérabilité avec l’écosystème existant.

L’éditeur met en avant la possibilité pour les clients de conserver 100% de leurs données d’observabilité au sein de Snowflake, avec des promesses de réduction des coûts pouvant aller jusqu’à 60% par rapport aux solutions traditionnelles basées sur l’échantillonnage et des durées de rétention courtes.

Du point de vue de Snowflake, l’observabilité devient un enjeu central au moment où les entreprises déploient des agents et applications d’IA de plus en plus complexes, pour lesquels la fiabilité est présentée comme une exigence métier autant que technique.

En absorbant Observe, Snowflake veut offrir une chaîne complète : ingestion, gouvernance et analyse des données métier et de télémétrie, puis construction et supervision d’agents et de modèles, dans un environnement unifié.

L’éditeur positionne la future offre comme un socle d’observabilité pour agents d’IA, capable de gérer des volumes de télémétrie allant du téraoctet au pétaoctet, en s’appuyant sur l’élasticité de son moteur et sur des workflows de résolution assistés par IA.

Un pas de plus vers le marché des opérations IT

Avec ce rachat, Snowflake étend son périmètre au-delà de la seule gestion de données pour entrer plus directement sur le marché des logiciels de gestion des opérations IT, estimé à plus de 50 milliards $ et en croissance d’environ 9% par an.

L’intégration d’Observe renforce la réponse de Snowflake face aux acteurs de l’observabilité et du monitoring (Datadog, Splunk, New Relic, Dynatrace, etc.) ainsi que face aux grands clouds généralistes qui combinent déjà infrastructure, données et outils de supervision.

Pour les clients existants, l’enjeu sera de mesurer dans les prochains mois la maturité des intégrations, la politique tarifaire associée aux volumes de télémétrie et la capacité réelle de la plateforme unifiée à remplacer ou compléter les outils d’observabilité déjà en place.

The post Snowflake rachète Observe pour intégrer l’observabilité à son AI Data Cloud appeared first on Silicon.fr.

  •  

{ Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu

L’observabilité a beaucoup évolué au cours de la dernière décennie, à l’époque où on l’appelait encore monitoring. Si auparavant, la technologie servait principalement à maintenir les services et les systèmes en état de marche, l’essor des expériences numériques en fait un outil essentiel pour la continuité d’activité, alimentant la prise de décision pour améliorer la satisfaction des clients, prévenir une défaillance ou même pour déterminer quels produits développer.

Aujourd’hui, l’IA déclenche un nouveau séisme et les pratiques d’observabilité doivent assumer des responsabilités plus lourdes encore : superviser les workloads complexes et dynamiques de l’IA pour en garantir la performance et la fiabilité. Cette évolution fait de l’observabilité non seulement un véritable fondement de l’expérience client, mais aussi un facteur clé d’innovation et de croissance dans les entreprises axées sur l’IA.

De la réaction à l’anticipation avec l’observabilité prédictive

 Pendant des années, l’observabilité s’est limitée à répondre aux questions : « Qu’est-ce qui s’est passé ? » et « Pourquoi ? ». En 2026, ce paradigme bascule radicalement. Les plateformes d’observabilité deviennent des systèmes d’intelligence pilotés par l’IA, capables non seulement d’expliquer les incidents, mais de les anticiper, de les corriger automatiquement et d’effectuer une auto-réparation pilotée par une IA générative et agentique.

Cette révolution s’appuie sur des LLM et des techniques de recherche augmentée (RAG) appliquées à la télémétrie privée des entreprises : les cahiers de procédures s’automatisent, la corrélation des données s’accélère et l’analyse des causes profondes devient instantanée. Plus besoin de naviguer dans des tableaux de bord complexes ; le langage naturel devient l’interface privilégiée pour interroger les données d’observabilité.

L’observabilité au service de la stratégie métier

Mais cette IA ne doit pas servir qu’à optimiser les performances techniques. Les organisations les plus matures établissent une corrélation directe entre les signaux techniques et l’impact métier réel. Les indicateurs évoluent : ils ne mesurent plus seulement la latence ou la disponibilité des serveurs, mais le revenu à risque, le coût par demande et l’impact sur l’expérience client.

Cette approche business-centric redéfinit les priorités IT. Chaque décision d’infrastructure, chaque investissement en observabilité, doit être justifié par son impact sur les SLO (objectifs de niveau de service), le MTTR (Mean Time To Resolution) et, à terme, sur la satisfaction et la fidélité des clients. 2026 marque la fin de l’IT en silo, déconnectée des enjeux métiers.

Maîtriser les coûts : l’enjeu oublié de l’observabilité

 Les factures d’observabilité explosent. C’est malheureusement une réalité pour de nombreuses entreprises. Elles font face à des surcoûts imprévus liés à l’ingestion de données, à la cardinalité élevée et aux fonctionnalités premium. En conséquence, beaucoup consolident leurs chaînes d’outils fragmentées et renforcent le contrôle des coûts liés à l’ingestion, au stockage et à la conservation des données. Pour cela, les organisations se tournent vers les plateformes unifiées, la consolidation étant perçue comme un gain à la fois en termes de coûts et de productivité.

Mais attention : la consolidation ne suffit pas. En 2026, les utilisateurs finaux devront aller au-delà des économies globales et examiner attentivement le modèle de facturation automatique de chaque fournisseur. Les prix liés à ces surcoûts peuvent encore générer des factures d’un montant inattendu si la croissance des données n’est pas étroitement contrôlée.

De même, les acheteurs doivent évaluer la puissance des capacités de gestion du pipeline de données de chaque plateforme (filtrage, routage, fédération et stockage hiérarchisé, par exemple) afin de pouvoir déterminer activement quelles données sont collectées, où elles sont stockées et combien de temps elles seront conservées. Ce n’est qu’en combinant la consolidation avec une facturation transparente et des contrôles rigoureux du pipeline que les organisations peuvent maintenir les dépenses d’observabilité à un niveau prévisible et alignées sur la valeur qu’elles tirent des données. 

OpenTelemetry : la norme qui libère

L’émergence d’OpenTelemetry (OTel) comme standard par défaut marque un tournant majeur. Finie l’époque des agents propriétaires verrouillant les organisations dans des écosystèmes fermés : OTel offre une architecture ouverte et interopérable pour l’ingestion de métriques, de logs et de traces.

Ce qui différenciera les organisations en 2026, ce ne sera plus l’ingestion des données, mais ce qu’elles en font après : analyses à haute cardinalité, espaces de travail guidés par l’IA, workflows intelligents. L’ouverture du standard crée un terrain de jeu égal, où l’innovation se concentre sur la valeur, pas sur le verrouillage technologique.

L’observabilité au cœur de l’IA et du cloud complexe

 L’explosion des workloads d’IA et des architectures cloud hyperscale impose une nouvelle norme : l’observabilité des LLM et des agents IA. En 2026, superviser la latence, le coût et le comportement des modèles de langage deviendra aussi critique que de monitorer une base de données. La gouvernance des agents IA, la visibilité des pipelines IA, le suivi des ressources GPU… autant de domaines où l’observabilité devient indispensable.

Parallèlement, les environnements hybrides et à l’edge demeurent ancrés dans le cloud natif et Kubernetes, mais l’observabilité y joue un rôle nouveau : elle devient le catalyseur d’expériences numériques résilientes basées sur l’IA et les API.

En 2026, l’observabilité ne sera pas une simple évolution technologique. C’est une refonte complète du modèle : de la réaction à l’anticipation, de l’infrastructure aux résultats métiers, de la complexité à la transparence, et de l’isolement à l’intégration écosystémique. Les organisations qui maîtriseront ces quatre piliers (observabilité prédictive, alignement métier, maîtrise des coûts et standardisation ouverte) seront celles qui tireront le maximum de valeur de leurs données et de leurs systèmes. Les autres risquent de rester bloquées dans une observabilité fragmentée, coûteuse et inefficace.

*Stéphane Estevez est EMEA Observability Market Advisor chez Splunk

The post { Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu appeared first on Silicon.fr.

  •  

Predator Helios Neo 16S AI: Slim Gaming Laptop With Intel Core Ultra 9 And RTX 5070

At CES 2026, Acer used the occasion to introduce the Predator Helios Neo 16S AI (PHN16S-I51), a thin, powerful laptop that can handle demanding workloads for both creative and gaming tasks. With an NVIDIA GeForce RTX 5070 laptop GPU and an Intel Core Ultra 9 386H processor, it has the processing and graphics power needed for contemporary games, content production software, and AI-accelerated tasks. These parts are incorporated into a […]

  •  

Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable »

Dans les couloirs de l’industrie musicale, l’annonce fait du bruit. Universal Music Group (UMG), premier major mondial de la musique, et Nvidia, poids lourd des semi-conducteurs et de l’IA, ont noué une alliance de long terme pour développer des modèles d’intelligence artificielle appliqués au catalogue du label.

L’objectif affiché : transformer en profondeur la découverte musicale, l’engagement des fans et les processus de création, tout en garantissant la protection des droits d’auteur.

Un modèle qui « pense » comme un mélomane

Au cœur du dispositif, on trouve Music Flamingo, le modèle audio-langage développé par Nvidia fin 2025. Cette technologie se distingue par sa capacité à analyser des morceaux de près de 15 minutes dans leur intégralité.

Contrairement aux systèmes traditionnels qui se contentent d’étiqueter par genre ou style, Music Flamingo décortique structure harmonique, instrumentation, paroles et trajectoires émotionnelles. Le tout pour reproduire, selon ses concepteurs, la façon dont un auditeur humain appréhende une œuvre.

Cette approche ouvre des perspectives inédites : fini les recherches par simple mot-clé, place aux requêtes par ambiance, contexte narratif ou résonance culturelle. Les plateformes de streaming adossées au catalogue d’UMG pourraient ainsi proposer des recommandations fondées sur des similarités musicales profondes plutôt que sur des playlists thématiques conventionnelles.

Trois axes de développement

Le partenariat s’articule autour de trois piliers. D’abord, la découverte musicale : les algorithmes permettront d’explorer le catalogue selon des critères émotionnels et structurels sophistiqués. Ensuite, l’engagement des fans : artistes et auditeurs pourront interagir avec la musique dans un environnement « conversationnel et contextuel », loin du simple listing de titres.

Troisième volet, et non des moindres : la création. Un incubateur réunissant auteurs, compositeurs et producteurs verra le jour dans des studios prestigieux comme Abbey Road à Londres ou Capitol Studios à Los Angeles. Mission : co-concevoir de nouveaux outils alimentés par l’IA. UMG martèle toutefois que ces technologies resteront des aides à la création humaine, et non des machines à générer automatiquement de la musique.

La question brûlante des droits d’auteur

Derrière les promesses technologiques se cache un enjeu majeur : celui de la propriété intellectuelle. UMG et Nvidia promettent une IA « responsable », intégrant dès la conception la protection des œuvres, l’attribution et la rémunération des créateurs. Une posture qui tranche avec les pratiques de certaines start-up, accusées d’avoir entraîné leurs modèles sur des catalogues commerciaux sans autorisation.

Pour UMG, ce partenariat avec un mastodonte comme Nvidia représente une opportunité de dicter les standards du marché, en conciliant innovation technologique et respect du cadre légal. Le groupe entend proposer un « antidote » à la prolifération de contenus générés par des IA génériques, en misant sur un acteur capable d’intégrer nativement les contraintes de copyright dans ses outils.

Un coup stratégique pour les deux camps

Pour l’industrie musicale, l’accord peut faire jurisprudence et ouvrir la voie à d’autres alliances entre majors, plateformes et fournisseurs d’IA. Il valorise les catalogues musicaux comme ressources stratégiques pour entraîner des modèles spécialisés et pourrait creuser l’écart entre services premium dotés d’une découverte « intelligente » et offres standard aux algorithmes classiques.

Côté Nvidia, le deal marque une nouvelle étape dans la conquête des industries culturelles. Après le jeu vidéo et la vidéo, le groupe démontre que ses GPUs, ses plateformes de modélisation et ses modèles pré-entraînés comme Music Flamingo peuvent s’adapter aux exigences spécifiques de la musique. Un positionnement stratégique au moment où la régulation de l’IA se durcit dans de nombreux pays.

Illustration : image générée par l’IA

The post Universal Music s’allie à Nvidia pour façonner une IA musicale « responsable » appeared first on Silicon.fr.

  •  

AGIBOT Brings Its Humanoid Robot Lineup and Genie Sim 3.0, Built for Real-World Deployment

At CES 2026, AGIBOT makes a decisive move onto the global stage, marking its official U.S. market debut while presenting one of the most complete and operationally mature humanoid robot portfolios at the show. At a time when much of the humanoid robotics sector is still centered on prototypes and tightly controlled pilots, AGIBOT arrives with a different profile: more than 5,000 robots already manufactured and deployed in real-world environments, […]

  •  
❌