The $299 Moto G Power (2026) Goes All-in on Durability, Drops Wireless Charging


C’est officiel : Samsung vient d'annoncer officiellement à nos confrères de Wccftech qu'il ne comptait pas mettre un terme à la fabrication de SSD au format 2,5 pouces SATA.
The post C’est officiel : Samsung n’arrête pas les SSD 2,5″ SATA (mais on a du mal à y croire…) first appeared on Bhmag.Dyson lance le Spot+Scrub™ Ai, son tout premier robot aspirateur-laveur : caméra, éclairage vert façon laser et IA pour repérer les taches, y revenir jusqu’à les faire disparaître, puis vérifier. Et ce pour un prix plutôt raisonnable !
Un rouleau microfibre auto-nettoyant (eau chaude, séchage à l’air chaud) et une station cyclonique sans sac donnée pour jusqu’à 100 jours de tranquillité pour 1 199 € en prix de lancement : est-ce que Dyson est en train de se réveiller ? La marque a-t-elle mis les ingrédients pour continuer à lutter dans une arène où chaque marque promet déjà la “station ultime” ?
Et surtout : après le Dyson 360 Vis Nav (aspiration, vision, mais pas de lavage), ce Spot+Scrub™ Ai marque-t-il enfin le déclic robot “grand public” chez Dyson ? Nous allons essayer d’y voir un peu plus clair…
De loin, la fiche technique semble de bonne tenue :
| Caractéristique Techniques | |
|---|---|
| Dimensions | Robot : 373 × 370 × 110 mm Station : 440 × 508 × 455 mm |
| Poids | Robot : 6,6 kg Station : 9,0 kg |
| Navigation | LiDAR (DToF annoncé) + caméra IA + éclairage vert |
| Aspiration max | 18 000 Pa |
| Lavage / séchage rouleau (station) | 60 °C / 45 °C |
| Réservoirs d’eau | station eau propre : 2,3 L station eau sale : 2,1 L robot : 300 mL |
| Bacs à poussière | station : env. 3 L (soit 100 jours d’autonomie) robot : 250 mL |
| Autonomie | 110 min (Dyson, selon mode) / 2 h 20 (revendeur) |
| Temps de charge | 3 h |
| Niveau sonore | jusqu’à 62 dB |
| Indice de réparabilité | 8/10 |
| Prix public | 1199 € |
Sur le papier, le Spot+Scrub™ Ai a de vrais arguments : une logique “anti-taches” plus ambitieuse que la simple serpillière, un rouleau microfibre annoncé comme auto-nettoyant en continu, et une station cyclonique sans sac qui peut séduire ceux qui fuient les consommables. À 1 199 €, Dyson devra tout de même prouver que l’expérience est réellement supérieure à celle des références premium déjà très affûtées.
Le cœur du Dyson Spot+Scrub™ Ai, c’est sa promesse “anti-taches” : une caméra haute résolution couplée à un éclairage vert façon laser inspecte le sol, repère des salissures parfois peu visibles, puis adapte l’action en direct. Dyson décrit une logique en trois temps — détection, réaction, vérification — avec la possibilité de repasser jusqu’à 15 fois sur une zone jugée tenace, et une reconnaissance d’objets (câbles, chaussettes, déjections d’animaux…) annoncée autour de 190–200 éléments pour éviter les pièges du quotidien.

Le deuxième pilier de ce nouveau produit est sans conteste le le lavage au rouleau microfibre. Dyson mise sur un rouleau auto-nettoyé en continu, alimenté par un système d’hydratation en 12 points avec eau propre chauffée, pour limiter le “retour de saleté” typique des serpillières traînées. Le rouleau peut en plus s’étendre de 40 mm pour longer les plinthes. Ce n’est pas à proprement parler nouveau, mais c’est une exigence aujourd’hui propre aux flagships.
Enfin, la station cyclonique, sans sac, propose une autonomie annoncée jusqu’à 100 jours, plus un cycle d’entretien du rouleau (lavage 60 °C, séchage 45 °C) et un dosage automatique du nettoyant Dyson à chaque remplissage. Des fonctionnalités que l’on trouve déjà chez Mova et Ecovacs, mais qui sont obligatoires à près de 1200 € !
La navigation repose sur le duo LiDAR DToF + vision par caméra, avec une IA censée comprendre l’espace plutôt que “suivre un tracé”. Le LiDAR construit la carte, tandis que la caméra et l’éclairage vert servent aussi à repérer obstacles et zones problématiques. Dyson annonce une reconnaissance d’objets (câbles, chaussettes, etc.) proche des 190–200 éléments, pour éviter les pièges et limiter les zones oubliées.
Quant à la cartographie, elle s’appuie également sur l’IA pour identifier automatiquement les pièces, avec possibilité d’ajuster l’étiquetage dans l’application MyDyson et de lancer des nettoyages par zones. Après chaque session, le robot génère une carte/rapport de nettoyage dans l’application. Reste à vérifier en test la robustesse sur le terrain (câbles fins, seuils, faible lumière, etc.) !
Si nous avons la chance de tester ce modèle qui s’annonce comme un pivot dans l’histoire de Dyson, nous irons questionner directement son rapport qualité-prix. À ce titre, contrairement au Mova Z60 Ultra Roller Complete, la boîte ne semble contenir que le strict nécessaire, et il est encore difficile de trouver le prix des consommables pour prévoir de remplacer brosses, filtre, patin, etc.
Pour le reste, nous ne doutons pas de sa capacité à être aussi complet que les grands acteurs actuels, notamment avec l’IA mise en avant pour repérer les taches (même discrètes), de revenir dessus jusqu’à 15 fois et de confirmer le résultat. C’est exactement le genre de promesse qui peut justifier 1 199 €… à condition qu’elle tienne sur des cas réels : taches grasses, traces sèches, marques anciennes, zones mixtes (poussière + liquide) et sols sensibles aux halos.
Nous resterons également attentifs concernant le lavage au rouleau auto-nettoyant. Dyson promet de l’eau chaude en continu, un rouleau “toujours propre”, un cycle d’entretien à 60 °C puis séchage à 45 °C, et même un dosage automatique de nettoyant. En soi, c’est une réponse directe aux critiques classiques des robots laveurs (serpillière qui étale, odeurs, entretien pénible). En test, on voudra donc objectiver l’hygiène sur plusieurs semaines, l’absence d’odeur, la qualité du séchage et l’efficacité “jusqu’aux bords” avec l’extension de 40 mm. Enfin, la station cyclonique est séduisante… mais on vérifiera la réalité du vidage, les projections de poussière, le bruit et la maintenance.
Avec le Dyson 360 Vis Nav, la marque avait surtout prouvé une chose : elle savait faire un robot “à sa manière”, très axé sur l’aspiration et la lecture de l’environnement, mais sans franchir le cap du lavage devenu incontournable en haut de gamme. Le Spot+Scrub™ Ai arrive donc avec une pression différente : on attend moins un démonstrateur technologique qu’un appareil fiable, régulier et vraiment autonome. Nos attentes sont simples et exigeantes : une navigation propre, une aspiration au niveau des meilleurs, et surtout un lavage qui ne laisse pas de traces, avec une hygiène maîtrisée sur la durée. À 1 199 €, Dyson doit apporter un gain tangible pour rester dans la course !

InterCERT France, qui rassemble plus de 120 équipes de détection et réponse à incidents cyber sur le territoire national, a procédé au renouvellement de son Conseil d’administration. Les membres ont élu Thibaud Binétruy, responsable du CSIRT-Suez, à sa présidence.
Le bureau est complété par Anthony Charreau (CERT Crédit Mutuel Euro-Information) au poste de Vice-président et Julien Mongenet (Thales-CERT) comme Trésorier. Le Conseil compte également trois autres administrateurs : Valérie Couché (C2MI), Tristan Pinceaux (CERT ALMOND CWATCH) et Maxime Lambert (CERT-Formind).
Thibaud Binétruy apporte 17 ans d’expérience dans la cybersécurité, dont 11 années dédiées à la cyberdéfense opérationnelle. Après avoir débuté comme auditeur et pentester, il a rejoint le CERT Société Générale où il a découvert la communauté InterCERT. Il a ensuite évolué dans les secteurs de la défense et de l’aérospatiale chez Safran avant de prendre la direction du CSIRT du groupe Suez en 2022.
Cette transition intervient après le mandat de Frédéric Le Bastard (CERT La Poste), qui a accompagné la structuration de l’association depuis sa création en octobre 2021. Le Conseil d’administration lui a attribué le titre de membre Honoraire en reconnaissance de son action.
Face à l’évolution des menaces cyber, la nouvelle gouvernance entend renforcer la culture de prévention et intensifier les échanges de retours d’expérience entre les membres. L’association souhaite également mettre l’accent sur la santé mentale des professionnels de la cyber, confrontés à des situations de stress et de pression opérationnelle quotidiennes.
The post Thibaud Binétruy, nouveau président d’InterCERT France appeared first on Silicon.fr.


Qui a parlé d’une bulle spéculative sur l’IA ? Databricks annonce avoir levé plus de 4 milliards de $ lors d’un tour de financement de Série L, portant sa valorisation à 134 milliards $.
Le tour de financement a été mené par Insight Partners, Fidelity Management & Research Company et J.P. Morgan Asset Management. La présence de gestionnaires d’actifs majeurs comme BlackRock et Blackstone témoigne d’un intérêt croissant des grandes institutions financières pour les investissements dans le secteur de l’intelligence artificielle.
Une partie des fonds sera utilisée pour permettre aux employés de procéder à des ventes secondaires d’actions. Ali Ghodsi a également indiqué au Wall Street Journal que l’entreprise prévoit de créer des milliers de nouveaux postes, notamment des chercheurs en IA, pour développer un laboratoire d’IA qui n’emploie actuellement qu’une centaine de personnes.
L’investissement soutiendra également de futures acquisitions dans le domaine de l’IA et l’approfondissement de la recherche.
Avec cette nouvelle levée de fonds, Databricks dépasse désormais largement la valorisation ( 75 milliards) de son concurrent coté en bourse Snowflake.
Databricks, fondée en 2013 à San Francisco, affiche des résultats financiers impressionnants avec un chiffre d’affaires annualisé de 4,8 milliards $ au troisième trimestre, soit une progression de plus de 55% en un an. En septembre dernier, ce taux s’établissait à 4 milliards $.
L’entreprise compte ainsi plus de 700 clients, sur plus de 20 000, générant un revenu annuel supérieur à un million. Cette levée de fonds intervient quelques mois seulement après qu’elle ait levé 1 milliard de dollars pour une valorisation de 100 milliards $
Le nouveau capital servira à accélérer le développement de trois offres stratégiques :
> Lakebase, présentée comme la première base de données Postgres sans serveur conçue spécifiquement pour l’ère de l’IA. Lancé il y a six mois, ce produit compte déjà des milliers de clients et enregistre une croissance de revenus deux fois plus rapide que le produit d’entreposage de données de Databricks.
> Databricks Apps, qui permet de créer et déployer des applications de données et d’IA avec rapidité et sécurité.
> Agent Bricks, qui aide les organisations à créer et mettre à l’échelle facilement des agents de haute qualité sur leurs données.
The post Databricks atteint une valorisation de 134 milliards $ appeared first on Silicon.fr.

Red Hat rachète Chatterbox Labs, un spécialiste des garde-fous de sécurité pour l’intelligence artificielle générative. Le montant de l’opération n’est pas communiqué.
Fondée en 2011 et basée à Londres avec un bureau à New York, Chatterbox Labs propose des capacités de test de sécurité automatisées et personnalisées, fournissant des métriques de risque quantitatives.
La technologie de Chatterbox Labs s’articule autour de trois piliers :
L’approche est agnostique des modèles, permettant de valider données et modèles quelle que soit leur origine. Selon Steven Huels, vice-président de l’ingénierie IA et de la stratégie produit chez Red Hat, l’intégration de Chatterbox Labs permettra de fournir une plateforme open source complète où la sécurité est intégrée dès le départ.
Chatterbox Labs a mené des travaux sur la sécurité holistique des agents IA, incluant la surveillance des réponses des agents et la détection des déclencheurs d’action des serveurs MCP. Ces travaux s’alignent avec la feuille de route de Red Hat pour le support de Llama Stack et MCP.
Cette acquisition est la deuxième opération de Red Hat dans le domaine de l’IA en un an. En novembre 2024, l’éditeur avait racheté Neural Magic, spécialisé dans l’optimisation des modèles d’IA pour processeurs et GPU standards. Cette acquisition a été finalisée en janvier 2025.
The post Red Hat renforce la sécurité de son offre IA avec Chatterbox Labs appeared first on Silicon.fr.

Chez les principaux fournisseurs de bases de données cloud, il n’est plus si rare que des produits se chevauchent.
La synthèse du dernier Magic Quadrant dédié à ce marché en témoigne. La majorité des « leaders » (5 sur 9) ont droit à une remarque à ce sujet :
Autre sujet largement partagé parmi les « leaders » : la gestion des coûts.
Elle est difficile chez AWS faute de tarification unifiée entre services.
Elle l’est aussi pour beaucoup de clients de Databricks, malgré des avancées sur l’outillage FinOps.
Chez Google, elle a tendance à se complexifier avec l’intégration de nouvelles fonctionnalités.
Concernant Oracle, la clientèle se plaint toujours des prix et de la difficulté de contractualisation, même si la tendance s’atténue avec le passage au cloud et son modèle de facturation à l’usage.
Concernant Snowflake, Gartner a un jugement plus spécifique : le côté « user-friendly » est susceptible de favoriser le développement d’un état d’esprit « black box », et par là même de limiter la capacité à optimiser les workloads.
Plusieurs de ces fournisseurs avaient déjà été épinglés à ce sujet il y a un an, dans l’édition précédente de ce Magic Quadrant.
Databricks, à cause de la difficulté à prédire les coûts avec le modèle fondé sur des unités de consommation.
Google, parce que le suivi des dépenses pouvait se révéler délicat, a fortiori lorsqu’on interfaçait aux bases de données des services fondés sur des unités de consommation.
Oracle, perçu, de par son historique, comme un fournisseur aux offres onéreuses.
Alibaba, chez qui la variété des modèles de pricing, combinée à une facturation découplée pour certaines ressources au nom de la flexibilité, pouvait s’avérer difficile à maîtriser.
D’une année à l’autre, les critères à respecter ont peu évolué. Il fallait toujours, entre autres, gérer au moins un cas d’usage parmi :
Une fois encore, Gartner n’a évalué que les offres managées, fournies en cloud public ou privé. Il n’a pas pris en compte les bases de données hébergées sur du IaaS.
Les 20 fournisseurs classés sont les mêmes que l’an dernier. Et les 9 « leaders » d’alors le sont restés. Dans l’ordre alphabétique : Alibaba Cloud, AWS, Databricks, Google, IBM, Microsoft, MongoDB, Oracle et Snowflake.
Sur l’axe « exécution », reflétant la capacité à répondre à la demande, la situation est la suivante :
| Rang | Fournisseur | Évolution annuelle |
| 1 | AWS | = |
| 2 | = | |
| 3 | Microsoft | + 1 |
| 4 | Oracle | – 1 |
| 5 | Databricks | = |
| 6 | Snowflake | + 1 |
| 7 | MongoDB | – 1 |
| 8 | IBM | + 2 |
| 9 | Alibaba Cloud | – 1 |
| 10 | InterSystems | – 1 |
| 11 | Huawei Cloud | = |
| 12 | SAP | = |
| 13 | Teradata | = |
| 14 | Cloudera | = |
| 15 | Couchbase | + 3 |
| 16 | SingleStore | + 1 |
| 17 | EDB | + 3 |
| 18 | Redis | – 3 |
| 19 | Neo4j | – 3 |
| 20 | Cockroach Labs | – 1 |
Sur l’axe « vision », reflétant les stratégies :
| Rang | Fournisseur | Évolution annuelle |
| 1 | = | |
| 2 | Databricks | + 3 |
| 3 | Microsoft | – 1 |
| 4 | Oracle | – 1 |
| 5 | AWS | – 1 |
| 6 | Snowflake | + 2 |
| 7 | Alibaba Cloud | + 3 |
| 8 | IBM | – 1 |
| 9 | SAP | – 3 |
| 10 | Teradata | – 1 |
| 11 | MongoDB | = |
| 12 | Cloudera | = |
| 13 | InterSystems | + 2 |
| 14 | Neo4j | = |
| 15 | Huawei Cloud | + 1 |
| 16 | EDB | + 4 |
| 17 | Couchbase | = |
| 18 | SingleStore | = |
| 19 | Redis | – 6 |
| 20 | Cockroach Labs | – 1 |
Les principales offres d’Alibaba Cloud sur ce marché sont PolarDB et ApsaraDB (transactionnel), AnalyticDB et MaxCompute (analytique), Tair et Lindorm (clé-valeur).
L’a dernier, le groupe chinois avait été salué pour sa présence sectorielle importante et différenciée, le développement de son écosystème de partenaires et le poids de sa communauté open source.
Cette année, Gartner apprécie la tarification, jugée attractive. Ainsi que la fiabilité de l’architecture serverless. Désormais étendue à tous les SGBD, elle se distingue par son architecture découplant calcul, mémoire et stockage en environnement hybride. Bon point également pour l’approche « data + IA » qui permet de développer et de déployer des applications en n’utilisant que des technologies d’Alibaba Cloud.
L’an dernier, Gartner avait pointé, au-delà de la gestion des coûts, le risque géopolitique associé à Alibaba Cloud. Ainsi que la disponibilité encore limitée de ses servies hors de l’Asie (moins de régions et de zones de disponibilité que la concurrence).
Cette année encore, la faible présence hors Asie est signalée. Elle peut se traduire par un moins grand nombre d’intégrations d’outils tiers et de ressources en anglais (documentation, formation, support). Attention aussi à la configuration de PolarDB, jugée complexe par les nouveaux utilisateurs, notamment sur l’équilibre coût/performance et la gestion du stockage multicouche. Il faut y ajouter les chevauchements de produits sus-évoqués.
Aurora, Redshift, DynamoDB et SageMaker font partie des principaux produits d’AWS sur ce marché.
L’an dernier, Gartner avait salué la couverture fonctionnelle d’AWS et sa capacité à créer du liant entre ses solutions. Il avait aussi noté l’exhaustivité des partenariats et de la présence géographique.
Ce dernier point vaut toujours et s’assortit d’un bon historique de disponibilité de l’infrastructure ainsi que d’une approche « proactive » de dialogue avec le client pour l’optimisation des coûts. AWS a, plus globalement, un catalogue d’une ampleur sans égale sur ce marché, avec SageMaker comme point central de gouvernance data/IA.
L’intégration entre les services d’AWS peut être complexe, avait souligné Gartner l’an dernier. Le cabinet américain avait aussi constaté que la prise en charge des déploiements hybrides/multicloud était limitée malgré la disponibilité de connecteurs natifs et le support de moteurs comme Spark (les clients tendent à utiliser des orchestrateurs tiers, avait-il expliqué).
Ce dernier constat est toujours d’actualité : beaucoup de clients dépendent de solutions tierces pour l’orchestration hybride/multicloud. S’y ajoutent les deux éléments sus-évoqués : gestion des coûts difficile et chevauchements entre produits.
Outre Data Intelligence Platform (qui inclut Unity Catalog), Databricks propose du data warehouse avec Databricks SQL, du transactionnel avec Lakebase, ainsi que de l’intégration et de l’engineering avec Lakeflow.
L’an dernier, Gartner avait salué les investissements dans la GenAI (dont l’acquisition de MosaicML), traduits par le développement de ses propres LLM. Il avait aussi donne un bon point au catalogue Unity (qui venait d’être basculé en open source) et au format Delta Lake (concurrent d’Iceberg).
Cette année, Databricks est salué pour sa « vision lakehouse », bien qu’il ne soit plus seul sur ce marché. Il l’est aussi pour sa cadence d’innovation, entre la composante Agent Bricks (qui a reçu des fonctionnalités importantes presque tous les mois), l’acquisition de Tabular (qui a accompagné la prise en charge d’Iceberg sur tout le portefeuile) et l’introduction de capacités low code dans Lakeflow. Bon point également pour l’engagement sur des standards ouverts (Delta Lake, Iceberg, Spark, Postgre…) qui favorisent la portabilité.
L’an dernier, Gartner avait pointé le manque d’intuitivité de l’UI, qui changeait fréquemment tout en manquant de documentation et de capacités low code. Il y avait ajouté l’aspect FinOps, sus-évoqué.
Cette année, le cabinet américain met un bémol à la logique d’ouverture : certains clients s’inquiètent d’un éventuel verrouillage au niveau de l’orchestration et de Delta Live Tables (devenu Lakeflow Spark Declarative Pipelines). Il souligne par ailleurs la tendance des clients à juger que l’usage de la solution exige un haut niveau de compétence technique. En parallèle, le sujet FinOps reste valable (voir ci-dessus).
Entre autres produits positionnés sur ce marché, Google a Spanner, BigQuery, AlloyDB, Cloud SQL, Firestore, Memorystore et Bigtable.
L’an dernier, Gartner avait salué les contributions open source (à PostgreSQL en particulier). Il avait fait de même pour les avancées dans la GenAI (intégration de Gemini + support transversal de la recherche vectorielle via LangChain) et pour la fondation data/IA unifiée avec Dataplex pour la gouvernance.
Cette fondation data/IA a à nouveau droit à un bon point ; dans les grandes lignes, pour les mêmes motifs. Gartner note plus globalement la capacité de l’offre SGBD de Google à couvrir les cas d’usage dans l’IA agentique. Et apprécie en particulier l’exhaustivité des modèles de données pris en charge par Spanner (relationnel, clé-valeur, graphe, vectoriel).
Le réseau de partenaires doit encore se développer, avait estimé Gartner l’an dernier. Il avait aussi pointé l’aspect FinOps et souligné que Google proposait moins d’options que la concurrence pour l’intégration native d’applicaitons et le master data management.
Cette année, outre la gestion des coûts et les chevauchements sus-évoqués, un point de vigilance va à la marketplace de données et aux capacités de partage. Elle se révèlent moins avancées que chez certains concurrents, malgré des améliorations sur les clean rooms et l’interopérabilité entre clouds.
Les principaux SGBD cloud d’IBM sont Db2 (transactionnel + analytique) et watsonx.data (lakehouse).
L’an dernier, Big Blue s’était distingué sur sa stratégie sectorielle (solutions spécifiques adaptées sur la gouvernance, la sécurité et la conformité). Ainsi que sur sa capacité à combiner les expertises en open source et en data management au service des déploiements hybrides. Son offre est bien adaptée aux applications critiques, avait ajouté Gartner.
Cette année encore, la stratégie sectorielle est saluée. L’extension de la présence cloud l’est aussi (mise à disposition de Db2 chez les hyperscalers et acquisition de DataStax, qui a une forte présence multicloud). Bon point également pour l’approche « bien définie » d’IBM concernant l’intégration des SGBD dans les frameworks de data management.
IBM a du mal à se différencier dans la communication, par ailleurs pas uniforme entre équipes commerciales, avait expliqué Gartner l’a dernier. Il avait aussi rappelé que le déploiement géographique de l’offre n’atteignait pas encore celui des autres hyperscalers.
Les difficultés de communication restent d’actualité, occasionnant un certain manque de notoriété sur le segment. En parallèle, IBM demeure perçu comme un vendeur « legacy », ce qui est susceptible de détourner certains acheteurs. Gartner y ajoute, comme sus-évoqué, les chevauchements entre certains produits.
Entre autres produits, Microsoft évolue sur ce marché avec Azure SQL Database, Azure Database pour PostgreSQL et MySQL, ainsi qu’Azure Cosmos DB.
L’an dernier, Gartner avait salué l’exhaustivité de l’offre et le niveau d’intégration avec les autres services Microsoft. Il avait aussi apprécié les possibilités d’usage de l’IA pour le data management. Et les avancées sur la gestion du multicloud, exemplifiées par l’interconnexion Azure-Oracle comme par les « raccourcis » dans OneLake pour les analyses fédérées.
Bon point cette année encore pour l’exhaustivité de l’offre, qui « gère presque tous les modèles de données et cas d’usage sectoriels ». L’engagement de Microsoft sur PostgreSQL est également salué. Comme les innovations sur la partie IA (embeddings in-database, indexation de vecteurs, jonctions entre Copilot et Fabric…).
Le chevauchement de certaines offres avait déjà été signalé l’an dernier, en sus de craintes des clients sur la pérennité d’Azure Synapse Analytics et d’Azure Database face à Microsoft Fabric. Ce dernier manquait encore de maturité, avait expliqué Gartner : les capacités d’intégration, de gouvernance et de gestion des métadonnées étaient moins « robustes » que chez d’autres « leaders ». Le déploiement pouvait par ailleurs se révéler complexe, en particulier pour le DR, la sécurité et la gestion des coûts.
Outre le chevauchement de certains produits, Gartner pointe à nouveau le manque de maturité de Microsot Fabric. Les inquiétudes des clients touchent autant aux fonctions data warehouse que gouvernance, entre souveraineté, dimensionnement des ressources, prix, gestion des métadonnées et data quality. Attention aussi aux investissements consentis pour intégrer le transactionnel dans Fabric : sur le court terme, ils peuvent engendrer des enjeux de performance.
Outre son édition communautaire et son produit sur site (Enterprise Advanced), MongoDB propose son SGBD Atlas chez AWS, Google et Microsoft.
L’an dernier, Gartner avait salué une offre « bien considérée » pour ses capacités de traitement à haut volume, son élasticité et la flexibilité du schéma. Il avait aussi souligné la souplesse et la rapidité d’implémentation, contribuant à la popularité auprès des développeurs.
Ce dernier élément vaut toujours et engendre un vivier de compétences d’autant plus grand. S’y ajoute la richesse des options de déploiement, accentuée par un programme de partenariats jugé « robuste ». MongoDB est plus globalement parvenu à établir une forme de standard pour qui souhaite un modèle orienté document.
Si MongoDB associe transactionnel et analytique, son offre se limite à du non relationnel, avait signalé Gartner l’an dernier. La concurrence s’accentue de la part de fournisseurs de SGBD qui incluent l’approche document en plus d’autres modèles, avait-il souligné ; sans compter ceux qui proposent une compatibilité MongoDB.
Cette remaruqe sur la concurrence accrue reste valable. Le cabinet américain y ajoute la courbe d’apprentissage nécessaire pour prendre en main le modèle MongoDB. Et le manque d’un storytelling complet l’intégration du transactionnel et de l’analytique.
Autonomous AI Lakehouse, Autonomous JSON Database et Exadata Database Service font partie des SGBD cloud au catalogue d’Oracle.
L’an dernier, Gartner avait salué l’exhaustivité de l’offre (fonctionnalités + support de modèles modèles de données et de l’architecture lakehouse). Ainsi que le niveau de gestion du multicloud (offres Database@ + interconnexion avec les principaux hyperscalers) et la capacité à diffuser rapidement des nouveautés (GenAI, low code, consensus RAFT).
Cette année encore, la richesse fonctionnelle est saluée (bases de données distribuées, recherche vectorielle, framework agentique…). La diversité des options de déploiement l’est aussi. Comme l’adéquation de l’offre d’oracle aux applications critiques.
Oracl reste perçu comme onéreux et a du travail pour « cloudifier » sa base client, avait noté Gartner l’an dernier. Il avait aussi appelé les acheteurs à s’assurer de bien interpréter l’approche « une base de données pour tout » et ce qu’elle impliquait en matière de livraison de fonctionnalités.
Cette dernière remarque est reconduite : vigilance sur cette approche, qui s’oppose aux architecture combinant les SGBD et les systèmes de data management. La question du prix – sus-évoquée – reste sensible et les clients continuent à prioriser des produits concurrents pour les déploiements lakehouse.
L’an dernier, Snowflake s’était distingué par son UI adaptée à divers profils d’utilisateurs, sa prise en charge de multiples formats sur la couche de stockage et l’extension de l’architecture lakehouse avec Iceberg et Polaris.
Cette année encore, Gartner donne un bon à l’UI. Il relève aussi l’extension fonctionnelle de l’offre (data engineering avancé via Openflow, ML/IA avec Snowpark et Cortex AI, support de Postgre apporté par l’acquisition de Crunchy Data). Et l’amélioration de la scalabilité avec les entrepôts de génération 2 (meilleur rapport qualité-prix que la gen 1 pour les workloads complexes).
L’an dernier, Gartner avait pointé une prise en charge limitée des scénarios hybrides. Il y avait ajouté la complexité dans le partage des données entre organisations utilisatrices de Snowflake et les défis d’usabilité que posait l’intégration avec le stockage sur site via les tables externes.
Ces deux derniers aspect demeurent. D’une part, la performance n’est pas la même avec les tables externes qu’avec le stockage natif ou les tables Iceberg. De l’autre, sur le partage, il est nécessaire de bien planifier des éléments tels que les permissions, le repartage et les restrictions régionales. Gartner y ajoute l’aspect FinOps (voir ci-dessus). Et le fait que l’architecture est focalisée sur le batch et l’analytique plutôt que sur le transactionnel ou le temps réel (même s’il existe les tables hybrides et une intégration avancée de PostgreSQL).
Illustration générée par IA
The post Bases de données cloud : l’abondance de l’offre devient un défi appeared first on Silicon.fr.

Depuis le 12 décembre, le jeu Terminator 2D: No Fate développé par Bitmap Bureau est disponible sur plusieurs plateformes : PC, PS4, PS5, Nintendo Switch et Xbox Series S et X.
The post Terminator 2D: No Fate : un jeu récent au look très rétro… first appeared on Bhmag.

Washington accentue la chasse aux textes de loi qui vont contre sa doctrine en matière d’intelligence artificielle.
Son « plan d’action IA » publié cet été avait ouvert la voie. Il prévoyait notamment que les agences du gouvernement fédéral ayant des programmes de financement de l’IA prennent en compte le « climat réglementaire » des États américains. Et qu’elles limitent ces financements dans le cas où un régime serait susceptible de compromettre leur efficacité.
La Maison Blanche promettait plus globalement de réviser ou d’abroger tout texte « entravant inutilement le déploiement de l’IA ». En première ligne étaient alors les ordonnances définitives, les décrets exécutoires et les injonctions de la FTC (Federal Trade Commission, qui fait appliquer le droit de la consommation).
Le mode opératoire se précise à la faveur d’un ordre exécutif (équivalent d’un décret présidentiel) que Donald Trump a signé la semaine passée. Dans le viseur, en particulier, les lois qui « exigent d’intégrer des biais idéologiques dans les modèles ». Référence est faite à une « loi au Colorado ». Il s’agit probablement du SB24-205 (« Consumer Protections for Artificial Intelligence »), qui doit entrer en application le 1er février 2026. Le postulat : en interdisant la « discrimination algorithmique », le texte pourrait forcer les modèles à produire de faux résultats afin d’éviter un « traitement différencié » de minorités.
L’ordre exécutif cible aussi les lois qui ont une portée extraterritoriale. Et qui, par là même, compromettraient les échanges commerciaux entre États.
Ce travail d’élagage doit contribuer à « entretenir et renforcer la domination mondiale des États-Unis dans l’IA à travers un cadre législatif national le moins pénible possible ».
Un groupe de travail sera chargé de contester (challenge) les lois en contradiction avec cet objectif. Le procureur général a 30 jours – à compter de la signature de l’ordre exécutif – pour l’établir.
Cette contestation pourra se faire, notamment, au motif d’inconstitutionnalité, de prévalence d’une loi fédérale… ou de « toute présomption d’illégalité de la part du procureur général ».
Le secrétaire au Commerce a 90 jours pour identifier les lois jugées problématiques et qui devraient être signalées au groupe de travail. Il lui faudra lister au minimum celles qui « requièrent que les modèles IA altèrent leurs outputs véridiques (truthful) » ou qui sont susceptibles de contraindre les développeurs ou les déployeurs à divulguer des informations au mépris de la Constitution, à commencer par le premier amendement (liberté d’expression).
Dans le même délai, le secrétaire au Commerce devra émettre une notice relative aux financements dans le cadre du BEAD (Broadband Equity Access and Deployment, programme fédéral à 42,5 Md$). Les fonds non alloués aux objectifs principaux de déploiement d’infrastructure ne seraient pas accessibles aux États qui promulguent ou envisagent de promulguer des lois jugées problématiques.
En parallèle, départements exécutifs et agences sont invités à examiner leurs programmes de subventions pour déterminer s’ils peuvent les conditionner à l’absence de ces mêmes lois – ou à un engagement contraignant à ne pas les faire appliquer.
La FCC (Federal Communications Commission) a quant à elle 90 jours pour lancer une procédure visant à déterminer s’il faut adopter une norme fédérale de divulgation d’informations relatives aux modèles d’IA. Elle prévaudrait sur les lois des États américains.
Dans le même délai, la FTC doit émettre une déclaration de principe sur l’application du droit à la consommation aux IA. Il lui faudra plus précisément expliquer les circonstances dans lesquelles les textes qui exigent d’altérer les outputs ne prévalent pas sur la loi fédérale interdisant les pratiques commerciales injustes ou trompeuses.
Au bout, il y aurait une recommandation de cadre législatif fédéral uniforme. Celui-ci prévaudrait sur les législations IA jugées problématiques. Mais pas, en revanche, sur celles qui touchent à la protection de l’enfance, aux infrastructures de calcul et de données ainsi qu’à la commande publique.
Illustration générée par IA
The post La chasse aux sorcières de Washington pour imposer sa doctrine IA appeared first on Silicon.fr.

XPG, la branche gaming d'ADATA annonce ce jour la sortie d'un nouveau SSD M.2. NVMe à destination des gamers. Son nom ? Le MARS 970 Plus !
The post Un nouveau SSD M.2. PCIe 5.0 chez ADATA : le MARS 970 Plus first appeared on Bhmag.