Le film Zootopia 2 de Disney a pris d’assaut les salles obscures, faisant ses débuts juste avant le week-end de Thanksgiving et dominant le box-office en un temps record. Selon le Hollywood Reporter, cette suite animée a généré un incroyable chiffre d’affaires de 556 millions de dollars dans le monde entier pendant la période de […]
Alors que la poussée vers les véhicules électriques (VE) s’intensifie, les grands acteurs de l’industrie automobile deviennent de plus en plus inquiets d’un éventuel afflux de nouveaux véhicules et marques en provenance de Chine, envahissant des marchés significatifs comme les États-Unis et l’Europe. Bien que les exportations chinoises suscitent des inquiétudes, la menace immédiate pourrait […]
Alors que la nation connaît une expansion significative des centres de données visant à alimenter les technologies de l’IA, les communautés locales font face à des prix de l’énergie en hausse et au risque de pénuries. Il est essentiel de trouver des solutions qui ne se contentent pas de limiter les demandes des entreprises technologiques. […]
Le MOVA 1000, robot tondeuse autonome sans installation de câbles, bénéficie actuellement d’une réduction de 38% chez Amazon. L’occasion ou jamais de profiter d’un jardin bien entretenu sans effort.
Les robots tondeuses de qualité professionnelle sont rarement sous la barre symbolique des 750€, surtout quand ils intègrent des technologies de pointe. Pourtant, Amazon propose actuellement le MOVA 1000 à 749€ au lieu de 1199€, soit une réduction spectaculaire de 38%.
Ce modèle se distingue par son système de détection environnementale UltraView qui utilise un LiDAR 3D, une technologie habituellement réservée aux véhicules autonomes. Avec plus de 1000 évaluations clients et une note moyenne de 4,4/5, ce robot tondeuse a déjà convaincu de nombreux utilisateurs par sa fiabilité et ses performances.
Une remise exceptionnelle de 450€ sur un modèle premium
Le MOVA 1000 bénéficie actuellement d’une réduction de 450€, faisant passer son prix de 1199€ à seulement 749€. Cette offre place ce robot tondeuse premium dans une gamme de prix habituellement occupée par des modèles beaucoup plus basiques. Pour moins de 750€, vous accédez à une technologie de navigation autonome comparable à celle des robots aspirateurs les plus avancés, mais adaptée aux défis extérieurs.
Au-delà du prix attractif, cet investissement est sécurisé par une garantie exceptionnelle de 3 ans, soit trois fois la période standard dans l’industrie. Cette couverture prolongée inclut réparations et remplacements gratuits, un atout considérable pour un équipement destiné à travailler quotidiennement en extérieur, exposé aux intempéries et aux terrains accidentés.
Un concentré de technologies pour une tonte parfaitement autonome
Le MOVA 1000 se démarque par son système UltraView qui combine un capteur LiDAR 3D avec des algorithmes de cartographie avancés. Fini l’installation laborieuse de câbles périmétriques : ce modèle crée automatiquement une carte 3D précise de votre terrain dès le premier passage, avec une détection jusqu’à 30 mètres et une précision au centimètre près.
L’application MOVAhome vous permet de tout gérer depuis votre smartphone : zones virtuelles, programmation des horaires, ajustement des paramètres. Sa fonction double carte s’avère particulièrement pratique pour les jardins avec plusieurs espaces déconnectés. Le robot navigue de façon totalement autonome, quelle que soit la luminosité.
Les performances tout-terrain impressionnent avec des pentes gérées jusqu’à 45%. Ses roues spécialement conçues offrent une adhérence qui protège votre gazon tout en évitant les dérapages. Le système d’évitement intelligent repère et contourne automatiquement obstacles, jouets ou animaux domestiques pour une tonte sécurisée.
À 749€, le MOVA 1000 représente l’une des meilleures opportunités actuelles pour équiper votre jardin d’un robot tondeuse véritablement autonome. La combinaison d’une technologie de pointe, d’une installation ultra-simplifiée et d’une garantie étendue justifie largement cet investissement pour tous ceux qui recherchent un entretien de pelouse sans contrainte.
Les lumières engendrées par le demi-million de satellites que l'humanité a prévu de mettre en orbite dans les prochaines années pourraient menacer à l'avenir les images captées par les téléscopes spaciaux, avertissent des astronomes de la Nasa.
Depuis 2019, le nombre de satellites en orbite basse est passé de 2.000 à 15.000, selon l'étude publiée mercredi dans la revue Nature. Mais ce n'est rien à côté de ce qui est prévu dans les prochaines années.
Moins de chances de se faire embaucher, d'obtenir une liberté conditionnelle ou d'obtenir la confiance de son patient, les bugs de visioconférence ont des conséquences étonnamment importantes, conclut une étude. Mais tous les types de bugs n'ont pas le même poids, et certaines populations y sont plus exposées que d'autres.
Des mesures des "polluants éternels" de la famille des PFAS par l'État confirment les craintes que suscite l'un de ces composés chimiques, le TFA, présent presque partout en France dans l'eau, y compris du robinet, comme le craignaient des associations environnementales.
L'Agence nationale de sécurité sanitaire (Anses) a révélé mercredi que l'acide trifluoroacétique (de formule chimique CF₃COOH) était présent dans 92% des eaux analysées.
Ce chiffre provient de prélèvements dans 647 échantillons d'eau brute (cours d'eau, mares, lacs, eaux souterraines, puits, etc.
C’est une première en France : 10 ans après la signature de l’Accord de Paris, notre pays accueille les plus éminents chercheurs de la Planète ayant travaillé sur la question du climat. 664 experts du Giec sont réunis à Saint-Denis, cette semaine, jusqu’au 5 décembre. Dans quel but ?
Alors que de plus en plus de spécialistes prévoient l’explosion de la bulle spéculative autour de l’intelligence artificielle, la Chine s’inquiète déjà de la formation d’une autre : les robots humanoïdes. De nombreuses entreprises partout dans le monde, mais surtout en Chine et aux États-Unis,...
Une révolution scientifique bouleverse notre compréhension des maladies neurodégénératives. Des chercheurs britanniques attestent qu'une décennie avant tout diagnostic officiel, le cerveau lance déjà des signaux d'alarme. Cette découverte majeure ouvre des perspectives inédites pour la...
Il semble plutôt discret, pourtant le Renault Symbioz est une valeur sûre dans la gamme du constructeur puisqu’il se place dans le Top 10 des meilleures ventes dans l’hexagone. Logiquement, il peuple de plus en plus les annonces d’occasion, mais devient-il pour autant une bonne affaire ?
Tentante, la déclinaison 150 ch du nouveau T-Roc avec son 0 à 100 km/h annoncé en moins de 9s, d’autant que les malus restent contenus grâce à la micro-hybridation. Reste que le budget augmente de manière significative au point de mettre en doute sa compétitivité…
Dans le secteur des montres connectées Android, Samsung domine la concurrence avec une gamme complète de trois modèles : la Galaxy Watch 8, la Watch 8 Classic et la Watch Ultra 2025. Vous trouver ainsi la smartwatch qui convient le...
Besoin d'un VPN performant à un prix mini ? Surfshark propose actuellement une offre généreuse, avec jusqu'à 88% de réduction sur son abonnement VPN. On vous dit tout sur ce cadeau de Noël. Cliquez ici pour profiter de ce bon...
Après avoir intégré Gemini partout là où il pouvait, Google renforce maintenant la présence de son IA maison. Google Drive en est témoin : la firme de Mountain View vient d’y ajouter une nouvelle fonctionnalité attendue depuis longtemps. Mais il existe...
Dans une vidéo publiée sur YouTube, Samsung confirme l’arrivée de son prochain processeur haut de gamme, l’Exynos 2600. Celui-ci devrait être intégré à certaines versions des Galaxy S26, notamment celles destinées au marché européen. Samsung promet que le composant marquera...
Le Future of Life Institute vient de publier l’édition 2025 de son AI Safety Index, un rapport qui évalue les pratiques de sécurité des principales entreprises développant des intelligences artificielles avancées.
Les conclusions sont sans appel : aucune entreprise n’atteint l’excellence en matière de sécurité, et le secteur dans son ensemble reste dangereusement mal préparé face aux risques existentiels que pourraient poser les IA futures.
Un classement général décevant
Sur les huit entreprises évaluées, aucune n’obtient une note maximale. Le meilleur résultat revient à Anthropic avec un simple C+, suivi d’OpenAI (C) et de Google DeepMind (C-). Les autres acteurs ( xAI, Z.ai, Meta, DeepSeek et Alibaba Cloud) obtiennent des notes nettement inférieures, allant de D à F.
Cette situation révèle que même les leaders du secteur se situent tout au plus dans la moyenne. L’industrie de l’IA, malgré ses ambitions affichées de développer des systèmes toujours plus puissants, est loin de disposer des garde-fous nécessaires.
Anthropic : le meilleur élève, mais encore insuffisant
Malgré certaines critiques, Anthropic demeure l’entreprise la plus responsable selon l’index. Elle se distingue par une gouvernance solide (statut de Public Benefit Corporation), des efforts significatifs en recherche de sécurité, un cadre de sécurité relativement développé et une communication transparente sur les risques.
Toutefois, des faiblesses importantes subsistent. Le rapport souligne notamment l’absence récente d’essais sur l’amélioration des capacités humaines dans le cycle d’évaluation des risques, ainsi qu’un passage par défaut à l’utilisation des interactions des utilisateurs pour l’entraînement des modèles.
Les recommandations adressées à Anthropic incluent la formalisation de seuils de risques mesurables, la documentation de mécanismes concrets d’atténuation, l’amélioration de l’indépendance des évaluations externes et la publication d’une version publique robuste de sa politique de lanceurs d’alerte.
OpenAI : des progrès, mais un écart entre discours et pratique
OpenAI se distingue par un processus d’évaluation des risques plus large que certains concurrents et par la publication, unique parmi ses pairs, d’une politique de lanceur d’alerte (whistleblowing) suite à sa médiatisation.
Néanmoins, le rapport appelle l’entreprise à aller plus loin : rendre ses seuils de sécurité réellement mesurables et applicables, accroître la transparence vis-à-vis des audits externes, et surtout aligner ses positions publiques avec ses engagements internes.
Google DeepMind : des avancées timides
DeepMind montre des progrès en matière de transparence, ayant notamment complété le questionnaire de l’AI Safety Index et partagé des éléments de politique interne, comme son dispositif de « whistleblowing ».
Cependant, les fragilités persistent : l’évaluation des risques reste limitée, la validité des tests externes est jugée faible, et le lien entre la détection de risques et le déclenchement de mesures concrètes demeure flou.
Les autres acteurs : des efforts marginaux
Certaines entreprises ont entamé des démarches d’amélioration. Par exemple, xAI a publié un cadre de sécurité pour ses « IA de frontière », et Meta a formalisé un cadre avec seuils et modélisation des risques.
Mais les évaluations restent superficielles ou incomplètes : les couvertures de risque sont restreintes, les seuils peu crédibles, les mécanismes d’atténuation flous ou absents, et la gouvernance interne insuffisante. On note notamment l’absence de politique de lanceurs d’alerte et un manque d’autorité claire en cas de déclenchement de risques.
Pour les entreprises les moins bien notées, notamment DeepSeek et Alibaba Cloud, les progrès constatés sont très modestes, principalement sur la publication de cadres de sécurité ou la participation à des standards internationaux.
Le talon d’Achille : la sécurité existentielle
Le constat le plus alarmant du rapport concerne la sécurité existentielle, c’est-à-dire la capacité à prévenir des catastrophes majeures comme la perte de contrôle ou le mésalignement (misalignment).
Pour la deuxième édition consécutive, aucune entreprise n’obtient une note supérieure à D dans ce domaine. Cela signifie qu’en dépit des ambitions exprimées par certains acteurs de développer une AGI ou une superintelligence dans la décennie, aucune démarche crédible et concrète de planification pour garantir le contrôle ou l’alignement à long terme n’a été mise en place.
Un membre du comité d’experts qualifie ce décalage entre la cadence des innovations techniques et l’absence de stratégie de sécurité de profondément alarmant.
Cette situation pose plusieurs défis majeurs :
Un risque structurel : Si les entreprises continuent à développer des IA sans plans tangibles de contrôle existentiel, nous pourrions nous diriger vers des systèmes dont le comportement échappe à tout encadrement, posant potentiellement un danger global.
Un problème de gouvernance collective : L’absence d’un standard universel, d’un plan de surveillance indépendant ou d’une régulation contraignante rend la sécurité de l’IA dépendante de la bonne volonté des entreprises.
Une dissonance entre ambitions et préparation : Nombreuses sont les acteurs qui visent l’AGI dans la décennie, mais aucun ne démontre qu’il a envisagé, préparé ou traduit cela en mesures concrètes.
Les recommandations du rapport
Face à ce constat, le rapport formule plusieurs recommandations à destination des entreprises, des régulateurs et des décideurs publics.
D’abord, les entreprises doivent dépasser les déclarations d’intention et produire des plans concrets, chiffrés et mesurables, avec des seuils de risque clairs, des mécanismes d’alerte, des protocoles d’atténuation et une vraie gouvernance interne, idéalement avec une surveillance indépendante..
Ensuite, les entreprises devraient s’engager publiquement à respecter des standards communs, par exemple en adoptant l’AI Act dans l’Union Européenne ou un code de bonnes pratiques similaire, et en coopérant à des initiatives globales de gouvernance de l’IA.
Enfin, en cas d’intention réelle de développer des IA très puissantes, les acteurs doivent clarifier leurs objectifs et expliquer comment ils comptent garantir le contrôle, l’alignement et la prévention des risques existentiels.
Limites méthodologiques
Il convient de noter que les évaluations reposent sur des éléments publics ou documentés. Il ne s’agit pas d’audits internes secrets, mais d’observations sur ce que les entreprises ont rendu public ou déclaré. Par conséquent, l’index mesure ce que l’on sait des pratiques, ce qui signifie que des efforts internes invisibles pourraient exister sans être capturés.
De plus, l’édition 2025 couvre des pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements récents, lancements de nouveaux modèles ou annonces postérieures à cette date.
AI Safety Index 2025 : la méthodologie
L’AI Safety Index 2025 évalue huit entreprises majeures du secteur : Anthropic, OpenAI, Google DeepMind, xAI, Z.ai, Meta, DeepSeek et Alibaba Cloud.
Sources d’information Les évaluations reposent exclusivement sur des éléments publics ou documentés fournis par les entreprises. Il ne s’agit pas d’audits internes confidentiels, mais d’une analyse de ce que les entreprises ont choisi de rendre public ou de déclarer officiellement. Certaines entreprises ont complété le questionnaire de l’AI Safety Index, permettant une évaluation plus précise.
Système de notation Le rapport utilise un système de notation allant de A (excellent) à F (insuffisant), avec des graduations intermédiaires (A+, A, A-, B+, B, etc.). Les notes sont attribuées par domaine d’évaluation, notamment :
La gouvernance et la transparence
L’évaluation des risques
Les mécanismes d’atténuation
La sécurité existentielle
Les politiques de lanceurs d’alerte
L’indépendance des audits externes
Limites reconnues L’index mesure uniquement ce qui est connu publiquement des pratiques des entreprises. Des efforts internes significatifs pourraient exister sans être capturés par cette évaluation. Le rapport mentionne explicitement ses limites méthodologiques.
L’édition 2025 couvre les pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements, lancements de modèles ou annonces postérieures à cette date de collecte.
Des checkpoints, du replay… et ça donne des fonctions Lambda « durables ».
AWS a mis cette option en lumière lors de sa conférence re:Invent 2025. La promesse : des exécutions qui peuvent durer jusqu’à 1 an, avec une reprise fiable après interruption ou mise en pause.
Un SDK à intégrer dans le code des fonctions permet d’implémenter les primitives qui gèrent ce mécanisme. Les mises en pause peuvent se faire pour une durée déterminée. On peut aussi conditionner la reprise à un événement donné.
La facturation se fait sur trois plans :
Opérations « durables » (étapes, pauses, callbacks) : 8 $ le million
Données écrites : 0,25 $/Go
Données conservées : 0,15 $/Go/mois
Lambda en un peu moins serverless
Autre option mise en avant : les instances Lambda managées. Il s’agit ici de choisir les configurations EC2 sur lesquelles exécuter les fonctions.
On crée pour cela des « fournisseurs de capacités ». Ces fournisseurs s’exécutent dans le compte AWS, au sein d’un VPC (et au moins d’un sous-réseau). On peut en paramétrer certains aspects :
Architecture CPU
Types d’instances autorisées (liste blanche, liste noire ou sans restriction)
Nombre maximal d’instances
Mode de mise à l’échelle (manuelle ou automatique)
Clé de chiffrement EBS (éventuellement personnalisée)
Un autre modèle de concurrence…
Lorsqu’on publie une version d’une fonction associée à un fournisseur de capacité, Lambda lance des instances managées (3 par défaut, pour la résilience). Ou bien il en utilise des existantes si les ressources sont suffisantes pour accueillir l’environnement d’exécution.
De même, un environnement d’exécution peut gérer plusieurs invocations en parallèle (64 maximum). Le modèle de concurrence est donc différent de celui de Lambda « standard » (une invocation = un environnement).
… de sécurité…
Ce système suppose que la sûreté des threads, la gestion d’état et l’isolation du contexte doivent être gérés différemment en fonction du contexte.
Les fournisseurs de sécurité constituent en fait la limite de confiance. Avec les instances Lambda managées, les fonctions s’exécutent effectivement dans des conteneurs, lesquels ne fournissent pas le même niveau de sécurité que la techno de micro-VM Firecracker utilisée en standard.
… de scaling…
Avec les instances Lambda managées, pas de démarrage à froid. La mise à l’échelle est asynchrone, sur la base de signaux de consommation CPU. Dans cet esprit, l’option est donc à réserver aux workloads dont le trafic est prévisible. AWS ne garantit d’ailleurs pas la stabilité si la charge fait plus que doubler dans un intervalle de 5 minutes.
Quatre paramètres influent sur la mise à l’échelle :
Quantités de mémoire et de vCPU allouées à une fonction
Concurrence maximale par environnement
Cible d’utilisation de ressources
Types d’instances autorisés
… et de tarification
Les instances Lambda managées sont facturées au prix d’EC2 à la demande… avec 15 % de frais supplémentaires. L’option permet néanmoins d’exploiter d’éventuelles remises (savings plans, instances réservées…). Il faut ajouter des frais de 0,20 $ par million de requêtes.