Vue lecture

OnePlus dévoile OxygenOS 16 : intégration complète de Google Gemini, IA plus intelligente et design retravaillé

Comme attendu, OnePlus vient d’annoncer OxygenOS 16, sa nouvelle interface basée sur Android 16. Au programme : une refonte du Mind Space, une intégration complète de l’assistant Google Gemini, de nouvelles options de personnalisation d’écran de verrouillage, des améliorations de connectivité, et une interface plus fluide et lumineuse. Mind Space: un espace IA désormais connecté à Google Gemini […]

L’article OnePlus dévoile OxygenOS 16 : intégration complète de Google Gemini, IA plus intelligente et design retravaillé est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Gemini automatise la planification de réunions dans Gmail

Google enrichit son arsenal productivité avec une fonction attendue : la planification intelligente de rendez-vous via Gemini. Dévoilée mardi, la fonctionnalité « Help me schedule » analyse automatiquement les disponibilités dans Google Calendar pour proposer des créneaux pertinents aux utilisateurs de Gmail. Le destinataire de l’email n’a plus qu’à sélectionner l’horaire qui lui convient, et ... Lire plus

L'article Gemini automatise la planification de réunions dans Gmail est apparu en premier sur Fredzone.
  •  

Google préparerait le lancement de Gemini 3 le 22 octobre : une riposte directe à ChatGPT

La bataille de l’intelligence artificielle entre Google et OpenAI s’apprête à franchir un nouveau cap. Selon plusieurs fuites récentes et rapports d’analystes, Gemini 3 — la prochaine génération du modèle d’IA de Google — pourrait être annoncée dès le 22 octobre. Un calendrier marketing interne, diffusé sur les réseaux sociaux, suggère un lancement majeur destiné à rapprocher […]

L’article Google préparerait le lancement de Gemini 3 le 22 octobre : une riposte directe à ChatGPT est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Gmail : Google lance « Help Me Schedule », une IA Gemini qui planifie automatiquement vos réunions

Fini les échanges interminables pour caler une réunion. Google vient d’annoncer « Help Me Schedule », une nouvelle fonctionnalité propulsée par Gemini, son IA maison, intégrée directement dans Gmail et Google Agenda. L’objectif : permettre aux utilisateurs de proposer des créneaux de rendez-vous en un clic, sans jongler entre e-mails, calendriers et outils tiers. Une planification assistée par […]

L’article Gmail : Google lance « Help Me Schedule », une IA Gemini qui planifie automatiquement vos réunions est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

La nouvelle fonction Home Brief de Google séduit certains, déçoit d’autres

Moins de deux semaines après le grand dévoilement de « Gemini for Home » par Google, l’intégration de l’intelligence artificielle génère déjà des hallucinations problématiques. Le géant technologique californien a récemment remplacé l’assistant Google classique par l’intelligence de Gemini. Dans le cadre de ce déploiement, les utilisateurs de Google Home ont gagné une façon plus ... Lire plus

L'article La nouvelle fonction Home Brief de Google séduit certains, déçoit d’autres est apparu en premier sur Fredzone.
  •  

À cause de l'IA, vous ne pourrez bientôt plus vous fier à vos souvenirs

Cette année, avec Nano Banana, ChatGPT, Sora, Seedream et j’en passe, on est quand même passé de “Je cherche une image sur le net” à “Tiens, et si je demandais à Google (ou un autre) de créer l’image que je cherche…”. Comme ça, on ne perd plus de temps à en regarder plein pour trouver la meilleure, et surtout on ne se pose plus la question de est-ce que c’est une image sous copyright ? Ou une image mise en ligne sur un site Creative Commons dont la licence libre sera retirée dans quelques années par un cabinet d’avocat véreux spécialisé dans le copyright trolling… et qui viendra ensuite vous réclamer du pognon .

Et tout ce délire de génération d’images ne risque pas de s’arranger, notamment avec Nano Banana (c’est le petit nom de Gemini 2.5 Flash Image, le modèle de génération d’images de Google) que Google vient d’intégrer dans certains de ses services. En effet, très bientôt vous allez pouvoir modifier, remixer, transformer des images directement depuis la recherche Google (AI Mode), Lens, ou directement vos photos !

Vous prenez une photo avec Lens, ensuite, hop, vous ajoutez un petit prompt texte, et l’IA transformera l’image selon vos désirs. Vous pouvez aussi chercher un truc dans Google Search, puis modifier visuellement le résultat à la volée si ça vous amuse.

Vous allez par exemple chercher un canapé bleu marine sur Google Images, tomber sur la photo de vos rêves sauf que le canapé est rouge brique et hop, l’application le passera en bleu marine directement dans les résultats de recherche. Vous pouvez même mixer deux images pour créer quelque chose de nouveau…

C’est chouette techniquement mais philosophiquement, c’est un délire car la frontière entre le réel et le généré va devenir encore plus floue. On va très vite perdre la notion de ce qui existe vraiment car chaque image pourra être un remix à la demande et au final personne ne saura plus ce qui vient d’un vrai appareil photo ou d’un algo.

C’est une nouvelle réalité qui arrive, où le faux et le vrai se mélangent, faisant disparaitre nos repères.

Au niveau de Google Photos, c’est encore plus inquiétant car on va pouvoir fusionner des images perso, créer des collages, ajouter des éléments de certaines photos dans d’autres photos…etc. On va donc pouvoir se créer des souvenirs qui n’ont jamais existé. Votre gamin n’était pas là pour la photo de famille ? Hop, on le rajoute. Un coucher de soleil moyen-bof sur une photo de vacances ? Hop, on le rend épique.

Nos enfants vont donc grandir avec des albums photo mi-réels mi-générés par IA et au bout de quelques années, plus personne ne se souviendra de si c’était vrai ou pas.

Bref, comme je le disais, technologiquement, c’est impressionnant mais on se demande quand même où se trouve la limite entre retouche créative et falsification de notre mémoire ?

J’en sais quelque chose, la mémoire humaine est déjà très fragile. Elle se réécrit à chaque souvenir et même à chaque évocation d’un souvenir…. Alors si en plus on lui file des photos modifiées pour coller à une réalité qu’on fantasme, j’imagine qu’on va tous finir par croire à des événements qui n’ont jamais eu lieu, surtout si ce sont des modifications subtiles, crédibles.

Bref, ces nouveautés liées à Nano Banana sont déployées uniquement aux États-Unis et en Inde pour le moment, ce qui vous laisse un peu de temps pour réfléchir à tout ça et vous préparer à sauter ou pas dans ce délire de réécriture de vos propres souvenirs.

A vous de voir !

Source

  •  

Quels sont les meilleurs drones à acheter en 2025 ? La sélection DJI

Le DJI Air 3 pour illustration

Vous avez déjà eu envie de piloter un drone ? Que vous soyez débutants ou experts, voici notre comparatif des meilleurs drones, pour savoir lequel choisir selon vos besoins, vos préférences et votre budget.
 [Lire la suite]

Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !

  •  

Gemini 2.5 Computer Use : l’agent Google qui clique, tape et scrolle pour vous

✇SysKB
Par :Max

Gemini 2.5 Computer Use est le nouveau modèle de Google dédié aux agents capables d’agir dans une interface web comme un humain. Il “voit” l’écran, comprend le contexte, puis décide où cliquer, quoi taper, et quand faire défiler. Cette approche vise tous les cas où l’on n’a pas d’API, mais où un navigateur suffit pour accomplir une tâche de bout en bout.

Ce que l’agent sait faire et pour quoi l’utiliser

Concrètement, l’agent exécute des actions UI standardisées : ouvrir une page, suivre un lien, remplir un formulaire, valider un paiement test, ou récupérer une information derrière un login. Grâce à la vision d’écran, il repère les éléments visuels même si leur code change légèrement. Dès lors, on automatise des parcours métiers côté web sans réécrire des scripts fragiles.
Dans un premier temps, l’accent porte sur le navigateur. C’est un choix pragmatique : le web est l’interface universelle des services modernes. Par conséquent, on cible des scénarios à fort ROI comme l’e-commerce, le support client, la qualification de leads, les tests UI, ou la collecte d’informations structurées.

Comment fonctionne la boucle d’actions

Le fonctionnement suit un schéma simple et robuste. D’abord, votre application capture l’écran et passe l’historique des pas déjà effectués. Ensuite, Gemini 2.5 Computer Use propose la “prochaine meilleure action” sous forme d’instruction structurée : clic, saisie, scroll, raccourci clavier, ou navigation. Puis votre app exécute cette action via l’automatisation du navigateur et renvoie une nouvelle capture.
Cette boucle de perception-action se répète jusqu’à réussite, blocage, ou attente d’une confirmation. Ainsi, l’agent reste explicable : chaque pas est loggé, rejouable et auditable. En outre, ce design facilite le “retry” ou l’adaptation à des variations d’interface, ce qui améliore la robustesse en production.

Benchmarks et premiers retours

Côté performance, les derniers benchmarks publics indiquent un taux de réussite élevé sur des suites de tâches du monde réel. Sur un test de navigation complexe, le modèle atteint 79,9 % de succès, devant des agents concurrents qui plafonnent plus bas. Sur d’autres évaluations multi-sites, il se classe également en tête, avec une latence en baisse et des coûts maîtrisés.
Sur le terrain, les premiers pilotes rapportent des exécutions plus rapides que les alternatives, parfois jusqu’à 50 % selon les scénarios. Par ailleurs, l’orientation “web d’abord” simplifie l’adoption : les équipes peuvent brancher l’agent dans leurs pipelines QA, leurs assistants internes, ou leurs scripts d’automatisation sans refonte d’outillage.

Sécurité : confirmations et garde-fous par étape

Google a conçu une surcouche de sécurité qui analyse chaque étape avant exécution. Dès qu’une action présente un risque — par exemple cliquer sur “Acheter maintenant”, lire un document médical, ou envoyer un message sensible — l’agent doit demander une confirmation explicite. De plus, des politiques contrôlent l’accès aux données, les domaines autorisés, et les opérations critiques.
Ce modèle de “permission granulaire” réduit les erreurs coûteuses et rassure les équipes conformité. Mieux, il favorise l’adoption dans des contextes réglementés, car les actions deviennent traçables et gouvernées. Ainsi, les responsables produit gardent la main, tout en déléguant l’exécution répétitive à l’IA.

Limites actuelles et feuille de route implicite

Aujourd’hui, le périmètre privilégié est le navigateur. L’agent n’a pas vocation, pour l’instant, à piloter l’intégralité d’un système d’exploitation. Toutefois, la boucle perception-action, la vision de l’écran, et l’outillage développeur laissent penser que l’extension à d’autres surfaces d’UI suivra. En attendant, les cas d’usage web couvrent déjà une large part des besoins opérationnels.

Comment démarrer

Pour tester rapidement, on passe par AI Studio ou par Vertex AI. On décrit la tâche, on donne les accès nécessaires, et on branche l’exécution du navigateur. Ensuite, on mesure la fiabilité sur vos parcours et on rajuste les “prompts d’agent”, les timeouts, et les règles de confirmation. Enfin, on industrialise via des files de jobs et de la télémétrie, afin d’observer les taux de succès dans le temps.

Gemini 2.5 Computer Use apporte un vrai saut pour les agents web. Il combine vision d’écran, planification d’actions, et garde-fous solides. Résultat : des workflows plus rapides, plus fiables et plus sûrs, sans dépendre d’intégrations API fragiles.

Cet article original intitulé Gemini 2.5 Computer Use : l’agent Google qui clique, tape et scrolle pour vous a été publié la première sur SysKB.

  •  

Gemini : Google refuse de corriger une faille jugée sérieuse par des chercheurs en sécurité

Google Gemini

Un chercheur en cybersécurité a découvert qu’il était possible de glisser des instructions invisibles dans les e-mails ou les invitations Google Calendar que l’assistant Gemini lirait… sans que l’utilisateur ne voie quoi que ce soit. Google a préféré ne pas corriger, estimant que le risque relevait davantage de l’ingénierie sociale. Une décision qui intrigue et inquiète, au vu du potentiel de la faille.

  •  

Google prépare Veo 3.1 pour rivaliser avec Sora 2 grâce à des vidéos plus longues et plus réalistes

L’intelligence artificielle vidéo franchit une nouvelle étape. Google s’apprête à déployer Veo 3.1, la version améliorée de son générateur vidéo par IA, déjà accessible via plusieurs plateformes tierces. Cette mise à jour promet des clips de meilleure qualité, des personnages plus cohérents et une durée étendue pouvant atteindre une minute, renforçant ainsi la concurrence face ... Lire plus

L'article Google prépare Veo 3.1 pour rivaliser avec Sora 2 grâce à des vidéos plus longues et plus réalistes est apparu en premier sur Fredzone.
  •  

Google intègre enfin Gemini dans Google Maps : l’assistant IA remplace Google Assistant

Google continue d’étendre la présence de son assistant intelligent Gemini dans ses applications. Après Gmail, YouTube ou encore Messages, c’est désormais Google Maps qui accueille cette intégration tant attendue. Selon les découvertes d’Android Authority, la nouveauté a été repérée dans la version bêta 25.41.03.815390258 de l’application Maps. Gemini prend la place de Google Assistant dans Maps […]

L’article Google intègre enfin Gemini dans Google Maps : l’assistant IA remplace Google Assistant est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •