OpenAI reconnaît ouvertement que son navigateur Atlas demeure exposé à des failles de sécurité difficiles à éradiquer. L’entreprise admet que les attaques par injection de prompts, capables de détourner le comportement des agents intelligents via des instructions malveillantes dissimulées dans les pages web ou courriels, constituent un défi permanent. Cette vulnérabilité soulève des interrogations majeures ... Lire plus
Pour modéliser les trajectoires complexes, les simulations numériques sont des outils avancés qu’utilisent les agences spatiales, dont la Nasa et l’ESA. La comète 3I/Atlas, récemment découverte, constitue un exemple parfait de l'application de cette technologie. Nous vous proposons de visualiser...
Boston Dynamics que vous connaissez tous pour ses chiens robots tueurs de la mort, vient de sortir une vidéo de 40 minutes. Pas de saltos arrière ou de robots qui dansent mais plutôt une loooongue session où ça parle stratégie IA et vision à long terme. Et comme j'ai trouvé que c'était intéressant, je partage ça avec vous !
Zach Jacowski, le responsable d'Atlas (15 ans de boîte, il dirigeait Spot avant), discute donc avec Alberto Rodriguez, un ancien prof du MIT qui a lâché sa chaire pour rejoindre l'aventure et ce qu'ils racontent, c'est ni plus ni moins comment ils comptent construire un "cerveau robot" capable d'apprendre à faire n'importe quelle tâche. Je m'imagine déjà avec
un robot korben
, clone de ma modeste personne capable de faire tout le boulot domestique à ma place aussi bien que moi... Ce serait fou.
Leur objectif à Boston Dynamics, c'est donc de créer le premier robot humanoïde commercialement viable au monde et pour ça, ils ont choisi de commencer par l'industrie, notamment les usines du groupe Hyundai (qui possède Boston Dynamics).
Alors pourquoi ? Hé bien parce que même dans les usines les plus modernes et automatisées, y'a encore des dizaines de milliers de tâches qui sont faites à la main. C'est fou hein ? Automatiser ça c'est un cauchemar, car pour automatiser UNE seule tâche (genre visser une roue sur une voiture), il faudrait environ un an de développement et plus d'un million de dollars.
Ça demande des ingénieurs qui conçoivent une machine spécialisée, un embout sur mesure, un système d'alimentation des vis... Bref, multiplié par les dizaines de milliers de tâches différentes dans une usine, on serait encore en train de bosser sur cette automatisation dans 100 ans...
L'idée de Boston Dynamics, c'est donc de construire un robot polyvalent avec un cerveau généraliste. Comme ça au lieu de programmer chaque tâche à la main, on apprend au robot comment faire. Et tout comme le font les grands modèles de langage type ChatGPT, ils utilisent une approche en deux phases : le pre-training (où le robot accumule du "bon sens" physique) et le post-training (où on l'affine pour une tâche spécifique en une journée au lieu d'un an).
Mais le gros défi, c'est clairement les données. ChatGPT a été entraîné sur à peu près toute la connaissance humaine disponible sur Internet mais pour un robot qui doit apprendre à manipuler des objets physiques, y'a pas d'équivalent qui traîne quelque part.
Du coup, ils utilisent trois sources de data.
La première, c'est la téléopération. Des opérateurs portent un casque VR, voient à travers les yeux du robot et le contrôlent avec leur corps. Après quelques semaines d'entraînement, ils deviennent alors capables de faire faire à peu près n'importe quoi au robot. C'est la donnée la plus précieuse, car il n'y a aucun écart entre ce qui est démontré et ce que le robot peut reproduire. Par contre, ça ne se scale pas des masses.
La deuxième source, c'est l'apprentissage par renforcement en simulation. On laisse le robot explorer par lui-même, essayer, échouer, optimiser ses comportements. L'avantage c'est qu'on peut le faire tourner sur des milliers de GPU en parallèle et générer des données à une échelle impossible en conditions réelles. Et contrairement à la téléopération, le robot peut apprendre des mouvements ultra-rapides et précis qu'un humain aurait du mal à démontrer, du genre faire une roue ou insérer une pièce avec une précision millimétrique.
La troisième source, c'est le pari le plus ambitieux, je trouve. Il s'agit d'apprendre directement en observant des humains.
Alors est-ce qu'on peut entraîner un robot à réparer un vélo en lui montrant des vidéos YouTube de gens qui réparent des vélos ? Pas encore... pour l'instant c'est plus de la recherche que de la production, mais l'idée c'est d'équiper des humains de capteurs (caméras sur la tête, gants tactiles) et de leur faire faire leur boulot normalement pendant que le système apprend.
Et ils ne cherchent pas à tout faire avec un seul réseau neuronal de bout en bout. Ils gardent une séparation entre le "système 1" (les réflexes rapides, l'équilibre, la coordination motrice, un peu comme notre cervelet) et le "système 2" (la réflexion, la compréhension de la scène, la prise de décision). Le modèle de comportement génère des commandes pour les mains, les pieds et le torse, et un contrôleur bas niveau s'occupe de réaliser tout ça physiquement sur le robot.
C'est bien pensé je trouve. Et dans tout ce bordel ambiant autour de la robotique actuelle, eux semblent avoir trouver leur voie. Ils veulent transformer l'industrie, les usines...etc. Leur plan est clair et ils savent exactement ce qu'ils doivent réussir avant de passer à la suite (livraison à domicile, robots domestiques...).
Voilà, je pense que ça peut vous intéresser, même si c'est full english...
Le visiteur interstellaire 3I/Atlas sera au plus proche de la Terre le 19 décembre prochain. L'occasion de profiter de ce spectacle unique, concernant un astre mystérieux qui est encore loin d'avoir livré tous ses secrets.
Avi Loeb avance une nouvelle hypothèse pour le moins intrigante au sujet de 3I/ATLAS. Apparemment, le célèbre visiteur interstellaire pourrait déployer des engins près de la plus grande planète du système solaire.
Un astrophotographe basé aux États-Unis a récemment réussi à photographier 3I/ATLAS. Le cliché, partagé le 16 novembre dernier, impressionne aussi bien la communauté scientifique que les passionnés d’astronomie.
Grâce à l’application « Eyes on the Solar System » de la NASA, il est désormais possible de suivre le parcours de 3I/ATLAS en temps réel et découvrir les secrets de ce visiteur interstellaire.
OpenAI adopte une approche prudente quant à l’usage d’Atlas en environnement d’entreprise.
Le groupe américain vient de lancer ce « navigateur IA » basé sur Chromium. Initialement pour les Mac Arm (Apple Silicon).
Atlas est accessible à tous les utilisateurs des abonnements ChatGPT « individuels » (Free, Plus, Pro, Go). Il l’est aussi avec les offres ChatGPT Business, Enterprise et Edu… mais en bêta. Et avec des limites qu’OpenAI énumère ouvertement.
Atlas manque encore d’une config entreprise
Parmi ces limites, il y a l’absence de garanties de résidence des données. Il n’y a pas non plus, dans l’optique de déploiements gérés, de canal de distribution spécifique, ni d’épinglage de versions.
Atlas n’entre pour le moment pas dans le périmètre des certifications SOC 2 et ISO d’OpenAI. Il n’émet par ailleurs pas de logs vers la Compliance API et n’est pas doté d’intégrations SIEM ou eDiscovery.
Certains types de données peuvent ne pas être couverts par les engagements d’isolation et de conservation associés à l’abonnement Enterprise, nous précise-t-on. Les données de navigation en fait partie. Comme celles relatives à l’activité agentique.
Sur la partie réseau, Atlas ne permet pas de définir des listes blanches d’adresses IP, ni de paramétrer le private ingress. Il n’a plus globalement pas d’allowlists et de blocklists spécifiques, ni d’ailleurs ses propres RBAC, SSO et provisionnement SCIM.
Six clés MDM sont officiellement prises en charge pour commencer :
CookiesAllowedForUrls (liste des sites autorisés à définir des cookies)
RemoteDebuggingAllowed (autorisation du débogage distant)
Beaucoup d’autres clés type Chromium devraient fonctionner. Le support officiel sera étendu quand Atlas passera en disponibilité générale sur ChatGPT Business, Enterprise et Edu.
Windows a Recall, Atlas a les « souvenirs »
Sur les abonnements Business, le navigateur est disponible par défaut dans tous les espaces de travail. Sur les abonnements Enterprise, un admin doit l’activer au préalable.
Dans l’un et l’autre cas, conformément à la politique appliquée à ChatGPT, les données de navigation ne sont pas exploitées pour entraîner les modèles d’OpenAI* (elles peuvent l’être sur les abonnements individuels ; c’est toutefois en opt-in).
Autre élément en opt-in : la mémoire. Cette fonctionnalité, diffusée sur ChatGPT à partir de septembre 2024, consiste à retenir des éléments-clés des conversations pour ensuite améliorer les résultats. OpenAI l’avait déclinée au printemps 2025 pour aider à personnaliser les résultats de recherches web.
La voilà désormais intégrée dans Atlas. Elle implique la transmission du contenu web consulté vers les serveurs d’OpenAI, où ce contenu est synthétisé, puis retransmis à Atlas pour mettre à jour ses « souvenirs ».
Les contenus web sont supprimés du serveur dès qu’ils ont été synthétisés. Les résumés le sont sous 7 jours. Les utilisateurs de macOS 26 ont la possibilité d’opter pour un traitement intégralement en local. Les « souvenirs » en eux-mêmes ne se suppriment pas, mais ils évoluent en fonction de l’historique effacé. Il est également possible de les archiver pour ne plus que ChatGPT y accède.
Atlas permet aussi de rendre des pages web « invisibles » pour ChatGPT. Cela se règle dans les paramètres ou via l’icône cadenas dans la barre d’adresse.
* Pour ce qui est de l’exploitation des conversations, notamment dans la barre latérale d’Atlas (fonction Ask ChatGPT), ce sont les paramètres de ChatGPT qui ont la priorité.