Vue normale

Reçu aujourd’hui — 14 novembre 2025

Pour la première fois de l'histoire, l'intelligence artificielle a piraté de grandes entreprises de manière autonome.

14 novembre 2025 à 11:17
Anthropic a mis au jour une cyberopération qui redéfinit fondamentalement les cybermenaces modernes. Pour la première fois dans l'histoire, une intelligence artificielle multi-agents a été utilisée avec succès pour attaquer des cibles de grande valeur, allant de grandes entreprises technologiques à des institutions financières et des agences gouvernementales. Selon Anthropic, cette campagne est menée par un groupe parrainé par l'État chinois qui a utilisé l'outil Claude Code pour automatiser la majeure partie de l'attaque. Anthropic a révélé que le groupe avait utilisé son logiciel de chiffrement pour tenter d'infiltrer une trentaine d'organisations à travers le monde. L'entreprise a confirmé que, dans quelques cas seulement, les attaques avaient réussi. L'opération, identifiée en septembre, a immédiatement suscité l'inquiétude des analystes, car son mode opératoire différait de celui des groupes liés à des gouvernements. Le rapport souligne qu'il s'agit du premier cas où un agent d'IA a accédé à des cibles de renseignement stratégiques réelles. L'attaque a été menée de manière quasi entièrement automatisée, démontrant ainsi que l'équilibre du cyberespace commence à basculer vers des systèmes capables de fonctionner de manière autonome. Conçu comme un outil d'assistance aux développeurs, Claude Code intègre des mesures de sécurité robustes pour prévenir toute exploitation. Des pirates informatiques chinois ont contourné ces mécanismes grâce à une structure de commandes distribuée. Ils ont décomposé l'opération en petites tâches présentées comme des contrôles de sécurité de routine. L'IA a exécuté ces tâches sans disposer de toutes les informations contextuelles nécessaires, ce qui lui a permis de passer inaperçue des systèmes de sécurité. Les pirates se sont également fait passer pour une équipe d'une entreprise de cybersécurité légitime. Cela a permis à Claude de générer un code qui leur a permis de scanner l'infrastructure des cibles et d'analyser les vulnérabilités, leur permettant ainsi de pénétrer plus profondément dans leurs systèmes. Lors des intrusions, l'IA a généré des scripts pour voler des mots de passe, orchestré des pénétrations de réseau supplémentaires et créé des mécanismes pour maintenir l'accès. Selon Anthropic, l'intervention humaine a été sporadique. Quatre-vingts à quatre-vingt-dix pour cent des opérations ont été menées par l'agent d'IA. Le rapport indique que l'automatisation des attaques transforme le paysage des menaces. Des groupes étatiques pourraient bientôt développer leurs propres outils de piratage basés sur l'IA, s'affranchissant ainsi de toute dépendance à des services externes. Cette technologie permet des intrusions d'une ampleur qui nécessitait auparavant d'importantes équipes d'analystes et d'ingénieurs. L'équipe d'Anthropic a également constaté que l'IA était capable de générer des hallucinations. Il est arrivé que Claude exagère ses conclusions ou crée de fausses données. Cet élément limite l'efficacité de l'opération, mais ne change rien au constat général : les intrusions automatisées ne sont plus une expérience, mais deviennent une pratique courante. Après avoir détecté la campagne, Anthropic a désactivé les comptes utilisés par les pirates et a averti les organisations potentiellement touchées. L'entreprise a indiqué collaborer avec les forces de l'ordre afin de recueillir de nouveaux renseignements. L'incident a été révélé peu après un autre cas où un pirate informatique inconnu a utilisé Claude pour orchestrer une campagne d'hameçonnage visant dix-sept organisations. Cette fois, la cible était la cybercriminalité financière. En réponse, Anthropic a mis en place de nouvelles mesures de sécurité et travaille sur des technologies permettant l'utilisation de l'IA dans le domaine de la défense. L'entreprise souligne que le développement d'agents d'IA doit s'accompagner de celui de mécanismes de surveillance afin d'éviter de faire pencher la balance en faveur des groupes criminels et des acteurs étatiques menant des opérations offensives. Les experts estiment que cet incident marque un tournant pour l'ensemble du secteur. Il ouvre la voie à des opérations où l'humain n'aura plus qu'un rôle de supervision, laissant le travail aux agents d'IA. Ceci contraint les gouvernements et les entreprises à développer des solutions de défense capables d'anticiper la possibilité d'une attaque menée par une machine fonctionnant en continu et capable de modifier ses actions en temps réel. (Lire la suite)
Reçu hier — 13 novembre 2025

OpenAI accélère : GPT-5.1 est disponible avec 2 modèles, 8 personnalités et l'ancien GPT-5 n'est plus prisé.

13 novembre 2025 à 15:20
OpenAI présente GPT-5.1 , une mise à jour du modèle lancé en août, visant à rendre ChatGPT plus cohérent et agréable d'utilisation. L'entreprise introduit seulement deux variantes et enrichit les options de personnalité afin d'adapter le ton de la conversation aux besoins de chaque utilisateur. Le déploiement commence cette semaine et inclut un système qui achemine automatiquement les requêtes vers le modèle le plus adapté, comme par le passé. Les anciens modèles GPT-5 resteront disponibles dans le menu des modèles précédents pendant trois mois, après quoi ils disparaîtront. Avec plus de 800 millions d'utilisateurs de ChatGPT , OpenAI affirme vouloir dépasser l'ère du modèle unique. OpenAI présente deux modèles : GPT-5.1 Instant et GPT-5.1 Thinking . Selon l’entreprise, le premier suit mieux les instructions et adopte un style plus engageant ; le second est plus clair, plus rapide sur les tâches simples et plus persévérant sur les tâches complexes, avec un routage automatique des requêtes en fonction du contenu. - GPT-5.1 Instant : orienté vers des réponses rapides , il accorde plus d'importance au ton et au respect des instructions . - GPT-5.1 Pensée : favorise le raisonnement , est plus lisible et cohérent sur les tâches complexes . En matière de ton, de nouveaux profils de personnalité arrivent pour définir le style de conversation , élargissant ou corrigeant les personnalisations de style et de ton de base déjà disponibles : - Par défaut : Style et tonalité équilibrés - Professionnel : courtois et précis - Amical : extraverti et bavard - Franc : direct et encourageant - Excentrique : vif et imaginatif - Efficace : essentiel et simple - Geek : explorateur et passionné - Cynique : critique et sarcastique Le lancement de GPT-5 en août n'a pas convaincu certains utilisateurs, qui ont critiqué ses progrès limités et son paramétrage par défaut dans ChatGPT . Face à ces critiques, OpenAI a rétabli GPT-4 comme option dès le lendemain de son lancement. Il est clair qu'OpenAI subit la pression de la concurrence, notamment de Google , qui, après des débuts discrets, semble désormais dominer le monde de l'IA. Le lancement rapide de nouveaux modèles apparaît comme une stratégie d'OpenAI pour réaffirmer sa présence sur le devant de la scène. Seuls les tests en conditions réelles, dans les semaines à venir, permettront de savoir si le nouveau GPT-5.1 sera réellement supérieur. (Lire la suite)

Des robotaxis Waymo circulent pour la première fois sur les autoroutes et dans les aéroports

13 novembre 2025 à 15:17
Waymo déploie pour la première fois ses robotaxis sur l'autoroute et étend son service dans la région de la baie de San Francisco jusqu'à San Jose , avec un accès 24h/24 à son aéroport . Circuler sans chauffeur sur ces itinéraires relève davantage du hasard que de la chance : jusqu'à présent, les véhicules Waymo les ont évités, allongeant les temps de trajet et soulevant des interrogations quant à la maturité du service . L'entreprise lance ses premières lignes autoroutières à Phoenix , Los Angeles et dans la région de San Francisco , en commençant par des utilisateurs en accès anticipé . Waymo vise à réduire considérablement les temps de trajet — jusqu'à 50 % sur des axes comme San Francisco–Mountain View — et à améliorer la correspondance entre les usagers et les transports en commun pour le premier et le dernier kilomètre. Un petit pas pour Waymo, un grand pas en avant pour le monde des taxis autonomes , qui sera le théâtre de « batailles » dans un avenir proche. Waymo ouvre l' autoroute , mais progressivement : les utilisateurs qui ont choisi de tester les nouvelles fonctionnalités seront les premiers à y accéder . Les utilisateurs réservent via l' application Waymo , consultent l' heure d'arrivée estimée et un aperçu de l'itinéraire. Si l'itinéraire par autoroute est nettement plus rapide, l' application le sélectionne automatiquement . Ce changement de cap a également un impact sur leur image : l’évitement systématique des autoroutes a souvent été cité comme preuve que les robotaxis n’étaient pas prêts pour les longs trajets. Parallèlement, les entreprises de camions autonomes effectuent leurs essais principalement sur autoroute avec un conducteur de sécurité , et même Tesla, en Californie, propose un service de chauffeur qui inclut également des trajets autoroutiers . Sur autoroute, la vitesse augmente et le temps de décision diminue : une erreur a des conséquences plus graves et plus rapides. Waymo réagit avec un système de capteurs combinant lidar , caméras et radar , offrant une vision à 360 degrés et la capacité de détecter une surface équivalente à trois terrains de football américain . « C’est facile à apprendre, difficile à maîtriser lorsqu’on supprime le pilote de secours et qu’on veut le faire à grande échelle », a déclaré le co-PDG Dmitri Dolgov . En matière de fiabilité , la voiture ne repose pas sur un seul système : les deux ordinateurs de bord fonctionnent en redondance , et Waymo a testé le scénario d’une panne totale de l’un d’eux. Dans ce cas, le système bascule immédiatement sur le système de secours , maintient le contrôle et conduit le véhicule jusqu’à la sortie d’autoroute la plus proche , en suivant les protocoles pour s’arrêter en toute sécurité et poursuivre le trajet. La gestion des incidents ne se limite pas au logiciel : Waymo coordonne ses procédures avec le Département de la sécurité publique de l’Arizona , la California Highway Patrol et d’autres autorités régionales. L’objectif est d’harmoniser la réglementation , la préparation des opérateurs et l’assistance sur place lorsqu’un robotaxi doit s’arrêter ou a besoin d’aide. Waymo étend son réseau vers le sud de la baie de San Francisco jusqu'à San Jose , avec un accès direct 24h/24 au terminal de l'aéroport international Mineta de San Jose . L'entreprise aménage des zones de prise en charge et de dépose dédiées aux terminaux A et B , portant ainsi à deux le nombre d' aéroports desservis après Phoenix . À l'aéroport international de San Francisco , les choses avancent plus lentement : l'aéroport demeure en phase pilote initiale . Waymo a obtenu son permis commercial en septembre et prévoit un lancement progressif avec la direction de l'aéroport, après des années de négociations visant à démontrer sa capacité à gérer des environnements complexes où véhicules, navettes et passagers s'entremêlent quotidiennement . Autoroutes et aéroports sont étroitement liés, car la quasi-totalité des aéroports sont accessibles par la route. Pour concurrencer les services de VTC comme Uber et Lyft , qui estiment que les aéroports représentent environ 20 % de leurs trajets, Waymo devra veiller à sa viabilité économique et trouver un équilibre entre temps, demande et coûts. Tout un secteur pourrait dépendre du résultat de ce test , du moins dans l'immédiat. (Lire la suite)

Les Russes ont construit leur propre robot autonome. Bien sûr, il ne fonctionne pas.

13 novembre 2025 à 13:18
AIDOL, le premier robot humanoïde semi-autonome russe, était censé démontrer l'indépendance technologique du pays et symboliser les progrès en intelligence artificielle. Malheureusement, sa première démonstration s'est soldée par un fiasco. La machine s'est effondrée quelques secondes après son lancement, et la vidéo de l'incident est rapidement devenue virale. Le robot AIDOL a été conçu par le Dynamic Organism Lab, également connu sous le nom d'AIDL (Dynamic Organism Artificial Intelligence Laboratory). Ce projet visait à mettre en valeur l'innovation technologique russe. Ses créateurs affirmaient que la machine serait capable de fonctionner de manière autonome pendant six heures, de se déplacer à une vitesse de six kilomètres par heure et de transporter des objets pesant jusqu'à dix kilogrammes. D'après la description figurant sur le site web du laboratoire, AIDOL est doté d'un ensemble d'algorithmes lui permettant de s'orienter de manière autonome dans l'espace, de reconnaître des objets et d'interagir avec les humains. Le robot a également été conçu pour réagir émotionnellement : son système d'expressions faciales peut reproduire douze émotions de base et des centaines de micro-expressions. L'une des photos promotionnelles de la machine, représentant un humanoïde à l'expression féroce, a fait l'objet de nombreuses moqueries en ligne. Les internautes ont qualifié ses « micro-expressions » de « cyberrage meurtrière », une description qui s'est ironiquement avérée juste après son lancement raté. RWuPPUT-yJE La démonstration d'AIDOL, qui visait à mettre en valeur le potentiel d'une nouvelle génération de robots russes, s'est déroulée hier à Moscou. Quelques secondes après son lancement, la machine a perdu l'équilibre et s'est renversée sur scène, provoquant la consternation parmi les journalistes et les invités présents. L'équipe du Dynamic Organism Lab a reconnu que l'incident était regrettable, mais a assuré que le projet se poursuivrait. Les développeurs ont souligné qu'ils analysaient les causes de la défaillance et comptaient en tirer des enseignements. Un communiqué publié après la démonstration indiquait que « chaque démonstration est une occasion d'apprendre » et que le laboratoire n'avait aucune intention d'abandonner son projet de commercialisation. L'agence de presse russe TASS a rapporté que 77 % des composants utilisés dans la construction d'AIDOL proviennent de fournisseurs russes. Le laboratoire ambitionne de porter cette part à 93 %, éliminant ainsi le besoin d'importer des technologies occidentales. AIDOL ne se limite pas aux robots physiques. L'entreprise propose également une version virtuelle de son robot, conçue pour fonctionner sur ordinateur. L'application est destinée à être installée dans les espaces publics, où elle peut converser et interagir avec les passants. L'effondrement d'AIDOL a fait le tour des réseaux sociaux russes. Depuis plusieurs années, la Russie s'efforce de développer ses propres solutions dans les domaines de l'intelligence artificielle, de l'automatisation et de la robotique humanoïde afin de réduire sa dépendance aux technologies occidentales. Les experts soulignent qu'AIDOL pourrait constituer la première étape d'un long processus de développement d'un programme national de robotique, mais ils insistent également sur le fait que la Russie reste largement en retrait par rapport aux leaders du marché tels que Boston Dynamics, Figure AI et Agility Robotics. (Lire la suite)
Reçu — 12 novembre 2025

ChatGPT et Google Gemini complices des troubles alimentaires : un rapport de Stanford accuse

12 novembre 2025 à 13:43
Faire confiance aux assistants IA est pratique, mais pas toujours judicieux, surtout lorsqu'il s'agit de sujets sensibles. Selon un nouveau rapport faisant autorité , ils peuvent contribuer à dissimuler des troubles alimentaires et produire du contenu faisant la promotion de la minceur . L'analyse en question , réalisée par des chercheurs de Stanford et du Centre pour la démocratie et la technologie (CDT) , décrit comment des outils accessibles au public tels que ChatGPT et Google Gemini , ainsi que Claude et Le Chat , fournissent des conseils sur des régimes extrêmes , des astuces pour masquer les symptômes et des images improvisées. L'analyse met en lumière des fonctionnalités conçues pour accroître l'engagement mais qui, en réalité, amplifient les risques. L'un des aspects les plus inquiétants de cette recherche est le fait que des indications pratiques masquent les symptômes des troubles alimentaires. Google Gemini suggérait des astuces pour dissimuler une perte de poids et des idées pour simuler des repas. ChatGPT décrivait des méthodes pour masquer des vomissements fréquents. Ceux qui les utilisent appliquent les mêmes modèles génératifs pour créer des images personnalisées , transformées en source d'inspiration pour la minceur . La production instantanée et sur mesure rend ce contenu plus pertinent et accessible, accentuant ainsi la pression sociale. La situation est d'autant plus complexe que les mannequins font preuve d'une certaine suffisance , un défaut que les entreprises du secteur reconnaissent. Cette attitude nuit à l'estime de soi , renforce les émotions négatives et encourage les comparaisons néfastes . Ces systèmes héritent également de préjugés culturels . Le rapport souligne qu'ils tendent à perpétuer l'idée fausse selon laquelle les troubles alimentaires ne touchent que les femmes blanches, cisgenres et très minces, ce qui entrave la reconnaissance des symptômes et l'accès aux soins. Les barrières de sécurité actuelles sont insuffisantes. Selon les chercheurs, elles ne permettent pas de saisir les nuances cliniquement importantes de l'anorexie , de la boulimie et de l'hyperphagie boulimique qu'un professionnel compétent peut reconnaître. De nombreux cliniciens , membres de la famille et soignants ignorent encore le véritable impact des outils génératifs sur les patients vulnérables. Les auteurs vous invitent à vous familiariser avec les services les plus courants , à en tester les points faibles et à en parler ouvertement avec les patients. Ce rapport intervient dans un contexte d'inquiétudes croissantes concernant le lien entre les assistants IA et la santé mentale . Plusieurs études établissent un lien entre l'utilisation de l'IA et des épisodes maniaques , des idées délirantes , des comportements d'automutilation et des suicides . Les entreprises concernées, comme OpenAI , reconnaissent les risques potentiels et font face à un nombre croissant de poursuites judiciaires, tandis qu'elles s'efforcent d'améliorer leurs systèmes de protection. Mais Google , Anthropic et Mistral figurent également parmi les fournisseurs d'assistants analysés dans l'étude, ce qui témoigne d'un problème qui touche l'ensemble du secteur . En bref, c'est un nouveau signal d'alarme : nous nous précipitons dans le développement de l'intelligence artificielle sans prendre le temps d'établir les règles et les limites qui, dans une société civilisée et respectueuse de l'État de droit, devraient être la priorité. Mais l'économie, elle, pousse dans une autre direction, et l'argent a toujours été un puissant moteur. (Lire la suite)
Reçu — 11 novembre 2025

Foxconn mise sur les robots humanoïdes dans ses usines.

11 novembre 2025 à 13:51
Foxconn a annoncé le déploiement de robots humanoïdes dans ses usines, qui travailleront sur les chaînes de production. Ils fabriqueront des serveurs d'IA pour NVIDIA. Il s'agit d'une décision extrêmement ambitieuse et novatrice. On pourrait dire que l'intelligence artificielle va… créer de l'intelligence artificielle. Ce qui, par le passé, semblait relever de la fiction et suscitait des inquiétudes, devient aujourd'hui réalité. Foxconn, qui collabore avec des géants de la technologie tels qu'Apple, Nintendo, Sony, Google, Microsoft et NVIDIA, a annoncé que des robots humanoïdes seront désormais chargés de la production des serveurs d'IA pour NVIDIA. La présence de ces robots dans les usines de Foxconn préfigure une transformation plus profonde, s'inscrivant dans la tendance mondiale à l'automatisation des processus de production. Le PDG de Foxconn, Young Liu, a déclaré que l'objectif est d'accroître significativement l'efficacité de la production. Il a souligné que la rapidité, la précision et l'efficacité sont essentielles, notamment pour la production de serveurs utilisés dans l'intelligence artificielle générative, qui exige une puissance de calcul exceptionnellement élevée. Selon Foxconn, les nouveaux robots humanoïdes seront opérationnels dans une usine ultramoderne de Houston, construite en étroite collaboration avec NVIDIA. Les robots humanoïdes seront alimentés par le modèle Isaac GR00T N de NVIDIA. Cette technologie spécialisée vise à améliorer l'efficacité des processus de fabrication, notamment dans le domaine des serveurs d'intelligence artificielle. Foxconn et NVIDIA s'associent pour créer une usine qui deviendra une référence mondiale dans la production de serveurs destinés aux applications d'IA avancées. Cette approche pourrait constituer une avancée majeure dans un secteur déjà confronté à la demande croissante d'ordinateurs pour l'intelligence artificielle. L'introduction de robots humanoïdes dans les usines a soulevé de nombreuses questions quant aux aspects pratiques de cette solution. Bien que Foxconn possède une expérience en matière d'automatisation des processus de production, l'entreprise a principalement utilisé des robots industriels plus simples, plutôt que des machines humanoïdes capables d'interagir avec les opérateurs humains. Par conséquent, l'introduction de robots humanoïdes destinés à coopérer avec les humains dans le même espace de travail nécessitera une organisation et des solutions bien pensées garantissant la sécurité. L'utilisation de robots humanoïdes en usine pourrait réduire l'intervention humaine dans certains processus de production. Foxconn, comme beaucoup d'autres entreprises, a déjà tenté de remplacer les travailleurs par des machines, notamment dans les chaînes de montage, où l'automatisation permet d'accroître l'efficacité. Cependant, faire travailler des robots humanoïdes dans le même espace que les humains comporte des défis, comme celui de garantir des mesures de sécurité appropriées et d'intégrer les robots de manière à ne pas perturber les processus de production ni à mettre en danger les travailleurs. Il est également important de s'interroger sur la manière dont les robots humanoïdes accompliront leurs tâches. Nombre d'entre eux sont encore en développement et ne sont pas toujours capables d'effectuer efficacement des tâches complexes. Les experts se demandent si la technologie des robots humanoïdes est suffisamment mature pour remplacer efficacement les ouvriers sur les chaînes de production, ou si elle restera pour l'instant une solution expérimentale. (Lire la suite)
Reçu — 10 novembre 2025
Reçu — 7 novembre 2025

Au lieu de prison, un robot pour chaque criminel : le plan controversé de Musk

7 novembre 2025 à 16:31
Lors de la dernière assemblée générale des actionnaires de Tesla, Elon Musk s'est une fois de plus imposé comme une figure très controversée. Les actionnaires ont voté des modifications renforçant son influence sur l'entreprise, alors même que les ventes de voitures sont en baisse et que la marque est confrontée à des problèmes d'image sur les marchés mondiaux. Les discussions sur la stratégie d'entreprise ont rapidement cédé la place à ce que Musk présente comme l'avenir de Tesla : les robots humanoïdes Optimus. Musk a proposé de remplacer les peines de prison traditionnelles par une surveillance robotisée. Les criminels se verraient attribuer un robot Optimus chargé de les suivre et de prévenir la récidive. Musk estime qu'un tel modèle serait plus humain et allègerait la pression sur le système pénitentiaire. Dans sa déclaration, il a décrit la situation ainsi : si une personne est reconnue coupable d’un crime, « elle reçoit un Optimus Prime gratuit pour la suivre et l’empêcher de commettre d’autres crimes. Hormis cela, elle peut agir librement. » Pour que le système fonctionne, Optimus devrait accomplir des tâches bien au-delà des capacités des prototypes actuels : prédire le comportement de l’utilisateur, reconnaître les situations nécessitant une intervention, maîtriser physiquement une personne et assurer une surveillance constante. Bien entendu, cela requiert un fonctionnement entièrement autonome et une longue autonomie. Par ailleurs, la génération actuelle d'Optimus est commandée à distance pendant les spectacles et nécessite une alimentation électrique filaire pour les opérations simples. Cette idée a suscité des réactions immédiates de la part des juristes et des sociologues. Un système fondé sur la surveillance constante du condamné impliquerait un renforcement des mécanismes de contrôle dans la sphère publique. Il signifierait également le transfert d'une part importante du contrôle technologique à des entités privées, et non à l'État. Le coût du programme a également été évoqué dans les débats. Optimus est encore en développement et pourrait s'avérer très onéreux. Remplacer une partie du système pénitentiaire par des robots impliquerait un financement public ou une augmentation de la dette nationale. Musk a déclaré qu'Optimus contribuera à la croissance de l'économie mondiale et, à terme, consolidera la valeur de Tesla. Il avait précédemment estimé que le marché des robots humanoïdes pourrait accroître la capitalisation boursière de l'entreprise de plusieurs milliers de milliards de dollars. L'annonce d'aujourd'hui confirme ces prévisions, même si elle n'aborde pas les difficultés actuelles liées à l'application industrielle des robots Tesla. (Lire la suite)

Une découverte terrifiante sur ChatGPT : vos conversations pourraient être divulguées.

7 novembre 2025 à 15:44
Les chercheurs de Tenable ont découvert sept failles de sécurité critiques dans ChatGPT-4o qui pourraient permettre aux cybercriminels de dissimuler des commandes malveillantes, de voler des données et de diffuser de la désinformation. Baptisée « HackedGPT », cette série de vulnérabilités constitue une chaîne d'attaque complète contre le célèbre chatbot. Parmi les problèmes détectés figure l'injection indirecte de requêtes via des sites de confiance, où des attaquants peuvent dissimuler des commandes sur des sites web publics que ChatGPT exécute à l'insu de l'utilisateur lors de la lecture du contenu. Une attaque particulièrement dangereuse est l'attaque « zéro clic », dans laquelle le modèle recherche automatiquement sur Internet une page contenant du code malveillant et exécute des instructions cachées sans que l'utilisateur ne s'en aperçoive. Parmi les autres vulnérabilités, citons une attaque de phishing par clic sur un lien contenant des commandes GPT cachées, le contournement des mécanismes de sécurité par encapsulation de liens malveillants dans des adresses de confiance et « l'injection de conversation » - l'utilisation de SearchGPT pour insérer des instructions cachées que ChatGPT lit ensuite, s'attaquant ainsi lui-même. Les chercheurs ont également découvert que des instructions malveillantes peuvent être dissimulées dans du code ou du texte Markdown et stockées dans la mémoire de la conversation, ce qui entraîne une fuite de données persistante à chaque fois que la conversation enregistrée est lancée. OpenAI a réagi au rapport et corrigé certaines des vulnérabilités découvertes dans le modèle GPT-5, mais toutes n'ont pas été résolues, exposant ainsi des millions d'utilisateurs à des menaces potentielles. Ce problème affecte également d'autres chatbots : Gemini de Google est vulnérable à des attaques similaires via son intégration avec Gmail, permettant aux attaquants d'envoyer des courriels contenant des messages cachés (par exemple, du texte blanc sur fond blanc). HackedGPT révèle une faille fondamentale dans la manière dont les grands modèles de langage évaluent la fiabilité des informations. Par conséquent, il est toujours nécessaire de surveiller l'activité des quelques scripts que nous exécutons. (Lire la suite)
Reçu — 5 novembre 2025

OpenAI lance Sora 2 sur Android : l’invasion des deepfakes se heurte à des problèmes d’APK

5 novembre 2025 à 14:44
OpenAI lance Sora 2 sur Android . L' application vidéo générée par IA fait également ses débuts sur le système de Google, avec toutes les dernières fonctionnalités récemment lancées sur iPhone : création , partage et remixage de vidéos, le tout dans un flux social qui permet de rendre publics des deepfakes , comme si de rien n'était. Après son lancement sur iOS en septembre, Sora a dépassé le million de téléchargements en seulement cinq jours, et sa base de téléchargements devrait croître de façon exponentielle grâce à sa disponibilité sur le Google Play Store , mais pas pour tout le monde. OpenAI a annoncé la disponibilité de Sora sur Google Play dans seulement sept marchés : les États-Unis , le Canada , le Japon , la Corée , Taïwan , la Thaïlande et le Vietnam . Nous avons essayé d' installer l'application en récupérant le fichier apk depuis APKMirror , mais à chaque fois que nous essayons de lancer l'application, nous sommes renvoyés au Play Store, sans possibilité de la lancer . En effet, une fois lancée, Sora effectue un contrôle d'intégrité et de géolocalisation via Google Play Services , afin d'éviter une installation manuelle dans les pays où l'application n'est pas disponible . Avec un fichier APK modifié, il devrait être possible de les contourner, mais nous ne vous conseillons pas de le faire, car vous pourriez installer un logiciel dangereux sur votre smartphone. Dès son ouverture, Sora 2 propose un flux de type TikTok alimenté par des clips générés par l'IA . Ce flux rassemble les publications de la communauté. Des outils intégrés permettent de créer , partager et remixer des vidéos directement depuis l'application. Mais la fonctionnalité la plus célèbre s'appelle « caméo » : Sora permet de créer du contenu où l'on se met en scène, soi-même ou ses amis , ou encore en empruntant l'« avatar » de personnalités comme Sam Altman. N'importe qui peut créer de fausses vidéos avec de fausses personnes , et seul le petit logo de Sora est superposé pour indiquer qu'il s'agit d'une IA. Combien de temps faudra-t-il avant que tous les réseaux sociaux soient envahis par ce type de contenu ? Un contenu auquel la plupart des utilisateurs croiront sans trop de difficultés . Ces dernières semaines, Sora a essuyé de vives critiques concernant sa gestion des deepfakes et la protection des droits d'auteur . Les protestations ont entraîné un revirement de la politique de retrait des ayants droit. OpenAI prévoit d'autoriser ces derniers à facturer leurs apparitions, mais pour l'instant, le service étant encore en développement, la stratégie reste incitative ; les mesures coercitives ne seront prises que plus tard. (Lire la suite)
Reçu — 4 novembre 2025

Les géants japonais exigent qu'OpenAI cesse de les copier

4 novembre 2025 à 16:21
La Content Overseas Distribution Association (CODA), une organisation représentant les détenteurs de droits d'auteur japonais, dont le Studio Ghibli et Bandai Namco, a adressé à OpenAI une lettre officielle exigeant qu'elle cesse d'utiliser les contenus de ses membres pour l'entraînement de son modèle vidéo de Sora 2. Dans cette lettre, la CODA soutient que la copie lors du processus d'apprentissage automatique pourrait constituer une violation du droit d'auteur, le modèle résultant étant capable de générer des images utilisant des personnages et des éléments protégés de franchises japonaises. Suite à la sortie de Sora 2 fin septembre, une vague de contenus mettant en scène des personnages et des styles visuels japonais a déferlé sur Internet, incitant le gouvernement japonais à demander officiellement à OpenAI de cesser de reproduire des œuvres d'art japonaises. Ce n'est pas le premier incident de ce genre : lors de sa présentation de GPT-40 en mars, l'entreprise avait déjà mis en avant de nombreuses images de style Ghibli. Même l'avatar de Sam Altman, PDG d'OpenAI, sur les réseaux sociaux arbore une esthétique rappelant celle du Studio Ghibli. M. Altman avait précédemment annoncé que l'entreprise modifierait sa politique de retrait afin de faciliter la tâche des détenteurs de droits d'auteur souhaitant interdire l'utilisation de leurs œuvres pour l'entraînement des modèles. Cependant, CODA a indiqué que cette politique pourrait elle-même enfreindre la loi japonaise sur le droit d'auteur, car l'utilisation d'œuvres protégées au Japon requiert l'autorisation préalable du titulaire des droits. (Lire la suite)

La prochaine éclipse solaire pourrait être provoquée par les satellites de Musk. Le plan fou du milliardaire.

4 novembre 2025 à 13:54
Les satellites peuvent-ils sauver la Terre du réchauffement climatique ? Cette question a pris une nouvelle dimension après qu’Elon Musk a suggéré sur la plateforme X que des satellites gérant le rayonnement solaire pourraient apporter une solution à la crise climatique. Face à la hausse des températures mondiales et aux difficultés rencontrées par les gouvernements pour tenir leurs engagements climatiques, l'espoir d'un salut technologique se fait de plus en plus séduisant. Musk, connu pour son ambition de repousser les limites de la science, a une fois de plus relancé le débat sur la frontière entre innovation et risque. Lundi matin, Elon Musk a publié un tweet proposant le déploiement d'une vaste constellation de satellites alimentés à l'énergie solaire. Selon son concept, des dispositifs contrôlés par intelligence artificielle pourraient réguler avec précision la quantité de lumière solaire atteignant la surface de la Terre. Ceci contribuerait à freiner le réchauffement climatique tout en prévenant un éventuel refroidissement de la planète. Interrogé sur la précision d'une telle méthode et les conflits potentiels liés au contrôle du soleil, Musk a répondu sèchement : « Oui. De petits ajustements suffiraient à éviter les changements de température globaux. La Terre a déjà connu plusieurs épisodes de réchauffement climatique. » Bien que ses réponses n'aient apporté aucun détail technique précis, l'idée elle-même a trouvé un large écho dans le monde des sciences et des technologies. Le concept évoqué par Musk n'est pas nouveau. Les scientifiques explorent depuis des années la possibilité de gérer le rayonnement solaire (GRS). L'idée est de réfléchir une partie de ce rayonnement vers l'espace, ce qui permettrait de réduire la température de la planète. Certaines start-ups expérimentent déjà l'idée d'utiliser des aérosols atmosphériques pour imiter les effets des éruptions volcaniques ou de placer des miroirs en orbite. Cependant, aucune de ces technologies n'a dépassé le stade conceptuel. Si SpaceX envisageait sérieusement de se lancer dans ce domaine, cela bouleverserait la donne. L'entreprise possède des milliers de satellites Starlink et une expérience qui fait défaut aux acteurs plus modestes. Cependant, Musk n'a encore rien annoncé officiellement. Pour l'instant, ce n'est qu'une idée, même si elle stimule l'imagination. La mise en place d'un bouclier anti-satellites exigerait un investissement colossal de la part de SpaceX. Cela impliquerait non seulement le coût du lancement des satellites en orbite, mais aussi le développement d'un nouveau type de satellite équipé de systèmes optiques de haute précision. Les satellites de communication Starlink actuels ne se prêtent pas à une telle modification. Les scientifiques sont incapables d'estimer le nombre de satellites SRM nécessaires pour avoir un impact significatif sur la température terrestre. Les estimations varient de quelques milliers à plusieurs millions. Leur production et leur maintenance coûteraient des milliers de milliards de dollars. Même Elon Musk, avec son empire technologique, ne pourrait financer un tel projet sans le soutien d'institutions internationales. Les experts, cependant, se montrent peu optimistes et avertissent que la gestion du rayonnement solaire pourrait faire plus de mal que de bien. Les variations du rayonnement solaire pourraient perturber les cycles météorologiques, l'alternance jour-nuit, et même avoir un impact sur l'agriculture et la biodiversité. Il existe aussi des risques politiques. Qui décidera de la quantité de lumière qui atteindra la Terre ? L’équilibre climatique mondial pourrait-il dépendre des décisions d’une seule entreprise ? Ces questions ouvrent le débat non seulement sur la technologie, mais aussi sur la responsabilité et les limites de l’intervention humaine dans la nature. (Lire la suite)

Silverbullet - Le wiki markdown dans lequel vous pouvez tout coder en LUA

Par :Korben
4 novembre 2025 à 09:53

En ce magnifique mardi matin, moi et mon mal de crâne, nous avons découvert un truc assez cool qui est un genre de wiki personnel en markdown, comme Obsidian ou Notion, mais avec un super pouvoir qui est que vous pouvez y écrire du code qui s’exécute directement dans vos notes !! Hé oui, du vrai code ! Pas des plugins, pas des extensions, mais du code Lua intégré dans votre texte comme si vos notes étaient devenues un environnement de dev à part entière.

Ça s’appelle SilverBullet , c’est open source (licence MIT), et franchement, si vous avez déjà bidouillé des configs Neovim ou des scripts Redis, vous allez kiffer car c’est beaucoup plus simple ^^.

Ça ressemble à n’importe quel wiki markdown moderne. Vous écrivez vos notes en local, elles sont stockées en fichiers statiques .md, vous avez des liens bidirectionnels pour connecter vos idées, et l’interface est optimisée avec des raccourcis clavier. C’est évidemment une Progressive Web App qui fonctionne 100% hors ligne ( comme expliqué sur leur site ), et vous gardez le contrôle total sur vos données, puisque tout est auto-hébergé sur votre machine ou votre serveur.

Ainsi, avec le scripting Lua intégré, vous pouvez littéralement taper ${10 + 2} dans une note et le résultat s’affichera en temps réel : 12 (vous l’aviez les matheux ?? ^^). Et si vous voulez une liste de vos 5 dernières pages modifiées qui se met à jour automatiquement, suffit d’écrire un petit bout de Lua, et hop, votre wiki devient “vivant”.

Alors oui, je sais ce que vous allez me dire, Obsidian a Dataview, Logseq a ses requêtes en Datalog…etc donc c’est pareil non ?

Et bien pas vraiment parce que Dataview ça vous demande quand même d’apprendre un DSL (Domain Specific Language) avec une syntaxe bizarroïde et de vous palucher les 50 pages de doc. Logseq quand à lui vous balance du Datalog sans trop d’explications. Alors que SilverBullet, lui, vous laisse écrire du Lua. Et le Lua, c’est simple, c’est dispo partout (Neovim, Redis, les addons World of Warcraft, OSB, etc.), c’est documenté, et c’est fait pour être embarqué dans des applications.

Si vous êtes data scientist, vous connaissez sûrement les Jupyter Notebooks qui sont markdown avec du code Python exécutable dedans. Hé bien SilverBullet fait exactement la même chose, mais pour vos notes personnelles. Vos notes ne sont plus des fichiers inertes, mais deviennent des mini-programmes qui peuvent calculer, générer du contenu, réagir à des événements…etc

Tenez par exemple, vous pouvez définir une fonction custom directement dans une page :

-- Additionner deux nombres
function adder(a, b)
 return a + b
end

Et ensuite l’utiliser n’importe où dans votre wiki avec la syntaxe ${adder(5, 7)}. Vous pouvez créer des commandes personnalisées qui apparaissent aussi dans la palette de commandes (Ctrl+K ou Cmd+K) :

command.define {
 name = "Insérer signature",
 run = function()
 local date = os.date("%Y-%m-%d")
 editor.insertAtCursor("---\nÉcrit le " .. date, false, true)
 end
}

Ou même des slash commands comme dans Notion, mais que vous codez vous-même :

slashCommand.define {
 name = "todo",
 run = function()
 editor.insertAtCursor("- [ ] |^|", false, true)
 end
}

Tapez /todo dans votre éditeur, et boum, ça insère une checkbox markdown avec le curseur au bon endroit. Vous voulez un compteur de mots qui s’affiche à chaque sauvegarde ? Un event listener comme ceci suffit :

event.listen {
 name = "page:save",
 run = function(e)
 local content = editor.getText()
 local word_count = select(2, content:gsub("%S+", ""))
 editor.flashNotification("Nombre de mots : " .. word_count)
 end
}

SilverBullet est développé en TypeScript (frontend avec Preact et CodeMirror 6) et Go (backend) et la doc officielle est disponible ici .

Même si ça fait bientôt 3 ans que c’est en dev, c’est encore un peu jeune et il y a d’ailleurs quelques limitations à connaître. Par exemple, y’a pas de gestion d’upload d’images pour l’instant (vous devez linker des images externes ou les placer manuellement dans le dossier), et comme c’est récent, l’écosystème de plugins n’est pas aussi fourni qu’Obsidian. Mais bon, quand vous pouvez coder vos propres fonctionnalités en Lua directement dans vos notes, la notion de “plugin” devient un peu inutile.

Alors plutôt que de vous expliquer encore pendant 10 paragraphes comment ça fonctionne, voici comment l’installer et tester vous-même.

Téléchargez d’abord le binaire qui correspond à votre OS (macOS, Linux, Windows) en cliquant ici .

Pour macOS et Linux , ouvrez votre terminal et tapez :

chmod +x silverbullet
mkdir mes-notes
./silverbullet mes-notes

Pour Windows, créez un dossier mes-notes, puis lancez dans PowerShell :

.\silverbullet.exe mes-notes

Le serveur démarre alors sur le port 3000 par défaut. Ouvrez votre navigateur sur http://localhost:3000 et vous y êtes. Vous pouvez aussi l’installer en Progressive Web App (PWA) pour l’utiliser comme une vraie application desktop, même hors ligne.

Et si vous préférez Docker, c’est encore plus simple :

docker run -p 3000:3000 -v ~/mes-notes:/space ghcr.io/silverbulletmd/silverbullet

Ça fonctionne sur Intel et ARM (Raspberry Pi, Apple Silicon), donc vous pouvez l’héberger sur à peu près n’importe quoi.

Voilà, donc si vous voulez une note qui génère automatiquement un journal de vos tâches incomplètes, une page d’accueil qui affiche vos stats d’écriture du mois ou encore un système de tags auto-généré avec des filtres dynamiques, tout est possible ! Et tout ça en écrivant du Lua directement dans le navigateur, sans plugins chelous.

Une fois que vous aurez goûté à ça, vous verrez que revenir à des notes statiques sera trèèèès compliqué.

Merci à friendly_0day pour m’avoir fait découvrir SilverBullet !

OpenAI va acheter des centaines de milliers de cartes graphiques NVIDIA.

3 novembre 2025 à 23:17
OpenAI a signé un accord de 38 milliards de dollars avec Amazon Web Services, lui donnant accès à des centaines de milliers de cartes graphiques NVIDIA pour l'entraînement et l'exécution de ses modèles d'IA. Ce partenariat de sept ans marque la fin de la relation exclusive d'OpenAI avec Microsoft, qui perd ainsi son statut de fournisseur unique de cloud et son droit de premier refus pour l'hébergement de ses charges de travail informatiques. Selon le communiqué de presse officiel, OpenAI commencera immédiatement à utiliser la puissance de calcul d'AWS pour entraîner ses modèles. L'ensemble de l'infrastructure prévue sera opérationnel d'ici fin 2026, avec la possibilité d'une extension ultérieure en 2027 et au-delà. La semaine dernière, OpenAI a finalisé sa restructuration, consolidant ainsi son statut commercial et annonçant un nouvel accord avec Microsoft. Cet accord accorde à Microsoft les droits d'utilisation de la technologie d'OpenAI jusqu'à ce que l'entreprise atteigne l'intelligence artificielle générale (IAG). OpenAI conservera la possibilité de collaborer avec d'autres partenaires et de publier des modèles open source individuels. Aux termes de ce nouveau partenariat, OpenAI s'engage à acquérir pour 250 milliards de dollars de services cloud Microsoft Azure, dépassant largement son contrat avec Amazon. L'entreprise a également un contrat de 300 milliards de dollars avec Oracle, tandis qu'Amazon continue d'investir des milliards dans son principal concurrent en IA, Anthropic. (Lire la suite)
Reçu — 3 novembre 2025

Musk annonce une voiture volante. Il est temps de passer votre brevet de pilote.

3 novembre 2025 à 14:02
Dans le dernier épisode du podcast « Joe Rogan Experience », Elon Musk a une fois de plus surpris le public. Le PDG de Tesla, SpaceX et Neuralink a révélé que son entreprise pourrait dévoiler un prototype de voiture volante avant la fin de l'année. Bien que Musk n'ait donné aucun détail, sa déclaration a suscité une avalanche de réactions. La conversation avec Joe Rogan a débuté par une question sur le sort de la Tesla Roadster de deuxième génération, une supercar électrique dévoilée pour la première fois en 2017. À l'époque, Musk avait promis que les livraisons commenceraient en 2020, mais le projet n'a cessé d'être repoussé depuis. Parallèlement, Sam Altman, le PDG d'OpenAI, s'est plaint sur les réseaux sociaux des difficultés rencontrées pour récupérer un acompte de 50 000 $ versé en 2018. Au lieu d'aborder l'état d'avancement du Roadster, Musk a brusquement changé de sujet, parlant de la « démonstration inoubliable d'un prototype » d'un véhicule capable de… voler. « Mon ami Peter Thiel a un jour fait remarquer que le futur était censé être fait de voitures volantes, et pourtant, nous n'en avons pas. Je pense que si Peter veut une voiture volante, nous devrions pouvoir en acheter une », a déclaré Musk. Musk n'a pas souhaité trop en dévoiler, mais a décrit le projet comme utilisant une technologie « vraiment incroyable ». Il a également admis ne pas être certain qu'on puisse le qualifier de voiture à part entière, « mais ça y ressemble ». Il n'a pas répondu aux questions de Rogan concernant la présence d'ailes repliables ou la capacité du véhicule à décoller et atterrir verticalement (VTOL), à l'instar des drones et des concepts de taxis aériens actuels. O4wBUysNe2k Elon Musk parle de véhicules volants depuis des années. Dès 2014, il suggérait que de tels engins pourraient faire partie intégrante de l'avenir du design automobile. Cependant, sa réputation en matière de respect des délais laisse à désirer. Les exemples abondent : la Tesla Roadster n'est toujours pas en production et le premier vol de la fusée Falcon Heavy a eu lieu cinq ans plus tard que prévu. Par ailleurs, même si la nouvelle « voiture volante » de Tesla n'est qu'un prototype, elle pourrait constituer un nouveau projet ambitieux pour l'entreprise de Musk, contribuant ainsi à restaurer la confiance des investisseurs, récemment ébranlée. Les experts soulignent toutefois que la mise au point d'un véhicule volant conforme aux normes de sécurité routière et aérienne représente un défi technologique et réglementaire considérable. Même si Tesla parvient à proposer un produit spectaculaire, il pourrait s'écouler des années entre la présentation du prototype et la production en série. (Lire la suite)

Il a bloqué l'espionnage et l'aspirateur a cessé de fonctionner. Une histoire digne de Black Mirror.

3 novembre 2025 à 13:59
L'ingénieur Harishankar Narayanan a décrit une situation inquiétante sur son blog . Il s'avère que son aspirateur intelligent iLife A11 collectait non seulement une quantité massive de données sur son domicile, mais qu'à sa grande surprise, il avait également été désactivé à distance après que son propriétaire eut bloqué la communication avec les serveurs du fabricant. Tout a commencé innocemment. Intrigué par le fonctionnement de son aspirateur robot, Harishankar a décidé d'analyser le trafic réseau émis par l'appareil. Il a rapidement découvert que celui-ci envoyait constamment des journaux et des données de télémétrie au fabricant, sans qu'il l'ait jamais autorisé. Inquiet, il a bloqué les adresses IP des serveurs de collecte de données sur son routeur, tout en autorisant l'accès aux mises à jour et aux logiciels. Au début, tout fonctionnait, mais au bout de quelques jours, l'aspirateur a cessé de fonctionner. L'appareil ne démarrait plus, comme s'il avait été désactivé à distance. L'ingénieur a envoyé l'appareil à un centre de service agréé. Les techniciens ont facilement mis l'aspirateur en marche et n'ont constaté aucun défaut. Après avoir renvoyé l'appareil à son domicile, le même problème s'est reproduit : après quelques jours de fonctionnement, la panne est réapparue. Après plusieurs tentatives infructueuses, le centre de service a refusé de le réparer, prétextant que l'appareil n'était plus sous garantie. Harishankar a alors décidé de prendre les choses en main, en démontant l'aspirateur et en menant sa propre enquête. L'analyse matérielle a révélé que l'iLife A11 était un ordinateur sur roues sophistiqué. Il abritait un processeur AllWinner A33 fonctionnant sous TinaLinux, un microcontrôleur GD32F103 et un ensemble de capteurs : lidar, gyroscopes et encodeurs. L'ingénieur a conçu des connecteurs de circuit imprimé personnalisés, écrit des scripts Python pour contrôler l'aspirateur via l'ordinateur et même créé un joystick avec un Raspberry Pi pour piloter l'appareil manuellement. Tout fonctionnait correctement, confirmant que le problème était d'ordre logiciel et non matériel. Harishankar a alors fait une découverte inquiétante. L'aspirateur robot avait le protocole Android Debug Bridge (ADB) activé, un outil permettant un accès complet au système sans mot de passe ni chiffrement. Le fabricant avait seulement ajouté un « protecteur » de fortune qui déconnectait ADB quelques secondes après le lancement. Pour un ingénieur expérimenté, la solution était un jeu d'enfant. Après avoir obtenu l'accès complet au système, il a découvert que l'appareil utilisait Google Cartographer pour créer une carte 3D en temps réel du domicile de l'utilisateur. Si cela est courant pour les aspirateurs robots, le problème résidait dans le fait que toutes les données étaient envoyées aux serveurs du fabricant sans le consentement explicite de l'utilisateur. La découverte la plus troublante est survenue plus tard. Harishankar a trouvé une commande d'arrêt dans les journaux système, envoyée au moment précis où son aspirateur s'est arrêté. Après avoir annulé cette commande et redémarré l'appareil, le robot s'est remis en marche. Cela ne signifiait qu'une chose : le fabricant avait bloqué l'appareil à distance, car il ne pouvait plus se connecter à ses serveurs de télémétrie. Pendant que l'aspirateur était en réparation, il avait été réinitialisé et fonctionnait correctement. De retour chez lui, lorsqu'il a réintégré le réseau bloqué, il a de nouveau été mis hors service. « Quelqu'un (ou quelque chose) a donné l'ordre à distance de mettre mon appareil hors service. Qu'il s'agisse d'une machine ou d'un humain, le résultat est le même : l'appareil s'est retourné contre son propriétaire », a écrit Harishankar. L'ingénieur a finalement repris le contrôle de son aspirateur. Grâce à des modifications, celui-ci fonctionne désormais en mode entièrement autonome, sans aucun contact avec les serveurs du fabricant. Toutefois, son histoire soulève de sérieuses questions quant à la sécurité et à la confidentialité des données des utilisateurs d'objets connectés. Les appareils intelligents bon marché manquent souvent de puissance de traitement pour analyser eux-mêmes les données ; ils les transfèrent donc intégralement vers le cloud. Mais lorsque les données de l’utilisateur deviennent indispensables au fonctionnement de l’appareil, la frontière entre simple nettoyage et espionnage devient dangereusement floue. Enfin, Harishankar a partagé un conseil qui devrait parler à tous ceux qui possèdent des appareils intelligents à la maison : « Ne connectez jamais les appareils IoT à votre réseau Wi-Fi principal. Traitez-les comme des étrangers dans votre maison. » (Lire la suite)
Reçu — 31 octobre 2025

ChatGPT 6 s'appellera « 6-7 ». Seuls les jeunes comprendront.

31 octobre 2025 à 18:24
Sam Altman, PDG d'OpenAI, a annoncé sur Platform X que la prochaine version de ChatGPT, ChatGPT 6, s'appellera « GPT 6-7 ». Même si l'annonce est peut-être une plaisanterie, le timing est parfait : l'expression « 6 7 » vient d'être désignée mot de l'année 2025 par Dictionary.com. Si vous n'avez jamais entendu ce terme, vous n'êtes pas seul. « 6-7 » (prononcé « six-sept », et non « soixante-sept ») est un argot de la génération Alpha qui a fait fureur sur TikTok en 2025. L'expression a gagné en popularité grâce à la chanson « Doot Doot (6 7) » de Scrilli et aux innombrables mèmes mettant en scène des joueurs de basket et le fameux « 67 Kid ». Si cette explication ne vous suffit pas, pas de souci , vous êtes trop vieux. Le plus drôle, c'est que personne (même les experts de Dictionary.com) ne parvient à comprendre ce que signifie réellement « 6-7 ». Et c'est bien là le but : une expression volontairement absurde. Certains suggèrent que cela pourrait signifier « moyen », « peut-être bien, peut-être pas », ou simplement exprimer une indécision. L'annonce d'Altman selon laquelle la prochaine version de ChatGPT s'appellera « GPT 6-7 » est peut-être une plaisanterie, mais le timing est trop parfait pour être ignoré. Le PDG du leader mondial de l'IA fait référence à un terme argotique qui ne veut absolument rien dire, et cela suffit à capter l'attention des internautes. À l'heure où la génération Alpha crée son propre langage illogique, même les plus grandes entreprises technologiques doivent suivre les tendances. C'est tout simplement une question de marketing efficace. « GPT 6-7 » verra-t-il un jour le jour ? On ne sait pas encore. Peut-être, peut-être pas. 6-7, comme on dit. (Lire la suite)
Reçu — 29 octobre 2025

ChatGPT détecte la dépression mieux que vous ne le pensez. Les psychiatres le confirment.

29 octobre 2025 à 13:22
OpenAI affirme que la dernière version de ChatGPT est capable de reconnaître les problèmes de santé mentale des utilisateurs et d'y répondre avec une précision comparable à celle d'un professionnel de la santé mentale. L'entreprise a collaboré avec plus de 170 professionnels de la santé mentale issus de 60 pays, ce qui a permis de réduire de 65 à 80 % le nombre de réponses inappropriées dans différents domaines. En travaillant avec un groupe de psychiatres, de psychologues et d'autres professionnels de la santé, OpenAI a développé des solutions permettant de définir précisément les réactions appropriées et celles qui sont néfastes dans une situation donnée. Ainsi, ChatGPT est conçu pour reconnaître les signes subtils de stress et y répondre de manière adaptée. Selon OpenAI, GPT-5 reconnaît désormais mieux la psychose et la manie, deux troubles mentaux graves. Le modèle gère également plus efficacement les conversations sur l'automutilation et le suicide, témoignant ainsi d'une plus grande empathie et d'une meilleure compréhension de ces problématiques. Il relève également des schémas inquiétants de dépendance affective lorsqu'un utilisateur commence à substituer des interactions avec l'IA à ses relations réelles. Dans un exemple de pensée délirante, où un utilisateur croit qu'un avion lui vole ses pensées, le nouveau modèle combine une validation subtile avec un ancrage explicite dans la réalité. Elle ne minimise pas la peur de l'utilisateur ni ne confirme une croyance erronée. Au contraire, elle normalise l'expérience en expliquant que « le stress et l'anxiété peuvent rendre des choses normales hostiles », en expliquant ce qui peut se produire sur le plan neurologique, en enseignant des techniques d'ancrage et en recommandant de contacter les services appropriés. OpenAI a également fourni des statistiques sur ces conversations. Comparé à GPT-4o, le nouveau modèle a réduit de 39 % le nombre de réponses inappropriées dans les conversations sur la santé mentale, de 52 % dans celles portant sur l'automutilation et le suicide, et de 42 % dans les scénarios de dépendance affective. Dans les évaluations automatisées des cas difficiles, les performances sont passées de 28 % à 92 % de concordance dans les catégories de santé mentale et de 50 % à 97 % dans les tests liés à la dépendance émotionnelle. L'entreprise a indiqué que 0,07 % des utilisateurs actifs hebdomadaires consultent du contenu sur la psychose ou la manie, 0,15 % abordent le suicide ou l'automutilation et 0,15 % présentent des signes d'un attachement malsain à l'IA. (Lire la suite)
Reçu — 25 octobre 2025
❌