Vue lecture

La petite nouveauté de ChatGPT qui change notre façon d'écrire des brouillons

Ces derniers jours, OpenAI a discrètement déployé de nouveaux blocs de formatage , une fonctionnalité conçue pour simplifier la gestion des brouillons dans ChatGPT . Cette mise à jour vise à améliorer l'interaction avec les textes structurés, comme les e-mails ou les articles , afin d'éviter que les échanges ne se limitent à de simples messages. Ce changement ne modifie pas le modèle de langage, mais il modifie l'interface lors de la manipulation de contenus plus complexes. La plateforme affichera le brouillon sous une forme similaire à celle d'un document , facilitant ainsi la lecture et la modification. La principale nouveauté réside dans l'ajout d'une petite barre d'outils qui apparaît lorsque vous sélectionnez du texte dans les grandes zones de saisie. Il s'agit d'une sorte de mini-éditeur permettant de modifier la mise en forme sans quitter la conversation. OpenAI utilise ce système pour distinguer les parties de conversation des brouillons , qui apparaissent désormais avec une structure plus familière, similaire à celle d'applications comme Word ou Gmail . L'objectif est de rendre l'édition de contenu plus rapide, en évitant les étapes supplémentaires. Les blocs de formatage sont déployés progressivement et OpenAI prévoit d'ajouter la prise en charge d'autres formats ultérieurement. Pour l'instant, la mise à jour ne concerne que les zones de texte les plus modernes intégrées à ChatGPT. Cependant, ce déploiement se fera progressivement. Par exemple, cette fonctionnalité n'est pas encore disponible dans notre cas précis, mais elle pourrait l'être d'ici quelques heures ou quelques jours. (Lire la suite)
  •  

Grâce à l'IA, il est possible de chauffer gratuitement les logements : c'est déjà une réalité en Finlande.

La gestion énergétique des centres de données demeure un enjeu majeur, mais la Finlande propose une solution ingénieuse . Face à la consommation énergétique croissante liée à l'intelligence artificielle, ce pays nordique a imaginé de récupérer la chaleur dégagée par les serveurs pour alimenter le chauffage urbain . Cette idée découle d'un besoin profondément ressenti dans le pays, en raison de son climat rigoureux, et démontre comment une infrastructure technologique peut être intégrée aux réseaux thermiques existants. Il en résulte la valorisation d'une énergie qui serait autrement gaspillée , avec des avantages indéniables. Certaines entreprises ont déjà adopté cette approche. Le centre de données de Google à Hamina participe à la récupération de chaleur, tandis que Microsoft construit une nouvelle zone dédiée près d'Helsinki . À Mäntsälä , l'infrastructure de Nebius contribue au chauffage de 2 500 foyers grâce à l'énergie thermique récupérée. Le principe de fonctionnement reste simple. L'eau chaude produite par les serveurs est acheminée et intégrée au réseau de chauffage urbain , puis alimente les bâtiments résidentiels et de bureaux déjà raccordés à l'infrastructure. Un fait est frappant : chaque requête adressée à ChatGPT génère suffisamment de chaleur pour alimenter 14 ampoules LED pendant une heure. L’intégration de cette énergie dans le cycle thermique local permet de disposer d’un flux continu et facilement accessible . Le nombre de centres de données aux États-Unis dépasse celui de l'Europe, mais cette initiative finlandaise souligne comment l'adoption de pratiques durables peut accompagner la croissance des infrastructures numériques. Il ne s'agit pas de solutions théoriques, mais d'applications déjà en place . À l'heure où le débat sur l'impact énergétique de l'IA s'intensifie, cet exemple nous invite à envisager les choses sous un angle différent. Autrement dit : si l'on ne peut l'empêcher, autant en tirer parti . (Lire la suite)
  •  

« 1 ingénieur, 1 mois, 1 million de lignes de code », Microsoft veut éliminer toute trace de C et C++ de ses outils en moins de 5 ans

Un message sur LinkedIn et une offre d’emploi publiés le 20 décembre 2025 ont mis en lumière une ambition pour le moins audacieuse des équipes techniques de Microsoft : se débarrasser de tout le code écrit en C ou C++ pour le remplacer par du Rust. L’objectif de cette transition est notamment lié aux garanties de sécurité offertes par ce langage de programmation.

  •  

ChatGPT modifie désormais votre ton automatiquement et vous aide même avec vos e-mails.

La personnalisation revient au premier plan avec la nouvelle mise à jour de ChatGPT , qui vous permet de contrôler des caractéristiques expressives telles que la chaleur et l'enthousiasme . Cette fonctionnalité enrichit les options de gestion du modèle et offre une approche plus flexible des interactions quotidiennes. L'intervention d' OpenAI vise également à rendre l'outil de rédaction d'e-mails plus pratique à utiliser , grâce à un système d'édition de texte directe qui évite les étapes supplémentaires. Cette mise à jour introduit un sélecteur permettant d'ajuster des caractéristiques comme la chaleur et l'enthousiasme , tout en conservant les paramètres par défaut. Ces paramètres affectent la présentation du contenu, et non son contenu. Outre ces options, le panneau vous permet de régler la fréquence des émojis , des titres et des listes , des éléments qui influent sur la lisibilité des messages. Vous pouvez y accéder via le menu des paramètres, en suivant le chemin « Profil et personnalisation » . Dans cette même section, vous pouvez attribuer une véritable personnalité au chatbot, en choisissant parmi différents profils tels que professionnel , amical , cynique ou excentrique . Ce choix influence le ton général de la conversation, sans modifier le contenu informatif et sans que vous ayez à le préciser à chaque fois . L'autre nouveauté concerne la gestion des e-mails , qui peuvent désormais être réécrits et formatés directement dans la conversation. Le système permet de modifier le texte déjà généré sans avoir à renvoyer l'intégralité du contenu dans un nouveau message. Le nouveau flux améliore notamment la correction de sections spécifiques : il suffit de sélectionner un passage et de demander des modifications ciblées, évitant ainsi des instructions plus complexes pour indiquer où intervenir, dans une amélioration visant à réduire les frictions entre l’écriture et la révision . (Lire la suite)
  •  

Les taxis autonomes ont paralysé la circulation. Il a suffi d'éteindre les lumières.

Le week-end dernier, San Francisco a connu l'une des pannes d'infrastructure les plus graves de ces dernières années. Un incendie survenu samedi après-midi dans un poste de transformation électrique de la ville a provoqué une panne de courant généralisée. Au plus fort de la crise, près d'un tiers de la ville était privé d'électricité, affectant plus de 130 000 foyers. Les conséquences de la panne se sont rapidement étendues au-delà des habitations et des bureaux, paralysant des réseaux de transport essentiels. L'un des effets les plus visibles de la panne de courant a été la défaillance massive des feux de circulation. Dans de nombreux quartiers, la régulation des intersections a cessé et le trafic a immédiatement ralenti. Dans ces conditions, les conducteurs désorientés se sont retrouvés complètement perdus. Cependant, les problèmes les plus importants sont apparus là où la circulation était gérée par des algorithmes, et non par l'intuition humaine et les règles de régulation. La panne a particulièrement affecté la flotte de véhicules autonomes de Waymo, qui sillonnent San Francisco depuis des mois. Ces Jaguar I-Pace blanches, équipées de lidars, de caméras et de capteurs, circulent généralement dans la ville de manière prévisible et prudente, en s'appuyant sur des cartes haute résolution et des données provenant de leur environnement. Lorsque les feux de circulation sont tombés en panne, les systèmes de Waymo ont commencé à réagir de manière excessive. Les véhicules autonomes ont interprété les intersections comme ambiguës et, dans de nombreux cas, se sont arrêtés sans décider de leur passage. L'ampleur du problème s'est avérée telle que des dizaines de robotaxis se sont retrouvés immobilisés dans les rues, bloquant la circulation. Des images de véhicules Waymo immobilisés au milieu des intersections ont rapidement circulé sur les réseaux sociaux et Reddit. Ces vidéos montraient les voitures autonomes attendant indéfiniment un feu vert qui n'arrivait jamais. Face à la confusion croissante, l'entreprise a décidé de suspendre temporairement son service passagers dans les zones concernées. Pour les habitants, c'était un nouvel exemple de la façon dont même les systèmes autonomes les plus avancés restent fortement dépendants d'une infrastructure urbaine fonctionnant correctement. Le fournisseur d'énergie Pacific Gas and Electric a annoncé que le courant avait été rétabli dans la plupart des zones dimanche midi, bien que certains clients aient dû attendre lundi après-midi. Au fur et à mesure de la réparation du réseau électrique, les feux de circulation ont progressivement retrouvé leur fonctionnement normal. Waymo a annoncé la reprise du service dans la région de la baie de San Francisco plus tard dans la journée. Un porte-parole de l'entreprise a reconnu que la panne de courant était un événement d'une ampleur exceptionnelle, paralysant la circulation dans toute la ville et affectant également les transports en commun. Il a également souligné que l'équipe analysait activement les événements afin d'améliorer le comportement des systèmes autonomes dans des situations similaires à l'avenir. « Nous avons travaillé en étroite collaboration avec la ville de San Francisco pendant la panne. Nous nous efforçons de tirer rapidement les leçons de cet incident et nous sommes déterminés à gagner et à conserver la confiance des communautés que nous servons au quotidien », a déclaré un représentant de Waymo. (Lire la suite)
  •  

Tesla met le Cybercab en circulation. Un pas de géant vers la conduite autonome.

Tesla a mis en circulation son véhicule autonome, le Cybercab, dans les rues de la ville. La voiture, qui ne peut accueillir que deux personnes, a été aperçue dans le centre-ville d'Austin, au Texas, où la société d'Elon Musk développe son service de voitures autonomes, Robotaxi. Le choix d'Austin n'est pas fortuit. C'est là que Tesla a lancé une version pilote de sa plateforme Robotaxi. Dans un premier temps, le nouveau Model Y équipé du logiciel FSD 14 en version non supervisée a été utilisé pour le transport. Cela a permis à l'entreprise d'obtenir les autorisations nécessaires, de tester l'application de covoiturage et de recueillir des données de conduite en conditions réelles, tout en utilisant un modèle de voiture familier. Le Cybercab était initialement présenté comme le véhicule cible de ce service, mais l'absence de contrôles complexifie considérablement les questions réglementaires. Néanmoins, Tesla a décidé que le moment était venu de procéder à son premier essai hors site. Elon Musk a annoncé qu'en 2026, la plateforme Robotaxi s'étendra aux véhicules appartenant aux clients, notamment le Cybercab. Il s'agira probablement des nouveaux modèles Y, équipés du matériel nécessaire à la conduite autonome. Les véhicules plus anciens dotés d'ordinateurs HW3 ne répondent pas à ces exigences et ne pourront pas être intégrés à la flotte. Seules des versions limitées du système FSD sont prévues pour ces derniers. Le Cybercab ne présente pas ce problème car il a été conçu dès le départ avec le matériel AI4 de dernière génération. Tesla le teste depuis des mois dans des zones fermées et vérifie le fonctionnement de ses systèmes autonomes, notamment avec des Model 3 modifiées simulant le comportement du futur véhicule. On ignore si une personne se trouvait à bord du Cybercab lors de son trajet dans Austin. S'agissant de son premier déplacement en circulation, il est probable qu'un ingénieur de Tesla était présent. Cependant, il est difficile de le qualifier de « conducteur », puisque le véhicule est dépourvu de volant et de pédales. Cela soulève des questions quant à son comportement en cas d'urgence et aux mesures que Tesla compte prendre en matière de sécurité. Auparavant, le Cybercab était piloté par une télécommande, mais celle-ci ne servait qu'à le déplacer dans les halls d'exposition. En circulation normale et dans le cadre du service Robotaxi, ce type de pilotage n'est plus possible. Le premier essai du Cybercab sur la voie publique témoigne de la volonté de Tesla d'accélérer ses travaux sur les transports entièrement autonomes. L'entreprise doit encore relever des défis juridiques et techniques, mais ces tests en conditions réelles indiquent que le projet entre dans une nouvelle phase. Les prochains mois permettront de déterminer comment le Cybercab se comporte au quotidien et s'il rapproche réellement Tesla du lancement à grande échelle de ses robotaxis sans conducteur. (Lire la suite)
  •  

Writing Code Is Fun - davidcel.is

« I became a software engineer because writing code is fun. Thinking through hard problems, designing elegant solutions, seeing the things you’ve built working for the first time… these moments are all deeply satisfying, so why in the world would I ever surrender them to AI? »
(Permalink)
  •  

ChatGPT lance son répertoire d'applications avec Apple Music, Spotify, DoorDash et bien d'autres

OpenAI met de l'ordre dans le chaos de ses applications ChatGPT . Le nouveau répertoire d'applications rassemble tous les outils existants dans un environnement unique et devient un point d'accès structuré aux fonctions intégrées du chatbot. L'arrivée de nouvelles applications comme Apple Music et DoorDash élargit encore l'utilisation quotidienne du service, tout en attirant une attention croissante sur la manière dont OpenAI prévoit d'établir un modèle commercial durable. OpenAI lance un répertoire d'applications permettant de parcourir facilement toutes les applications compatibles avec ChatGPT . Ce lancement coïncide avec l'ouverture du kit de développement logiciel (SDK) aux développeurs, qui peuvent désormais concevoir des expériences interactives directement depuis l'interface du chatbot. Le PDG d'OpenAI, Sam Altman, avait précédemment fait part de son intention de créer une plateforme plus complète, et ce nouveau catalogue constitue une étape concrète dans cette direction. L'objectif affiché est de fournir les outils attendus d'un environnement structuré et modulaire. Attention à ne pas confondre les applications avec les GPT , qui sont des versions personnalisées de ChatGPT conçues pour des usages spécifiques et parfois développées par des tiers. La différence entre les deux n'est d'ailleurs pas toujours évidente, surtout pour l'utilisateur lambda qui n'a peut-être jamais créé son propre GPT. Parallèlement, la dénomination des intégrations existantes évolue également. Les anciens connecteurs sont désormais classés comme des applications dotées de fonctionnalités spécifiques : les solutions de recherche de fichiers deviennent des applications de recherche de fichiers , celles orientées vers une analyse approfondie sont définies comme des applications de recherche approfondie , tandis que les fonctions de synchronisation sont appelées applications de synchronisation . Oui, il subsiste une certaine confusion . Pour simplifier les choses, vous trouverez les applications ici et les GPT ici ; au moins, avec quelques liens, il n’y a plus d’ambiguïté. Les applications peuvent accéder aux informations enregistrées dans la fonction Mémoire , lorsqu'elle est activée. OpenAI précise également que les comptes Free , Plus , Go et Pro peuvent contribuer à l'entraînement du modèle si l'option permettant d'améliorer le modèle pour tous les comptes est activée. Outre la mise à jour du catalogue, de nouvelles intégrations sont disponibles. L' application Spotify , annoncée en octobre, est désormais accessible au Royaume-Uni , en Suisse et dans toute l' Union européenne . L' application Apple Music fait également son apparition (y compris en Italie), vous permettant de rechercher des titres, de créer des playlists et de gérer les bibliothèques musicales de vos abonnés directement depuis la fenêtre ChatGPT. L' application DoorDash , quant à elle, propose des outils permettant de transformer une simple inspiration culinaire en un panier d'achat prêt à l'emploi, pratique pour planifier ses repas et ingrédients réguliers. La plateforme indique évaluer d'autres formes de monétisation, notamment la vente de biens numériques , mais n'a pas encore communiqué de détails sur ses futures stratégies commerciales. Il est clair, cependant, que pour OpenAI, tout cela représente non seulement un moyen d'offrir aux utilisateurs quelque chose de plus, mais aussi de tisser la toile d'un écosystème de plus en plus vaste et connecté, incluant des applications tierces, ce qui est probablement ce qui intéresse le plus l'entreprise . (Lire la suite)
  •  

Sora n'intéresse plus personne : l'application vidéo IA est-elle déjà ennuyeuse ?

Le lancement de Sora , le réseau social dédié aux vidéos générées par l'IA, avait suscité un vif intérêt dans le secteur. L'application d' OpenAI , cependant, n'a pas réussi à transformer cette curiosité initiale en une utilisation régulière. Pour entrer plus dans le détail, les données recueillies par Sensor Tower , rapportées par le Financial Times , montrent une implication réduite et discontinue, avec un temps quotidien moyen qui ne dépasse pas 13 minutes . Le lancement de l'application autonome aux États-Unis , au Canada , au Japon , en Corée du Sud , à Taïwan , en Thaïlande et au Vietnam avait propulsé Sora en tête des classements de téléchargement. L'effet de nouveauté, cependant, s'est rapidement estompé. Les estimations font état d'environ 7 millions d'utilisateurs mensuels, mais seulement 25 % se connectent chaque jour, un chiffre bien loin du rythme des plateformes sociales établies, où l'utilisation quotidienne peut dépasser une heure. La structure du flux rappelle celle de TikTok et d'Instagram Reels, et exige une interaction constante. Le flux de contenu généré automatiquement, souvent perçu comme répétitif ou de faible valeur , ne parvient pas à instaurer une habitude quotidienne. OpenAI a déjà annoncé un accord de licence avec Disney portant sur les personnages de Marvel , Pixar et Star Wars . L'intégration de ce contenu n'a cependant pas modifié la situation globale. Les créations inspirées par des esthétiques connues ont connu un succès mitigé, signe que le prestige des marques établies ne suffit pas à susciter l'intérêt. La question du droit d'auteur continue également de se poser, alimentée par des incidents remettant en cause l'utilisation de figures reconnaissables et d'œuvres protégées. Un autre facteur est le coût de production vidéo, bien supérieur à celui du texte, ce qui rend difficile la promotion d'une utilisation gratuite et durable. Dans ce contexte, les difficultés rencontrées par Sora pour trouver une orientation stable semblent être plus qu'un simple revers : elles illustrent la complexité de transformer la curiosité pour l'IA en une habitude qui perdure au-delà de l'enthousiasme initial. (Lire la suite)
  •  

Grok se trompe encore. Le chatbot invente des histoires sur la tragédie en Australie.

Grok suscite une nouvelle fois la polémique. L'IA d'Elon Musk a déjà insulté des personnalités politiques par le passé, et voilà qu'elle fournit à nouveau des informations fausses ou hors sujet. Ce n'est pas la première fois que Grok diffuse de la désinformation. En septembre, après la mort de Charlie Kirk, un chatbot créé par la société d'Elon Musk, interrogé sur la possibilité que le militant américain ait survécu à l'attaque, a répondu : « Charlie Kirk prend la chose avec humour ; il a déjà affronté des publics bien plus hostiles. Oui, il s'en sortira sans problème. » Lorsque des internautes ont fait remarquer que Kirk avait reçu une balle dans le cou, Grok a prétendu qu'il s'agissait simplement d'une « vidéo humoristique avec effets spéciaux ». Cette fois-ci, Grok a suscité la polémique suite à une attaque survenue sur la plage de Bondi à Sydney, en Australie. Lors d'un événement marquant le début des festivités de Hanoukka, une fusillade a éclaté. Au moins douze personnes ont perdu la vie sur place, et une vidéo montrant un homme s'emparant d'une arme à feu a commencé à circuler en ligne. Ces images sont à l'origine des erreurs commises par Grok par la suite. Le chatbot peine à identifier correctement la personne dans la vidéo. De nombreuses réponses donnent un nom différent ou décrivent la situation de manière factuellement inexacte. Certaines réponses sont complètement hors sujet, Grok abordant ensuite des sujets liés aux conflits au Moyen-Orient. Les réponses de Grok indiquent que l'IA peine à distinguer correctement des informations similaires. Le chatbot confond parfois les événements de Bondi Beach avec d'autres incidents survenus aux États-Unis, comme la fusillade de l'université Brown. Dans ses réponses, il combine les deux événements en un seul récit, ce qui contribue à la confusion des utilisateurs. La société xAI, responsable de Grok, n'a pas encore publié de déclaration officielle à ce sujet. On ignore si ces erreurs sont dues à des problèmes techniques temporaires ou si elles sont apparues après les dernières mises à jour. Quoi qu'il en soit, cet incident ternit une nouvelle fois l'image du chatbot. Par le passé, Grok s'est montré prompt à insulter les personnalités politiques, mais il commet ici des erreurs manifestement inadmissibles. (Lire la suite)
  •  

Le système d'intelligence artificielle a confondu une clarinette avec une arme à feu

Dans un lycée de Floride, un système de détection d'armes basé sur l'intelligence artificielle a confondu une clarinette avec une arme à feu, provoquant l'arrêt complet du dispositif de sécurité et le confinement de l'établissement. L'incident s'est produit mardi au lycée Lawton Chiles d'Oviedo. Une alarme automatique a déclenché l'alerte rouge à l'école, et l'administration ainsi que la police ont été dépêchées sur place. Ce n'est qu'après une enquête approfondie qu'il est apparu clairement que la menace présumée provenait d'un élève qui transportait un instrument de musique. La directrice de l'école, Melissa Laudani, a informé les parents des événements, soulignant qu'il n'y avait aucune menace réelle pour les élèves ou le personnel. Elle a également encouragé les jeunes à discuter avec eux des comportements susceptibles d'être mal interprétés par les systèmes de sécurité de l'établissement. Ses paroles étaient censées rassurer les parents, mais le simple fait de déclencher l'alarme a soulevé des inquiétudes et des questions quant à la fiabilité de la technologie, qui détermine de plus en plus le fonctionnement quotidien des établissements d'enseignement aux États-Unis. Les écoles publiques du comté de Seminole utilisent la plateforme ZeroEyes, un système commercial de détection des menaces basé sur l'analyse vidéo en temps réel. Cette technologie s'intègre aux caméras de surveillance existantes et utilise des algorithmes de vision par ordinateur entraînés sur des centaines de milliers d'images représentant différents types d'armes à feu. L'idée est que, lorsque l'algorithme détecte une arme potentielle, l'enregistrement soit envoyé aux analystes du centre de surveillance de l'entreprise, où l'alerte doit être confirmée avant d'avertir l'établissement scolaire et les services d'urgence. Dans le cas de l'incident d'Oviedo, cette étape n'a pas empêché le déclenchement des procédures d'urgence. Des documents publics indiquent que le district scolaire verse environ 250 000 $ pour un abonnement au système ZeroEyes. Cependant, les responsables de l'éducation n'ont pas précisé si cette technologie a déjà permis de déjouer une menace réelle. Les statistiques officielles concernant le nombre de fausses alertes et les taux de détection d'armes font également défaut. L'entreprise affirme être présente dans 43 États et collaborer avec des dizaines de districts scolaires, notamment en Floride, mais les rapports publics sur la fiabilité du système restent limités. Suite à cet incident, les parents réclamant une plus grande transparence se font de plus en plus entendre. Des questions se posent quant aux réels avantages de la mise en place de ce système et quant à la fiabilité des informations reçues par les établissements scolaires pour en évaluer le fonctionnement. Les critiques soulignent que l'absence d'audits indépendants favorise une confiance aveugle dans cette technologie. Les analystes de la sécurité publique affirment que de telles solutions peuvent créer une fausse impression de contrôle plutôt que de réduire réellement le risque de violence. Les fausses alertes fréquentes entraînent du stress, des perturbations des activités et des interventions inutiles des forces de l'ordre. Les organisations de défense des droits civiques alertent depuis longtemps sur le recours croissant à la surveillance par intelligence artificielle (IA) dans les établissements scolaires. Selon les experts, les systèmes générant de faux positifs pourraient exposer les élèves à des confinements répétés et à une présence policière accrue, ce qui nuirait à la sécurité et au climat d'apprentissage. L'affaire d'Oviedo est venue s'ajouter à ce débat, illustrant la facilité avec laquelle les algorithmes peuvent confondre des objets du quotidien avec de véritables menaces. (Lire la suite)
  •  

GPT 5.2 place la barre plus haut face à Gemini 3 Pro

Face à la pression exercée par Gemini , OpenAI lance GPT 5.2 , doté d'une suite de fonctionnalités dédiées aux tâches spécialisées et aux flux opérationnels complexes . Les nouveautés concernent principalement la gestion de tâches complexes , de l'analyse de documents volumineux à la production de documentation technique. L'entreprise se proclame « leader en matière de benchmarks concrets », avec une nette amélioration de la qualité des opérations de raisonnement , ainsi qu'une plus grande stabilité lors des séries de production plus longues . La variante GPT 5.2 Thinking obtient d'excellents résultats lors des évaluations professionnelles. Dans le benchmark GDPval , qui mesure les tâches de connaissances structurées dans 44 professions, le modèle atteint 70,9 % de réponses considérées comme correctes ou comparables à celles des experts du secteur, contre 38,8 % pour GPT-5. Le temps de production est plus court et les coûts de l'API sont réduits grâce à une meilleure efficacité des jetons. Lors de tests internes dédiés à la modélisation par des analystes financiers juniors , la série 5.2 atteint un score moyen de 68,4 % , ce qui représente une amélioration par rapport à la génération précédente. Les résultats comprennent des activités telles que la construction de modèles à trois bilans et des simulations de rachats par endettement . Une comparaison côte à côte avec les versions précédentes montre des documents plus cohérents et mieux formatés , tant dans les feuilles de calcul que dans les présentations , y compris dans des cas comme la création de modèles de planification des effectifs qui intègrent plusieurs départements et variables. Côté programmation , GPT 5.2 Thinking obtient un score de 55,6 % sur SWE Bench Pro , qui propose des scénarios concrets dans quatre langages différents. Sur SWE Bench Verified , plus proches des situations de maintenance Python, ce score atteint 80 % . Les retours des développeurs font état d'une meilleure gestion du refactoring, du débogage et de la mise en œuvre de requêtes complexes. La série s'améliore également dans les applications front-end , y compris dans les cas nécessitant des interfaces avec des éléments tridimensionnels, comme le démontrent des exemples où le modèle génère des applications complètes dans un seul fichier HTML . Dans la gestion de contexte long , GPT 5.2 Thinking atteint des valeurs proches de 100 % dans la variante à quatre indices du test MRCR jusqu'à 256 000 jetons , ce qui permet d'analyser des documents tels que des rapports d'entreprise, des contrats complexes, des recherches scientifiques et des projets multi-fichiers. Au niveau de la vision , les erreurs sont considérablement réduites lors de la lecture des interfaces graphiques et logicielles . Dans les scénarios nécessitant l'identification des composants et de leur disposition spatiale, le modèle peut identifier les éléments de la carte électronique avec une plus grande précision, même sur des images de faible qualité. L'invocation d'outils atteint un score de 98,7 % au test de performance Tau2 Telecom , ce qui est particulièrement utile pour les flux de travail nécessitant des séquences d'opérations coordonnées, comme la gestion des dossiers clients. Dans un exemple évalué, GPT 5.2 gère l'intégralité du processus de modification de réservation de vol, d'attribution de sièges spéciaux et de procédures d'indemnisation. Dans les disciplines scientifiques et mathématiques , GPT 5.2 Pro obtient un score de 93,2 % sur GPQA Diamond , tandis que GPT 5.2 Thinking obtient un score de 40,3 % sur FrontierMath dans les catégories 1 à 3, démontrant une résolution plus fiable des problèmes à plusieurs étapes. En matière de sécurité , le modèle réduit les réactions inappropriées dans des domaines sensibles tels que la santé mentale et l'automutilation , avec des améliorations mesurables des évaluations internes. Un système de détection de l'âge est mis en place pour activer automatiquement des protections supplémentaires. La gamme GPT 5.2 est disponible à partir des abonnements payants de ChatGPT et désormais également via l' API . Le coût est de 1,75 $ (environ 1,60 €) pour un million de jetons entrants et de 14 $ (environ 13 €) pour un million de jetons sortants. La version GPT 5.2 Pro coûte 168 $ (environ 153 €) pour un million de jetons générés. Les versions 5.1 restent utilisables pour le moment et leur arrêt n'est pas prévu à court terme. Le communiqué de presse d'OpenAI remercie également Nvidia et Microsoft , qui ont fourni l'infrastructure basée sur les GPU NVL72 H100 , H200 et GB200 pour la phase d'entraînement. Cela montre que dans le domaine de l'IA, les sept géants du numérique collaborent étroitement. Il est clair, cependant, que la sortie de GPT-5.2 est une réponse à Gemini 3 Pro : nous ne nous souvenons pas d’un lancement précédent d’OpenAI aussi riche en benchmarks et comparaisons , manifestement destinés à souligner les progrès accomplis . Or, quiconque utilise régulièrement des modèles de langage (LLM) sait pertinemment que l’usage réel et la perception de l’utilisateur sont souvent très éloignés des benchmarks , à tel point qu’un pan entier de la recherche est consacré à l’invention de nouvelles méthodes pour « mesurer l’intelligence » : une tâche loin d’être simple. (Lire la suite)
  •  

Mickey Mouse, Iron Man et bien d'autres dans les vidéos Sora : Disney s'associe à OpenAI

Disney et OpenAI ont conclu une alliance qui représente une avancée majeure pour l'utilisation de l'IA dans l'industrie du divertissement. Cet accord permet de créer du contenu mettant en scène des personnalités connues, tout en garantissant la protection des créateurs et du public. Le projet concerne l'ensemble de l'écosystème des marques Disney , grâce à une licence qui ouvre la voie à de nouveaux formats vidéo et à de nouveaux outils, tant pour les fans que pour les employés de l'entreprise. Ce contrat de trois ans autorise la plateforme Sora à créer de courtes vidéos générées à partir de requêtes textuelles. Le système exploite plus de 200 personnages issus d'univers tels que Marvel , Pixar , Star Wars et les séries animées Disney, ainsi que des costumes, des véhicules et des décors emblématiques. Disney prévoit d'intégrer une sélection de ce contenu sur Disney+ , offrant un espace dédié au visionnage de vidéos créées avec Sora. Le catalogue comprend des figurines telles que Mickey Mouse , Ariel , Belle , Simba , ainsi que des personnages de films comme La Reine des neiges , Vaiana , Toy Story et Zootopie , sans oublier des versions illustrées de personnages Marvel et Lucasfilm, notamment Captain America , Iron Man , Dark Vador , Luke Skywalker et le Mandalorien . Le contrat prévoit également l'utilisation des API d'OpenAI pour créer de nouveaux outils et fonctionnalités internes pour Disney+ , ainsi que l'adoption de ChatGPT par les employés de l'entreprise. Il inclut par ailleurs un investissement d'un milliard de dollars dans OpenAI et des subventions permettant à Disney d'acquérir des parts supplémentaires. Les deux sociétés réaffirment leur volonté de maintenir des contrôles rigoureux afin de prévenir la diffusion de contenus illégaux et préjudiciables . L'accord interdit formellement l'utilisation de la voix et de l'image des acteurs et établit des restrictions spécifiques concernant la gestion des droits de propriété intellectuelle. OpenAI continuera de mettre en place des mesures et des outils de sécurité adaptés à l'âge afin de limiter les abus du service. Cette collaboration vise à promouvoir une utilisation de l'IA qui privilégie la protection des utilisateurs et le respect des œuvres créatives. Les deux sociétés ont également l'intention de développer des fonctionnalités qui intègrent des modèles OpenAI à l'expérience Disney+ , élargissant ainsi les possibilités de profiter du contenu sans modifier le rôle des œuvres originales. Les premières productions utilisant des personnages sous licence sont attendues début 2026. À ce moment-là, Sora et ChatGPT Images commenceront à créer de courtes vidéos et images textuelles. La transaction est encore soumise à la finalisation des accords et à l'approbation du conseil d'administration. Cet accord intervient à un moment où l'industrie du divertissement définit les règles et les limites de l'utilisation de l'IA, et constitue un test pour déterminer si ces outils peuvent véritablement coexister avec le respect des droits d'auteur. C'est assurément un défi qui exige un juste équilibre , surtout lorsqu'il s'agit de personnages si profondément ancrés dans la culture populaire. (Lire la suite)
  •  

The HTML-First Approach: Why htmx and Lightweight Frameworks Are Revolutionizing Web Development · while true do;

Entre htmx et DataStar (https://sebsauvage.net/links/?555nmw), il faudra vraiment que je jette un coup d'oeil à ces frameworks. Ils pourraient me redonner envie de faire du web. Ils sont html-first, légers, et extrêmement rapides.
(EDIT: J'ai doute sur le fait que l'article ait été écrit par un humain 😕 marre de l'IA qui pourrit tout.)

EDIT: On me signale aussi https://alpinejs.dev/ qui se combine bien avec htmx.

EDIT: Un autre article sur htmx qui le résume assez bien: https://pleasejusttryhtmx.com/
«    - Any HTML element can make an HTTP request
   - The server just returns HTML (not JSON, actual HTML)
   - That HTML gets swapped into the page wherever you want
   - You write zero JavaScript
   - The whole library is ~14kb gzipped
That's HTMX. That's literally the whole thing. »
Et un autre article un peu plus nuancé : https://htmx.org/essays/when-to-use-hypermedia/
(Permalink)
  •  

Huawei conçoit ses propres accélérateurs d'IA ; les États-Unis réagissent en limitant leurs exportations.

Les États-Unis ont récemment autorisé l'exportation des accélérateurs d'intelligence artificielle Nvidia H200 vers la Chine , moyennant une taxe de 25 % sur ces échanges. Les analystes considèrent cette décision comme une mesure stratégique dans la course technologique mondiale, et non comme un simple accord commercial. Selon un article de Bloomberg, la principale motivation de cette décision réside dans l'inquiétude suscitée par le développement rapide des systèmes informatiques chinois, dont les performances se rapprochent désormais de celles des systèmes américains. Les autorités de Washington estimaient qu'autoriser les exportations de H200, tout en maintenant l'interdiction des architectures plus récentes comme la série Blackwell, permettrait de préserver un avantage architectural dans des segments clés du marché de l'intelligence artificielle. Dans une déclaration officielle, Kush Desai, porte-parole de la Maison-Blanche, a évoqué la détermination de l'administration Trump à maintenir la domination de l'écosystème technologique américain sans compromettre la sécurité nationale. La décision d'autoriser les exportations du H200 a coïncidé avec des inquiétudes croissantes concernant les progrès de Huawei. Le fabricant chinois développe ses propres systèmes d'accélération d'IA, tels que les processeurs CloudMatrix 384 et Ascend 910C. Ces deux solutions ont été reconnues par l'industrie pour leurs performances comparables à celles des plateformes basées sur le H200 ou sur le Nvidia GB200 NVL72, son concurrent. Huawei met en avant les performances de ces solutions et, selon des sources de Bloomberg, les prévisions tablent sur une production à grande échelle des puces Ascend 910C dès 2026. Des analystes américains ont comparé les capacités du CloudMatrix 384 à celles de la plateforme GB200, reconnaissant son potentiel mais soulignant des compromis en matière d'efficacité énergétique et de performances globales. Selon certaines sources, Huawei prévoit de produire jusqu'à 600 000 processeurs 910C l'année prochaine. Ce scénario a suscité une vive réaction des autorités à Washington, qui estiment que l'introduction du H200 en Chine, sous contrôle des exportations, pourrait freiner la concurrence croissante. Bien que les exportations du H200 soient autorisées, les États-Unis maintiennent l'interdiction de vente des architectures Blackwell plus récentes. Cette composante de l'offre de Nvidia est à la pointe de la technologie et constitue le fondement de nombreux modèles d'IA avancés et de systèmes de calcul haute performance. Selon les stratèges de Washington, limiter l'accès de la Chine à Blackwell vise à empêcher la fuite de technologies informatiques critiques hors du contrôle occidental. Cette décision s'inscrit dans une démarche visant à limiter l'accès aux technologies de pointe aux pays considérés comme concurrents dans la course technologique mondiale. Le maintien du H200 dans le marché, sous contrôle des exportations, permet de satisfaire partiellement les besoins des entreprises chinoises qui dépendent encore largement du logiciel et de l'écosystème CUDA. De nombreux outils et bibliothèques de l'écosystème d'IA sont optimisés pour les architectures Nvidia, ce qui facilite l'intégration et l'entraînement de modèles complexes. Malgré les ambitions de la Chine concernant son propre jeu d'instructions CANN open source, de nombreuses entreprises privilégient encore les accélérateurs Nvidia. Par exemple, des plateformes comme Deepseek utilisent du matériel basé sur CUDA pour entraîner des modèles avancés, en tirant parti de la vaste suite d'outils de développement existante. La communauté des développeurs d'IA et des centres de données s'est habituée aux outils et bibliothèques compatibles avec l'écosystème Nvidia, et la migration vers les nouvelles normes progresse lentement. De ce fait, les accélérateurs de l'entreprise revêtent une valeur exceptionnelle, malgré l'augmentation des investissements dans les solutions locales en Chine et les efforts déployés pour créer un environnement compétitif basé sur les réseaux de neurones artificiels convolutifs (CANN). Selon des sources de Bloomberg, l'administration américaine analysait différentes options en matière de politique d'exportation. Parmi celles-ci figurait une interdiction totale de la vente des puces H200, ce qui aurait constitué un durcissement drastique de la politique d'exportation après les restrictions précédemment imposées aux puces Nvidia H20. Une autre possibilité consistait même à inonder délibérément le marché des exportations afin de submerger les technologies concurrentes de Huawei. Finalement, une stratégie de compromis a été retenue, autorisant les exportations sous réserve du paiement de droits de douane et de contrôles conformes à la réglementation en vigueur. La décision américaine a des répercussions importantes sur le paysage technologique mondial. Le maintien de l'accès de la Chine à l'architecture H200 signifie que les entreprises chinoises pourront continuer à utiliser des architectures d'accélération basées sur CUDA, essentielles au développement de leurs projets et recherches en intelligence artificielle. Parallèlement, la limitation de l'accès aux architectures Blackwell plus récentes devrait ralentir les progrès technologiques dans les domaines exigeant une puissance de calcul élevée. (Lire la suite)
  •  

Les agents d'IA sont incontrôlables. La Fondation Linux tente de rétablir l'ordre.

La Linux Foundation a annoncé mardi la création de l'Agentic AI Foundation, une organisation visant à établir des normes uniformes et neutres pour superviser le développement des infrastructures d'agents d'IA. Cette initiative fait suite au chaos croissant qui entoure une technologie devenue à la fois source d'admiration et d'échecs retentissants. Les agents d'IA sont des systèmes qui combinent des modèles d'apprentissage automatique à la capacité de manipuler d'autres logiciels. Concrètement, ils peuvent faire fonctionner des navigateurs, exécuter des commandes dans un environnement de développement et même interagir avec les systèmes d'exploitation. Le secteur aborde cette catégorie d'outils avec une prudence croissante. Gartner a avancé que de nombreuses entreprises abandonneraient les projets basés sur des agents en raison d'un manque de valeur commerciale démontrée. Néanmoins, la Fondation Linux a décidé de jouer un rôle d'arbitre neutre au sein de cet écosystème en développement. La nouvelle organisation est lancée avec un ensemble spécifique de technologies. Anthropic a contribué le protocole MCP (Model Context Protocol), un mécanisme permettant d'intégrer de grands modèles de langage à des outils. Block a contribué le projet Goose, développé comme un framework open source pour les agents. OpenAI a publié AGENTS.md, un document décrivant les principes de définition des agents sous la forme d'un fichier README lisible par machine. « OpenAI a toujours pensé que des protocoles partagés et pilotés par la communauté étaient essentiels au bon fonctionnement de l'écosystème des agents. C'est pourquoi nous avons publié le code source d'éléments constitutifs clés comme l'interface de ligne de commande Codex, le kit de développement logiciel Agents et maintenant AGENTS.md », a déclaré Nick Cooper, membre de l'équipe technique d'OpenAI. Jim Zemlin, directeur exécutif de la Linux Foundation, a souligné que la gouvernance collaborative vise à garantir la transparence et la stabilité qui font défaut aux initiatives dépendant d'entreprises individuelles. Selon lui, seul un modèle de gouvernance ouvert permet un développement durable des infrastructures d'intelligence artificielle. Nick Cooper, membre de l'équipe technique d'OpenAI, a souligné que les agents d'IA nécessitent des protocoles fiables et l'accès à des outils permettant de créer un écosystème cohérent. Il a insisté sur le fait qu'OpenAI publie depuis longtemps des composants essentiels au développement d'agents, notamment l'interface de ligne de commande Codex et le kit de développement logiciel Agents. Les annonces officielles des entreprises soutenant l'AAIF étaient empreintes d'optimisme. Pourtant, le développement d'agents se heurte à des réalités difficiles. Microsoft aurait revu à la baisse ses prévisions concernant la plateforme Azure Foundry, chargée de la création d'agents, même si l'entreprise a assuré à CNBC que ses objectifs de vente globaux pour ses services d'IA restaient inchangés. Google est critiqué suite à des incidents impliquant son agent logiciel Antigravity, basé sur Gemini. Des failles de sécurité ont été découvertes peu après son lancement, et un bug a entraîné l'effacement du disque dur du développeur. Replit a connu une situation similaire lorsque son agent d'IA a effectué des opérations ayant provoqué une perte de données dans sa base de données de production. L'ampleur de ces erreurs a suscité un avertissement officiel de la part de Gartner. Les analystes ont conseillé aux entreprises d'interdire l'utilisation des navigateurs basés sur des agents. Malgré cela, les entreprises continuent de déployer des systèmes d'automatisation pilotés par des modèles de langage, même face à des erreurs retentissantes comme celle d' Air Canada , dont le chatbot a entraîné des conséquences juridiques coûteuses. Gartner prévoit que d'ici 2028, le nombre d'agents commerciaux utilisant l'IA sera dix fois supérieur à celui des commerciaux traditionnels. Les analystes estiment également que moins de 40 % des équipes commerciales constateront une amélioration de leur productivité. Le décalage entre enthousiasme et efficacité est devenu un sujet de débat majeur concernant les agents commerciaux. La création de la Fondation Agentic AI marque une nouvelle étape. D'une part, le secteur se dote d'une plateforme centrale pour la standardisation des infrastructures ; d'autre part, les défis opérationnels et d'image se développent plus rapidement que les outils conçus pour les gérer. Reste à savoir si une fondation neutre sera capable de maîtriser un écosystème qui a déjà échappé au contrôle des entreprises individuelles. (Lire la suite)
  •  

Des centaines de Porsche bloquées par leur propre système. Les voitures modernes sont-elles trop intelligentes ?

Les voitures modernes regorgent aujourd'hui d'électronique et de systèmes en ligne censés améliorer la sécurité et le confort du conducteur, mais le récent cas survenu en Russie montre qu'un excès de technologie peut se retourner contre les conducteurs, en encombrant littéralement les véhicules. Fin novembre, dans de nombreuses villes russes, des propriétaires de Porsche ont constaté que leurs véhicules ne démarraient pas ou calaient peu après le démarrage. Rolf, le plus grand concessionnaire de Russie, a confirmé que la cause du problème était un défaut de communication par satellite avec le système de suivi des véhicules (VTS), un module installé en usine sur toutes les Porsche fabriquées après 2013. Après la perte du signal, les véhicules ont supposé être victimes d'une tentative d'effraction. Une procédure de sécurité automatique s'est déclenchée, incluant l'immobilisation du moteur et la coupure de l'alimentation en carburant. De fait, les véhicules étaient totalement immobilisés, bien qu'aucune tentative de vol n'ait été constatée. Un représentant du service après-vente de Rolf a reconnu que tous les modèles de moteurs thermiques couverts par le système VTS ne communiquaient pas encore. Certains utilisateurs ont réussi à redémarrer leur véhicule en désactivant ou en réinitialisant le module VTS. D'autres ont utilisé une méthode plus simple : débrancher complètement la batterie pendant une durée pouvant aller jusqu'à 10 heures. Des garages locaux auraient également mis au point une procédure de réparation officielle, qui nécessite un démontage partiel de l'habitacle pour accéder au panneau de commande de l'alarme. Le problème n'a touché que les véhicules situés en Russie. Bien qu'aucun élément ne permette de conclure à une intervention intentionnelle de tiers, un porte-parole de Rolf a admis qu'« il n'est pas possible d'exclure un acte délibéré ». L'enquête sur les causes de la panne est toujours en cours. Il convient de rappeler que Porsche, comme la plupart des marques occidentales, a suspendu ses ventes en Russie suite à l'invasion de l'Ukraine en 2022. Cependant, l'entreprise possède toujours plusieurs sociétés dans le pays qui n'ont pas été vendues. Cette situation constitue un nouveau signal d'alarme pour l'industrie automobile. La multiplication des systèmes connectés accroît non seulement les fonctionnalités des voitures, mais aussi leur vulnérabilité aux pannes et aux utilisations abusives. Un simple problème de connectivité suffit à rendre inutilisable une voiture de luxe. Des problèmes de confidentialité se posent également. Dès 2024, des cas ont été rendus publics où des voitures équipées de systèmes télématiques transmettaient des données sur le style de conduite aux assureurs, souvent à l'insu des propriétaires. Des rapports récents en provenance d'Europe font également craindre que des bus électriques chinois puissent être désactivés à distance par leur constructeur au sein de l'UE. Bien que ces pratiques n'aient pas été confirmées, le simple fait que des enquêtes soient en cours témoigne de l'importance accordée actuellement aux risques liés aux véhicules hyperconnectés. (Lire la suite)
  •  
❌