Vue lecture

L'Europe veut rattraper les États-Unis et l'Asie. Chips Act 2.0 et milliards d'euros en jeu.

L'Union européenne se prépare à une refonte majeure de sa loi sur les puces électroniques de 2022. Tous les États membres ont rejoint une coalition menée par les Pays-Bas, qui vise à attirer des investissements supplémentaires dans le secteur des semi-conducteurs. Selon Reuters, la version 2.0 du projet de loi mettrait de côté l'ambition initiale de reprendre la production mondiale et se concentrerait sur les lacunes révélées par la stratégie actuelle. Le projet de loi initial prévoyait 43 milliards d'euros pour le développement de la production, la conception et le suivi de la chaîne d'approvisionnement. Son objectif était de créer une base pour l'intervention des États membres et de compenser les subventions accordées aux États-Unis. Le plan supposait que l'Europe s'accaparerait un cinquième du marché mondial d'ici 2030. Cependant, la réalité a révélé que le continent ne représente encore que 11,7 % de la production mondiale, soit une augmentation symbolique par rapport au plan initial. La nouvelle coalition, lancée en mars par les Pays-Bas avec le soutien de huit pays, a reçu le soutien sans réserve de tous les pays de l'UE. Des organisations industrielles représentant plusieurs milliers d'entreprises technologiques l'ont également rejointe, parmi lesquelles Nvidia, Intel, ASML, Infineon et STMicroelectronics. La coalition milite actuellement pour un quadruplement du financement et un processus d'approbation plus rapide des projets d'infrastructure. Le Chips Act 2.0 vise à ouvrir la voie à un soutien plus sélectif et à la création d'un budget distinct dédié exclusivement au développement des semi-conducteurs. L'objectif est de renforcer l'accès à l'expertise technique et à un financement stable tout au long de la chaîne d'approvisionnement. Préserver l'Europe du risque de perte d'accès aux technologies de conception de circuits intégrés et aux procédés de fabrication avancés est également une priorité. Bien que la loi de 2022 ait déclenché une vague de projets, tous n'ont pas produit les résultats escomptés. Le retrait d'Intel de la construction d'une usine en Allemagne reste un exemple symbolique. Cet événement a alimenté le débat sur la nécessité de mieux aligner les investissements sur les capacités réelles de l'Europe. La nouvelle version de la loi vise à combler ces lacunes et à consolider le secteur européen des semi-conducteurs. (Lire la suite)
  •  

Jouer en bourse uniquement avec l'IA : les investisseurs s'appuient de plus en plus sur ChatGPT

L'intelligence artificielle transforme la façon dont les investisseurs individuels prennent des décisions sur les marchés financiers. Selon une étude récente, 13 % des investisseurs particuliers utilisent désormais ChatGPT pour sélectionner des actions, ce qui alimente la croissance fulgurante du marché du robo-advice. Le cabinet d'analystes Research and Markets prévoit que le marché du conseil en investissement automatisé passera de 61,75 milliards de dollars en 2024 à 470,91 milliards de dollars en 2029, soit une augmentation d'environ 600 %. La moitié des investisseurs particuliers se disent prêts à utiliser des outils d'IA comme ChatGPT ou Google Gemini pour choisir leurs investissements. Jeremy Leung, ancien analyste chez UBS, a commencé à utiliser ChatGPT après avoir perdu son emploi dans une banque suisse. « Je n'ai plus accès à un terminal Bloomberg ni à des services de marché coûteux. Même un simple ChatGPT peut reproduire bon nombre des processus que j'utilisais auparavant », explique l'expert. L'efficacité de l'IA en matière d'investissement est confirmée par des résultats concrets. Finder a demandé à ChatGPT de sélectionner un panier de 38 actions de haute qualité, en tenant compte de critères tels que le niveau d'endettement et la stabilité de la croissance. Le portefeuille, qui comprend Nvidia et Amazon, a progressé de près de 55 %, surperformant de 19 points de pourcentage la moyenne des dix fonds britanniques les plus populaires. Les experts mettent toutefois en garde contre les risques. Dan Moczulski d'eToro souligne que « les modèles d'IA peuvent être brillants, mais le problème survient lorsque les gens traitent ChatGPT comme une boule de cristal. » Les outils polyvalents peuvent déformer les données et s'appuyer excessivement sur les tendances historiques des prix. ChatGPT lui-même avertit les utilisateurs qu'il ne doit pas être utilisé comme un conseil financier professionnel, mais cela n'empêche pas l'IA de devenir de plus en plus populaire dans l'investissement. (Lire la suite)
  •  

Les gens se contenteront de nettoyer le code après les machines. L'IA tuera la profession de programmeur.

Le développement des réseaux neuronaux représente une menace sérieuse pour les langages de programmation traditionnels de haut niveau. Jusqu'à récemment, JavaScript était considéré comme le fondement du web moderne, mais dans le dernier classement IEEE Spectrum, sa popularité a fortement chuté, passant de la troisième à la sixième place. La raison n'est pas la technologie elle-même, mais une évolution de la façon dont les programmeurs résolvent les problèmes. Jusqu'à présent, la principale source de connaissances du secteur était le forum Stack Overflow, où des millions d'experts échangeaient quotidiennement des solutions. Cependant, l'intelligence artificielle prend rapidement le relais. Au lieu d'attendre les réponses de leurs collègues, les développeurs soumettent leurs questions à des modèles de langage, qui livrent le code finalisé en quelques secondes. Les données montrent qu'en 2025, le nombre de requêtes sur Stack Overflow avait diminué de 78 % par rapport à l'année précédente. Les réseaux neuronaux permettent d'écrire des programmes en langage naturel. Une simple requête dans sa langue maternelle produit du code exécutable en Python, Java, C++, voire dans des langages obsolètes datant de plusieurs décennies. Cette tendance, baptisée « vibe coding », gagne en popularité auprès des personnes n'ayant jamais programmé. Parallèlement, un nouveau créneau professionnel émerge : des spécialistes appelés « nettoyeurs de code » corrigent les erreurs et optimisent le code généré par l'IA. L'IA pouvant générer du code dans presque tous les langages courants, la nécessité de nouvelles solutions syntaxiques devient discutable. Les modèles nécessitent d'énormes quantités de données d'entraînement, disponibles uniquement pour les langages courants. Les tentatives d'introduction de langages de niche se heurtent au manque de ressources, ce qui complique leur intégration aux outils d'IA. Malgré les bouleversements qui secouent le monde de la programmation, Python occupe toujours la première place des classements IEEE Spectrum et Tiobe. Java arrive en deuxième position, suivi de C++ et de SQL. Cependant, l'importance croissante des réseaux neuronaux signifie que les statistiques pourraient bientôt devenir une curiosité historique si les langages de programmation de haut niveau sont remplacés par du code généré à partir de requêtes en langage naturel. (Lire la suite)
  •  

OpenAI construit une « ville des machines » au Texas.

OpenAI a annoncé son intention de créer l'un des plus grands réseaux de centres de données de l'histoire des technologies. Ce projet, qui pourrait atteindre des milliers de milliards de dollars, devrait jeter les bases du développement de modèles d'intelligence artificielle et contribuer à la revitalisation de l'industrie américaine. En janvier, l'entreprise, en collaboration avec le président Donald Trump, a dévoilé l'initiative Stargate, dotée de 500 milliards de dollars, considérée comme un symbole de l'ampleur sans précédent de la réindustrialisation américaine. Le premier centre de données est en construction à Abilene, au Texas, à 300 km de Dallas. Ce site de 440 hectares, autrefois vacant, abrite aujourd'hui huit immenses bâtiments d'une capacité d'environ 900 mégawatts. Plus de 6 000 personnes y travaillent en rotation, et l'installation est équipée de turbines à gaz pour fournir une alimentation de secours. Oracle, co-responsable de la construction avec OpenAI, qualifie ce projet de plus grand cluster de supercalculateurs d'IA au monde. Le premier bâtiment achevé du campus est plus grand que deux Walmart réunis. Il abrite des rangées de serveurs Nvidia GB200, regroupés en clusters de 72 unités. Selon les estimations du secteur, chaque module coûterait autant qu'une Tesla Model 3 neuve. L'ensemble du site est équipé de systèmes de sécurité performants, avec notamment des alarmes aux entrées et la surveillance de chaque rack de serveurs. Le complexe d'Abilene n'est qu'un début. OpenAI annonce le développement de cinq sites supplémentaires aux États-Unis, qui devraient fournir près de sept gigawatts de capacité supplémentaire. Les investissements les plus importants comprendront une expansion supplémentaire au Texas, une nouvelle installation au Nouveau-Mexique et un hub dans le Midwest. Deux installations plus petites seront construites à Austin et à Lordstown, dans l'Ohio. La collaboration avec Oracle couvrira les trois projets les plus importants, tandis que SoftBank ne sera impliquée que sur deux sites plus petits. La popularité croissante de ChatGPT, qui a dépassé les 700 millions d'utilisateurs hebdomadaires, exige qu'OpenAI développe rapidement ses ressources. À terme, l'entreprise estime avoir besoin d'au moins 20 gigawatts d'électricité, soit l'équivalent de la production de vingt centrales nucléaires. Avec des coûts d'investissement actuels d'environ 50 milliards de dollars par gigawatt, l'investissement total pourrait atteindre 1 000 milliards de dollars. À long terme, les projections suggèrent une croissance jusqu'à 100 gigawatts, ce qui représenterait un investissement de 5 000 milliards de dollars, soit plus que le PIB annuel de l'Allemagne ou du Japon. Altman lui-même, s'adressant au Wall Street Journal, a admis qu'un modèle de financement définitif n'avait pas encore été élaboré, mais a souligné qu'une solution appropriée apporterait d'énormes bénéfices sociaux. L'annonce de ce projet a coïncidé avec la signature d'un accord de 100 milliards de dollars avec Nvidia. Ce partenariat a renforcé la position d'OpenAI face à l'engagement financier limité de SoftBank. Malgré l'envergure mondiale du projet, les réactions à Abilene restent mitigées. Les habitants s'interrogent sur l'impact du chantier sur les ressources locales en énergie et en eau. Le maire Weldon W. Hurt a souligné que certaines préoccupations avaient déjà été prises en compte et que le projet créerait à terme environ 1 700 emplois permanents. Bien que ce nombre soit inférieur aux emplois temporaires, M. Hurt a déclaré que la ville était prête pour une nouvelle ère. (Lire la suite)
  •  

ChatGPT a volé des données de Gmail. OpenAI est resté silencieux pendant des mois.

Des chercheurs de Radware ont annoncé une faille de sécurité dans l'agent ChatGPT Deep Research, baptisée ShadowLeak. Le mécanisme d'attaque impliquait une injection indirecte de messages. Des commandes malveillantes pouvaient être dissimulées dans le code HTML de l'e-mail, les rendant invisibles pour l'utilisateur, mais lisibles par l'agent IA. Des techniques typographiques telles que l'utilisation de polices très petites, du texte blanc sur fond blanc et la modification de la mise en page ont été utilisées pour y parvenir. Deep Research est une fonctionnalité de ChatGPT lancée en février 2024. Elle permet au chatbot d'effectuer des recherches indépendantes sur Internet. Les chercheurs de Radware ont démontré que, dans le cas de ShadowLeak, l'agent pouvait exécuter des instructions pour collecter des données personnelles à partir d'autres messages de la boîte de réception Gmail. Ces informations étaient ensuite envoyées à des serveurs externes. Pour ce faire, l'agent a utilisé l'outil browser.open(), codant les données en Base64 et les ajoutant à des URL spécialement conçues. Les expériences ont montré que l'attaque ne se limitait pas à l'intégration de Gmail. La même technique pouvait être appliquée à de nombreux autres services compatibles avec ChatGPT, notamment Dropbox, Google Drive, GitHub, Notion, Microsoft Outlook, HubSpot et SharePoint. De nombreux aspects du travail et de la communication, tant pour les entreprises que pour les particuliers, étaient donc potentiellement menacés. Contrairement aux incidents précédents comme AgentFlayer et EchoLeak, ShadowLeak n'a pas opéré côté client. L'attaque a été lancée directement sur l'infrastructure cloud d'OpenAI. Ni la surveillance locale ni la sécurité de l'entreprise n'avaient aucun moyen de détecter la fuite. Cette vulnérabilité était donc extrêmement difficile à détecter et donc particulièrement dangereuse. Les experts soulignent que ces types d'attaques sont à la fois simples à mettre en œuvre et relativement faciles à supprimer s'ils sont détectés rapidement. Le problème des instructions cachées dans les systèmes basés sur LLM est connu depuis longtemps et largement débattu. Des solutions techniques permettent de neutraliser rapidement ces vulnérabilités, mais cela ne signifie pas pour autant qu'elles peuvent être ignorées. Selon Radware, OpenAI a déployé des correctifs pour éliminer ShadowLeak début août. La vulnérabilité avait été signalée un mois et demi plus tôt. Si le vecteur d'attaque décrit ne devrait plus fonctionner, cet incident met une fois de plus en évidence le problème de sécurité des systèmes d'IA, qui deviennent de plus en plus une passerelle vers les données stockées dans les services cloud. (Lire la suite)
  •  

8 outils indispensables pour le codeur débutant : le guide

Nouvelle rentrée, nouvelles résolutions ! Tu veux te mettre sérieusement au code, devenir le codeur de demain, mais face à la multitude d’outils existants, tu te demandes lesquels sont vraiment essentiels pour progresser sans te perdre. Bonne nouvelle : voici une sélection des 8 types d’outils incontournables que tout débutant doit connaître pour coder efficacement. 8. Notebooks: vos […]

L’article 8 outils indispensables pour le codeur débutant : le guide est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Datastar

Sous le coude : Un framework javascript *léger* (~10 ko) qui s'accomode de divers backends (Python, php, GO...). Et ça supporte même SSE (Server-Side Events) et donc permet de faire des pages très dynamiques sans se coltiner des usines à gaz en Javascript. Le but, c'est vraiment de faire des applications très dynamiques, mais de faire le gros du boulot côté serveur.

Je me garde ici quelques liens en rapport :
https://archive.fosdem.org/2025/schedule/event/fosdem-2025-6316-push-based-hypermedia-with-datastar/
Comparé à htmx : https://chrismalek.me/posts/data-star-first-impressions/
https://medium.com/@ianster/using-datastar-da1984a6cc77
(Permalink)
  •  

Des influenceurs de Tesla ont testé le système de conduite autonome d'Elon Musk. Crash après 100 km.

En 2016, Elon Musk a annoncé que Tesla conduirait de manière autonome de Los Angeles à New York d'ici fin 2017. Le projet prévoyait un trajet entièrement documenté – soit en direct, soit en enregistrement intégral – pendant lequel la voiture roulerait de manière autonome d'un océan à l'autre. Huit ans plus tard, ce projet n'a toujours pas été concrétisé. En septembre 2025, deux actionnaires de Tesla, également connus sous le nom d'influenceurs du web, décidèrent de concrétiser eux-mêmes la vision d'Elon Musk. Ils quittèrent San Diego, en Californie, au volant d'une Tesla Model Y équipée de la dernière version 13.9 du logiciel de conduite entièrement autonome. Ils comptaient se rendre jusqu'à Jacksonville, en Floride. Le voyage s'est terminé après seulement 100 kilomètres. La voiture a heurté des débris sur la route, ce qui aurait pu être facilement évité. Les images montrent que le conducteur ne gardait pas les mains sur le volant, et le passager a remarqué l'obstacle bien plus tôt. Il a réagi au dernier moment, mais il était trop tard. PMppm1m6jio La collision a endommagé la Tesla suffisamment gravement pour la rendre inutilisable. Une barre stabilisatrice cassée et des composants de suspension endommagés ont provoqué l'affichage d'une série d'avertissements. Finalement, la Tesla n'a réussi à parcourir que 2,5 % de son trajet prévu. Tesla est critiqué depuis des années pour ses objectifs d'autonomie non atteints. La flotte de Robotaxi d'Austin nécessite toujours la supervision des employés de l'entreprise, et le système de conduite entièrement autonome disponible dans les voitures grand public reste une technologie de niveau 2 qui ne dispense pas le conducteur de sa pleine responsabilité en matière d'attention. Elon Musk a expliqué à plusieurs reprises que la véritable autonomie nécessite une étape appelée « Marche des Neuf », au cours de laquelle le système doit approcher une efficacité de près de 100 %. Selon Musk, même atteindre 99 % marque le début du parcours le plus difficile, car le monde réel est jalonné d'événements imprévisibles. Les experts soulignent que Tesla n'en est qu'à ses débuts dans la phase de développement la plus difficile, et que le délai nécessaire à son achèvement demeure incertain. Certains analystes estiment que cela pourrait prendre deux ou trois ans, nécessitant l'introduction d'un nouveau package matériel. Parallèlement, ses concurrents, Waymo en tête, travaillent depuis cinq ans sur une autonomie de pointe. Le procès de deux actionnaires de Tesla était censé confirmer les progrès technologiques de l'entreprise, mais il a en réalité révélé ses limites. L'image de Tesla comme leader de la conduite autonome contraste de plus en plus avec la réalité, où ses concurrents prennent progressivement le dessus. (Lire la suite)
  •  

I’m a proud CRUD monkey | Kyrylo Silin

En 20 ans le web a formidablement évolué : CSS plus puissants et globalement standardisé entre navigateur, javascript, html incroyablement plus puissant (sélecteur de dates, etc.). On a des outils de base incroyablement plus puissants qu'en 2000, et on peut faire des tonnes de choses avec juste html+css+vanilla javascript, et avec une puissance CPU bien plus grande. Donc tout devrait être très rapide.

Sauf que non. Le web de 2025 est lourdingue. On construit des usines à gaz monstrueuses avec des pages de 25 Mo avec des méga-octets de javascript.
Pourquoi ? Peut-être parce qu'en tant que développeur on arrive pas à accepter le fait que développer une appli web, c'est juste faire du CRUD (Create-Read-Update-Delete) amélioré et qu'inconsciemment on en a honte. Donc on invente des cathédrales à la complexité démente pour se justifier.

Traduction de la citation au début de l'article :
« Les pages web ne sont pas si différentes de ce qu'elles étaient à la fin des années 90 et au début des années 2000. Ce ne sont toujours que des formulaires. Elles écrivent toujours simplement dans des bases de données. Beaucoup de gens, je pense, sont très mal à l'aise avec le fait qu'ils sont essentiellement des singes savants qui font du CRUD. Ils créent juste des systèmes qui créent, lisent, mettent à jour ou suppriment des lignes dans une base de données, et ils doivent compenser ce malaise existentiel en compliquant les choses. »

(via https://shaarli.zoemp.be/shaare/h-wHoQ)

Sur le même sujet :
"JavaScript broke the web (and called it progress)" - https://sebsauvage.net/links/?3j-1qA
"Why do software developers love complexity?" - https://sebsauvage.net/links/?KDWHXQ
"The Cult of Hard Mode" - https://www.joanwestenberg.com/p/the-cult-of-hard-mode-why-simplicity-offends-tech-elites
(Permalink)
  •  

NVIDIA et OpenAI annoncent un accord de 100 milliards de dollars dans le domaine de l'IA

NVIDIA et OpenAI ont officiellement annoncé un partenariat qui marquera un tournant dans l'histoire de l'intelligence artificielle . Annoncé le 22 septembre 2025, cet accord prévoit la construction et la gestion de nouvelles infrastructures informatiques à grande échelle, d'une valeur pouvant atteindre 100 milliards de dollars , afin de soutenir des modèles de plus en plus complexes et proches de la superintelligence. Au cœur de l'accord se trouve la mise à disposition d'au moins 10 gigawatts de puissance de calcul, soit l'équivalent de millions de GPU NVIDIA, une ressource essentielle pour l'entraînement et l'exploitation des réseaux neuronaux les plus avancés. Le projet sera mis en œuvre par phases : la première sera opérationnelle au second semestre 2026, grâce à la nouvelle plateforme NVIDIA Vera Rubin, conçue pour gérer des charges de travail extrêmement intensives. Au-delà du matériel, l'accord prévoit une étroite collaboration entre les deux entreprises afin d'optimiser conjointement leurs projets respectifs : les modèles et l'infrastructure logicielle d'OpenAI d'une part, et les solutions matérielles et logicielles de NVIDIA d'autre part. OpenAI considérera NVIDIA comme un partenaire stratégique privilégié pour la croissance de ses « usines d'IA », conçues pour alimenter le déploiement mondial de systèmes génératifs de plus en plus puissants. Les déclarations de la direction soulignent l'importance historique de cet accord. Jensen Huang, fondateur et PDG de NVIDIA, a qualifié ce partenariat de « prochain grand bond en avant » après la révolution ChatGPT, soulignant que la nouvelle infrastructure de 10 gigawatts marquera le début d'une nouvelle ère de l'intelligence. Sam Altman, PDG d'OpenAI, a réaffirmé que « tout commence par le calcul » et que cette puissance constituera le fondement de l'économie numérique du futur. Greg Brockman, président d'OpenAI, a rappelé comment la collaboration avec NVIDIA a débuté avec les premiers supercalculateurs DGX et comment l'objectif actuel est d'étendre les avantages de l'IA à des millions de personnes et d'entreprises. OpenAI connaît une expansion rapide, dépassant les 700 millions d'utilisateurs actifs hebdomadaires et ayant signé des accords importants avec Microsoft et Oracle. Microsoft demeure un partenaire clé avec plus de 13 milliards de dollars d'investissements, mais n'est plus le seul fournisseur de solutions informatiques, notamment en raison de la délicate clause « AGI » qui limite ses droits financiers en cas d'émergence de l'intelligence artificielle générale. Parallèlement, un accord de 300 milliards de dollars avec Oracle renforce son infrastructure cloud. Dans ce contexte, l'accord avec NVIDIA représente une étape décisive pour OpenAI vers un écosystème plus diversifié et plus résilient. Pour NVIDIA, ce partenariat consolide un rôle déjà dominant dans le secteur des solutions GPU et HPC, renforcé par de nouveaux investissements dans des entreprises comme Intel. L'entreprise fournira non seulement du matériel, mais contribuera directement à la croissance du réseau de centres de données et à la capacité énergétique nécessaire à leur fonctionnement, visant à devenir le pivot autour duquel s'articulera la prochaine génération d'intelligence artificielle. En bref, cet accord de 100 milliards d’euros n’est pas seulement une collaboration industrielle, mais une véritable étape vers la construction des fondations de la future économie numérique basée sur l’IA. (Lire la suite)
  •  

GPT-5 a vaincu les meilleurs programmeurs du monde dès le premier essai.

La compétition entre les systèmes d'IA et les meilleurs programmeurs du monde n'est plus une théorie, mais une réalité. OpenAI et DeepMind ont annoncé que leurs derniers modèles ont obtenu des résultats qui leur auraient valu la première place au Concours international de programmation collégiale (Finale mondiale de l'ICPC). Cet événement a suscité des débats non seulement dans le monde universitaire, mais aussi dans l'industrie technologique, où les limites que l'IA commence à dépasser en matière de raisonnement et de créativité sont de plus en plus évoquées. OpenAI a annoncé que son modèle GPT-5 avait résolu les douze problèmes proposés pour la finale de l'ICPC de cette année, dont onze étaient corrects du premier coup. D'après les simulations, ce résultat aurait assuré la première place. DeepMind, quant à lui, a présenté son modèle Gemini 2.5 Deep Think, qui se serait classé juste derrière GPT-5, surpassant ainsi de nombreux concurrents et résolvant un problème qu'aucune équipe étudiante n'avait réussi à résoudre. Depuis des décennies, l'ICPC est un vivier de talents du secteur technologique, et son histoire compte des noms comme Sergey Brin, cofondateur de Google, et Jakub Pachocki, actuel directeur de recherche chez OpenAI. La compétition elle-même exige que des équipes de trois personnes résolvent une série de problèmes complexes en cinq heures, mettant à l'épreuve leur raisonnement logique et leurs compétences algorithmiques. Les experts du secteur saluent cette avancée en matière d'IA comme une avancée historique. Quoc Le, de Google DeepMind, a déclaré qu'il s'agissait du moment où l'intelligence artificielle est véritablement entrée en compétition avec les programmeurs d'élite. Jelani Nelson, professeur à l'Université de Californie à Berkeley, a déclaré que de tels résultats auraient été inimaginables il y a quelques années. Malgré l'enthousiasme, des voix s'élèvent pour émettre des réserves. Bartek Klin, de l'Université d'Oxford, souligne que ces concours récompensent la rapidité et l'efficacité à court terme, mais ne reflètent pas directement les processus d'ingénierie, qui nécessitent des mois de travail, la collaboration en équipe et la résolution de problèmes de conception à grande échelle. DeepMind souligne que les résultats de Gemini 2.5 n'étaient pas parfaits, mais leur valeur réside dans des approches uniques qui n'apparaissaient pas dans les solutions des équipes humaines. L'entreprise affirme que cela démontre le potentiel de l'IA à compléter la créativité humaine et à créer des méthodes innovantes de résolution de problèmes. Les chercheurs suggèrent que les avancées en programmation compétitive pourraient trouver des applications dans les domaines technologiques les plus exigeants. La conception de médicaments, le développement de semi-conducteurs et la recherche mathématique font tous appel à des algorithmes rigoureux et à des méthodes d'analyse non conventionnelles. Heng-Tze Cheng, de DeepMind, a qualifié la programmation compétitive de « jeu de logique ultime », affirmant qu'elle favorise la création de nouveaux concepts, et non la simple répétition de schémas familiers. (Lire la suite)
  •  

Less is safer: how Obsidian reduces the risk of supply chain attacks - Obsidian

Comment les développeurs du logiciel Obsidian réduisent les risques malgré les dépendances du logiciel. Et ce sont de très bonnes pratiques.
- petite fonctions : incluses directement dans le code de l'appli.
- modules moyens : inclus dans la base de code d'Obsidian si la licence le permet.
- gros modules : mis à jour moins souvent, uniquement lors des mises à jour de sécurité, et les changeslogs sont examinés en détail.

Les versions sont verrouillées (pas de montée automatique de versions des dépendances), ce qui leur permet d'avoir des compilation reproductibles. Les montées en version des dépendances se font après examen détaillé des changelog et des changements de sous-dépendances.
(Permalink)
  •  

Le pilote automatique de Xiaomi met en danger 115 000 voitures

Les autorités de régulation chinoises ont ordonné au constructeur de rappeler plus de 115 000 berlines électriques SU7. Le problème est lié à une faille logicielle du système d'assistance à la conduite susceptible d'entraîner des dysfonctionnements du pilote automatique. Selon l'Administration d'État chinoise de régulation du marché, ce problème concerne 116 887 véhicules fabriqués entre février 2024 et août 2025. Le constructeur a annoncé qu'un correctif serait disponible sous la forme d'une mise à jour du micrologiciel le 19 septembre 2025. Le système de niveau 2 actuellement installé sur le SU7 assure la conduite partiellement automatisée, incluant l'accélération, le freinage et la direction. Cependant, le conducteur doit surveiller en permanence la trajectoire du véhicule et se tenir prêt à reprendre le contrôle. Une vulnérabilité logicielle a été découverte, empêchant le pilote automatique de réagir comme prévu par le constructeur dans certaines conditions, et les conducteurs ne reçoivent pas d'avertissements appropriés. Concrètement, cela signifie que le véhicule peut se comporter de manière imprévisible dans des situations extrêmes. La Xiaomi SU7 est une berline électrique conçue pour le segment premium. Son empattement est de 3 000 mm, sa longueur de 4 990 mm, sa largeur de 1 900 mm et sa hauteur de 1 400 mm. La version à propulsion est équipée d'un moteur électrique de 220 kW et peut atteindre une vitesse de pointe de 210 km/h. La version à quatre roues motrices est équipée de deux moteurs d'une puissance combinée de 495 kW et d'une vitesse de pointe de 265 km/h. Les deux variantes utilisent un système ADAS de classe II, dont les défauts ont conduit à la situation actuelle. En mars 2025, un accident tragique s'est produit impliquant un modèle SU7. La voiture, fonctionnant en mode d'assistance à la conduite, a percuté un poteau en béton au bord de la route à 97 km/h. Le véhicule a pris feu. Le rapport a montré que le système avait averti de l'obstacle, mais que la réaction du véhicule n'avait pas permis d'éviter la collision. En réponse à cet incident, les autorités chinoises ont annoncé un projet de nouvelle réglementation pour les véhicules équipés de systèmes de conduite autonome de niveau 2. Ce document, présenté le 17 septembre 2025, prévoit la mise en œuvre de normes de sécurité plus strictes à partir de 2027. (Lire la suite)
  •  

L'IA chinoise DeepSeek génère des réponses incorrectes lorsqu'elles sont posées par la mauvaise personne

DeepSeek, l'équivalent chinois de ChatGPT, a reçu des critiques positives et suscité de l'intérêt au cours des premiers mois de fonctionnement, mais des études ultérieures révèlent des corrélations inquiétantes entre la qualité de ses réponses et les destinataires prévus du code généré. L'entreprise de cybersécurité CrowdStrike a mené une expérience auprès de DeepSeek pour créer des programmes en anglais. Les chercheurs ont informé le système que le code serait utilisé dans différentes régions et par différents groupes. Les résultats ont montré des variations significatives de qualité. Pour les programmes conçus pour les systèmes de contrôle industriel, le pourcentage de réponses incorrectes était de 22,8 %. La même requête, mais avec l'information supplémentaire que le destinataire serait l'État islamique, a entraîné une augmentation des erreurs à 42,1 %. Un effet similaire a été observé pour les mentions du Tibet, de Taïwan et du Falun Gong – des groupes et régions particulièrement prisés en Chine. DeepSeek a refusé catégoriquement de coopérer dans de nombreux cas. Dans plus de 60 % des cas, il a rejeté des commandes liées à l'État islamique et, dans près de la moitié des cas, il a refusé de soutenir des individus liés au Falun Gong. CrowdStrike souligne plusieurs explications possibles. Une hypothèse est que le chatbot suive la ligne du Parti communiste chinois et limite délibérément son assistance à des groupes spécifiques. Une autre hypothèse suggère qu'il aurait généré délibérément du code présentant des vulnérabilités, ce qui pourrait indiquer un sabotage actif. Il existe également une explication moins radicale. La qualité des données d'entraînement aurait pu varier, les documents provenant de régions spécifiques contenant des exemples de code de moindre qualité. Par conséquent, le modèle a reproduit les lacunes existantes. Le code associé aux États-Unis, en revanche, s'est avéré le plus raffiné, ce qui, selon les chercheurs, pourrait s'expliquer à la fois par une meilleure qualité des données et par la volonté de s'implanter sur l'un des marchés les plus rentables. La dernière possibilité envisagée par CrowdStrike est que l'algorithme ait décidé de dégrader la qualité en fonction du contexte. Lorsque le code a été indiqué comme ciblant des régions touchées par un conflit ou une insurrection, le moteur a pu interpréter cela comme un signal d'introduction de bugs cachés. Ce n'est pas la première fois qu'un modèle d'IA chinois suscite une controverse. Il a déjà été révélé que le système répétait souvent la position officielle du Parti communiste chinois dans ses réponses à des sujets sensibles en Chine, quelle que soit son exactitude. En juillet, les autorités allemandes ont exigé le retrait de l'application DeepSeek des plateformes Google et Apple, l'accusant de transférer illégalement les données personnelles des utilisateurs vers la Chine. Aux États-Unis, son utilisation a été interdite sur les appareils des agences fédérales et étatiques. (Lire la suite)
  •  

📰 Revue de presse — septembre 2025

C'est la reprise après une pause estivale qui a fait souffrir les ventilateurs de nos ordinateurs. Voici donc un petit panorama, forcément subjectif et parti{e,a}l, de la presse papier disponible en cette rentrée 2025.

Image une de Journal

Voici donc les nouveautés sorties en septembre dernier des éditions Diamond et disponibles jusqu'à fin octobre. Pour rappel, Linux Pratique est devenu SysOps Pratique, pour acter un état de fait et mieux refléter son contenu dédié aux administrateurs de systèmes libres et open source.

  • GNU/Linux Magazine France no 277 vous explique que finalement, vous ne comprenez rien à Git ;
  • SysOps Pratique no 151 détecte les vulnérabilités avant de déployer ;
  • MISC magazine no 141 regarde de plus près GitHub et la sécurité des plateformes DevOps ;
  • Hackable no 62 débogue facilement avec GDB.

Et les éditions Diamond continuent de fêter leur 30 ans. À cette occasion, elles proposent de (re)découvrir l'une de leurs publications en offrant le numéro 270 de GNU/Linux Magazine via leur support de lecture en ligne, Kiosk Online (en HTML).

Les sommaires des numéros sortis en septembre 2025

Mosaïque des couvertures GLMF 277 Mosaïque des couvertures LP 151 Mosaïque des couvertures MISC 141 Mosaïque des couvertures HK 62

GNU/Linux Magazine numéro 277

Au sommaire de ce numéro de septembre — octobre 2025 :

  • FreeBSD 14.3 ajoute un support pkg pour les modules noyau, c'est le moment de coder les vôtres !
  • Git : comment ça marche ?
  • Advent of Code, jour 17 (le retour) ;
  • Les codes fantastiques : variable et Unicode ;
  • Programmation robuste avec Bash ;
  • Erreurs en rafales, multiparités et codes Gray entrelacés.

SysOps Pratique numéro 151 (ex Linux Pratique)

Au sommaire de ce numéro de septembre — octobre 2025, devenu SysOps Pratique :

  • À la rencontre du CNLL, acteur clé du logiciel libre dans l’écosystème numérique français et européen ;
  • Gérer le cycle de vie d’un OS immuable en production : le cas Flatcar ;
  • Analysez vos projets avec Trivy, pour traquer vulnérabilités et mauvaises configurations ;
  • GlusterFS, CTDB et Samba pour une haute disponibilité dans un environnement hybride ;
  • Architecture conteneurisée hautement disponible avec HAProxy ;
  • Déployer Rook et intégrer un stockage Ceph externe dans Kubernetes ;
  • « Day One Operations » avec Ansible.

MISC Magazine numéro 141

Au sommaire de ce numéro de septembre — octobre 2025 :

  • Une prise de recharge ou une prise réseau ?
  • Compromission sur GitHub Enterprise : où et quoi chercher ?
  • Surveillance des sessions utilisateurs Kubernetes avec eBPF ;
  • Auditer le cloud autrement : l’approche graphe de Cartography ;
  • Présentation d'un pipeline d'ingestion et de qualification des IOC avec OpenCTI ;
  • La sécurité du protocole VRRP ;
  • C++ : contrôlez votre espérance de vie.

Hackable numéro 62

Au sommaire de ce numéro de septembre — octobre 2025 :

  • Et si on accédait en SSH à nos ESP32 ?
  • Créez votre propre clavier ergonomique ;
  • Débugger un système embarqué, virtuel ou réel, au moyen de GDB et JTAG ;
  • Recyclons un lecteur USB de SIM en interface pour smartcard ;
  • LiteX en pratique : créons notre MCU sur mesure ;
  • LiteX : parlons un peu de code…
  • Développement open source pour FPGA : pourquoi pas FreeBSD ?

Télécharger GNU/Linux Magazine numéro 270

Pour le récupérer, il suffit de

  1. se connecter ou de créer un compte sur leur boutique en ligne ;
  2. d'ajouter le numéro 270 de GNU/Linux Magazine à votre panier en sélectionnant bien le support Kiosk Online avant ;
  3. d'indiquer le code de remise ED30LINUXFR lors de la validation de la commande.

Bonnes lectures !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

ChatGpt reconnaîtra si vous êtes un enfant. Un système de vérification de l'âge est en cours de développement.

OpenAI développe un système de vérification de l'âge qui prédira si un utilisateur a moins de 18 ans. Les personnes considérées comme mineures seront dirigées vers une version spéciale de ChatGPT adaptée à leur âge qui bloquera le contenu sexuellement explicite. Par ailleurs, la plateforme a annoncé la mise en place d'un nouveau dispositif de contrôle parental, disponible d'ici fin septembre. Les parents ou tuteurs légaux de mineurs pourront associer leur compte au profil de leur enfant via une invitation par courriel. Les parents pourront gérer la façon dont ChatGPT répond à leur enfant et désactiver des fonctionnalités comme le stockage et l'historique des conversations. De plus, les parents qui activent cette option recevront des notifications si leur enfant est en détresse. Il sera également possible de définir des horaires limitant ou interdisant l'utilisation du célèbre chatbot. OpenAI a admis que prédire l'âge des utilisateurs est difficile et peut parfois être source d'erreurs. L'entreprise prévoit donc de proposer par défaut une version plus sûre pour les personnes de moins de 18 ans lorsque l'âge de l'utilisateur n'est pas clairement défini. Les adultes auront la possibilité de vérifier leur âge, bien que l'entreprise ne divulgue pas les détails du processus. OpenAI indique que cette décision est le fruit de consultations auprès d'experts, de groupes communautaires et de responsables politiques. (Lire la suite)
  •