Vue normale

Reçu aujourd’hui — 6 octobre 2025

OpenAI et AMD lancent un déploiement décisif de 6 GW

OpenAI signe un partenariat majeur avec AMD pour obtenir six gigawatts de puissance GPU et renforcer son infrastructure d’intelligence artificielle.

Cet article OpenAI et AMD lancent un déploiement décisif de 6 GW est apparu en premier sur Linformatique.org.

ChatGPT ajoute des applications tierces pour devenir une plateforme

6 octobre 2025 à 20:40

OpenAI a profité de sa conférence annuelle DevDay 2025 pour annoncer une évolution importante de ChatGPT. L’entreprise lance des applications interactives directement intégrées au sein de son chatbot, tel un App Store. Cela permet aux utilisateurs d’accéder à des services tiers sans quitter leur conversation. Des applications au …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT ajoute des applications tierces pour devenir une plateforme est apparu en premier sur KultureGeek.

ChatGPT atteint 800 millions d’utilisateurs… deux mois après les 700 millions

6 octobre 2025 à 18:29

Lors de la conférence Dev Day, Sam Altman, patron d’OpenAI, a annoncé que ChatGPT compte désormais 800 millions d’utilisateurs actifs chaque semaine, un nouveau record pour l’outil d’intelligence artificielle grand public le plus utilisé au monde. Ce chiffre marque une progression rapide après les 700 millions d’utilisateurs en …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT atteint 800 millions d’utilisateurs… deux mois après les 700 millions est apparu en premier sur KultureGeek.

ChatGPT veut concurrencer iOS et Android : OpenAI lance des apps directement dans le chatbot

6 octobre 2025 à 19:49

Lors des DevDay 2025 d'OpenAI, le PDG Sam Altman a présenté des applications qui s'exécutent entièrement dans la fenêtre de discussion, un nouvel effort pour transformer ChatGPT en une plate-forme. A la manière d'iOS et Android avec respectivement l'App Store et le Play Store.
 [Lire la suite]

Abonnez-vous à Frandroid sur Google pour ne manquer aucun article !

ChatGPT a son « moment App Store » : les applications débarquent dans les conversations

6 octobre 2025 à 17:54

ChatGPT peut-il devenir une plateforme à part entière et concurrencer iOS et Android ? Les annonces d'OpenAI lors de son DevDay ouvrent la porte à une intégration de plusieurs services populaires directement dans le chatbot.

Codes de guerre artificielle – Mise à jour MUSKET d’octobre 2025

6 octobre 2025 à 16:24

Mis à jour : 6 octobre 2025 Nous avons ajouté de nouveaux codes ! Si vous aimez le contenu généré par les utilisateurs et le chaos énergique, Artificial Warfare promet un divertissement sans fin. Ici, vous aurez la chance de concevoir vos propres PNJ, les équipant d’esthétiques cool et d’armes puissantes, tout en les lançant […]

Le post Codes de guerre artificielle – Mise à jour MUSKET d’octobre 2025 est apparu en premier sur Moyens I/O.

« À quel point je suis foutu, mec ? » : sa discussion avec ChatGPT a scellé son arrestation !

Lorsque vous commettez un crime, mieux vaut ne pas en parler, et surtout éviter de le mettre par écrit. Les SMS, e-mails et autres moyens de communication peuvent finir entre les mains de la police. Et cela inclut les discussions avec les chatbots, comme l’a découvert un étudiant qui a tout...

OpenAI et AMD signent un accord : l’action bat des records en bourse

6 octobre 2025 à 15:53

Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.

Google est accusé de censurer les recherches sur la santé mentale de Donald Trump

6 octobre 2025 à 14:45

donald trump

Google bloque les aperçus IA pour plusieurs recherches associant le président américain Donald Trump à la démence ou à la sénilité, rapporte le média The Verge. La censure ne s’appliquerait pas de la même façon à son prédécesseur Joe Biden.

AMD et OpenAI signent un accord pour les puces IA et les data centers

6 octobre 2025 à 14:00

AMD a annoncé un partenariat de plusieurs années avec OpenAI visant à fournir 6 gigawatts pour les data centers d’intelligence artificielle à l’aide de ses puces graphiques (GPU). La première étape, prévue pour le second semestre 2026, consiste en l’installation d’un gigawatt de GPU AMD Instinct MI450. L’accord …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article AMD et OpenAI signent un accord pour les puces IA et les data centers est apparu en premier sur KultureGeek.

Gemini 2.5 Flash Image : Google ouvre l’ère de l’édition et de la génération vidéo parfaite par l’IA

Google vient d’annoncer la disponibilité générale de Gemini 2.5 Flash Image pour un usage en production. Cette mise à jour apporte aux développeurs de nouvelles possibilités en matière de génération et d’édition d’images assistées par l’IA, avec davantage de formats, d’outils créatifs et de cas d’usage concrets. Gemini 2.5 Flash Image : De nouveaux formats et une flexibilité […]

L’article Gemini 2.5 Flash Image : Google ouvre l’ère de l’édition et de la génération vidéo parfaite par l’IA est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Volley, the creators of the AI powered dungeon crawler Wit's End, use Gemini 2.5 Flash Image to generate and edit visuals in-session—character portraits, dyn...

Elon Musk annonce Grokipedia, une alternative soi-disant « anti-woke » à Wikipédia

6 octobre 2025 à 13:36

Après avoir critiqué à de multiples reprises Wikipédia, Elon Musk a annoncé lancer dans deux semaines Grokipedia, son alternative « anti -woke » à l'encyclopédie en ligne qu'il juge trop à gauche.

Un robot pour mettre du rouge à lèvres ? Le Smart Lipstick redonne confiance et autonomie

6 octobre 2025 à 12:00
Un robot applique du rouge à lèvres sur une femme.

Présenté au CES 2025, ce prototype brésilien allie IA, vision par ordinateur et bras robotisé pour révolutionner l’univers du maquillage inclusif.

L’article Un robot pour mettre du rouge à lèvres ? Le Smart Lipstick redonne confiance et autonomie est apparu en premier sur NeozOne.

Nouvelles sur l’IA de septembre 2025

Par :Moonz · volts · BAud · Arkem · cli345
6 octobre 2025 à 11:59

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

IA et datacenters : le constat climatique alarmant du Shift Project

2 octobre 2025 à 11:18

Le développement de l’IA est-il compatible avec la protection de l’environnement. En l’état, on sait à force de d’études et de projections, que la réponse est négative.

Entre promesses d’innovation et réalité de l’empreinte carbone, Le Shift Project, aka « Le think tank de la décarbonation de l’économie », en remet une couche pour alerter sur une trajectoire insoutenable.

Selon son rapport * fraichement publié , les centres de données mondiaux suivent une trajectoire énergétique et climatique alarmante. Sans changement majeur, leurs émissions de gaz à effet de serre pourraient atteindre entre 630 et 920 MtCO₂e en 2030, soit jusqu’à deux fois les émissions totales de la France. Cette augmentation représenterait 2,5 fois les émissions de 2020, avec un taux de croissance annuel de 9%.

La consommation électrique des centres de données est passée de 120 TWh en 2005 à 420 TWh en 2024. Les projections indiquent qu’elle pourrait atteindre 1 250 à 1 500 TWh en 2030, soit une multiplication par 2,3 à 2,8 en sept ans.

Une croissance accélérée qui rend caduque l’objectif climatique affiché par du secteur : une réduction de 45% des émissions entre 2020 et 2030.

L’IA générative, moteur principal de la demande

L’l’IA générative est le facteur déterminant de cette explosion énergétique. Entre 2025 et 2030, elle pourrait représenter jusqu’à 94% de la consommation électrique de l’IA, contre 62% en 2025. La phase d’inférence (utilisation des modèles) compte pour 47 points de cette augmentation.

Selon les données du Shift Project, les modèles d’IA générative consomment entre 50 et 25 000 fois plus d’énergie que les modèles d’apprentissage traditionnels pour une tâche équivalente. Par exemple, la génération d’images nécessite 50 à 100 fois plus d’énergie que la génération de texte.

Un recours massif aux énergies fossiles

Face à la rapidité de la demande, les acteurs de l’IA  – éditeurs de LLM et fournisseurs d’infrastructures – se tournent vers les combustibles fossiles. Aux États-Unis, 85 installations de production d’électricité au gaz sont en développement pour les centres de données. Le centre Colossus de xAI dispose de 400 MW de générateurs au gaz naturel, tandis que Meta prévoit trois centrales à gaz totalisant 2,3 GW.

Les réseaux électriques du sud-est des États-Unis planifient l’ajout de 20 GW de capacités au gaz naturel, représentant jusqu’à 80 MtCO₂e d’émissions annuelles. Entre 2024 et 2030, l’Agence internationale de l’énergie estime que 3,3 GW de gaz et 1,5 GW de charbon seront ajoutés annuellement pour alimenter les centres de données.

L’Europe et la France sous pression

En Europe, la consommation électrique des centres de données pourrait passer de 97 TWh en 2023 à 165-200 TWh en 2030, représentant environ 7,5% de la production d’électricité européenne en 2035. Cette augmentation de plus de 200 TWh équivaut à la moitié de la réduction prévue de la production d’électricité à partir de gaz.

L’Irlande illustre concrètement cette tension : les centres de données y consomment déjà plus de 20% de l’électricité disponible, dépassant la consommation résidentielle urbaine. En 2021, le gestionnaire de réseau EirGrid a annoncé un moratoire de facto sur les nouvelles implantations jusqu’en 2028 dans la région de Dublin.

En France, RTE a identifié 25,5 GW de demandes en cours d’instruction pour des centres de données, dont 10 GW au stade de proposition technique. La consommation pourrait atteindre 33 à 45 TWh en 2035, soit 5,5 à 7,5% de la consommation électrique nationale projetée. Cette augmentation représenterait entre 15% et 23% de l’électricité supplémentaire prévue pour l’ensemble des usages.

Des impacts locaux multiples

Au-delà de l’énergie, les centres de données exercent une pression sur les ressources en eau. Selon Nature Finance, 45% des centres de données mondiaux sont situés dans des bassins fluviaux où la disponibilité de l’eau présente un risque élevé. À Marseille, certains centres utilisent de l’eau potable pour le refroidissement via le système de « river-cooling ».

L’empreinte carbone de la fabrication représente environ 25% de l’impact total des centres de données au niveau mondial. Pour les serveurs accélérés dédiés à l’IA, les composants électroniques (mémoire, processeurs, circuits intégrés) constituent entre 70% et 90% de l’empreinte carbone de fabrication. Cette proportion augmente avec la décarbonation de l’électricité.

Une absence de trajectoire de décarbonation

Pour respecter l’objectif d’une réduction de 90% des émissions entre 2020 et 2050, la consommation des centres de données en France devrait être limitée à environ 40 TWh en 2050, selon le rapport. Or, les tendances actuelles prévoient un dépassement de ce seuil dès 2035.

Le Shift Project identifie un plafond de consommation électrique au-delà duquel les objectifs climatiques deviennent inatteignables. Dans un scénario optimiste de décarbonation énergétique, ce plafond se situe autour de 950 TWh au niveau mondial en 2050. Dans un scénario moins favorable, il descendrait à 200 TWh.

Mais le secteur manque actuellement de mécanismes de pilotage. L’absence d’objectifs carbone contraignants pour la filière, le manque de transparence sur les consommations réelles et les délais de construction (6 mois à 5 ans) figent les capacités bien avant leur utilisation effective.

Recommandations pour une transition maîtrisée

Le Shift Project formule vingt recommandations structurées autour de quatre axes. Sur la transparence, il préconise un suivi public trimestriel des consommations et des demandes de raccordement, ainsi que l’obligation pour les fournisseurs de communiquer l’empreinte énergétique de leurs services.

En matière d’optimisation, le rapport recommande de privilégier les IA spécialisées plutôt que généralistes, et de concentrer la recherche sur des solutions efficaces et peu gourmandes en ressources. Le référentiel AFNOR pour l’IA frugale, présenté en septembre dernier, devrait être intégré aux politiques d’achat public.

Sur la sobriété, le rapport appelle à construire une trajectoire contraignante pour le numérique dans la stratégie nationale bas-carbone (la feuille de route de la France pour lutter contre le changement climatique), avec des plafonds de ressources consommables. Le déploiement de nouveaux centres devrait être conditionné à la compatibilité avec cette trajectoire, avec possibilité de moratoires en cas de dérive.

Enfin, sur la formation, le rapport insiste sur le maintien des ressources dédiées aux enjeux énergie-climat, sans les réorienter vers des formations sur l’IA. Un débat public informé sur la place du numérique dans la société doit être organisé, impliquant l’ensemble des parties prenantes.

Conclusion du Shift Project : l’ampleur des transformations nécessaires impose de mobiliser simultanément les leviers technologiques, organisationnels et politiques. Sans cette approche systémique, les objectifs de décarbonation resteront hors d’atteinte.

* Rapport : Intelligence artificielle, données, calculs – quelles infrastructures dans un monde décarboné ?

The post IA et datacenters : le constat climatique alarmant du Shift Project appeared first on Silicon.fr.

Entre EDF et l’IA, le courant passe

Explorée depuis plus de quarante ans au sein de la R&D d’EDF, l’intelligence artificielle est désormais au cœur de la stratégie du Groupe pour optimiser ses opérations, renforcer la sécurité et accompagner la transition énergétique.

Un scanner oculaire à l’IA pourrait prédire la démence jusqu’à 12 ans à l’avance

Une révolution technologique majeure bouleverse le dépistage précoce des maladies neurodégénératives. Comment l'intelligence artificielle associée à l'imagerie rétinienne permet-elle de détecter des signes de démence plus d'une décennie avant leurs manifestations cliniques ? Cette innovation...

Il ne sera bientôt plus possible d’utiliser des licences comme Pokémon pour générer des vidéos avec Sora 2

6 octobre 2025 à 09:27

Les ayants droit détenteurs d’œuvres protégées pourront désormais choisir comment celles-ci seront utilisées par Sora 2, le nouvel outil de génération vidéo dopé à l’IA d’OpenAI (ChatGPT). Autre nouveauté : la création de vidéos pourrait bientôt permettre d’en tirer des revenus.

❌