Vue lecture

OpenAI et Jony Ive confrontés à des obstacles techniques majeurs pour leur appareil IA

Le projet d’appareil intelligent développé conjointement par OpenAI et Jony Ive, légendaire designer d’Apple, rencontre des difficultés techniques significatives. Selon le Financial Times, les deux parties peinent à finaliser un dispositif sans écran alimenté par l’intelligence artificielle. Des questions non résolues concernant la personnalité de l’appareil, la gestion de la confidentialité et l’infrastructure informatique pourraient ... Lire plus

L'article OpenAI et Jony Ive confrontés à des obstacles techniques majeurs pour leur appareil IA est apparu en premier sur Fredzone.
  •  

Les équipes marketing adoptent massivement l’IA générative avec des résultats tangibles

L’intelligence artificielle générative n’appartient plus au domaine de la spéculation : elle s’impose désormais comme un outil opérationnel au sein des départements marketing. Une récente enquête menée par SAS et Coleman Parkes révèle que plus de huit marketeurs sur dix l’utilisent activement à l’échelle mondiale. Les directeurs marketing (CMO) rapportent un retour sur investissement dans ... Lire plus

L'article Les équipes marketing adoptent massivement l’IA générative avec des résultats tangibles est apparu en premier sur Fredzone.
  •  

OpenAI et AMD lancent un déploiement décisif de 6 GW

OpenAI signe un partenariat majeur avec AMD pour obtenir six gigawatts de puissance GPU et renforcer son infrastructure d’intelligence artificielle.

Cet article OpenAI et AMD lancent un déploiement décisif de 6 GW est apparu en premier sur Linformatique.org.

  •  

ChatGPT ajoute des applications tierces pour devenir une plateforme

OpenAI a profité de sa conférence annuelle DevDay 2025 pour annoncer une évolution importante de ChatGPT. L’entreprise lance des applications interactives directement intégrées au sein de son chatbot, tel un App Store. Cela permet aux utilisateurs d’accéder à des services tiers sans quitter leur conversation. Des applications au …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT ajoute des applications tierces pour devenir une plateforme est apparu en premier sur KultureGeek.

  •  

ChatGPT atteint 800 millions d’utilisateurs… deux mois après les 700 millions

Lors de la conférence Dev Day, Sam Altman, patron d’OpenAI, a annoncé que ChatGPT compte désormais 800 millions d’utilisateurs actifs chaque semaine, un nouveau record pour l’outil d’intelligence artificielle grand public le plus utilisé au monde. Ce chiffre marque une progression rapide après les 700 millions d’utilisateurs en …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT atteint 800 millions d’utilisateurs… deux mois après les 700 millions est apparu en premier sur KultureGeek.

  •  

ChatGPT veut concurrencer iOS et Android : OpenAI lance des apps directement dans le chatbot

Lors des DevDay 2025 d'OpenAI, le PDG Sam Altman a présenté des applications qui s'exécutent entièrement dans la fenêtre de discussion, un nouvel effort pour transformer ChatGPT en une plate-forme. A la manière d'iOS et Android avec respectivement l'App Store et le Play Store.
 [Lire la suite]

Abonnez-vous à Frandroid sur Google pour ne manquer aucun article !

  •  

Codes de guerre artificielle – Mise à jour MUSKET d’octobre 2025

Mis à jour : 6 octobre 2025 Nous avons ajouté de nouveaux codes ! Si vous aimez le contenu généré par les utilisateurs et le chaos énergique, Artificial Warfare promet un divertissement sans fin. Ici, vous aurez la chance de concevoir vos propres PNJ, les équipant d’esthétiques cool et d’armes puissantes, tout en les lançant […]

Le post Codes de guerre artificielle – Mise à jour MUSKET d’octobre 2025 est apparu en premier sur Moyens I/O.

  •  

« À quel point je suis foutu, mec ? » : sa discussion avec ChatGPT a scellé son arrestation !

Lorsque vous commettez un crime, mieux vaut ne pas en parler, et surtout éviter de le mettre par écrit. Les SMS, e-mails et autres moyens de communication peuvent finir entre les mains de la police. Et cela inclut les discussions avec les chatbots, comme l’a découvert un étudiant qui a tout...

  •  

AMD et OpenAI signent un accord pour les puces IA et les data centers

AMD a annoncé un partenariat de plusieurs années avec OpenAI visant à fournir 6 gigawatts pour les data centers d’intelligence artificielle à l’aide de ses puces graphiques (GPU). La première étape, prévue pour le second semestre 2026, consiste en l’installation d’un gigawatt de GPU AMD Instinct MI450. L’accord …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article AMD et OpenAI signent un accord pour les puces IA et les data centers est apparu en premier sur KultureGeek.

  •  

Gemini 2.5 Flash Image : Google ouvre l’ère de l’édition et de la génération vidéo parfaite par l’IA

Google vient d’annoncer la disponibilité générale de Gemini 2.5 Flash Image pour un usage en production. Cette mise à jour apporte aux développeurs de nouvelles possibilités en matière de génération et d’édition d’images assistées par l’IA, avec davantage de formats, d’outils créatifs et de cas d’usage concrets. Gemini 2.5 Flash Image : De nouveaux formats et une flexibilité […]

L’article Gemini 2.5 Flash Image : Google ouvre l’ère de l’édition et de la génération vidéo parfaite par l’IA est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Volley, the creators of the AI powered dungeon crawler Wit's End, use Gemini 2.5 Flash Image to generate and edit visuals in-session—character portraits, dyn...
  •  

Nouvelles sur l’IA de septembre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

IA et datacenters : le constat climatique alarmant du Shift Project

Le développement de l’IA est-il compatible avec la protection de l’environnement. En l’état, on sait à force de d’études et de projections, que la réponse est négative.

Entre promesses d’innovation et réalité de l’empreinte carbone, Le Shift Project, aka « Le think tank de la décarbonation de l’économie », en remet une couche pour alerter sur une trajectoire insoutenable.

Selon son rapport * fraichement publié , les centres de données mondiaux suivent une trajectoire énergétique et climatique alarmante. Sans changement majeur, leurs émissions de gaz à effet de serre pourraient atteindre entre 630 et 920 MtCO₂e en 2030, soit jusqu’à deux fois les émissions totales de la France. Cette augmentation représenterait 2,5 fois les émissions de 2020, avec un taux de croissance annuel de 9%.

La consommation électrique des centres de données est passée de 120 TWh en 2005 à 420 TWh en 2024. Les projections indiquent qu’elle pourrait atteindre 1 250 à 1 500 TWh en 2030, soit une multiplication par 2,3 à 2,8 en sept ans.

Une croissance accélérée qui rend caduque l’objectif climatique affiché par du secteur : une réduction de 45% des émissions entre 2020 et 2030.

L’IA générative, moteur principal de la demande

L’l’IA générative est le facteur déterminant de cette explosion énergétique. Entre 2025 et 2030, elle pourrait représenter jusqu’à 94% de la consommation électrique de l’IA, contre 62% en 2025. La phase d’inférence (utilisation des modèles) compte pour 47 points de cette augmentation.

Selon les données du Shift Project, les modèles d’IA générative consomment entre 50 et 25 000 fois plus d’énergie que les modèles d’apprentissage traditionnels pour une tâche équivalente. Par exemple, la génération d’images nécessite 50 à 100 fois plus d’énergie que la génération de texte.

Un recours massif aux énergies fossiles

Face à la rapidité de la demande, les acteurs de l’IA  – éditeurs de LLM et fournisseurs d’infrastructures – se tournent vers les combustibles fossiles. Aux États-Unis, 85 installations de production d’électricité au gaz sont en développement pour les centres de données. Le centre Colossus de xAI dispose de 400 MW de générateurs au gaz naturel, tandis que Meta prévoit trois centrales à gaz totalisant 2,3 GW.

Les réseaux électriques du sud-est des États-Unis planifient l’ajout de 20 GW de capacités au gaz naturel, représentant jusqu’à 80 MtCO₂e d’émissions annuelles. Entre 2024 et 2030, l’Agence internationale de l’énergie estime que 3,3 GW de gaz et 1,5 GW de charbon seront ajoutés annuellement pour alimenter les centres de données.

L’Europe et la France sous pression

En Europe, la consommation électrique des centres de données pourrait passer de 97 TWh en 2023 à 165-200 TWh en 2030, représentant environ 7,5% de la production d’électricité européenne en 2035. Cette augmentation de plus de 200 TWh équivaut à la moitié de la réduction prévue de la production d’électricité à partir de gaz.

L’Irlande illustre concrètement cette tension : les centres de données y consomment déjà plus de 20% de l’électricité disponible, dépassant la consommation résidentielle urbaine. En 2021, le gestionnaire de réseau EirGrid a annoncé un moratoire de facto sur les nouvelles implantations jusqu’en 2028 dans la région de Dublin.

En France, RTE a identifié 25,5 GW de demandes en cours d’instruction pour des centres de données, dont 10 GW au stade de proposition technique. La consommation pourrait atteindre 33 à 45 TWh en 2035, soit 5,5 à 7,5% de la consommation électrique nationale projetée. Cette augmentation représenterait entre 15% et 23% de l’électricité supplémentaire prévue pour l’ensemble des usages.

Des impacts locaux multiples

Au-delà de l’énergie, les centres de données exercent une pression sur les ressources en eau. Selon Nature Finance, 45% des centres de données mondiaux sont situés dans des bassins fluviaux où la disponibilité de l’eau présente un risque élevé. À Marseille, certains centres utilisent de l’eau potable pour le refroidissement via le système de « river-cooling ».

L’empreinte carbone de la fabrication représente environ 25% de l’impact total des centres de données au niveau mondial. Pour les serveurs accélérés dédiés à l’IA, les composants électroniques (mémoire, processeurs, circuits intégrés) constituent entre 70% et 90% de l’empreinte carbone de fabrication. Cette proportion augmente avec la décarbonation de l’électricité.

Une absence de trajectoire de décarbonation

Pour respecter l’objectif d’une réduction de 90% des émissions entre 2020 et 2050, la consommation des centres de données en France devrait être limitée à environ 40 TWh en 2050, selon le rapport. Or, les tendances actuelles prévoient un dépassement de ce seuil dès 2035.

Le Shift Project identifie un plafond de consommation électrique au-delà duquel les objectifs climatiques deviennent inatteignables. Dans un scénario optimiste de décarbonation énergétique, ce plafond se situe autour de 950 TWh au niveau mondial en 2050. Dans un scénario moins favorable, il descendrait à 200 TWh.

Mais le secteur manque actuellement de mécanismes de pilotage. L’absence d’objectifs carbone contraignants pour la filière, le manque de transparence sur les consommations réelles et les délais de construction (6 mois à 5 ans) figent les capacités bien avant leur utilisation effective.

Recommandations pour une transition maîtrisée

Le Shift Project formule vingt recommandations structurées autour de quatre axes. Sur la transparence, il préconise un suivi public trimestriel des consommations et des demandes de raccordement, ainsi que l’obligation pour les fournisseurs de communiquer l’empreinte énergétique de leurs services.

En matière d’optimisation, le rapport recommande de privilégier les IA spécialisées plutôt que généralistes, et de concentrer la recherche sur des solutions efficaces et peu gourmandes en ressources. Le référentiel AFNOR pour l’IA frugale, présenté en septembre dernier, devrait être intégré aux politiques d’achat public.

Sur la sobriété, le rapport appelle à construire une trajectoire contraignante pour le numérique dans la stratégie nationale bas-carbone (la feuille de route de la France pour lutter contre le changement climatique), avec des plafonds de ressources consommables. Le déploiement de nouveaux centres devrait être conditionné à la compatibilité avec cette trajectoire, avec possibilité de moratoires en cas de dérive.

Enfin, sur la formation, le rapport insiste sur le maintien des ressources dédiées aux enjeux énergie-climat, sans les réorienter vers des formations sur l’IA. Un débat public informé sur la place du numérique dans la société doit être organisé, impliquant l’ensemble des parties prenantes.

Conclusion du Shift Project : l’ampleur des transformations nécessaires impose de mobiliser simultanément les leviers technologiques, organisationnels et politiques. Sans cette approche systémique, les objectifs de décarbonation resteront hors d’atteinte.

* Rapport : Intelligence artificielle, données, calculs – quelles infrastructures dans un monde décarboné ?

The post IA et datacenters : le constat climatique alarmant du Shift Project appeared first on Silicon.fr.

  •