Elon Musk veut une usine sur la Lune… avec une catapulte électromagnétique pour lancer ses satellites IA !


C’est un coup d’accélérateur dans la bataille de l’IA européenne. Mistral AI, valorisée à près de 12 milliards €, annonce un investissement colossal de 1,2 milliard € en partenariat avec l’opérateur suédois EcoDataCenter. Objectif : ériger à Borlänge, au cœur de la Suède, une infrastructure de calcul de nouvelle génération dédiée à l’entraînement et au déploiement de ses modèles d’IA.
Pourquoi la Suède ? La réponse tient autant à la géographie qu’à la géopolitique. Le royaume scandinave offre un cocktail d’avantages difficilement égalable : une électricité 100% renouvelable issue de l’hydroélectrique et de l’éolien, des températures favorables au refroidissement des serveurs, et des coûts énergétiques compétitifs.
Le datacenter, dont l’ouverture est prévue pour 2027, accueillera les GPU NVIDIA Vera Rubin de dernière génération et promet des performances de pointe avec un PUE (Power Usage Effectiveness) parmi les plus bas du marché. EcoDataCenter, qui assurera la conception, la construction et l’exploitation du site, capitalise sur son expertise reconnue en infrastructures haute densité optimisées pour le calcul intensif.
Au-delà des aspects techniques, c’est un projet éminemment politique que porte Arthur Mensch, CEO et cofondateur de Mistral AI. « C’est un pas concret vers des capacités indépendantes en Europe », affirme-t-il.
Le partenariat vise à constituer une pile technologique entièrement européenne, du silicium aux algorithmes. Les données seront traitées et stockées localement, sous le cadre juridique de l’Union européenne, avec l’ambition affichée de proposer un « cloud IA européen » aux entreprises, administrations publiques et centres de recherche.
Pour la Suède, ce projet confirme son statut de hub européen des infrastructures numériques avancées, aux côtés d’autres projets HPC (High Performance Computing) déjà déployés dans le pays.
The post Mistral AI investit 1,2 milliard € dans un datacenter IA appeared first on Silicon.fr.

Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.
Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.
L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.
Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.
Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.
Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.
Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.
En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.
Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.
Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.
Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.
Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.
La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.
La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.
Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.
Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.
Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.
Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.
Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :
Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.
Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.
Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.
Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.
Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :
Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?
Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.
Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »
SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.
De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.
Illustration : image générée par l’IA
The post Comment l’IA va pousser les datacenters en orbite appeared first on Silicon.fr.

Karman Industries vient de lever 20 millions de dollars pour un truc qui va faire plaisir aux écolos anti-cloud : Refroidir les datacenters sans utiliser une seule goutte d'eau ! Oui, nada !
Vous n'êtes pas sans savoir que les datacenters actuels, c'est un peu le scandale écologique dont personne ne parle. On estime qu'en 2028, ces usines à calcul vont engloutir entre 34 et 68 milliards de gallons d'eau par an rien qu'aux États-Unis. C'est comme si votre frigo tournait à la vitesse d'un réacteur d'avion...
Ah bah tiens, justement en parlant de réacteur...
David Tearse et CJ Kalra, les deux fondateurs de Karman Industries, ont décidé d'appliquer des techniques d'ingénierie aérospatiale au refroidissement de datacenters. Leur bébé s'appelle le HPU (Heat Processing Unit), une plateforme thermique modulaire de 10 MW qui utilise de la turbomachinerie ultra-rapide inspirée des moteurs de fusée de SpaceX.
Au lieu d'utiliser de l'eau comme réfrigérant, ils ont opté pour du CO2 liquide. Résultat ? Plus de 25% d'économies d'énergie pour le refroidissement, jusqu'à 80% d'espace en moins, et surtout... pas une goutte d'eau. Quand on sait que le refroidissement représente environ 40% de la facture électrique d'un datacenter, ça commence à chiffrer sérieusement.
L'équipe a levé plus de 30 millions de dollars au total, avec Riot Ventures en lead sur ce dernier tour donc c'est pas exactement une PME du coin, quoi.
Comme je l'avais déjà évoqué dans mon article sur la consommation d'eau des datacenters , le problème est déjà critique avec l'explosion de l'IA. Chaque requête ChatGPT, chaque image Midjourney, ça consomme à mort de la flotte quelque part. Bref, si la techno de Karman fonctionne comme prévu, ça pourrait changer pas mal de choses. Reste à voir combien ça coûte mais les premières livraisons sont prévues pour le troisième trimestre 2026, avec une usine de fabrication à Long Beach en Californie.
Voilà, y'a plus qu'à voir si ça tient ses promesses en conditions réelles ! Et j'espère que le meilleure hébergeur du monde, O2Switch s'équipera bientôt car j'ai vraiment envie de voir ça de mes yeux ^^.

La croissance du parc mondial de datacenters hyperscale ne montre pas de signes de ralentissement. Les dépenses d’infrastructure associées, non plus.
Depuis deux ans, les pointages trimestriels de Synergy Research Group en ont témoigné quasi systématiquement. Le dernier en date n’y déroge pas.
Le parc en question avoisine désormais les 1300 datacenters, pour une puissance informatique plus que quadruplée en 7 ans. Au T3 2025, les dépenses d’exploitation des hyperscalers – Synergy en recense une vingtaine, acteurs du IaaS, du PaaS, du SaaS, de la recherche, des réseaux sociaux, du e-commerce et du gaming – ont atteint 142 Md$. Elles étaient d’environ 80 Md$ un an plus tôt (et 50 Md$ au T3 2023).
Ces investissements vont pour l’essentiel dans les serveurs. La plupart d’entre eux (91 %) sont maintenant équipés d’accélérateurs. À commencer par des GPU… qui ont besoin d’autant plus de RAM qu’on y fait tourner des modèles d’IA.
La course engagée par les hyperscalers a contribué à engendrer une pénurie de mémoire. Et par là même une augmentation remarquable des prix. On en est par exemple arrivé, il y a quelques semaines, à ce qu’un kit de 64 Go de DDR5 coûte plus cher qu’une PlayStation.
Le phénomène est amplifié par une réorientation de la fabrication vers des types de mémoires adaptés aux accélérateurs IA. En tête de liste, la HBM (DRAM à large bande passante). Les modules mémoire génériques se raréfient d’autant plus.
Il se dit que la situation pourrait persister au moins jusqu’en 2027. Elle a en tout cas commencé à se répercuter en bout de chaîne, sur le prix des équipements informatiques. Chez Dell, il semble falloir se préparer à des augmentations de 10 à 30 % dans les gammes de PC B2B. Chez ASUS, il est question de 15 à 20 % de hausse sur des notebooks. Les prévisions sont similaires chez Acer, qui songerait aussi à livrer des modèles avec moins de RAM… potentiellement à rebours de la promesse des « PC IA ».
On surveillera particulièrement les plus petits fournisseurs, qui ont globalement moins d’inventaire, de trésorerie et de marge de négociation. Même chose avec les smartphones. Sur ce segment, la mémoire peut traditionnellement représenter jusqu’à 20 % du coût de revient matériel. Il est probable que, si hausses de prix il y a, elle seront plus nettes sur l’entrée et le milieu de gamme, où les marges sont faibles. À l’autre bout du spectre, on pourrait voir les flagships plafonner à 12 Go de RAM en 2026.
IDC estime que cette année, le marché des smartphones pourrait se contracter d’environ 5 % en volume, tandis que le prix de vente moyen augmenterait de quelque 8 %. Ses prévisions sont comparables pour les PC, dont les fabricants ne se verront sans doute pas livrer toute la capacité de mémoire commandée (potentiellement, autour de 70 % pour les principaux OEM et de 40 % pour les plus petits). D’autant plus que les hyperscalers se battent, de plus en plus agressivement, pour les stocks restants. Une tendance accentuée par le marché chinois, où les USA ont finalement autorisé la vente des GPU H200. Sur place, plus de 2 millions d’unités auraient été commandées à NVIDIA, qui en aurait à peine la moitié en réserve. AMD est aussi concerné, dans une moindre mesure, avec ses accélérateurs Instinct. Alibaba, entre autres, lui en aurait acheté jusqu’à 50 000.
En parallèle à leurs ventes sur le marché du datacenter, AMD et NVIDIA prépareraient tous deux des hausses de prix sur leurs cartes graphiques « grand public ». Ce mois-ci pour le premier ; en février pour le second. Avec la pénurie, la GDDR en est venue à constituer plus de 80 % de leur coût de revient.
AMD envisagerait par ailleurs de réintroduire des puces sur socket AM4 (potentiellement des CPU Ryzen 5000 et des APU Zen 3), ce qui éviterait d’avoir à racheter des cartes mères… et de la DDR5.
Du côté des fabricants de semi-conducteurs, on s’en tient dorénavant à des contrats au trimestre. Et on donne, comme sus-évoqué, la priorité à la mémoire HBM. Actuellement en mesure de produire 160 000 à 170 000 wafers par mois, Samsung Electronics prévoirait d’augmenter cette capacité de 50 %. Micron a quant à lui annoncé que son carnet de commandes HBM était rempli pour l’année 2026.
Dans ce contexte, le marché IT dans son ensemble a potentiellement connu, en 2025, une croissance sans égale depuis 30 ans. Tout du moins à en croire IDC, qui communiquait, début décembre, une estimation à + 14 % (4250 Md$), hors dépenses télécoms. En première ligne, les dépenses des fournisseurs de services d’infrastructure, pas majoritaires (environ 500 Md$), mais en nette croissance (+ 86 %, contre environ + 10 % pour les dépenses des entreprises).
Si on s’en tient à ce qu’IDC qualifie d’infrastructures IA (dans les grandes lignes, tout ce qui porte des applications au minimum « augmentées » par de l’IA), les Ètats-Unis concentrent les trois quarts des dépenses, contre environ 5 % pour l’EMEA.
Sur place se trouve environ 55 % de la capacité hyperscale mondiale, selon Synergy Research Group. La Virginie en concentre à elle seule 14 %. Mais la demande croissante en énergie favorise les implantations dans des Ètats moins densément peuplés comme l’Oregon (22 habitants au km² ; actuellement 5 % de la capacité mondiale), l’Iowa (17 hab/km² ; 4 %) et le Nebraska (10 hab/km²). On ne peut pas en dire autant d’emplacements tels que Londres et Francfort. Ce dernier est d’ailleurs sorti du top 20 des hubs mondiaux, comme Amsterdam. Ne reste, côté européen, que Dublin, qui accueille environ 4 % de la capacité hyperscale.

De cette capacité, le trio Amazon-Microsoft-Google détient une part (58 %) du même ordre que son poids sur le marché mondial du cloud d’infrastructure (63 %). Leur ratio capex est aujourd’hui au niveau de celui des telcos, approchant de 20 % du chiffre d’affaires – la majorité allant dans les datacenters.
Sur un marché du cloud d’infrastructure estimé à 107 Md$ au T3 2025, les néo-clouds (plates-formes spécialisées, le plus souvent sur les workloads IA à base de GPU) montent doucement en puissance. Ils ont passé les 5 Md$ de revenus trimestriels. Les principaux acteurs se nomment CoreWeave, Crusoe, Lambda, Nebius… et OpenAI (que Synergy inclut au titre de ses abonnements à ChatGPT).
En parallèle, les fusions-acquisitions(-investissements) « orienté(e)s datacenter » ont atteint en 2024 une valeur globale sans précédent : 73 Md$. Principal contributeur : l’acquisition d’AirTrunk, emmenée par le fonds Blackstone et bouclée en décembre pour 16 Md$. Suivent deux investissements dans Vantage Data Centers totalisant 9,2 Md$.
Illustration principale générée par IA
The post Course à l’IA : la bulle controversée, la pénurie avérée appeared first on Silicon.fr.

Quel est le prix à payer pour développer une politique nationale sur l’IA ? Alors que la France et l’Europe l’érigent en priorité stratégique, l’Autorité de la concurrence publie une étude sur son coût énergétique et environnemental, après son premier avis sur l’IA générative publié à l’été 2024.
Et le gendarme de la concurrence tire la sonnette d’alarme : la consommation électrique des centres de données pourrait représenter 4 % de la consommation nationale française dès 2035, tandis que les géants du secteur sécurisent déjà leurs approvisionnements en énergie, risquant de fausser le jeu concurrentiel.
Les chiffres parlent d’eux-mêmes. Les centres de données représentent actuellement environ 1,5 % de la consommation mondiale d’électricité, mais leur impact local s’avère bien plus significatif. L’Autorité anticipe que leur consommation pourrait au moins doubler d’ici 2030 pour atteindre 945 TWh dans le monde.
En France, la situation est tout aussi préoccupante. La consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait grimper entre 12 et 20 TWh en 2030, puis entre 19 et 28 TWh en 2035, représentant près de 4 % de la consommation électrique nationale. Face à cette explosion, les grands acteurs américains multiplient déjà les partenariats pour sécuriser leur approvisionnement en énergie décarbonée, qu’il s’agisse d’énergies renouvelables ou du nucléaire.
Au-delà de l’électricité, l’impact environnemental de l’IA mobilise d’importantes ressources tout au long de la chaîne de valeur : eau, métaux rares et foncier. Selon l’Arcep, le volume d’eau prélevé par les centres de données a atteint 0,6 million de mètres cubes en 2023, avec une croissance annuelle soutenue de 17 % en 2022 et 19 % en 2023. À cette consommation directe s’ajoutent les prélèvements indirects liés à la production d’électricité, estimés à plus de 5,2 millions de mètres cubes par an.
Plusieurs acteurs du numérique ont d’ailleurs annoncé une forte augmentation de leurs émissions de gaz à effet de serre, allant de 30 à 50 %, résultant notamment de l’augmentation de la consommation énergétique de leurs centres de données.
L’Autorité identifie trois types d’enjeux concurrentiels découlant de cette situation.
Premier enjeu : l’accès à l’énergie et la maîtrise de son coût. Les acteurs du secteur sont confrontés à des difficultés de raccordement au réseau électrique et à des incertitudes sur le prix de l’énergie. L’électricité représente entre 30 et 50 % des charges d’exploitation d’un centre de données, et le contexte énergétique est en pleine mutation, notamment avec la fin du dispositif ARENH au 31 décembre 2025.
Le nouveau système dual se met en place avec le versement nucléaire universel et les contrats d’allocation de long terme adossés à la production nucléaire proposés par EDF. L’Autorité se montre vigilante : elle veillera à ce que la position privilégiée des acteurs les plus importants ne leur permette pas de sécuriser des approvisionnements d’énergie dans des conditions avantageuses au détriment des plus petits. Elle rappelle également qu’EDF ne doit pas adopter de comportements anticoncurrentiels tels que la discrimination, le refus d’approvisionnement ou le verrouillage du marché.
Deuxième enjeu : la frugalité comme paramètre de concurrence. Face à l’impact environnemental de l’IA, le concept de frugalité se développe, défini comme la consommation optimisée des ressources dans un objectif de minimisation de l’impact environnemental. Les demandeurs montrent un intérêt croissant pour des outils plus frugaux, tandis que plusieurs acteurs développent des modèles de plus petite taille ou communiquent sur leur empreinte environnementale.
L’Autorité considère que la frugalité peut contribuer à l’animation du jeu concurrentiel en affectant le prix, la qualité et l’innovation. Elle peut notamment permettre à des entreprises de taille plus modeste de rivaliser avec les grands acteurs. Toutefois, elle met en garde contre plusieurs risques : l’adoption de comportements trompeurs en termes de frugalité, le fait de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande, ou encore le fait de limiter l’innovation en matière de frugalité.
Troisième enjeu : la standardisation de l’empreinte environnementale. L’Autorité constate que les entreprises communiquent peu sur l’impact environnemental de leurs solutions, qu’il n’existe pas de méthodologie partagée et que les mesures entreprises sont difficilement comparables.
Plusieurs outils ont été développés, comme le référentiel général d’éco-conception des services numériques co-publié par l’Arcep et l’Arcom, ou encore le référentiel général pour l’IA frugale porté par l’Afnor. D’autres outils se concentrent sur la mesure de l’empreinte énergétique et carbone, tandis que certains acteurs proposent la mise en place d’une notation environnementale permettant de comparer les différents modèles.
Mais là encore, l’Autorité alerte sur plusieurs problématiques : l’adoption d’outils qui ne s’appuieraient pas sur une méthodologie robuste, l’adoption d’une standardisation privant certains acteurs de son bénéfice, les comportements empêchant la standardisation, ou encore les échanges entre concurrents portant sur des informations commercialement sensibles.
Elle insiste particulièrement sur la nécessité de disposer de données fiables et transparentes sur l’empreinte énergétique et environnementale de l’IA. Une transparence qui permettrait à la frugalité de pleinement jouer son rôle de paramètre de concurrence. Elle souligne également qu’il convient de s’assurer que l’accès aux zones adaptées à l’implantation de centres de données et à l’énergie, en particulier à l’électricité d’origine nucléaire, ne se fasse pas à l’avantage de certains acteurs uniquement.
The post IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie appeared first on Silicon.fr.


Cette augmentation du prix de la mémoire vive se répercute sur les utilisateurs finaux. Le prix des modules de RAM a littéralement doublé en quelques semaines.
The post Pénurie de mémoire et hausse de prix : ça empire… first appeared on Bhmag.
Ces derniers temps, le prix de la mémoire vive et de la mémoire flash ne cesse de grimper de façon exponentielle.
The post Flambée des prix de la mémoire : ça n’est pas prêt de s’améliorer ! first appeared on Bhmag.