Vue normale

Reçu — 5 janvier 2026

IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie

18 décembre 2025 à 15:27

Quel est le prix à payer pour développer une politique nationale sur l’IA ? Alors que la France et l’Europe l’érigent en priorité stratégique, l’Autorité de la concurrence publie une étude sur son coût énergétique et environnemental, après son premier avis sur l’IA générative publié à l’été 2024.

Et le gendarme de la concurrence tire la sonnette d’alarme : la consommation électrique des centres de données pourrait représenter 4 % de la consommation nationale française dès 2035, tandis que les géants du secteur sécurisent déjà leurs approvisionnements en énergie, risquant de fausser le jeu concurrentiel.

Une consommation électrique qui pourrait doubler d’ici 2030

Les chiffres parlent d’eux-mêmes. Les centres de données représentent actuellement environ 1,5 % de la consommation mondiale d’électricité, mais leur impact local s’avère bien plus significatif. L’Autorité anticipe que leur consommation pourrait au moins doubler d’ici 2030 pour atteindre 945 TWh dans le monde.

En France, la situation est tout aussi préoccupante. La consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait grimper entre 12 et 20 TWh en 2030, puis entre 19 et 28 TWh en 2035, représentant près de 4 % de la consommation électrique nationale. Face à cette explosion, les grands acteurs américains multiplient déjà les partenariats pour sécuriser leur approvisionnement en énergie décarbonée, qu’il s’agisse d’énergies renouvelables ou du nucléaire.

Des ressources naturelles sous pression

Au-delà de l’électricité, l’impact environnemental de l’IA mobilise d’importantes ressources tout au long de la chaîne de valeur : eau, métaux rares et foncier. Selon l’Arcep, le volume d’eau prélevé par les centres de données a atteint 0,6 million de mètres cubes en 2023, avec une croissance annuelle soutenue de 17 % en 2022 et 19 % en 2023. À cette consommation directe s’ajoutent les prélèvements indirects liés à la production d’électricité, estimés à plus de 5,2 millions de mètres cubes par an.

Plusieurs acteurs du numérique ont d’ailleurs annoncé une forte augmentation de leurs émissions de gaz à effet de serre, allant de 30 à 50 %, résultant notamment de l’augmentation de la consommation énergétique de leurs centres de données.

Trois enjeux concurrentiels majeurs

L’Autorité identifie trois types d’enjeux concurrentiels découlant de cette situation.

Premier enjeu : l’accès à l’énergie et la maîtrise de son coût. Les acteurs du secteur sont confrontés à des difficultés de raccordement au réseau électrique et à des incertitudes sur le  prix de l’énergie. L’électricité représente entre 30 et 50 % des charges d’exploitation d’un centre de données, et le contexte énergétique est en pleine mutation, notamment avec la fin du dispositif ARENH au 31 décembre 2025.

Le nouveau système dual se met en place avec le versement nucléaire universel et les contrats d’allocation de long terme adossés à la production nucléaire proposés par EDF. L’Autorité se montre vigilante : elle veillera à ce que la position privilégiée des acteurs les plus importants ne leur permette pas de sécuriser des approvisionnements d’énergie dans des conditions avantageuses au détriment des plus petits. Elle rappelle également qu’EDF ne doit pas adopter de comportements anticoncurrentiels tels que la discrimination, le refus d’approvisionnement ou le verrouillage du marché.

Deuxième enjeu :  la frugalité comme paramètre de concurrence. Face à l’impact environnemental de l’IA, le concept de frugalité se développe, défini comme la consommation optimisée des ressources dans un objectif de minimisation de l’impact environnemental. Les demandeurs montrent un intérêt croissant pour des outils plus frugaux, tandis que plusieurs acteurs développent des modèles de plus petite taille ou communiquent sur leur empreinte environnementale.

L’Autorité considère que la frugalité peut contribuer à l’animation du jeu concurrentiel en affectant le prix, la qualité et l’innovation. Elle peut notamment permettre à des entreprises de taille plus modeste de rivaliser avec les grands acteurs. Toutefois, elle met en garde contre plusieurs risques : l’adoption de comportements trompeurs en termes de frugalité, le fait de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande, ou encore le fait de limiter l’innovation en matière de frugalité.

Troisième enjeu : la standardisation de l’empreinte environnementale. L’Autorité constate que les entreprises communiquent peu sur l’impact environnemental de leurs solutions, qu’il n’existe pas de méthodologie partagée et que les mesures entreprises sont difficilement comparables.

Plusieurs outils ont été développés, comme le référentiel général d’éco-conception des services numériques co-publié par l’Arcep et l’Arcom, ou encore le référentiel général pour l’IA frugale porté par l’Afnor. D’autres outils se concentrent sur la mesure de l’empreinte énergétique et carbone, tandis que certains acteurs proposent la mise en place d’une notation environnementale permettant de comparer les différents modèles.

Mais là encore, l’Autorité alerte sur plusieurs problématiques : l’adoption d’outils qui ne s’appuieraient pas sur une méthodologie robuste, l’adoption d’une standardisation privant certains acteurs de son bénéfice, les comportements empêchant la standardisation, ou encore les échanges entre concurrents portant sur des informations commercialement sensibles.

Elle insiste particulièrement sur la nécessité de disposer de données fiables et transparentes sur l’empreinte énergétique et environnementale de l’IA. Une transparence qui permettrait à la frugalité de pleinement jouer son rôle de paramètre de concurrence. Elle souligne également qu’il convient de s’assurer que l’accès aux zones adaptées à l’implantation de centres de données et à l’énergie, en particulier à l’électricité d’origine nucléaire, ne se fasse pas à l’avantage de certains acteurs uniquement.

The post IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie appeared first on Silicon.fr.

Reçu — 4 décembre 2025

Écoconception web : Orange en tête d’un CAC 40 qui stagne

4 décembre 2025 à 14:38

Un nouveau carrousel, un sous-menu de navigation en plus, et le score de performance environnementale d’une page web en pâtit.

L’agence Razorfish et le collectif Green IT font, dans la synthèse de leur dernier baromètre de l’écoconception digitale, une remarque au sujet de ces « contributions qui altèrent les scores à la longue ».

Les scores en question sont calculés avec l’algorithme EcoIndex. Trois paramètres techniques sont évalués en pondérés en fonction de leur contribution aux impacts écologiques : poids de la page (x 1), nombre de requêtes HTTP (x 2) et complexité du DOM (= nombre d’éléments sur la page ; x 3).

Le carrousel et le sous-menu de navigation pris pour exemple ont été ajoutés sur la homepage du site corporate de Veolia.

Veolia carrousel

Veolia sous-menu

Un EcoIndex moyen en baisse dans le CAC 40…

Au niveau du CAC 40, Orange affiche le meilleur score : 57/100 en moyenne pour les 10 pages les plus visitées de son site corporate (données SEM RUSH). L’entreprise a gagné 26 points depuis la première édition du baromètre (2022), avec un DOM réduit de 11 % et 4 fois moins de requêtes.

Suivent, à 54/100, ArcelorMittal (- 18 points par rapport à l’an dernier) et TotalEnergies (+ 2 points). Puis Unibail-Rodamco-Westfield (53/100 ; – 6 points) et Vinci (52 ; – 4 points).

Sur l’ensemble du CAC 40*, le score moyen ressort à 35/100. Il revient ainsi à son niveau de 2022 (34/100), après s’être élevé à 40/100 en 2023 et 39/100 en 2024.

… et sur les sites e-commerce

Dans la catégorie e-commerce, eBay obtient le meilleur score, bien qu’en baisse (43/100 ; – 7 points). Il devance Rue du Commerce (40/100), Darty (28/100), Oscaro (27/100) et Etsy (27/100 ; + 5 points).

Sur les 40 sites e-commerce les plus visités par les Français (classement E-commerce Nation, 2e semestre 2025), la score moyen est de 18/100. La tendance baissière constatée l’an dernier sur le top 50 (- 3 points, à 20/100) se poursuit donc. Elle est corrélée à la complexification des DOM (3977 éléments en moyenne, volume le plus élevé dans l’historique du baromètre).

Penser génératif avant de penser agentique

L’an dernier, Razorfish et Green IT avaient analysé la performance environnementale des interfaces de 12 IA génératives.
Une moitié était axée sur la production de texte (ChatGPT, Claude, Copilot, Gemini, Mistral AI, Perplexity) ; l’autre, sur la création d’images (Civitai, DALL-E, Firefly, Leonardo AI, Midjourney, Pixlr). Les premières avaient été évaluées sur 5 prompts (requêtes de type liste, simplification, comparateur, tableau et code). Les secondes, sur 3 prompts en versions « simple » et « complexe ».

Cette année, l’analyse s’est centrée sur ChatGPT et Perplexity, pour 7 cas d’usage. 4 possibles en génératif (rechercher des horaires, trouver des billets, comparer des produits, créer un itinéraire de voyage). 3 impliquant de l’agentique (mise au panier, réservation de restaurant, remplissage de formulaire).

Pour les besoins génératifs, le meilleur score revient à l’interface standard de ChatGPT (47/100, contre 35/100 pour Perplexity).
Pour les besoins agentiques, c’est l’inverse (30/100 pour Perplexity, contre 17/100 pour ChatGPT). Un écart lié au nombre de requêtes (148 vs 448) et au poids (3,1 Mo vs 11 Mo).

La mise au panier a été testée sur le site de Monoprix, en demandant d’ajouter les ingrédients nécessaires pour préparer « la meilleure recette de fondant au chocolat (très bien notée et validée par plusieurs sites culinaires) ». Il a fallu 14 minutes avec ChatGPT Agent, qui a visité 18 pages. Perplexity a mis un peu moins de 3 minutes en en visitant 4… et en en exploitant 19 indexées au préalable.

Dans les deux cas, c’est le chargement des pages web qui pèse : 85 % des émissions équivalent carbone sur Perplexity, 88 % sur ChatGPT.
Sur les cas d’usage réalisables en mode génératif, l’usage de l’agentique fait exploser le coût environnemental (x 15 sur Perplexity, x 60 sur ChatGPT).

* Composition de l’index au 1er janvier 2025. Un changement par rapport au baromètre précédent : sortie de Vivendi, entrée de Bureau Veritas.

Illustration générée par IA

The post Écoconception web : Orange en tête d’un CAC 40 qui stagne appeared first on Silicon.fr.

Reçu — 28 novembre 2025

SNCF Connect & Tech détaille sa recette d’écoconception web

28 novembre 2025 à 07:27

Pas d’audio, ni de vidéo. SNCF Connect & Tech en a décidé ainsi dans une perspective d’écoconception de son site web.

WebP, lazy loading… et noir et blanc

Pour ce qui est des images, le format WebP a été adopté. Avec lazy loading (on ne charge un élément que lorsque son emplacement devient visible à l’écran). Leur taille est par ailleurs automatiquement réduite de 5 % lors du traitement et les images monochromes sont fournies en noir et blanc.

Un cahier des charges pour les PDF

Pour chaque fichier proposé au téléchargement, le poids est indiqué. Le format PDF a été généralisé. Pour tout nouveau document, les contributeurs sont invités à se demander s’il est strictement nécessaire ou si on peut le remplacer par un autre contenu sur le site. On les incite aussi à contrôler que les images sont bien nécessaires, que les annotations ont été supprimées, que les polices sont bien des polices système… et que les bons paramètres d’export ont été appliqués.

Pas de carrousel ni de préchargement au survol

En front-office, la bibliothèque shadcn/ui a été retenue pour gérer les composants complexes, en raison de son faible environnemental, avance SNCF Connect & Tech. Certains composants prévus pour un usage unique ont été abandonnés au profits d’éléments réutilisables. Le format carrousel a été volontairement écarté – il n’aurait été utilisé qu’une fois – et remplacé par un composant de type tabulation. Quant aux préchargements au survol, ils ont été désactivés.

Autoscaling à 50-60 % de CPU

En back-office, trois services d’autoscaling sont en place. Pour Next.js, on ajoute une instance si la consommation CPU dépasse 50 % pendant 3 minutes. On en supprime une si l’utilisation tombe sous les 30 % pendant 6 minutes. Pour Drupal et le proxy, ces seuils sont à 60 % et 30 %. Dans tous les cas, le nombre d’instances est plafonné à 16.
Les environnements de développement sont créés à la volée, automatiquement éteints en dehors des heures de travail et détruits une fois le développement achevé.

Un an en cache côté client

Par défaut, toutes les ressources maîtrisées sont mises en cache côté client avec une durée de validité d’un an (polices, CSS et JavaScript, notamment). Certaines ressources ont des règles spécifiques, comme les images statiques (30 jours).
Côté serveur, les données les plus fréquemment demandées sont mises dans un cache Redis. Drupal gère le cache des pages dynamiques ; Cloudflare, la mise en cache des ressources statiques à grande échelle.

Des pages de 3 Mo maximum

L’impact environnemental est analysé à intervalle trimestriel. SNCF Connect & Tech s’astreint à un maximum de 3 Mo par page, 60 requêtes par écran, 1,6 Mo de données transférées et un score Ecoindex d’au moins D.

Quelques pages représentatives analysées au 23 avril 2025 :

Page Ecoindex Poids (en ko) Requêtes Données transférées (en kb)
Accueil C 1707 40 11,4
Contact C 1403 32 9,8
Offres d’emploi C 1431 31 13,8
Espace presse D 2283 48 715
Stratégie de rémunération C 1625 33 69,1
Mission C 1517 34 25,8

Les choix d’entreprises (fournisseur, solutions mutualisées) limitent l’intégration de services tiers plus propres, admet SNCF Connect & Tech.

Illustration générée par IA

The post SNCF Connect & Tech détaille sa recette d’écoconception web appeared first on Silicon.fr.

Reçu — 6 novembre 2025

Google investit dans la reforestation pour compenser son empreinte carbone

6 novembre 2025 à 13:50

Google annonce son plus important accord d’achat de crédits carbone issus de la reforestation,  avec la startup brésilienne Mombak sur 200 000 tonnes métriques de compensation d’émissions de CO2, soit quatre fois le volume du contrat pilote signé en septembre 2024.

Mombak transforme d’anciennes terres de pâturage dégradées en forêt amazonienne,

Les deux entreprises ont refusé de divulguer la valeur financière de la transaction. En 2023, lors de sa vente à McLaren Racing, Mombak avait facturé ses crédits en moyenne à plus de 50 dollars la tonne.

Un revirement vers la photosynthèse

L’accord marque un tournant dans la stratégie de décarbonation de Google. En 2024, l’entreprise avait initialement investi plus de 100 millions $ dans diverses technologies de capture du carbone – altération minérale, biochar, capture directe dans l’air et acidification des rivières. L’accord de septembre 2024 avec Mombak représentait sa première incursion dans les crédits carbone basés sur la nature au Brésil.

« La technologie la moins risquée dont nous disposons pour réduire le carbone dans l’atmosphère est la photosynthèse », explique Randy Spock, responsable des crédits carbone chez Google, cité par Reuters.

Cette multiplication des engagements répond à une explosion des émissions liées aux activités de Google. Selon son dernier rapport environnemental, ses émissions de scope 2 liées au marché – principalement l’électricité achetée pour ses centres de données et bureaux – ont plus que triplé entre 2020 et 2024, atteignant 3,1 millions de tonnes d’équivalent CO2.

La coalition Symbiosis élève les standards

En 2024, Google s’était associé à Meta, Salesforce, McKinsey et Microsoft – le plus gros acheteur à ce jour – pour créer la Symbiosis Coalition  qui s’est engagée à contracter plus de 20 millions de tonnes de compensations carbone basées sur la nature d’ici 2030.

La coalition impose des normes strictes : comptabilité carbone conservatrice et transparente, préservation à long terme et bénéfices pour la biodiversité et les communautés locales. Sur 185 projets examinés, celui de Mombak est le premier à satisfaire ces critères.

Cette annonce intervient alors que la COP30 qui s’ouvre aujourd’hui à Belem ( Brésil) doit annoncer, entre autres initiatives, un nouveau fonds de soutien pour les forêts tropicales.

The post Google investit dans la reforestation pour compenser son empreinte carbone appeared first on Silicon.fr.

Reçu — 27 octobre 2025

AWS intègre (partiellement) le scope 3 dans sa calculette carbone

27 octobre 2025 à 13:25

Quel point commun entre ecoinvent, GaBi et imec.netzero ? Tout au moins, celui d’alimenter la calculette carbone d’AWS (CCFT, Customer Carbon Footprint Tool). Ou, plus précisément, la méthodologie qui sous-tend l’outil.

Une nouvelle version de cette méthodologie (3.0) vient d’être publiée. Avec elle, AWS vient englober, en partie, le fameux scope 3. C’est-à-dire les émissions indirectes dans sa chaîne de valeur.

Une partie des émissions entrant dans ce périmètre sont liées à l’extraction, à la production et au transport de l’énergie consommée dans les datacenters. Calculées au niveau des clusters, elles sont dites « opérationnelles ». Cela inclut l’électricité achetée, ainsi que les carburants et les fluides frigorigènes utilisés dans les générateurs de secours ou les systèmes de climatisation.

D’autres émissions sont amorties sur la base de la durée de vie des assets auxquels elles se rattachent. En fait partie l’empreinte carbone embarquée :

  • Du matériel informatique (extraction des matières premières, fabrication des composants, processus d’assemblage, acheminement vers les datacenters)
  • Des datacenters
  • Des équipements non informatiques (centrales de traitement d’air, unités de distribution d’énergie…)

méthodologie v3

4 options de modélisation pour les équipements IT

La méthodologie v3 ne couvre pas l’ensemble du scope 3. Elle fait notamment l’impasse sur la fin de vie de toutes ces composantes (recyclage de matériel, destruction de bâtiments, etc.).

Pour les émissions opérationnelles, AWS propose des estimations basées sur la localisation ou sur le marché. Il prend en compte les pertes qui surviennent lors de la transmission et de la distribution.

Pour les équipements informatiques, l’estimation repose sur une modélisation au niveau des composants. Sont priorisés ceux présents en plus grand nombre dans l’infrastructure et/ou pesant le plus lourd dans l’empreinte carbone globale.

Un modèle « en cascade » est employé pour s’adapter aux éventuels manques de données.
La préférence va à une ACV (analyse de cycle de vie) par processus, autant que possible à partir des données des fabricants. À défaut, on collecte des attributs techniques (types de matériaux, processus de fabrication et masse, principalement) et on exploite éventuellement des estimations moyennes de l’industrie.

Pour certains types de composants à l’empreinte importante et dont les propriétés technologiques peuvent facilement être caractérisées à partir de quelques indicateurs (CPU, GPU, SSD, HDD, RAM, cartes mères…), on peut procéder par extrapolation. En l’occurrence, via une relation paramétrique entre les résultats de l’ACV par processus et les caractéristiques-clés de ces composants.

Autre option : l’analyse entrées-sorties (EIO, Economic Input-Output). Elle lie l’activité économique aux impacts environnementaux grâce à des facteurs d’émission sectoriels (en kg CO2e/$), rapportés au coût unitaire des composants.

Pour les composants qu’on trouve peu fréquemment et pour lesquels l’EIO ne produit pas de résultats précis, il y a l’option RCA-LCA (Representative Category Average Life Cycle Assessment). Elle se fonde sur la masse mesurée ou estimée des composants, combinée à une classification KNN (algorithme des k plus proches voisins) pour les associer à des facteurs d’émissions représentatifs appropriés.

Des sources en Belgique, en Suisse et au Canada

Parmi les sources qu’AWS exploite pour la partie informatique, il y a donc ecoinvent, GaBi et imec.netzero. Le premier – une base de données environnementales – est portée par une entreprise à mission de droit suisse. Le second est un logiciel d’ACV rattaché à la base Sphera. Le troisième donne un aperçu de l’impact environnemental de circuits intégrés. On le doit à l’Imec, institut de recherche universitaire belge en microélectronique et nanotechnologies.

Pour ce qui est des datacenters, AWS suit principalement les lignes directrices du Conseil national de recherches du Canada en matière d’ACV de l’ensemble du bâtiment. Ces guidelines se fondent sur la norme européenne EN 15978:2011.

EN 15978

Les modèles d’ACV pour les carcasses et les salles s’appuient essentiellement sur des EPD (déclarations environnementales de produits) tiers validés et sur la base ecoinvent.

Des données recalculées jusqu’à 2022

Pour passer du niveau du cluster à celui des racks, on se réfère à la puissance absorbée. Et on y ajoute le carbone embarqué amorti sur une durée de vie de 6 ans.
Exemple pour un cluster auquel on a attribué 500 MT CO2e et qui tire 1000 KVA : un rack consommant 600 KVA se verra allouer 60 % de l’empreinte carbone, soit 300 MT CO2e. Le carbone amorti associé à ce rack (par exemple, 100 MT CO2e) est ajouté pour obtenir les émissions totales, sur une base mensuelle.

Pour passer des racks aux services, on fait la différences entre les services « fondateurs » (qui ont des racks dédiés dans des datacenters) et « non fondateurs » (qui reposent sur d’autres services).
Exemple dans un rack dont le modèle identifie qu’il consomme 1000 Go-mois. Un service qui consomme 250 Go-mois se verra attribuer 25 % des émissions du serveur.

Pour les services « fondateurs », l’attribution d’une empreinte à chaque client se fait par allocation « physique » (basée sur les usages). Pour les services « non fondateurs », elle se fait par allocation « économique » (basée sur le revenu).

Pour permettre des analyses rétrospectives de tendances, AWS a recalculé ses données avec la nouvelle méthodo jusqu’à janvier 2022.

émissions carbone AWS

Illustration principale générée par IA

The post AWS intègre (partiellement) le scope 3 dans sa calculette carbone appeared first on Silicon.fr.

Reçu — 20 octobre 2025

IA frugale : 6 bonnes pratiques « secondaires » du référentiel AFNOR

20 octobre 2025 à 10:30

À l’instar de la réutilisation de chaleur lorsque surviennent des épisodes caniculaires ou de stress hydrique, des externalités positives peuvent devenir des contraintes.

Cette remarque figure dans l’AFNOR SPEC 2314. Publié en juin 2024 et mis à jour pour la dernière fois en avril 2025, le document ne constitue pas une norme. Il vise à fournir un catalogue de méthodes et de pratiques à appliquer pour tendre vers une IA « frugale ». Une soixantaine d’organismes (47 du secteur privé, 7 du secteur public, 6 de la sphère académique/recherche) y ont contribué.

Les 31 bonnes pratiques référencées sont classées sur deux axes. D’un côté, en fonction des segments « service », « données » et « infrastructures ». De l’autre, selon les étapes du cycle de vie d’une IA.

Six de ces bonnes pratiques ont la particularité de nécessiter un effort important tout en présentant un faible gain*. Les voici.

Faire évoluer les stratégies de mesure d’impact en fonction des enjeux et des contraintes

C’est sur ce point qu’est évoquée la question des externalités positives devenant contraintes. Une manière d’avaliser cette bonne pratique qui consiste à réévaluer les stratégies de mesure d’impact et les critères de frugalité tout au long du cycle de vie d’un service d’IA.

Cette réévaluation, qu’on assurera régulièrement et plusieurs fois par an, pourra impliquer l’évolution et la rationalisation des outils de mesure.

Mettre en place un référentiel unique de « services IA » frugaux

Ce référentiel devra comprendre au minimum, pour chaque service :

  • Un identifiant unique
  • Son statut de déploiement
  • L’identification de l’équipe en charge de sa gestion
  • La description des modèles sous-jacents
  • Des éléments sur les données et l’infra, éventuellement tirées d’une base de données existante

L’AFNOR SPEC 2314 recommande de créer, dans ce référentiel, un espace spécifique d’analyse de la frugalité. Et d’ajouter, pour chaque service, deux critères déclaratifs. L’un relatif au statut de l’évaluation (non étudié, en cours, étudié, audité…). L’autre, à l’existence d’une procédure de réutilisation et d’évolution du service. Dans l’idéal, on complétera par des infos plus détaillées décrivant chaque indicateur de frugalité par service.

Avoir une offre de produits numériques IA sur étagère

Cette bonne pratique évite les doublons tout en facilitant l’amélioration de l’existant et l’élimination des produits devenus obsolètes. Elle suppose de favoriser la réutilisation de tout service voire système d’IA, avec un processus de mise en œuvre simplifiée (intégration sans développement de fonctionnalités supplémentaires). Mais aussi de permettre de participer à l’évolution fonctionnelle d’un produit sans changer la manière de l’utiliser. Dans cette perspective, on s’assurera que le demandeur peut :

  • Accéder facilement au backlog
  • Accéder à la procédure de gestion d’une nouvelle demande (mise à jour ou évolution)
  • Afficher les règles de priorisation pour toute demande

Le demandeur doit pouvoir développer et/ou intégrer le service par lui-même ou bien sous-traiter la démarche. À la fin de chaque création de service d’IA, on mettra à disposition une procédure de réutilisation et de mise à jour.

Favoriser les terminaux utilisateurs pour l’entraînement ou l’inférence

Principe général à suivre : identifier des petits modèles, mettre en place des techniques d’optimisation et de compression (autre bonne pratique de la SPEC AFNOR 2314), évaluer les impacts de cette approche et l’intégrer dans les réponses possibles au besoin.

Écrire du code pouvant être amélioré par plusieurs personnes et réimplémenté sur plusieurs environnements

Il s’agit ici de produire du code réutilisable pour réentraîner facilement le modèle ou pouvoir exploiter des modules dans d’autres projets.

Pour limiter l’empreinte environnement sont conseillés des langages compilés (C, C++ et CUDA sont cités). Ou bien, pour les langages de plus haut niveau, un interpréteur optimisé (exemple : Pythran ou Numba pour Python).

Si cela est possible dans la limite des compétences en développement des data scientists et des choix stratégiques de la sociétés, on favorisera C pour développer l’IA avec la norme ANSI C99 en utilisant des bibliothèques standards.

On cherchera plus globalement à pérenniser le code en utilisant au maximum les bibliothèques courantes, en privilégiant les langages multienvironnements et en vérifiant les licences d’utilisation (risque de portabilité et de surcoût dans le temps).

Décomposer un gros modèle d’IA en plusieurs petits modèles

La somme de l’empreinte de petits modèles spécialisés sera inférieure à l’empreinte d’un gros modèle généraliste, postule l’AFNOR SPEC 2314.

Cette décomposition permet, de plus, une mutualisation des modèles. Et favorise la réduction de l’empreinte du réentraînement – comme de l’inférence. Elle suppose un niveau de compétence suffisant pour la mise en œuvre de modèles multiples – éventuellement à l’appui d’un orchestrateur.

* Elles sont plus précisément dans le top 10 des bonnes pratiques présentant le plus faible gain et dans le top 10 de celles nécessitant le plus d’effort.

Illustration générée par IA

The post IA frugale : 6 bonnes pratiques « secondaires » du référentiel AFNOR appeared first on Silicon.fr.

❌