Vue normale

IA et RGPD : la CNIL joue les généalogistes

5 janvier 2026 à 16:44

Disposer d’une « généalogie » des modèles d’IA ouverts favoriserait-il l’exercice des droits RGPD ?

La CNIL en fait le pari. Elle expérimente en tout cas un tel outil. Fondé sur les données de la plate-forme Hugging Face, il permet de visualiser l’ascendance et la descendance des modèles. En ligne de mire, les personnes concernées par la mémorisation de leurs informations personnelles… et par le risque de ruissellement de ces informations entre les modèles.

La base de données sous-jacente est en accès libre. Mise à jour quotidiennement, elle contient des éléments fournis la plupart du temps de manière déclarative par les entités qui publient les modèles – et les datasets. On en retrouve déjà le contenu à plusieurs niveaux de l’explorateur Hugging Face, dont des arborescences sur les pages des modèles.

arborescence Ministral 3 3B Instruct

Deux visualisations et un mode « expert »

Sur ce socle (plus exactement sur la base de données telle qu’elle était au 1er septembre 2025), la CNIL a structuré un graphe de connaissances. Elle y distingue cinq types d’entités : modèles, datasets, personnes, organisations et utilisateurs (qui sont soit une personne, soit une organisation).

L’outil n’affiche pas immédiatement le graphe. Il fournit d’abord quelques indicateurs à propos du modèle recherché (sa date de publication et la tâche qu’il remplit, ainsi que le nombre de téléchargements, de citations et de mentions « j’aime »), puis présente les parents et les enfants importants, en priorisant ceux qui ont le plus de citations, puis de téléchargements.

Perplexity AI R1

arbre généalogique Perplexity AI R1

Un mode « recherche experte » permet de filtrer le graphe (types de nœuds, types de relations) et de le télécharger.

mode expert

Hugging Face invité à permettre une meilleure identification des responsables de publication

On est censé pouvoir trouver un modèle en recherchant son nom ou l’identifiant de son repo. Dans la pratique, seule cette dernière option apparaît produire des résultats. La saisie semi-automatique accuse une certaine latence (plusieurs secondes) et des erreurs surviennent parfois.

erreur outil Cnil

La CNIL envisage une fonctionnalité d’envoi automatisé de requête à tous les modèles suspectés. L’analyse de leurs réponses permettrait théoriquement de déterminer lesquels régurgitent des données personnelles.
Un formulaire pourrait ensuite permettre de contacter les auteurs des modèles problématiques. Une évolution de la plate-forme Hugging Face pourrait toutefois être nécessaire pour une meilleure identification des responsables de publication, suggère la commission…

À consulter en complément :

L’IA générative peut-elle vraiment « désapprendre » ?
IA et RGPD : la CNIL boucle son corpus de fiches pratiques
De France Travail à la RATP, les leçons du « bac à sable » IA de la CNIL

Illustration générée par IA

The post IA et RGPD : la CNIL joue les généalogistes appeared first on Silicon.fr.

2 nanomètres : le saut technologique de TSMC qui libère la puissance de l’IA locale

5 janvier 2026 à 14:26

L’industrie des semi-conducteurs a franchi une étape historique avec l’annonce de la technologie 2nm (dite N2). Pour atteindre une telle finesse de gravure, TSMC a dû opérer un changement radical de paradigme en abandonnant l’architecture FinFET au profit des transistors à feuilles nanométriques, ou GAAFET (Gate-All-Around).

Cette innovation permet d’entourer le canal de conduction sur ses quatre faces, offrant un contrôle électrique quasi parfait là où les structures précédentes commençaient à laisser fuiter de l’énergie. Selon TSMC, les bénéfices sont massifs : à performance égale, une puce 2 nm consomme environ 30 % d’énergie en moins que son prédécesseur en 3 nm. Cette efficacité thermique libère une « marge de manœuvre » précieuse qui transforme radicalement les capacités de l’intelligence artificielle embarquée (Edge AI).

L’IA « on-device » : la fin de la dépendance au Cloud ?

Jusqu’à présent, l’IA sur smartphone était limitée par la chaleur et la mémoire. Les modèles les plus puissants nécessitaient des serveurs distants, posant des problèmes de latence et de confidentialité. Le passage au 2 nm change la donne. Grâce à l’augmentation de la densité des transistors, les ingénieurs peuvent désormais intégrer des unités de traitement neuronal (NPU) capables de gérer des modèles de langage de plus de 10 milliards de paramètres directement sur l’appareil.

Cette autonomie de calcul apporte des bénéfices immédiats. La confidentialité devient totale puisque les données ne quittent plus le téléphone, et la réactivité devient instantanée pour la traduction en temps réel ou la retouche vidéo complexe. Surtout, cela permet l’éclosion de véritables « agents d’IA » autonomes, capables de comprendre le contexte de l’utilisateur en continu sans transformer l’appareil en radiateur de poche ni vider la batterie en quelques heures.

Mais cette révolution a un prix. Les capacités de production pour 2026 sont déjà saturées, Apple ayant préempté la majeure partie des lignes de production pour ses futurs processeurs, laissant Nvidia et AMD se disputer les quotas restants pour le secteur des serveurs.

Le coût de production d’un seul wafer de 2 nm est désormais estimé à 30 000 dollars, une barrière financière qui renforce la domination de TSMC et des acteurs les plus riches de la tech.

De la robotique à l’Angström

L’impact du 2 nm dépassera largement le cadre du smartphone. Cette capacité de traiter des algorithmes de vision par ordinateur avec une consommation minimale est le chaînon manquant pour la robotique légère, les drones autonomes et les lunettes de réalité augmentée.

Alors que le 2 nm entame son cycle de vie, TSMC prépare déjà l’étape suivante pour 2027 : l’ère de l’Angström avec le procédé A16. En introduisant l’alimentation par l’arrière de la puce, cette future génération promet de repousser encore plus loin les frontières de l’infiniment petit, confirmant que la course à la puissance ne fait que commencer.

The post 2 nanomètres : le saut technologique de TSMC qui libère la puissance de l’IA locale appeared first on Silicon.fr.

Contrôle fiscal : avec ses SI, l’État se complique la tâche

5 janvier 2026 à 13:53

« La politique de la DGFiP en matière de contrôle n’a jamais eu pour priorité de reposer sur la conciliation. »

Amélie de Montchalin, ministre de l’Action et des Comptes publics, a cru bon de le signaler en réponse aux observations de la Cour des comptes.

Cette dernière s’est intéressée à la lutte contre la fraude fiscale. Elle en dresse un bilan « mitigé […] après une décennie de transformations » : les sanctions ne sont ni plus fréquentes, ni plus sévères.

Le SI du contrôle fiscal, plombé par ses silos

Les sages de la rue Cambon réitèrent un constat formulé à plusieurs reprises ces dernières années : le SI du contrôle fiscal est conçu en silos, avec des applications spécialisées par impôt ou par tâche, anciennes, peu ergonomiques et dépourvues d’interopérabilité. Le manque d’interconnexion fait obstacle à l’exploitation des outils de data mining, effective depuis 2016.

Sur Iliad (application centrale des services chargés de la gestion fiscale), les données manquent de précision quant aux motifs ayant provoqué des contrôles. De plus, elles n’indiquent pas la part de ceux ayant débouché sur un dossier en règle, sur une erreur ou sur une fraude assortie d’une action de rectification.

Sur Alpage (pilotage et statistiques), les données sont saisies manuellement et a posteriori ; ce qui peut engendrer des erreurs ou des imprécisions. Par ailleurs, les « codes thésaurus » correspondant à des motifs de rectification sont absents dans 5 à 10 % des contrôles enregistrés, rendant moins fiable et plus fastidieuse la mesure de leur efficacité.

Pilat, un outil unifié… en projet depuis 2018

En 2018, la DGFiP avait lancé le projet Pilat, censé aboutir à un outil unifié de pilotage et d’analyse de la chaîne du contrôle fiscal. La mise en service était prévue pour 2022, mais l’initiative a pris du retard. En parallèle, son coût prévisionnel a plus que triplé entre 2017 et 2024 (de 36 à 123,5 M€).

En l’absence d’un tel outil, les priorités diffèrent d’une direction locale à une autre, note la Cour des comptes. Toutes ne recherchent pas forcément l’objectif répressif. Certaines n’exploitent pas la potentielle récidive d’un contribuable déjà sancitonné par une pénalité exclusive de bonne foi à hauteur de 40 % dans les 6 années qui précèdent.

Le data mining, beaucoup de contrôles, peu de recettes

En 2023, la DGFiP a réalisé ses premières études évaluant l’efficacité du data mining.

Le taux de pertinence des listes ainsi établies varie en fonction des impôts. Pour l’IR, par exemple, 65 % des dossiers signalés par l’algo ont fait l’objet d’un rehaussement effectif.
Le taux est particulièrement élevé pour les listes relatives au report erroné de réductions d’impôt dans le cadre du dispositif Pinel* (93 %) ou portant sur les réductions et crédits d’impôt (80 %). Il ne l’est pas autant pour, entre autres, les droits de mutation à titre gratuit, du fait d’une intégration peu aboutie des informations communiquées par les notaires.

L’objectif de réaliser 50 % des contrôles sur la base des listes issues du data mining a été atteint en 2022 s’agissant des professionnels. On en est à environ 40 % pour les particuliers. Pour autant, les dossiers ouverts en conséquence ont un poids réduit dans les recettes : 13,8 % des droits et pénalités mis en recouvrement en 2023, alors qu’ils ont représenté 44 % des contrôles cette année-là.

Plusieurs facteurs peuvent être avancés, reconnaît la Cour des comptes. En particulier, ne sont considérés comme issus du data mining que les dossiers non ouverts au préalable par un agent du fisc. Autre élément, qu’a d’ailleurs souligné Amélie de Montchalin : les contrôles concernés portent a priori sur des enjeux moins importants que les contrôles sur place (en moyenne, 3473 € mis en recouvrement, contre 16 676 €).

Il est, plus globalement, impossible de mesurer la contribution du data mining à l’évolution du rendement moyen par agent, vu les autres évolutions stratégiques intervenues sur la période étudiée (ciblage des contrôles, développement des échanges d’informations).

Les SI du ministère de la Justice compliquent le suivi de la répression pénale

Jusqu’en 2018, l’autorité judiciaire n’était saisie des affaires de fraude par le fisc qu’à la discrétion de ce dernier.

Une réforme a mis fin à ce principe dit « verrou de Bercy ». Notamment afin de prévenir le soupçon qu’une autorité politique intervienne pour empêcher la transmission de dossiers d’importance.

L’autorité judiciaire est désormais saisie chaque année d’environ 800 M€ d’impôts éludés, pour un montant moyen par dossier de l’ordre de 400 k€. Cependant, les SI centralisés du ministère de la Justice ne permettent pas de suivre le traitement pénal de ces dossiers en fonction des montants considérés. Ce qui limite nettement l’appréciation de la répression pénale.
Le montant du préjudice signalé n’est effectivement pas retracé dans ces SI. Si une information à un niveau agrégé existe, elle ne l’est qu’au sein de chaque parquet.

* Réduction d’impôt sur le revenu à l’occasion d’un investissement locatif sous réserve de s’engager à louer le logement nu en tant que résidence principale pour au moins 6 ans.

Illustration générée par IA

The post Contrôle fiscal : avec ses SI, l’État se complique la tâche appeared first on Silicon.fr.

Meta s’offre Manus : comment ce « ChatGPT asiatique » a évolué

2 janvier 2026 à 11:20

Butterfly Effect bat désormais pavillon américain.
La start-up vient en tout cas de se vendre à Meta ; possiblement pour plus de 2 Md$.

Fondée en 2022, elle avait d’abord développé un « assistant tout-en-un » permettant d’exploiter divers LLM à travers leurs API.
Le produit, nommé Monica AI, existe toujours. Mais il n’est plus la vitrine depuis le lancement de Manus. C’était début mars 2025, quelques semaines après l’électrochoc DeepSeek.

Une start-up chinoise devenue licorne singapourienne

Comme DeepSeek, Butterfly Effect est né en Chine. Il a cependant fini par en délocaliser son siège social, mi-2025. Le déclencheur : un tour de table de 75 M$ emmené par le fonds américain Benchmark… et l’enquête consécutivement conduite par le Trésor sous le régime des investissements à l’étranger.

De ce tour de table, Butterfly Effect était ressorti valorisé à environ 500 M$. L’entreprise est maintenant basée à Singapour. Elle continuera à opérer sur place jusqu’à nouvel ordre, nous affirme-t-on. Même si du point de vue organisationnel, le cœur de l’équipe sera intégré à Meta AI.

Le seuil des 100 M$ de revenu annuel récurrent avait officiellement été franchi mi-décembre. La société comptait alors une centaine d’employés, entre Singapour, Tokyo et San Francisco. Il était question d’ouvrir « bientôt » un bureau à Paris.

Du back-end à l’optimisation SEO, Manus en bâtisseur de sites web full-stack

Entre autres chiffres, Butterfly Effect annonce avoir créé, depuis le lancement de Manus, quelque 83 millions d’« ordinateurs virtuels ». L’entreprise se réfère là à sa technologie de navigateur cloud, intégrée dans l’interface de discussion. Elle y a récemment ajouté une extension (Chrome/Edge) qui permet à l’IA de travailler dans le navigateur local.

Autre brique ajoutée ces dernières semaines : un constructeur de sites web full stack – avec back-end, authentification, base de données, achat/connexion de noms de domaines, optimisation SEO (génération d’une version HTML statique spécifiquement pour les robots) et analytique. Elle fait partie des fonctionnalités réservées aux forfaits payants : Basic (20 $/mois), Plus (40 $/mois), Pro (200 $/mois), Team (à partir de 40 $/siège) et Enterprise.

Certifiée SOC 2 Type I et II, l’offre est pour le moment hébergée aux États-Unis (région AWS en Virginie). Elle met à contribution des modèles d’Anthropic, de Google, d’OpenAI. Elle dépend aussi de Cloudflare (réseau), de HCaptcha (sécurité), d’Intercom (support), de Revenue Cat (paiement), de Stripe (facturation) et de Twilio (notifications SMS).

Les jalons d’un écosystème… jusqu’en France

Outre ses partenariats académiques et son offre de crédits pour les start-up, Butterfly Effect a un programme d’ambassadeurs. Deux d’entre eux se trouvent en France : Niels Rolland (cofondateur et CEO de Paatch, communauté d’AI builders) en Pāvels Baskakovs (ancien de Deloitte et Chainalysis).

Depuis peu existe aussi la Manus Academy. Cette plate-forme de formation à l’usage de l’IA est actuellement en accès anticipé, en anglais, japonais et portugais. Elle s’inscrit dans le prolongement du Build Club, projet que Butterfly Effect porte aux côtés d’acteurs comme OpenAI, Crew AI, Leonardo AI, Groq, LangFlow et Vercel.

La « recherche étendue » est disponible depuis plus longtemps, mais son déploiement sur l’ensemble des forfaits payants n’est pas finalisé. Elle est l’une des marques de fabrique de Manus : plutôt que d’étendre la fenêtre de contexte, on instancie autant d’agents que nécessaire et on les exécute en parallèle.

Une multimodalité couleur Google

Arrivée en mai, la génération d’images repose aujourd’hui sur GPT Image 1 (OpenAI) et sur Nano Banana Pro (Google), au sein d’une espace de travail (« vue design ») qui y associe un agent de recherche et un éditeur interactif. Nano Banana Pro est aussi à la base du générateur de diapositives, réservé aux forfaits payants.

Manus sait générer des vidéos depuis juin, en particulier à l’appui du modèle Veo 3 de Google. En parallèle, il a été doté d’un système de planification de tâches. Et, par après, d’une organisation en projets.

Mi-novembre, Butterfly Effect avait promis que Manus serait disponible dans le cadre de l’offre Microsoft Agent 365.

Le mode chat est accessible à tous les utilisateurs. En mode agent, on ne peut utiliser, sur la version gratuite, que l’architecture dite Manus Lite.

Illustration générée par IA

The post Meta s’offre Manus : comment ce « ChatGPT asiatique » a évolué appeared first on Silicon.fr.

Google mise 4,75 milliards $ sur l’énergie verte pour doper ses data centers IA

23 décembre 2025 à 10:27

Alphabet, maison mère de Google, vient d’annoncer l’acquisition d’Intersect pour 4,75 milliards $ en cash, auxquels s’ajoute la reprise de la dette existante. Cette opération représente l’une de ses transactions les plus importantes et marque un tournant dans sa stratégie de développement de centres de données dédiés à l’IA.

L’enjeu est de taille : permettre à Google d’accéder à davantage d’électricité pour ses infrastructures, alors que le réseau électrique américain, vieillissant, peine à absorber une demande énergétique qui explose pour la première fois depuis des décennies. L’IA  constitue le principal moteur de cette croissance fulgurante.

« Intersect nous aidera à accroître nos capacités, à opérer avec plus d’agilité dans la construction de nouvelles centrales électriques en phase avec la nouvelle charge des centres de données, et à repenser les solutions énergétiques pour stimuler l’innovation et le leadership des États-Unis » déclare Sundar Pichai, directeur général de Google et d’Alphabet.

Un portefeuille énergétique impressionnant

Aux termes de cet accord, Alphabet achète les projets énergétiques et de centres de données d’Intersect, qu’ils soient en développement ou en construction. L’entreprise possède 15 milliards $ d’actifs en exploitation ou en construction.

Elle exploite actuellement environ 7,5 gigawatts de capacité solaire et de stockage, et prévoit de développer 8 gigawatts supplémentaires. Pour référence, un gigawatt équivaut approximativement à la production d’un réacteur nucléaire et peut alimenter environ 750 000 foyers. L’essentiel de cette capacité est concentré au Texas.

Son PDG, Sheldon Kimber, avait d’ailleurs surnommé le Texas le « Disneyland de l’énergie » en raison de ses abondantes ressources éoliennes et solaires. Parmi ses projets phares dans cet État figure « Quantum », un système de stockage d’énergie propre construit directement à côté d’un campus de centres de données pour Google.

L’opération s’inscrit dans une stratégie plus large d’Alphabet dans le secteur énergétique. Google, en partenariat avec TPG Rise Climate, avait déjà soutenu Intersect lors d’une levée de fonds de plus de 800 millions $ en décembre 2024.

Une structure d’acquisition sur mesure

Dans le cadre de cet accord, Alphabet acquiert la plateforme de développement et les effectifs d’Intersect, y compris les actifs en développement déjà sous contrat avec Google. Intersect conservera sa propre marque et restera dirigée par Sheldon Kimber.

Les actifs opérationnels existants de la société au Texas, ainsi que ses actifs opérationnels et en développement en Californie, ne seront pas inclus dans l’acquisition et continueront de fonctionner comme une entreprise indépendante, soutenue par ses investisseurs actuels. TPG Rise Climate conservera une participation dans ces actifs.

Intersect explorera également un éventail de technologies émergentes pour accroître et diversifier l’approvisionnement énergétique, tout en soutenant les investissements de Google dans ses centres de données américains.

« En acquérant un développeur et pas seulement un contrat d’achat d’électricité, Google s’offre la flexibilité nécessaire pour construire où et quand il le souhaite » estime Ben Hertz-Shargel, analyste du cabinet Wood Mackenzie cité par Bloomberg.

The post Google mise 4,75 milliards $ sur l’énergie verte pour doper ses data centers IA appeared first on Silicon.fr.

{ Tribune Expert } – Concevoir une IA générative stable, adaptée aux réalités opérationnelles

22 décembre 2025 à 12:17

L’IA générative (GenAI) entre dans une phase où l’expérimentation cède la place à l’intégration concrète. En effet, les organisations commencent à considérer ces modèles comme des composants opérationnels à part entière plutôt que comme de simples assistants autonomes. L’attention se porte désormais sur leur comportement une fois intégrés dans des environnements où la performance, la protection de l’information et la cohérence dans la durée sont déterminantes.

Alors cette transition s’accélère, le défi central devient la définition d’une approche architecturale capable de garantir un usage fiable à grande échelle, tout en maîtrisant les coûts à long terme et la continuité opérationnelle.

L’architecture comme socle structurel de la fiabilité de l’IA générative

Les systèmes d’entreprise imposent des contraintes qui conditionnent la manière dont l’IA générative peut être intégrée. Dans ce cadre, les grands modèles de langage (LLM) publics offrent une mise à l’échelle rapide et un accès à de vastes capacités linguistiques, sans exiger d’infrastructure dédiée. Leur principal atout tient à leur flexibilité, plutôt qu’à une maîtrise fine des usages. À l’inverse, les modèles privés s’inscrivent dans une logique architecturale différente, avec des environnements construits autour de données propriétaires, de périmètres d’accès définis et de modalités d’intégration pilotées directement par l’organisation.

Cette distinction demeure structurante, car l’alignement architectural détermine si l’IA générative reste cantonnée à des usages exploratoires ou si elle s’insère dans des processus où la précision, la prévisibilité et la traçabilité sont indispensables. Une fois cet alignement établi, le rôle du modèle se clarifie, ce qui permet de définir des stratégies de déploiement compatibles à la fois avec les exigences opérationnelles et les cadres réglementaires.

Intégrer la confidentialité dans la structure du système

Dès lors que l’IA générative interagit avec des informations sensibles, la protection des données devient une exigence structurelle et non un simple ajustement de surface. L’exposition d’informations confidentielles ou la perte de contrôle sur leur circulation rappelle la situation, évoquée par analogie, où des données de carte bancaire seraient notées sur papier avant une transaction, ce qui suscite immédiatement des doutes sur la fiabilité du processus chargé de les traiter.

Les déploiements privés répondent largement à cette problématique en maintenant les traitements au sein des frontières de l’entreprise, ce qui préserve la souveraineté des données et limite les flux inutiles. Lorsque des échanges s’avèrent nécessaires, des intégrations via des interfaces de programmation (API) sécurisées et des mécanismes de réplication contrôlée permettent d’assurer le chiffrement, de faire respecter les règles d’autorisation et de ne partager que les données strictement nécessaires à la tâche.

Cette approche fait de la confidentialité une propriété intrinsèque de l’architecture et crée les conditions pour un comportement cohérent de l’IA générative dans des environnements réglementés ou à forts enjeux. L’intégration s’inscrit alors dans les mêmes standards opérationnels que le reste de l’infrastructure de l’entreprise, qu’il s’agisse de la protection de la vie privée, du contrôle des accès ou de la traçabilité, sans dépendre de politiques externes sur lesquelles l’organisation dispose d’une influence limitée.

Une stratégie opérationnelle guidée par l’alignement des cas d’usage

Une fois les contraintes architecturales posées, la stratégie opérationnelle détermine la manière dont l’IA générative est mobilisée. Les modèles publics sont particulièrement adaptés à des usages larges tels que la génération de contenus, la synthèse, l’aide à la traduction ou les premières phases d’analyse, dans lesquelles des bases de connaissances étendues et des modèles généralistes accélèrent la production de résultats.

Lorsque les exigences se précisent, de nouveaux critères orientent le choix du modèle. Les modèles privés trouvent leur place dans des environnements marqués par des impératifs de traçabilité, une forte spécialisation métier ou une supervision réglementaire stricte. Ils permettent de maintenir une chaîne de responsabilité fiable autour de l’information et s’intègrent plus naturellement aux systèmes d’entreprise existants, fondés sur des journaux d’audit et une gestion contrôlée de la lignée des données.

À mesure que les usages se structurent, le Process Prompt Engineering s’impose comme un élément clé. Les interactions évoluent vers des instructions formalisées et intentionnelles, conçues pour s’aligner sur la logique métier et les exigences de conformité. L’IA générative cesse alors d’être une interface conversationnelle pour devenir une étape gouvernée au sein de workflows automatisés.

La structure de coûts comme facteur stratégique de long terme

La question des coûts s’impose dès que les usages montent en charge. Les modèles publics réduisent les barrières initiales, bien que leurs coûts récurrents, liés notamment à l’utilisation des API, aux sorties de données ou à la dépendance à des systèmes externes, puissent croître sensiblement dans le temps. Les modèles privés impliquent un investissement initial plus élevé, tandis que la concentration des traitements dans des environnements internes limite les dépendances externes et stabilise la planification financière sur le long terme.

Cette structure devient encore plus favorable lorsqu’elle s’articule avec des briques d’entreprise telles que des couches d’API sécurisées, des moteurs d’orchestration ou des plateformes d’intelligence des données. Ces ensembles facilitent des déploiements sur site ou hybrides tout en conservant un haut niveau de maîtrise de l’information et de cohérence de l’infrastructure. Dans ce contexte, le coût ne se mesure plus uniquement en termes financiers, mais s’apprécie au regard du niveau de contrôle, de la résilience et de la capacité d’évolution dans le temps.

Progressivement, le coût se transforme ainsi d’une contrainte en un paramètre stratégique, garantissant que l’IA générative puisse s’étendre sans fragiliser les opérations ni générer des schémas de dépenses imprévisibles.

Lorsque coûts, architecture et choix opérationnels interagissent, le rôle de l’IA générative se stabilise. L’architecture fixe le degré de contrôle et de confidentialité, la stratégie opérationnelle aligne les tâches avec le type de modèle approprié, et la structure de coûts assure la soutenabilité de ces décisions dans la durée. L’ensemble façonne un modèle de déploiement capable de fonctionner de manière fiable à grande échelle, en s’intégrant aux systèmes d’entreprise de façon prévisible et cohérente.

Dans cette configuration, l’IA générative quitte progressivement le registre de l’expérimentation pour devenir une capacité gouvernée, intégrée à l’environnement informationnel global.

*Par Michael Curry est President, Data Modernization Business Unit chez Rocket Software

The post { Tribune Expert } – Concevoir une IA générative stable, adaptée aux réalités opérationnelles appeared first on Silicon.fr.

IAWARDS 2025 : une première édition mémorable !

22 décembre 2025 à 10:34

Le 9 décembre dernier, à Paris, NetMedia Group a inauguré la première édition des IAWARDS. À travers une dizaine de catégories, ce nouvel événement a mis en lumière des initiatives démontrant de façon tangible l’impact de l’intelligence artificielle dans les métiers, avec une attention particulière portée aux fonctions achats et supply chain.

Imaginés comme un rendez-vous de valorisation et d’analyse des usages, les IAWARDS ont rassemblé l’écosystème IA et business autour d’un objectif commun : récompenser des projets déjà déployés au sein des organisations, capables de prouver leur valeur opérationnelle et leurs résultats concrets.

Soutenus par les 11 marques médias de NetMedia Group, dont Décision Achats, les prix ont embrassé un large éventail de fonctions, allant de l’e-commerce au marketing, en passant par la finance, l’IT, la relation client ou encore la performance commerciale.

𝐋𝐞𝐬 𝐈𝐀𝐖𝐀𝐑𝐃𝐒 𝐛𝐲 𝐍𝐄𝐓𝐌𝐄𝐃𝐈𝐀 𝐆𝐑𝐎𝐔𝐏, 𝐜’𝐞𝐬𝐭 :
✔ 𝐋𝐞𝐬 𝐦𝐞𝐢𝐥𝐥𝐞𝐮𝐫𝐞𝐬 𝐢𝐧𝐢𝐭𝐢𝐚𝐭𝐢𝐯𝐞𝐬 𝐈𝐀 𝐝𝐚𝐧𝐬 𝟕 𝐬𝐞𝐜𝐭𝐞𝐮𝐫𝐬 𝐜𝐥é𝐬 : marketing, e-commerce, finance, achats, relation client, IT, performance commerciale.
✔ 𝐔𝐧 𝐣𝐮𝐫𝐲 𝐝’𝐞𝐱𝐩𝐞𝐫𝐭𝐬 pour sélectionner les leaders qui font bouger les lignes.
✔ 𝐔𝐧𝐞 𝐬𝐨𝐢𝐫é𝐞 𝐩𝐨𝐮𝐫 𝐜é𝐥é𝐛𝐫𝐞𝐫 𝐥’𝐢𝐧𝐧𝐨𝐯𝐚𝐭𝐢𝐨𝐧… et celles et ceux qui la portent.

Composé de dirigeants, d’experts métiers et de professionnels de terrain, le jury a notamment salué la capacité des candidats à franchir le cap de l’expérimentation pour ancrer durablement l’intelligence artificielle au cœur des processus, au service de la performance, de l’efficacité opérationnelle et de la création de valeur.

Félicitations aux lauréats de cette première édition !

Marketing : performance & stratégie prédictive par l’IA
Or – MV Group
Argent – Actionable & OUIGO
Bronze – ADROI

E-commerce : Stratégie Data & IA appliquée au e-commerce
Or – Actionable & Carrefour
Argent – Botmind

 Relation Client : Agent augmenté & expérience omnicanale
Or – Concentrix & tiko Services
Argent – FLOA
Bronze – Botmind

Relation Client : Hyperpersonnalisation & prédiction client
Or – Concentrix & BUT
Argent – FLOA

Relation Client : Meilleur chatbot / voicebot IA
Or ex-aequo – FLOA
Or ex-aequo – ENGIE
Argent – Wildix

Finance : IA, automatisation & gestion des risques
Or – Micropole, a Talan company & CRÉDIT LOGEMENT
Argent – Sage

Achats : IA, Achats & Supply Chain
Or – Xometry
Argent – Legal by Process
Bronze – FREELANCEREPUBLIK & Jemmo

Tech & IT – Développement des compétences & acculturation à l’IA
Or – Micropole, a Talan company & Hexopée
Argent – Innov8learn & Reworld Media

Commerce : IA & optimisation de l’efficacité commerciale
Or – ENGIE & Hubicus
Argent – Cegid

Commerce : IA générative au service des supports de vente
Or – La Poste Solutions Business
Argent – Odigo

The post IAWARDS 2025 : une première édition mémorable ! appeared first on Silicon.fr.

IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie

18 décembre 2025 à 15:27

Quel est le prix à payer pour développer une politique nationale sur l’IA ? Alors que la France et l’Europe l’érigent en priorité stratégique, l’Autorité de la concurrence publie une étude sur son coût énergétique et environnemental, après son premier avis sur l’IA générative publié à l’été 2024.

Et le gendarme de la concurrence tire la sonnette d’alarme : la consommation électrique des centres de données pourrait représenter 4 % de la consommation nationale française dès 2035, tandis que les géants du secteur sécurisent déjà leurs approvisionnements en énergie, risquant de fausser le jeu concurrentiel.

Une consommation électrique qui pourrait doubler d’ici 2030

Les chiffres parlent d’eux-mêmes. Les centres de données représentent actuellement environ 1,5 % de la consommation mondiale d’électricité, mais leur impact local s’avère bien plus significatif. L’Autorité anticipe que leur consommation pourrait au moins doubler d’ici 2030 pour atteindre 945 TWh dans le monde.

En France, la situation est tout aussi préoccupante. La consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait grimper entre 12 et 20 TWh en 2030, puis entre 19 et 28 TWh en 2035, représentant près de 4 % de la consommation électrique nationale. Face à cette explosion, les grands acteurs américains multiplient déjà les partenariats pour sécuriser leur approvisionnement en énergie décarbonée, qu’il s’agisse d’énergies renouvelables ou du nucléaire.

Des ressources naturelles sous pression

Au-delà de l’électricité, l’impact environnemental de l’IA mobilise d’importantes ressources tout au long de la chaîne de valeur : eau, métaux rares et foncier. Selon l’Arcep, le volume d’eau prélevé par les centres de données a atteint 0,6 million de mètres cubes en 2023, avec une croissance annuelle soutenue de 17 % en 2022 et 19 % en 2023. À cette consommation directe s’ajoutent les prélèvements indirects liés à la production d’électricité, estimés à plus de 5,2 millions de mètres cubes par an.

Plusieurs acteurs du numérique ont d’ailleurs annoncé une forte augmentation de leurs émissions de gaz à effet de serre, allant de 30 à 50 %, résultant notamment de l’augmentation de la consommation énergétique de leurs centres de données.

Trois enjeux concurrentiels majeurs

L’Autorité identifie trois types d’enjeux concurrentiels découlant de cette situation.

Premier enjeu : l’accès à l’énergie et la maîtrise de son coût. Les acteurs du secteur sont confrontés à des difficultés de raccordement au réseau électrique et à des incertitudes sur le  prix de l’énergie. L’électricité représente entre 30 et 50 % des charges d’exploitation d’un centre de données, et le contexte énergétique est en pleine mutation, notamment avec la fin du dispositif ARENH au 31 décembre 2025.

Le nouveau système dual se met en place avec le versement nucléaire universel et les contrats d’allocation de long terme adossés à la production nucléaire proposés par EDF. L’Autorité se montre vigilante : elle veillera à ce que la position privilégiée des acteurs les plus importants ne leur permette pas de sécuriser des approvisionnements d’énergie dans des conditions avantageuses au détriment des plus petits. Elle rappelle également qu’EDF ne doit pas adopter de comportements anticoncurrentiels tels que la discrimination, le refus d’approvisionnement ou le verrouillage du marché.

Deuxième enjeu :  la frugalité comme paramètre de concurrence. Face à l’impact environnemental de l’IA, le concept de frugalité se développe, défini comme la consommation optimisée des ressources dans un objectif de minimisation de l’impact environnemental. Les demandeurs montrent un intérêt croissant pour des outils plus frugaux, tandis que plusieurs acteurs développent des modèles de plus petite taille ou communiquent sur leur empreinte environnementale.

L’Autorité considère que la frugalité peut contribuer à l’animation du jeu concurrentiel en affectant le prix, la qualité et l’innovation. Elle peut notamment permettre à des entreprises de taille plus modeste de rivaliser avec les grands acteurs. Toutefois, elle met en garde contre plusieurs risques : l’adoption de comportements trompeurs en termes de frugalité, le fait de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande, ou encore le fait de limiter l’innovation en matière de frugalité.

Troisième enjeu : la standardisation de l’empreinte environnementale. L’Autorité constate que les entreprises communiquent peu sur l’impact environnemental de leurs solutions, qu’il n’existe pas de méthodologie partagée et que les mesures entreprises sont difficilement comparables.

Plusieurs outils ont été développés, comme le référentiel général d’éco-conception des services numériques co-publié par l’Arcep et l’Arcom, ou encore le référentiel général pour l’IA frugale porté par l’Afnor. D’autres outils se concentrent sur la mesure de l’empreinte énergétique et carbone, tandis que certains acteurs proposent la mise en place d’une notation environnementale permettant de comparer les différents modèles.

Mais là encore, l’Autorité alerte sur plusieurs problématiques : l’adoption d’outils qui ne s’appuieraient pas sur une méthodologie robuste, l’adoption d’une standardisation privant certains acteurs de son bénéfice, les comportements empêchant la standardisation, ou encore les échanges entre concurrents portant sur des informations commercialement sensibles.

Elle insiste particulièrement sur la nécessité de disposer de données fiables et transparentes sur l’empreinte énergétique et environnementale de l’IA. Une transparence qui permettrait à la frugalité de pleinement jouer son rôle de paramètre de concurrence. Elle souligne également qu’il convient de s’assurer que l’accès aux zones adaptées à l’implantation de centres de données et à l’énergie, en particulier à l’électricité d’origine nucléaire, ne se fasse pas à l’avantage de certains acteurs uniquement.

The post IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie appeared first on Silicon.fr.

❌