«Qwen3-TTS is a series of powerful speech generation capabilities developed by Qwen, offering comprehensive support for voice clone, voice design, ultra-high-quality human-like speech generation, and natural language-based voice control.»
Dernière mise à jour le 22 janvier 2026 Créer des flashcards efficaces prend du temps. Je viens de tester un outil simple et gratuit qui va vous faire gagner beaucoup de temps de ce...
Pour faire tomber la barrière de la langue, il y a OpenAI.
ServiceNow présente les choses ainsi. En toile de fond, un accord sur 3 ans qui le verra, entre autres, exploiter GPT-5.2 pour développer des technologies de compréhension et de synthèse vocales. Au bout, nous promet-on, il y aura des agents multilingues qui fonctionneront sans passer par la modalité texte.
Les modèles GPT seront également mis à contribution sur la partie computer use (« agent utilisateur d’ordinateur »). En ligne de mire, notamment, l’orchestration des outils bureautiques et l’automatisation des systèmes hérités (ServiceNow évoque les mainframes).
Les modèles OpenAI, déjà bien ancrés dans ServiceNow
Dans la pratique, ServiceNow a déjà établi de multiples passerelles avec OpenAI.
Sur sa plate-forme, les fonctionnalités conversationnelles, génératives et agentiques sont majoritairement regroupées sous la marque Now Assist.
Les produits Now Assist s’installent comme des plug-in. Ils donnent accès à trois types de composantes : des skills génératives, des agents et des flux agentiques. Ces briques ciblent généralement un usage au sein d’une application. Par exemple, pour les skills, la génération de documentation sur la partie gestion du travail collaboratif. Pour les workflows agentiques, l’obtention de conseils de gouvernance dans la CMDB.
Certains flux agentiques opèrent au niveau de la plate-forme : enquêter sur des incidents, créer des tâches à partir d’images, proposer des réponses à un sondage…
Par défaut, Now Assist repose sur un service interne, qui associe des modèles maison spécialisés* et des modèles ouverts « sélectionnés, configurés ou améliorés par ServiceNow, sa communauté ou ses partenaires ».
Pour certaines skills, il est possible de basculer sur des fournisseurs alternatifs : Google (Gemini 2.5 Flash et 2.5 Pro), Anthropic (Claude 3.7 Sonnet sur Amazon Bedrock)… ou OpenAI (GPT-4.1 et GPT-4.1-mini sur Azure OpenAI).
Avec toute application est installé un « contrôleur d’IA générative ». Il permet d’interfacer des LLM externes par API, au niveau des concepteurs de flux, d’agents et de scripts. En standard, cela donne quatre possibilités :
Générer du texte à propos d’un topic ServiceNow
Résumer un topic
Créer un use case et un prompt associé
Faire de l’analyse de sentiment
Ce contrôleur fait la passerelle avec OpenAI et Azure OpenAI. Ainsi qu’avec Google, Aleph Alpha, Amazon (Bedrock) et IBM (watsonx). Il inclut aussi un connecteur générique.
* En tête de liste, un modèle 12B à usage général (création de flux, modération, écriture de code…) fondé sur Mistral Nemo Instruct.
Avec 132 magasins en France et 1 400 collaborateurs, Saint-Maclou fait face à des enjeux data complexes. Entre la gestion des ventes, du service de pose, de la logistique et des stocks, l’enseigne basée à Lezennes devait jongler avec de multiples sources de données dispersées. Un casse-tête qui freinait considérablement ses ambitions analytiques.
Un système legacy qui bride l’innovation
Le constat de départ était sans appel : le système décisionnel historique de Saint-Maclou reposait sur des flux développés et maintenus manuellement. Chaque nouveau projet d’analyse impliquait d’identifier précisément les bases sources, tables et colonnes pertinentes, puis de développer spécifiquement les flux d’alimentation nécessaires.
Cette approche générait une charge de développement et de maintenance considérable, particulièrement lors des évolutions. Les data engineers passaient l’essentiel de leur temps sur la collecte de données, au détriment des activités à réelle valeur ajoutée comme la transformation et l’analyse. Les coûts de licences s’accumulaient, les délais de projets s’allongeaient, et l’expérimentation sur des cas d’usage avancés ou d’intelligence artificielle devenait quasiment impossible.
« Charge de développement, charge de maintenance, charge d’astreinte, coût de licence pour l’outil… Notre façon de travailler générait auparavant d’importants coûts », explique Salmane Khamlichi, Responsable data chez Saint-Maclou.
Le virage vers le cloud et l’ELT
Pour sortir de cette impasse, Saint-Maclou a opté pour une refonte progressive de sa plateforme data, en basculant vers une architecture moderne sur le cloud. L’entreprise a d’abord déployé Snowflake comme base de données centrale, puis s’est posé la question cruciale de l’alimentation de cette nouvelle infrastructure.
Exit l’approche ETL (Extract Transform Load) classique. L’enseigne a retenu Fivetran pour sa compatibilité native avec Snowflake, sa robustesse validée lors d’un POC, et sa capacité à gérer de grandes bases SQL Server tout en connectant des sources critiques.
Aujourd’hui, Fivetran synchronise automatiquement les données d’une quinzaine de sources vers Snowflake, qu’elles soient hébergées on-premise ou dans le cloud : l’ERP Microsoft AX, les outils logistiques, les systèmes de vente et de gestion des stocks, ainsi que plusieurs sources marketing, dont le futur CRM Salesforce.
Avec cette approche ELT (Extract Load Transform), la phase de collecte ne constitue plus un goulot d’étranglement. Les données sont chargées brutes dans Snowflake, puis transformées selon les besoins métiers.
Des gains mesurables sur tous les plans
Les résultats sont spectaculaires. La collecte de nouvelles sources, qui prenait auparavant plusieurs jours voire plusieurs semaines, s’effectue désormais en quelques heures. Les projets restent dans un même sprint, évitant les allers-retours coûteux qui ralentissaient leur réalisation.
Côté ressources humaines, l’impact est tout aussi significatif. L’ingestion de données ne nécessite plus d’équivalent temps plein. Les data engineers se consacrent enfin aux opérations à forte valeur ajoutée : la transformation via DBT Core et l’exploitation intelligente des données. Les problématiques de maintenance sont devenues minimes.
La robustesse de la solution apporte également une tranquillité d’esprit appréciable. Les synchronisations sont stables et fiables, les évolutions des schémas sources n’entraînent pas d’interruption de service, et les équipes disposent de données actualisées et exploitables en toute confiance.
Autre bénéfice majeur : la centralisation. Là où les données étaient auparavant éparpillées dans de multiples applications métiers, elles sont désormais regroupées à 100% dans Snowflake. Cette vision unifiée permet d’envisager sereinement les futurs projets analytiques avancés et d’intelligence artificielle. L’équipe data travaille plus étroitement avec les équipes métiers (marketing, ventes, logistique) et gagne en réactivité.
Enfin, la plateforme Fivetran offre une maîtrise fine de la consommation et un monitoring précis des coûts liés aux projets data. « Cela nous permet notamment de travailler sur des sujets de prévision des ventes, d’intégrer rapidement de nouvelles sources pour enrichir les modèles et d’expérimenter à moindre coût de nouveaux cas d’usage data science », résume Salmane Khamlichi.
Terraform est efficace pour gérer de l’infrastructure ; pas des workflows data.
À force de s’en servir en conjonction avec Snowflake, Accor en est arrivé à ce constat. Entre absence de validation locale, gestion manuelle des dépendances et nécessité d’outils externes pour contrôler la qualité des données, la mise à l’échelle et la collaboration s’en trouvaient limitées.
Le groupe hôtelier a fini par basculer vers une stack associant dbt Core pour les transformations et un Airflow managé (Astro) pour l’orchestration, avec la bibliothèque Cosmos – proposée par le fournisseur d’Astro – pour faire la passerelle. Cette dernière déduit automatiquement le lignage des tâches et déclenche les contrôles de data quality immédiatement après la matérialisation d’une table ou d’une vue lors d’un dbt run.
Une déploiement Airflow « léger » qui rafraîchit uniquement les DAG
Le passage au tandem dbt-Airflow a impliqué un changement des pratiques de data engineering. Entre autres, passer d’étapes séparées pour la création et le peuplement de tables à une action unique utilisant exclusivement la commande SQL SELECT.
Chaque équipe possède son repo et déploie indépendamment. Tout part d’un template géré avec Copier. L’ensemble est réconcilié dans le projet principal, poussé vers Astro. Les scripts CI/CD sont centralisés dans un dépôt étiqueté.
Par défaut, Astro reconstruit l’image Docker à chaque modification. Le déploiement : dure alors environ 5 minutes. Il existe toutefois un mode « léger » dont Accor a tiré parti. Celui-ci synchronise simplement les DAG (graphes acycliques dirigés, représentant les tâches à exécuter) et évite ainsi un rebuild.
Pour exploiter ce mécanisme, le pipeline CI/CD place chaque projet dbt dans le répertoire dags/ du projet principal. Le déploiement dure alors environ 1 minute. Il couvre 95 % des exécutions. L’autre option reste utilisée pour l’upgrade des dépendances et les changements sur l’image de base (i.e. modification des fichiers include, requirements.txt ou Dockerfile).
Imbriquer chaque projet dbt dans le répertoire dags/ permet à Cosmo de générer automatiquement les tâches Airflow correspondantes. Et de construire des DAG sans intervention manuelle. Les tests peuvent se faire en local, avec dbt run et dbt test.
Accor vise un pipeline pour chaque équipe
Avec une telle configuration multilocataire, les cycles d’upgrade d’Airflow peuvent ralentir. Il n’y a, par ailleurs, pas moyen de prioriser des jobs. Et l’existence d’un seul chemin CI/CD vers la prod pose la question du point unique de défaillance, en plus des risques de conflit de noms et de bibliothèques.
Accor réfléchit donc à donner à chaque équipe son pipeline et à découpler la propriété du code. Tout en permettant l’hibernation des workflows à faible trafic.
Vous rêvez de lancer Claude sur un projet et de le laisser bosser tout seul pendant que vous faites autre chose, du genre jouer à Animal Crossing en attendant la fin de la journée ? Hé bien c'est exactement ce que propose Auto-Claude, un outil open source qui transforme l'assistant IA préféré des devs en armée de développeurs plus autonomes que votre mère quand il s'agit d'échanger un billet de train.
J'avais déjà parlé de
Claude Engineer
c'est vrai. C'est un framework CLI en Python qui permettait de faire bosser Claude en autonomie. Mais Auto-Claude, alalalala, c'est un autre délire les amis ! Déjà c'est une vraie application desktop avec interface graphique, tableau Kanban pour gérer vos tâches, et surtout... 12 terminaux qui peuvent tourner en parallèle. Oui, DOUZE agents Claude qui bossent simultanément sur votre code pendant que vous candy crushez pépouze dans les WC de votre entreprise.
Les terminaux d'Auto-Claude en action, chacun gérant un agent autonome
Le truc génial, c'est que chaque agent travaille dans son propre git worktree. Du coup, pas de conflit (de canard ^^ - J'ai pas pu résister désolé), pas de branches qui s'emmêlent, et chaque tâche est isolée proprement.
Puis quand c'est fini ? Hop, vous validez et ça merge parfaitement sans vous prendre la tête. Ce truc est fou !
Installation
Alors pour commencer, il vous faut un abonnement Claude Pro ou Max. Pas le choix...
Ensuite, installez Claude Code via npm si c'est pas déjà fait :
npm install -g @anthropic-ai/claude-code
Maintenant on clone Auto-Claude :
git clone https://github.com/AndyMik90/Auto-Claude.git
cd Auto-Claude
Et on installe les dépendances. L'outil gère à la fois le frontend Electron et le backend Python :
npm run install:all
Et c'est tout. Si si sérieux. Bon, là je vous l'ai fait en mode installe de barbu.e.s mais sachez aussi qu'il y a des binaires à télécharger directement pour Windows, macOS (Intel ou Silicon) et Linux (AppImage, deb ou flatpak).
Lancement et utilisation
Pour démarrer l'interface graphique, ensuite, c'est :
npm start
Une fenêtre s'ouvre avec le fameux tableau Kanban. Vous ajoutez vos tâches, vous les assignez aux agents disponibles, et c'est parti. Chaque terminal affiche en temps réel ce que fait son agent.
Le tableau Kanban pour orchestrer vos agents IA
Pour les fans de ligne de commande, y'a aussi un mode CLI :
python run.py --spec 001
Le numéro correspond à un fichier de spec dans le dossier specs/. Vous écrivez ce que vous voulez, et Auto-Claude s'occupe du reste.
Comment ça fonctionne ?
L'architecture est plutôt bien pensée puisque le frontend Electron communique avec un backend Python via WebSocket. Chaque agent a son propre processus isolé, sa propre branche git, son propre contexte.
Ainsi, quand vous lancez une tâche, Auto-Claude :
Crée un worktree git dédié
Lance un agent Claude Code dessus
Monitore l'avancement en temps réel
Gère le pipeline QA automatiquement
Le tout avec une interface qui vous permet de suivre 12 conversations en parallèle, soit de quoi bien jouer au chef d'orchestre si vous avez un gros projet à abattre.
Je commence à peine à découvrir l'outil et faut que je le ponce un peu plus pour voir ce que je peux faire avec ça, mais si vous êtes chaud bouillant comme moi sur ce genre de truc, je vous invite à tester l'autonomie IA poussée à fond avec Auto-Claude.
Le futur du jeu vidéo va être génial ! J'en suis convaincu !
Souvenez-vous, je vous avais parlé de
Voyager
, ce petit robot qui explorait Minecraft tout seul comme un grand grâce à GPT-4. Eh bien, l'équipe de MineDojo (avec des chercheurs de chez NVIDIA, Caltech et Stanford) ont remis le couvert avec un truc encore plus costaud : NitroGen.
Là où les anciens modèles tâtonnaient ou avaient besoin de lire des tonnes de texte, cette nouvelle IA se base uniquement sur ce qu'elle voit à l'écran. C'est un modèle "vision-action".
Schéma de fonctionnement du modèle NitroGen (
Source
)
En gros, elle regarde les pixels du jeu comme vous et moi, et elle en déduit sur quel bouton (virtuel) de gamepad appuyer pour ne pas finir en pâté pour castors sous cocaïne.
Pour en arriver là, les chercheurs armés de leur gros cerveaux n'ont pas fait les choses à moitié. Leur bousin a été entraîné sur un dataset colossal de 40 000 heures de gameplay piochées sur Internet (ouuuh ça a pératé youteub ^^), couvrant plus de 1 000 jeux différents.
De l'Action-RPG au jeu de plateforme, NitroGen a tout bouffé et ce qu'on obtient à la fin, c'est un agent IA encore plus énervé qu'un streamer Twitch de 15 ans. Cette bestiole est capable de s'adapter à des jeux qu'elle n'a jamais vus, moyennant un petit coup de "post-training" (affinage) pour qu'elle pige les spécificités du titre. On appelle ça le "behavior cloning" (ou apprentissage par imitation pour les intimes) mais à l'échelle d'Internet... Du coup, au lieu de devoir réapprendre chaque règle, l'IA pige les concepts visuels du jeu vidéo et se lance sans filet !
Graphique de la qualité des actions extraites par NitroGen (
Source
)
En termes de performances, les mecs annoncent même une amélioration relative de 52 % du taux de succès sur certaines tâches par rapport à un modèle qui partirait de zéro à chaque jeu.
C'est pas rien quand même et si vous voulez mettre les mains dans le cambouis, vous allez devoir d'abord sortir votre doigt du nez et ensuite aller récupérer le code, les poids du modèle (sur Hugging Face) et même le benchmark puisque tout est dispo et ouverts à la communauté. On n'est pas sur un produit de GAFAM fermé, mais bien sur un projet de recherche qui veut faire avancer les "embodied agents" (les agents incarnés, quoi... calmez vous les podologues).
Attention toutefois, "tout est dispo" ne veut pas dire que les jeux sont fournis, hein. Il faudra évidemment posséder vos propres copies de jeux Windows.
Après côté technique, l'installation exige Python 3.12 et un Windows 11 pour l'agent (même si le serveur d'inférence peut tourner sur Linux) et ensuite c'est du classique. On clone le dépôt, un petit coup de pip et hop hop hop, c'est cuit.
git clone https://github.com/MineDojo/NitroGen.git
cd NitroGen
pip install -e .
Vous pouvez après ça, télécharger le checkpoint et lancer l'agent sur vos titres préférés. Et contrairement à Voyager qui utilisait MineFlayer pour Minecraft, NitroGen pilote directement les exécutables Windows en simulant son propre gamepad. Elle est pas belle la vie ?
Si vous testez, vous verrez, on est encore un peu loin de l'IA qui met une pile à Gotaga mais la marche franchie est énorme déjà !
Alors vous en dites quoi ?? Prêt à laisser NitroGen farmer des ressources pendant que vous dormez en cachette comme un gros faible ?
Même le "travail inutile" (tout dépend de la dose) peut être... utile, car en s'ennuyant ou en étant confronté à des problèmes que l'on est créatif.
L'IA tue la créativité, mais c'est juste un argument supplémentaire, on le savait déjà. (Permalink)
Même le "travail inutile" (tout dépend de la dose) peut être... utile, car en s'ennuyant ou en étant confronté à des problèmes que l'on est créatif.
L'IA tue la créativité, mais c'est juste un argument supplémentaire, on le savait déjà. (Permalink)
Si vous aimez les globes 3D qui en jettent, j'ai un petit projet sympa à vous présenter. Ça s'appelle
TerraGuessr
et c'est Fred, un lecteur de longue date (coucou Fred !), qui m'a envoyé ça !
L'idée de Fred est assez géniale. Il propose d'utiliser un globe terrestre interactif pour visualiser la "déformation" du monde sous le poids des inégalités. En gros, au lieu de voir une sphère parfaite, vous voyez les continents s'étirer ou se contracter en fonction d'indicateurs comme la richesse, l'éducation ou encore la santé.
C'est ce que les profs de Géographie appellent un cartogramme en 3D. C'est hyper visuel et ça permet d'apprendre plein de choses !
Pour la petite histoire, Fred a codé tout ça... sans savoir coder au départ. Il a utilisé pour cela
l'éditeur Cursor
, Google AI Studio et ChatGPT. Et voilà, sa bonne idée s'est transformée avec un peu d'huile de coude et beaucoup de patience en ce site de carto incroyable.
L'interface de TerraGuessr - un globe 3D pour visualiser les data mondiales
Si vous allez sur son site, vous verrez concrètement comment ces outils d'IA tant critiqués permettent à des passionnés comme Fred et d'autres, de sortir des outils complexes qui n'auraient jamais vu le jour, hormis dans leurs rêves.
Et techniquement, ça envoie du bois puisque c'est basé sur Three.js. Fred s'appuie sur des sources de données sérieuses telles que la Banque Mondiale, Our World in Data et Gapminder. Et au final, il a réussi à mouliner tout ça pour nous proposer une expérience fluide et des stats enfin concrètes.
TerraGuessr propose plusieurs modes pour s'amuser (et s'instruire, du coup) :
Des quiz et des "stories" pour mieux comprendre les statistiques mondiales.
Un jeu "Ultimate Countries" pour deviner tous les pays du monde avec des niveaux de difficulté de débutant à légende.
Il propose même une API et un back-office à prix libre pour ceux qui veulent créer des quiz et des stories, tout ça connecté à LLM pour générer les textes. Le mec est fou !
Voilà, si vous avez déjà passé des heures à essayer de
devenir un pro à GeoGuessr
, vous allez adorer le concept sauf qu' au lieu de chercher un poteau électrique au fin fond de la toundra, vous allez vraiment apprendre des trucs sur l'état (catastrophique) de notre planète.
Le gars vient quand même de nous sortir une pépite au Forum de Davos qui m'a laissé sur le cul. Le patron de Microsoft, confortablement installé aux côtés de Larry Fink (le boss de BlackRock) a prévenu en totale détente le monde entier que le boom de l'IA risquait de se transformer en bulle... si les gens n'adoptaient pas assez vite l'intelligence artificielle.
Mais mort de lol.
Relisez bien cette phrase... Le mec qui a investi 14 milliards de dollars dans OpenAI nous explique aujourd'hui que si on n'achète pas son produit, ça va devenir une bulle. Un peu comme un dealer de coke qui vous dirait "achetez ma came, sinon je vais devoir arrêter d'en importer et vous n'aurez plus rien".
Un bon petit raisonnement en cercle comme on les aime... mdrrr.
Pour le coup, voici sa citation exacte, à savourer sans modération : "Pour que ça ne soit pas une bulle par définition, il faut que les bénéfices soient répartis de manière beaucoup plus équitable." Traduction pour gens comme moi qui comprennent vite si on leur explique longtemps : Actuellement, les seuls qui profitent vraiment de l'IA, ce sont les boîtes tech et si ça reste comme ça, le château de cartes va s'écrouler.
Le plus beau dans l'histoire, c'est que Microsoft n'est plus le fournisseur cloud exclusif d'OpenAI. Le partenariat a été restructuré fin octobre dernier et d'ici le début des années 2030, OpenAI pourra aller voir ailleurs. Du coup Nadella nous explique maintenant qu'il bosse aussi avec Anthropic et xAI, OKLM. Diversification, qu'il appelle ça.... Au secours.
Bref, on assiste à un moment assez incroyable, j'avoue, où des géants de la tech qui après avoir investi des milliards de milliards de milliards dans l'IA, commencent à flipper leur stock options que personne n'en veuille vraiment. Bah oui, le problème c'est que pour l'instant, à part
jouer avec ChatGPT
pour écrire des mails ou générer des images rigolotes,
la "révolution" se fait un peu attendre dans le monde réel
, c'est vrai.
Et maintenant ce serait à nous de sauver leurs investissements ?
"Quelle indignité" comme dirait notre Edmond Dantes des bac à sable...
Bonne nouvelle pour les fans d'IA (et mauvaise pour Google) ! Il semblerait que nos vieilles habitudes de recherche soient en train de changer... Du moins pour ceux qui ont déjà sauté le pas vers du payant.
C'est ce que suggère en tout cas une étude de Bango qui fait pas mal de bruit. Figurez-vous les amis que 72% des abonnés ChatGPT interrogés aux États-Unis ont paramétré en page d’accueil de leur browser le chatbot d'OpenAI.
Pour ces utilisateurs-là, Google n'est donc plus le point de départ automatique...
Après évidemment c'est juste un sondage et c'est "juste" 1400 users payants aux US (donc un public déjà conquis) qui ont répondu mais n'empêche, le signal est fort.
On est passé en quelques années de "Je cherche un truc -> j'en sais rien -> j'invente une réponse fausse mais crédible dans ma tête de boomer, que je vais ensuite répéter à tout le monde comme étant une vérité" à "Je cherche un truc -> Je tape dans Google -> Je scrolle 800 pubs -> J'ai ma réponse mais pas toujours le recul pour recouper l'info".
Et maintenant c'est "Je demande à l'IA -> J'ai la réponse officielle validée par les américains -> Je comprends rien -> elle m'explique comme si j'avais 5 ans et que j'étais trépané".
Hop, terminé !
Bon oui, j'abuse un peu mais vous me connaissez... L'étude montre aussi que 78% de ces mêmes utilisateurs ont installé le widget ChatGPT directement sur l'écran d'accueil de leur téléphone ou de leur tablette.
ChatGPT est devenu leur maison quoi.
Alors bien sûr, comme je vous le disais,
Google essaie de muscler son jeu avec Gemini
mais l'habitude est déjà prise pour beaucoup. On assiste à un vrai glissement vers le "AI-first" car les gens veulent une réponse et pas une liste de liens renvoyant vers des sites de merde faits par des référenceurs incapables.
D'ailleurs, 75% des sondés affirment aussi vouloir centraliser leurs tâches quotidiennes dans ChatGPT et 74% disent même qu'ils sont prêts à acheter des trucs directement via l'interface. ChatGPT est donc en train de devenir une sorte de super-app qui fait le café... Le rêve de Sam Altman de faire de ChatGPT l'OS de votre vie est peut-être bien en train de devenir une réalité.
Perso, je trouve ça assez dingue. Si vous êtes du genre à utiliser Google pour tout et n'importe quoi, préparez-vous donc au choc. Bien sûr, Google ne va pas disparaître demain matin mais pour les éditeurs de sites qui dépendent du trafic de recherche (pas mon cas, mon trafic est majoritairement du direct), ça promet quelques sueurs froides.
Bref, on n'arrête pas le progrès (ou la flemme, c'est selon) et reste à voir maintenant si cette tendance va se confirmer côté grand public ou rester un truc de niche pour les gens prêts à lâcher 20 balles par mois.
Infrastructures, licences, accès aux données, ingénierie… L’IA a des coûts évidents. Mais entre évolution des compétences, refonte des processus et gestion des risques, elle implique aussi des coûts cachés.
Ces derniers pourraient représenter une charge supplémentaire de l’ordre de 30 à 40 % des coûts génériques. Telle est en tout cas l’estimation d’IBM. Le Cigref y fait référence dans une note consacrée à l’évaluation du ROI des solutions d’IA générative et agentique.
Se concentrer sur l’utilisation du temps libéré
L’association mentionne une autre donnée chiffrée : les IA horizontales – les « assistants » – feraient gagner 50 minutes par jour à certains profils. Cela ne dit rien, néanmoins, de la manière dont ce temps libéré est utilisé.
Le Cigref appelle justement à se concentrer sur cet aspect. Il s’agit « que les gains de productivité d’aujourd’hui ne deviennent pas une fin en soi, mais le levier d’une compétitivité pour demain ». On distinguera, dans ce cadre, ce qui relève de la modernisation (efficience opérationnelle) et ce qui relève de la véritable transformation.
Dans cet esprit, des entreprises font la différence entre les hard savings (économies tangibles, mesurables dans un compte de résultat) et les soft savings (porteuses de gains futurs : réduction des erreurs, accélération des workflows…).
Entre arbres de valeur et suivi des nouvelles activités
Pour se focaliser sur la création de valeur rendue possible, le Cigref suggère l’approche « gestion de portefeuille ». Les cas d’usage n’y sont pas évalués isolément, mais au sein d’un ensemble équilibré d’initiatives, chacune ayant ses métriques de succès.
Concernant les actions de transformation prérequises (modernisation des logiciels, gouvernance des données, etc.), la métrique est le time-to-market pour de futurs cas d’usage, et la réduction des risques.
Pour les IA horizontales, des entreprises ont prévu de traiter l’enjeu de réallocation du temps par l’intermédiaire d’enquêtes qualitatives à propos de la nature des nouvelles activités.
L’une d’entre elles a décidé, pour les IA verticales, de coconstruire des arbres de création de valeur avec les métiers. L’objectif stratégique est décliné en leviers opérationnels sur lesquels l’IA peut agir. L’impact est ainsi mesuré sur des KPI existants.
Quelques éléments à intégrer dans l’évaluation des coûts et des bénéfices
Le Cigref distingue quatre catégories de coûts :
Liés aux IA (matériel, licences, ingénierie, intégration, services…)
Maintenance et supervision
Gestion des risques et des échecs
Transformation (modernisation de logiciels, refonte de processus métier, reskilling…)
Quatre catégories également pour ce qui est des éléments à prendre en compte dans l’estimation des bénéfices (opérationnels, organisationnels, stratégiques, financiers).
Sur le volet opérationnel, aux gains de productivité et à l’optimisation du temps d’implémentation s’ajoute la détection proactive des fraudes et des anomalies.
En matière organisationnelle, il y a l’exploitation et la valorisation des données (amélioration des modèles prédictifs, passage à l’échelle rendu possible…). Il y a aussi l’attractivité de l’organisation (mise en place de principes éthiques, engagement des employés…). La réduction du nombre d’outils par personne participant à un processus de décision fait partie des autres indicateurs pertinents.
Côté stratégique, le Cigref évoque, d’une part, l’expérience client (réduction du temps de réponse, personnalisation des interactions…). De l’autre, l’engagement et l’innovation (réduction du lead time, création de modèles économiques…).
La partie financière se partage entre génération de revenus (diminution du churn, optimisation du pricing…) et réduction des coûts et des risques.
L’ensemble peut être industrialisé en s’inspirant des modèles de centre d’excellence IA ou d’AI Factory. À condition notamment de définir des standards et de fournir des outils d’observabilité.
La contribution financière de l’UE à EuroHPC peut désormais officiellement dépasser les 4 Md€.
En toile de fond, l’élargissement des missions de cette coentreprise.
Établie en 2021, elle fut d’abord chargée de développer un réseau de supercalculateurs.
En 2024, son périmètre d’activité avait été étendu aux « fabriques d’IA » (AI Factories). Des entités définies comme fournissant des « supercalculateurs optimisés par l’IA », conçus « principalement pour entraîner des modèles d’IA à usage général et à grande échelle ainsi que des applications d’IA émergentes ».
Depuis quelques jours, ce périmètre englobe les « gigafabriques d’IA » (AI GigaFactories). Elles sont définies comme des installations « [dotées] d’une capacité suffisante pour gérer l’ensemble du cycle de vie […] de très grands modèles et applications d’IA ».
La Commission européenne avait ouvert la voie à cette extension des responsabilités d’EuroHPC en juin 2025. Les AI GigaFactories embarqueraient « plus de 100 000 puces avancées » (en équivalent H100), contre 25 000 pour les plus grandes AI Factories, avait-elle affirmé.
Dans ce contexte, la notion de consortium, présente à la marge en 2021 et précisée dans une certaine mesure en 2024, devient centrale. Avec elle arrive la notion de gigafabrique multisite, étendue sur un ou plusieurs pays mais fonctionnant en tout cas comme une « entité technique intégrée » – avec au moins un site « correspondant à l’échelle d’une GigaFactory ».
L’informatique quantique en filigrane
En parallèle, le développement d’un écosystème d’informatique quantique apparaît dans les missions, les objectifs et les piliers d’activité d’EuroHPC.
L’enveloppe financière dédiée à la coentreprise augmente en conséquence. Elle passe de 3 081 300 000 € à 4 122 300 000 €, à raison de :
760 000 € de plus sur le programme Horizon Europe (dont 160 k€ pour le quantique)
161 000 € sur le programme pour une Europe numérique
120 000 € sur le mécanisme pour l’interconnexion en Europe
Le soutien des piliers d’activité – administration exceptée – via d’autres programmes de l’UE reste possible.
Pour les AI Factories, l’UE finance jusqu’à la moitié des dépenses d’investissement et des coûts d’exploitation. Il en va de même pour les ordinateurs et les simulateurs quantiques. Mais pas pour les AI GigaFactories : c’est au maximum 17 % des CAPEX. Un ou plusieurs États participants doivent apporter un montant au minimum équivalent. Les investissements restants sont à la charge du consortium, tout comme l’entièreté des OPEX. Au cas où une AI Factory deviendrait une AI GigaFactory, le soutien financier reçu en première phase serait reporté sur la seconde (pas de cumul, donc).
* États membres de l’UE + Albanie, Islande, Israël, Macédoine du Nord, Moldavie, Monténégro, Royaume-Uni, Serbie, Suisse et Turquie.
Je trouve qu'il n'y a rien de plus idiot qu'un débat philosophique sur ce qu'est "vraiment" l'intelligence quand on a juste besoin que le boulot soit fait... J'en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d'intelligence des IA mais de mon point de vue, c'est vraiment perdre son temps que d'essayer d'évaluer ça.
Récemment, je suis tombé sur un billet de
Bertrand Meyer sur le Blog de CACM
qui met enfin des mots sur mon malaise... En fait il explique qu'il y a 2 grandes visions qui s'opposent concernant la définition de l'intelligence.
D'un côté, on a l'approche plutôt "européenne" où l'intelligence, c'est comprendre les choses, comprendre le monde, savoir expliquer le "pourquoi du comment". Et de l'autre côté, on a une vision plus "américaine" et pragmatique où l'intelligence c'est avant tout réussir à s'adapter et agir en conséquence avec succès.
En gros, ça veut dire que pour les ricains, si ça marche, c'est une preuve d'intelligence.
Et là, tout s'éclaire car l'IA d'aujourd'hui, nos chers LLM d'amour et autres réseaux neuronaux, correspondent parfaitement à cette seconde définition. En effet pour beaucoup de chercheurs, ces systèmes ne "comprennent" pas le monde au sens cognitif du terme mais réussissent quand même à donner très souvent les bonnes réponses et à trouver de bonnes solutions à tout un tas de problèmes.
Un peu comme
ces modèles médicaux de Google
capables d'aider les médecins dans leurs diagnostics... ça marche, c'est utile, et même si ça ne remplace pas (encore) l'expertise humaine (enfin sauf celle des internes ^^), c'est déjà génial !
Perso, je me positionne sur ça de manière un peu plus basique. Parce que je suis un mec basique... Je suis un techos, pas un marketeux ni un philosophe alors la seule question que je me pose finalement c'est "est-ce que ce que ça fait le taf" ?
Et surtout, est-ce que ce que l'IA produit c'est de qualité ?
Quand c'est du texte par exemple, mon premier critère c'est donc de savoir si l'information est juste. Ensuite c'est de savoir si c'est agréable à lire. Et enfin, est ce qu'on en retire quelque chose (un apprentissage, du fun, un élargissement de sa pensée) ?
Voilà c'est tout... et ça je l'applique aussi bien aux textes écrits par des humains qu'à ceux écrits par des algos.
Si ces 3 conditions ne sont pas remplies, c'est (pour moi, hein) de la merde. Et donc j'applique ces principes du mieux que je peux, aussi à ce que j'écris.
Je pourrais bien sûr ajouter d'autres critères du genre "Est ce que j'ai fait le tour de la question de manière encyclopédique ?" et "Est ce que en écrivant cela, je ne vais pas insécuriser un random qui va ensuite m'attaquer publiquement pour rassurer son égo auprès de sa communauté ?" mais bon, ici c'est pas Wikipédia et j'suis pas non plus le psy des gens qui détestent mon contenu mais viennent quand même me lire religieusement chaque jour. Donc j'avoue, je fais l'impasse... Ahaha.
Maintenant pour ceux qui se demandent encore comment définir l'intelligence artificielle, voyez plutôt ça comme un outil capable de "faire comme si" avec suffisamment de talent pour que l'expérience soit bluffante de réalisme. Un peu comme quand on regarde un super film avec de super acteurs... On sait qu'ils font semblant et pourtant on ressent de l'émotion. Bah là c'est pareil, l'illusion est douce et hormis certains cas pathologiques où ça pourrait être problématique, je ne vois pas ça comme un souci de se faire "illusionner" par un texte IA tant que mes 3 critères plus haut sont remplis.
Que ce soit du texte humain ou du texte IA, le résultat peut être perçu par un humain comme similaire si c'est bien fait. Faut pas non plus oublier que beaucoup d'humains ne savent pas s'exprimer correctement et encore moins structurer correctement leur pensée pour la mettre par écrit (et je ne vise personne, mais suivez mon regard vers les services de micro-blogging et autres commentaires Youtube... ^^).
Le point important, crucial même (et là je sors mon panneau "Achtung danger"), c'est que pour chaque texte produit par une IA, un humain devrait le relire, le corriger, et l'améliorer. S'en porter garant en fait, sinon, c'est juste du texte générique de qualité standard avec peu de valeur ajoutée (si ce n'est faire du résumé quoi...) et un fort risque d'hallucinations.
Et je sais que la mode du moment est au slop IA aussi bien dans les mails, les médias, les sites SEO, les discours officiels du gouvernement et j'en passe mais putain, passer un petit coup de vérif / polish manuel par-dessus, c'est pas la mer à boire et hop, on retrouve instantanément une âme dans l'article et cela peu importe que ça passe le détecteur IA ou pas... Ces machins là font principalement de la vérification en surface et
si vous écrivez trop parfaitement
ou si votre IA écrit trop dégueulasse, vous aurez du faux positif dans un sens ou dans l'autre.
Je pense donc qu'on s'en fout un peu de savoir si la machine a une âme ou si elle "comprend" réellement le sens de la vie (spoiler : ce n'est pas le cas). Moi, tant qu'elle m'aide à coder un script Python vite fait ou à préparer un super article pour vous sans que j'aie à me taper des tonnes de doc, ça me va.