Selon les relevés du Financial Times, dix jeunes entreprises d’intelligence artificielle non rentables ont vu leur valorisation combinée augmenter de près de 1 000 milliards $ au cours des douze derniers mois, un bond inédit qui ravive les inquiétudes d’une bulle spéculative sur les marchés privés du capital-risque.
Les jeunes entreprise les plus en vue, tels qu’OpenAI, Anthropic et xAI ont bénéficié de multiples revalorisations en 2024, portées par l’enthousiasme des investisseurs pour l’IA générative. D’autres acteurs, dont Databricks, Perplexity ou Figure AI, ont également profité de la vague d’investissements.
Une ruée sans précédent du capital-risque
Les fonds américains de capital-risque ont consacré environ 161 milliards $ à l’IA depuis le début de l’année, soit près des deux tiers de leurs investissements totaux, d’après les données de PitchBook citées par le FT. À ce rythme, les dépenses annuelles des investisseurs dans l’intelligence artificielle devraient dépasser 200 milliards $ en 2025, contre 135 milliards investis dans les start-up logicielles en 2021.
Cette concentration inédite des capitaux sur un nombre restreint d’acteurs fait craindre une surchauffe du marché. « Bien sûr qu’il y a une bulle », admet Hemant Taneja, directeur général du fonds General Catalyst. « Les bulles alignent le capital et le talent autour de nouvelles tendances. Elles provoquent des dégâts, mais elles font aussi émerger des entreprises durables qui changent le monde. »
Certains investisseurs estiment que les niveaux de valorisation actuels sont devenus difficilement justifiables. Le FT rapporte que des startup générant à peine 5 millions $ de revenus récurrents annuels (ARR) tutoient désormais des valorisations dépassant 500 millions $, soit des multiples de plus de 100 fois leurs revenus — bien au-delà des excès observés lors de la période de taux zéro.
Un capital-risqueur de la Silicon Valley cité par le quotidien finanacier souligne que le marché semble considérer « comme exceptionnelles des entreprises qui ne le sont pas ».
Des paris massifs, mais risqués
Malgré ces signaux d’exubérance, de nombreux acteurs du secteur continuent de parier sur le potentiel transformateur de l’IA. Marc Benioff, fondateur et directeur général de Salesforce, estime qu’un trillion de dollars d’investissements pourrait être perdu, mais que la valeur créée à long terme sera « dix fois supérieure ».
Cette effervescence dans le non coté a des effets directs sur les marchés publics. Le FT note que les actions de Nvidia, AMD, Broadcom ou Oracle ont gagné des centaines de milliards de dollars de capitalisation boursière à la suite d’accords conclus avec OpenAI. Toutefois, une remise en cause de la solvabilité de cette dernière pourrait inverser brutalement cette dynamique.
Trois ans après le lancement de ChatGPT, OpenAI génère environ 13 milliards $ de revenus annualisés, une croissance fulgurante pour une start-up. Mais la course à l’intelligence artificielle générale (AGI), qui oppose notamment OpenAI, Google et Meta, demeure extrêmement coûteuse et incertaine.
Pour l’auteur et spécialiste du capital-risque Sebastian Mallaby, cité par le FT , la logique des investisseurs se résume ainsi : « Si nous atteignons l’AGI, tout cela aura valu la peine ; sinon, non. »
À la tête de la stratégie technologique de la MAIF, Guillaume Rincé conduit une transformation en profondeur du système d’information du groupe mutualiste. Entre développement interne des logiciels, engagement fort en faveur de l’open source et réflexion sur la souveraineté numérique, il défend une vision responsable et maîtrisée du numérique.
Dans cet entretien, il revient sur la manière dont la MAIF conjugue innovation, indépendance technologique et valeurs mutualistes, de la gestion du cloud à l’usage raisonné de l’intelligence artificielle générative.
Silicon – Quel est votre périmètre d’activité en tant que CTO de la MAIF ? Guillaume Rincé – J’ai deux activités principales. D’abord, je définis la stratégie en matière de système d’information pour l’ensemble du groupe et de ses filiales. Ensuite, j’ai la responsabilité des activités technologiques du groupe. Nous fonctionnons de manière matricielle avec des équipages qui regroupent les grands métiers développeurs, ingénieurs, business analystes, designers, architectes, etc. Et puis nous avons des activités de « delivery » organisées en tribus, selon notre vocabulaire, qui correspondent aux différents domaines métiers de la MAIF : par exemple la tribu « Canaux et flux » ou la tribu « IARD Sinistres ».
J’anime les domaines technologiques et mon collègue Sébastien Agard s’occupe de toute la partie des livrables fonctionnels. Ensuite nous mélangeons nos équipes dans ces tribus qui sont constitués d’équipiers qui viennent des différents métiers du groupe pour réaliser les applications que nous mettons à disposition.
La MAIF est éditeur de ses propres logiciels ?
Oui, nous développons la majorité de nos applications en interne. Nous avons recruté plusieurs centaines de collaborateurs, dont beaucoup de développeurs, pour cela ces dernières années. Nous fonctionnons comme un éditeur de logiciels organisé pour produire nos propres solutions et les mettre en œuvre. Cela nous donne une maîtrise complète de la chaîne, que ce soit en termes de compétences, de ressources ou de processus, y compris le design, qui est clé pour améliorer l’expérience utilisateur.
Dans cette activité d’éditeur, vous vous appuyez beaucoup sur l’open source ? L’Open Source est une démarche naturelle pour la MAIF, en accord avec notre raison d’être qui est d’œuvrer pour le bien commun. Fabriquer des communs et les partager, c’est complètement en phase avec les valeurs du groupe. Quand je dis “open source”, je ne parle pas d’une techno de container habillée, fournie par un éditeur avec une politique de souscription fermée. Je parle de vraies distributions open source, véritablement libres.
Nous utilisons beaucoup de technologies à travers des Framework comme React ou des bases de données PostgreSQL.
Nous avons une dizaine de produits disponibles sur notre plateforme GitHub (http://maif.github.io), que d’autres peuvent intégrer dans leurs systèmes d’information. Par exemple, nous partageons un API management à l’état de l’art, que nous utilisons nous-mêmes à l’échelle du groupe. Nous le maintenons activement. Nous avons des utilisateurs dans la presse, dans la vente, et dans d’autres domaines, pas seulement en France, mais aux quatre coins du monde.
Nous partageons aussi des technologies de « Feature Flipping » pour activer du code à chaud,ou encore d’explicabilité des algorithmes d’IA et nous contribuons activement à des projets open source, notamment pour maintenir certains composants critiques. Nous avons des personnes qui s’investissent dans différentes technologies. Ce sont souvent des contributions aux « quick fixes ». Nous aimons soutenir des projets que nous utilisons, surtout ceux qui sont importants pour nos systèmes d’information mais qui sont portés par peu de personnes.
Chaque année, nous essayons de soutenir 2 à 3 projets par des dons en euros ou en aidant à financer une librairie. L’idée est de soutenir ceux qui créent ces composants utiles et dont nous bénéficions, en reversant une partie des économies que nous réalisons grâce à l’Open Source.
Comment se déroule l’identification des besoins, le développement et la production des applications ? L’objectif est que ce soit un sujet de toute l’entreprise, et non pas uniquement de la DSI.
Il faut pouvoir intégrer cette transformation au niveau des métiers qui interagissent avec nous. Dans notre organisation, plusieurs éléments structurent ce processus. Le premier, c’est ce que nous appelons le portefeuille stratégique d’initiatives. L’idée est simple : nous avons un certain nombre d’orientations stratégiques. Très souvent, derrière ces orientations, se cachent des sujets liés au système d’information, mais pas uniquement. Chaque orientation est portée par ce que nous appelons des leaders d’initiative qui travaillent avec les « business owners » des tribus pour construire le carnet de produits et les évolutions nécessaires à la réalisation de la stratégie.
Des arbitrages se font chaque année entre les différents portefeuilles stratégiques. Ensuite, les tribus organisent la réalisation et coordonnent les actions. Nous avons trois ou quatre « synchros à l’échelle » par an, où l’ensemble des collectifs se réajustent. Nous nous basons sur des principes forts d’agilité et de management par la confiance afin de responsabiliser l’ensemble des équipiers, quel que soit leur rôle, pour que chacun amène sa pierre à l’édifice. Les leaders de chaque feuille de route sont responsables de mener à bien les investissements, les « business owners » des tribus sont responsables de l’agencement dans leurs collectifs et les responsables de tribus s’assurent des livraisons et de la bonne coordination entre les squads produits.
Comment maintenez-vous votre patrimoine applicatif ?
Le maintien technologique à l’état de l’art, c’est quelque chose que nous avons introduit il y a maintenant cinq ans. Nous ne voulons plus de patrimoine qui traîne sans être maintenu, de versions qui ne sont pas à jour, de librairies ou de composants obsolètes sur nos plateformes.
Chaque année, notre patrimoine doit bénéficier d’un bon niveau de maintenance : mises à niveau, sécurité, correctifs…
“Aujourd’hui, il est vivant et a probablement 10 à 15 ans de cycle de vie devant lui. Je ne veux plus lancer des programmes ou projets, livrer un super produit, puis le laisser péricliter doucement pendant dix ans, alors qu’on a investi beaucoup au départ. Nous améliorons en continue les produits, tant sur le plan technique que fonctionnel, en tenant compte des feedbacks des utilisateurs. Pas des révolutions, mais des évolutions qui améliorent l’expérience. Cependant, il faut faire des choix, car nous ne pouvons pas tout faire et ça demande beaucoup de travail dans les collectifs. C’est une grosse partie de notre activité de run.
Quelle est votre politique sur le cloud ? MAIF a une Charte Numérique publique depuis 2016, dans laquelle nous nous engageons explicitement à garantir la protection des données de nos clients. Tous nos choix découlent de cet engagement.
Nous avons construit deux datacenters où nous hébergeons tout le « cœur de réacteur » et nos bases de données clients pour garder la maîtrise de nos données. C’est un investissement fort, un socle que nous voulons garder dans nos murs.
Quand nous utilisons le cloud, c’est plutôt pour des flux d’interaction, pour créer des parcours digitaux performants, des parcours mobiles, ou pour interagir avec des partenaires. Nous construisons des applications « stateless », ce qui signifie que les données ne sont pas stockées dans le cloud, en particulier s’il n’est pas souverain. Elles ne font qu’y transiter.
Par exemple, lorsque vous utilisez notre application mobile, vous pouvez transiter par le cloud ;
mais uniquement le temps de votre interaction.
Quelle est votre approche de la souveraineté technologique pour le cloud ?
Il y a 5 ans, nous avons choisi de travailler avec Microsoft Azure, dans un contexte où l’offre de Cloud, au sens des hyperscalers, était essentiellement américaine. Mais aujourd’hui, ce n’est plus suffisant. Nous sommes en train de réfléchir, comme d’autres grandes entreprises européennes, à nous tourner vers d’autres acteurs européens. Nous sommes en phase d’évaluation et je ne peux pas encore dire avec qui nous allons travailler.
Il y a deux ans encore, il n’y avait pas d’offre crédible à grande échelle, pas en matière d’hébergement, mais en termes de stack logiciel pour combiner les services entre eux. Nous avons désormais des véritables acteurs de cloud souverain européen en face des hyperscalers américains.
Ce que nous voulons, c’est pouvoir faire du cloud programmable dans toute sa complexité pour bénéficier d’une vraie richesse de services. Ce n’est pas juste une VM ou un « grand disque ». Ça, nous savons le faire nous-mêmes. Le vrai sujet, c’est d’avoir des fonctionnalités avancées pour développer, orchestrer, et faire tourner nos systèmes de manière fine.
Il y a aujourd’hui des acteurs qui font des technologies construites par de vrais ingénieurs européens, notamment en France. Ça change la donne. Nous espèrons intégrer cette capacité d’ici la fin de l’année, et ainsi disposer de fonctionnalités souveraines, en complément de ce que nous faisons déjà. C’est d’autant plus important avec la question de l’IA générative qui implique des traitements avec des capacités que nous ne pouvons pas forcément intégrer dans nos datacenters, à cause du coût et de la rapidité d’évolution.
Pour faire du génératif, nous aurons besoin d’infrastructures cloud, mais toujours dans des environnements dont nous pouvons garantir la souveraineté, avec un niveau de sécurité équivalent à celui de nos datacenters. Doter notre infrastructure de cette capacité nous permettra de mettre en œuvre du génératif beaucoup plus confortablement, tout en respectant pleinement nos engagements. Et ça, c’est essentiel.
Le Cigref dénonce régulièrement l’inflation des coûts services de cloud et des logiciels. Quel est votre avis sur le sujet ? En ce qui concerne les coûts du cloud, je suis assez serein. Les acteurs américains sont en forte compétition en dehors des États-Unis, notamment en Europe, ce qui garantit des tarifs relativement stables. Pour moi, il n’y a pas de différence majeure de coût entre le cloud et un datacenter interne bien géré. C’est le seul marché, avec l’IA générative, où il y a une vraie compétition.
En revanche, là où nous sommes très concernés, c’est par les politiques commerciales des éditeurs de logiciels américains. La liste est longue…Nous faisons face à des politiques commerciales qui n’ont aucun sens, avec des augmentations tarifaires justifiées par des discours marketing, mais qui ne reflètent en réalité qu’une stratégie financière pure.
Le but ? Créer un effet de levier pour pousser les clients à migrer vers le cloud, avec de nouvelles souscriptions sur des différents périmètres. Derrière, le calcul est simple : je double, voire triple mes tarifs. Les clients qui n’ont pas encore beaucoup investi peuvent partir facilement. Mais 70 % sont verrouillés, car il leur faudrait cinq ans pour sortir. Or, ils ont d’autres priorités et sont pris par leurs projets, alors ils restent.
Cela nous choque profondément dans le groupe MAIF : nous sommes une mutuelle, ce que nous payons est directement issu de l’argent de nos sociétaires.
Pour moi, la vraie menace aujourd’hui pour les entreprises européennes, ce n’est pas tant la souveraineté technologique au sens des infrastructure, c’est plutôt cette dépendance aux éditeurs. Nous nous faisons clairement matraquer. Parfois, c’est presque du racket, il faut le dire.
De plus, en tant qu’entreprise mutualiste, nous avons une volonté de soutenir l’économie européenne. Nos achats européens permettent de faire circuler l’argent au sein de l’écosystème européen. Nous cherchons à faire des choix responsables qui développent l’économie de notre écosystème et créent de la richesse en Europe, qui in fine bénéficie à nos clients et concitoyens. Au-delà des craintes géopolitiques, les entreprises doivent aussi faire des choix responsables pour soutenir l’économie.
Vous allez donc pousser plus loin votre stratégie d’éditeur interne ? Oui. C’est un choix stratégique d’investir dans des hommes et des femmes qui ont les compétences ou qui peuvent les acquérir. Je préfère payer des salaires, renforcer mes équipes,
plutôt que de payer des licences tous les mois, avec la promesse floue que “ça marche tout seul”. Nous, nous ne sommes pas du tout dans cette logique de “cloud as a service magique”.
Le cloud, c’est de la technologie. Et la technologie, ça tombe en panne. Nous faisons le même métier, avec les mêmes outils. Ils ne sont ni meilleurs, ni moins bons que nous. Je pense qu’il faut vraiment démystifier ça.
Ce que nous essayons de faire, c’est de fonctionner de la même manière, parce qu’il y a beaucoup à apprendre de leurs modèles opérationnels. Une des questions que nous nous posons, c’est : « Est-ce que nous professionnalisons encore plus notre logique d’éditeur en interne ? Avec une équipe qui fabrique les logiciels, une qui les met en production et une qui les opère » On pourrait imaginer aller jusque-là.
Comment abordez-vous le sujet de l’IA générative ? Quels sont les cas d’usage que vous avez identifiés ?
Nous essayons de ne pas nous laisser emporter par la hype même si la médiatisation est très forte, dans un sens comme dans l’autre. Nous avons voulu prendre le sujet à bras-le-corps, comprendre ce que c’était, et surtout voir ce que ça pourrait changer dans nos métiers. Nous avons commencé à travailler il y a plus d’un an. À ce stade, nous avons identifié deux priorités. Notre objectif a été de les expérimenter, puis de commencer à les mettre en production.
Le premier sujet, pas très original, c’est la question du soutien à l’activité, notamment l’accès à la connaissance en langage naturel. Ces cas fonctionnent assez bien, mais ils ne sont pas simples à mettre en œuvre si on veut de la pertinence. Parce que dans toutes les entreprises, nous avons des bases de connaissances de qualité variable, souvent avec beaucoup d’historique qu’on ne nettoie quasiment jamais. Si on embarque tout ça sans tri, l’IA mélange tout et produit des résultats peu fiables.
Donc le gros enjeu de ces premiers cas d’usage, c’est l’investissement dans le toilettage des données. Et quand la donnée est propre, on a de très bons résultats. Aujourd’hui, nous avons déployé ça sur plusieurs métiers via un assistant en langage naturel mis à disposition des utilisateurs. Nous avons deux cas d’usage majeurs en production : l’assistance aux méters de la gestion de sinistres et l’assistance aux utilisateurs de la digital workplace, incluant les informations autour de la migration vers Windows 11.
Par ailleurs, nous fournissons à tous les développeurs qui le souhaitent des licences Copilot pour qu’ils puissent coder avec l’IA et voir ce que ça change au quotidien.
Ce qui est essentiel, c’est de maintenir un dialogue fort entre ce que propose l’IA et les pratiques attendues dans l’entreprise.
Aujourd’hui, les usages sont majoritairement liés au soutien à certains métiers, comme prochainement les équipes juridiques, où l’enjeu est fort, avec beaucoup de documentation et de jurisprudence, donc une forte valeur ajoutée. Au fond, notre objectif est de redonner du temps aux métiers pour qu’ils se recentrent sur leur vraie valeur ajoutée.
Quels sont vos points d’attention ?
Il y a beaucoup de questions sur la dimension énergétique et la consommation des modèles, c’est un sujet auquel nous sommes attentifs et qui prendra tout son sens pour les cas d’usages qui vont trouver leur place pérenne en production.
L’autre gros sujet, c’est l’accompagnement au changement. C’est exactement la même chose qu’on vit dans le grand public : est-ce que vous avez réussi aujourd’hui à ne plus utiliser votre moteur de recherche favori et à commencer d’abord par une IA générative ? Souvent, on se rend compte que nous sommes tellement conditionnés qu’on commence par notre moteur de recherche traditionnel puis on se dit qu’on pourrait quand même essayer l’IA. C’est la même chose dans l’entreprise : nos collègues ont tendance à aller vers leur base de connaissances. L’adoption se fait sur 6 à 12 mois, parce qu’il faut déconstruire des pratiques bien ancrées.
Les produits ne sont pas complexes, mais ils ne sont pas simples à designer. Nous sommes arrivés à la conclusion qu’il fallait vraiment un accompagnement qui vient du terrain, avec les équipes terrain.
Autre sujet : on parle aussi de technologies qui sont moins européennes. Ce qui pose une vraie préoccupation parce qu’il faut interagir avec les clients, sous différentes formes, et cela passe par la culture. La culture européenne, et plus encore la langue française, ne sont pas bien représentées dans les données d’entraînement : 99 % des données utilisées viennent des cultures anglo-saxonnes, avec leurs biais politiques ou idéologiques. Nous voulons donc soutenir et encourager des initiatives pour entraîner des modèles sur la culture européenne et les langues européennes, surtout le français, pour avoir par exemple des courriers qui reprennent nos éléments culturels au lieu d’être de simples traductions Nous y sommes très attentifs.
A côté de Mistral et de sa dernière levée de fonds stratosphérique, c’est l’autre champion de l’écosystème IA européen. Son nom : Nscale. En moins d’un mois, la pépite britannique, qui va fêter ses deux ans, a levé 1,533 milliard $ pour conquérir s’imposer dans l’infrastructure dédiée à l’intelligence artificielle.
Son ambition : devenir un hyperscaler spécialisé dans l’IA, offrant des centres de données complets intégrant puissance de calcul, stockage, réseau et logiciels de gestion, capables de supporter les applications IA les plus exigeantes tout en assurant la souveraineté des données.
Depuis le début de l’année, la startup multiplie les gros contrats avec les géants de la Tech.
Partie prenante du projet Stargate, versant européen, Nscale exploite un campus hyperscale à Narvik en Norvège, développé en partenariat avec Aker ASA, un groupe norvégien spécialisé dans l’ingénierie et l’énergie, et aligné sur les besoins d’OpenAI. Ce site fournit déjà 52 000 GPU à Microsoft dans le cadre d’un contrat pluriannuel.
Big deal de 14 milliards $ avec Microsoft
Dernier en date, celui signé avec Microsoft. La transaction pourrait générer jusqu’à 14 milliards $ de revenus selon le Financial Times. Dans le détail, Nscale fournira environ 104 000 GPU NVIDIA GB300 sur un campus d’IA hyperscale d’environ 240 MW situé au Texas, permettant le déploiement progressif des services d’infrastructure IA de NVIDIA pour Microsoft à partir du troisième trimestre 2026. Le site, actuellement loué à Ionic Digital, pourra voir sa capacité étendue progressivement jusqu’à 1,2 GW, Microsoft disposant d’une option pour une seconde phase de 700 MW à partir de fin 2027.
Au Portugal, Nscale commencera, dès le premier trimestre 2026, à fournir environ 12 600 GPU NVIDIA GB300 au centre de données Start Campus de Sines. Cet accord pluriannuel permettra à Microsoft de bénéficier de services d’infrastructure IA NVIDIA tout en offrant aux clients européens des solutions d’IA souveraines au sein de l’Union européenne.
Parallèlement, cet accord complète le projet annoncé en septembre dernier par Nscale et Microsoft visant à déployer le plus grand supercalculateur IA NVIDIA du Royaume-Uni sur le campus d’IA de Nscale à Loughton. Cette installation de 50 MW, extensible à 90 MW, accueillera environ 23 000 GPU NVIDIA GB300 à partir du premier trimestre 2027, afin de soutenir les services Microsoft Azure.
« Cet accord confirme la place de Nscale comme partenaire de choix pour les plus grands leaders technologiques mondiaux. Peu d’entreprises sont équipées pour déployer des GPU à cette échelle, mais nous possédons l’expérience et le pipeline mondial nécessaires. » se réjouit son CEO et fondateur Josh Payne.
Les levées de fonds de Nscale depuis sa création en 2023
Date
Montant levé
Type de financement
Investisseurs principaux
Objectif / Remarques
Décembre 2023
30 M$
Seed
Non divulgué
Lancement et premiers développements des infrastructures IA.
Décembre 2024
155 M$
Série A
Sandton Capital Partners, Kestrel 0x1, Blue Sky Capital, Florence Capital
Expansion en Europe et Amérique du Nord pour infrastructures IA.
OpenAI a officialisé un partenariat stratégique avec Broadcom pour concevoir et produire ses propres processeurs d’intelligence artificielle. L’information avait été révélé par la presse en septembre.
Selon le communiqué commun, OpenAI concevra ses propres accélérateurs IA, tandis que Broadcom assurera le développement, la production et l’intégration des systèmes matériels. Les deux entreprises co-développeront des « racks » complets combinant les puces OpenAI et les solutions réseau, optiques et PCIe de Broadcom.
Le déploiement commencera au second semestre 2026, pour une mise en service progressive jusqu’à fin 2029. L’objectif est d’atteindre une capacité totale de 10 gigawatts d’accélérateurs, soit une puissance comparable à la consommation électrique de plus de 8 millions de foyers américains.
La course aux infrastructures IA
OpenAI indique vouloir intégrer dans ces puces « les enseignements tirés du développement de ses modèles », afin d’optimiser les performances et l’efficacité énergétique de ses futurs systèmes. Cette approche illustre la volonté de l’entreprise de maîtriser l’ensemble de la chaîne technologique, du modèle logiciel jusqu’à l’infrastructure matérielle.
Avec Broadcom, OpenAI franchit une nouvelle étape en internalisant la conception de puces, rejoignant ainsi les géants du cloud tels que Google (Alphabet), Amazon ou Microsoft, qui ont développé leurs propres architectures (TPU, Graviton, Maia, etc.).
Cependant, cette stratégie reste incertaine. Plusieurs entreprises — dont Meta ou Microsoft — ont rencontré des difficultés techniques ou des retards dans la mise au point de leurs puces, sans parvenir à égaler les performances des GPU Nvidia. Les analystes estiment que la domination de Nvidia sur le marché de l’IA ne devrait pas être remise en cause à court terme.
Le communiqué précise que les systèmes développés pour OpenAI s’appuieront exclusivement sur les technologies réseau Ethernet de Broadcom, une alternative à la solution InfiniBand de Nvidia. En septembre, Broadcom avait déjà révélé une commande de 10 milliards de dollars pour des puces IA destinées à un client anonyme, que plusieurs analystes soupçonnaient être OpenAI.
Une opération sans détails financiers
Ni OpenAI ni Broadcom n’ont divulgué le montant de l’investissement ni les modalités de financement. Le projet représente toutefois une montée en échelle considérable, impliquant la construction ou la modernisation de vastes infrastructures de calcul et de stockage d’énergie.
L’alliance permet à l’inventeur de ChatGPT de sécuriser sa puissance de calcul face à la pénurie mondiale de GPU, tout en optimisant les coûts par requête grâce à une intégration directe entre matériel et logiciel.
Si le succès du projet dépendra de la capacité des deux partenaires à livrer à temps des systèmes compétitifs et fiables, il confirme la tendance de fond : l’intelligence artificielle de prochaine génération reposera autant sur les avancées logicielles que sur la maîtrise de la puissance matérielle.
Avant Broadcom, OpenAI a conclu une série d’accords majeurs ces derniers mois, incluant un deal avec AMD pour la fourniture de 6 GW de capacités IA accompagné d’une option d’investissement dans le capital du fabricant, ainsi qu’un engagement de Nvidia, annoncé début octobre, d’investir jusqu’à 100 milliards $ et de fournir des systèmes de centres de données d’une puissance équivalente à 10 GW.
Mercredi 8 octobre 2025, Jaguar Land Rover (JLR) a enfin pu reprendre sa production de véhicules au Royaume-Uni, tournant la page d’une cyberattaque dévastatrice qui aura paralysé le groupe pendant plus de six semaines. Les employés sont d’abord retournés à l’usine de production de moteurs de Wolverhampton ainsi qu’aux ateliers de découpage de Castle Bromwich, Halewood et Solihull.
Cette reprise demeure toutefois progressive. D’ici la fin de la semaine, le constructeur prévoit de redémarrer les chaînes de production des Range Rover et Range Rover Sport dans son site de Solihull. Les activités de fabrication en Slovaquie devraient suivre le même calendrier.
« Je tiens à remercier tous les collaborateurs de JLR pour leur engagement, leur travail acharné et les efforts déployés ces dernières semaines pour nous permettre d’en arriver là. Nous savons qu’il reste encore beaucoup à faire, mais notre reprise est bien engagée », s’est félicité le directeur général Adrian Mardell, exprimant le soulagement manifeste de toute la filière automobile britannique.
Un week-end qui a tout changé
L’incident s’est produit le week-end du 31 août, lorsque les systèmes de surveillance interne de JLR ont détecté un accès non autorisé à des infrastructures critiques. Dans une décision saluée par les experts en cybersécurité, l’entreprise a immédiatement mis hors ligne l’ensemble de ses systèmes pour limiter l’infiltration et prévenir un vol de données massif.
« Nous avons pris des mesures immédiates pour atténuer l’impact en fermant de manière proactive nos systèmes », a déclaré JLR dans sa communication officielle. « Nous travaillons maintenant à pleine vitesse pour redémarrer nos applications mondiales de manière contrôlée.»
Le timing ne pouvait être pire : l’attaque a coïncidé avec la sortie des nouvelles plaques d’immatriculation britanniques du 1er septembre, traditionnellement l’un des mois les plus importants pour les ventes automobiles au Royaume-Uni. Les conséquences ont été immédiates et brutales.
Les quatre grandes usines britanniques – Halewood (Merseyside), Solihull (West Midlands), Wolverhampton et Castle Bromwich – ont cessé leurs activités. Les opérations internationales en Slovaquie, en Chine, en Inde et au Brésil ont été également paralysées, créant un arrêt total de la production mondiale.
Le collectif « Scattered Lapsus$ Hunters » revendique l’attaque
La responsabilité de cette attaque a été revendiquée par un collectif de hackers appelé « Scattered Lapsus$ Hunters » (SLSH), un nom qui, selon les experts en cybersécurité, représente une fusion sans précédent de trois groupes cybercriminels notoires : Scattered Spider, Lapsus$ et ShinyHunters, les mêmes qui sévissent actuellement contre Red Hat et Salesforce.
La BBC a rapporté les revendications du groupe après avoir reçu des communications directes via des plateformes de messagerie cryptées. Pour prouver leur intrusion, les hackers ont partagé des captures d’écran prétendument prises depuis les réseaux informatiques internes de JLR, notamment des instructions de dépannage pour les systèmes de recharge des véhicules et des journaux informatiques internes.
SLSH n’en est pas à son coup d’essai. En mai dernier, des composantes de ce groupe ont été responsables d’attaques dévastatrices contre les géants de la distribution Marks & Spencer, Co-op et Harrods. L’attaque contre M&S, en particulier, avait causé une perte de 300 millions de livres (£) et perturbé les opérations pendant plus de quatre mois, fournissant un précédent inquiétant pour la durée potentielle de l’incident JLR.
Et aussi de son coût vertigineux. Sur la durée totale de l’arrêt des unités de production, les pertes hebdomadaires ont atteint 50 millions de livres sterling (environ 57 millions €).
L’impact humain a été tout aussi sévère. Environ 33 000 employés de JLR au Royaume-Uni ont été contraints de rester chez eux, les ouvriers de production recevant leur salaire complet pendant la perturbation. Mais au-delà de la main-d’œuvre directe de JLR, ce sont quelque 6 000 travailleurs des partenaires de la chaîne d’approvisionnement qui ont été temporairement licenciés en raison de l’arrêt de production.
Au-delà de la production, l’attaque a également perturbé les fonctions commerciales. Les concessionnaires à travers le Royaume-Uni n’ont pas pu immatriculer de nouveaux véhicules , empêchant effectivement la vente de voitures déjà terminées. Les garages de réparation et centres de service ont été contraints de revenir aux catalogues imprimés et aux systèmes manuels après avoir perdu l’accès au système électronique de commande de pièces de JLR.
L’industrie automobile, cible privilégiée des cybercriminels
L’attaque contre JLR s’inscrit dans une tendance inquiétante de cyberattaques ciblant l’industrie automobile mondiale. Les chercheurs en sécurité ont documenté plus de 735 incidents de cybersécurité significatifs visant directement des entreprises automobiles depuis 2023, le secteur ayant connu plus de 100 attaques par ransomware et 200 violations de données en 2024 seulement. Cela fait de la fabrication automobile l’industrie la plus attaquée au niveau mondial.
Parmi les incidents majeurs récents figurent l’attaque par ransomware BlackSuit contre CDK Global en juin 2024, qui a paralysé les systèmes logiciels utilisés par plus de 15 000 concessionnaires automobiles en Amérique du Nord. CDK aurait payé une rançon de 25 millions $ pour restaurer les services, avec des pertes totales d’interruption d’activité estimées à 1 milliard $.
La gravité de la cyberattaque a mobilisé la National Cyber Security Centre (NCSC) britannique : « Nous travaillons avec Jaguar Land Rover pour fournir un soutien en relation avec un incident.» Les forces de l’ordre, y compris la National Crime Agency, mènent une enquête approfondie sur la violation.
Une reprise prudente et méthodique
Les efforts de récupération de JLR ont été compliqués par la nécessité d’équilibrer rapidité et sécurité, en s’assurant que les systèmes ne sont pas seulement restaurés mais également correctement sécurisés contre de futures attaques. Des experts en cybersécurité ont salué l’approche méthodique de JLR, notant que se précipiter pour restaurer les systèmes sans validation de sécurité appropriée pourrait laisser l’entreprise vulnérable à des prochaines attaques.
Le retour à une production normale prendra encore du temps. Si le redémarrage progressif des usines marque un tournant encourageant, les équipes de JLR poursuivent leur enquête forensique et travaillent à renforcer leurs systèmes pour éviter qu’un tel scénario ne se reproduise. Pour le fleuron de l’automobile britannique, la priorité est désormais de rattraper le retard accumulé tout en restaurant la confiance de ses clients, employés et partenaires commerciaux dans sa capacité à protéger ses opérations contre des acteurs malveillants toujours plus audacieux.
Des questions se posent aussi sur les investissements en cybersécurité de JLR, malgré des dépenses importantes en transformation numérique. En 2023, l’entreprise avait signé un contrat de cinq ans d’une valeur de 800 millions de livres avec Tata Consultancy Services (TCS) pour fournir un soutien en cybersécurité et informatique.
Face à l’ampleur de la catastrophe, le gouvernement britannique a accordé une garantie de prêt de 1,5 milliard de livres sterling (environ 1,7 milliard €) visant à préserver l’avenir du constructeur et de toute la filière automobile. Jaguar Land Rover a également obtenu une ligne de crédit d’urgence de 2 milliards de livres sterling (environ 2,3 milliards €) auprès d’un consortium bancaire.
Conscient des difficultés financières de ses partenaires durant cette longue interruption, le constructeur a par ailleurs préparé un plan de soutien de 500 millions de livres sterling (environ 576 millions d’euros) destiné à ses principaux fournisseurs.
Le développement de l’IA est-il compatible avec la protection de l’environnement. En l’état, on sait à force de d’études et de projections, que la réponse est négative.
Entre promesses d’innovation et réalité de l’empreinte carbone, Le Shift Project, aka « Le think tank de la décarbonation de l’économie », en remet une couche pour alerter sur une trajectoire insoutenable.
Selon son rapport * fraichement publié , les centres de données mondiaux suivent une trajectoire énergétique et climatique alarmante. Sans changement majeur, leurs émissions de gaz à effet de serre pourraient atteindre entre 630 et 920 MtCO₂e en 2030, soit jusqu’à deux fois les émissions totales de la France. Cette augmentation représenterait 2,5 fois les émissions de 2020, avec un taux de croissance annuel de 9%.
La consommation électrique des centres de données est passée de 120 TWh en 2005 à 420 TWh en 2024. Les projections indiquent qu’elle pourrait atteindre 1 250 à 1 500 TWh en 2030, soit une multiplication par 2,3 à 2,8 en sept ans.
Une croissance accélérée qui rend caduque l’objectif climatique affiché par du secteur : une réduction de 45% des émissions entre 2020 et 2030.
L’IA générative, moteur principal de la demande
L’l’IA générative est le facteur déterminant de cette explosion énergétique. Entre 2025 et 2030, elle pourrait représenter jusqu’à 94% de la consommation électrique de l’IA, contre 62% en 2025. La phase d’inférence (utilisation des modèles) compte pour 47 points de cette augmentation.
Selon les données du Shift Project, les modèles d’IA générative consomment entre 50 et 25 000 fois plus d’énergie que les modèles d’apprentissage traditionnels pour une tâche équivalente. Par exemple, la génération d’images nécessite 50 à 100 fois plus d’énergie que la génération de texte.
Un recours massif aux énergies fossiles
Face à la rapidité de la demande, les acteurs de l’IA – éditeurs de LLM et fournisseurs d’infrastructures – se tournent vers les combustibles fossiles. Aux États-Unis, 85 installations de production d’électricité au gaz sont en développement pour les centres de données. Le centre Colossus de xAI dispose de 400 MW de générateurs au gaz naturel, tandis que Meta prévoit trois centrales à gaz totalisant 2,3 GW.
Les réseaux électriques du sud-est des États-Unis planifient l’ajout de 20 GW de capacités au gaz naturel, représentant jusqu’à 80 MtCO₂e d’émissions annuelles. Entre 2024 et 2030, l’Agence internationale de l’énergie estime que 3,3 GW de gaz et 1,5 GW de charbon seront ajoutés annuellement pour alimenter les centres de données.
L’Europe et la France sous pression
En Europe, la consommation électrique des centres de données pourrait passer de 97 TWh en 2023 à 165-200 TWh en 2030, représentant environ 7,5% de la production d’électricité européenne en 2035. Cette augmentation de plus de 200 TWh équivaut à la moitié de la réduction prévue de la production d’électricité à partir de gaz.
L’Irlande illustre concrètement cette tension : les centres de données y consomment déjà plus de 20% de l’électricité disponible, dépassant la consommation résidentielle urbaine. En 2021, le gestionnaire de réseau EirGrid a annoncé un moratoire de facto sur les nouvelles implantations jusqu’en 2028 dans la région de Dublin.
En France, RTE a identifié 25,5 GW de demandes en cours d’instruction pour des centres de données, dont 10 GW au stade de proposition technique. La consommation pourrait atteindre 33 à 45 TWh en 2035, soit 5,5 à 7,5% de la consommation électrique nationale projetée. Cette augmentation représenterait entre 15% et 23% de l’électricité supplémentaire prévue pour l’ensemble des usages.
Des impacts locaux multiples
Au-delà de l’énergie, les centres de données exercent une pression sur les ressources en eau. Selon Nature Finance, 45% des centres de données mondiaux sont situés dans des bassins fluviaux où la disponibilité de l’eau présente un risque élevé. À Marseille, certains centres utilisent de l’eau potable pour le refroidissement via le système de « river-cooling ».
L’empreinte carbone de la fabrication représente environ 25% de l’impact total des centres de données au niveau mondial. Pour les serveurs accélérés dédiés à l’IA, les composants électroniques (mémoire, processeurs, circuits intégrés) constituent entre 70% et 90% de l’empreinte carbone de fabrication. Cette proportion augmente avec la décarbonation de l’électricité.
Une absence de trajectoire de décarbonation
Pour respecter l’objectif d’une réduction de 90% des émissions entre 2020 et 2050, la consommation des centres de données en France devrait être limitée à environ 40 TWh en 2050, selon le rapport. Or, les tendances actuelles prévoient un dépassement de ce seuil dès 2035.
Le Shift Project identifie un plafond de consommation électrique au-delà duquel les objectifs climatiques deviennent inatteignables. Dans un scénario optimiste de décarbonation énergétique, ce plafond se situe autour de 950 TWh au niveau mondial en 2050. Dans un scénario moins favorable, il descendrait à 200 TWh.
Mais le secteur manque actuellement de mécanismes de pilotage. L’absence d’objectifs carbone contraignants pour la filière, le manque de transparence sur les consommations réelles et les délais de construction (6 mois à 5 ans) figent les capacités bien avant leur utilisation effective.
Recommandations pour une transition maîtrisée
Le Shift Project formule vingt recommandations structurées autour de quatre axes. Sur la transparence, il préconise un suivi public trimestriel des consommations et des demandes de raccordement, ainsi que l’obligation pour les fournisseurs de communiquer l’empreinte énergétique de leurs services.
En matière d’optimisation, le rapport recommande de privilégier les IA spécialisées plutôt que généralistes, et de concentrer la recherche sur des solutions efficaces et peu gourmandes en ressources. Le référentiel AFNOR pour l’IA frugale, présenté en septembre dernier, devrait être intégré aux politiques d’achat public.
Sur la sobriété, le rapport appelle à construire une trajectoire contraignante pour le numérique dans la stratégie nationale bas-carbone (la feuille de route de la France pour lutter contre le changement climatique), avec des plafonds de ressources consommables. Le déploiement de nouveaux centres devrait être conditionné à la compatibilité avec cette trajectoire, avec possibilité de moratoires en cas de dérive.
Enfin, sur la formation, le rapport insiste sur le maintien des ressources dédiées aux enjeux énergie-climat, sans les réorienter vers des formations sur l’IA. Un débat public informé sur la place du numérique dans la société doit être organisé, impliquant l’ensemble des parties prenantes.
Conclusion du Shift Project : l’ampleur des transformations nécessaires impose de mobiliser simultanément les leviers technologiques, organisationnels et politiques. Sans cette approche systémique, les objectifs de décarbonation resteront hors d’atteinte.