Vue normale

HP plombé par la flambée des puces mémoire

25 février 2026 à 11:50

Pendant que les géants du cloud engloutissent des capacités de mémoire pour alimenter leurs data centers, les fabricants comme HP font les frais de cette ruée. Si le constructeur américain d’ordinateurs et d’imprimantes a publié mardi des résultats trimestriels supérieurs aux attentes,  il indique s’attendre à ce que ses bénéfices annuels se situent « en bas de la fourchette » de sa guidance, soit autour de 2,90 $ par action sur les 2,90 à 3,20 $ annoncés.

Plus préoccupant encore, HP anticipe un recul des livraisons de PC « à deux chiffres » sur l’ensemble de l’exercice fiscal 2026, en ligne avec les tendances du secteur.

La mémoire, talon d’Achille du secteur

Au cœur de ces turbulences : la pénurie de puces mémoire. En novembre dernier, HP estimait que les composants mémoire et stockage représentaient 15 à 18 % du coût de fabrication de ses ordinateurs. Ce ratio devrait grimper à 35 % sur l’ensemble de l’exercice fiscal. La directrice financière Karen Parkhill a précisé lors d’une conférence téléphonique avec les analystes que les prix de la mémoire avaient pratiquement doublé en l’espace d’un trimestre  et que de nouvelles hausses sont attendues. La pénurie devrait persister au-delà de l’exercice 2026.

Face à cette situation, HP dit avoir engagé plusieurs mesures correctives : diversification de ses fournisseurs, ajustement de certains produits pour réduire leur consommation de mémoire, et hausse des prix de vente. « Nous avons une solide expérience dans la gestion des cycles de matières premières », a déclaré Bruce Broussard, le directeur général par intérim, en tentant de rassurer.

Tarifs douaniers et transition au sommet

La volatilité des composants n’est pas le seul défi. HP doit également composer avec la politique commerciale de l’administration Trump. Le groupe a largement relocalisé sa production hors de Chine pour les produits destinés au marché nord-américain, une anticipation des droits de douane qui s’avère payante à court terme. HP indique ne pas s’attendre à ce que les nouvelles mesures tarifaires américaines pèsent immédiatement sur ses activités, tout en précisant qu’il « continue de dialoguer avec l’administration sur ces sujets ».

La situation est par ailleurs compliquée par un changement de direction inattendu. Début mars, PayPal a débauché Enrique Lores, le PDG d’HP, pour en prendre les rênes. C’est donc Bruce Broussard, administrateur du conseil, qui assure l’intérim pendant que le groupe cherche un successeur permanent.

Des signaux positifs à ne pas négliger

Le tableau n’est pas entièrement sombre. HP note une demande soutenue en Europe et en Asie, portée par le cycle de renouvellement lié à Windows 11. Le segment premium, tant professionnel que grand public, tire les prix moyens de vente vers le haut. Et les PC dotés de fonctionnalités d’intelligence artificielle représentaient plus de 35 % des livraisons au premier trimestre, contre 30 % le trimestre précédent, une adoption en accélération qui redonne des couleurs au groupe.

HP a par ailleurs lancé un programme de réduction des coûts sur plusieurs années, visant un milliard de dollars d’économies annuelles d’ici 2028, même si ce plan s’accompagne de charges de restructuration dans l’immédiat.

Un trimestre solide, une année difficile

Sur le plan strictement comptable, le premier trimestre fiscal ( clos le 31 janvier) est plutôt encourageant. Le chiffre d’affaires a progressé de 6,9 % à 14,44 milliards $. La division Personal Systems, qui regroupe les PC grand public et professionnels, a enregistré une hausse de 11 % de ses revenus à 10,25 milliards $, portée notamment par un bond de 16 % des ventes grand public. L’impression, en revanche, recule de 2 % à 4,19 milliards.

The post HP plombé par la flambée des puces mémoire appeared first on Silicon.fr.

Meta mise des dizaines de milliards sur les GPU d’AMD

24 février 2026 à 16:44

Meta et AMD ont signé un accord pluriannuel portant sur le déploiement de jusqu’à 6 gigawatts de puissance de calcul dédiée aux centres de données d’IA du groupe, à base de GPU Instinct et de CPU optimisés pour l’IA. Cette capacité sera déployée progressivement sur plusieurs années, à partir de la seconde moitié de 2026, ce qui en fait l’un des plus grands projets d’infrastructure IA au monde.

Les premiers déploiements s’appuieront sur l’architecture rack Helios, co‑conçue par Meta et AMD dans le cadre de l’Open Compute Project, afin d’optimiser densité, efficacité énergétique et intégration logicielle.

AMD fournit des GPU de nouvelle génération (MI450) et des CPU EPYC de 6ème génération, dimensionnés pour les charges d’inférence à grande échelle, en complément des capacités de training déjà en place chez Meta.

Objectif : diversifier et optimiser l’infrastructure IA

Cette montée en puissance d’AMD arrive alors que Meta reste l’un des plus gros clients de Nvidia, avec un parc équivalent à plusieurs centaines de milliers de GPU H100 et futurs Blackwell pour l’entraînement de modèles de fondation. En introduisant massivement les GPU Instinct d’AMD dans ses data centers, Meta cherche à diversifier ses fournisseurs, réduire son exposition au seul écosystème CUDA et optimiser le coût total de possession de ses clusters IA.

Les GPU Instinct sont déjà utilisés par Meta sur certaines charges, et AMD met en avant des gains de performance par watt et de TCO sur des modèles largement déployés, qu’il s’agisse de recommandation, de vision ou de LLM.

L’accord avec Meta inclut en plus des GPU « customisés » pour les workloads du groupe, élément présenté comme un différenciateur face à Nvidia, qui ne met pas en avant ce degré de personnalisation dans ses grands contrats.

Un socle pour la “personal superintelligence”

Meta affirme vouloir bâtir une infrastructure capable de soutenir une « superintelligence personnelle » accessible à grande échelle, ce qui suppose des capacités massives pour l’entraînement et l’inférence de modèles multimodaux auprès de milliards d’utilisateurs.

Les 6 GW de puissance IA visés doivent alimenter les futures générations d’algorithmes de recommandation, d’assistants conversationnels, d’outils créatifs et de modération de contenu sur Facebook, Instagram, WhatsApp et les services de réalité mixte.

Pour tenir cette ambition, Meta prévoit la construction ou la conversion de 30 centres de données, dont 26 situés aux États‑Unis, conçus nativement pour les charges d’IA à forte intensité GPU et l’optimisation énergétique. La standardisation autour d’architectures communes comme Helios et Open Compute doit faciliter le scaling rapide, la maintenance et la co‑conception de nouvelles générations de racks avec AMD.

Un mécanisme de warrants qui aligne Meta et AMD

Au‑delà des équipements, l’accord comprend un mécanisme de warrant de performance donnant à Meta le droit d’acquérir jusqu’à 160 millions d’actions AMD, soit environ 10% du capital, sous conditions. Les tranches de ce warrant se débloquent à mesure que Meta reçoit les livraisons d’Instinct (1 GW, puis jusqu’à 6 GW), que certaines barrières de cours sont franchies par AMD et que des objectifs techniques et commerciaux sont atteints par les deux partenaires.

Ce montage crée un alignement fort : plus l’infrastructure AMD réussit chez Meta, plus Meta a intérêt à devenir actionnaire significatif d’AMD, et plus AMD bénéficie d’un client récurrent de très grande taille. Dans un contexte où AMD a déjà mis en place un dispositif similaire avec OpenAI pour ses futures générations de GPU MI450, ce schéma actionnarial renforce la place du fondeur comme alternative de référence à Nvidia dans le cloud IA.

Un message au marché des semi‑conducteurs IA

Pour AMD, ce contrat « à plusieurs dizaines de milliards de dollars » sur plusieurs années constitue un jalon majeur dans sa quête de parts de marché face à Nvidia sur le segment des GPU IA haut de gamme. L’annonce a d’ailleurs propulsé le titre AMD en forte hausse en pré‑marché, même si la réaction de Meta est restée plus mesurée, les investisseurs arbitrant entre l’ampleur des capex IA et la création de valeur à long terme.

The post Meta mise des dizaines de milliards sur les GPU d’AMD appeared first on Silicon.fr.

Nvidia prépare son retour dans les PC grand public

23 février 2026 à 16:30

Après avoir conquis les data centers et dominé le marché des processeurs pour intelligence artificielle, Nvidia se prépare à revenir là où tout a commencé : le PC. Le Wall Street Journal révèle que le géant américain s’apprête à lancer cette année ses premières puces dédiées aux ordinateurs portables, en partenariat avec Intel et MediaTek. Dell, Lenovo et d’autres fabricants planchent déjà sur des modèles propulsés par ces nouvelles architectures.

Une incursion stratégique, plus qu’un pari financier

Pour Jensen Huang, le fondateur et patron de Nvidia, l’ambition dépasse largement le simple lancement d’une nouvelle génération de processeurs. Il s’agit d’intégrer Nvidia au cœur du “PC de demain”, un appareil plus fin, plus réactif et surtout nativement dopé à l’intelligence artificielle.

Les nouvelles puces, conçues sur le modèle du system-on-a-chip (SoC) – combinant CPU et GPU dans un seul composant – promettent à la fois puissance et sobriété énergétique, à l’image des MacBook d’Apple.

Nvidia ne s’attend pas à des profits rapides. Mais pour le leader mondial des GPU, peser dans la future génération de PC intelligents est devenu stratégique : “Chaque appareil sera bientôt piloté par l’IA”, rappellent les analystes. En se réinvitant dans le segment grand public, Nvidia maintient un lien d’usage et d’image, complémentaire à son hégémonie industrielle.

Intel, MediaTek… et la revanche des architectures Arm

Le concept repose sur deux grands partenariats. Avec Intel, Nvidia associe ses technologies graphiques et d’intelligence artificielle aux processeurs du géant américain, qui détient encore près de 70 % du marché des puces pour PC Windows. En parallèle, une alliance avec le taïwanais MediaTek, fondée sur l’architecture Arm, cible des ordinateurs plus légers et plus efficaces, que Dell et Lenovo devraient lancer au premier semestre 2026.

Le pari est audacieux : étendre l’usage du modèle Arm dans un univers historiquement dominé par les architectures x86 d’Intel et AMD. Si la transition réussit, le PC “AI-native” pourrait devenir la nouvelle norme, donnant un second souffle à un marché en quête d’innovation.

Un pari sur les gamers et la performance

Nvidia n’oublie pas ses fidèles : les gamers. Eux aussi constituent une cible clé de cette renaissance, car la marque bénéficie dans cette communauté d’un statut quasi cultuel. Reste à surmonter les limites techniques de l’architecture Arm, qui a montré ses faiblesses pour les jeux sous Windows lors des premiers essais de puces Qualcomm. Pour convaincre, Nvidia devra garantir compatibilité et puissance tout en maîtrisant les coûts.

D’après Jason Tsai, du cabinet Digitimes, le prix devra rester entre 1 000 et 1 500 dollars. “Au-delà, le produit risquerait de relever du luxe technologique plus que de la démocratisation”, prévient l’analyste.

 

The post Nvidia prépare son retour dans les PC grand public appeared first on Silicon.fr.

Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale

23 février 2026 à 16:12

L’Institut national de l’information géographique et forestière (IGN) présentera officiellement son modèle de fondation en intelligence artificielle MAESTRO * à la Winter Conference on Applications of Computer Vision (WACV) 2026, qui se tiendra à Tucson début mars aux États‑Unis. L’article scientifique décrivant ce modèle, déposé sur arXiv en août 2025, a été retenu par le comité de programme de cet événement de référence en vision par ordinateur.

MAESTRO, un modèle de fondation pour l’observation du territoire

MAESTRO s’inscrit dans la catégorie des modèles de fondation, ces modèles d’IA pré‑entraînés sur de vastes volumes de données non annotées et capables ensuite de se spécialiser rapidement sur des tâches cibles. À l’image d’un enfant qui a déjà acquis les grands concepts du monde avant d’apprendre une discipline précise, MAESTRO bénéficie d’un socle de connaissances génériques qui lui permet d’apprendre plus vite, avec moins d’exemples annotés, et d’atteindre un meilleur niveau de performance.

Pensé pour exploiter la richesse et la complexité des données d’observation de la Terre produites et orchestrées par l’IGN (images aériennes, satellites, données multitemporelles et multispectrales, modèles numériques de terrain, etc.), MAESTRO est capable de traiter des scènes variées, à différentes échelles spatiales et temporelles. Cette approche réduit significativement le besoin en données labellisées, souvent coûteuses à collecter et à qualifier, en particulier dans des domaines où les experts et les jeux d’annotations fiables sont rares.

Des performances de pointe sur les domaines clés de l’IGN

Conçu pour répondre à des besoins opérationnels concrets, MAESTRO atteint des performances de pointe sur plusieurs domaines clés de la production de l’IGN. Il surpasse de manière significative les modèles généralistes de vision par ordinateur lorsqu’il s’agit de traiter les tâches spécifiques de l’observation du territoire, tout en nécessitant moins de données annotées.

Un exemple emblématique est la production de la nouvelle version de la Base de données Forêt, un référentiel stratégique pour le suivi des peuplements, la gestion forestière et l’adaptation au changement climatique. En capitalisant sur son pré‑entraînement massif sur des données non annotées, MAESTRO permet d’améliorer la qualité des cartes, de mieux caractériser les structures forestières et d’accélérer les mises à jour, tout en optimisant l’effort d’annotation.

Au‑delà de la forêt, le modèle peut être appliqué à d’autres piliers de la mission de l’IGN : cartographie de l’occupation des sols, suivi de l’artificialisation, observation des dynamiques urbaines, surveillance des milieux naturels ou encore analyse des risques environnementaux.

Une IA souveraine au service de l’écosystème

MAESTRO incarne une IA souveraine, conçue et maîtrisée par un acteur public de référence, au plus près des besoins des acteurs de l’observation du territoire et de la recherche. En développant ce modèle en France, sur des données maîtrisées et documentées, l’IGN contribue à consolider une capacité stratégique : comprendre, mesurer et anticiper les transformations des territoires sans dépendre exclusivement de solutions propriétaires.

Cette souveraineté technologique se traduit aussi par une capacité à adapter finement le modèle aux priorités nationales et européennes : transition écologique, aménagement durable, gestion des risques naturels, planification énergétique ou encore protection de la biodiversité.

Fidèle à sa politique d’ouverture de la donnée et des outils, l’IGN met à disposition la famille de modèles MAESTRO en open source sur la plateforme Hugging Face. Cette mise en commun vise à faciliter leur réutilisation par un large écosystème d’acteurs publics et privés : laboratoires de recherche, start-up, collectivités territoriales, agences d’aménagement, opérateurs de réseaux ou entreprises de la géodata.

Cas d’usage : de l’artificialisation à la forêt

MAESTRO pourra ainsi servir de socle à une nouvelle génération d’applications dans des domaines variés :

  • Agriculture : suivi des cultures, optimisation des intrants, détection précoce des stress ou maladies.
  • Urbanisme : observation des formes urbaines, suivi de l’étalement, évaluation de l’artificialisation nette des sols.
  • Environnement : cartographie des milieux, suivi des zones humides, analyse des impacts du changement climatique.
  • Gestion des risques : surveillance des zones exposées aux inondations, mouvements de terrain, incendies ou submersions marines.

En abaissant le coût d’entrée technique et en réduisant le besoin en annotations massives, MAESTRO permet aux acteurs du territoire d’accélérer leurs projets IA, tout en s’appuyant sur un modèle public, documenté et transparent.

WACV 2026 : une vitrine internationale pour la géo‑IA française

La sélection de MAESTRO à WACV 2026 offre à l’IGN une vitrine internationale pour valoriser son avance en IA appliquée à la géographie et à l’observation de la Terre. Dans un contexte où les modèles de fondation se multiplient dans le traitement d’images génériques, de texte ou de langage, MAESTRO démontre qu’il est possible de concevoir des modèles souverains, spécialisés et compétitifs sur des usages à forte valeur publique.

————-

Illustration de l’efficience du modèle de fondation

MAESTRO. Sur chaque ligne, les deux premières images vont être traitées par les IA, une photo aérienne et le détail d’une image prise par un satellite Sentinel-2 sur cette même zone. Les deux images suivantes montrent le résultat du travail de prédiction réalisé sur la photo aérienne par une IA basée sur le modèle de fondation MAESTRO ou par une IA basée sur l’architecture VIT qui n’a pas été pré-entrainée : les couleurs correspondent au type de surfaces visibles que les IA doivent prédire (eau, route bitumée, arbres, etc.). Enfin, la dernière image de la ligne montre les annotations réelles des surfaces de ces mêmes photos réalisées par un humain. © IGN

 

* MAESTRO pour Masked AutoEncoders for Multimodal, Multitemporal, and Multispectral Earth Observation Data

Illustration : © IGN

The post Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale appeared first on Silicon.fr.

Arnaud Chiffert prend les commandes de Snowflake France

23 février 2026 à 12:15

Snowflake consolide sa direction française avec la nomination d’Arnaud Chiffert au poste de Country Manager.

Dans la maison depuis 2022, où il a successivement occupé les fonctions de Directeur Commercial Retail, CPG & Luxury, puis de Sales Director Global & Strategic Accounts, Arnaud Chiffert présente un parcours bien ancré dans l’univers de la vente de solutions cloud, data et CRM.

Un profil taillé pour les comptes stratégiques

Avant Snowflake, ce diplômé de Neoma Business School de 46 ans officiait chez Splunk en France comme Regional Sales Director, avec la responsabilité de développer les activités autour des solutions de sécurité et d’analytique de données. Il avait également passé plusieurs années chez Salesforce, d’abord comme Strategic Account Manager, puis comme Global Account Manager pour le groupe LVMH, une expérience dans laquelle il a forgé sa connaissance  des grands comptes et des enjeux de transformation à grande échelle dans les secteurs retail et luxe.

Croissance, partenaires et IA au programme

Dans ses nouvelles fonctions, Arnaud Chiffert aura la charge de piloter la stratégie globale et les opérations de Snowflake en France. Sa feuille de route s’articule autour de trois axes : renforcer les relations clients et partenaires, accélérer une croissance durable et étendre la présence de l’entreprise dans les secteurs clés du marché français. Il devra également assurer la cohérence entre les actions locales et les objectifs de Snowflake pour la région EMEA et à l’échelle mondiale.

« Ma priorité est de travailler en étroite collaboration avec nos clients et partenaires afin de les aider à transformer leurs données en impact concret pour leur activité, qu’il s’agisse de stimuler l’innovation, d’améliorer la prise de décision ou d’accélérer leurs ambitions en matière d’IA », a déclaré le nouveau Country Manager à l’occasion de sa prise de poste.

Photo : © DR

The post Arnaud Chiffert prend les commandes de Snowflake France appeared first on Silicon.fr.

Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence

23 février 2026 à 11:17

C’est un changement de garde au sommet de l’un des fleurons technologiques français, premier éditeur hexagonal de logiciels d’entreprise. Le 21 février 2026, le conseil d’administration de Dassault Systèmes a nommé à l’unanimité Pascal Daloz au poste de Président-Directeur Général du groupe, coté à Paris.

Il succède ainsi à Bernard Charlès qui a informé le conseil, avec effet immédiat, de son retrait de ses fonctions de Président du Conseil et d’administrateur, invoquant des raisons personnelles. Une décision qui, selon ses propres mots, ne remet pas en cause son attachement profond à l’entreprise qu’il a co-fondée aux côtés de Charles Edelstenne. « J’aime profondément Dassault Systèmes. Je suis très fier de ses collaborateurs, ses équipes, ses clients, sa raison d’être, ses valeurs et ce que nous construisons tous ensemble », a-t-il déclaré.

Un tandem de 25 ans

Loin d’un retrait total, Bernard Charlès entend mettre ses 43 années d’expérience au service de l’entreprise, notamment pour accélérer l’adoption des 3D UNIV+RSES – la plateforme stratégique du groupe – et accompagner la transformation par l’IA des processus industriels de création et de production.

Si la transition peut paraître soudaine, elle n’a rien d’une improvisation. Pascal Daloz et Bernard Charlès travaillent ensemble depuis 25 ans. La succession a été préparée avec soin, comme en témoigne Charles Edelstenne, fondateur et Président d’honneur du Conseil : « Au cours des trois dernières années, Bernard a préparé sa succession avec soin, en veillant à ce que la 7ème génération de nos solutions industrielles fondées sur l’IA soit pleinement engagée. »

La « Gen7 » en héritage

Pour Pascal Daloz, qui endosse désormais à la fois la présidence du conseil et la direction générale, la feuille de route est claire : poursuivre la stratégie des 3D UNIV+RSES et positionner Dassault Systèmes comme leader de l’IA industrielle. « Notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES. C’est un engagement sur le long terme qui vise à redéfinir l’innovation, les opérations et la compétitivité industrielles à l’ère de l’économie générative », a-t-il affirmé à l’occasion de sa nomination.

Bernard Charlès remet les clés d’une maison solidement bâtie. Celui qui a conduit, selon ses propres mots, « six générations de transformations industrielles » laisse derrière lui une septième génération de solutions — la « Gen7 » — qu’il décrit comme « parfaitement définie et architecturée ». C’est sur ce socle que Pascal Daloz et son équipe devront désormais s’appuyer pour accélérer la croissance du groupe.

Photo : © DR Dassault Systèmes

The post Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence appeared first on Silicon.fr.

OpenAI et Nvidia enterrent leur mégadeal à 100 milliards

20 février 2026 à 12:17

Nvidia et OpenAI sont en passe de réécrire les termes de leur alliance. Selon le Financial Times, ( FT) le leader mondial des GPU  est en phase finale de négociations pour investir 30 milliards $ en capital dans l’inventeur de ChatGPT en remplacement du partenariat à 100 milliards $ annoncé en grande pompe mais qui n’avait jamais dépassé le stade d’une lettre d’intention.

OpenAI compte réinvestir une grande partie des capitaux levés dans l’achat de matériel Nvidia

L’investissement de Nvidia s’inscrit dans une levée de fonds plus large qui devrait dépasser les 100 milliards $ au total, valorisant OpenAI à 730 milliards $ hors nouveaux capitaux.

Le schéma retenu est nettement plus simple que le précédent. L’accord de septembre prévoyait que Nvidia investisse par tranches de 10 milliards $, sur plusieurs années, au fur et à mesure de la croissance des besoins en calcul d’OpenAI. En contrepartie, OpenAI s’engageait à acquérir des millions de puces Nvidia pour déployer jusqu’à 10 gigawatts de capacité de calcul. Un montage aux allures de pacte d’actionnaires croisés.

L’automne 2024 avait marqué une période de surenchère dans les alliances nouées par Sam Altman qui avait multiplié les accords complexes avec des fabricants de puces concurrents ( AMD et Broadcom) mais aussi avec Oracle. Ces montages, salués par les marchés sur le moment, avaient néanmoins inquiété certains analystes, y voyant les signes d’une bulle en formation dans le secteur de l’intelligence artificielle.

La mise au point des deux patrons

Ces inquiétudes n’ont pas tardé à se matérialiser. Depuis le début de l’année, les valeurs technologiques américaines ont perdu 17 % de leur valeur, fragilisant la crédibilité de ces engagements pluriannuels à très grande échelle. En janvier, le Wall Street Journal avait déjà signalé que l’accord à 100 milliards était « mis en suspens ».

Avant même que l’accord soit officialisé, des rumeurs de tensions entre les deux entreprises avaient commencé à circuler. Sam Altman et Jensen Huang ont tenu à les démentir publiquement. Le patron d’OpenAI a affirmé ce mois-ci sur X qu’Nvidia fabrique « les meilleures puces IA du monde » et qu’il espère rester un client majeur « très longtemps ». Le lendemain, le PDG de Nvidia balayait sur CNBC toute idée de « controverse », qualifiant ces rumeurs de « stupidités ».

600 milliards de dépenses d’ici 2030

L’investissement de Nvidia n’est qu’une composante d’une levée de fonds bien plus large. Selon le FT SoftBank s’apprête également à injecter 30 milliards $, tandis qu’Amazon pourrait contribuer jusqu’à 50 milliards dans le cadre d’un partenariat incluant l’utilisation des modèles d’OpenAI. Microsoft et MGX, le fonds souverain technologique d’Abou Dhabi, devraient aussi participer à hauteur de plusieurs milliards. Des réunions avec des fonds de capital-risque et d’autres investisseurs sont en cours pour compléter le tour.

Face à ces investisseurs, OpenAI tient un discours offensif affirmant prévoir de dépenser environ 600 milliards $ en ressources de calcul, auprès de Nvidia, Amazon et Microsoft notamment, d’ici à 2030, toujours selon le FT.

The post OpenAI et Nvidia enterrent leur mégadeal à 100 milliards appeared first on Silicon.fr.

Raspberry Pi rattrapé par la fièvre de l’IA

19 février 2026 à 15:49

Symbole de la débrouillardise numérique, longtemps cantonné aux bancs d’écoles et aux passionnés de bidouille informatique, Raspberry Pi vit aujourd’hui un destin boursier que peu auraient imaginé. Son titre a failli doubler entre le 16 et le 18 février, avant de retomber pour clôturer en baisse d à 4,10 livres, soit une valorisation d’un peu plus de 800 millions de livres.

L’étincelle porte un nom : OpenClaw, présenté comme le premier « agent IA personnel » capable de fonctionner localement sur un ordinateur, sans recourir au cloud. Son créateur, Peter Steinberger, vient d’être recruté par OpenAI le week-end dernier, ce qui a encore amplifié l’engouement autour du projet.

L’effet OpenClaw

Or Raspberry Pi offre une porte d’entrée à prix cassé vers cet outil. Là où un Mac Mini coûte au minimum 600 $ aux États-Unis, un Raspberry Pi s’acquiert pour une centaine de dollars. Damindu Jayaweera, analyste chez Peel Hunt, résume l’équation dans une note à ses clients : le dispositif permet une fonctionnalité « suffisamment bonne à un coût marginal quasi nul », avec l’avantage décisif  de « posséder la capacité de calcul plutôt que de la louer dans le cloud ».
Créé en 2012 par la fondation éponyme, le micro-ordinateur Raspberry Pi visait d’abord un objectif pédagogique : enseigner la programmation à bas coût. Proposé à moins de 50 €, il a conquis le monde de l’électronique embarquée, des makers et des chercheurs en robotique.
Mais avec l’explosion des projets d’intelligence artificielle générative, cet outil modeste est devenu une plateforme de prototypage bon marché, utilisée dans des milliers de projets mêlant vision par ordinateur, edge computing et automatisation locale.

La bourse de Londres s’est affolée

Lorsque Raspberry Pi Ltd a fait son entrée à la bourse de Londres en 2024, peu observateurs imaginaient qu’un simple fabricant de cartes Linux à faible consommation attirerait les foules. Pourtant, en quelques mois, le titre a gagné plus de 200 %, avant de connaître des phases de correction spectaculaires.

Sur les forums d’investisseurs, la marque est devenue un véritable « mème stock », comme GameStop ou AMC à l’époque de la pandémie. Les hashtags #PiAI et #TinyAI circulent sur X, Reddit et Discord, relayant des montages reliant Raspberry Pi à l’essor de l’IA embarquée. Les rumeurs vont bon train ; d’un partenariat hypothétique avec Nvidia à une intégration dans des systèmes robotiques « low cost ».

Cette frénésie illustre la façon dont la bulle IA engloutit tout l’écosystème technologique, jusqu’à ses acteurs les plus modestes. Les investisseurs cherchent fébrilement les « prochains Nvidia », quitte à surinterpréter le moindre lien avec l’intelligence artificielle.

Si la valorisation s’envole, le fabricant reste fidèle à sa philosophie d’origine : produire du matériel ouvert, abordable et responsable. Son PDG, Eben Upton, a récemment rappelé que « Raspberry Pi ne construira pas de GPU d’IA, mais continuera à rendre la technologie accessible à ceux qui innovent à petite échelle ».

The post Raspberry Pi rattrapé par la fièvre de l’IA appeared first on Silicon.fr.

Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ?

19 février 2026 à 14:43

C’est une déclaration qui va faire frémir les grands éditeurs du logiciel déjà éprouvés par le désamour des analystes financiers. Dans une interview accordée à CNBC, Arthur Mensch, PDG de Mistral AI, affirme que plus de 50 % des logiciels d’entreprise actuels seraient, à terme, remplaçables par des applications bâties sur l’IA générative.

Dans le viseur ? Les outils de productivité, de workflows et les CRM légers : autrement dit, le cœur de métier de Salesforce, Workday ou ServiceNow.

La promesse du « replatforming »

Pour l’expliquer, Arthur Mensch utilise le concept de « replatforming « , soit un basculement en profondeur des architectures IT d’entreprise, qui délaisseraient les abonnements SaaS standardisés au profit d’applications sur mesure, construites directement sur des API de modèles d’IA. L’argument commercial est séduisant avec la réduction des coûts de licences, une meilleure adéquation aux processus internes, des délais de développement compressés à quelques jours là où il fallait autrefois compter en mois.

Le mouvement a déjà ses précurseurs. Klarna, la fintech suédoise, a ainsi tourné le dos à certaines briques Salesforce et Workday pour construire son propre stack dopé à l’IA. Un cas d’école qu’Arthur Mensch cite volontiers pour illustrer la faisabilité concrète de ce grand saut technologique.

Tout ne sera pas emporté dans la vague

Le patron de Mistral prend soin de nuancer. L’infrastructure de données – stockage, sauvegarde, sécurité, data platforms – n’est pas menacée. Elle sortira même renforcée de la transition, car c’est elle qui alimente les modèles.

Bipul Sinha, PDG de Rubrik, partage ce diagnostic : le « front office logiciel » sera remodelé, quand le « back office data » se consolidera comme couche critique et incontournable.

Ce basculement suppose toutefois des prérequis sérieux : des données propres et unifiées, une infrastructure cloud moderne, et des équipes capables de gouverner ces nouveaux agents. On est bien loin du confort du SaaS clé en main.

Une opportunité taillée pour Mistral

Evidemment, la sortie du patron de Mistral AI sert son business modèle. Il revendique déjà plus d’une centaine de clients grands comptes en quête de modernisation. Sa plateforme – modèles ouverts et propriétaires, assistants personnalisés, recherche d’entreprise – se positionne précisément comme l’outillage de ce « replatforming « .

La prédiction reste néanmoins contestée. Les sceptiques pointent l’inertie considérable des systèmes d’information existants, les contraintes réglementaires, et les nombreuses désillusions de projets d’IA en production. Pour beaucoup d’observateurs, l’IA s’intégrera d’abord comme une couche d’augmentation au-dessus des outils existants, plutôt que comme un bulldozer.

Mais le message envoyé aux éditeurs traditionnels est sans ambiguïté : se transformer en plateformes d’IA, ou risquer de devenir eux-mêmes les logiciels à remplacer.

The post Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ? appeared first on Silicon.fr.

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

17 février 2026 à 13:10

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 15:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

16 février 2026 à 13:31

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 13:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Anthropic lève 30 milliards $, porté par ses outils de codage

13 février 2026 à 11:28

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 15:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

De WhatsApp à MAX : Moscou met fin au chiffrement des communications

12 février 2026 à 15:13

Le couperet est tombé ce jeudi. WhatsApp, propriété de Meta, est désormais totalement inaccessible en Russie. « En raison du refus de Meta de se conformer à la législation russe, une telle décision a effectivement été prise et mise en œuvre », a déclaré Dmitri Peskov, porte-parole du Kremlin, suggérant aux Russes de basculer vers MAX, la messagerie nationale soutenue par l’État.

Cette mesure, qui touche plus de 100 millions d’utilisateurs, marque l’aboutissement de six mois de pression sur l’entreprise américaine et s’inscrit dans une stratégie plus large du pouvoir russe : créer et contrôler une infrastructure de communication « souveraine » où les géants technologiques étrangers se soumettent ou disparaissent.

La fin d’un modèle de sécurité

Le blocage ne se limite pas à un simple changement d’application. Il fait basculer les utilisateurs d’un système de « confidentialité par conception » vers un modèle de « transparence par défaut » vis-à-vis des opérateurs et des autorités.

WhatsApp repose sur un chiffrement de bout en bout : les clés cryptographiques sont générées et stockées uniquement sur les terminaux des utilisateurs. Même l’opérateur ne peut pas lire le contenu des messages. Pour intercepter des communications, il faut compromettre directement le téléphone de l’émetteur ou du destinataire, une opération complexe et coûteuse qui rend impraticable toute surveillance de masse.

MAX et les autres messageries promues par Moscou utilisent un chiffrement de  » transport »  ( entre l’appareil et le serveur) mais les messages restent lisibles en clair côté serveur. Cette architecture rouvre la porte à un accès direct par l’opérateur ou les services de sécurité, à des mandats légaux intrusifs et à des risques d’attaques internes.

Dans ce nouveau schéma, toute la sécurité repose sur un serveur central qui concentre contenus, métadonnées, carnets d’adresses et historiques. Les chercheurs ayant audité MAX décrivent une application qui collecte et journalise massivement les interactions, au point d’en faire « un outil de surveillance plutôt qu’une messagerie zéro connaissance ».

Cette concentration augmente mécaniquement la surface d’attaque : une seule brèche dans l’infrastructure peut exposer à grande échelle conversations et profils d’utilisateurs. Elle facilite aussi les opérations de corrélation : identifier qui parle à qui, quand, depuis où, même sans inspecter systématiquement le contenu.

Conformité avec la loi « Yarovaïa »

Le basculement s’inscrit dans le cadre de la loi  » Yarovaïa « , qui oblige les fournisseurs à remettre aux services de sécurité contenus et métadonnées, et à fournir les moyens techniques d’accès aux flux chiffrés. Les protocoles de chiffrement de bout en bout modernes rendent ces obligations difficilement applicables sans « casser » la cryptographie, ce qui explique l’hostilité particulière de Moscou envers WhatsApp, Signal et les « secret chats » de Telegram.

Avec MAX, ces exigences sont facilement satisfaites : accès direct aux bases de données, requêtes ciblées, voire écoute en temps quasi réel. Pour les utilisateurs, cela se traduit par un affaiblissement des garanties de confidentialité, même si le cadre est présenté politiquement comme un renforcement de la « sécurité » nationale.

Des risques pour les profils sensibles

Pour un particulier peu exposé, le changement se traduit par une perte diffuse de vie privée et un accroissement du traçage comportemental. Mais pour les journalistes, les ONG, les opposants ou les professions réglementées, la disparition d’un canal chiffré augmente significativement les risques : identification de sources, mise sous surveillance ciblée, remontée de réseaux entiers à partir de simples métadonnées.

Le contournement via VPN, seule alternative pour continuer à utiliser WhatsApp, introduit ses propres dangers. Des services non fiables peuvent intercepter le trafic, injecter des malwares ou affaiblir les vérifications de certificats, ouvrant la voie à des attaques de type « homme du milieu ».

Meta, désigné comme organisation extrémiste en Russie, a dénoncé cette mesure : « Tenter d’isoler plus de 100 millions d’utilisateurs d’une communication privée et sécurisée est un pas en arrière qui ne peut que conduire à moins de sécurité pour les gens en Russie. »

Depuis décembre, de nombreux Russes ne pouvaient déjà plus utiliser WhatsApp qu’avec un VPN. Le blocage complet marque une nouvelle étape dans la construction d’un internet « souverain » où le Kremlin contrôle non seulement les contenus, mais aussi l’architecture même des communications numériques.

The post De WhatsApp à MAX : Moscou met fin au chiffrement des communications appeared first on Silicon.fr.

ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado

11 février 2026 à 16:26

Le réveil est un peu brutal pour les Entreprises de Services Numériques (ESN) françaises. Selon le dernier baromètre réalisé par la banque d’affaires Crescendo Finance en partenariat avec le cabinet PAC, le secteur entre dans une phase de normalisation après des années de surchauffe.

Après un pic d’activité M&A (fusions-acquisitions) en 2022 avec 73 opérations recensées, le marché montre des signes de fatigue : la croissance des services IT en France devrait même se contracter de 2,1% en 2025.

Le blues des multiples

Le temps où les vendeurs dictaient leurs conditions semble s’éloigner. Les multiples d’EBITDA *, qui avaient grimpé jusqu’à 13,9x en 2022 pour les acquéreurs stratégiques, sont retombés à 9,2x en 2024. « Le contexte économique affecte de façon symétrique les multiples », tempère l’étude, notant que pour la première fois depuis 2021, la valorisation des ESN françaises est repassée légèrement sous l’indice Argos des PME non cotées.

Pourtant, cette moyenne cache de profondes disparités. C’est un marché à deux vitesses : d’un côté, l’infogérance classique, dont les multiples plafonnent péniblement à 6,3x EBITDA. De l’autre, les « chouchous » des investisseurs : la cybersécurité et la Data/IA, qui continuent d’afficher des valorisations insolentes, dépassant parfois les 15x l’EBITDA pour les cibles les plus pointues.

IA générative : 3,2 milliards € en ligne de mire

Si le marché global ronronne, l’IA générative (IAGen) agit comme un booster de croissance. PAC estime que les dépenses externes liées à l’IAGen en France vont littéralement exploser, passant de 425 millions € en 2024 à 3,2 milliards € dès 2028.
« 72% des entreprises font de l’adoption de l’IA générative une priorité absolue», souligne l’étude. Cette « frénésie » pousse les grands prédateurs du secteur à sortir le carnet de chèques pour ne pas rater le train de l’IA agentique.

Accenture et Capgemini sont en première ligne, avec des budgets d’investissement se comptant en milliards de dollars pour renforcer leurs compétences via des acquisitions ciblées.

Les fonds d’investissement à l’affût des ETI

Le paysage des transactions reste dominé à 75% par les « corporates » (les ESN elles-mêmes), qui privilégient les petites cibles de moins de 15 millions € de chiffre d’affaires pour muscler leurs expertises locales. Les fonds d’investissement, bien que représentant seulement 25% des volumes, jouent les arbitres sur les dossiers plus matures : 47% de leurs jetons sont misés sur des entreprises réalisant plus de 50 millions € de CA.

Pour 2025, les experts prévoient une stabilisation. L’assouplissement des conditions de financement et la nécessité impérieuse de souveraineté numérique devraient soutenir un volume d’opérations honorable. Mais pour séduire les acheteurs, il faudra désormais plus qu’une simple croissance organique : la récurrence des revenus (modèle SaaS) et la maîtrise de la data sont devenues les nouveaux juges de paix de la valorisation.

*EBITDA est l’abréviation de « bénéfice avant intérêts, impôts, dépréciation et amortissement ».

The post ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado appeared first on Silicon.fr.

Naval Group et Thales accélèrent dans l’IA de défense souveraine

10 février 2026 à 17:02

Naval Group vient d’annoncer son entrée au capital de CortAIx, l’accélérateur d’IA créé par Thales en 2024, marquant une étape stratégique dans la convergence des industries françaises de défense sur le terrain de l’IA.

L’opération, dont le montant reste confidentiel, représente 20% du capital de la division française de CortAIx. Elle s’inscrit dans un engagement pluriannuel de coopération entre les deux groupes, tant sur le volume d’activité que sur les cas d’usage. Naval Group rejoint par ailleurs le conseil d’administration de l’entité, consolidant ainsi une alliance structurante autour des technologies critiques de demain.

Une IA au cœur des systèmes de combat collaboratif

L’objectif affiché est de mutualiser les compétences en matière d’intelligence artificielle appliquée au combat collaboratif, aux systèmes d’aide à la décision et à la guerre électronique. Quinze ingénieurs de Naval Group rejoindront dès mars les équipes de CortAIx, qui comptent quelque 800 spécialistes répartis sur cinq sites. Un nouveau centre de recherche à Ollioules (Var) ouvrira dès mai, renforçant la proximité entre les équipes R&D des deux partenaires.

« Innover dans le secteur de la défense requiert de plus en plus d’intelligence artificielle. C’est un démultiplicateur de performance opérationnelle », souligne Éric Papin, directeur technique de Naval Group dans les Echos. De son côté, Mickael Brossard, directeur de CortAIx, évoque une « mutualisation très forte » destinée à accélérer la montée en puissance de solutions souveraines et sécurisées.

Des technologies critiques pour la souveraineté européenne

Les ingénieurs de CortAIx développent depuis deux ans des modèles d’IA destinés à des applications sensibles : capteurs du Rafale, radars de surveillance, reconnaissance faciale ou pilotage d’essaims de drones. Ces technologies opèrent à la fois dans des environnements embarqués et en data centers sécurisés, en partenariat avec des acteurs français tels que Mistral AI.

Thales et Naval Group pourront également s’appuyer sur la puissance de calcul du supercalculateur inauguré par l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), livré en 2025 par HPE et Orange, pour le traitement de données classifiées.

Un écosystème français en plein foisonnement

Cette union s’inscrit dans un contexte d’effervescence autour de l’IA de défense en France. Dassault Aviation a déjà noué un partenariat technologique avec CortAIx fin 2025, tandis que sa participation dans la start-up Harmattan AI, valorisée 1,4 milliard $, témoigne de l’émergence d’un tissu industriel compétitif.

L’État, actionnaire à 62 % de Naval Group et 27 % de Thales, joue un rôle d’amplificateur dans cette stratégie de souveraineté industrielle et numérique. L’articulation de ces champions nationaux autour de CortAIx vise à positionner la France parmi les leaders mondiaux de l’IA de défense, à l’heure où les budgets militaires européens connaissent une croissance sans précédent.

The post Naval Group et Thales accélèrent dans l’IA de défense souveraine appeared first on Silicon.fr.

IA dans le BTP : la révolution en mode test

10 février 2026 à 16:36

Entre enthousiasme et prudence, le secteur du Bâtiment et des Travaux Publics apprivoise progressivement l’intelligence artificielle. Si les outils d’IA générative se diffusent rapidement dans les fonctions administratives, l’intégration sur les chantiers reste encore balbutiante. Une étude inédite de l’Observatoire des métiers du BTP révèle les freins et les opportunités d’une transformation qui s’annonce inéluctable.

Menée début 2025 auprès de 621 dirigeants d’entreprises, elle révèle que moins de 10% des structures déclarent utiliser actuellement des solutions d’IA. Un retard ? Pas vraiment. Plutôt une prudence de bon aloi dans un secteur habitué à des transformations progressives et où l’échec d’un outil peut se mesurer en vies humaines, pas en lignes de code.

Car si 36% des entreprises se disent intéressées par un déploiement futur, les grandes manœuvres n’ont pas encore commencé. « On a vu des applications très intéressantes par des gens qui travaillent avec des monuments historiques », raconte le dirigeant d’une TPE du Bâtiment. « Ils font voler des drones qui scannent les façades et génèrent le plan au millimètre près. Mais ça intéresse peu de monde pour l’instant. »

L’IA générative s’invite dans les bureaux

Si c’est une révolution qui se profile, elle commence par les tâches les moins valorisées : la bureautique. Les assistants comme ChatGPT ou Copilot se diffusent à bas bruit dans les fonctions supports. Rédaction de mails, correction de documents, synthèse de réunions : autant de corvées administratives allégées par ces outils accessibles sur smartphone.

« Les conducteurs de travaux s’enregistrent avec ChatGPT pendant les réunions de chantier : l’IA fait les synthèses et prépare les mails automatiquement », explique le dirigeant d’une PME spécialisée dans la construction de maisons individuelles. « Ce sont avant tout des gens de terrain, avec une vraie valeur ajoutée sur le contrôle et le management des équipes. Là, clairement, ça leur libère du temps. »

L’usage peut même devenir plus sophistiqué. Une comptable d’une TPE a ainsi créé des « petits robots » avec l’IA générative : désormais, lorsqu’une facture arrive dans la GED, le système ouvre le document, identifie l’artisan et le chantier, crée les dossiers nécessaires et range le tout. « Un vrai changement de paradigme dans notre gestion quotidienne », se félicite le dirigeant.

Ces usages « masqués » ou  » Shadow AI » soulèvent toutefois la question de l’encadrement par l’entreprise. Car sans politique claire, chacun bidouille dans son coin avec des outils grand public dont la sécurité des données n’est pas garantie.

Sur les chantiers, des promesses encore lointaines

Au-delà des bureaux, les applications métiers restent largement au stade exploratoire. L’IA pourrait pourtant transformer en profondeur la planification des chantiers. Grâce à des algorithmes prédictifs, certaines solutions analysent en temps réel l’avancement des travaux, les conditions météorologiques et la disponibilité des ressources pour anticiper les retards et réajuster automatiquement les plannings.

La sécurité constitue un autre terrain d’expérimentation prometteur. Des systèmes de vision par ordinateur, intégrés à des caméras sur casques ou engins, peuvent identifier le non-port d’équipements de protection ou la présence de personnes dans des zones interdites. Objectif : passer d’une prévention réactive à une approche prédictive, capable d’anticiper les accidents avant qu’ils ne surviennent.

Mais ces innovations restent confinées aux grands groupes et à quelques projets pilotes. « L’IA ne pourra être efficace que si elle s’applique dans un environnement un peu plus normé et organisé que ce qui est l’ordinaire du chantier dans notre secteur », tempère un dirigeant de PME.

Les freins à l’adoption : technique, économique et culturel

Premier obstacle : la qualité des données. L’IA ne peut délivrer son potentiel que si elle s’appuie sur des informations fiables et bien structurées. Or, dans nombre d’entreprises du BTP, les données sont éparpillées, mal rangées et stockées dans des formats hétérogènes. « Pour avoir de la donnée exploitable, il faut que ça soit structuré, organisé, propre. Dans le monde du Bâtiment aujourd’hui, on est très, très loin. » martèle un directeur technique d’ETI.

Deuxième frein : l’absence d’interopérabilité entre les nombreux logiciels du secteur. Les différents outils numériques utilisés – devis, BIM, suivi de chantier – communiquent mal entre eux, rendant difficile la mutualisation des données. « J’ai plein de solutions différentes : pour les devis, la facturation, la banque, la comptabilité… mais rien n’est interconnecté », déplore un autre dirigeant. « Je passe 70% de mon temps à faire des passerelles entre les outils. »

L’équation économique reste incertaine, particulièrement pour les TPE-PME qui composent 94% du tissu entrepreneurial du Bâtiment. Pour ces structures, déployer une solution d’IA nécessite un budget conséquent avec un retour sur investissement difficilement chiffrable. « Ce que nos entreprises ont besoin de voir pour sauter le pas, c’est le retour sur investissement », souligne une organisation professionnelle. « Et pour l’instant, ceux qui viennent leur proposer des produits ne donnent pas vraiment d’éléments là-dessus. »

Enfin, les obstacles culturels ne sont pas négligeables. Dans un secteur historiquement attaché au savoir-faire manuel et à la transmission par le compagnonnage, l’idée qu’un algorithme puisse orienter des décisions techniques suscite des réticences. « Le savoir-faire, c’est du concret, du geste, de la mémoire, du ressenti », résume un chef d’entreprise. « Si on délègue trop aux outils automatiques, on va finir par perdre cette intelligence du terrain. »

L’ancienneté des dirigeants constitue un autre frein. Dans un secteur où beaucoup de patrons approchent de la retraite, l’investissement dans des technologies dont ils ne verront pas les fruits complets ne semble pas prioritaire. « On a toute une catégorie de dirigeants vieillissants qui se disent que bientôt ils ne seront plus là, alors pourquoi s’embêter à intégrer de l’innovation », observe un organisme de formation.

Les compétences, clé de voûte de la transformation

Face à ces défis, la montée en compétences apparaît comme le levier prioritaire. Mais avant même de parler d’IA, le secteur doit d’abord rehausser son niveau général de littératie numérique. « Les entreprises ne sont pas prêtes parce qu’elles n’ont pas fait cette partie de structuration en amont », constate un formateur. « Il y a toute une politique de la donnée à mettre en place avant d’intégrer tout ça. »

En 2024, Constructys a financé 1 762 actions de formation sur l’intelligence artificielle, un chiffre qui a bondi à 4 406 en 2025. Mais l’analyse des intitulés révèle une offre encore très centrée sur la sensibilisation générale, avec peu de contextualisation aux métiers du BTP. La majorité des formations privilégient la découverte de l’IA plutôt que la montée en compétences opérationnelles.

Les besoins identifiés s’articulent autour de trois niveaux. D’abord, un socle minimal de culture numérique : maîtrise des règles de gestion documentaire, gouvernance de la donnée, sensibilisation aux usages collaboratifs. Ensuite, des compétences intermédiaires d’ingénierie d’usage et de conduite du changement, pour identifier les cas d’usage pertinents et mobiliser les équipes. Enfin, des compétences avancées sur l’interopérabilité, l’automatisation et la sécurité des systèmes.

Une transformation par paliers

L’étude de l’Observatoire des métiers du BTP dessine les contours d’une transformation qui se fera par étapes. Les fonctions supports seront les premières concernées, avec une évolution vers des rôles de supervision et de contrôle des contenus produits automatiquement. Les métiers de la conception, déjà familiers du BIM, intégreront progressivement des outils d’IA pour automatiser les tâches répétitives de vérification et de détection d’erreurs.

Sur les chantiers, les conducteurs de travaux deviennent peu à peu des « data managers locaux », surveillant des tableaux de bord numériques tout en conservant leur expertise terrain. Les métiers de la maintenance évoluent vers la maintenance prédictive, où l’anticipation des pannes prime sur le dépannage.

« On est dans une phase où les outils sont là, mais il faut apprendre à s’en servir », résume un directeur technique. « L’IA n’est pas un pilote automatique : c’est un assistant. Le vrai savoir-faire reste dans la coordination humaine. »

Source : Observatoire des métiers du BTP, Étude sur la perception et l’intégration des outils d’intelligence artificielle dans les entreprises du BTP, janvier 2026

The post IA dans le BTP : la révolution en mode test appeared first on Silicon.fr.

Workday : retour aux sources avec Aneel Bhusri pour redresser la barre

10 février 2026 à 12:48

Workday vient d’annoncer un changement de direction spectaculaire. Aneel Bhusri, co-fondateur de l’éditeur, reprend immédiatement les commandes en tant que CEO, remplaçant Carl Eschenbach. Une décision qui intervient après une année désastreuse en Bourse : le titre a plongé de 41% sur douze mois.

Carl Eschenbach quitte non seulement son poste de directeur général mais également son siège au conseil d’administration. Il restera néanmoins conseiller stratégique auprès de Bhusri. Son départ lui vaudra une indemnité de 3,6 millions $, assortie d’une acquisition accélérée de ses stock-options en cours.

Pour Aneel Bhusri, le retour se monnaie cher : 135 millions $ en actions, soumises à des conditions de temps et de performance, auxquels s’ajoute un salaire de base de 1,25 million $, selon les documents transmis à la SEC.

Une histoire de succession complexe

L’histoire récente de Workday ressemble à un jeu de chaises musicales. Bhusri avait co-fondé l’entreprise en 2005, exercé seul la fonction de CEO entre 2014 et 2020, avant d’accepter un partage du pouvoir. Eschenbach avait été nommé co-CEO fin 2022, aux côtés du fondateur, avant que ce dernier ne se retire en 2024.

« Nous entrons dans l’un des moments les plus décisifs de notre histoire. L’IA est une transformation plus importante que le SaaS – et elle définira la prochaine génération de leaders du marché », déclaré Aneel Bhusri dans un communiqué officiel.

Workday, spécialisé dans les logiciels de gestion des ressources humaines et autres tâches administratives, fait partie de ces éditeurs d’applications qui peinent à convaincre Wall Street à l’ère de l’intelligence artificielle. Sous la direction d’Eschenbach, l’entreprise avait affiché une nouvelle priorité à la rentabilité, annonçant des suppressions de postes et promettant d’utiliser l’IA pour rationaliser ses propres opérations.

La semaine dernière encore, Workday avait annoncé le licenciement d’environ 400 employés, soit 2% de ses effectifs de 20.600 personnes fin octobre, dans le but de mieux investir dans ses domaines prioritaires.

Le retour de Bhusri apparaît comme un pari : celui de retrouver l’ADN entrepreneurial et l’agilité technologique face aux bouleversements de l’IA. Reste à savoir si cette cure de jouvence suffira à reconquérir les investisseurs.

The post Workday : retour aux sources avec Aneel Bhusri pour redresser la barre appeared first on Silicon.fr.

❌