Vue normale

Pasqal lève 340 millions € et vise le Nasdaq

5 mars 2026 à 13:30

Pasqal, la start-up spécialisée dans les ordinateurs quantiques à atomes neutres, née en 2019 dans le sillage des travaux du Prix Nobel Alain Aspect, vient d’annoncer une levée de fonds d’au moins 340 millions €. Une somme qui la propulse d’un coup dans la cour des grandes licornes mondiales du secteur quantique.

Le montage est aussi ingénieux que la technologie qu’il finance. Le tour se décompose en deux volets d’environ 170 millions € chacun : d’un côté, une levée privée classique ; de l’autre, un financement convertible adossé à une fusion avec Bleichroeder Acquisition Corp. II, un SPAC américain coté. Au total, depuis sa création, Pasqal aura levé près de 600 millions €, un chiffre qui résume l’ampleur des ambitions.

Une valorisation à 2 milliards $

La transaction valorise Pasqal à 2 milliards $, faisant de la start-up de Palaiseau l’une des rares « licornes quantiques » au monde. Une marche franchie au pas de charge, qui s’explique autant par la maturité technologique de son offre ( des processeurs quantiques accessibles sur site ou via le cloud) que par son carnet de clients impressionnant : CMA CGM, OVHcloud, Thales, IBM, NVIDIA, Sumitomo.

Le tour d’investisseurs rassemble un plateau d’acteurs industriels et financiers qui reflète la dimension internationale prise par Pasqal : Parkway, Quanta Computer, LG Electronics, Temasek, l’European Innovation Council Fund, Saudi Aramco Entrepreneurship Ventures ou encore ISAI figurent parmi les nouveaux entrants, aux côtés de Bpifrance, fidèle au capital depuis 2021.

Nasdaq d’abord, Euronext ensuite

La stratégie boursière est doublement ambitieuse. Pasqal prévoit une première introduction au Nasdaq en 2026, via la fusion avec le SPAC Bleichroeder, avant de préparer une cotation sur Euronext Paris entre 2026 et 2027. Ce double ancrage vise à capter la liquidité des marchés américains, incontournables pour une deeptech qui se bat à armes égales avec des géants comme IBM Quantum ou IonQ, tout en maintenant une base actionnariale et décisionnelle en Europe.

L’opération, soumise aux approbations réglementaires habituelles et au dépôt d’un Form F-4 auprès de la SEC, n’est pas sans risques. Le marché des SPACs a connu ses turbulences ces dernières années, et la concurrence dans la course au quantique industriel s’intensifie. Pasqal mise sur la singularité de son approche — les atomes neutres — pour se différencier face aux architectures à base d’ions piégés ou de qubits supraconducteurs.

L’Essonne, QG mondial du quantique

Malgré l’envergure américaine de l’opération, Pasqal entend investir la majeure partie des fonds en France, et plus précisément à Palaiseau, dans l’Essonne, où est déjà implanté son site principal.

L’entreprise annonce vouloir doubler ses capacités de production en 24 mois et recruter 50 personnes supplémentaires sur 18 mois, soit une hausse des effectifs d’environ 20 % pour atteindre plus de 325 collaborateurs. La R&D sera également renforcée, avec un objectif affiché : disposer d’un ordinateur quantique tolérant aux pannes avant la fin de la décennie.

Un message politique autant qu’industriel, qui s’inscrit dans la logique du plan quantique national et des ambitions de souveraineté technologique européenne. Le futur ensemble issu de la fusion avec Bleichroeder restera d’ailleurs une entité de droit français, présidée par un ressortissant hexagonal, et Bpifrance conservera son siège au conseil d’administration.

Un test grandeur nature pour la deeptech européenne

La trajectoire de Pasqal sera scrutée bien au-delà du seul secteur quantique. Pour l’ensemble de l’écosystème deeptech européen, cette double cotation représente un test inédit : celui de la capacité d’un champion continental à lever des capitaux à l’échelle des exigences technologiques du moment, sans sacrifier son ancrage et ses valeurs.

Si l’opération réussit, elle démontrera qu’il est possible de rivaliser avec les poids lourds américains et asiatiques depuis Palaiseau et que le quantique européen n’est plus seulement une promesse de laboratoire. La balle est désormais dans le camp des marchés.

Photo : © DR

The post Pasqal lève 340 millions € et vise le Nasdaq appeared first on Silicon.fr.

Apple casse les prix avec le MacBook Neo à 599 dollars

4 mars 2026 à 16:32

C’est une rupture historique pour Apple qui a dévoilé le MacBook Neo.

Ce portable affiché à partir de 599 $ est soit 400 $ de moins que le MacBook Air, son entrée de gamme habituelle à 1 099 $. Pour atteindre ce positionnement tarifaire inédit, Apple a fait un choix technique radical : équiper le MacBook Neo d’une puce A18 Pro, le même processeur que celui embarqué dans les iPhone 16 Pro lancés en 2024.

Une puce iPhone dans un Mac

C’est une première dans l’histoire du Mac car jamais encore Apple n’avait utilisé une puce de smartphone dans un ordinateur portable. La machine, dispose d’un processeur six cœurs, d’un GPU cinq cœurs et de 8 gigaoctets de mémoire vive unifiée. Pas de configurations alternatives : les spécifications sont fixes.

L’écran de 13 pouces, le châssis en aluminium, le clavier complet, le trackpad, la caméra FaceTime 1080p et le Wi-Fi 6E font partie de la dotation standard. L’autonomie annoncée est de 16 heures, contre 18 heures pour le MacBook Air M5. L’ensemble qui pèse 2,7 livres (environ 1,2 kg) est disponible en quatre couleurs. Le tout tourne sous macOS, le même système d’exploitation que les Mac haut de gamme, avec une compatibilité totale avec les applications iPhone et Mac.

La version de base intègre 256 gigaoctets de stockage. Une version à 699 $ double la capacité et ajoute Touch ID. Les acheteurs dans le secteur éducatif bénéficient d’une remise de 100 $ sur chaque modèle, ramenant le prix d’entrée à 499 $ Quatre coloris sont au programme : citrus, silver, indigo et blush. Les précommandes sont ouvertes depuis mercredi, avec des livraisons attendues à partir du 11 mars.

Chromebooks et PC Windows dans le viseur

La cible est clairement identifiée : les utilisateurs de Chromebooks propulsés par Google et les PC Windows d’entrée de gamme, un segment où Microsoft peine à imposer ses appareils équipés de puces ARM malgré leurs promesses en matière d’autonomie. Apple vise aussi les étudiants, les primo-acheteurs et les entreprises en quête d’un point d’entrée abordable dans l’écosystème Mac.

« La vraie question n’est pas de savoir si Apple peut vendre un MacBook à ce prix, ce sera l’un des Mac les plus vendus de l’histoire si la marque tient ses promesses , mais comment elle parvient à équilibrer coût, performance et positionnement premium tout en préservant l’expérience qui définit le Mac », analyse Francisco Jeronimo, vice-président en charge des appareils clients chez IDC cité par Reuters.

John Ternus, le directeur de l’ingénierie matérielle d’Apple, a résumé l’ambition dans un communiqué : le MacBook Neo a été « conçu de fond en comble pour être plus accessible au plus grand nombre. »

Une offensive sur l’entrée de gamme

Le lancement du MacBook Neo s’inscrit dans une séquence dense pour Apple. Cette semaine, la firme a également dévoilé l’iPhone 17e à 599 $, avec davantage de stockage en configuration de base, et renouvelé ses MacBook Air et MacBook Pro avec les nouvelles puces M5 et des configurations de série étendues en mémoire. Autant de mouvements qui témoignent d’une stratégie d’ensemble : défendre les parts de marché d’Apple dans un contexte de PC en demi-teinte et de smartphone sous pression.

Car la conjoncture est complexe. Les marchés PC et smartphone restent très sensibles aux prix après plusieurs trimestres de demande erratique, et les fabricants naviguent en eaux troubles face à la flambée du coût des composants mémoire.

Le MacBook Neo, livré avec seulement 8 gigaoctets de RAM, moitié moins que le MacBook M4 et même en retrait par rapport aux 12 gigaoctets de l’iPhone 17 Pro , illustre les compromis imposés par cette pénurie mondiale de mémoire.

Reste à savoir si le pari sera tenu. Apple a déjà tâté du segment en commercialisant un MacBook Air à 699 $ chez Walmart avec une puce M1, mais c’était sur un modèle en fin de vie. Avec le MacBook Neo, c’est une machine inédite, conçue pour ce prix, qui entre en scène.

Image : © Apple

The post Apple casse les prix avec le MacBook Neo à 599 dollars appeared first on Silicon.fr.

Gouvernance du numérique : le MAGNum 2026 remplace le GAGSI

4 mars 2026 à 15:47

Disponible depuis le 3 mars 2026,Du GAGSI au MAGNum : une évolution structurelle

Changement de braquet pour la gouvernance du numérique :  le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) 2026 prend la suite du Guide d’Audit de la Gouvernance du Système d’Information (GAGSI 2019), dont il dépasse largement le périmètre initial.

Là où le GAGSI se contentait d’identifier des bonnes pratiques, le MAGNum mesure désormais, de façon structurée et comparable, le niveau de maturité numérique global d’une organisation sur une échelle de 1 à 5.

Du GAGSI au MAGNum : une évolution structurelle

Le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) est le fruit d’un travail collégial mené par une soixantaine d’experts issus des trois associations (auditeurs, DSI, architectes de systèmes d’information, consultants)  réunis au sein d’ateliers thématiques couvrant la stratégie, l’architecture, les données, les risques, l’IA, la cybersécurité, la RSE ou encore la gestion de projets.

Cette montée en ambition s’accompagne d’une refonte thématique pour intégrer les enjeux devenus incontournables depuis la dernière édition : intelligence artificielle, RSE, cybersécurité renforcée, conformité réglementaire et agilité organisationnelle.

« Le travail mené en commun en 2022-2023, qui a permis de clarifier les évolutions de la gouvernance du numérique, nous a convaincus de la nécessité de mettre à jour l’édition 2019. En intégrant le référentiel de mesure de la maturité de la gouvernance développé par ISACA France, nous avons rapproché de manière cohérente l’exercice d’audit et l’évaluation de la maturité », explique Véronique Beaupère, conseil en stratégie et gouvernance des systèmes d’information et administratrice d’ISACA France, qui a codirigé les travaux.

13 vecteurs de gouvernance pour couvrir l’ensemble du numérique

Le modèle s’articule autour de 13 vecteurs clés : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication. Pour chacun, le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.

Le modèle se distingue par l’ajout d’un 13ème vecteur dédié à la RSE, ainsi que par l’intégration systématique de l’IA dans tous les vecteurs, en particulier celui des données.Pour chacun des 13 vecteurs clés  le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.

L’outil intègre une grille de maturité assortie d’une restitution visuelle sous forme de radar, permettant de prioriser les actions, de mesurer les progrès dans le temps et de comparer différentes entités  (entreprises, filiales, business units). Le fichier Excel associé permet de noter le niveau de respect des exigences, de calculer automatiquement la maturité par vecteur et de générer ce radar à destination du management.

Un langage commun entre DG, DSI, métiers et auditeurs

L’un des objectifs affichés du MAGNum est de réconcilier des populations qui, souvent, ne parlent pas le même langage. En proposant un vocabulaire partagé entre les décideurs (DG, DSI, directions métiers), les auditeurs et les opérationnels, le modèle entend aligner gouvernance du numérique et stratégie d’entreprise.

Pour Djilali Kies, pilote du projet pour le Cigref, « nos trois associations, chacune par leurs travaux parallèles, ont acquis la conviction que la maîtrise de la gouvernance du numérique n’est aujourd’hui plus négociable pour les entreprises, c’est devenu un impératif. Nous avons donc décidé de regrouper nos efforts, avec pour objectif d’aller au-delà du guide d’audit et de produire cette fois plutôt un manuel de maturité, un référentiel de bonnes pratiques, un outil qui intègre déjà toutes les évolutions que l’on connaît à date du monde du numérique. »

Du côté des auditeurs internes, Guillaume Cuisset, associé KPMG et membre du Groupe Professionnel « Systèmes d’Information » de l‘IFACI, souligne l’apport concret pour leur pratique : « Maîtriser les questions de gouvernance du numérique est devenu un enjeu très important pour une direction d’audit interne. Ce nouveau modèle de maturité permet à l’auditeur interne de mieux comprendre le fonctionnement de la DSI, d’identifier les causes profondes des dysfonctionnements et de formuler des recommandations plus ciblées. C’est un outil qui va lui permettre de discuter, selon un même champ lexical, avec son DSI, son directeur du numérique, tout en s’appuyant sur un référentiel de bonnes pratiques qui est partagé par les deux métiers, puisqu’il aura été construit collégialement entre nos trois associations. »

Un outil conçu pour les équipes terrain

Le MAGNum repose sur trois principes fondateurs : le pragmatisme (les critères sont issus des retours de terrain des contributeurs), la lisibilité (un vocabulaire accessible à l’IT, aux métiers et aux fonctions support) et la facilité d’usage (des outils simples, y compris pour les non-spécialistes).

In fine, le modèle se positionne à la fois comme un outil de pilotage de la transformation numérique, un support d’objectivation des priorités d’investissement, un référentiel commun de dialogue entre DG, métiers, DSI, conformité et audit, et un moyen d’auto-évaluation régulière de la gouvernance du numérique.

Le MAGNum 2026 est disponible en téléchargement libre (version française) sur l’espace membres d’ISACA France : https://engage.isaca.org/parischapter/espacemembres/publications/publications343

*Les 13 vecteurs clés sont  : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication.

 

The post Gouvernance du numérique : le MAGNum 2026 remplace le GAGSI appeared first on Silicon.fr.

DeepIP lève 25 millions $ pour unifier l’IA dans le cycle de vie des brevets

4 mars 2026 à 13:15

DeepIP, plateforme d’IA dédiée aux brevets, annonce ce 3 mars une levée de fonds de 25 millions $ en Série B, portant son financement total à 40 millions $.

Le tour est co-mené par Korelya Capital, fonds fondé par Fleur Pellerin, ancienne ministre française de l’Économie numérique, et Serena, fonds connu pour avoir accompagné Dataiku. Les investisseurs historiques Balderton (Revolut) et Headline (Mistral AI) participent également à l’opération.

Fondée en 2024 par François-Xavier Leduc et Edouard d’Archimbaud, les deux cofondateurs de Kili Technology, une scale-up spécialisée en IA pour les entreprises du Fortune 500, DeepIP opère depuis New York et Paris.

Le problème que DeepIP cherche à résoudre

Si l’IA a commencé à s’imposer dans la pratique des brevets, la plupart des outils disponibles restent cloisonnés : chaque solution adresse une tâche isolée, obligeant les professionnels à naviguer entre des systèmes déconnectés et à transporter manuellement le contexte d’une étape à l’autre. Dans un domaine où précision et traçabilité sont critiques, cette fragmentation génère des frictions.

« La première vague d’IA appliquée aux brevets s’est principalement concentrée sur l’accélération de tâches individuelles », explique François-Xavier Leduc, CEO de DeepIP. « Or, la pratique des brevets repose sur un travail cumulatif, qui s’inscrit dans la durée, mobilise plusieurs équipes et implique de nombreuses décisions. »

Une intégration dans les outils existants

La réponse de DeepIP consiste à intégrer l’IA directement dans les environnements où le travail brevets s’effectue déjà ; Microsoft Word en tête ainsi que les plateformes de gestion d’actifs de propriété intellectuelle. L’objectif est de ne pas contraindre les équipes à changer leurs outils ou leurs processus. La société indique que cette approche génère jusqu’à 20 % d’adoption supplémentaire et 40 % d’usage en plus par rapport aux outils d’IA autonomes.

La plateforme revendique aujourd’hui plus de 400 cabinets et équipes IP (Propriété Intellectuelle) clients dans 25 juridictions et sur 5 continents, parmi lesquels Greenberg Traurig, Philips, Dexcom et Mewburn Ellis. Au total, plus de 40 000 dossiers auraient été traités via la plateforme.

Ce financement doit notamment permettre d’accélérer le développement de capacités d’IA agentique  afin d’aider les équipes à absorber des volumes croissants sans alourdir leur charge opérationnelle.

Pour Olivier Martret, Partner chez Serena, l’enjeu est aussi structurel : « Le marché mondial de l’IA appliquée aux brevets reste très fragmenté. Un positionnement plateforme est essentiel pour établir un nouveau standard. »

Photo : François-Xavier Leduc (droite) et Edouard d’Archimbaud (gauche) respectivement
CEO et CTO  © DR

The post DeepIP lève 25 millions $ pour unifier l’IA dans le cycle de vie des brevets appeared first on Silicon.fr.

IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public

4 mars 2026 à 12:43

Il y a des refus qui coûtent cher. Et d’autres qui rapportent gros. Anthropic vient de vivre la seconde expérience…sur le terrain de la popularité.

En renonçant à un contrat avec le Département de la Défense américain, que son rival OpenAI a accepté dans la foulée, la scale-up dirigée par Dario Amodeï s’est retrouvée propulsée au sommet de l’App Store américain, dépassant ChatGPT pour la première fois de son histoire.

Tout commence début 2026, lorsque le Pentagone cherche à déployer des modèles d’intelligence artificielle sur ses réseaux classifiés. Anthropic est dans la course  jusqu’au moment où l’entreprise comprend que l’accord implique de lever certaines de ses « lignes rouges ».  Pas question pour Dario Amodei et son équipe d’autoriser la surveillance domestique de citoyens américains ni de cautionner le développement d’armes autonomes létales. Anthropic claque la porte. OpenAI, elle, entre.

Une négociation « bâclée » selon Sam Altman

La décision d’OpenAI provoque une réaction en chaîne que personne n’avait vraiment anticipée. À San Francisco comme à Londres, des manifestants s’installent devant les bureaux de la firme de Sam Altman.

Mais le coup le plus inattendu vient de l’intérieur : près de 500 employés d’OpenAI et de Google cosignent une lettre ouverte, intitulée  » Nous ne serons pas divisés »,  exprimant leur soutien aux positions d’Anthropic. Face à la tempête, le PDG d’OpenAI est contraint à une rare autocritique publique, admettant avoir « bâclé » la négociation, et promettant des amendements contractuels en urgence.

Ces amendements, obtenus sous pression, comportent désormais des interdictions explicites : les systèmes d’IA « ne doivent pas être utilisés intentionnellement pour la surveillance domestique » de ressortissants américains.

Les agences de renseignement comme la NSA se voient en outre privées d’accès sans modification contractuelle préalable, une garantie que le Pentagone lui-même a confirmée publiquement. Trop tard, aux yeux de nombreux observateurs.

OpenAI vs Anthropic : une opposition de principes

La progression est spectaculaire. Claude est devenue l’application d’IA gratuite la plus téléchargée sur l’App Store américain, reléguant ChatGPT à la deuxième position et Gemini au-delà. Sur Android, l’application grimpe jusqu’à la septième place générale. Les records quotidiens d’inscriptions s’enchaînent. Et les abonnés payants ont doublé en l’espace d’un an.

Le mouvement dépasse la simple satisfaction d’utilisateurs éclairés. Le groupe QuitGPT appelle activement au boycott de ChatGPT sur les réseaux sociaux, encourageant la désinstallation de l’application. Lors du dernier Super Bowl, Anthropic a diffusé une publicité de 60 secondes vivement commentée, dénonçant avec ironie l’intégration croissante de contenus sponsorisés dans ChatGPT.

OpenAI sous pression

Chez OpenAI, on renégocie désormais sous la contrainte. Les amendements annoncés par Sam Altman ressemblent moins à une position de principe qu’à une gestion de crise. Cela n’empêchera pas la question de fond de revenir : jusqu’où les géants de l’IA civile peuvent-ils s’engager dans des applications militaires sans perdre la confiance du grand public ?

La controverse ouvre également un débat plus large sur la régulation des IA militaires. Les craintes d’armes autonomes létales et de systèmes de « crédit social » inspirés du modèle chinois alimentent un mouvement international qui dépasse la simple querelle de chapelle entre deux poids lourds de l’IA. L’Europe, déjà engagée dans la rédaction de son AI Act, observe attentivement.

Pour Anthropic, le défi est désormais de transformer ce momentum en avantage durable. La scale-up reste à perte, dans une course à l’infrastructure qui exige des milliards de dollars d’investissement. Mais elle a prouvé une chose que peu de ses concurrents auraient osé parier : dans l’économie de l’attention de 2026, les principes peuvent rapporter.

Illustration : photo générée par l’IA

 

 

The post IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public appeared first on Silicon.fr.

Mathias Michiels nommé Country Manager de Cohesity France

3 mars 2026 à 15:18

Cohesity renforce son dispositif français. L’éditeur américain, qui se positionne comme leader de la sécurisation des données par l’IA, annonce  la nomination de Mathias Michiels au poste de Country Manager France. Basé à Paris, il prend la tête des équipes commerciales locales avec pour ambition d’accélérer la croissance de Cohesity sur ce marché qu’elle considère comme stratégique.

Un parcours forgé dans les grandes ligues du logiciel

Mathias Michiels arrive avec plus de 15 ans d’expérience dans l’industrie du logiciel. Il a débuté dans la gestion de comptes chez Oracle et SAS Institute, avant de consacrer plus d’une décennie à VMware. Là, il a gravi les échelons jusqu’au poste de Senior Sales Director pour les solutions Tanzu sur la région SEMEA, à la tête d’une équipe transverse de 80 personnes. Un passage qui lui a permis de se forger une expertise reconnue sur les problématiques de cloud hybride, de modernisation applicative et d’espaces de travail numériques.

Cyber-résilience, le mot d’ordre

Sa mission chez Cohesity dépasse le simple pilotage commercial. Mathias Michiels devra imposer un changement de perception sur le marché : faire de Cohesity non pas une solution de protection des données parmi d’autres, mais un partenaire à part entière de la cyber-résilience des organisations capables, selon la promesse de l’entreprise, de survivre aux cyberattaques et d’en ressortir « plus fortes, plus intelligentes et plus fiables ».

Le contexte joue en sa faveur. « Nous sommes à un moment aussi critique pour les entreprises et organisations françaises face à l’accélération des cybermenaces », reconnaît lui-même le nouveau Country Manager. Pour Matthieu Gross, directeur des ventes pour l’Europe du Sud chez Cohesity, « son arrivée marque une étape clé pour notre croissance et notre succès continus dans la région ».

Photo : © DR

The post Mathias Michiels nommé Country Manager de Cohesity France appeared first on Silicon.fr.

iPhone 17e : le « cheval de Troie » à 599 $

2 mars 2026 à 15:58

En apparence, l’iPhone 17e ressemble à une bonne affaire. 599 $ pour un smartphone doté de la puce A19, de 256 gigaoctets de stockage et d’un écran OLED de 6,1 pouces ; soit exactement les performances de l’iPhone 17 standard, pour une centaine d’euros de moins.  Génereux, Apple ? Pas vraiment. Stratège, assurément.

Car derrière ce tarif soigneusement calibré sous la barre psychologique des 600 $ se cache une mécanique bien rodée : celle d’un écosystème conçu pour capter, retenir et monétiser ses utilisateurs sur le long terme.

Le hardware comme appât

Apple ne sacrifie pas ses marges par philanthropie. L’iPhone 17e fait certes quelques concessions, comme le taux de rafraîchissement revu à la baisse et le module photo simplifié,  mais il embarque les technologies maison qui font la différence : modem 5G interne, puce A19 compatible avec Apple Intelligence. Autrement dit, un appareil pleinement fonctionnel pour les usages d’aujourd’hui et de demain, vendu à un prix qui ferme la porte aux offres Android agressives entre 400 et 600 $.

Le doublement du stockage de base, passé de 128 à 256 Go à prix constant, est à cet égard révélateur. Il ne s’agit pas d’une largesse mais d’un calcul : plus de stockage, c’est plus de photos, de vidéos, d’apps, et donc un utilisateur plus engagé, moins enclin à migrer vers la concurrence.

Le vrai business model : les services

Pour comprendre la logique de ce lancement, il faut regarder au-delà du chiffre de vente unitaire. Apple perçoit aujourd’hui une part croissante de ses revenus via ses services : App Store, iCloud+, Apple Music, TV+, Arcade…

L’ARPU, le revenu moyen par utilisateur, y est structurellement supérieur à celui de ses rivaux, grâce à un écosystème verrouillé que les analystes qualifient volontiers de « jardin fermé ».

Chaque nouvel iPhone vendu, même à prix réduit, est une porte d’entrée dans cet univers. Un utilisateur converti à l’iPhone 17e aujourd’hui est un abonné iCloud potentiel demain, un client Apple TV+ après-demain. Sur cinq ans, la valeur vie client d’un acheteur de 17e dépasse largement celle que génère la marge hardware initiale.

Ne pas cannibaliser, mais élargir

Ce qui distingue l’iPhone 17e d’une simple entrée de gamme, c’est sa capacité à élargir le marché sans rogner sur les segments premium. Les iPhone 17 Pro et Pro Max, facturés jusqu’à 1 199 $, continuent d’adresser les consommateurs les moins sensibles au prix. Le 17e, lui, va chercher ceux qui hésitaient encore, les utilisateurs Android en renouvellement, les marchés émergents à pouvoir d’achat limité.

Apple réussit ainsi l’équilibre délicat qu’échouent souvent à tenir ses concurrents : un portefeuille cohérent, sans guerre interne des gammes.

Préparer l’après-smartphone

Il y a enfin une dimension prospective dans ce lancement. Équipé de l’A19 et de 256 Go, le 17e assure une compatibilité optimale avec les usages IA intensifs, la réalité augmentée et les futurs services data-lourds comme les lunettes AR, les interfaces connectées et véhicules autonomes qu’Apple prépare en coulisses. Massifier l’accès à ces technologies en amont, c’est s’assurer une base installée prête à adopter les prochains produits de l’écosystème.

L’iPhone 17e n’est donc pas un aveu de faiblesse d’Apple face à un marché saturé. C’est un investissement à long terme, déguisé en promotion. Tim Cook n’a pas bradé un iPhone. Il a planté un drapeau.

Image : © Apple

The post iPhone 17e : le « cheval de Troie » à 599 $ appeared first on Silicon.fr.

IA militaire : OpenAI remplace Anthropic au Pentagone

2 mars 2026 à 11:05

OpenAI a officialisé un accord avec le Pentagone pour déployer ses modèles d’IA dans des environnements classifiés, en le présentant comme le partenariat “le plus encadré » à ce jour pour des usages militaires de l’IA.

Les grandes lignes de l’accord

OpenAI explique l’avoir conclu  en demandant que des conditions similaires soient proposées à l’ensemble des laboratoires d’IA et affirme que cet accord comporte « plus de garde-fous que tout accord précédent pour des déploiements d’IA classifiés, y compris celui d’Anthropic ».

Le cadre prévoit un usage de ses modèles par le Department of War (DoW, terminologie utilisée par OpenAI) pour « toutes finalités légales », mais accompagné de restrictions contractuelles et techniques qualifiées de “red lines».

Trois “lignes rouges” affichées

OpenAI met en avant trois interdictions explicites qui doivent structurer l’usage de ses technologies par le Pentagone.

  • Pas d’utilisation de la technologie OpenAI pour la surveillance de masse domestique.
  • Pas d’utilisation pour diriger des systèmes d’armes autonomes.
  • Pas d’utilisation pour des décisions automatisées à forts enjeux, comme des systèmes de type “crédit social”.

Selon l’inventeur de ChatGPT, d’autres laboratoires auraient « réduit ou supprimé leurs garde-fous « et misé principalement sur des politiques d’usage, alors que la société revendique un dispositif plus « multi-couches », combinant architecture de déploiement, pile de sûreté (“safety stack”), implication d’experts et clauses contractuelles.

Un déploiement cloud et une “safety stack” contrôlée par OpenAI

L’accord repose sur un déploiement «cloud-only », opéré par OpenAI, sans fourniture de modèles « sans garde-fous » ni de versions non entraînées pour la sûreté. L’entreprise souligne qu’aucun modèle n’est déployé sur des « edge devices”, ce qui, selon elle, limite la possibilité d’un emploi direct dans des armes létales autonomes. Elle indique que cette architecture lui permettra de vérifier de manière indépendante que les lignes rouges ne sont pas franchies, notamment via des classifieurs mis à jour dans le temps.

Le langage contractuel mis en avant

OpenAI publie un extrait clé du contrat pour illustrer la manière dont les garde-fous sont juridiquement encadrés.

  • Le DoW “peut utiliser le système d’IA pour toutes fins légales”, conformément au droit applicable, aux exigences opérationnelles et aux protocoles de sûreté et de supervision.
  • Le système “ne sera pas utilisé pour diriger de manière indépendante des armes autonomes” dans les cas où la loi ou la politique du département exigent un contrôle humain, ni pour assumer d’autres décisions à forts enjeux qui nécessitent l’approbation d’un décideur humain sous les mêmes autorités.
  • Pour les activités de renseignement, tout traitement d’informations privées doit respecter le Quatrième Amendement, le National Security Act de 1947, le FISA, l’Executive Order 12333 et les directives du DoD imposant un objectif de renseignement étranger défini.
  • Le système « ne doit pas être utilisé pour une surveillance non contrainte des informations privées de personnes américaines »et ne peut servir à des activités de maintien de l’ordre intérieur que dans les limites du Posse Comitatus Act et des lois applicables.

OpenAI insiste aussi sur le fait que le contrat référence explicitement les lois et politiques
« telles qu’elles existent aujourd’hui », de manière à empêcher que d’éventuelles évolutions réglementaires futures ne puissent automatiquement élargir les usages de son IA au-delà du cadre actuel.

Des ingénieurs et chercheurs OpenAI “dans la boucle”

L’accord prévoit la présence d’ingénieurs “forward-deployed” d’OpenAI, dûment habilités secret-défense, ainsi que de chercheurs sûreté/alignement eux aussi “dans la boucle”. Leur rôle annoncé est d’aider le gouvernement à intégrer les modèles, de surveiller les usages et de faire évoluer la “safety stack” au fil du temps. OpenAI affirme garder un “contrôle total” sur cette pile de sûreté et répète qu’elle refuse de déployer des modèles sans garde-fous techniques, y compris pour des missions de sécurité nationale.

Motivations stratégiques affichées par OpenAI

OpenAI avance deux principaux arguments pour justifier cet engagement avec le Pentagone.

  • D’une part, l’entreprise estime que l’armée américaine « a absolument besoin de modèles d’IA puissants » pour faire face à des adversaires qui intègrent déjà l’IA dans leurs systèmes. La société explique qu’elle n’avait pas, jusqu’ici, jugé ses propres garde-fous et systèmes assez mûrs pour un déploiement classifié, et qu’elle a travaillé à les renforcer.
  • D’autre part, OpenAI dit vouloir “désescalader” les tensions entre le Department of War et les laboratoires d’IA américains, en demandant notamment que les mêmes termes soient proposés à tous et que le gouvernement tente de “résoudre les choses avec Anthropic”.

Interrogée implicitement sur la désignation d’Anthropic comme « supply chain risk » par les autorités américaines, OpenAI répond qu’elle ne soutient pas cette décision et qu’elle a clairement exprimé cette position au gouvernement.

OpenAI, Anthropic et la question des garde-fous

Dans sa FAQ, OpenAI se positionne par rapport aux arguments d’Anthropic, qui avait détaillé ses propres « red lines » et ses réserves quant à la capacité du Pentagone à les respecter dans les contrats envisagés. OpenAI rappelle partager deux de ces lignes rouges (surveillance de masse domestique, armes pleinement autonomes) et y ajouter une troisième concernant les décisions automatisées à forts enjeux.

L’entreprise explique pourquoi elle juge ces lignes plus exécutoires dans son propre contrat :

  • la surveillance domestique de masse serait explicitement exclue du champ de l’usage légal » dans le texte contractuel,
  • l’architecture cloud décrite ne permettrait pas, selon elle, d’alimenter directement des armes entièrement autonomes faute de déploiement en périphérie.

OpenAI affirme aussi que son accord  « offre plus de garde-fous que les accords précédents, y compris le contrat original d’Anthropic », en combinant contrainte contractuelle, limites techniques et supervision humaine.

Que se passe-t-il en cas de dérive de l’État ?

Sur un terrain plus politique, OpenAI tente de répondre aux inquiétudes récurrentes concernant l’évolution possible du cadre légal ou des pratiques de surveillance.

En cas de violation des termes par l’État, OpenAI indique qu’elle pourrait, comme pour tout contrat, le résilier, même si elle ne « s’attend pas » à ce scénario.

Si le gouvernement modifie ultérieurement les lois ou politiques de défense, l’entreprise souligne que le contrat renvoie explicitement aux normes actuelles, ce qui, selon elle, limite la portée de futurs assouplissements législatifs.

Sur les deux points les plus sensibles, OpenAI assure que l’accord “ne permettra pas” l’usage de ses modèles pour des armes autonomes ni pour de la surveillance de masse de citoyens américains, en invoquant à la fois la safety stack, l’architecture cloud, le langage contractuel et la présence de personnel OpenAI dans la boucle.

The post IA militaire : OpenAI remplace Anthropic au Pentagone appeared first on Silicon.fr.

OpenAI vs Anthropic : comment les géants de la tech financent les deux rivaux

27 février 2026 à 16:45

C’est un chiffre qui donne, une nouvelle fois, le vertige. OpenAI a finalisé un tour de table de 110 milliards $, propulsant sa valorisation à 730 milliards, et même 840 milliards post-money. De quoi faire de l’inventeur de ChatGPT, l’une des entreprises les mieux valorisées au monde, avant même une éventuelle introduction en bourse.

Amazon en tête, suivi de SoftBank et Nvidia

Le clou de l’opération, c’est Amazon qui injecte 50 milliards $ dans le tour, soit de loin son plus grand chèque jamais signé pour une seule entreprise. SoftBank et Nvidia complètent le podium avec 30 milliards chacun.

Mais au-delà des chiffres bruts, c’est la nature stratégique de l’accord avec Amazon qui retient l’attention. OpenAI s’engage à utiliser les puces maison d’AWS, les Trainium, et à développer conjointement des modèles sur mesure pour les équipes d’ingénierie d’Amazon. Cerise sur le gâteau : OpenAI promet de dépenser 100 milliards $ supplémentaires sur AWS au cours des huit prochaines années, un engagement colossal qui vient s’ajouter à un précédent accord de 38 milliards signé en novembre dernier.

Microsoft n’est pas écarté

La montée en puissance d’Amazon dans l’orbite d’OpenAI soulève une question naturelle : qu’en est-il de Microsoft, jusqu’ici partenaire historique en matière d’infrastructure ? Les deux entreprises ont tenu à rassurer le marché dans un communiqué commun : « Rien dans les annonces d’aujourd’hui ne modifie en quoi que ce soit les termes de la relation entre Microsoft et OpenAI. » Un message de stabilité qui sonnait presque comme une mise au point.

La guerre des valorisations fait rage

Cette levée intervient dans un contexte de surenchère généralisée entre OpenAI et son grand rival Anthropic qui a levé 30 milliards $ ce mois-ci, auprès d’investisseurs comprenant Nvidia et Microsoft, pour une valorisation de 380 milliards $.

Les deux concurrents ont désormais en commun un même réseau d’investisseurs, un même besoin frénétique de GPUs et de datacenters, et une même logique de financements croisés qui interroge les analystes.

Ces « circular deals », où les fournisseurs de cloud et de semi-conducteurs investissent dans les startups d’IA qui s’engagent en retour à consommer leurs services, sont perçus comme un moyen efficace de sécuriser une infrastructure rare. Mais ils amplifient aussi les risques : si la demande pour l’IA ne justifie pas les valorisations actuelles, les pertes pourraient se propager en cascade.

The post OpenAI vs Anthropic : comment les géants de la tech financent les deux rivaux appeared first on Silicon.fr.

IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non

26 février 2026 à 18:08

{ Mise à jour } – Dario Amodei n’aura pas attendu la date limite de l’ultimatum, ce 27 février, fixé par Pete Hegseth, secrétaire à la Défense.

Dans un long communiqué, le PDG d’Anthropic a donné sa réponse dès hier après-midi ( à l’heure californienne) : c’est Non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit Dario Amodei.

Et de poursuivre : « Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit-il, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

Pour clarifier son refus, Mario Amodei rappelle sa doctrine sur l’IA militaire: « Nous soutenons l’utilisation de l’IA pour des missions légitimes de renseignement et de contre-espionnage à l’étranger. Mais l’utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques », écrit-il en estimant que cette pratique « représente un risque grave et inédit pour nos libertés fondamentales ».

Autre sujet de désaccord : les armes autonomes.  Le PDG précise « Sans un contrôle adéquat, on ne peut compter sur des armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement qualifiées. Leur déploiement doit être encadré par des garde-fous appropriés, qui n’existent pas actuellement ». Et d’ajouter qu’aucun de ces sujets n’avaient  « constitué, jusqu’à présent, un obstacle à l’accélération de l’adoption et de l’utilisation de nos modèles au sein de nos forces armées ».

Il relève aussi que « Ces deux menaces sont incohérentes : l’une nous qualifie de risque pour la sécurité, la seconde fait de Claude un élément essentiel pour la sécurité nationale. »

Le refus d’obtempérer aux menaces de Pete Hegseth d’une désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » étant désormais acté, le Ministère de la Guerre va-t-il mettre sa menace à exécution ? .

——————————————————————-

La bataille sans précédent qui se joue en ce moment entre le Pentagone et Anthropic prend une nouvelle tournure. Selon des informations exclusives d’Axios, le département de la Défense a contacté ce mercredi deux géants de l’industrie de défense – Boeing et Lockheed Martin – pour évaluer leur dépendance au modèle d’IA Claude. Une première étape vers une éventuelle désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».

Cette sanction, habituellement réservée aux entreprises issues de pays adversaires, comme le chinois Huawei, n’a jamais été appliquée à une firme technologique américaine de premier plan. L’appliquer à Anthropic constituerait un précédent historique.

Claude au cœur des systèmes classifiés

L’enjeu est considérable. Claude est aujourd’hui le seul modèle d’IA opérant dans les systèmes classifiés de l’armée américaine. Selon Axios, il aurait été mobilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, via le partenariat d’Anthropic avec Palantir, et pourrait à terme être engagé dans d’éventuelles opérations militaires en Iran.

Si le Pentagone salue les performances de Claude, il est en revanche « furieux » qu’Anthropic refuse de lever ses garde-fous pour autoriser une utilisation aux fins de « toutes missions légales ». La startup tient notamment à bloquer le recours à son IA pour la surveillance de masse des citoyens américains ou pour le développement d’armements autonomes, c’est-à-dire capables de tirer sans intervention humaine.

Un ultimatum fixé au 27 février

La tension a culminé le 24 février lors d’une réunion particulièrement tendue. Le secrétaire à la Défense Pete Hegseth aurait fixé un ultimatum au PDG d’Anthropic, Dario Amodei : se plier aux exigences du Pentagone d’ici le 27 février. Faute de quoi, l’administration aurait recours soit au Defense Production Act, une loi permettant de contraindre des entreprises privées à servir les intérêts nationaux, soit à la désignation de « risque pour la chaîne d’approvisionnement ».

« Ce sera une vraie galère à démêler, et nous allons faire en sorte qu’ils paient le prix de nous avoir forcé la main », a déclaré à Axios un haut responsable de la Défense, évoquant cette possible désignation.

Du côté d’Anthropic, on préfère minimiser les tensions. Un porte-parole a décrit la réunion comme « une continuation de conversations de bonne foi sur notre politique d’utilisation, afin de garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement dans le cadre de ce que nos modèles peuvent faire de manière fiable et responsable ». Aucun commentaire n’a été formulé sur la possible désignation de risque.

La concurrence s’engouffre dans la brèche

Pendant ce temps, les concurrents se positionnent. xAI, la société d’IA d’Elon Musk, vient de signer un accord pour intégrer les systèmes classifiés de l’armée, sous la clause d’« usage légal complet » qu’Anthropic a précisément refusée. Google et OpenAI, dont les modèles sont déjà présents dans les systèmes non classifiés, seraient en négociations pour franchir le même pas. Selon une source citée par Axios, le Gemini de Google représente déjà « une solide alternative » à Claude dans plusieurs cas d’usage militaires.

Une désignation de risque serait un coup sévère pour Anthropic si elle conduisait les entreprises partenaires de l’État à retirer Claude de leurs infrastructures. Mais la scale-up pourrait aussi y trouver un bénéfice inattendu : être perçue, aux yeux de ses clients et de ses talents, comme l’entreprise qui a tenu bon face aux pressions d’une course aux armements dans l’IA. La date limite approche.

 

Article mis à jour le 27 février avec la position de refus d’Anthropic

The post IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non appeared first on Silicon.fr.

HP plombé par la flambée des puces mémoire

25 février 2026 à 11:50

Pendant que les géants du cloud engloutissent des capacités de mémoire pour alimenter leurs data centers, les fabricants comme HP font les frais de cette ruée. Si le constructeur américain d’ordinateurs et d’imprimantes a publié mardi des résultats trimestriels supérieurs aux attentes,  il indique s’attendre à ce que ses bénéfices annuels se situent « en bas de la fourchette » de sa guidance, soit autour de 2,90 $ par action sur les 2,90 à 3,20 $ annoncés.

Plus préoccupant encore, HP anticipe un recul des livraisons de PC « à deux chiffres » sur l’ensemble de l’exercice fiscal 2026, en ligne avec les tendances du secteur.

La mémoire, talon d’Achille du secteur

Au cœur de ces turbulences : la pénurie de puces mémoire. En novembre dernier, HP estimait que les composants mémoire et stockage représentaient 15 à 18 % du coût de fabrication de ses ordinateurs. Ce ratio devrait grimper à 35 % sur l’ensemble de l’exercice fiscal. La directrice financière Karen Parkhill a précisé lors d’une conférence téléphonique avec les analystes que les prix de la mémoire avaient pratiquement doublé en l’espace d’un trimestre  et que de nouvelles hausses sont attendues. La pénurie devrait persister au-delà de l’exercice 2026.

Face à cette situation, HP dit avoir engagé plusieurs mesures correctives : diversification de ses fournisseurs, ajustement de certains produits pour réduire leur consommation de mémoire, et hausse des prix de vente. « Nous avons une solide expérience dans la gestion des cycles de matières premières », a déclaré Bruce Broussard, le directeur général par intérim, en tentant de rassurer.

Tarifs douaniers et transition au sommet

La volatilité des composants n’est pas le seul défi. HP doit également composer avec la politique commerciale de l’administration Trump. Le groupe a largement relocalisé sa production hors de Chine pour les produits destinés au marché nord-américain, une anticipation des droits de douane qui s’avère payante à court terme. HP indique ne pas s’attendre à ce que les nouvelles mesures tarifaires américaines pèsent immédiatement sur ses activités, tout en précisant qu’il « continue de dialoguer avec l’administration sur ces sujets ».

La situation est par ailleurs compliquée par un changement de direction inattendu. Début mars, PayPal a débauché Enrique Lores, le PDG d’HP, pour en prendre les rênes. C’est donc Bruce Broussard, administrateur du conseil, qui assure l’intérim pendant que le groupe cherche un successeur permanent.

Des signaux positifs à ne pas négliger

Le tableau n’est pas entièrement sombre. HP note une demande soutenue en Europe et en Asie, portée par le cycle de renouvellement lié à Windows 11. Le segment premium, tant professionnel que grand public, tire les prix moyens de vente vers le haut. Et les PC dotés de fonctionnalités d’intelligence artificielle représentaient plus de 35 % des livraisons au premier trimestre, contre 30 % le trimestre précédent, une adoption en accélération qui redonne des couleurs au groupe.

HP a par ailleurs lancé un programme de réduction des coûts sur plusieurs années, visant un milliard de dollars d’économies annuelles d’ici 2028, même si ce plan s’accompagne de charges de restructuration dans l’immédiat.

Un trimestre solide, une année difficile

Sur le plan strictement comptable, le premier trimestre fiscal ( clos le 31 janvier) est plutôt encourageant. Le chiffre d’affaires a progressé de 6,9 % à 14,44 milliards $. La division Personal Systems, qui regroupe les PC grand public et professionnels, a enregistré une hausse de 11 % de ses revenus à 10,25 milliards $, portée notamment par un bond de 16 % des ventes grand public. L’impression, en revanche, recule de 2 % à 4,19 milliards.

The post HP plombé par la flambée des puces mémoire appeared first on Silicon.fr.

Meta mise des dizaines de milliards sur les GPU d’AMD

24 février 2026 à 16:44

Meta et AMD ont signé un accord pluriannuel portant sur le déploiement de jusqu’à 6 gigawatts de puissance de calcul dédiée aux centres de données d’IA du groupe, à base de GPU Instinct et de CPU optimisés pour l’IA. Cette capacité sera déployée progressivement sur plusieurs années, à partir de la seconde moitié de 2026, ce qui en fait l’un des plus grands projets d’infrastructure IA au monde.

Les premiers déploiements s’appuieront sur l’architecture rack Helios, co‑conçue par Meta et AMD dans le cadre de l’Open Compute Project, afin d’optimiser densité, efficacité énergétique et intégration logicielle.

AMD fournit des GPU de nouvelle génération (MI450) et des CPU EPYC de 6ème génération, dimensionnés pour les charges d’inférence à grande échelle, en complément des capacités de training déjà en place chez Meta.

Objectif : diversifier et optimiser l’infrastructure IA

Cette montée en puissance d’AMD arrive alors que Meta reste l’un des plus gros clients de Nvidia, avec un parc équivalent à plusieurs centaines de milliers de GPU H100 et futurs Blackwell pour l’entraînement de modèles de fondation. En introduisant massivement les GPU Instinct d’AMD dans ses data centers, Meta cherche à diversifier ses fournisseurs, réduire son exposition au seul écosystème CUDA et optimiser le coût total de possession de ses clusters IA.

Les GPU Instinct sont déjà utilisés par Meta sur certaines charges, et AMD met en avant des gains de performance par watt et de TCO sur des modèles largement déployés, qu’il s’agisse de recommandation, de vision ou de LLM.

L’accord avec Meta inclut en plus des GPU « customisés » pour les workloads du groupe, élément présenté comme un différenciateur face à Nvidia, qui ne met pas en avant ce degré de personnalisation dans ses grands contrats.

Un socle pour la “personal superintelligence”

Meta affirme vouloir bâtir une infrastructure capable de soutenir une « superintelligence personnelle » accessible à grande échelle, ce qui suppose des capacités massives pour l’entraînement et l’inférence de modèles multimodaux auprès de milliards d’utilisateurs.

Les 6 GW de puissance IA visés doivent alimenter les futures générations d’algorithmes de recommandation, d’assistants conversationnels, d’outils créatifs et de modération de contenu sur Facebook, Instagram, WhatsApp et les services de réalité mixte.

Pour tenir cette ambition, Meta prévoit la construction ou la conversion de 30 centres de données, dont 26 situés aux États‑Unis, conçus nativement pour les charges d’IA à forte intensité GPU et l’optimisation énergétique. La standardisation autour d’architectures communes comme Helios et Open Compute doit faciliter le scaling rapide, la maintenance et la co‑conception de nouvelles générations de racks avec AMD.

Un mécanisme de warrants qui aligne Meta et AMD

Au‑delà des équipements, l’accord comprend un mécanisme de warrant de performance donnant à Meta le droit d’acquérir jusqu’à 160 millions d’actions AMD, soit environ 10% du capital, sous conditions. Les tranches de ce warrant se débloquent à mesure que Meta reçoit les livraisons d’Instinct (1 GW, puis jusqu’à 6 GW), que certaines barrières de cours sont franchies par AMD et que des objectifs techniques et commerciaux sont atteints par les deux partenaires.

Ce montage crée un alignement fort : plus l’infrastructure AMD réussit chez Meta, plus Meta a intérêt à devenir actionnaire significatif d’AMD, et plus AMD bénéficie d’un client récurrent de très grande taille. Dans un contexte où AMD a déjà mis en place un dispositif similaire avec OpenAI pour ses futures générations de GPU MI450, ce schéma actionnarial renforce la place du fondeur comme alternative de référence à Nvidia dans le cloud IA.

Un message au marché des semi‑conducteurs IA

Pour AMD, ce contrat « à plusieurs dizaines de milliards de dollars » sur plusieurs années constitue un jalon majeur dans sa quête de parts de marché face à Nvidia sur le segment des GPU IA haut de gamme. L’annonce a d’ailleurs propulsé le titre AMD en forte hausse en pré‑marché, même si la réaction de Meta est restée plus mesurée, les investisseurs arbitrant entre l’ampleur des capex IA et la création de valeur à long terme.

The post Meta mise des dizaines de milliards sur les GPU d’AMD appeared first on Silicon.fr.

Nvidia prépare son retour dans les PC grand public

23 février 2026 à 16:30

Après avoir conquis les data centers et dominé le marché des processeurs pour intelligence artificielle, Nvidia se prépare à revenir là où tout a commencé : le PC. Le Wall Street Journal révèle que le géant américain s’apprête à lancer cette année ses premières puces dédiées aux ordinateurs portables, en partenariat avec Intel et MediaTek. Dell, Lenovo et d’autres fabricants planchent déjà sur des modèles propulsés par ces nouvelles architectures.

Une incursion stratégique, plus qu’un pari financier

Pour Jensen Huang, le fondateur et patron de Nvidia, l’ambition dépasse largement le simple lancement d’une nouvelle génération de processeurs. Il s’agit d’intégrer Nvidia au cœur du “PC de demain”, un appareil plus fin, plus réactif et surtout nativement dopé à l’intelligence artificielle.

Les nouvelles puces, conçues sur le modèle du system-on-a-chip (SoC) – combinant CPU et GPU dans un seul composant – promettent à la fois puissance et sobriété énergétique, à l’image des MacBook d’Apple.

Nvidia ne s’attend pas à des profits rapides. Mais pour le leader mondial des GPU, peser dans la future génération de PC intelligents est devenu stratégique : “Chaque appareil sera bientôt piloté par l’IA”, rappellent les analystes. En se réinvitant dans le segment grand public, Nvidia maintient un lien d’usage et d’image, complémentaire à son hégémonie industrielle.

Intel, MediaTek… et la revanche des architectures Arm

Le concept repose sur deux grands partenariats. Avec Intel, Nvidia associe ses technologies graphiques et d’intelligence artificielle aux processeurs du géant américain, qui détient encore près de 70 % du marché des puces pour PC Windows. En parallèle, une alliance avec le taïwanais MediaTek, fondée sur l’architecture Arm, cible des ordinateurs plus légers et plus efficaces, que Dell et Lenovo devraient lancer au premier semestre 2026.

Le pari est audacieux : étendre l’usage du modèle Arm dans un univers historiquement dominé par les architectures x86 d’Intel et AMD. Si la transition réussit, le PC “AI-native” pourrait devenir la nouvelle norme, donnant un second souffle à un marché en quête d’innovation.

Un pari sur les gamers et la performance

Nvidia n’oublie pas ses fidèles : les gamers. Eux aussi constituent une cible clé de cette renaissance, car la marque bénéficie dans cette communauté d’un statut quasi cultuel. Reste à surmonter les limites techniques de l’architecture Arm, qui a montré ses faiblesses pour les jeux sous Windows lors des premiers essais de puces Qualcomm. Pour convaincre, Nvidia devra garantir compatibilité et puissance tout en maîtrisant les coûts.

D’après Jason Tsai, du cabinet Digitimes, le prix devra rester entre 1 000 et 1 500 dollars. “Au-delà, le produit risquerait de relever du luxe technologique plus que de la démocratisation”, prévient l’analyste.

 

The post Nvidia prépare son retour dans les PC grand public appeared first on Silicon.fr.

Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale

23 février 2026 à 16:12

L’Institut national de l’information géographique et forestière (IGN) présentera officiellement son modèle de fondation en intelligence artificielle MAESTRO * à la Winter Conference on Applications of Computer Vision (WACV) 2026, qui se tiendra à Tucson début mars aux États‑Unis. L’article scientifique décrivant ce modèle, déposé sur arXiv en août 2025, a été retenu par le comité de programme de cet événement de référence en vision par ordinateur.

MAESTRO, un modèle de fondation pour l’observation du territoire

MAESTRO s’inscrit dans la catégorie des modèles de fondation, ces modèles d’IA pré‑entraînés sur de vastes volumes de données non annotées et capables ensuite de se spécialiser rapidement sur des tâches cibles. À l’image d’un enfant qui a déjà acquis les grands concepts du monde avant d’apprendre une discipline précise, MAESTRO bénéficie d’un socle de connaissances génériques qui lui permet d’apprendre plus vite, avec moins d’exemples annotés, et d’atteindre un meilleur niveau de performance.

Pensé pour exploiter la richesse et la complexité des données d’observation de la Terre produites et orchestrées par l’IGN (images aériennes, satellites, données multitemporelles et multispectrales, modèles numériques de terrain, etc.), MAESTRO est capable de traiter des scènes variées, à différentes échelles spatiales et temporelles. Cette approche réduit significativement le besoin en données labellisées, souvent coûteuses à collecter et à qualifier, en particulier dans des domaines où les experts et les jeux d’annotations fiables sont rares.

Des performances de pointe sur les domaines clés de l’IGN

Conçu pour répondre à des besoins opérationnels concrets, MAESTRO atteint des performances de pointe sur plusieurs domaines clés de la production de l’IGN. Il surpasse de manière significative les modèles généralistes de vision par ordinateur lorsqu’il s’agit de traiter les tâches spécifiques de l’observation du territoire, tout en nécessitant moins de données annotées.

Un exemple emblématique est la production de la nouvelle version de la Base de données Forêt, un référentiel stratégique pour le suivi des peuplements, la gestion forestière et l’adaptation au changement climatique. En capitalisant sur son pré‑entraînement massif sur des données non annotées, MAESTRO permet d’améliorer la qualité des cartes, de mieux caractériser les structures forestières et d’accélérer les mises à jour, tout en optimisant l’effort d’annotation.

Au‑delà de la forêt, le modèle peut être appliqué à d’autres piliers de la mission de l’IGN : cartographie de l’occupation des sols, suivi de l’artificialisation, observation des dynamiques urbaines, surveillance des milieux naturels ou encore analyse des risques environnementaux.

Une IA souveraine au service de l’écosystème

MAESTRO incarne une IA souveraine, conçue et maîtrisée par un acteur public de référence, au plus près des besoins des acteurs de l’observation du territoire et de la recherche. En développant ce modèle en France, sur des données maîtrisées et documentées, l’IGN contribue à consolider une capacité stratégique : comprendre, mesurer et anticiper les transformations des territoires sans dépendre exclusivement de solutions propriétaires.

Cette souveraineté technologique se traduit aussi par une capacité à adapter finement le modèle aux priorités nationales et européennes : transition écologique, aménagement durable, gestion des risques naturels, planification énergétique ou encore protection de la biodiversité.

Fidèle à sa politique d’ouverture de la donnée et des outils, l’IGN met à disposition la famille de modèles MAESTRO en open source sur la plateforme Hugging Face. Cette mise en commun vise à faciliter leur réutilisation par un large écosystème d’acteurs publics et privés : laboratoires de recherche, start-up, collectivités territoriales, agences d’aménagement, opérateurs de réseaux ou entreprises de la géodata.

Cas d’usage : de l’artificialisation à la forêt

MAESTRO pourra ainsi servir de socle à une nouvelle génération d’applications dans des domaines variés :

  • Agriculture : suivi des cultures, optimisation des intrants, détection précoce des stress ou maladies.
  • Urbanisme : observation des formes urbaines, suivi de l’étalement, évaluation de l’artificialisation nette des sols.
  • Environnement : cartographie des milieux, suivi des zones humides, analyse des impacts du changement climatique.
  • Gestion des risques : surveillance des zones exposées aux inondations, mouvements de terrain, incendies ou submersions marines.

En abaissant le coût d’entrée technique et en réduisant le besoin en annotations massives, MAESTRO permet aux acteurs du territoire d’accélérer leurs projets IA, tout en s’appuyant sur un modèle public, documenté et transparent.

WACV 2026 : une vitrine internationale pour la géo‑IA française

La sélection de MAESTRO à WACV 2026 offre à l’IGN une vitrine internationale pour valoriser son avance en IA appliquée à la géographie et à l’observation de la Terre. Dans un contexte où les modèles de fondation se multiplient dans le traitement d’images génériques, de texte ou de langage, MAESTRO démontre qu’il est possible de concevoir des modèles souverains, spécialisés et compétitifs sur des usages à forte valeur publique.

————-

Illustration de l’efficience du modèle de fondation

MAESTRO. Sur chaque ligne, les deux premières images vont être traitées par les IA, une photo aérienne et le détail d’une image prise par un satellite Sentinel-2 sur cette même zone. Les deux images suivantes montrent le résultat du travail de prédiction réalisé sur la photo aérienne par une IA basée sur le modèle de fondation MAESTRO ou par une IA basée sur l’architecture VIT qui n’a pas été pré-entrainée : les couleurs correspondent au type de surfaces visibles que les IA doivent prédire (eau, route bitumée, arbres, etc.). Enfin, la dernière image de la ligne montre les annotations réelles des surfaces de ces mêmes photos réalisées par un humain. © IGN

 

* MAESTRO pour Masked AutoEncoders for Multimodal, Multitemporal, and Multispectral Earth Observation Data

Illustration : © IGN

The post Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale appeared first on Silicon.fr.

Arnaud Chiffert prend les commandes de Snowflake France

23 février 2026 à 12:15

Snowflake consolide sa direction française avec la nomination d’Arnaud Chiffert au poste de Country Manager.

Dans la maison depuis 2022, où il a successivement occupé les fonctions de Directeur Commercial Retail, CPG & Luxury, puis de Sales Director Global & Strategic Accounts, Arnaud Chiffert présente un parcours bien ancré dans l’univers de la vente de solutions cloud, data et CRM.

Un profil taillé pour les comptes stratégiques

Avant Snowflake, ce diplômé de Neoma Business School de 46 ans officiait chez Splunk en France comme Regional Sales Director, avec la responsabilité de développer les activités autour des solutions de sécurité et d’analytique de données. Il avait également passé plusieurs années chez Salesforce, d’abord comme Strategic Account Manager, puis comme Global Account Manager pour le groupe LVMH, une expérience dans laquelle il a forgé sa connaissance  des grands comptes et des enjeux de transformation à grande échelle dans les secteurs retail et luxe.

Croissance, partenaires et IA au programme

Dans ses nouvelles fonctions, Arnaud Chiffert aura la charge de piloter la stratégie globale et les opérations de Snowflake en France. Sa feuille de route s’articule autour de trois axes : renforcer les relations clients et partenaires, accélérer une croissance durable et étendre la présence de l’entreprise dans les secteurs clés du marché français. Il devra également assurer la cohérence entre les actions locales et les objectifs de Snowflake pour la région EMEA et à l’échelle mondiale.

« Ma priorité est de travailler en étroite collaboration avec nos clients et partenaires afin de les aider à transformer leurs données en impact concret pour leur activité, qu’il s’agisse de stimuler l’innovation, d’améliorer la prise de décision ou d’accélérer leurs ambitions en matière d’IA », a déclaré le nouveau Country Manager à l’occasion de sa prise de poste.

Photo : © DR

The post Arnaud Chiffert prend les commandes de Snowflake France appeared first on Silicon.fr.

Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence

23 février 2026 à 11:17

C’est un changement de garde au sommet de l’un des fleurons technologiques français, premier éditeur hexagonal de logiciels d’entreprise. Le 21 février 2026, le conseil d’administration de Dassault Systèmes a nommé à l’unanimité Pascal Daloz au poste de Président-Directeur Général du groupe, coté à Paris.

Il succède ainsi à Bernard Charlès qui a informé le conseil, avec effet immédiat, de son retrait de ses fonctions de Président du Conseil et d’administrateur, invoquant des raisons personnelles. Une décision qui, selon ses propres mots, ne remet pas en cause son attachement profond à l’entreprise qu’il a co-fondée aux côtés de Charles Edelstenne. « J’aime profondément Dassault Systèmes. Je suis très fier de ses collaborateurs, ses équipes, ses clients, sa raison d’être, ses valeurs et ce que nous construisons tous ensemble », a-t-il déclaré.

Un tandem de 25 ans

Loin d’un retrait total, Bernard Charlès entend mettre ses 43 années d’expérience au service de l’entreprise, notamment pour accélérer l’adoption des 3D UNIV+RSES – la plateforme stratégique du groupe – et accompagner la transformation par l’IA des processus industriels de création et de production.

Si la transition peut paraître soudaine, elle n’a rien d’une improvisation. Pascal Daloz et Bernard Charlès travaillent ensemble depuis 25 ans. La succession a été préparée avec soin, comme en témoigne Charles Edelstenne, fondateur et Président d’honneur du Conseil : « Au cours des trois dernières années, Bernard a préparé sa succession avec soin, en veillant à ce que la 7ème génération de nos solutions industrielles fondées sur l’IA soit pleinement engagée. »

La « Gen7 » en héritage

Pour Pascal Daloz, qui endosse désormais à la fois la présidence du conseil et la direction générale, la feuille de route est claire : poursuivre la stratégie des 3D UNIV+RSES et positionner Dassault Systèmes comme leader de l’IA industrielle. « Notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES. C’est un engagement sur le long terme qui vise à redéfinir l’innovation, les opérations et la compétitivité industrielles à l’ère de l’économie générative », a-t-il affirmé à l’occasion de sa nomination.

Bernard Charlès remet les clés d’une maison solidement bâtie. Celui qui a conduit, selon ses propres mots, « six générations de transformations industrielles » laisse derrière lui une septième génération de solutions — la « Gen7 » — qu’il décrit comme « parfaitement définie et architecturée ». C’est sur ce socle que Pascal Daloz et son équipe devront désormais s’appuyer pour accélérer la croissance du groupe.

Photo : © DR Dassault Systèmes

The post Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence appeared first on Silicon.fr.

OpenAI et Nvidia enterrent leur mégadeal à 100 milliards

20 février 2026 à 12:17

Nvidia et OpenAI sont en passe de réécrire les termes de leur alliance. Selon le Financial Times, ( FT) le leader mondial des GPU  est en phase finale de négociations pour investir 30 milliards $ en capital dans l’inventeur de ChatGPT en remplacement du partenariat à 100 milliards $ annoncé en grande pompe mais qui n’avait jamais dépassé le stade d’une lettre d’intention.

OpenAI compte réinvestir une grande partie des capitaux levés dans l’achat de matériel Nvidia

L’investissement de Nvidia s’inscrit dans une levée de fonds plus large qui devrait dépasser les 100 milliards $ au total, valorisant OpenAI à 730 milliards $ hors nouveaux capitaux.

Le schéma retenu est nettement plus simple que le précédent. L’accord de septembre prévoyait que Nvidia investisse par tranches de 10 milliards $, sur plusieurs années, au fur et à mesure de la croissance des besoins en calcul d’OpenAI. En contrepartie, OpenAI s’engageait à acquérir des millions de puces Nvidia pour déployer jusqu’à 10 gigawatts de capacité de calcul. Un montage aux allures de pacte d’actionnaires croisés.

L’automne 2024 avait marqué une période de surenchère dans les alliances nouées par Sam Altman qui avait multiplié les accords complexes avec des fabricants de puces concurrents ( AMD et Broadcom) mais aussi avec Oracle. Ces montages, salués par les marchés sur le moment, avaient néanmoins inquiété certains analystes, y voyant les signes d’une bulle en formation dans le secteur de l’intelligence artificielle.

La mise au point des deux patrons

Ces inquiétudes n’ont pas tardé à se matérialiser. Depuis le début de l’année, les valeurs technologiques américaines ont perdu 17 % de leur valeur, fragilisant la crédibilité de ces engagements pluriannuels à très grande échelle. En janvier, le Wall Street Journal avait déjà signalé que l’accord à 100 milliards était « mis en suspens ».

Avant même que l’accord soit officialisé, des rumeurs de tensions entre les deux entreprises avaient commencé à circuler. Sam Altman et Jensen Huang ont tenu à les démentir publiquement. Le patron d’OpenAI a affirmé ce mois-ci sur X qu’Nvidia fabrique « les meilleures puces IA du monde » et qu’il espère rester un client majeur « très longtemps ». Le lendemain, le PDG de Nvidia balayait sur CNBC toute idée de « controverse », qualifiant ces rumeurs de « stupidités ».

600 milliards de dépenses d’ici 2030

L’investissement de Nvidia n’est qu’une composante d’une levée de fonds bien plus large. Selon le FT SoftBank s’apprête également à injecter 30 milliards $, tandis qu’Amazon pourrait contribuer jusqu’à 50 milliards dans le cadre d’un partenariat incluant l’utilisation des modèles d’OpenAI. Microsoft et MGX, le fonds souverain technologique d’Abou Dhabi, devraient aussi participer à hauteur de plusieurs milliards. Des réunions avec des fonds de capital-risque et d’autres investisseurs sont en cours pour compléter le tour.

Face à ces investisseurs, OpenAI tient un discours offensif affirmant prévoir de dépenser environ 600 milliards $ en ressources de calcul, auprès de Nvidia, Amazon et Microsoft notamment, d’ici à 2030, toujours selon le FT.

The post OpenAI et Nvidia enterrent leur mégadeal à 100 milliards appeared first on Silicon.fr.

Raspberry Pi rattrapé par la fièvre de l’IA

19 février 2026 à 15:49

Symbole de la débrouillardise numérique, longtemps cantonné aux bancs d’écoles et aux passionnés de bidouille informatique, Raspberry Pi vit aujourd’hui un destin boursier que peu auraient imaginé. Son titre a failli doubler entre le 16 et le 18 février, avant de retomber pour clôturer en baisse d à 4,10 livres, soit une valorisation d’un peu plus de 800 millions de livres.

L’étincelle porte un nom : OpenClaw, présenté comme le premier « agent IA personnel » capable de fonctionner localement sur un ordinateur, sans recourir au cloud. Son créateur, Peter Steinberger, vient d’être recruté par OpenAI le week-end dernier, ce qui a encore amplifié l’engouement autour du projet.

L’effet OpenClaw

Or Raspberry Pi offre une porte d’entrée à prix cassé vers cet outil. Là où un Mac Mini coûte au minimum 600 $ aux États-Unis, un Raspberry Pi s’acquiert pour une centaine de dollars. Damindu Jayaweera, analyste chez Peel Hunt, résume l’équation dans une note à ses clients : le dispositif permet une fonctionnalité « suffisamment bonne à un coût marginal quasi nul », avec l’avantage décisif  de « posséder la capacité de calcul plutôt que de la louer dans le cloud ».
Créé en 2012 par la fondation éponyme, le micro-ordinateur Raspberry Pi visait d’abord un objectif pédagogique : enseigner la programmation à bas coût. Proposé à moins de 50 €, il a conquis le monde de l’électronique embarquée, des makers et des chercheurs en robotique.
Mais avec l’explosion des projets d’intelligence artificielle générative, cet outil modeste est devenu une plateforme de prototypage bon marché, utilisée dans des milliers de projets mêlant vision par ordinateur, edge computing et automatisation locale.

La bourse de Londres s’est affolée

Lorsque Raspberry Pi Ltd a fait son entrée à la bourse de Londres en 2024, peu observateurs imaginaient qu’un simple fabricant de cartes Linux à faible consommation attirerait les foules. Pourtant, en quelques mois, le titre a gagné plus de 200 %, avant de connaître des phases de correction spectaculaires.

Sur les forums d’investisseurs, la marque est devenue un véritable « mème stock », comme GameStop ou AMC à l’époque de la pandémie. Les hashtags #PiAI et #TinyAI circulent sur X, Reddit et Discord, relayant des montages reliant Raspberry Pi à l’essor de l’IA embarquée. Les rumeurs vont bon train ; d’un partenariat hypothétique avec Nvidia à une intégration dans des systèmes robotiques « low cost ».

Cette frénésie illustre la façon dont la bulle IA engloutit tout l’écosystème technologique, jusqu’à ses acteurs les plus modestes. Les investisseurs cherchent fébrilement les « prochains Nvidia », quitte à surinterpréter le moindre lien avec l’intelligence artificielle.

Si la valorisation s’envole, le fabricant reste fidèle à sa philosophie d’origine : produire du matériel ouvert, abordable et responsable. Son PDG, Eben Upton, a récemment rappelé que « Raspberry Pi ne construira pas de GPU d’IA, mais continuera à rendre la technologie accessible à ceux qui innovent à petite échelle ».

The post Raspberry Pi rattrapé par la fièvre de l’IA appeared first on Silicon.fr.

Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ?

19 février 2026 à 14:43

C’est une déclaration qui va faire frémir les grands éditeurs du logiciel déjà éprouvés par le désamour des analystes financiers. Dans une interview accordée à CNBC, Arthur Mensch, PDG de Mistral AI, affirme que plus de 50 % des logiciels d’entreprise actuels seraient, à terme, remplaçables par des applications bâties sur l’IA générative.

Dans le viseur ? Les outils de productivité, de workflows et les CRM légers : autrement dit, le cœur de métier de Salesforce, Workday ou ServiceNow.

La promesse du « replatforming »

Pour l’expliquer, Arthur Mensch utilise le concept de « replatforming « , soit un basculement en profondeur des architectures IT d’entreprise, qui délaisseraient les abonnements SaaS standardisés au profit d’applications sur mesure, construites directement sur des API de modèles d’IA. L’argument commercial est séduisant avec la réduction des coûts de licences, une meilleure adéquation aux processus internes, des délais de développement compressés à quelques jours là où il fallait autrefois compter en mois.

Le mouvement a déjà ses précurseurs. Klarna, la fintech suédoise, a ainsi tourné le dos à certaines briques Salesforce et Workday pour construire son propre stack dopé à l’IA. Un cas d’école qu’Arthur Mensch cite volontiers pour illustrer la faisabilité concrète de ce grand saut technologique.

Tout ne sera pas emporté dans la vague

Le patron de Mistral prend soin de nuancer. L’infrastructure de données – stockage, sauvegarde, sécurité, data platforms – n’est pas menacée. Elle sortira même renforcée de la transition, car c’est elle qui alimente les modèles.

Bipul Sinha, PDG de Rubrik, partage ce diagnostic : le « front office logiciel » sera remodelé, quand le « back office data » se consolidera comme couche critique et incontournable.

Ce basculement suppose toutefois des prérequis sérieux : des données propres et unifiées, une infrastructure cloud moderne, et des équipes capables de gouverner ces nouveaux agents. On est bien loin du confort du SaaS clé en main.

Une opportunité taillée pour Mistral

Evidemment, la sortie du patron de Mistral AI sert son business modèle. Il revendique déjà plus d’une centaine de clients grands comptes en quête de modernisation. Sa plateforme – modèles ouverts et propriétaires, assistants personnalisés, recherche d’entreprise – se positionne précisément comme l’outillage de ce « replatforming « .

La prédiction reste néanmoins contestée. Les sceptiques pointent l’inertie considérable des systèmes d’information existants, les contraintes réglementaires, et les nombreuses désillusions de projets d’IA en production. Pour beaucoup d’observateurs, l’IA s’intégrera d’abord comme une couche d’augmentation au-dessus des outils existants, plutôt que comme un bulldozer.

Mais le message envoyé aux éditeurs traditionnels est sans ambiguïté : se transformer en plateformes d’IA, ou risquer de devenir eux-mêmes les logiciels à remplacer.

The post Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ? appeared first on Silicon.fr.

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

17 février 2026 à 13:10

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

❌