Vue normale

iPhone 17e : le « cheval de Troie » à 599 $

2 mars 2026 à 15:58

En apparence, l’iPhone 17e ressemble à une bonne affaire. 599 $ pour un smartphone doté de la puce A19, de 256 gigaoctets de stockage et d’un écran OLED de 6,1 pouces ; soit exactement les performances de l’iPhone 17 standard, pour une centaine d’euros de moins.  Génereux, Apple ? Pas vraiment. Stratège, assurément.

Car derrière ce tarif soigneusement calibré sous la barre psychologique des 600 $ se cache une mécanique bien rodée : celle d’un écosystème conçu pour capter, retenir et monétiser ses utilisateurs sur le long terme.

Le hardware comme appât

Apple ne sacrifie pas ses marges par philanthropie. L’iPhone 17e fait certes quelques concessions, comme le taux de rafraîchissement revu à la baisse et le module photo simplifié,  mais il embarque les technologies maison qui font la différence : modem 5G interne, puce A19 compatible avec Apple Intelligence. Autrement dit, un appareil pleinement fonctionnel pour les usages d’aujourd’hui et de demain, vendu à un prix qui ferme la porte aux offres Android agressives entre 400 et 600 $.

Le doublement du stockage de base, passé de 128 à 256 Go à prix constant, est à cet égard révélateur. Il ne s’agit pas d’une largesse mais d’un calcul : plus de stockage, c’est plus de photos, de vidéos, d’apps, et donc un utilisateur plus engagé, moins enclin à migrer vers la concurrence.

Le vrai business model : les services

Pour comprendre la logique de ce lancement, il faut regarder au-delà du chiffre de vente unitaire. Apple perçoit aujourd’hui une part croissante de ses revenus via ses services : App Store, iCloud+, Apple Music, TV+, Arcade…

L’ARPU, le revenu moyen par utilisateur, y est structurellement supérieur à celui de ses rivaux, grâce à un écosystème verrouillé que les analystes qualifient volontiers de « jardin fermé ».

Chaque nouvel iPhone vendu, même à prix réduit, est une porte d’entrée dans cet univers. Un utilisateur converti à l’iPhone 17e aujourd’hui est un abonné iCloud potentiel demain, un client Apple TV+ après-demain. Sur cinq ans, la valeur vie client d’un acheteur de 17e dépasse largement celle que génère la marge hardware initiale.

Ne pas cannibaliser, mais élargir

Ce qui distingue l’iPhone 17e d’une simple entrée de gamme, c’est sa capacité à élargir le marché sans rogner sur les segments premium. Les iPhone 17 Pro et Pro Max, facturés jusqu’à 1 199 $, continuent d’adresser les consommateurs les moins sensibles au prix. Le 17e, lui, va chercher ceux qui hésitaient encore, les utilisateurs Android en renouvellement, les marchés émergents à pouvoir d’achat limité.

Apple réussit ainsi l’équilibre délicat qu’échouent souvent à tenir ses concurrents : un portefeuille cohérent, sans guerre interne des gammes.

Préparer l’après-smartphone

Il y a enfin une dimension prospective dans ce lancement. Équipé de l’A19 et de 256 Go, le 17e assure une compatibilité optimale avec les usages IA intensifs, la réalité augmentée et les futurs services data-lourds comme les lunettes AR, les interfaces connectées et véhicules autonomes qu’Apple prépare en coulisses. Massifier l’accès à ces technologies en amont, c’est s’assurer une base installée prête à adopter les prochains produits de l’écosystème.

L’iPhone 17e n’est donc pas un aveu de faiblesse d’Apple face à un marché saturé. C’est un investissement à long terme, déguisé en promotion. Tim Cook n’a pas bradé un iPhone. Il a planté un drapeau.

Image : © Apple

The post iPhone 17e : le « cheval de Troie » à 599 $ appeared first on Silicon.fr.

IA militaire : OpenAI remplace Anthropic au Pentagone

2 mars 2026 à 11:05

OpenAI a officialisé un accord avec le Pentagone pour déployer ses modèles d’IA dans des environnements classifiés, en le présentant comme le partenariat “le plus encadré » à ce jour pour des usages militaires de l’IA.

Les grandes lignes de l’accord

OpenAI explique l’avoir conclu  en demandant que des conditions similaires soient proposées à l’ensemble des laboratoires d’IA et affirme que cet accord comporte « plus de garde-fous que tout accord précédent pour des déploiements d’IA classifiés, y compris celui d’Anthropic ».

Le cadre prévoit un usage de ses modèles par le Department of War (DoW, terminologie utilisée par OpenAI) pour « toutes finalités légales », mais accompagné de restrictions contractuelles et techniques qualifiées de “red lines».

Trois “lignes rouges” affichées

OpenAI met en avant trois interdictions explicites qui doivent structurer l’usage de ses technologies par le Pentagone.

  • Pas d’utilisation de la technologie OpenAI pour la surveillance de masse domestique.
  • Pas d’utilisation pour diriger des systèmes d’armes autonomes.
  • Pas d’utilisation pour des décisions automatisées à forts enjeux, comme des systèmes de type “crédit social”.

Selon l’inventeur de ChatGPT, d’autres laboratoires auraient « réduit ou supprimé leurs garde-fous « et misé principalement sur des politiques d’usage, alors que la société revendique un dispositif plus « multi-couches », combinant architecture de déploiement, pile de sûreté (“safety stack”), implication d’experts et clauses contractuelles.

Un déploiement cloud et une “safety stack” contrôlée par OpenAI

L’accord repose sur un déploiement «cloud-only », opéré par OpenAI, sans fourniture de modèles « sans garde-fous » ni de versions non entraînées pour la sûreté. L’entreprise souligne qu’aucun modèle n’est déployé sur des « edge devices”, ce qui, selon elle, limite la possibilité d’un emploi direct dans des armes létales autonomes. Elle indique que cette architecture lui permettra de vérifier de manière indépendante que les lignes rouges ne sont pas franchies, notamment via des classifieurs mis à jour dans le temps.

Le langage contractuel mis en avant

OpenAI publie un extrait clé du contrat pour illustrer la manière dont les garde-fous sont juridiquement encadrés.

  • Le DoW “peut utiliser le système d’IA pour toutes fins légales”, conformément au droit applicable, aux exigences opérationnelles et aux protocoles de sûreté et de supervision.
  • Le système “ne sera pas utilisé pour diriger de manière indépendante des armes autonomes” dans les cas où la loi ou la politique du département exigent un contrôle humain, ni pour assumer d’autres décisions à forts enjeux qui nécessitent l’approbation d’un décideur humain sous les mêmes autorités.
  • Pour les activités de renseignement, tout traitement d’informations privées doit respecter le Quatrième Amendement, le National Security Act de 1947, le FISA, l’Executive Order 12333 et les directives du DoD imposant un objectif de renseignement étranger défini.
  • Le système « ne doit pas être utilisé pour une surveillance non contrainte des informations privées de personnes américaines »et ne peut servir à des activités de maintien de l’ordre intérieur que dans les limites du Posse Comitatus Act et des lois applicables.

OpenAI insiste aussi sur le fait que le contrat référence explicitement les lois et politiques
« telles qu’elles existent aujourd’hui », de manière à empêcher que d’éventuelles évolutions réglementaires futures ne puissent automatiquement élargir les usages de son IA au-delà du cadre actuel.

Des ingénieurs et chercheurs OpenAI “dans la boucle”

L’accord prévoit la présence d’ingénieurs “forward-deployed” d’OpenAI, dûment habilités secret-défense, ainsi que de chercheurs sûreté/alignement eux aussi “dans la boucle”. Leur rôle annoncé est d’aider le gouvernement à intégrer les modèles, de surveiller les usages et de faire évoluer la “safety stack” au fil du temps. OpenAI affirme garder un “contrôle total” sur cette pile de sûreté et répète qu’elle refuse de déployer des modèles sans garde-fous techniques, y compris pour des missions de sécurité nationale.

Motivations stratégiques affichées par OpenAI

OpenAI avance deux principaux arguments pour justifier cet engagement avec le Pentagone.

  • D’une part, l’entreprise estime que l’armée américaine « a absolument besoin de modèles d’IA puissants » pour faire face à des adversaires qui intègrent déjà l’IA dans leurs systèmes. La société explique qu’elle n’avait pas, jusqu’ici, jugé ses propres garde-fous et systèmes assez mûrs pour un déploiement classifié, et qu’elle a travaillé à les renforcer.
  • D’autre part, OpenAI dit vouloir “désescalader” les tensions entre le Department of War et les laboratoires d’IA américains, en demandant notamment que les mêmes termes soient proposés à tous et que le gouvernement tente de “résoudre les choses avec Anthropic”.

Interrogée implicitement sur la désignation d’Anthropic comme « supply chain risk » par les autorités américaines, OpenAI répond qu’elle ne soutient pas cette décision et qu’elle a clairement exprimé cette position au gouvernement.

OpenAI, Anthropic et la question des garde-fous

Dans sa FAQ, OpenAI se positionne par rapport aux arguments d’Anthropic, qui avait détaillé ses propres « red lines » et ses réserves quant à la capacité du Pentagone à les respecter dans les contrats envisagés. OpenAI rappelle partager deux de ces lignes rouges (surveillance de masse domestique, armes pleinement autonomes) et y ajouter une troisième concernant les décisions automatisées à forts enjeux.

L’entreprise explique pourquoi elle juge ces lignes plus exécutoires dans son propre contrat :

  • la surveillance domestique de masse serait explicitement exclue du champ de l’usage légal » dans le texte contractuel,
  • l’architecture cloud décrite ne permettrait pas, selon elle, d’alimenter directement des armes entièrement autonomes faute de déploiement en périphérie.

OpenAI affirme aussi que son accord  « offre plus de garde-fous que les accords précédents, y compris le contrat original d’Anthropic », en combinant contrainte contractuelle, limites techniques et supervision humaine.

Que se passe-t-il en cas de dérive de l’État ?

Sur un terrain plus politique, OpenAI tente de répondre aux inquiétudes récurrentes concernant l’évolution possible du cadre légal ou des pratiques de surveillance.

En cas de violation des termes par l’État, OpenAI indique qu’elle pourrait, comme pour tout contrat, le résilier, même si elle ne « s’attend pas » à ce scénario.

Si le gouvernement modifie ultérieurement les lois ou politiques de défense, l’entreprise souligne que le contrat renvoie explicitement aux normes actuelles, ce qui, selon elle, limite la portée de futurs assouplissements législatifs.

Sur les deux points les plus sensibles, OpenAI assure que l’accord “ne permettra pas” l’usage de ses modèles pour des armes autonomes ni pour de la surveillance de masse de citoyens américains, en invoquant à la fois la safety stack, l’architecture cloud, le langage contractuel et la présence de personnel OpenAI dans la boucle.

The post IA militaire : OpenAI remplace Anthropic au Pentagone appeared first on Silicon.fr.

OpenAI vs Anthropic : comment les géants de la tech financent les deux rivaux

27 février 2026 à 16:45

C’est un chiffre qui donne, une nouvelle fois, le vertige. OpenAI a finalisé un tour de table de 110 milliards $, propulsant sa valorisation à 730 milliards, et même 840 milliards post-money. De quoi faire de l’inventeur de ChatGPT, l’une des entreprises les mieux valorisées au monde, avant même une éventuelle introduction en bourse.

Amazon en tête, suivi de SoftBank et Nvidia

Le clou de l’opération, c’est Amazon qui injecte 50 milliards $ dans le tour, soit de loin son plus grand chèque jamais signé pour une seule entreprise. SoftBank et Nvidia complètent le podium avec 30 milliards chacun.

Mais au-delà des chiffres bruts, c’est la nature stratégique de l’accord avec Amazon qui retient l’attention. OpenAI s’engage à utiliser les puces maison d’AWS, les Trainium, et à développer conjointement des modèles sur mesure pour les équipes d’ingénierie d’Amazon. Cerise sur le gâteau : OpenAI promet de dépenser 100 milliards $ supplémentaires sur AWS au cours des huit prochaines années, un engagement colossal qui vient s’ajouter à un précédent accord de 38 milliards signé en novembre dernier.

Microsoft n’est pas écarté

La montée en puissance d’Amazon dans l’orbite d’OpenAI soulève une question naturelle : qu’en est-il de Microsoft, jusqu’ici partenaire historique en matière d’infrastructure ? Les deux entreprises ont tenu à rassurer le marché dans un communiqué commun : « Rien dans les annonces d’aujourd’hui ne modifie en quoi que ce soit les termes de la relation entre Microsoft et OpenAI. » Un message de stabilité qui sonnait presque comme une mise au point.

La guerre des valorisations fait rage

Cette levée intervient dans un contexte de surenchère généralisée entre OpenAI et son grand rival Anthropic qui a levé 30 milliards $ ce mois-ci, auprès d’investisseurs comprenant Nvidia et Microsoft, pour une valorisation de 380 milliards $.

Les deux concurrents ont désormais en commun un même réseau d’investisseurs, un même besoin frénétique de GPUs et de datacenters, et une même logique de financements croisés qui interroge les analystes.

Ces « circular deals », où les fournisseurs de cloud et de semi-conducteurs investissent dans les startups d’IA qui s’engagent en retour à consommer leurs services, sont perçus comme un moyen efficace de sécuriser une infrastructure rare. Mais ils amplifient aussi les risques : si la demande pour l’IA ne justifie pas les valorisations actuelles, les pertes pourraient se propager en cascade.

The post OpenAI vs Anthropic : comment les géants de la tech financent les deux rivaux appeared first on Silicon.fr.

IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non

26 février 2026 à 18:08

{ Mise à jour } – Dario Amodei n’aura pas attendu la date limite de l’ultimatum, ce 27 février, fixé par Pete Hegseth, secrétaire à la Défense.

Dans un long communiqué, le PDG d’Anthropic a donné sa réponse dès hier après-midi ( à l’heure californienne) : c’est Non. « Ces menaces ne modifient pas notre position : nous ne pouvons en conscience accéder à leur demande », écrit Dario Amodei.

Et de poursuivre : « Je crois profondément en l’importance existentielle de l’utilisation de l’IA pour défendre les Etats-Unis et les autres démocraties, et pour vaincre nos adversaires autocratiques. C’est pourquoi Anthropic a œuvré de manière proactive pour déployer ses modèles auprès du département de la guerre [le nouveau nom du ministère de la défense américain] et des services de renseignement », écrit-il, mais « dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques ».

Pour clarifier son refus, Mario Amodei rappelle sa doctrine sur l’IA militaire: « Nous soutenons l’utilisation de l’IA pour des missions légitimes de renseignement et de contre-espionnage à l’étranger. Mais l’utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques », écrit-il en estimant que cette pratique « représente un risque grave et inédit pour nos libertés fondamentales ».

Autre sujet de désaccord : les armes autonomes.  Le PDG précise « Sans un contrôle adéquat, on ne peut compter sur des armes entièrement autonomes pour faire preuve du même discernement que nos troupes professionnelles et hautement qualifiées. Leur déploiement doit être encadré par des garde-fous appropriés, qui n’existent pas actuellement ». Et d’ajouter qu’aucun de ces sujets n’avaient  « constitué, jusqu’à présent, un obstacle à l’accélération de l’adoption et de l’utilisation de nos modèles au sein de nos forces armées ».

Il relève aussi que « Ces deux menaces sont incohérentes : l’une nous qualifie de risque pour la sécurité, la seconde fait de Claude un élément essentiel pour la sécurité nationale. »

Le refus d’obtempérer aux menaces de Pete Hegseth d’une désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement » étant désormais acté, le Ministère de la Guerre va-t-il mettre sa menace à exécution ? .

——————————————————————-

La bataille sans précédent qui se joue en ce moment entre le Pentagone et Anthropic prend une nouvelle tournure. Selon des informations exclusives d’Axios, le département de la Défense a contacté ce mercredi deux géants de l’industrie de défense – Boeing et Lockheed Martin – pour évaluer leur dépendance au modèle d’IA Claude. Une première étape vers une éventuelle désignation de l’entreprise comme « risque pour la chaîne d’approvisionnement ».

Cette sanction, habituellement réservée aux entreprises issues de pays adversaires, comme le chinois Huawei, n’a jamais été appliquée à une firme technologique américaine de premier plan. L’appliquer à Anthropic constituerait un précédent historique.

Claude au cœur des systèmes classifiés

L’enjeu est considérable. Claude est aujourd’hui le seul modèle d’IA opérant dans les systèmes classifiés de l’armée américaine. Selon Axios, il aurait été mobilisé lors de l’opération visant à capturer le président vénézuélien Nicolás Maduro, via le partenariat d’Anthropic avec Palantir, et pourrait à terme être engagé dans d’éventuelles opérations militaires en Iran.

Si le Pentagone salue les performances de Claude, il est en revanche « furieux » qu’Anthropic refuse de lever ses garde-fous pour autoriser une utilisation aux fins de « toutes missions légales ». La startup tient notamment à bloquer le recours à son IA pour la surveillance de masse des citoyens américains ou pour le développement d’armements autonomes, c’est-à-dire capables de tirer sans intervention humaine.

Un ultimatum fixé au 27 février

La tension a culminé le 24 février lors d’une réunion particulièrement tendue. Le secrétaire à la Défense Pete Hegseth aurait fixé un ultimatum au PDG d’Anthropic, Dario Amodei : se plier aux exigences du Pentagone d’ici le 27 février. Faute de quoi, l’administration aurait recours soit au Defense Production Act, une loi permettant de contraindre des entreprises privées à servir les intérêts nationaux, soit à la désignation de « risque pour la chaîne d’approvisionnement ».

« Ce sera une vraie galère à démêler, et nous allons faire en sorte qu’ils paient le prix de nous avoir forcé la main », a déclaré à Axios un haut responsable de la Défense, évoquant cette possible désignation.

Du côté d’Anthropic, on préfère minimiser les tensions. Un porte-parole a décrit la réunion comme « une continuation de conversations de bonne foi sur notre politique d’utilisation, afin de garantir qu’Anthropic puisse continuer à soutenir la mission de sécurité nationale du gouvernement dans le cadre de ce que nos modèles peuvent faire de manière fiable et responsable ». Aucun commentaire n’a été formulé sur la possible désignation de risque.

La concurrence s’engouffre dans la brèche

Pendant ce temps, les concurrents se positionnent. xAI, la société d’IA d’Elon Musk, vient de signer un accord pour intégrer les systèmes classifiés de l’armée, sous la clause d’« usage légal complet » qu’Anthropic a précisément refusée. Google et OpenAI, dont les modèles sont déjà présents dans les systèmes non classifiés, seraient en négociations pour franchir le même pas. Selon une source citée par Axios, le Gemini de Google représente déjà « une solide alternative » à Claude dans plusieurs cas d’usage militaires.

Une désignation de risque serait un coup sévère pour Anthropic si elle conduisait les entreprises partenaires de l’État à retirer Claude de leurs infrastructures. Mais la scale-up pourrait aussi y trouver un bénéfice inattendu : être perçue, aux yeux de ses clients et de ses talents, comme l’entreprise qui a tenu bon face aux pressions d’une course aux armements dans l’IA. La date limite approche.

 

Article mis à jour le 27 février avec la position de refus d’Anthropic

The post IA militaire : le Pentagone lance un ultimatum à Anthropic…qui répond Non appeared first on Silicon.fr.

HP plombé par la flambée des puces mémoire

25 février 2026 à 11:50

Pendant que les géants du cloud engloutissent des capacités de mémoire pour alimenter leurs data centers, les fabricants comme HP font les frais de cette ruée. Si le constructeur américain d’ordinateurs et d’imprimantes a publié mardi des résultats trimestriels supérieurs aux attentes,  il indique s’attendre à ce que ses bénéfices annuels se situent « en bas de la fourchette » de sa guidance, soit autour de 2,90 $ par action sur les 2,90 à 3,20 $ annoncés.

Plus préoccupant encore, HP anticipe un recul des livraisons de PC « à deux chiffres » sur l’ensemble de l’exercice fiscal 2026, en ligne avec les tendances du secteur.

La mémoire, talon d’Achille du secteur

Au cœur de ces turbulences : la pénurie de puces mémoire. En novembre dernier, HP estimait que les composants mémoire et stockage représentaient 15 à 18 % du coût de fabrication de ses ordinateurs. Ce ratio devrait grimper à 35 % sur l’ensemble de l’exercice fiscal. La directrice financière Karen Parkhill a précisé lors d’une conférence téléphonique avec les analystes que les prix de la mémoire avaient pratiquement doublé en l’espace d’un trimestre  et que de nouvelles hausses sont attendues. La pénurie devrait persister au-delà de l’exercice 2026.

Face à cette situation, HP dit avoir engagé plusieurs mesures correctives : diversification de ses fournisseurs, ajustement de certains produits pour réduire leur consommation de mémoire, et hausse des prix de vente. « Nous avons une solide expérience dans la gestion des cycles de matières premières », a déclaré Bruce Broussard, le directeur général par intérim, en tentant de rassurer.

Tarifs douaniers et transition au sommet

La volatilité des composants n’est pas le seul défi. HP doit également composer avec la politique commerciale de l’administration Trump. Le groupe a largement relocalisé sa production hors de Chine pour les produits destinés au marché nord-américain, une anticipation des droits de douane qui s’avère payante à court terme. HP indique ne pas s’attendre à ce que les nouvelles mesures tarifaires américaines pèsent immédiatement sur ses activités, tout en précisant qu’il « continue de dialoguer avec l’administration sur ces sujets ».

La situation est par ailleurs compliquée par un changement de direction inattendu. Début mars, PayPal a débauché Enrique Lores, le PDG d’HP, pour en prendre les rênes. C’est donc Bruce Broussard, administrateur du conseil, qui assure l’intérim pendant que le groupe cherche un successeur permanent.

Des signaux positifs à ne pas négliger

Le tableau n’est pas entièrement sombre. HP note une demande soutenue en Europe et en Asie, portée par le cycle de renouvellement lié à Windows 11. Le segment premium, tant professionnel que grand public, tire les prix moyens de vente vers le haut. Et les PC dotés de fonctionnalités d’intelligence artificielle représentaient plus de 35 % des livraisons au premier trimestre, contre 30 % le trimestre précédent, une adoption en accélération qui redonne des couleurs au groupe.

HP a par ailleurs lancé un programme de réduction des coûts sur plusieurs années, visant un milliard de dollars d’économies annuelles d’ici 2028, même si ce plan s’accompagne de charges de restructuration dans l’immédiat.

Un trimestre solide, une année difficile

Sur le plan strictement comptable, le premier trimestre fiscal ( clos le 31 janvier) est plutôt encourageant. Le chiffre d’affaires a progressé de 6,9 % à 14,44 milliards $. La division Personal Systems, qui regroupe les PC grand public et professionnels, a enregistré une hausse de 11 % de ses revenus à 10,25 milliards $, portée notamment par un bond de 16 % des ventes grand public. L’impression, en revanche, recule de 2 % à 4,19 milliards.

The post HP plombé par la flambée des puces mémoire appeared first on Silicon.fr.

Meta mise des dizaines de milliards sur les GPU d’AMD

24 février 2026 à 16:44

Meta et AMD ont signé un accord pluriannuel portant sur le déploiement de jusqu’à 6 gigawatts de puissance de calcul dédiée aux centres de données d’IA du groupe, à base de GPU Instinct et de CPU optimisés pour l’IA. Cette capacité sera déployée progressivement sur plusieurs années, à partir de la seconde moitié de 2026, ce qui en fait l’un des plus grands projets d’infrastructure IA au monde.

Les premiers déploiements s’appuieront sur l’architecture rack Helios, co‑conçue par Meta et AMD dans le cadre de l’Open Compute Project, afin d’optimiser densité, efficacité énergétique et intégration logicielle.

AMD fournit des GPU de nouvelle génération (MI450) et des CPU EPYC de 6ème génération, dimensionnés pour les charges d’inférence à grande échelle, en complément des capacités de training déjà en place chez Meta.

Objectif : diversifier et optimiser l’infrastructure IA

Cette montée en puissance d’AMD arrive alors que Meta reste l’un des plus gros clients de Nvidia, avec un parc équivalent à plusieurs centaines de milliers de GPU H100 et futurs Blackwell pour l’entraînement de modèles de fondation. En introduisant massivement les GPU Instinct d’AMD dans ses data centers, Meta cherche à diversifier ses fournisseurs, réduire son exposition au seul écosystème CUDA et optimiser le coût total de possession de ses clusters IA.

Les GPU Instinct sont déjà utilisés par Meta sur certaines charges, et AMD met en avant des gains de performance par watt et de TCO sur des modèles largement déployés, qu’il s’agisse de recommandation, de vision ou de LLM.

L’accord avec Meta inclut en plus des GPU « customisés » pour les workloads du groupe, élément présenté comme un différenciateur face à Nvidia, qui ne met pas en avant ce degré de personnalisation dans ses grands contrats.

Un socle pour la “personal superintelligence”

Meta affirme vouloir bâtir une infrastructure capable de soutenir une « superintelligence personnelle » accessible à grande échelle, ce qui suppose des capacités massives pour l’entraînement et l’inférence de modèles multimodaux auprès de milliards d’utilisateurs.

Les 6 GW de puissance IA visés doivent alimenter les futures générations d’algorithmes de recommandation, d’assistants conversationnels, d’outils créatifs et de modération de contenu sur Facebook, Instagram, WhatsApp et les services de réalité mixte.

Pour tenir cette ambition, Meta prévoit la construction ou la conversion de 30 centres de données, dont 26 situés aux États‑Unis, conçus nativement pour les charges d’IA à forte intensité GPU et l’optimisation énergétique. La standardisation autour d’architectures communes comme Helios et Open Compute doit faciliter le scaling rapide, la maintenance et la co‑conception de nouvelles générations de racks avec AMD.

Un mécanisme de warrants qui aligne Meta et AMD

Au‑delà des équipements, l’accord comprend un mécanisme de warrant de performance donnant à Meta le droit d’acquérir jusqu’à 160 millions d’actions AMD, soit environ 10% du capital, sous conditions. Les tranches de ce warrant se débloquent à mesure que Meta reçoit les livraisons d’Instinct (1 GW, puis jusqu’à 6 GW), que certaines barrières de cours sont franchies par AMD et que des objectifs techniques et commerciaux sont atteints par les deux partenaires.

Ce montage crée un alignement fort : plus l’infrastructure AMD réussit chez Meta, plus Meta a intérêt à devenir actionnaire significatif d’AMD, et plus AMD bénéficie d’un client récurrent de très grande taille. Dans un contexte où AMD a déjà mis en place un dispositif similaire avec OpenAI pour ses futures générations de GPU MI450, ce schéma actionnarial renforce la place du fondeur comme alternative de référence à Nvidia dans le cloud IA.

Un message au marché des semi‑conducteurs IA

Pour AMD, ce contrat « à plusieurs dizaines de milliards de dollars » sur plusieurs années constitue un jalon majeur dans sa quête de parts de marché face à Nvidia sur le segment des GPU IA haut de gamme. L’annonce a d’ailleurs propulsé le titre AMD en forte hausse en pré‑marché, même si la réaction de Meta est restée plus mesurée, les investisseurs arbitrant entre l’ampleur des capex IA et la création de valeur à long terme.

The post Meta mise des dizaines de milliards sur les GPU d’AMD appeared first on Silicon.fr.

Nvidia prépare son retour dans les PC grand public

23 février 2026 à 16:30

Après avoir conquis les data centers et dominé le marché des processeurs pour intelligence artificielle, Nvidia se prépare à revenir là où tout a commencé : le PC. Le Wall Street Journal révèle que le géant américain s’apprête à lancer cette année ses premières puces dédiées aux ordinateurs portables, en partenariat avec Intel et MediaTek. Dell, Lenovo et d’autres fabricants planchent déjà sur des modèles propulsés par ces nouvelles architectures.

Une incursion stratégique, plus qu’un pari financier

Pour Jensen Huang, le fondateur et patron de Nvidia, l’ambition dépasse largement le simple lancement d’une nouvelle génération de processeurs. Il s’agit d’intégrer Nvidia au cœur du “PC de demain”, un appareil plus fin, plus réactif et surtout nativement dopé à l’intelligence artificielle.

Les nouvelles puces, conçues sur le modèle du system-on-a-chip (SoC) – combinant CPU et GPU dans un seul composant – promettent à la fois puissance et sobriété énergétique, à l’image des MacBook d’Apple.

Nvidia ne s’attend pas à des profits rapides. Mais pour le leader mondial des GPU, peser dans la future génération de PC intelligents est devenu stratégique : “Chaque appareil sera bientôt piloté par l’IA”, rappellent les analystes. En se réinvitant dans le segment grand public, Nvidia maintient un lien d’usage et d’image, complémentaire à son hégémonie industrielle.

Intel, MediaTek… et la revanche des architectures Arm

Le concept repose sur deux grands partenariats. Avec Intel, Nvidia associe ses technologies graphiques et d’intelligence artificielle aux processeurs du géant américain, qui détient encore près de 70 % du marché des puces pour PC Windows. En parallèle, une alliance avec le taïwanais MediaTek, fondée sur l’architecture Arm, cible des ordinateurs plus légers et plus efficaces, que Dell et Lenovo devraient lancer au premier semestre 2026.

Le pari est audacieux : étendre l’usage du modèle Arm dans un univers historiquement dominé par les architectures x86 d’Intel et AMD. Si la transition réussit, le PC “AI-native” pourrait devenir la nouvelle norme, donnant un second souffle à un marché en quête d’innovation.

Un pari sur les gamers et la performance

Nvidia n’oublie pas ses fidèles : les gamers. Eux aussi constituent une cible clé de cette renaissance, car la marque bénéficie dans cette communauté d’un statut quasi cultuel. Reste à surmonter les limites techniques de l’architecture Arm, qui a montré ses faiblesses pour les jeux sous Windows lors des premiers essais de puces Qualcomm. Pour convaincre, Nvidia devra garantir compatibilité et puissance tout en maîtrisant les coûts.

D’après Jason Tsai, du cabinet Digitimes, le prix devra rester entre 1 000 et 1 500 dollars. “Au-delà, le produit risquerait de relever du luxe technologique plus que de la démocratisation”, prévient l’analyste.

 

The post Nvidia prépare son retour dans les PC grand public appeared first on Silicon.fr.

Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale

23 février 2026 à 16:12

L’Institut national de l’information géographique et forestière (IGN) présentera officiellement son modèle de fondation en intelligence artificielle MAESTRO * à la Winter Conference on Applications of Computer Vision (WACV) 2026, qui se tiendra à Tucson début mars aux États‑Unis. L’article scientifique décrivant ce modèle, déposé sur arXiv en août 2025, a été retenu par le comité de programme de cet événement de référence en vision par ordinateur.

MAESTRO, un modèle de fondation pour l’observation du territoire

MAESTRO s’inscrit dans la catégorie des modèles de fondation, ces modèles d’IA pré‑entraînés sur de vastes volumes de données non annotées et capables ensuite de se spécialiser rapidement sur des tâches cibles. À l’image d’un enfant qui a déjà acquis les grands concepts du monde avant d’apprendre une discipline précise, MAESTRO bénéficie d’un socle de connaissances génériques qui lui permet d’apprendre plus vite, avec moins d’exemples annotés, et d’atteindre un meilleur niveau de performance.

Pensé pour exploiter la richesse et la complexité des données d’observation de la Terre produites et orchestrées par l’IGN (images aériennes, satellites, données multitemporelles et multispectrales, modèles numériques de terrain, etc.), MAESTRO est capable de traiter des scènes variées, à différentes échelles spatiales et temporelles. Cette approche réduit significativement le besoin en données labellisées, souvent coûteuses à collecter et à qualifier, en particulier dans des domaines où les experts et les jeux d’annotations fiables sont rares.

Des performances de pointe sur les domaines clés de l’IGN

Conçu pour répondre à des besoins opérationnels concrets, MAESTRO atteint des performances de pointe sur plusieurs domaines clés de la production de l’IGN. Il surpasse de manière significative les modèles généralistes de vision par ordinateur lorsqu’il s’agit de traiter les tâches spécifiques de l’observation du territoire, tout en nécessitant moins de données annotées.

Un exemple emblématique est la production de la nouvelle version de la Base de données Forêt, un référentiel stratégique pour le suivi des peuplements, la gestion forestière et l’adaptation au changement climatique. En capitalisant sur son pré‑entraînement massif sur des données non annotées, MAESTRO permet d’améliorer la qualité des cartes, de mieux caractériser les structures forestières et d’accélérer les mises à jour, tout en optimisant l’effort d’annotation.

Au‑delà de la forêt, le modèle peut être appliqué à d’autres piliers de la mission de l’IGN : cartographie de l’occupation des sols, suivi de l’artificialisation, observation des dynamiques urbaines, surveillance des milieux naturels ou encore analyse des risques environnementaux.

Une IA souveraine au service de l’écosystème

MAESTRO incarne une IA souveraine, conçue et maîtrisée par un acteur public de référence, au plus près des besoins des acteurs de l’observation du territoire et de la recherche. En développant ce modèle en France, sur des données maîtrisées et documentées, l’IGN contribue à consolider une capacité stratégique : comprendre, mesurer et anticiper les transformations des territoires sans dépendre exclusivement de solutions propriétaires.

Cette souveraineté technologique se traduit aussi par une capacité à adapter finement le modèle aux priorités nationales et européennes : transition écologique, aménagement durable, gestion des risques naturels, planification énergétique ou encore protection de la biodiversité.

Fidèle à sa politique d’ouverture de la donnée et des outils, l’IGN met à disposition la famille de modèles MAESTRO en open source sur la plateforme Hugging Face. Cette mise en commun vise à faciliter leur réutilisation par un large écosystème d’acteurs publics et privés : laboratoires de recherche, start-up, collectivités territoriales, agences d’aménagement, opérateurs de réseaux ou entreprises de la géodata.

Cas d’usage : de l’artificialisation à la forêt

MAESTRO pourra ainsi servir de socle à une nouvelle génération d’applications dans des domaines variés :

  • Agriculture : suivi des cultures, optimisation des intrants, détection précoce des stress ou maladies.
  • Urbanisme : observation des formes urbaines, suivi de l’étalement, évaluation de l’artificialisation nette des sols.
  • Environnement : cartographie des milieux, suivi des zones humides, analyse des impacts du changement climatique.
  • Gestion des risques : surveillance des zones exposées aux inondations, mouvements de terrain, incendies ou submersions marines.

En abaissant le coût d’entrée technique et en réduisant le besoin en annotations massives, MAESTRO permet aux acteurs du territoire d’accélérer leurs projets IA, tout en s’appuyant sur un modèle public, documenté et transparent.

WACV 2026 : une vitrine internationale pour la géo‑IA française

La sélection de MAESTRO à WACV 2026 offre à l’IGN une vitrine internationale pour valoriser son avance en IA appliquée à la géographie et à l’observation de la Terre. Dans un contexte où les modèles de fondation se multiplient dans le traitement d’images génériques, de texte ou de langage, MAESTRO démontre qu’il est possible de concevoir des modèles souverains, spécialisés et compétitifs sur des usages à forte valeur publique.

————-

Illustration de l’efficience du modèle de fondation

MAESTRO. Sur chaque ligne, les deux premières images vont être traitées par les IA, une photo aérienne et le détail d’une image prise par un satellite Sentinel-2 sur cette même zone. Les deux images suivantes montrent le résultat du travail de prédiction réalisé sur la photo aérienne par une IA basée sur le modèle de fondation MAESTRO ou par une IA basée sur l’architecture VIT qui n’a pas été pré-entrainée : les couleurs correspondent au type de surfaces visibles que les IA doivent prédire (eau, route bitumée, arbres, etc.). Enfin, la dernière image de la ligne montre les annotations réelles des surfaces de ces mêmes photos réalisées par un humain. © IGN

 

* MAESTRO pour Masked AutoEncoders for Multimodal, Multitemporal, and Multispectral Earth Observation Data

Illustration : © IGN

The post Avec MAESTRO, l’IGN monte en puissance dans l’IA géospatiale appeared first on Silicon.fr.

Arnaud Chiffert prend les commandes de Snowflake France

23 février 2026 à 12:15

Snowflake consolide sa direction française avec la nomination d’Arnaud Chiffert au poste de Country Manager.

Dans la maison depuis 2022, où il a successivement occupé les fonctions de Directeur Commercial Retail, CPG & Luxury, puis de Sales Director Global & Strategic Accounts, Arnaud Chiffert présente un parcours bien ancré dans l’univers de la vente de solutions cloud, data et CRM.

Un profil taillé pour les comptes stratégiques

Avant Snowflake, ce diplômé de Neoma Business School de 46 ans officiait chez Splunk en France comme Regional Sales Director, avec la responsabilité de développer les activités autour des solutions de sécurité et d’analytique de données. Il avait également passé plusieurs années chez Salesforce, d’abord comme Strategic Account Manager, puis comme Global Account Manager pour le groupe LVMH, une expérience dans laquelle il a forgé sa connaissance  des grands comptes et des enjeux de transformation à grande échelle dans les secteurs retail et luxe.

Croissance, partenaires et IA au programme

Dans ses nouvelles fonctions, Arnaud Chiffert aura la charge de piloter la stratégie globale et les opérations de Snowflake en France. Sa feuille de route s’articule autour de trois axes : renforcer les relations clients et partenaires, accélérer une croissance durable et étendre la présence de l’entreprise dans les secteurs clés du marché français. Il devra également assurer la cohérence entre les actions locales et les objectifs de Snowflake pour la région EMEA et à l’échelle mondiale.

« Ma priorité est de travailler en étroite collaboration avec nos clients et partenaires afin de les aider à transformer leurs données en impact concret pour leur activité, qu’il s’agisse de stimuler l’innovation, d’améliorer la prise de décision ou d’accélérer leurs ambitions en matière d’IA », a déclaré le nouveau Country Manager à l’occasion de sa prise de poste.

Photo : © DR

The post Arnaud Chiffert prend les commandes de Snowflake France appeared first on Silicon.fr.

Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence

23 février 2026 à 11:17

C’est un changement de garde au sommet de l’un des fleurons technologiques français, premier éditeur hexagonal de logiciels d’entreprise. Le 21 février 2026, le conseil d’administration de Dassault Systèmes a nommé à l’unanimité Pascal Daloz au poste de Président-Directeur Général du groupe, coté à Paris.

Il succède ainsi à Bernard Charlès qui a informé le conseil, avec effet immédiat, de son retrait de ses fonctions de Président du Conseil et d’administrateur, invoquant des raisons personnelles. Une décision qui, selon ses propres mots, ne remet pas en cause son attachement profond à l’entreprise qu’il a co-fondée aux côtés de Charles Edelstenne. « J’aime profondément Dassault Systèmes. Je suis très fier de ses collaborateurs, ses équipes, ses clients, sa raison d’être, ses valeurs et ce que nous construisons tous ensemble », a-t-il déclaré.

Un tandem de 25 ans

Loin d’un retrait total, Bernard Charlès entend mettre ses 43 années d’expérience au service de l’entreprise, notamment pour accélérer l’adoption des 3D UNIV+RSES – la plateforme stratégique du groupe – et accompagner la transformation par l’IA des processus industriels de création et de production.

Si la transition peut paraître soudaine, elle n’a rien d’une improvisation. Pascal Daloz et Bernard Charlès travaillent ensemble depuis 25 ans. La succession a été préparée avec soin, comme en témoigne Charles Edelstenne, fondateur et Président d’honneur du Conseil : « Au cours des trois dernières années, Bernard a préparé sa succession avec soin, en veillant à ce que la 7ème génération de nos solutions industrielles fondées sur l’IA soit pleinement engagée. »

La « Gen7 » en héritage

Pour Pascal Daloz, qui endosse désormais à la fois la présidence du conseil et la direction générale, la feuille de route est claire : poursuivre la stratégie des 3D UNIV+RSES et positionner Dassault Systèmes comme leader de l’IA industrielle. « Notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES. C’est un engagement sur le long terme qui vise à redéfinir l’innovation, les opérations et la compétitivité industrielles à l’ère de l’économie générative », a-t-il affirmé à l’occasion de sa nomination.

Bernard Charlès remet les clés d’une maison solidement bâtie. Celui qui a conduit, selon ses propres mots, « six générations de transformations industrielles » laisse derrière lui une septième génération de solutions — la « Gen7 » — qu’il décrit comme « parfaitement définie et architecturée ». C’est sur ce socle que Pascal Daloz et son équipe devront désormais s’appuyer pour accélérer la croissance du groupe.

Photo : © DR Dassault Systèmes

The post Dassault Systèmes : Pascal Daloz devient P-DG , Bernard Charlès tire sa révérence appeared first on Silicon.fr.

OpenAI et Nvidia enterrent leur mégadeal à 100 milliards

20 février 2026 à 12:17

Nvidia et OpenAI sont en passe de réécrire les termes de leur alliance. Selon le Financial Times, ( FT) le leader mondial des GPU  est en phase finale de négociations pour investir 30 milliards $ en capital dans l’inventeur de ChatGPT en remplacement du partenariat à 100 milliards $ annoncé en grande pompe mais qui n’avait jamais dépassé le stade d’une lettre d’intention.

OpenAI compte réinvestir une grande partie des capitaux levés dans l’achat de matériel Nvidia

L’investissement de Nvidia s’inscrit dans une levée de fonds plus large qui devrait dépasser les 100 milliards $ au total, valorisant OpenAI à 730 milliards $ hors nouveaux capitaux.

Le schéma retenu est nettement plus simple que le précédent. L’accord de septembre prévoyait que Nvidia investisse par tranches de 10 milliards $, sur plusieurs années, au fur et à mesure de la croissance des besoins en calcul d’OpenAI. En contrepartie, OpenAI s’engageait à acquérir des millions de puces Nvidia pour déployer jusqu’à 10 gigawatts de capacité de calcul. Un montage aux allures de pacte d’actionnaires croisés.

L’automne 2024 avait marqué une période de surenchère dans les alliances nouées par Sam Altman qui avait multiplié les accords complexes avec des fabricants de puces concurrents ( AMD et Broadcom) mais aussi avec Oracle. Ces montages, salués par les marchés sur le moment, avaient néanmoins inquiété certains analystes, y voyant les signes d’une bulle en formation dans le secteur de l’intelligence artificielle.

La mise au point des deux patrons

Ces inquiétudes n’ont pas tardé à se matérialiser. Depuis le début de l’année, les valeurs technologiques américaines ont perdu 17 % de leur valeur, fragilisant la crédibilité de ces engagements pluriannuels à très grande échelle. En janvier, le Wall Street Journal avait déjà signalé que l’accord à 100 milliards était « mis en suspens ».

Avant même que l’accord soit officialisé, des rumeurs de tensions entre les deux entreprises avaient commencé à circuler. Sam Altman et Jensen Huang ont tenu à les démentir publiquement. Le patron d’OpenAI a affirmé ce mois-ci sur X qu’Nvidia fabrique « les meilleures puces IA du monde » et qu’il espère rester un client majeur « très longtemps ». Le lendemain, le PDG de Nvidia balayait sur CNBC toute idée de « controverse », qualifiant ces rumeurs de « stupidités ».

600 milliards de dépenses d’ici 2030

L’investissement de Nvidia n’est qu’une composante d’une levée de fonds bien plus large. Selon le FT SoftBank s’apprête également à injecter 30 milliards $, tandis qu’Amazon pourrait contribuer jusqu’à 50 milliards dans le cadre d’un partenariat incluant l’utilisation des modèles d’OpenAI. Microsoft et MGX, le fonds souverain technologique d’Abou Dhabi, devraient aussi participer à hauteur de plusieurs milliards. Des réunions avec des fonds de capital-risque et d’autres investisseurs sont en cours pour compléter le tour.

Face à ces investisseurs, OpenAI tient un discours offensif affirmant prévoir de dépenser environ 600 milliards $ en ressources de calcul, auprès de Nvidia, Amazon et Microsoft notamment, d’ici à 2030, toujours selon le FT.

The post OpenAI et Nvidia enterrent leur mégadeal à 100 milliards appeared first on Silicon.fr.

Raspberry Pi rattrapé par la fièvre de l’IA

19 février 2026 à 15:49

Symbole de la débrouillardise numérique, longtemps cantonné aux bancs d’écoles et aux passionnés de bidouille informatique, Raspberry Pi vit aujourd’hui un destin boursier que peu auraient imaginé. Son titre a failli doubler entre le 16 et le 18 février, avant de retomber pour clôturer en baisse d à 4,10 livres, soit une valorisation d’un peu plus de 800 millions de livres.

L’étincelle porte un nom : OpenClaw, présenté comme le premier « agent IA personnel » capable de fonctionner localement sur un ordinateur, sans recourir au cloud. Son créateur, Peter Steinberger, vient d’être recruté par OpenAI le week-end dernier, ce qui a encore amplifié l’engouement autour du projet.

L’effet OpenClaw

Or Raspberry Pi offre une porte d’entrée à prix cassé vers cet outil. Là où un Mac Mini coûte au minimum 600 $ aux États-Unis, un Raspberry Pi s’acquiert pour une centaine de dollars. Damindu Jayaweera, analyste chez Peel Hunt, résume l’équation dans une note à ses clients : le dispositif permet une fonctionnalité « suffisamment bonne à un coût marginal quasi nul », avec l’avantage décisif  de « posséder la capacité de calcul plutôt que de la louer dans le cloud ».
Créé en 2012 par la fondation éponyme, le micro-ordinateur Raspberry Pi visait d’abord un objectif pédagogique : enseigner la programmation à bas coût. Proposé à moins de 50 €, il a conquis le monde de l’électronique embarquée, des makers et des chercheurs en robotique.
Mais avec l’explosion des projets d’intelligence artificielle générative, cet outil modeste est devenu une plateforme de prototypage bon marché, utilisée dans des milliers de projets mêlant vision par ordinateur, edge computing et automatisation locale.

La bourse de Londres s’est affolée

Lorsque Raspberry Pi Ltd a fait son entrée à la bourse de Londres en 2024, peu observateurs imaginaient qu’un simple fabricant de cartes Linux à faible consommation attirerait les foules. Pourtant, en quelques mois, le titre a gagné plus de 200 %, avant de connaître des phases de correction spectaculaires.

Sur les forums d’investisseurs, la marque est devenue un véritable « mème stock », comme GameStop ou AMC à l’époque de la pandémie. Les hashtags #PiAI et #TinyAI circulent sur X, Reddit et Discord, relayant des montages reliant Raspberry Pi à l’essor de l’IA embarquée. Les rumeurs vont bon train ; d’un partenariat hypothétique avec Nvidia à une intégration dans des systèmes robotiques « low cost ».

Cette frénésie illustre la façon dont la bulle IA engloutit tout l’écosystème technologique, jusqu’à ses acteurs les plus modestes. Les investisseurs cherchent fébrilement les « prochains Nvidia », quitte à surinterpréter le moindre lien avec l’intelligence artificielle.

Si la valorisation s’envole, le fabricant reste fidèle à sa philosophie d’origine : produire du matériel ouvert, abordable et responsable. Son PDG, Eben Upton, a récemment rappelé que « Raspberry Pi ne construira pas de GPU d’IA, mais continuera à rendre la technologie accessible à ceux qui innovent à petite échelle ».

The post Raspberry Pi rattrapé par la fièvre de l’IA appeared first on Silicon.fr.

Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ?

19 février 2026 à 14:43

C’est une déclaration qui va faire frémir les grands éditeurs du logiciel déjà éprouvés par le désamour des analystes financiers. Dans une interview accordée à CNBC, Arthur Mensch, PDG de Mistral AI, affirme que plus de 50 % des logiciels d’entreprise actuels seraient, à terme, remplaçables par des applications bâties sur l’IA générative.

Dans le viseur ? Les outils de productivité, de workflows et les CRM légers : autrement dit, le cœur de métier de Salesforce, Workday ou ServiceNow.

La promesse du « replatforming »

Pour l’expliquer, Arthur Mensch utilise le concept de « replatforming « , soit un basculement en profondeur des architectures IT d’entreprise, qui délaisseraient les abonnements SaaS standardisés au profit d’applications sur mesure, construites directement sur des API de modèles d’IA. L’argument commercial est séduisant avec la réduction des coûts de licences, une meilleure adéquation aux processus internes, des délais de développement compressés à quelques jours là où il fallait autrefois compter en mois.

Le mouvement a déjà ses précurseurs. Klarna, la fintech suédoise, a ainsi tourné le dos à certaines briques Salesforce et Workday pour construire son propre stack dopé à l’IA. Un cas d’école qu’Arthur Mensch cite volontiers pour illustrer la faisabilité concrète de ce grand saut technologique.

Tout ne sera pas emporté dans la vague

Le patron de Mistral prend soin de nuancer. L’infrastructure de données – stockage, sauvegarde, sécurité, data platforms – n’est pas menacée. Elle sortira même renforcée de la transition, car c’est elle qui alimente les modèles.

Bipul Sinha, PDG de Rubrik, partage ce diagnostic : le « front office logiciel » sera remodelé, quand le « back office data » se consolidera comme couche critique et incontournable.

Ce basculement suppose toutefois des prérequis sérieux : des données propres et unifiées, une infrastructure cloud moderne, et des équipes capables de gouverner ces nouveaux agents. On est bien loin du confort du SaaS clé en main.

Une opportunité taillée pour Mistral

Evidemment, la sortie du patron de Mistral AI sert son business modèle. Il revendique déjà plus d’une centaine de clients grands comptes en quête de modernisation. Sa plateforme – modèles ouverts et propriétaires, assistants personnalisés, recherche d’entreprise – se positionne précisément comme l’outillage de ce « replatforming « .

La prédiction reste néanmoins contestée. Les sceptiques pointent l’inertie considérable des systèmes d’information existants, les contraintes réglementaires, et les nombreuses désillusions de projets d’IA en production. Pour beaucoup d’observateurs, l’IA s’intégrera d’abord comme une couche d’augmentation au-dessus des outils existants, plutôt que comme un bulldozer.

Mais le message envoyé aux éditeurs traditionnels est sans ambiguïté : se transformer en plateformes d’IA, ou risquer de devenir eux-mêmes les logiciels à remplacer.

The post Arthur Mensch relance le débat : le replatforming par l’IA va-t-il engloutir le logiciel d’entreprise ? appeared first on Silicon.fr.

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

17 février 2026 à 13:10

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 15:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

16 février 2026 à 13:31

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 13:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Anthropic lève 30 milliards $, porté par ses outils de codage

13 février 2026 à 11:28

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 15:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

De WhatsApp à MAX : Moscou met fin au chiffrement des communications

12 février 2026 à 15:13

Le couperet est tombé ce jeudi. WhatsApp, propriété de Meta, est désormais totalement inaccessible en Russie. « En raison du refus de Meta de se conformer à la législation russe, une telle décision a effectivement été prise et mise en œuvre », a déclaré Dmitri Peskov, porte-parole du Kremlin, suggérant aux Russes de basculer vers MAX, la messagerie nationale soutenue par l’État.

Cette mesure, qui touche plus de 100 millions d’utilisateurs, marque l’aboutissement de six mois de pression sur l’entreprise américaine et s’inscrit dans une stratégie plus large du pouvoir russe : créer et contrôler une infrastructure de communication « souveraine » où les géants technologiques étrangers se soumettent ou disparaissent.

La fin d’un modèle de sécurité

Le blocage ne se limite pas à un simple changement d’application. Il fait basculer les utilisateurs d’un système de « confidentialité par conception » vers un modèle de « transparence par défaut » vis-à-vis des opérateurs et des autorités.

WhatsApp repose sur un chiffrement de bout en bout : les clés cryptographiques sont générées et stockées uniquement sur les terminaux des utilisateurs. Même l’opérateur ne peut pas lire le contenu des messages. Pour intercepter des communications, il faut compromettre directement le téléphone de l’émetteur ou du destinataire, une opération complexe et coûteuse qui rend impraticable toute surveillance de masse.

MAX et les autres messageries promues par Moscou utilisent un chiffrement de  » transport »  ( entre l’appareil et le serveur) mais les messages restent lisibles en clair côté serveur. Cette architecture rouvre la porte à un accès direct par l’opérateur ou les services de sécurité, à des mandats légaux intrusifs et à des risques d’attaques internes.

Dans ce nouveau schéma, toute la sécurité repose sur un serveur central qui concentre contenus, métadonnées, carnets d’adresses et historiques. Les chercheurs ayant audité MAX décrivent une application qui collecte et journalise massivement les interactions, au point d’en faire « un outil de surveillance plutôt qu’une messagerie zéro connaissance ».

Cette concentration augmente mécaniquement la surface d’attaque : une seule brèche dans l’infrastructure peut exposer à grande échelle conversations et profils d’utilisateurs. Elle facilite aussi les opérations de corrélation : identifier qui parle à qui, quand, depuis où, même sans inspecter systématiquement le contenu.

Conformité avec la loi « Yarovaïa »

Le basculement s’inscrit dans le cadre de la loi  » Yarovaïa « , qui oblige les fournisseurs à remettre aux services de sécurité contenus et métadonnées, et à fournir les moyens techniques d’accès aux flux chiffrés. Les protocoles de chiffrement de bout en bout modernes rendent ces obligations difficilement applicables sans « casser » la cryptographie, ce qui explique l’hostilité particulière de Moscou envers WhatsApp, Signal et les « secret chats » de Telegram.

Avec MAX, ces exigences sont facilement satisfaites : accès direct aux bases de données, requêtes ciblées, voire écoute en temps quasi réel. Pour les utilisateurs, cela se traduit par un affaiblissement des garanties de confidentialité, même si le cadre est présenté politiquement comme un renforcement de la « sécurité » nationale.

Des risques pour les profils sensibles

Pour un particulier peu exposé, le changement se traduit par une perte diffuse de vie privée et un accroissement du traçage comportemental. Mais pour les journalistes, les ONG, les opposants ou les professions réglementées, la disparition d’un canal chiffré augmente significativement les risques : identification de sources, mise sous surveillance ciblée, remontée de réseaux entiers à partir de simples métadonnées.

Le contournement via VPN, seule alternative pour continuer à utiliser WhatsApp, introduit ses propres dangers. Des services non fiables peuvent intercepter le trafic, injecter des malwares ou affaiblir les vérifications de certificats, ouvrant la voie à des attaques de type « homme du milieu ».

Meta, désigné comme organisation extrémiste en Russie, a dénoncé cette mesure : « Tenter d’isoler plus de 100 millions d’utilisateurs d’une communication privée et sécurisée est un pas en arrière qui ne peut que conduire à moins de sécurité pour les gens en Russie. »

Depuis décembre, de nombreux Russes ne pouvaient déjà plus utiliser WhatsApp qu’avec un VPN. Le blocage complet marque une nouvelle étape dans la construction d’un internet « souverain » où le Kremlin contrôle non seulement les contenus, mais aussi l’architecture même des communications numériques.

The post De WhatsApp à MAX : Moscou met fin au chiffrement des communications appeared first on Silicon.fr.

❌