Vue normale

OpenAI se raccroche à AWS pour avancer sur l’agentique

2 mars 2026 à 16:38

On l’a appris il y a quelques jours : OpenAI a bouclé la plus grande levée de fonds de son histoire, à 110 Md$.

Si NVIDIA et SoftBank ont chacun mis 30 milliards, la plus grosse contribution provient d’AWS. Ce dernier a débloqué 50 milliards. Il en injecte 15 pour commencer et prévoit d’octroyer le reste « dans les prochains mois, sous certaines conditions ».

Parallèlement à cet apport financier, OpenAI promet de dépenser 100 Md$ supplémentaires au cours des 8 prochaines années en ressources de calcul chez AWS*. Un engagement qui s’ajoute à un accord à 38 Md$ signé en novembre 2025.

La perspective d’un runtime « spécial AWS »

L’alliance ne s’arrête pas au compute. AWS sera aussi le « distributeur cloud tiers exclusif » pour Frontier, la couche d’orchestration agentique qu’OpenAI a présentée début février.

Les deux entreprises entendent aussi lancer, « dans les prochains mois », un runtime agentique reposant sur les modèles OpenAI et optimisé pour l’infra AWS (natif à Amazon Bedrock). Elles n’en disent pas beaucoup plus, sinon que cet environnement permettra de conserver le contexte (mémoire, identités, outils…), évitant ainsi une orchestration manuelle.

Le partenariat implique également la conception de modèles personnalisés pour les développeurs d’Amazon. En toile de fond, des LLM maison qui ne font pas l’unanimité en interne.

* AWS parle de consommer 2 GW de capacité Trainium. En novembre 2025, il évoquait l’accès à « des centaines de milliers » de GPU. Et une possibilité d’extension à « des dizaines de millions » de CPU. L’annonce mentionnait les configurations UltraServer dotées en GB200 et GB300.

À consulter en complément :

L’AI Factory, grammaire désormais légitime chez AWS ?
OpenAI apprend à penser l’inférence sans NVIDIA
Perplexity se laisse sédurie par Microsoft Foundry… sans lâcher AWS
Comment OpenAI façonne son développement au fil du compute
De l’intuition à l’analyse, une taxonomie des erreurs de raisonnement des LLM

Illustration générée par IA

The post OpenAI se raccroche à AWS pour avancer sur l’agentique appeared first on Silicon.fr.

iPhone 17e : le « cheval de Troie » à 599 $

2 mars 2026 à 14:58

En apparence, l’iPhone 17e ressemble à une bonne affaire. 599 $ pour un smartphone doté de la puce A19, de 256 gigaoctets de stockage et d’un écran OLED de 6,1 pouces ; soit exactement les performances de l’iPhone 17 standard, pour une centaine d’euros de moins.  Génereux, Apple ? Pas vraiment. Stratège, assurément.

Car derrière ce tarif soigneusement calibré sous la barre psychologique des 600 $ se cache une mécanique bien rodée : celle d’un écosystème conçu pour capter, retenir et monétiser ses utilisateurs sur le long terme.

Le hardware comme appât

Apple ne sacrifie pas ses marges par philanthropie. L’iPhone 17e fait certes quelques concessions, comme le taux de rafraîchissement revu à la baisse et le module photo simplifié,  mais il embarque les technologies maison qui font la différence : modem 5G interne, puce A19 compatible avec Apple Intelligence. Autrement dit, un appareil pleinement fonctionnel pour les usages d’aujourd’hui et de demain, vendu à un prix qui ferme la porte aux offres Android agressives entre 400 et 600 $.

Le doublement du stockage de base, passé de 128 à 256 Go à prix constant, est à cet égard révélateur. Il ne s’agit pas d’une largesse mais d’un calcul : plus de stockage, c’est plus de photos, de vidéos, d’apps, et donc un utilisateur plus engagé, moins enclin à migrer vers la concurrence.

Le vrai business model : les services

Pour comprendre la logique de ce lancement, il faut regarder au-delà du chiffre de vente unitaire. Apple perçoit aujourd’hui une part croissante de ses revenus via ses services : App Store, iCloud+, Apple Music, TV+, Arcade…

L’ARPU, le revenu moyen par utilisateur, y est structurellement supérieur à celui de ses rivaux, grâce à un écosystème verrouillé que les analystes qualifient volontiers de « jardin fermé ».

Chaque nouvel iPhone vendu, même à prix réduit, est une porte d’entrée dans cet univers. Un utilisateur converti à l’iPhone 17e aujourd’hui est un abonné iCloud potentiel demain, un client Apple TV+ après-demain. Sur cinq ans, la valeur vie client d’un acheteur de 17e dépasse largement celle que génère la marge hardware initiale.

Ne pas cannibaliser, mais élargir

Ce qui distingue l’iPhone 17e d’une simple entrée de gamme, c’est sa capacité à élargir le marché sans rogner sur les segments premium. Les iPhone 17 Pro et Pro Max, facturés jusqu’à 1 199 $, continuent d’adresser les consommateurs les moins sensibles au prix. Le 17e, lui, va chercher ceux qui hésitaient encore, les utilisateurs Android en renouvellement, les marchés émergents à pouvoir d’achat limité.

Apple réussit ainsi l’équilibre délicat qu’échouent souvent à tenir ses concurrents : un portefeuille cohérent, sans guerre interne des gammes.

Préparer l’après-smartphone

Il y a enfin une dimension prospective dans ce lancement. Équipé de l’A19 et de 256 Go, le 17e assure une compatibilité optimale avec les usages IA intensifs, la réalité augmentée et les futurs services data-lourds comme les lunettes AR, les interfaces connectées et véhicules autonomes qu’Apple prépare en coulisses. Massifier l’accès à ces technologies en amont, c’est s’assurer une base installée prête à adopter les prochains produits de l’écosystème.

L’iPhone 17e n’est donc pas un aveu de faiblesse d’Apple face à un marché saturé. C’est un investissement à long terme, déguisé en promotion. Tim Cook n’a pas bradé un iPhone. Il a planté un drapeau.

Image : © Apple

The post iPhone 17e : le « cheval de Troie » à 599 $ appeared first on Silicon.fr.

IA et RGPD : le projet PANAME teste sa bibliothèque d’audit

2 mars 2026 à 14:58

18 mois pour industrialiser l’audit de confidentialité des LLM : tel était l’objectif de PANAME (Privacy Auditing of AI Models) à son démarrage en juin 2025.

L’ANSSI, la CNIL, le PEReN et le PEPR Cybersécurité portent le projet. Il doit en résulter une bibliothèque logicielle qui unifiera cette évaluation.

Aux dernières nouvelles, le calendrier initial tient toujours : il est question de publier cette bibliothèque à l’automne 2026. En attendant, un appel à manifestation d’intérêt est lancé en vue d’une phase de test. Il court jusqu’au 28 mars. Sont concernées les « entreprises, startups [sic], laboratoires de recherche et institutions » utilisant ou développant des modèles d’IA et basés dans l’UE.

En toile de fond, un avis du CEPD (Contrôleur européen de la protection des données) selon lequel le RGPD s’applique dans de nombreux cas aux modèles d’IA entraînés sur des données personnelles, en raison de leurs capacités de mémorisation. Dans ce contexte, pour conclure au caractère anonyme d’un modèle et ainsi le sortir du champ d’application du règlement, il est très souvent nécessaire de démontrer sa résistance à des attaques en confidentialité.

Trois grandes typologies d’attaques

Les porteurs de PANAME divisent ces attaques en trois catégories. La plus fondamentale est dite « par inférence d’appartenance ». Elle vise à savoir si les données concernant tel individu ont été utilisées pour entraîner tel modèle. On peut s’appuyer sur les scores de confiance (vecteurs de probabilité) que fournissent la plupart des modèles de classification. Puis passer par des modèles proxy (shadow models). L’attaquant entraîne ces derniers sur ses propres données, puis observe comment ils réagissent face à celles incluses (réponse A) et celles exclues (réponse B).Il entraîne ensuite un classifieur d’attaque : une IA qui reconnaît si le comportement du modèle cible ressemble au « A » ou au « B ».

Il existe aussi des attaques par inférence d’attribut. Elles peuvent permettre de récupérer des attributs sensibles lorsqu’on dispose déjà d’une connaissance partielle des données individuelles utilisées pour l’entraînement. Pour cela, le modèle est utilisé comme un oracle, en se basant sur le fait qu’il encode des corrélations fines entre les données d’entraînement. On l’interroge de manière itérative pour tester toutes les valeurs possibles des attributs en question.

Troisième grande catégorie : les attaques par reconstruction. C’est la technique la plus sophistiquée si le modèle cible n’est pas génératif. Avec elle, on régénère une approximation de la donnée brute.
La CNIL donne l’exemple d’une reconstruction de visage. L’attaquant commence par une image composée de « bruit » (pixels gris aléatoires). Il le soumet au modèle. Celui-ci fournit un gradient, indiquant la manière dont on peut l’augmenter (éclaircir tels pixels, assombrir tels autres…). L’attaquant la modifie en conséquence, la soumet à nouveau, et ainsi de suite. Jusqu’à obtenir une reconstruction visuelle, « souvent floue mais identifiable ».

La première phase de tests pour PANAME doit se terminer en juin. Une seconde s’enclenchera ensuite éventuellement avec les « testeurs référents ayant été le plus impliqués dans la première phase ».

À consulter en complément :

IA et RGPD : la CNIL joue les généalogistes
Avec l’AI Act, un nécessaire RGPD 2 ?
Au Parlement européen, la DSI met l’IA en pause
L’IA générative, cette arme cyber qui inquiète l’ANSSI
L’IA devient un élément codifiant du conseil en technologies

Illustration © bestforbest – Adobe Stock

The post IA et RGPD : le projet PANAME teste sa bibliothèque d’audit appeared first on Silicon.fr.

PC portables : retour sur 2 ans de concepts Lenovo

2 mars 2026 à 11:25

Ce n’est pas le Yoga Book 9i, mais ça y ressemble.

Plusieurs prototypes de PC portables Lenovo présentés au MWC 2026 inspirent la remarque.

Parmi eux, il y a le Yoga Book Pro 3D. Orienté création, il reprend le double écran installé depuis quelques générations sur les Yoga Book 9i… et y ajoute la 3D autostéréoscopique (sans lunettes). Le panneau supérieur (16:10, 3,2K) affiche le contenu, éventuellement converti à la volée (2D -> 3D) et avec lequel la caméra permet d’interagir (contrôle gestuel). Le panneau inférieur peut basculer entre les modes clavier virtuel et palette graphique. On peut y aimanter des « snap-on pads », accessoires physiques qui font apparaître des menus contextuels (ajustement de la luminosité, du ton…). Le PC, en Core Ultra 7 avec jusqu’à 64 Go de RAM (soudée), embarque une RTX 5070. Il pèse 2,7 kg.

Yoga Book Pro 3D 2

Avec la dernière génération du Yoga Book 9i, le deuxième écran a gagné en modularité. Lenovo reprend l’approche avec le ThinkBook Modular AI PC, en y ajoutant un système de ports interchangeables (USB-A, USB-C, HDMI) fondé sur des connecteurs magnétiques. On reste sur des panneaux de 14 pouces (16:10, 3,8K), avec du Core Ultra 7 255H (Arrow Lake) et 32 Go de RAM. Le PC pèse 1,15 kg en mono-écran ; 1,41 kg avec le deuxième.

ThinkBook Modular AI PC

ThinkBook Modular AI PC 2

La Legion Go Fold est avant tout une console portable, dotée d’un écran 7,7 pouces extensible à 11,6, avec manettes détachables, en Core Ultra 7 258V (Lunar Lake) avec 32 Go de RAM. Mais elle a un mode desktop, avec clavier sans fil. Acer avait présenté le même type d’appareil au CES 2025 (la Nitro Blaze 11), mais ne l’a pas commercialisé jusque-là.

Legion Go Fold 2

Legion Go Fold

Au CES 2026, de l’écran extensible sous toutes ses coutures

Au CES 2026, on avait eu droit au ThinkPad Rollable XD. Son écran 13,3 pouces s’étire verticalement à 15,9 pouces. La partie supérieure a la particularité de s’enrouler sur l’arrière du châssis, permettant d’afficher une petite surface tactile sur la coque extérieure.

ThinkPad Rollable XD 2

ThinkPad Rollable XD

Autre machine présentée au CES 2026 : le Legion Pro Rollable. Ce laptop gaming est basé sur le Legion Pro 7i, avec Core Ultra et GeForce RTX 5090. Il a un écran 16 pouces qui s’étend horizontalement, à 24 pouces. Avec une option intermédiaire à 21,5 pouces censée aider à travailler la vision périphérique.

Legion Pro Rollable 2

Du pliable, du 3D, du rotatif…

À l’automne 2025, lors de son Innovation World, Lenovo avait présenté le ThinkBook Vertiflex. Avec un écran (14 pouces) non pas extensible, mais rotatif, entre paysage et portrait. La machine pèse 1,39 kg pour 18 mm d’épaisseur.

ThinkBook VertiFlex

De l’écran extensible, il y en avait eu au MWC 2025, avec le ThinkBook Flip AI PC. Son panneau 13,1 pouces peut s’étendre verticalement, à 18,1 pouces (3:4, 2000 x 2664). Il peut aussi se replier sur le dos de l’écran principal, donnant une tablette 12,9 pouces. Un élément qui le différencie du ThinkBook Plus Gen 6, que Lenovo vend à partir de 3999 € TTC.

ThinkBook Flip AI PC ThinkBook Flip AI PC 2

Le MWC 2025 avait aussi donné lieu à la présentation d’un PC portable avec écran autostéréoscopique : le ThinkBook 3D Laptop. Lenovo avait également annoncé un prototype doté d’un panneau solaire : le Yoga Solar PC. Promesse : un rendement de 24 % pour – en conditions optimales – récupérer 1 heure de lecture vidéo – locale, 1080p – en 20 minutes.

Lenovo ThinkBook 3D Laptop

Du transparent, du motorisé et de l’encre électronique

L’Innovation Day 2024 avait donné lieu à la présentation de l’Auto Twist AI PC (Core Ultra 7, 32 Go de RAM, 1,27 kg). Son signe particulier : un écran motorisé (13,3 pouces, 2880 x 1800) pivotant automatiquement pour suivre l’utilisateur. Et des commandes en langage naturel pour basculer entre les modes laptop et tablette.

Lenovo Auto Twist AI PC

Au MWC 2024, il y eut le ThinkBook Transparent Display Laptop. La technologie Micro-LED permet de faire varier la transparence de l’écran 13,7 pouces (720p). Comme celle de la zone clavier (tactile), qui peut basculer en mode tablette graphique.

Lenovo ThinkBook Transparent Display Laptop 2

Lenovo ThinkBook Transparent Display Laptop

Au CES 2024, Lenovo avait présenté le ThinkBook 13xGen4 SPE. Ce 13 pouces (3:2, Core Ultra, 32 Go de RAM) a un écran e-ink couleur au dos. Il sert à personnaliser le look de la machine. Vu sa faible consommation d’énergie, il peut rester allumé en permanence.

Lenovo ThinkBook 13x SPE

Illustrations © Lenovo

The post PC portables : retour sur 2 ans de concepts Lenovo appeared first on Silicon.fr.

IA militaire : OpenAI remplace Anthropic au Pentagone

2 mars 2026 à 10:05

OpenAI a officialisé un accord avec le Pentagone pour déployer ses modèles d’IA dans des environnements classifiés, en le présentant comme le partenariat “le plus encadré » à ce jour pour des usages militaires de l’IA.

Les grandes lignes de l’accord

OpenAI explique l’avoir conclu  en demandant que des conditions similaires soient proposées à l’ensemble des laboratoires d’IA et affirme que cet accord comporte « plus de garde-fous que tout accord précédent pour des déploiements d’IA classifiés, y compris celui d’Anthropic ».

Le cadre prévoit un usage de ses modèles par le Department of War (DoW, terminologie utilisée par OpenAI) pour « toutes finalités légales », mais accompagné de restrictions contractuelles et techniques qualifiées de “red lines».

Trois “lignes rouges” affichées

OpenAI met en avant trois interdictions explicites qui doivent structurer l’usage de ses technologies par le Pentagone.

  • Pas d’utilisation de la technologie OpenAI pour la surveillance de masse domestique.
  • Pas d’utilisation pour diriger des systèmes d’armes autonomes.
  • Pas d’utilisation pour des décisions automatisées à forts enjeux, comme des systèmes de type “crédit social”.

Selon l’inventeur de ChatGPT, d’autres laboratoires auraient « réduit ou supprimé leurs garde-fous « et misé principalement sur des politiques d’usage, alors que la société revendique un dispositif plus « multi-couches », combinant architecture de déploiement, pile de sûreté (“safety stack”), implication d’experts et clauses contractuelles.

Un déploiement cloud et une “safety stack” contrôlée par OpenAI

L’accord repose sur un déploiement «cloud-only », opéré par OpenAI, sans fourniture de modèles « sans garde-fous » ni de versions non entraînées pour la sûreté. L’entreprise souligne qu’aucun modèle n’est déployé sur des « edge devices”, ce qui, selon elle, limite la possibilité d’un emploi direct dans des armes létales autonomes. Elle indique que cette architecture lui permettra de vérifier de manière indépendante que les lignes rouges ne sont pas franchies, notamment via des classifieurs mis à jour dans le temps.

Le langage contractuel mis en avant

OpenAI publie un extrait clé du contrat pour illustrer la manière dont les garde-fous sont juridiquement encadrés.

  • Le DoW “peut utiliser le système d’IA pour toutes fins légales”, conformément au droit applicable, aux exigences opérationnelles et aux protocoles de sûreté et de supervision.
  • Le système “ne sera pas utilisé pour diriger de manière indépendante des armes autonomes” dans les cas où la loi ou la politique du département exigent un contrôle humain, ni pour assumer d’autres décisions à forts enjeux qui nécessitent l’approbation d’un décideur humain sous les mêmes autorités.
  • Pour les activités de renseignement, tout traitement d’informations privées doit respecter le Quatrième Amendement, le National Security Act de 1947, le FISA, l’Executive Order 12333 et les directives du DoD imposant un objectif de renseignement étranger défini.
  • Le système « ne doit pas être utilisé pour une surveillance non contrainte des informations privées de personnes américaines »et ne peut servir à des activités de maintien de l’ordre intérieur que dans les limites du Posse Comitatus Act et des lois applicables.

OpenAI insiste aussi sur le fait que le contrat référence explicitement les lois et politiques
« telles qu’elles existent aujourd’hui », de manière à empêcher que d’éventuelles évolutions réglementaires futures ne puissent automatiquement élargir les usages de son IA au-delà du cadre actuel.

Des ingénieurs et chercheurs OpenAI “dans la boucle”

L’accord prévoit la présence d’ingénieurs “forward-deployed” d’OpenAI, dûment habilités secret-défense, ainsi que de chercheurs sûreté/alignement eux aussi “dans la boucle”. Leur rôle annoncé est d’aider le gouvernement à intégrer les modèles, de surveiller les usages et de faire évoluer la “safety stack” au fil du temps. OpenAI affirme garder un “contrôle total” sur cette pile de sûreté et répète qu’elle refuse de déployer des modèles sans garde-fous techniques, y compris pour des missions de sécurité nationale.

Motivations stratégiques affichées par OpenAI

OpenAI avance deux principaux arguments pour justifier cet engagement avec le Pentagone.

  • D’une part, l’entreprise estime que l’armée américaine « a absolument besoin de modèles d’IA puissants » pour faire face à des adversaires qui intègrent déjà l’IA dans leurs systèmes. La société explique qu’elle n’avait pas, jusqu’ici, jugé ses propres garde-fous et systèmes assez mûrs pour un déploiement classifié, et qu’elle a travaillé à les renforcer.
  • D’autre part, OpenAI dit vouloir “désescalader” les tensions entre le Department of War et les laboratoires d’IA américains, en demandant notamment que les mêmes termes soient proposés à tous et que le gouvernement tente de “résoudre les choses avec Anthropic”.

Interrogée implicitement sur la désignation d’Anthropic comme « supply chain risk » par les autorités américaines, OpenAI répond qu’elle ne soutient pas cette décision et qu’elle a clairement exprimé cette position au gouvernement.

OpenAI, Anthropic et la question des garde-fous

Dans sa FAQ, OpenAI se positionne par rapport aux arguments d’Anthropic, qui avait détaillé ses propres « red lines » et ses réserves quant à la capacité du Pentagone à les respecter dans les contrats envisagés. OpenAI rappelle partager deux de ces lignes rouges (surveillance de masse domestique, armes pleinement autonomes) et y ajouter une troisième concernant les décisions automatisées à forts enjeux.

L’entreprise explique pourquoi elle juge ces lignes plus exécutoires dans son propre contrat :

  • la surveillance domestique de masse serait explicitement exclue du champ de l’usage légal » dans le texte contractuel,
  • l’architecture cloud décrite ne permettrait pas, selon elle, d’alimenter directement des armes entièrement autonomes faute de déploiement en périphérie.

OpenAI affirme aussi que son accord  « offre plus de garde-fous que les accords précédents, y compris le contrat original d’Anthropic », en combinant contrainte contractuelle, limites techniques et supervision humaine.

Que se passe-t-il en cas de dérive de l’État ?

Sur un terrain plus politique, OpenAI tente de répondre aux inquiétudes récurrentes concernant l’évolution possible du cadre légal ou des pratiques de surveillance.

En cas de violation des termes par l’État, OpenAI indique qu’elle pourrait, comme pour tout contrat, le résilier, même si elle ne « s’attend pas » à ce scénario.

Si le gouvernement modifie ultérieurement les lois ou politiques de défense, l’entreprise souligne que le contrat renvoie explicitement aux normes actuelles, ce qui, selon elle, limite la portée de futurs assouplissements législatifs.

Sur les deux points les plus sensibles, OpenAI assure que l’accord “ne permettra pas” l’usage de ses modèles pour des armes autonomes ni pour de la surveillance de masse de citoyens américains, en invoquant à la fois la safety stack, l’architecture cloud, le langage contractuel et la présence de personnel OpenAI dans la boucle.

The post IA militaire : OpenAI remplace Anthropic au Pentagone appeared first on Silicon.fr.

❌