Vue normale

OpenAI apprend à penser l’inférence sans NVIDIA

13 février 2026 à 14:54

Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.

Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.

Cerebras WSE-3

Un complément basse latence à l’option GPU

Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.

Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.

OpenAI va généraliser WebSocket

Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.

Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.

On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.

À consulter en complément :

Comment OpenAI a diversifié ses fournisseurs
Microsoft veut voler de ses propres ailes dans l’IA
Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité
Claude crée son propre compilateur C : oui, mais…
Codage agentique : le retour d’expérience de Spotify

Illustration principale générée par IA

The post OpenAI apprend à penser l’inférence sans NVIDIA appeared first on Silicon.fr.

OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia)

Il y a des annonces qui parlent de puissance brute, et d’autres qui trahissent une obsession plus subtile : le temps de réponse. Jeudi, OpenAI a dévoilé GPT-5.3-Codex-Spark, une variante « allégée » de son modèle de code, pensée pour des boucles d’édition quasi instantanées — et surtout, servie sur l’infrastructure de Cerebras, un partenaire inédit hors du […]

L’article OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia) est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Microsoft AI s’éloigne encore de ChatGPT et cette annonce du CEO marque un tournant majeur

Par : Setra
13 février 2026 à 13:01
Microsoft Copilot

Microsoft a pu se lancer dans la course à l’IA grâce à ses investissements et son partenariat stratégique avec OpenAI. Mais, petit à petit, la firme de Redmond s’éloigne du créateur de ChatGPT. Et, dans une interview avec le Financial Times, le patron de Microsoft AI a confirmé que l’objectif de l’entreprise est désormais d’atteindre une pleine autonomie en matière d’IA.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Des lunettes intelligentes détournées pour effectuer des achats automatiques soulèvent des inquiétudes sécuritaires majeures

12 février 2026 à 20:00

Un développeur a récemment démontré la capacité de transformer les lunettes Ray-Ban Meta AI en assistant d’achat autonome, exploitant leur caméra intégrée pour identifier des produits et les ajouter à un panier Amazon. Cette prouesse technique, réalisée grâce à une combinaison de Gemini Live et de l’agent IA open source OpenClaw, illustre le potentiel des ... Lire plus

L'article Des lunettes intelligentes détournées pour effectuer des achats automatiques soulèvent des inquiétudes sécuritaires majeures est apparu en premier sur Fredzone.
❌