Vue normale

OpenAI apprend à penser l’inférence sans NVIDIA

13 février 2026 à 14:54

Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.

Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.

Cerebras WSE-3

Un complément basse latence à l’option GPU

Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.

Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.

OpenAI va généraliser WebSocket

Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.

Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.

On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.

À consulter en complément :

Comment OpenAI a diversifié ses fournisseurs
Microsoft veut voler de ses propres ailes dans l’IA
Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité
Claude crée son propre compilateur C : oui, mais…
Codage agentique : le retour d’expérience de Spotify

Illustration principale générée par IA

The post OpenAI apprend à penser l’inférence sans NVIDIA appeared first on Silicon.fr.

OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia)

Il y a des annonces qui parlent de puissance brute, et d’autres qui trahissent une obsession plus subtile : le temps de réponse. Jeudi, OpenAI a dévoilé GPT-5.3-Codex-Spark, une variante « allégée » de son modèle de code, pensée pour des boucles d’édition quasi instantanées — et surtout, servie sur l’infrastructure de Cerebras, un partenaire inédit hors du […]

L’article OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia) est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Microsoft AI s’éloigne encore de ChatGPT et cette annonce du CEO marque un tournant majeur

Par : Setra
13 février 2026 à 13:01
Microsoft Copilot

Microsoft a pu se lancer dans la course à l’IA grâce à ses investissements et son partenariat stratégique avec OpenAI. Mais, petit à petit, la firme de Redmond s’éloigne du créateur de ChatGPT. Et, dans une interview avec le Financial Times, le patron de Microsoft AI a confirmé que l’objectif de l’entreprise est désormais d’atteindre une pleine autonomie en matière d’IA.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Des lunettes intelligentes détournées pour effectuer des achats automatiques soulèvent des inquiétudes sécuritaires majeures

12 février 2026 à 20:00

Un développeur a récemment démontré la capacité de transformer les lunettes Ray-Ban Meta AI en assistant d’achat autonome, exploitant leur caméra intégrée pour identifier des produits et les ajouter à un panier Amazon. Cette prouesse technique, réalisée grâce à une combinaison de Gemini Live et de l’agent IA open source OpenClaw, illustre le potentiel des ... Lire plus

L'article Des lunettes intelligentes détournées pour effectuer des achats automatiques soulèvent des inquiétudes sécuritaires majeures est apparu en premier sur Fredzone.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 14:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

QuitGPT : pourquoi ces internautes veulent boycotter en masse ChatGPT ?

12 février 2026 à 12:00
Chatgpt Quigpt

Le vent tourne-t-il pour OpenAI ? Depuis quelques jours, un mouvement de contestation inédit baptisé « QuitGPT » prend une ampleur spectaculaire sur les réseaux sociaux. Objectif : pousser les utilisateurs à supprimer leur compte et à désinstaller l'application du chatbot le plus célèbre de la planète.

Un « pack baroudeur » à l’essai pour la nouvelle génération du SUV Hyundai Tucson qui arrivera sur le marché en 2027

SCOOP – Les essais hivernaux de la future génération du SUV Hyundai Tucson se poursuivent. Après avoir découvert des prototypes de cette nouvelle génération sur les routes allemandes au mois de novembre, c’est désormais une version « baroudeuse » qui participe à des essais de mise au point.

Claude renforce son offre gratuite : fichiers, connecteurs et Skills pour répondre aux pubs dans ChatGPT

Le timing n’a rien d’un hasard. Alors que OpenAI vient de lancer un test de publicités dans ChatGPT, Anthropic riposte avec une promesse simple — et franchement bien sentie : plus de puissance, plus d’outils… et « no ads ». Résultat : Claude renforce son offre gratuite avec des fonctions jusqu’ici associées aux formules payantes, et se repositionne comme […]

L’article Claude renforce son offre gratuite : fichiers, connecteurs et Skills pour répondre aux pubs dans ChatGPT est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

ChatGPT lance ses premières pubs : Target, Adobe, Ford… voici les marques déjà engagées

OpenAI a officiellement enclenché son pilote publicitaire dans ChatGPT. Et, pour la première fois, on peut mettre des noms sur ce qui risque de devenir l’un des espaces média les plus convoités (et les plus sensibles) de la décennie : des publicités « contextuelles » glissées sous vos échanges, visibles uniquement par les utilisateurs Free et ChatGPT Go […]

L’article ChatGPT lance ses premières pubs : Target, Adobe, Ford… voici les marques déjà engagées est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

xAI face à une vague de départs : plusieurs cofondateurs et employés « Senior » quittent l’entreprise

11 février 2026 à 17:05

xAI traverse une période agitée. En moins d’une semaine, au moins neuf ingénieurs de haut niveau, dont deux cofondateurs de la société, ont annoncé publiquement leur départ. Ni l’entreprise ni Elon Musk n’ont commenté ces sorties, mais la soudaineté de ces annonces ainsi que le profil des démissionnaires …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article xAI face à une vague de départs : plusieurs cofondateurs et employés « Senior » quittent l’entreprise est apparu en premier sur KultureGeek.

DuckDuckGo lance son IA vocale, Duck.ai : Parlez à ChatGPT sans être enregistré

La voix est en train de devenir le nouvel écran d’accueil de l’IA. Mais, elle arrive presque toujours avec un coût invisible : davantage de données qui transitent, davantage de risques, et un sentiment diffus de « parler dans un micro qui n’oublie jamais ». DuckDuckGo tente une approche à contre-courant avec Duck.ai voice chat, désormais disponible : parler […]

L’article DuckDuckGo lance son IA vocale, Duck.ai : Parlez à ChatGPT sans être enregistré est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Mistral AI investit 1,2 milliard € dans un datacenter IA

11 février 2026 à 16:15

C’est un coup d’accélérateur dans la bataille de l’IA européenne. Mistral AI, valorisée à près de 12 milliards €, annonce un investissement colossal de 1,2 milliard € en partenariat avec l’opérateur suédois EcoDataCenter. Objectif : ériger à Borlänge, au cœur de la Suède, une infrastructure de calcul de nouvelle génération dédiée à l’entraînement et au déploiement de ses modèles d’IA.

Pourquoi la Suède ? La réponse tient autant à la géographie qu’à la géopolitique. Le royaume scandinave offre un cocktail d’avantages difficilement égalable : une électricité 100% renouvelable issue de l’hydroélectrique et de l’éolien, des températures favorables au refroidissement des serveurs, et des coûts énergétiques compétitifs.

Un choix nordique stratégique

Le datacenter, dont l’ouverture est prévue pour 2027, accueillera les GPU NVIDIA Vera Rubin de dernière génération et promet des performances de pointe avec un PUE (Power Usage Effectiveness) parmi les plus bas du marché. EcoDataCenter, qui assurera la conception, la construction et l’exploitation du site, capitalise sur son expertise reconnue en infrastructures haute densité optimisées pour le calcul intensif.

Au-delà des aspects techniques, c’est un projet éminemment politique que porte Arthur Mensch, CEO et cofondateur de Mistral AI. « C’est un pas concret vers des capacités indépendantes en Europe », affirme-t-il.

Le partenariat vise à constituer une pile technologique entièrement européenne, du silicium aux algorithmes. Les données seront traitées et stockées localement, sous le cadre juridique de l’Union européenne, avec l’ambition affichée de proposer un « cloud IA européen » aux entreprises, administrations publiques et centres de recherche.

Pour la Suède, ce projet confirme son statut de hub européen des infrastructures numériques avancées, aux côtés d’autres projets HPC (High Performance Computing) déjà déployés dans le pays.

The post Mistral AI investit 1,2 milliard € dans un datacenter IA appeared first on Silicon.fr.

Le français Mistral AI investit 1,2 milliard d’euros pour des data centers IA en Suède

11 février 2026 à 14:52

Mistral AI va investir 1,2 milliard d’euros en Suède pour construire des data centers spécialisés en intelligence artificielle, une opération qui doit augmenter de 50 % ses capacités de calcul lors de la mise en service annoncée pour 2027. Le projet, mené avec l’entreprise suédoise EcoDataCenter, marque une première …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Le français Mistral AI investit 1,2 milliard d’euros pour des data centers IA en Suède est apparu en premier sur KultureGeek.

Facebook : Meta AI donne vie à votre photo de profil (et c’est bluffant)

Meta continue de remodeler Facebook par petites touches, avec une idée fixe : rendre le fil plus vivant sans demander aux gens d’y passer des heures en montage. Dernière salve en date : des photos de profil animées, un bouton Restyle pour transformer Stories et Memories, et des fonds animés pour donner du relief aux publications texte. […]

L’article Facebook : Meta AI donne vie à votre photo de profil (et c’est bluffant) est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Deep Research : GPT-5.2 transforme ChatGPT en super-analyste

OpenAI vient de mettre à jour Deep Research dans ChatGPT : la fonctionnalité est désormais propulsée par GPT-5.2, avec davantage de contrôle sur le « workflow » de recherche et une meilleure présentation des résultats (rapports structurés, mode lecture plein écran, etc.). Deep Research permet maintenant de cibler des sites précis et s’appuyer sur des apps connectées comme […]

L’article Deep Research : GPT-5.2 transforme ChatGPT en super-analyste est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Deep research in ChatGPT is now powered by GPT-5.2.Now in deep research you can:- Connect to apps in ChatGPT and search specific sites- Track real-time progr...

Google Translate Update Turns App Into Gemini-Powered AI Chatbot

11 février 2026 à 09:52
Google has recently updated its Translate app, introducing new artificial intelligence capabilities that go beyond traditional text translation. The update adds an Advanced mode powered by Gemini, transforming the tool into an AI chatbot capable of interacting with users instead of simply converting text between languages. According to reports from Android Central and feedback from early users, the new feature allows people to have conversational exchanges with Google Translate. This […]

Le gadget IA d’OpenAI signé Jony Ive n’arrivera pas avant fin février 2027, révèle un document judiciaire

On l’attendait comme le « moment iPhone » de l’IA grand public : un objet pensé par Jony Ive, porté par OpenAI, capable de faire oublier le smartphone pendant quelques minutes — voire plus. Sauf que la réalité rattrape le mythe : OpenAI ne prévoit pas d’expédier son premier appareil hardware avant la fin février 2027, selon une déclaration […]

L’article Le gadget IA d’OpenAI signé Jony Ive n’arrivera pas avant fin février 2027, révèle un document judiciaire est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

❌