Quelques jours après le lancement tonitruant de Seedance 2.0, le modèle IA capable de générer des vidéos, Disney envoie une mise en demeure à Bytedance. L'entreprise n'apprécie pas les vidéos virales qui mettent en scène Dark Vador ou Mickey avec un réalisme effrayant. L'entreprise, pourtant associée à OpenAI, parle d'un « pillage massif » de sa propriété intellectuelle.
Les compagnons virtuels, disponibles, flatteurs et sans contradiction, séduisent une jeunesse en quête d’affection. Mais derrière la promesse d’un amour sans conflit se profilent dépendance, intolérance au rejet et fragilité émotionnelle, dans un marché en pleine explosion. Ces relations...
Le pari de trop ? En fusionnant SpaceX, mastodonte du spatial, avec xAI, sa startup d’IA vorace en capitaux, Elon Musk promet une révolution technologique. Mais il fait aussi trembler les investisseurs…
C’est un ménage de printemps… en plein hiver. À partir d’aujourd’hui, 13 février 2026, OpenAI retire de l’interface ChatGPT plusieurs anciens modèles, dont GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini — en plus des retraits déjà annoncés de certaines variantes GPT-5 (Instant, Thinking). Sur le papier, c’est un simple changement de menu. Dans les usages, c’est une bascule : […]
Mustafa Suleyman, directeur de l’intelligence artificielle chez Microsoft, annonce que l’entreprise vise une « véritable auto-suffisance en matière d’IA » en développant ses propres modèles. Cette stratégie s’appuie sur l’accord révisé d’octobre 2025 autorisant Microsoft à poursuivre sa propre AGI (intelligence artificielle générale) tout en conservant 27 % …
Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.
Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.
Un complément basse latence à l’option GPU
Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.
Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.
OpenAI va généraliser WebSocket
Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.
Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.
On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.
Il y a des annonces qui parlent de puissance brute, et d’autres qui trahissent une obsession plus subtile : le temps de réponse. Jeudi, OpenAI a dévoilé GPT-5.3-Codex-Spark, une variante « allégée » de son modèle de code, pensée pour des boucles d’édition quasi instantanées — et surtout, servie sur l’infrastructure de Cerebras, un partenaire inédit hors du […]
Microsoft a pu se lancer dans la course à l’IA grâce à ses investissements et son partenariat stratégique avec OpenAI. Mais, petit à petit, la firme de Redmond s’éloigne du créateur de ChatGPT. Et, dans une interview avec le Financial Times, le patron de Microsoft AI a confirmé que l’objectif de l’entreprise est désormais d’atteindre une pleine autonomie en matière d’IA.
OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.
Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.
Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.
DeepSeek aurait recours à la « distillation »
L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».
Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.
En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.
Une menace commerciale et sécuritaire
Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.
Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.
David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.
La question des semi-conducteurs
Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.
Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.
Un développeur a récemment démontré la capacité de transformer les lunettes Ray-Ban Meta AI en assistant d’achat autonome, exploitant leur caméra intégrée pour identifier des produits et les ajouter à un panier Amazon. Cette prouesse technique, réalisée grâce à une combinaison de Gemini Live et de l’agent IA open source OpenClaw, illustre le potentiel des ... Lire plus
Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.
Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.
« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.
Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés « dans le courant de l’année ».
Un pari à 140 milliards de dollars
Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.
Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.
Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.
L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.
Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.
Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.
Le vent tourne-t-il pour OpenAI ? Depuis quelques jours, un mouvement de contestation inédit baptisé « QuitGPT » prend une ampleur spectaculaire sur les réseaux sociaux. Objectif : pousser les utilisateurs à supprimer leur compte et à désinstaller l'application du chatbot le plus célèbre de la planète.
SCOOP – Les essais hivernaux de la future génération du SUV Hyundai Tucson se poursuivent. Après avoir découvert des prototypes de cette nouvelle génération sur les routes allemandes au mois de novembre, c’est désormais une version « baroudeuse » qui participe à des essais de mise au point.
Le timing n’a rien d’un hasard. Alors que OpenAI vient de lancer un test de publicités dans ChatGPT, Anthropic riposte avec une promesse simple — et franchement bien sentie : plus de puissance, plus d’outils… et « no ads ». Résultat : Claude renforce son offre gratuite avec des fonctions jusqu’ici associées aux formules payantes, et se repositionne comme […]
OpenAI a officiellement enclenché son pilote publicitaire dans ChatGPT. Et, pour la première fois, on peut mettre des noms sur ce qui risque de devenir l’un des espaces média les plus convoités (et les plus sensibles) de la décennie : des publicités « contextuelles » glissées sous vos échanges, visibles uniquement par les utilisateurs Free et ChatGPT Go […]
xAI traverse une période agitée. En moins d’une semaine, au moins neuf ingénieurs de haut niveau, dont deux cofondateurs de la société, ont annoncé publiquement leur départ. Ni l’entreprise ni Elon Musk n’ont commenté ces sorties, mais la soudaineté de ces annonces ainsi que le profil des démissionnaires …
La voix est en train de devenir le nouvel écran d’accueil de l’IA. Mais, elle arrive presque toujours avec un coût invisible : davantage de données qui transitent, davantage de risques, et un sentiment diffus de « parler dans un micro qui n’oublie jamais ». DuckDuckGo tente une approche à contre-courant avec Duck.ai voice chat, désormais disponible : parler […]
C’est un coup d’accélérateur dans la bataille de l’IA européenne. Mistral AI, valorisée à près de 12 milliards €, annonce un investissement colossal de 1,2 milliard € en partenariat avec l’opérateur suédois EcoDataCenter. Objectif : ériger à Borlänge, au cœur de la Suède, une infrastructure de calcul de nouvelle génération dédiée à l’entraînement et au déploiement de ses modèles d’IA.
Pourquoi la Suède ? La réponse tient autant à la géographie qu’à la géopolitique. Le royaume scandinave offre un cocktail d’avantages difficilement égalable : une électricité 100% renouvelable issue de l’hydroélectrique et de l’éolien, des températures favorables au refroidissement des serveurs, et des coûts énergétiques compétitifs.
Un choix nordique stratégique
Le datacenter, dont l’ouverture est prévue pour 2027, accueillera les GPU NVIDIA Vera Rubin de dernière génération et promet des performances de pointe avec un PUE (Power Usage Effectiveness) parmi les plus bas du marché. EcoDataCenter, qui assurera la conception, la construction et l’exploitation du site, capitalise sur son expertise reconnue en infrastructures haute densité optimisées pour le calcul intensif.
Au-delà des aspects techniques, c’est un projet éminemment politique que porte Arthur Mensch, CEO et cofondateur de Mistral AI. « C’est un pas concret vers des capacités indépendantes en Europe », affirme-t-il.
Le partenariat vise à constituer une pile technologique entièrement européenne, du silicium aux algorithmes. Les données seront traitées et stockées localement, sous le cadre juridique de l’Union européenne, avec l’ambition affichée de proposer un « cloud IA européen » aux entreprises, administrations publiques et centres de recherche.
Pour la Suède, ce projet confirme son statut de hub européen des infrastructures numériques avancées, aux côtés d’autres projets HPC (High Performance Computing) déjà déployés dans le pays.
Mistral AI va investir 1,2 milliard d’euros en Suède pour construire des data centers spécialisés en intelligence artificielle, une opération qui doit augmenter de 50 % ses capacités de calcul lors de la mise en service annoncée pour 2027. Le projet, mené avec l’entreprise suédoise EcoDataCenter, marque une première …