Vue normale

ChatGPT conquiert le marché indien avec 100 millions d’utilisateurs actifs par semaine

16 février 2026 à 11:50

Sam Altman dévoile un chiffre marquant à quelques heures d’un sommet gouvernemental consacré à l’intelligence artificielle. Le patron d’OpenAI révèle que 100 millions d’Indiens utilisent ChatGPT chaque semaine, propulsant le pays au rang de deuxième marché mondial derrière les États-Unis. L’annonce intervient dans les colonnes du Times of India, quotidien anglophone de référence, alors que ... Lire plus

L'article ChatGPT conquiert le marché indien avec 100 millions d’utilisateurs actifs par semaine est apparu en premier sur Fredzone.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 14:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

OpenAI recrute le créateur d’OpenClaw pour accélérer la cadence sur les agents IA

16 février 2026 à 10:15

OpenAI renforce ses équipes en charge des agents intelligents. Sam Altman en personne a annoncé le recrutement de Peter Steinberger, le développeur à l’origine d’OpenClaw, une plateforme qui permet de créer des agents capables d’interagir avec des applications du quotidien comme Spotify, Slack ou encore des services domotiques. …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article OpenAI recrute le créateur d’OpenClaw pour accélérer la cadence sur les agents IA est apparu en premier sur KultureGeek.

OpenAI recrute le créateur de OpenClaw : Sam Altman accélère sur les agents personnels et le multi-agent

Le message est tombé directement sur X, signé Sam Altman : Peter Steinberger, développeur solo à l’origine de Moltbot, devenu Clawdbot, puis OpenClaw, rejoint OpenAI pour « piloter la prochaine génération d’agents personnels ». Altman insiste : « the future is going to be extremely multi-agent » — et cette capacité d’agents à collaborer deviendra rapidement centrale dans les produits OpenAI. […]

L’article OpenAI recrute le créateur de OpenClaw : Sam Altman accélère sur les agents personnels et le multi-agent est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

OpenAI débauche le créateur d’OpenClaw : bonne ou mauvaise nouvelle pour le futur de l’informatique ?

16 février 2026 à 09:36

Peter Steinberger, le créateur d'OpenClaw (ex-Moltbot et Clawdbot), rejoint OpenAI « pour piloter le développement de la prochaine génération d'agents personnels ». Son projet sera maintenu en vie sous la forme d'une fondation open source, que le développeur continuera de superviser. OpenAI réalise ici un des plus grands coups de 2026.

« Il va créer le futur agent IA personnel » : le créateur d’OpenClaw rejoint OpenAI

16 février 2026 à 09:35
Openclaw Openai

OpenAI vient de frapper un grand coup sur le marché des talents en recrutant Peter Steinberger, l'homme derrière le projet viral OpenClaw. En intégrant ce développeur hors pair, l’entreprise de Sam Altman affiche clairement son ambition : transformer ChatGPT en un véritable agent personnel capable d'agir concrètement à notre place.

OpenAI met fin à l’aventure du modèle GPT-4o, au cœur de nombreuses polémiques

16 février 2026 à 08:00
OpenAI met fin à l’aventure du modèle GPT-4o, au cœur de nombreuses polémiques
OpenAI met fin à l’utilisation du modèle GPT-4o, qui avait suscité de vives discussions en raison de ses fonctionnalités et des interrogations éthiques. Cette décision marque un tournant dans la stratégie d’évolution des intelligences artificielles de la société.

Disney attaque le modèle Seedance 2.0 qui génère des répliques parfaites de ses films grâce à l’IA

14 février 2026 à 11:12

Quelques jours après le lancement tonitruant de Seedance 2.0, le modèle IA capable de générer des vidéos, Disney envoie une mise en demeure à Bytedance. L'entreprise n'apprécie pas les vidéos virales qui mettent en scène Dark Vador ou Mickey avec un réalisme effrayant. L'entreprise, pourtant associée à OpenAI, parle d'un « pillage massif » de sa propriété intellectuelle.

ChatGPT tourne une page : OpenAI retire GPT-4o et plusieurs modèles « historiques »

C’est un ménage de printemps… en plein hiver. À partir d’aujourd’hui, 13 février 2026, OpenAI retire de l’interface ChatGPT plusieurs anciens modèles, dont GPT-4o, GPT-4.1, GPT-4.1 mini et o4-mini — en plus des retraits déjà annoncés de certaines variantes GPT-5 (Instant, Thinking). Sur le papier, c’est un simple changement de menu. Dans les usages, c’est une bascule : […]

L’article ChatGPT tourne une page : OpenAI retire GPT-4o et plusieurs modèles « historiques » est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Microsoft confirme divorcer progressivement d’OpenAI pour l’IA

14 février 2026 à 08:00

Mustafa Suleyman, directeur de l’intelligence artificielle chez Microsoft, annonce que l’entreprise vise une « véritable auto-suffisance en matière d’IA » en développant ses propres modèles. Cette stratégie s’appuie sur l’accord révisé d’octobre 2025 autorisant Microsoft à poursuivre sa propre AGI (intelligence artificielle générale) tout en conservant 27 % …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Microsoft confirme divorcer progressivement d’OpenAI pour l’IA est apparu en premier sur KultureGeek.

OpenAI apprend à penser l’inférence sans NVIDIA

13 février 2026 à 14:54

Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.

Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.

Cerebras WSE-3

Un complément basse latence à l’option GPU

Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.

Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.

OpenAI va généraliser WebSocket

Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.

Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.

On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.

À consulter en complément :

Comment OpenAI a diversifié ses fournisseurs
Microsoft veut voler de ses propres ailes dans l’IA
Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité
Claude crée son propre compilateur C : oui, mais…
Codage agentique : le retour d’expérience de Spotify

Illustration principale générée par IA

The post OpenAI apprend à penser l’inférence sans NVIDIA appeared first on Silicon.fr.

OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia)

Il y a des annonces qui parlent de puissance brute, et d’autres qui trahissent une obsession plus subtile : le temps de réponse. Jeudi, OpenAI a dévoilé GPT-5.3-Codex-Spark, une variante « allégée » de son modèle de code, pensée pour des boucles d’édition quasi instantanées — et surtout, servie sur l’infrastructure de Cerebras, un partenaire inédit hors du […]

L’article OpenAI lance GPT-5.3-Codex-Spark sur puces Cerebras : la vitesse comme nouvelle arme (et un signal à Nvidia) est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Microsoft AI s’éloigne encore de ChatGPT et cette annonce du CEO marque un tournant majeur

Par : Setra
13 février 2026 à 13:01
Microsoft Copilot

Microsoft a pu se lancer dans la course à l’IA grâce à ses investissements et son partenariat stratégique avec OpenAI. Mais, petit à petit, la firme de Redmond s’éloigne du créateur de ChatGPT. Et, dans une interview avec le Financial Times, le patron de Microsoft AI a confirmé que l’objectif de l’entreprise est désormais d’atteindre une pleine autonomie en matière d’IA.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 14:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

QuitGPT : pourquoi ces internautes veulent boycotter en masse ChatGPT ?

12 février 2026 à 12:00
Chatgpt Quigpt

Le vent tourne-t-il pour OpenAI ? Depuis quelques jours, un mouvement de contestation inédit baptisé « QuitGPT » prend une ampleur spectaculaire sur les réseaux sociaux. Objectif : pousser les utilisateurs à supprimer leur compte et à désinstaller l'application du chatbot le plus célèbre de la planète.

ChatGPT lance ses premières pubs : Target, Adobe, Ford… voici les marques déjà engagées

OpenAI a officiellement enclenché son pilote publicitaire dans ChatGPT. Et, pour la première fois, on peut mettre des noms sur ce qui risque de devenir l’un des espaces média les plus convoités (et les plus sensibles) de la décennie : des publicités « contextuelles » glissées sous vos échanges, visibles uniquement par les utilisateurs Free et ChatGPT Go […]

L’article ChatGPT lance ses premières pubs : Target, Adobe, Ford… voici les marques déjà engagées est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

OpenAI repousse son premier bidule d’IA à 2027, et abandonne le nom « io »

10 février 2026 à 13:29

Le tout premier produit matériel d’OpenAI, imaginé par l’ancien designer emblématique d’Apple Jony Ive, ne sera finalement pas commercialisé avant 2027. Selon de récents documents judiciaires, l’appareil, qui était initialement attendu pour la fin de l’année 2026, ne devrait pas arriver chez les consommateurs avant février 2027. Ce …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article OpenAI repousse son premier bidule d’IA à 2027, et abandonne le nom « io » est apparu en premier sur KultureGeek.

❌