Pourquoi la France est le nouvel eldorado de ce genre de manettes ?
Votre café et votre dose de tech vous attendent sur WhatsApp chaque matin avec Frandroid.
Votre café et votre dose de tech vous attendent sur WhatsApp chaque matin avec Frandroid.
Elon Musk poursuit sa stratégie d’ouverture dans le domaine de l’intelligence artificielle. Dans un post publié sur X le 24 août 2025, il a annoncé que le modèle Grok 2.5 est désormais disponible en open source sur Hugging Face.
Par ailleurs, Musk a précisé que Grok 3, déjà largement utilisé par les utilisateurs de la plateforme X, sera rendu open source dans environ six mois. Une annonce qui confirme l’ambition de xAI de s’imposer dans la course mondiale à l’IA générative en misant sur la transparence et la collaboration.
The @xAI Grok 2.5 model, which was our best model last year, is now open source.
— Elon Musk (@elonmusk) August 23, 2025
Grok 3 will be made open source in about 6 months. https://t.co/TXM0wyJKOh
Le modèle Grok 2.5 était considéré comme la meilleure version de xAI en 2024. Son ouverture en open source signifie que chercheurs, développeurs et entreprises peuvent désormais télécharger librement le modèle. IL pourront ainsi l’expérimenter, l’adapter à leurs cas d’usage ou même contribuer à son amélioration.
Cette disponibilité sur la plateforme d’hébergement de modèles IA Hugging Face, rend Grok 2.5 facilement accessible à la communauté mondiale. Cela place xAI dans la continuité d’autres acteurs ayant ouvert leurs modèles, comme Meta avec LLaMA ou Mistral AI.
Grok 3 est actuellement le LLM par défaut sur X (ex-Twitter). Il est utilisé quotidiennement par des millions d’utilisateurs pour générer du texte et répondre à des questions.
Musk précise dans son Tweet que cette version sera rendue open source dans six mois environ.
Cette démarche stratégique permet à xAI de conserver un avantage compétitif tout en préparant une ouverture pour renforcer son adoption.
Ainsi, la gamme Grok se déploie sur plusieurs niveaux :
En rendant progressivement ses modèles open source, Elon Musk adopte une stratégie offensive dans un marché de l’IA dominé par des géants comme OpenAI, Google DeepMind et Anthropic.
Cette démarche répond à deux objectifs :
L’annonce de l’open source de Grok 2.5 et, bientôt, de Grok 3, est donc autant un choix technique qu’un signal politique : Musk souhaite incarner le contrepoids face à des modèles fermés et propriétaires.
Si l’ouverture de Grok 2.5 constitue une étape majeure, la véritable attente porte désormais sur Grok 3 en open source. Son accessibilité devrait multiplier les cas d’usage dans l’éducation, la recherche et l’industrie.
Quant à Grok 4, il illustre la dualité de la stratégie de Musk : proposer une version premium pour générer des revenus, tout en consolidant son image de défenseur d’une IA plus ouverte.
Dans un secteur où les annonces se succèdent à un rythme effréné, la mise en open source progressive des modèles Grok pourrait bien repositionner xAI comme un acteur incontournable de l’écosystème mondial de l’intelligence artificielle.
Si vous souhaitez expérimenter Grok 2.5, le modèle est disponible au format Transformers sur Hugging Face. L’installation nécessite un environnement Python 3.10+, ainsi que les bibliothèques transformers
, torch
(ou jax
/accelerate
selon la configuration), et éventuellement bitsandbytes
pour l’inférence quantifiée.
Compte tenu de la taille du modèle, il est recommandé de disposer d’un GPU avec au moins 24 Go de VRAM (type NVIDIA RTX 3090, A6000 ou supérieur), ou d’exécuter le modèle en mode distribué via DeepSpeed ou Accelerate.
Pour un usage plus léger, Hugging Face propose aussi une intégration via Text Generation Inference (TGI) ou un déploiement rapide sur des services cloud compatibles comme AWS, GCP ou Azure.
Pour récupérer et exécuter Grok 2.5 depuis Hugging Face, voici les étapes minimales à suivre :
# 1. Créer un environnement virtuel (optionnel mais recommandé)
python -m venv venv
source venv/bin/activate # Linux / macOS
venv\Scripts\activate # Windows PowerShell
# 2. Installer les dépendances nécessaires
pip install --upgrade pip
pip install torch transformers accelerate bitsandbytes
# 3. Installer Git LFS (si non déjà présent)
# Linux
sudo apt-get install git-lfs
# macOS (brew)
brew install git-lfs
# Initialiser
git lfs install
# 4. Cloner le modèle Grok 2.5
git clone https://huggingface.co/xai-org/grok-2
cd grok-2
Vous pouvez ensuite lancer le modèle en quelques lignes de code Python :
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "xai-org/grok-2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")
prompt = "Explique-moi la différence entre Grok 2.5 et Grok 3."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Ce code permet de générer une première réponse avec Grok 2.5 en local. Les plus avancés pourront explorer le fine-tuning avec LoRA/PEFT, ou l’intégrer dans des pipelines applicatifs via l’API Transformers et LangChain.
Cet article original intitulé Elon Musk ouvre Grok 2.5 en open source et prépare l’ouverture de Grok 3 a été publié la première sur SysKB.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
L’intelligence artificielle continue sa course effrénée. Quelques mois seulement après le lancement de GPT-5, OpenAI confirme déjà travailler sur ChatGPT 6. Cette nouvelle version sera plus puissante, plus personnalisée et surtout dotée d’une mémoire avancée. Alors que les utilisateurs se familiarisent à peine avec GPT-5, que peut-on réellement attendre de cette prochaine génération ?
Lors de récentes interventions publiques, Sam Altman, le PDG d’OpenAI, a confirmé que ChatGPT 6 est déjà en cours de développement. L’entreprise promet une sortie plus rapide que pour GPT-5, dont le cycle avait été plus long et parfois critiqué pour un manque de nouveautés tangibles.
Altman assure que GPT-6 ne sera pas une simple mise à jour incrémentale. Mais une évolution majeure, pensée pour corriger certaines limites actuelles et proposer une expérience plus cohérente aux utilisateurs.
L’une des grandes révolutions attendues avec ChatGPT 6 est sa mémoire intégrée. Contrairement aux versions précédentes GPT-6 devrait être capable de se souvenir des préférences et du contexte des utilisateurs sur la durée.
Cela signifie qu’un utilisateur n’aura plus besoin de répéter ses instructions à chaque échange. L’IA pourra par exemple se souvenir d’un style rédactionnel préféré, d’un projet en cours ou encore d’une configuration technique utilisée régulièrement.
Cette avancée ouvre la voie à une relation plus fluide et plus « humaine » avec l’IA. Mais cela soulève aussi des enjeux majeurs autour de la confidentialité et du contrôle des données. OpenAI devra rassurer sur la manière dont cette mémoire sera stockée, gérée et effaçable par l’utilisateur.
Outre la mémoire, GPT-6 promet une personnalisation accrue. Nick Turley, responsable de ChatGPT chez OpenAI, explique que l’objectif est de rendre l’IA plus adaptable aux besoins spécifiques de chacun.
On peut imaginer des assistants spécialisés selon les contextes : un mode professionnel pour rédiger rapports et présentations, un mode créatif pour générer des scénarios ou encore un mode éducatif pour l’apprentissage. Cette modularité pourrait transformer l’usage quotidien de ChatGPT et renforcer son adoption dans des secteurs variés comme l’éducation, la recherche ou les services clients.
Bien que GPT-5 ait marqué une étape importante, de nombreux utilisateurs ont jugé que l’écart avec GPT-4 restait limité. GPT-6, au contraire, serait pensé pour marquer une rupture plus nette :
Altman insiste : GPT-6 ne sera pas seulement « plus fort » que GPT-5, il sera différent.
Aucune date précise n’a été communiquée, mais les déclarations des responsables d’OpenAI laissent entendre que le lancement pourrait intervenir dans les six prochains mois. Nick Turley rappelle que la feuille de route technologique d’OpenAI est souvent calée sur des cycles semestriels, ce qui laisse supposer un déploiement rapide.
Cependant, comme pour chaque version majeure, OpenAI pourrait procéder par phases de tests restreints avant un déploiement global. Les abonnés à ChatGPT Plus et aux offres professionnelles pourraient ainsi découvrir GPT-6 en avant-première.
L’annonce de ChatGPT 6 intervient alors que la concurrence s’intensifie : Google pousse ses modèles Gemini, Anthropic continue d’évoluer avec Claude, et Mistral AI s’impose en Europe. Dans ce contexte, OpenAI doit maintenir son avance technologique tout en répondant aux préoccupations croissantes liées à l’usage de l’IA.
Si ChatGPT 6 tient ses promesses, il pourrait redéfinir la manière dont nous interagissons avec les machines et renforcer encore la place centrale d’OpenAI dans l’écosystème mondial de l’IA.
Cet article original intitulé ChatGPT 6 : ce que l’on sait déjà sur la prochaine évolution d’OpenAI a été publié la première sur SysKB.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Warner Bros. et TT Games ont dévoilé un nouveau jeu Lego. Intitulé Lego Batman: Legacy of the Dark Knight, il se présente comme une anthologie centrée sur le plus célèbre des super-héros DC Comics. On y a joué, et le jeu fait beaucoup penser à la trilogie Batman: Arkham. En plus mignon.
Après le flamboyant remake de Silent Hill 2 confié à Bloober Team, Konami revient aux affaires avec Silent Hill f. Cette nouvelle plongée horrifique a pour elle son ambiance et son héroïne atypique. On y a joué près de quatre heures à l'occasion de la gamescom.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
D'anciens membres de CD Projekt Red ont fondé leur propre studio pour créer un RPG. Héritier direct de la saga The Witcher, The Blood of Dawnwalker affiche suffisamment d'atouts pour ne pas être la simple copie de. On l'a vu, à la gamescom.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Un article de South China Morning Post relève que DeepSeek, start-up chinoise d’intelligence artificielle, a annoncé sur WeChat que son modèle V3.1 est déjà optimisé pour des puces IA chinoises de “prochaine génération”. Ce signal est interprété comme une étape vers une autonomie technologique renforcée, dans un contexte de guerre commerciale avec les États-Unis.
DeepSeek est basée à Hangzhou. En janvier 2025, la société avait déjà marqué les esprits avec le lancement de son modèle R1. Ce modèle proposait des performances proches de celles des grands acteurs occidentaux, mais avec un coût bien inférieur.
L’impact fut immédiat : Nvidia perdit plusieurs milliards de capitalisation boursière en quelques jours. Certains analystes parlaient alors d’un “choc DeepSeek”.
Depuis, l’entreprise a poursuivi ses innovations avec les versions V3 et V3.1. Cette dernière exploite un format de calcul baptisé « UE8M0 FP8 ». Ce format est spécialement pensé pour fonctionner sur des semi-conducteurs fabriqués localement.
Le message publié le 21 août 2025 précise que le modèle V3.1 a été testé avec succès sur du matériel local. Même si DeepSeek n’a pas révélé l’identité du fondeur, tout laisse à penser que des puces chinoises compatibles seront dévoilées très prochainement.
Selon plusieurs médias, il s’agit d’un signe clair que Pékin accélère ses efforts pour bâtir un écosystème technologique indépendant.
Cette orientation répond aux restrictions américaines sur l’exportation de puces avancées, comme les GPU H100 et H20 de Nvidia. Pékin a multiplié les investissements pour combler ce retard, mobilisant aussi bien les industriels publics que les start-ups privées.
DeepSeek pourrait devenir la vitrine de cette nouvelle stratégie : prouver que des modèles d’IA compétitifs peuvent tourner sur des puces IA chinoises, sans dépendre des fournisseurs étrangers.
Si la Chine réussit à produire de telles puces à grande échelle, l’impact serait majeur.
Les semi-conducteurs sont au cœur de la rivalité entre Washington et Pékin.
Pour les États-Unis, conserver la suprématie sur les puces avancées est vital. Cela conditionne leur avance en intelligence artificielle, mais aussi dans la cybersécurité et la défense.
Pour la Chine, disposer de puces IA chinoises souveraines est un objectif stratégique. Pékin y voit un passage obligé pour accélérer sa transformation numérique et renforcer sa puissance militaire.
Ainsi, l’annonce de DeepSeek dépasse la simple innovation technique. C’est aussi un message politique : la Chine affirme qu’elle peut avancer malgré les sanctions américaines.
Beaucoup de zones d’ombre subsistent. On ignore les performances réelles des puces locales. Seront-elles capables de rivaliser avec les GPU haut de gamme de Nvidia ? La Chine reste aussi confrontée à un retard sur les procédés de gravure de pointe, domaine encore dominé par TSMC et Samsung.
Cependant, l’écosystème chinois progresse rapidement. DeepSeek montre qu’il est possible d’adapter les modèles d’IA aux contraintes locales. Cette stratégie logicielle compense en partie le retard matériel.
À terme, la combinaison des deux approches — modèles optimisés et puces locales — pourrait donner naissance à une alternative crédible au duopole technologique actuel.
L’affaire DeepSeek marque donc un tournant. La course aux semi-conducteurs n’est pas terminée, mais la Chine vient de montrer qu’elle avançait vite, et qu’elle ne comptait plus rester spectatrice.
Cet article original intitulé DeepSeek annonce des puces IA chinoises a été publié la première sur SysKB.
Remake a priori ambitieux de l'un des épisodes les plus appréciés de la saga d'infiltration créée par Hideo Kojima, Metal Gear Solid Delta: Snake Eater témoigne d'un respect et d'une fidélité un peu trop affirmés pour l'œuvre originale. En résulte une version visuellement rajeunie, mais terriblement vieillotte dans son gameplay. Notre test.
Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !