Oppo prépare un Find X9 Ultra équipé d’une batterie XXL et des gros capteurs photo
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).
La révélation de la date de sortie d'Hollow Knight: Silksong ravive la flamme du premier opus, qui vient de battre son record de fréquentation sur Steam et attire les spectatrices et les spectateurs sur Twitch.
Votre café et votre dose de tech vous attendent sur WhatsApp chaque matin avec Frandroid.
Elon Musk poursuit sa stratégie d’ouverture dans le domaine de l’intelligence artificielle. Dans un post publié sur X le 24 août 2025, il a annoncé que le modèle Grok 2.5 est désormais disponible en open source sur Hugging Face.
Par ailleurs, Musk a précisé que Grok 3, déjà largement utilisé par les utilisateurs de la plateforme X, sera rendu open source dans environ six mois. Une annonce qui confirme l’ambition de xAI de s’imposer dans la course mondiale à l’IA générative en misant sur la transparence et la collaboration.
The @xAI Grok 2.5 model, which was our best model last year, is now open source.
— Elon Musk (@elonmusk) August 23, 2025
Grok 3 will be made open source in about 6 months. https://t.co/TXM0wyJKOh
Le modèle Grok 2.5 était considéré comme la meilleure version de xAI en 2024. Son ouverture en open source signifie que chercheurs, développeurs et entreprises peuvent désormais télécharger librement le modèle. IL pourront ainsi l’expérimenter, l’adapter à leurs cas d’usage ou même contribuer à son amélioration.
Cette disponibilité sur la plateforme d’hébergement de modèles IA Hugging Face, rend Grok 2.5 facilement accessible à la communauté mondiale. Cela place xAI dans la continuité d’autres acteurs ayant ouvert leurs modèles, comme Meta avec LLaMA ou Mistral AI.
Grok 3 est actuellement le LLM par défaut sur X (ex-Twitter). Il est utilisé quotidiennement par des millions d’utilisateurs pour générer du texte et répondre à des questions.
Musk précise dans son Tweet que cette version sera rendue open source dans six mois environ.
Cette démarche stratégique permet à xAI de conserver un avantage compétitif tout en préparant une ouverture pour renforcer son adoption.
Ainsi, la gamme Grok se déploie sur plusieurs niveaux :
En rendant progressivement ses modèles open source, Elon Musk adopte une stratégie offensive dans un marché de l’IA dominé par des géants comme OpenAI, Google DeepMind et Anthropic.
Cette démarche répond à deux objectifs :
L’annonce de l’open source de Grok 2.5 et, bientôt, de Grok 3, est donc autant un choix technique qu’un signal politique : Musk souhaite incarner le contrepoids face à des modèles fermés et propriétaires.
Si l’ouverture de Grok 2.5 constitue une étape majeure, la véritable attente porte désormais sur Grok 3 en open source. Son accessibilité devrait multiplier les cas d’usage dans l’éducation, la recherche et l’industrie.
Quant à Grok 4, il illustre la dualité de la stratégie de Musk : proposer une version premium pour générer des revenus, tout en consolidant son image de défenseur d’une IA plus ouverte.
Dans un secteur où les annonces se succèdent à un rythme effréné, la mise en open source progressive des modèles Grok pourrait bien repositionner xAI comme un acteur incontournable de l’écosystème mondial de l’intelligence artificielle.
Si vous souhaitez expérimenter Grok 2.5, le modèle est disponible au format Transformers sur Hugging Face. L’installation nécessite un environnement Python 3.10+, ainsi que les bibliothèques transformers
, torch
(ou jax
/accelerate
selon la configuration), et éventuellement bitsandbytes
pour l’inférence quantifiée.
Compte tenu de la taille du modèle, il est recommandé de disposer d’un GPU avec au moins 24 Go de VRAM (type NVIDIA RTX 3090, A6000 ou supérieur), ou d’exécuter le modèle en mode distribué via DeepSpeed ou Accelerate.
Pour un usage plus léger, Hugging Face propose aussi une intégration via Text Generation Inference (TGI) ou un déploiement rapide sur des services cloud compatibles comme AWS, GCP ou Azure.
Pour récupérer et exécuter Grok 2.5 depuis Hugging Face, voici les étapes minimales à suivre :
# 1. Créer un environnement virtuel (optionnel mais recommandé)
python -m venv venv
source venv/bin/activate # Linux / macOS
venv\Scripts\activate # Windows PowerShell
# 2. Installer les dépendances nécessaires
pip install --upgrade pip
pip install torch transformers accelerate bitsandbytes
# 3. Installer Git LFS (si non déjà présent)
# Linux
sudo apt-get install git-lfs
# macOS (brew)
brew install git-lfs
# Initialiser
git lfs install
# 4. Cloner le modèle Grok 2.5
git clone https://huggingface.co/xai-org/grok-2
cd grok-2
Vous pouvez ensuite lancer le modèle en quelques lignes de code Python :
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "xai-org/grok-2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")
prompt = "Explique-moi la différence entre Grok 2.5 et Grok 3."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Ce code permet de générer une première réponse avec Grok 2.5 en local. Les plus avancés pourront explorer le fine-tuning avec LoRA/PEFT, ou l’intégrer dans des pipelines applicatifs via l’API Transformers et LangChain.
Cet article original intitulé Elon Musk ouvre Grok 2.5 en open source et prépare l’ouverture de Grok 3 a été publié la première sur SysKB.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
L’intelligence artificielle continue sa course effrénée. Quelques mois seulement après le lancement de GPT-5, OpenAI confirme déjà travailler sur ChatGPT 6. Cette nouvelle version sera plus puissante, plus personnalisée et surtout dotée d’une mémoire avancée. Alors que les utilisateurs se familiarisent à peine avec GPT-5, que peut-on réellement attendre de cette prochaine génération ?
Lors de récentes interventions publiques, Sam Altman, le PDG d’OpenAI, a confirmé que ChatGPT 6 est déjà en cours de développement. L’entreprise promet une sortie plus rapide que pour GPT-5, dont le cycle avait été plus long et parfois critiqué pour un manque de nouveautés tangibles.
Altman assure que GPT-6 ne sera pas une simple mise à jour incrémentale. Mais une évolution majeure, pensée pour corriger certaines limites actuelles et proposer une expérience plus cohérente aux utilisateurs.
L’une des grandes révolutions attendues avec ChatGPT 6 est sa mémoire intégrée. Contrairement aux versions précédentes GPT-6 devrait être capable de se souvenir des préférences et du contexte des utilisateurs sur la durée.
Cela signifie qu’un utilisateur n’aura plus besoin de répéter ses instructions à chaque échange. L’IA pourra par exemple se souvenir d’un style rédactionnel préféré, d’un projet en cours ou encore d’une configuration technique utilisée régulièrement.
Cette avancée ouvre la voie à une relation plus fluide et plus « humaine » avec l’IA. Mais cela soulève aussi des enjeux majeurs autour de la confidentialité et du contrôle des données. OpenAI devra rassurer sur la manière dont cette mémoire sera stockée, gérée et effaçable par l’utilisateur.
Outre la mémoire, GPT-6 promet une personnalisation accrue. Nick Turley, responsable de ChatGPT chez OpenAI, explique que l’objectif est de rendre l’IA plus adaptable aux besoins spécifiques de chacun.
On peut imaginer des assistants spécialisés selon les contextes : un mode professionnel pour rédiger rapports et présentations, un mode créatif pour générer des scénarios ou encore un mode éducatif pour l’apprentissage. Cette modularité pourrait transformer l’usage quotidien de ChatGPT et renforcer son adoption dans des secteurs variés comme l’éducation, la recherche ou les services clients.
Bien que GPT-5 ait marqué une étape importante, de nombreux utilisateurs ont jugé que l’écart avec GPT-4 restait limité. GPT-6, au contraire, serait pensé pour marquer une rupture plus nette :
Altman insiste : GPT-6 ne sera pas seulement « plus fort » que GPT-5, il sera différent.
Aucune date précise n’a été communiquée, mais les déclarations des responsables d’OpenAI laissent entendre que le lancement pourrait intervenir dans les six prochains mois. Nick Turley rappelle que la feuille de route technologique d’OpenAI est souvent calée sur des cycles semestriels, ce qui laisse supposer un déploiement rapide.
Cependant, comme pour chaque version majeure, OpenAI pourrait procéder par phases de tests restreints avant un déploiement global. Les abonnés à ChatGPT Plus et aux offres professionnelles pourraient ainsi découvrir GPT-6 en avant-première.
L’annonce de ChatGPT 6 intervient alors que la concurrence s’intensifie : Google pousse ses modèles Gemini, Anthropic continue d’évoluer avec Claude, et Mistral AI s’impose en Europe. Dans ce contexte, OpenAI doit maintenir son avance technologique tout en répondant aux préoccupations croissantes liées à l’usage de l’IA.
Si ChatGPT 6 tient ses promesses, il pourrait redéfinir la manière dont nous interagissons avec les machines et renforcer encore la place centrale d’OpenAI dans l’écosystème mondial de l’IA.
Cet article original intitulé ChatGPT 6 : ce que l’on sait déjà sur la prochaine évolution d’OpenAI a été publié la première sur SysKB.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Warner Bros. et TT Games ont dévoilé un nouveau jeu Lego. Intitulé Lego Batman: Legacy of the Dark Knight, il se présente comme une anthologie centrée sur le plus célèbre des super-héros DC Comics. On y a joué, et le jeu fait beaucoup penser à la trilogie Batman: Arkham. En plus mignon.
Après le flamboyant remake de Silent Hill 2 confié à Bloober Team, Konami revient aux affaires avec Silent Hill f. Cette nouvelle plongée horrifique a pour elle son ambiance et son héroïne atypique. On y a joué près de quatre heures à l'occasion de la gamescom.
Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
D'anciens membres de CD Projekt Red ont fondé leur propre studio pour créer un RPG. Héritier direct de la saga The Witcher, The Blood of Dawnwalker affiche suffisamment d'atouts pour ne pas être la simple copie de. On l'a vu, à la gamescom.