Vue lecture

Pourquoi la France est le nouvel eldorado de ce genre de manettes ?

TurtleBeach Victrix Pro BFG vue de face

La Gamescom est toujours l'occasion de découvrir les nouvelles tendances du marché du jeu-vidéo. L'édition 2025 ne déroge pas à la règle, avec un nouveau genre de produits. Ceux-ci arriveront très vite et en nombre sur les étagères françaises. On a pu prendre en main deux produits, voici ce que l'on en pense.
 [Lire la suite]
  •  

Elon Musk ouvre Grok 2.5 en open source et prépare l’ouverture de Grok 3

✇SysKB
Par :Max

Elon Musk poursuit sa stratégie d’ouverture dans le domaine de l’intelligence artificielle. Dans un post publié sur X le 24 août 2025, il a annoncé que le modèle Grok 2.5 est désormais disponible en open source sur Hugging Face.

Par ailleurs, Musk a précisé que Grok 3, déjà largement utilisé par les utilisateurs de la plateforme X, sera rendu open source dans environ six mois. Une annonce qui confirme l’ambition de xAI de s’imposer dans la course mondiale à l’IA générative en misant sur la transparence et la collaboration.

The @xAI Grok 2.5 model, which was our best model last year, is now open source.

Grok 3 will be made open source in about 6 months. https://t.co/TXM0wyJKOh

— Elon Musk (@elonmusk) August 23, 2025

Grok 2.5, un modèle désormais accessible à tous

Le modèle Grok 2.5 était considéré comme la meilleure version de xAI en 2024. Son ouverture en open source signifie que chercheurs, développeurs et entreprises peuvent désormais télécharger librement le modèle. IL pourront ainsi l’expérimenter, l’adapter à leurs cas d’usage ou même contribuer à son amélioration.

Cette disponibilité sur la plateforme d’hébergement de modèles IA Hugging Face, rend Grok 2.5 facilement accessible à la communauté mondiale. Cela place xAI dans la continuité d’autres acteurs ayant ouvert leurs modèles, comme Meta avec LLaMA ou Mistral AI.

Grok 3 bientôt en Open Source ?

Grok 3 est actuellement le LLM par défaut sur X (ex-Twitter). Il est utilisé quotidiennement par des millions d’utilisateurs pour générer du texte et répondre à des questions.

Musk précise dans son Tweet que cette version sera rendue open source dans six mois environ.

Cette démarche stratégique permet à xAI de conserver un avantage compétitif tout en préparant une ouverture pour renforcer son adoption.

Ainsi, la gamme Grok se déploie sur plusieurs niveaux :

  • Grok 2.5 → désormais open source
  • Grok 3 → déjà disponible sur X, mais open source prévu dans 6 mois
  • Grok 4 → accessible uniquement via abonnement payant

Une stratégie offensive de xAI

En rendant progressivement ses modèles open source, Elon Musk adopte une stratégie offensive dans un marché de l’IA dominé par des géants comme OpenAI, Google DeepMind et Anthropic.

Cette démarche répond à deux objectifs :

  • Technologique : stimuler l’innovation en donnant à la communauté scientifique et aux startups les moyens de tester, d’améliorer et de réutiliser Grok.
  • Stratégique : renforcer la notoriété et l’adoption de xAI dans un environnement où l’ouverture devient un atout compétitif.

L’annonce de l’open source de Grok 2.5 et, bientôt, de Grok 3, est donc autant un choix technique qu’un signal politique : Musk souhaite incarner le contrepoids face à des modèles fermés et propriétaires.

Quelles perspectives pour l’avenir ?

Si l’ouverture de Grok 2.5 constitue une étape majeure, la véritable attente porte désormais sur Grok 3 en open source. Son accessibilité devrait multiplier les cas d’usage dans l’éducation, la recherche et l’industrie.

Quant à Grok 4, il illustre la dualité de la stratégie de Musk : proposer une version premium pour générer des revenus, tout en consolidant son image de défenseur d’une IA plus ouverte.

Dans un secteur où les annonces se succèdent à un rythme effréné, la mise en open source progressive des modèles Grok pourrait bien repositionner xAI comme un acteur incontournable de l’écosystème mondial de l’intelligence artificielle.

Envie de tester ce modèle ?

Si vous souhaitez expérimenter Grok 2.5, le modèle est disponible au format Transformers sur Hugging Face. L’installation nécessite un environnement Python 3.10+, ainsi que les bibliothèques transformers, torch (ou jax/accelerate selon la configuration), et éventuellement bitsandbytes pour l’inférence quantifiée.

Compte tenu de la taille du modèle, il est recommandé de disposer d’un GPU avec au moins 24 Go de VRAM (type NVIDIA RTX 3090, A6000 ou supérieur), ou d’exécuter le modèle en mode distribué via DeepSpeed ou Accelerate.

Pour un usage plus léger, Hugging Face propose aussi une intégration via Text Generation Inference (TGI) ou un déploiement rapide sur des services cloud compatibles comme AWS, GCP ou Azure.

Pour récupérer et exécuter Grok 2.5 depuis Hugging Face, voici les étapes minimales à suivre :

# 1. Créer un environnement virtuel (optionnel mais recommandé)
python -m venv venv
source venv/bin/activate # Linux / macOS
venv\Scripts\activate # Windows PowerShell

# 2. Installer les dépendances nécessaires
pip install --upgrade pip
pip install torch transformers accelerate bitsandbytes

# 3. Installer Git LFS (si non déjà présent)
# Linux
sudo apt-get install git-lfs
# macOS (brew)
brew install git-lfs
# Initialiser
git lfs install

# 4. Cloner le modèle Grok 2.5
git clone https://huggingface.co/xai-org/grok-2
cd grok-2

Vous pouvez ensuite lancer le modèle en quelques lignes de code Python :

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "xai-org/grok-2"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")

prompt = "Explique-moi la différence entre Grok 2.5 et Grok 3."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Ce code permet de générer une première réponse avec Grok 2.5 en local. Les plus avancés pourront explorer le fine-tuning avec LoRA/PEFT, ou l’intégrer dans des pipelines applicatifs via l’API Transformers et LangChain.

Cet article original intitulé Elon Musk ouvre Grok 2.5 en open source et prépare l’ouverture de Grok 3 a été publié la première sur SysKB.

  •  

L’avenir de l’USB-C selon Honor, le remplacement de l’ancien permis et les Google Pixel 10 – L’actu tech de la semaine

Au menu de ce récap de la semaine, l'USB-C pourrait disparaître des smartphones selon Honor, la démarche à suivre pour remplacer son ancien permis de conduire et les Pixel 10 enfin lancés avec une compatibilité Qi2.
 [Lire la suite]

Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

  •  

ChatGPT 6 : ce que l’on sait déjà sur la prochaine évolution d’OpenAI

✇SysKB
Par :Max

L’intelligence artificielle continue sa course effrénée. Quelques mois seulement après le lancement de GPT-5, OpenAI confirme déjà travailler sur ChatGPT 6. Cette nouvelle version sera plus puissante, plus personnalisée et surtout dotée d’une mémoire avancée. Alors que les utilisateurs se familiarisent à peine avec GPT-5, que peut-on réellement attendre de cette prochaine génération ?

OpenAI confirme ChatGPT 6

Lors de récentes interventions publiques, Sam Altman, le PDG d’OpenAI, a confirmé que ChatGPT 6 est déjà en cours de développement. L’entreprise promet une sortie plus rapide que pour GPT-5, dont le cycle avait été plus long et parfois critiqué pour un manque de nouveautés tangibles.

Altman assure que GPT-6 ne sera pas une simple mise à jour incrémentale. Mais une évolution majeure, pensée pour corriger certaines limites actuelles et proposer une expérience plus cohérente aux utilisateurs.

Une mémoire à long terme pour des échanges plus naturels

L’une des grandes révolutions attendues avec ChatGPT 6 est sa mémoire intégrée. Contrairement aux versions précédentes GPT-6 devrait être capable de se souvenir des préférences et du contexte des utilisateurs sur la durée.

Cela signifie qu’un utilisateur n’aura plus besoin de répéter ses instructions à chaque échange. L’IA pourra par exemple se souvenir d’un style rédactionnel préféré, d’un projet en cours ou encore d’une configuration technique utilisée régulièrement.

Cette avancée ouvre la voie à une relation plus fluide et plus « humaine » avec l’IA. Mais cela soulève aussi des enjeux majeurs autour de la confidentialité et du contrôle des données. OpenAI devra rassurer sur la manière dont cette mémoire sera stockée, gérée et effaçable par l’utilisateur.

Une personnalisation poussée de l’expérience

Outre la mémoire, GPT-6 promet une personnalisation accrue. Nick Turley, responsable de ChatGPT chez OpenAI, explique que l’objectif est de rendre l’IA plus adaptable aux besoins spécifiques de chacun.

On peut imaginer des assistants spécialisés selon les contextes : un mode professionnel pour rédiger rapports et présentations, un mode créatif pour générer des scénarios ou encore un mode éducatif pour l’apprentissage. Cette modularité pourrait transformer l’usage quotidien de ChatGPT et renforcer son adoption dans des secteurs variés comme l’éducation, la recherche ou les services clients.

Quelles différences avec GPT-5 ?

Bien que GPT-5 ait marqué une étape importante, de nombreux utilisateurs ont jugé que l’écart avec GPT-4 restait limité. GPT-6, au contraire, serait pensé pour marquer une rupture plus nette :

  • Amélioration de la cohérence des réponses, avec moins de contradictions.
  • Mémoire persistante permettant un suivi des conversations.
  • Personnalisation contextuelle, pour adapter le ton et le style aux besoins.
  • Capacités multimodales renforcées, avec une meilleure intégration du texte, de l’image et potentiellement de la vidéo.

Altman insiste : GPT-6 ne sera pas seulement « plus fort » que GPT-5, il sera différent.

Quand attendre ChatGPT 6 ?

Aucune date précise n’a été communiquée, mais les déclarations des responsables d’OpenAI laissent entendre que le lancement pourrait intervenir dans les six prochains mois. Nick Turley rappelle que la feuille de route technologique d’OpenAI est souvent calée sur des cycles semestriels, ce qui laisse supposer un déploiement rapide.

Cependant, comme pour chaque version majeure, OpenAI pourrait procéder par phases de tests restreints avant un déploiement global. Les abonnés à ChatGPT Plus et aux offres professionnelles pourraient ainsi découvrir GPT-6 en avant-première.

Une attente fébrile dans l’écosystème IA

L’annonce de ChatGPT 6 intervient alors que la concurrence s’intensifie : Google pousse ses modèles Gemini, Anthropic continue d’évoluer avec Claude, et Mistral AI s’impose en Europe. Dans ce contexte, OpenAI doit maintenir son avance technologique tout en répondant aux préoccupations croissantes liées à l’usage de l’IA.

Si ChatGPT 6 tient ses promesses, il pourrait redéfinir la manière dont nous interagissons avec les machines et renforcer encore la place centrale d’OpenAI dans l’écosystème mondial de l’IA.


Sources

Cet article original intitulé ChatGPT 6 : ce que l’on sait déjà sur la prochaine évolution d’OpenAI a été publié la première sur SysKB.

  •  

Nvidia baisse les prix de certaines cartes RTX 50 en France

Le géant américain vient de réviser à la baisse les tarifs conseillés de trois modèles de sa dernière génération de cartes graphiques. Ces nouveaux prix arrivent cinq mois après le précédent ajustement, mais ne concerne malheureusement pas l'ensemble de la gamme.
 [Lire la suite]

Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.

  •  

DeepSeek annonce des puces IA chinoises

✇SysKB
Par :Max

Un article de South China Morning Post relève que DeepSeek, start-up chinoise d’intelligence artificielle, a annoncé sur WeChat que son modèle V3.1 est déjà optimisé pour des puces IA chinoises de “prochaine génération”. Ce signal est interprété comme une étape vers une autonomie technologique renforcée, dans un contexte de guerre commerciale avec les États-Unis.

DeepSeek, un acteur devenu stratégique

DeepSeek est basée à Hangzhou. En janvier 2025, la société avait déjà marqué les esprits avec le lancement de son modèle R1. Ce modèle proposait des performances proches de celles des grands acteurs occidentaux, mais avec un coût bien inférieur.

L’impact fut immédiat : Nvidia perdit plusieurs milliards de capitalisation boursière en quelques jours. Certains analystes parlaient alors d’un “choc DeepSeek”.

Depuis, l’entreprise a poursuivi ses innovations avec les versions V3 et V3.1. Cette dernière exploite un format de calcul baptisé « UE8M0 FP8 ». Ce format est spécialement pensé pour fonctionner sur des semi-conducteurs fabriqués localement.

Les puces IA chinoises comme levier de souveraineté

Le message publié le 21 août 2025 précise que le modèle V3.1 a été testé avec succès sur du matériel local. Même si DeepSeek n’a pas révélé l’identité du fondeur, tout laisse à penser que des puces chinoises compatibles seront dévoilées très prochainement.

Selon plusieurs médias, il s’agit d’un signe clair que Pékin accélère ses efforts pour bâtir un écosystème technologique indépendant.

Cette orientation répond aux restrictions américaines sur l’exportation de puces avancées, comme les GPU H100 et H20 de Nvidia. Pékin a multiplié les investissements pour combler ce retard, mobilisant aussi bien les industriels publics que les start-ups privées.

DeepSeek pourrait devenir la vitrine de cette nouvelle stratégie : prouver que des modèles d’IA compétitifs peuvent tourner sur des puces IA chinoises, sans dépendre des fournisseurs étrangers.

Des conséquences directes pour l’industrie mondiale

Si la Chine réussit à produire de telles puces à grande échelle, l’impact serait majeur.

  • Nvidia et TSMC fragilisés : aujourd’hui, Nvidia domine le marché des processeurs d’IA. Ses GPU sont produits par TSMC à Taïwan. Des alternatives locales viendraient réduire cette domination.
  • Émergence de champions chinois : des acteurs comme Huawei, Biren ou Cambricon pourraient profiter de l’élan donné par DeepSeek pour imposer leurs propres solutions.
  • Réorganisation des chaînes d’approvisionnement : Pékin cherche à contrôler chaque étape, de la conception à la gravure, afin de réduire sa vulnérabilité aux sanctions.
  • Deux écosystèmes en parallèle : l’Ouest et la Chine pourraient bientôt développer des standards différents, avec des formats de calcul distincts, rendant la compatibilité plus difficile.

Une bataille technologique et géopolitique

Les semi-conducteurs sont au cœur de la rivalité entre Washington et Pékin.
Pour les États-Unis, conserver la suprématie sur les puces avancées est vital. Cela conditionne leur avance en intelligence artificielle, mais aussi dans la cybersécurité et la défense.
Pour la Chine, disposer de puces IA chinoises souveraines est un objectif stratégique. Pékin y voit un passage obligé pour accélérer sa transformation numérique et renforcer sa puissance militaire.

Ainsi, l’annonce de DeepSeek dépasse la simple innovation technique. C’est aussi un message politique : la Chine affirme qu’elle peut avancer malgré les sanctions américaines.

Des limites mais une dynamique en marche

Beaucoup de zones d’ombre subsistent. On ignore les performances réelles des puces locales. Seront-elles capables de rivaliser avec les GPU haut de gamme de Nvidia ? La Chine reste aussi confrontée à un retard sur les procédés de gravure de pointe, domaine encore dominé par TSMC et Samsung.

Cependant, l’écosystème chinois progresse rapidement. DeepSeek montre qu’il est possible d’adapter les modèles d’IA aux contraintes locales. Cette stratégie logicielle compense en partie le retard matériel.
À terme, la combinaison des deux approches — modèles optimisés et puces locales — pourrait donner naissance à une alternative crédible au duopole technologique actuel.

L’affaire DeepSeek marque donc un tournant. La course aux semi-conducteurs n’est pas terminée, mais la Chine vient de montrer qu’elle avançait vite, et qu’elle ne comptait plus rester spectatrice.

Cet article original intitulé DeepSeek annonce des puces IA chinoises a été publié la première sur SysKB.

  •  

On a fini Metal Gear Solid Delta: Snake Eater et c’est vraiment le remake de trop

Remake a priori ambitieux de l'un des épisodes les plus appréciés de la saga d'infiltration créée par Hideo Kojima, Metal Gear Solid Delta: Snake Eater témoigne d'un respect et d'une fidélité un peu trop affirmés pour l'œuvre originale. En résulte une version visuellement rajeunie, mais terriblement vieillotte dans son gameplay. Notre test.

  •  

Ce smartphone pliable a la plus grosse batterie au monde et on n’y a pas droit

Après un long teasing en Chine, Honor dévoile enfin son Magic V Flip 2, bien qu'il ne risque pas de quitter son pays d'origine.
 [Lire la suite]

Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !

  •