DeepSeek V3.1 : le LLM chinois de 685 milliards de paramètres qui bouscule le paysage IA open source
La startup chinoise DeepSeek vient de déployer discrètement DeepSeek V3.1, une mise à jour majeure de son modèle de langage de nouvelle génération. Avec 685 milliards de paramètres et un contexte étendu à 128 000 tokens, ce modèle se positionne comme l’un des plus puissants disponibles en open source, rivalisant avec Claude Opus 4 et flirtant avec le niveau des […]
L’article DeepSeek V3.1 : le LLM chinois de 685 milliards de paramètres qui bouscule le paysage IA open source est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.