Vue normale

Reçu — 17 décembre 2025

DeepSeek : soupçons de contrebande de puces Nvidia Blackwell pour entraîner l’IA chinoise

Vous vous souvenez de DeepSeek ? Début 2025, cette start-up chinoise d’intelligence artificielle a brièvement créé la surprise en détrônant ChatGPT pour devenir l’application gratuite la plus téléchargée sur l’App Store. Mais, ce n’est pas ce succès éphémère qui a fait de DeepSeek un sujet brûlant dans l’écosystème tech mondial. La véritable onde de choc venait d’ailleurs : […]

L’article DeepSeek : soupçons de contrebande de puces Nvidia Blackwell pour entraîner l’IA chinoise est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Reçu — 11 décembre 2025

Nvidia développe un système de géolocalisation pour contrer la contrebande de ses processeurs IA

11 décembre 2025 à 11:50

Alors que les rumeurs de trafic de puces vers la Chine se multiplient, Nvidia riposte avec une solution technologique audacieuse : un logiciel capable de tracer géographiquement ses composants les plus sophistiqués. D’après Reuters, qui cite des sources anonymes, le fabricant américain aurait conçu une technologie de vérification de localisation permettant d’identifier le pays hébergeant ... Lire plus

L'article Nvidia développe un système de géolocalisation pour contrer la contrebande de ses processeurs IA est apparu en premier sur Fredzone.
Reçu — 10 décembre 2025

Poésie contre l’IA : les garde-fous débordés

10 décembre 2025 à 16:17
Des poèmes malveillants contournent les garde-fous de 25 modèles d’IA, révélant une vulnérabilité systémique des mécanismes d’alignement actuels.
Reçu — 9 décembre 2025

Revue de presse de l’April pour la semaine 49 de l’année 2025

Par :echarp
9 décembre 2025 à 06:13

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ZDNET] 'Non à la taxe Windows': 20 organisations appellent à passer au logiciel libre

✍ Thierry Noisette, le dimanche 7 décembre 2025.

20 organisations invitent à passer au Libre et demandent la liberté de choix informatique, dès l’acte d’achat, avec l’affichage des coûts des licences et la possibilité d’acheter un ordinateur sans système d’exploitation imposé.

Et aussi:

[Goodtech] Logiciels de caisse: le Parlement veut rétablir l'auto-attestation et sauver l'open source

Le jeudi 4 décembre 2025.

Victoire en vue pour le logiciel libre en France: après l’Assemblée, le Sénat vote la fin de la certification tierce obligatoire pour les logiciels de caisse, jugée trop coûteuse et inadaptée. L’avis de l’APRIL.

[Génération NT] L'ascension de Linux: le géant Windows est-il vraiment en danger?

✍ Mathieu M., le mercredi 3 décembre 2025.

Longtemps cantonné à une niche d’experts, Linux connaît une croissance spectaculaire sur les PC de bureau. Sa part de marché a triplé en quatre ans, largement alimentée par des utilisateurs fuyant un Windows jugé trop contraignant. Entre la fin du support de Windows 10 et l’essor du gaming, l’OS libre est devenu une alternative crédible pour des millions de personnes.

[ZDNET] Le nouveau modèle open source de DeepSeek est-il le dernier coup de pelle porté à l'IA propriétaire?

✍ Webb Wright, le mercredi 3 décembre 2025.

Avec des résultats impressionnants, la dernière version open-source du modèle d’IA chinois relance la question de savoir si les modèles propriétaires en valent la peine.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Reçu — 5 décembre 2025

Qu’est-ce que DeepSeek ? Le géant chinois qui défie OpenAI et Google

En 2022, l’ère de l’IA générative a explosé avec l’arrivée de ChatGPT. Mais début 2025, un nouvel événement majeur a changé le paysage : l’irruption spectaculaire de DeepSeek, un acteur chinois encore inconnu quelques mois plus tôt. Avec des modèles performants, un coût d’entraînement dérisoire et une ouverture inhabituelle pour une entreprise chinoise, DeepSeek est […]

L’article Qu’est-ce que DeepSeek ? Le géant chinois qui défie OpenAI et Google est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Reçu — 1 décembre 2025

DeepSeek-V3.2 est disponible pour concurrencer GPT-5 et Gemini 3 Pro

1 décembre 2025 à 21:40

DeepSeek vient de présenter DeepSeek-V3.2. Ce nouveau modèle open source d’intelligence artificielle parvient à égaler les performances des GPT-5 d’OpenAI et Gemini 3 Pro de Google sur des tests clés, marquant une avancée significative. Une architecture IA repensée pour l’efficacité et le post-entraînement Pour concevoir cette version, les …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article DeepSeek-V3.2 est disponible pour concurrencer GPT-5 et Gemini 3 Pro est apparu en premier sur KultureGeek.

Reçu — 28 octobre 2025

Les modèles de vision gagnent du terrain dans l’OCR

28 octobre 2025 à 15:29

La plupart des documents sont conçus pour être lus par des humains. Partant, ils peuvent être analysés de façon plus approfondie par des modèles de vision que par des modèles de langage.

Le projet Colette repose sur ce postulat. Cofinancé par Airbus, le CNES et la société toulousaine Jolibrain, il a produit un logiciel open source de déploiement de LLM avec une brique de RAG visuel (tous les documents sont transformés et analysés sous forme d’images).

Colette s’appuie sur une architecture qui a ses racines à CentraleSupélec : ColPali. Présentée début 2025, elle met à profit un VLM entraîné pour indexer des documents purement à partir de leurs caractéristiques visuelles.

ColPali

ColPali se retrouve aussi, entre autres, chez Morphik. Cette start-up Y Combinator a focalisé son offre sur le RAG. Elle a amélioré les performances en exploitant la méthode MUVERA – qui permet de contourner l’approche multivectorielle de ColPali – et la base de données vectorielle Turbopuffer.

DeepSeek-OCR : la modalité image comme moyen de compression

DeepSeek étudie également cet aspect. Il y a récemment consacré un article scientifique, sous un angle particulier : la modalité vision comme moyen de compresser l’information textuelle.

Ses travaux se matérialisent avec l’architecture DeepSeek-OCR. En son centre, DeepEncoder, qui encode les documents sous forme « tokens image ». Il exploite un modèle SAM (segmentation avec attention locale par fenêtre) et un modèle CLIP (attention globale). Avec, entre les deux, un module convolutionnel de sous-échantillonnage.

DeepEncoder compte environ 380 millions de paramètres (80 pour le SAM, 300 pour le CLIP). Il gère deux modes d’entrée. D’un côté, la résolution native (4 modes : Tiny et Small, où les images sont directement redimensionnées ; Base et Large, où on utilise du padding pour préserver le ratio d’origine). De l’autre, la résolution dynamique (combinaison de deux résolutions natives ; Gundam, par exemple, associe du 640 x 640 en attention locale et du 1024 x 1024 en attention globale).

résolutions

Le décodage est dévolu à un modèle DeepSeek MoE 3B à 570 millions de paramètres actifs (6 experts actifs sur 64 + 2 experts partagés).

On a d’abord entraîné DeepEncoder, puis DeepSeek-OCR dans son ensemble, à partir de deux jeux de données. L’un comprenant des PDF dans une centaine de langues avec éventuellement des images intégrées. L’autre axé sur des éléments spécifiques : graphes, formules chimiques, figures géométriques planes…

La perspective d’un mécanisme d’oubli graduel

DeepSeek-OCR a notamment été mis à l’épreuve sur un sous-ensemble du benchmark Fox. En l’occurrence, des documents en anglais comprenant de 600 à 1300 tokens texte. C’est de là que DeepSeek tire les principaux indicateurs de performance qu’il annonce en introduction de son article.

Avec un rapport de compression de 9-10x (1 token image pour 9 ou 10 tokens texte), le décodeur avoisine 97 % de précision OCR. Au-delà, les performances baissent (90 % à 10-12x, 60 % à 20x). DeepSeek y voit deux raisons. D’une part, le rapport entre la longueur des documents et la complexité de leur disposition. De l’autre, le fait qu’aux résolutions les plus basses (Tiny et Small), les textes longs deviennent « flous ».

Fox

Le premier élément peut être résolu par un rendu sur une page à disposition unique, estime DeepSeek. Le second peut être mis à profit pour reproduire une forme de mécanisme d’oubli : l’historique « froid » serait converti en images qui seraient ensuite progressivement compressées.

L’approche est, globalement, d’autant plus intéressante qu’elle n’occasionne pas de surcharge (les systèmes multimodaux exigent intrinsèquement un encodeur de vision).

Des diapos aux journaux, la nécessité de plusieurs modes d’encodage

En « conditions réelles » (OmniDocBench), DeepSeek retient que :

  • Le mode Small (100 tokens) produit de meilleurs résultats que GOT-OCR2.0 avec 2,5 fois moins de tokens.
  • Le mode Large (400 tokens) est au niveau des modèles OCR à l’état de l’art.
  • Avec moins de 800 tokens, la méthode Gundam s’en sort mieux que MinerU2.0 avec environ 7000 tokens.

OmniDocBench

Certaines catégories de documents nécessitent peu de tokens pour un résultat satisfaisant. Les diapositives, par exemple (64 tokens suffisent). Pour les livres et les rapports, 100 tokens est l’idéal. Avec les journaux (4000 à 5000 tokens), le mode Gundam, voire Gundam-master, est nécessaire.

DeepSeek annonce que son architecture est capable de générer 33 millions de pages de données par jour en utilisant 20 nœuds de 8 GPU A100-40G.

Illustration principale générée par IA

The post Les modèles de vision gagnent du terrain dans l’OCR appeared first on Silicon.fr.

❌