Vue normale

Pourquoi Nvidia multiplie ses investissements en Europe dans l’IA

26 janvier 2026 à 15:39

L’accélération est spectaculaire. Nvidia a intensifié ses investissements dans les jeunes pousses européennes de l’IA, participant à 14 tours de financement en 2025 ( sur un total de 86), selon la plateforme Dealroom. Un doublement par rapport aux sept opérations de 2024, et une progression fulgurante quand on sait que le fabricant de puces n’avait réalisé aucun investissement sur le continent en 2020 et 2021.

Cette offensive européenne de Jensen Huang s’inscrit dans une stratégie mondiale d’envergure. pour tisser des liens étroits avec les sociétés les plus prometteuses du secteur, en leur apportant non seulement des capitaux, mais aussi une expertise technique et un accès privilégié à sa chaîne d’approvisionnement.

Des montants records déployés

Parmi les opérations les plus marquantes figure le troisième investissement de Nvidia dans le français Mistral AI, qui a levé 1,7 milliard € en septembre 2025, atteignant une valorisation de 11,7 milliards €.

Autre investissement majeur, les 500 millions de livres sterling dans Nscale, annoncé en septembre par Jensen Huang lui-même. Cette startup britannique, qui développe des centres de données et fournit des services de cloud computing pour l’IA, a rapidement bouclé deux tours de financement successifs fin septembre et début octobre, avec Nvidia à chaque fois au capital.

Le géant américain a également soutenu le laboratoire allemand Black Forest Labs en décembre, participant à une levée de 300 millions $ qui a propulsé la valorisation de cette société spécialisée dans les modèles d’IA pour le contenu visuel à 3,25 milliards $. Nvidia était aussi de la partie lors de la levée de fonds de Lovable, une startup travaillant sur le « vibe coding », valorisée à 6,6 milliards $

Autre pari relevé : celui sur Quantinuum, une entreprise d’informatique quantique qui a levé des fonds en septembre avec le soutien de Nvidia, atteignant une valorisation de 10 milliards $. Ces capitaux doivent financer le développement du système quantique de nouvelle génération Helios.

L’Europe, terre d’opportunités pour l’IA physique

Cette tendance s’est poursuivie en 2026. La startup britannique Synthesia a ainsi annoncé la participation de Nvidia à son dernier tour de table.

Pour Jensen Huang, qui s’exprimait récemment au Forum économique mondial de Davos, l’Europe dispose d’atouts considérables dans la robotique et l’intelligence artificielle physique. L’Europe possède une base industrielle et manufacturière particulièrement solide, qu’elle peut désormais fusionner avec l’IA pour se positionner sur ce marché émergent. Cette combinaison permettrait même à l’Europe de rattraper son retard dans le domaine logiciel, dominé par les États-Unis.

Reste un défi majeur : l’énergie. Jensen Huang a martelé ce point à Davos : pour que l’écosystème de l’IA puisse se développer pleinement en Europe, le continent doit résoudre la question de son approvisionnement énergétique. Avec des coûts parmi les plus élevés au monde, l’Europe peine à attirer les investissements massifs nécessaires au déploiement des infrastructures d’IA. Un constat partagé par Satya Nadella, le patron de Microsoft, qui juge que les coûts énergétiques seront déterminants dans la course mondiale à l’IA.

Un écosystème en pleine ébullition

Au-delà de l’Europe, Nvidia s’impose comme le faiseur de rois de l’IA. Les hyperscalers se précipitent pour construire leurs capacités et le groupe dispose de liquidités considérables à déployer. Jensen Huang parle du démarrage du plus grand déploiement d’infrastructures de l’histoire de l’humanité.

Les chiffres parlent d’eux-mêmes. L’année 2025 a enregistré l’un des plus hauts niveaux d’investissement en capital-risque jamais atteints, avec plus de 100 milliards $ déployés dans le monde, essentiellement vers des startups natives de l’IA. Ces entreprises opèrent dans la santé, la robotique, l’industrie manufacturière et les services financiers, des secteurs où les modèles d’IA sont désormais suffisamment matures pour permettre le développement d’applications concrètes.

——

Les principaux investissements de Nvidia en Europe en 2025

Startup Pays Secteur Montant levé Valorisation Date
Mistral AI France Modèles de langage IA open source 1,7 Md€ 11,7 Md€ Sept. 2025
Nscale Royaume-Uni Centres de données / Cloud IA 500 M£ N.C. Sept. 2025
Black Forest Labs Allemagne Modèles IA pour contenu visuel 300 M$ 3,25 Md$ Déc. 2025
Lovable N.C. « Vibe coding » N.C. 6,6 Md$ 2025
Quantinuum N.C. Informatique quantique N.C. 10 Md$ Sept. 2025
Note : Sur les 86 levées de fonds mondiales auxquelles Nvidia a participé en 2025, 14 concernaient des startups européennes, contre 7 en 2024.

 

The post Pourquoi Nvidia multiplie ses investissements en Europe dans l’IA appeared first on Silicon.fr.

Gamers vs IA - Des jeux annulés sur de simples suppositions... mais lol

Par : Korben
26 janvier 2026 à 15:12

Alors ça, c'est une news qui m'énerve un peu ! Parce que oui, écouter sa communauté c'est bien, sauf que ça veut pas dire qu'elle a toujours raison.

En ce moment, y'a une vague de joueurs en colère qui forcent des studios de jeux vidéos à annuler des projets ou à prendre leurs distances avec tout ce qui touche de près ou de loin à l'IA générative. Et du coup, des jeux se font dézinguer avant même d'avoir prouvé quoi que ce soit.

Prenez Postal: Bullet Paradise. Le trailer sort, des joueurs crient à l'IA dans les graphismes, et hop, l'éditeur Running With Scissors annule tout . Le studio Goonswarm Games ferme boutique. Pouf, tout ça pour des soupçons ! Ils ont admis après coup que du matos promo contenait peut-être de l'IA, mais le jeu lui-même ? Nop, y'avait pas d'IA. C'est con hein ?

Y'a aussi Clair Obscur: Expedition 33 , le RPG de Sandfall Interactive qui a raflé le Game of the Year aux The Game Awards 2025 (avec 9 prix sur 12 nominations !). Sauf que les Indie Game Awards lui ont retiré ses deux prix parce que le studio avait utilisé de l'IA comme placeholders pendant le dev. Le directeur Guillaume Broche a pourtant été clair : tout dans le jeu final est fait par des humains. Hé bien ça n'a pas suffi !

Et même Larian, les papas de Baldur's Gate 3, se sont pris un shitstorm quand Swen Vincke a confirmé que le studio utilisait l'IA générative pour le concept art et l'exploration d'idées sur le prochain Divinity. Il a dû faire marche arrière après que des ex-employés ont révélé que certains devs étaient contre cette décision en interne. Tout ça pour du concept art qui n'aurait même pas été dans le jeu final !

Perso, je comprends pas que ce soit un débat. Un bon jeu, c'est quoi ? C'est un gameplay qui tient la route, une histoire qui accroche, des mécaniques bien foutues. Pas le fait qu'un humain ait dessiné chaque pixel à la main.

Y'a des tas d'humains qui produisent de la merde tous les jours. Pourquoi ce serait automatiquement meilleur qu'une IA bien pilotée par des gens qui savent ce qu'ils veulent ? Une IA toute seule, ça fait du slop générique. Mais une IA guidée par des créatifs avec une vision ? Ça peut aller plus vite, réduire les coûts, et même permettre d'explorer des trucs qu'on n'aurait jamais tentés autrement.

Les studios qui cèdent à la pression et annulent des projets juste pour prouver qu'ils ont embauché des artistes, je suis pas sûr que ça donne de meilleurs jeux au final. Ça donne juste des jeux qui ont coûté plus cher à produire !

Bref, à la fin il restera que les bons jeux. IA ou pas. Au chiotte le slop IA, et aux chiottes les Angry Gamers qui tuent des projets sur des suppositions à la con !

Source

Météo : Nvidia dévoile de nouveaux modèles d’IA capables d’anticiper les tempêtes

26 janvier 2026 à 14:35

Alors que plusieurs régions des États-Unis viennent d’être frappées par une tempête hivernale difficile à anticiper, Nvidia dévoile une nouvelle génération de modèles météorologiques basés sur l’intelligence artificielle. Regroupées sous la bannière Earth-2, ces solutions promettent des prévisions plus rapides, plus précises et accessibles à un plus grand …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Météo : Nvidia dévoile de nouveaux modèles d’IA capables d’anticiper les tempêtes est apparu en premier sur KultureGeek.

Claude Code - Comment activer le mode Swarms caché

Par : Korben
26 janvier 2026 à 10:49

Vous utilisez Claude Code, le CLI d'Anthropic ? Hé bien figurez-vous qu'il y a des fonctionnalités cachées dedans, et pas des moindres ! Un dev nommé Mike Kelly a fouillé dans le JavaScript minifié du CLI et il a découvert un truc dingue : un mode "Swarms" qui transforme votre assistant en véritable chef d'équipe capable de déléguer le travail à plusieurs agents en parallèle.

En gros, au lieu de parler à une seule IA qui code, vous parlez à un team lead. Et ce team lead, lui, il ne code pas... il planifie, découpe les tâches et les dispatche à une équipe de spécialistes qui bossent en même temps. Du coup quand vous validez un plan, il spawn plusieurs agents workers qui partagent un tableau de tâches, communiquent entre eux via une sorte de boîte aux lettres interne, et reviennent vous faire leur rapport une fois le boulot terminé.

Le truc c'est que cette fonctionnalité existe DÉJÀ dans le code de l'outil CLI, mais elle est verrouillée derrière un feature flag côté serveur (un truc qui s'appelle tengu_brass_pebble pour les curieux). Mike a donc créé claude-sneakpeek , un outil qui patche le CLI pour forcer ce flag à true. Hop, les fonctionnalités cachées deviennent accessibles. Si vous avez déjà lu mon article sur Auto-Claude , vous voyez le genre... Ce sont des agents en parallèle qui bossent pendant que vous faites autre chose, genre lire mes articles pour entrapercevoir le futur ^^.

Ce qui se débloque

Une fois le patch appliqué, vous avez accès à :

  • TeammateTool : pour spawner des équipes d'agents
  • Delegate mode : le Task tool peut lancer des agents en arrière-plan
  • Teammate mailbox : les agents peuvent s'envoyer des messages entre eux
  • Swarm spawning : orchestration native multi-agents

Concrètement, quand vous demandez une tâche complexe, l'IA peut maintenant découper le travail, créer des sous-tâches avec dépendances, et lancer plusieurs workers qui vont bosser en parallèle sur leurs morceaux respectifs. Et ça consomme moins de tokens que de tout faire séquentiellement, contrairement à ce qu'on pourrait croire.

Comment l'installer

L'installation est hyper simple. Vous lancez :

npx @realmikekelly/claude-sneakpeek quick --name claudesp

Ensuite, ajoutez le dossier bin à votre PATH si c'est pas déjà fait :

echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.zshrc && source ~/.zshrc

Et voilà, vous pouvez lancer claudesp au lieu de claude pour avoir la version avec les features débloquées !

Le truc bien pensé, c'est que ça installe une instance COMPLÈTEMENT isolée. Votre installation normale de l'outil CLI reste intacte, avec sa propre config, ses sessions et ses serveurs MCP. Zéro interférence.

Comment ça marche sous le capot

Pour les curieux qui veulent comprendre le hack, c'est assez chouette. En fait, le CLI est du JavaScript minifié, et il contient une fonction qui ressemble à ça :

function i8(){if(Yz(process.env.CLAUDE_CODE_AGENT_SWARMS))return!1;return xK("tengu_brass_pebble",!1)}

Cette fonction vérifie le feature flag côté serveur. Le patch la remplace simplement par :

function i8(){return!0}

Bref, au lieu de checker le flag, ça retourne toujours true. Simple mais efficace.

Pour mettre à jour ou désinstaller

npx @realmikekelly/claude-sneakpeek update claudesp
# Mise à jour

npx @realmikekelly/claude-sneakpeek remove claudesp
# Désinstallation

Voilà, si vous êtes fan d'automatisation et que vous voulez pousser le CLI dans ses retranchements, c'est clairement un truc à tester ! Le mode Swarms change la donne pour les projets complexes où paralléliser les tâches fait gagner un temps fou.

Source

AI News - Des robots qui jouent aux journalistes

Par : Korben
26 janvier 2026 à 10:41

Un journal entièrement rédigé par des IA, ça vous parle ?

Non je parle pas de toutes les merdes que vous pouvez lire sur Google Discover hein... Mais je plaisant pas non plus car c'est ce que Rafael Ben-Ari vient de nous pondre et le résultat est trop marrant, vous allez voir.

Son concept c'est que plusieurs agents IA bossent ensemble comme une vraie rédaction. Y'a des "reporters" qui vont chercher l'info, des "éditeurs" qui structurent tout ça, et hop, à la fin vous avez un journal complet qui sort tout seul. Le tout tourne dans des bacs à sable (sandboxes) pour que chaque agent puisse faire son taf sans marcher sur les plates-bandes des autres.

Et le truc dingue, c'est qu'il en a fait DEUX versions. La première, The Gradient Descent , se concentre sur l'actualité liée à l'intelligence artificielle. Classique mais efficace... Mais là où ça devient vraiment fun, c'est avec Real Mode Wire , un journal dédié au rétro-computing qui reprend l'esthétique visuelle de SimCity 2000 ! Ça parle de modems 56K, de graphismes VGA, de ports Dreamcast... Bref, de la nostalgie pure en pixels.

Le système utilise différents modèles IA selon les tâches pour réduire les coûts. Genre un petit modèle rapide pour le tri d'infos, et un plus costaud pour la rédaction finale. C'est super malin, et tout le code est open source sur GitHub donc vous pouvez aller fouiller dedans si ça vous amuse.

D'ailleurs, ça me fait marrer parce que moi aussi je pourrais techniquement passer mes actus sous ce format. Imaginez un peu : "Korben Daily, édition du 26 janvier, entièrement généré par Claude pendant que le vrai Korben fait la sieste". Bon après, vous perdriez mes blagues douteuses et mes égarements sur les années 90, et ça serait quand même dommage non ?

Bref, si vous voulez voir ce que ça donne quand des robots jouent aux journalistes, allez jeter un œil. C'est gratuit, c'est open source, et au pire ça vous donnera des idées pour automatiser votre propre veille techno...

Source

ChatGPT perd en fiabilité en commençant à utiliser la base de données Grokipedia

26 janvier 2026 à 10:15

Ce n’est pas vraiment l’évolution qui était attendue par les utilisateurs du célèbre chatbot : certaines réponses de ChatGPT intègrent désormais des références issues de Grokipedia, une encyclopédie générée par IA et développée par xAI, la société d’Elon Musk. Cette intégration, repérée par plusieurs observateurs, relance le débat …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT perd en fiabilité en commençant à utiliser la base de données Grokipedia est apparu en premier sur KultureGeek.

Qualcomm Dragonwing IQ10 - Le cerveau qui va propulser vos futurs robots

Par : Korben
24 janvier 2026 à 18:52

Qualcomm vient de dégainer sa nouvelle arme au CES 2026 et là, j'vous parle pas d'un énième processeur pour smartphone, non, non, non. Je vous parle carrément du cerveau de vos futurs robots de service, de livraison, de nettoyage... et même des humanoïdes qui pourraient bien débarquer chez vous d'ici quelques années !

Booooh ça fait peur ^^ !

Le Dragonwing IQ10, c'est le nom de la bête. Un monstre de puissance avec 350 TOPS de calcul IA, soit trois fois plus que la génération précédente. Pour ceux qui se demandent à quoi ça sert, c'est simple, c'est ce qui permet à un robot d'analyser son environnement en temps réel, d'éviter les obstacles, de reconnaître des objets et d'interagir avec les humains sans se vautrer lamentablement.

D'ailleurs, côté capteurs, ça ne rigole pas non plus. Le processeur peut gérer plus de 20 caméras simultanément, du lidar, des radars... Bref, de quoi transformer n'importe quelle machine en sentinelle omnisciente. Et tout ça avec une efficacité énergétique qui ferait pâlir la concurrence. NVIDIA et ses Jetson commencent d'ailleurs à regarder dans le rétroviseur.

Du coup, qui va utiliser cette puce ? Figure AI, le fabricant de robots humanoïdes déployés chez BMW , s'est empressé de signer un partenariat. Kuka Robotics aussi, un poids lourd de l'industrie. Et VinMotion a même présenté son humanoïde Motion 2 au CES, déjà propulsé par l'IQ10 et capable de soulever 40 kg comme si de rien n'était ! Autant dire que la relève est déjà là.

Perso, ce qui me botte bien dans cette annonce, c'est le concept de "Brain of the Robot" que Qualcomm met en avant. L'idée, c'est de fournir un package complet avec le hardware, le software et l'IA qui va bien, histoire que les fabricants n'aient plus qu'à assembler leur robot comme un Lego. Vous branchez la puce et tadaaaa, vous avez un robot capable de naviguer dans un entrepôt, de livrer des colis ou de faire le ménage. C'est dingue quand on y pense !

Et le marché ?

Qualcomm l'estime à 1 000 milliards de dollars d'ici 2040. Y'a de quoi attirer du monde. Entre les Atlas de Boston Dynamics et les ToddlerBot à 250 dollars , la course aux robots autonomes ne fait que commencer. Et Qualcomm compte bien en être le fournisseur de cerveaux attitré !

Bref, si vous attendiez que les robots deviennent vraiment intelligents avant de vous y intéresser, c'est maintenant que ça se passe.

Source

Edge Gallery - IA Google en local sur smartphone

Par : Korben
24 janvier 2026 à 16:04

Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?

Ça tombe bien puisque Google a sorti Edge Gallery , une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.

Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.

Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !

Ce qu'on peut faire avec

Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :

AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.

Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.

Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.

L'interface d'AI Edge Gallery sur Android

Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.

Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.

Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.

Les modèles disponibles

L'app propose plusieurs modèles selon vos besoins. On retrouve la famille Gemma de Google (Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.

Et les gardes fous sont facilement contournables...

Il y a aussi des modèles spécialisés comme TranslateGemma pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à LiteRT , le runtime léger de Google pour l'inférence on-device.

D'ailleurs, la communauté Hugging Face propose déjà pas mal de modèles convertis au format LiteRT donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.

Installation sur Android

Pour Android, c'est simple, direction le Play Store et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les releases GitHub si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).

Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.

Et sur iOS / macOS ?

Pour iOS, l'app est disponible en bêta via TestFlight . Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !

Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.

Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de LM Studio qui sont nativement compatibles.

Pourquoi c'est intéressant ce truc ?

L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.

L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".

Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)

Voilà, pour ceux qui veulent creuser, le wiki GitHub du projet contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.

Éclatez-vous bien !

Social Analyzer - Scannez vos profils sociaux (OSINT)

Par : Korben
24 janvier 2026 à 09:00

Qui n'a jamais eu envie de savoir si "KikouLolDu93" avait aussi un compte sur un site de rencontre ou un forum obscur de haxx0rs ? C'est humain, c'est de la curiosité... ou de l'OSINT (Open Source Intelligence) si vous voulez faire genre vous êtes un pro. Et pour ça, j'ai l'outil qu'il vous faut : Social Analyzer .

Ce script est un détective privé numérique qui va frapper à la porte de plusieurs centaines de sites (Facebook, X (ex-Twitter), Instagram, Tinder, et des trucs bien plus niches) pour vérifier la présence d'un pseudo.

Développé par qeeqbox, Social Analyzer ne se contente pas de tester une URL. Il analyse les pages, vérifie les métadonnées, et vous sort un score de confiance de 0 à 100. Notez qu'un score de 100 n'est pas une preuve d'identité absolue (on n'est pas à la police scientifique), mais une forte probabilité basée sur les signaux trouvés. À l'inverse, un score de 0 peut signifier que c'est un homonyme, ou simplement que le site a bloqué la requête. Ça évite en tout cas de stalker la mauvaise personne trop vite.

L'outil est codé en JavaScript et Python, et vous pouvez l'utiliser en ligne de commande ou via une interface web plutôt propre si le terminal vous donne de l'urticaire.

Comment on installe la bestiole ?

Vous avez plusieurs options, mais la plus simple si vous avez Python 3 d'installé, c'est via pip (vérifiez bien que c'est le paquet officiel) :

pip3 install social-analyzer

Et hop, c'est réglé. Ensuite pour lancer une recherche rapide, c'est aussi simple que :

social-analyzer --username "le_pseudo_a_chercher"

Si vous êtes plus team NodeJS, vous pouvez aussi cloner le dépôt GitHub et lancer ça à la main :

git clone https://github.com/qeeqbox/social-analyzer.git
cd social-analyzer
npm install
npm start

Ça lancera l'interface web sur votre machine (généralement sur le port 9005), et vous pourrez faire vos recherches tranquillement en cliquant sur des boutons.

Et ça marche vraiment ?

Franchement, oui. C'est même assez bluffant de voir tout ce qui ressort. Il peut même tenter d'extraire des infos supplémentaires comme la bio ou l'avatar si les sites ne sont pas trop protégés contre le scraping.

Par contre, petit disclaimer habituel : ce genre d'outil, c'est pour de l'investigation légitime. Genre vérifier vos propres traces numériques pour faire du nettoyage, ou pour des enquêtes de sécu. Ne commencez pas à l'utiliser pour harceler les gens, le web n'a pas besoin de ça.

D'ailleurs, si le sujet de l'OSINT vous branche, jetez un œil à mon article sur Blackbird qui fait un boulot similaire, ou apprenez à analyser un profil GitHub comme un chef.

Bref, Social Analyzer c'est puissant, c'est open source, et ça fait le café. À utiliser avec intelligence évidemment !

Merci à Lorenper !

IA : Lenovo mise sur une stratégie multi-LLM

23 janvier 2026 à 15:33

C’est un virage stratégique que Winston Cheng, directeur financier de Lenovo, a détaillé en marge du Forum économique mondial de Davos. Le leader mondial de l’informatique personnelle ne veut plus seulement être un assembleur de machines, mais le pivot d’un écosystème mondial d’IA

Son ambition ? Équiper l’ensemble de sa gamme – des PC aux smartphones en passant par les objets connectés – d’une intelligence cross-canal baptisée « Qira ».

Qira se distingue comme un système d’intelligence « cross-device » qui intègre de multiples modèles de langage tiers (LLM) pour permettre de  s’adapter aux régulations de chaque marché mondial

Un modèle à l’opposé d’Apple

Pour réussir ce pari, Lenovo mise sur une approche dite d’« orchestrateur ». Contrairement à Apple, dont l’écosystème reste verrouillé avec des partenariats exclusifs avec OpenAI et plus récemment avec Google Gemini, la firme chinoise joue la carte de l’ouverture géographique et technologique.

« Nous sommes la seule entreprise, avec Apple, à détenir une part de marché significative à la fois sur le PC et le mobile, mais nous opérons dans les écosystèmes ouverts Android et Windows », a souligné Winston Cheng à Reuters.

Un avantage comparatif que l’ancien banquier d’affaires, arrivé dans le groupe en 2024 et nommé CFO en avril 2025, compte bien exploiter pour contourner les complexités réglementaires locales.

Une diplomatie de l’IA tous azimuts

Plutôt que de développer son propre modèle de langage (LLM), Lenovo préfère s’allier aux meilleurs experts régionaux. Le groupe discute déjà avec des acteurs variés comme Mistral AI en Europe, Humain en Arabie Saoudite ainsi que e Alibaba et DeepSeek en Chine.

Cette stratégie permet à Lenovo de proposer des solutions adaptées aux régulations de chaque marché tout en évitant les coûts de développement d’un modèle propriétaire.

Sur le front du matériel, Lenovo ne néglige pas l’infrastructure. Un partenariat majeur a été scellé en janvier avec l’américain Nvidia pour soutenir les fournisseurs de cloud. Ensemble, les deux géants déploient une infrastructure d’IA hybride dotée d’un système de refroidissement liquide, permettant une mise en service rapide des centres de données.

Winston Cheng a d’ailleurs évoqué un déploiement mondial, avec une fabrication locale et des lancements envisagés en Asie et au Moyen-Orient.

 

The post IA : Lenovo mise sur une stratégie multi-LLM appeared first on Silicon.fr.

IA - La Corée du Sud choisit les muscles plutôt que la peur

Par : Korben
23 janvier 2026 à 14:24

Pendant qu’on s’écharpe en Europe sur comment réglementer l'IA, la Corée du Sud vient de siffler la fin de la récré chez elle. Nos amis Coréen viennent en effet de pondre leur première loi qui encadre l’intelligence artificielle (l’AI Act coréen, pour les intimes) et ce qu'on peut dire, c’est que leur approche est très très différente de la nôtre, vous allez voir.

En fait, chez nous, avec l’AI Act européen, on régule principalement par le "risque d’usage". Cela veut dire que si vous faites un outil pour du recrutement, de la santé ou du maintien de l’ordre, hop, vous tombez dans la catégorie "haut risque", et cela peu importe que votre IA tourne sur un Raspberry Pi ou un supercalculateur.

Alors oui l’UE a aussi ses seuils de calcul (les fameux 10^25 FLOPs ) pour identifier les modèles à "risque systémique", mais la base reste quand même l’usage. Les Coréens, eux, ont décidé de se simplifier la tâche en plaçant le curseur presque exclusivement sur ce qu’il y a sous le capot.

Leur critère magique c'est la puissance de calcul cumulée lors de l’entraînement. Et c'est cela qui leur permet de définir ce qu’ils appellent la "high-performance AI" (ou Frontier AI). Pour les devs, c’est un changement complet car si vous codez un petit outil IA bien foutu mais léger, vous aurez une paix royale. Vous esquiverez une paperasse infinie ou de la mise en conformité bloquante si votre projet ne dépasse pas les seuils techniques fixés par le MSIT (le ministère coréen de la science et des TIC).

Et c’est d’ailleurs ce qui rend leur approche très orientée innovation. Le gouvernement coréen a d'ailleurs été très clair : le but n’est pas de bloquer le développement mais de poser un cadre de confiance. Ils ont même prévu une période de grâce d’au moins un an sans aucune sanction administrative le temps que tout le monde s’adapte. Et même après ça, on est loin du climat carcéral car il n'y a pas de sanctions pénales prévues dans cette loi, mais juste des ordres de correction et des amendes plafonnées à 30 millions de won (environ 21 000 euros) si vous ignorez les injonctions.

J’avoue, j’ai dû relire trois fois le texte pour piger la subtilité, mais le diable se cache dans les FLOPS. Parce qu'au moment où j'écris cet article, il n'y a actuellement aucune entreprise en Corée qui dépasse les seuils de puissance de calcul qui rentrent dans le cadre de leur loi. Même Naver, leur géant de la Tech local est loin de ça . C’est dire si la marge est grande.

Après côté transparence, c’est plus classique mais efficace car tout contenu généré par IA qui pourrait être confondu avec la réalité (les deepfakes, pour faire court) doit être clairement indiqué. C’est le minimum syndical aujourd’hui, vous allez me dire, mais là encore, ils ont eu le nez creux en excluant les usages personnels ou non commerciaux du cadre réglementaire, histoire de ne pas fliquer le moindre mème rigolo.

Voilà... alors on va voir qui de la méthode "compteur de tours" ou "check-list de risques" gagne la course, mais bon j'ai ma petite idée. En Europe, on a tendance à vouloir tout border par secteur, alors qu’en Corée, visiblement, ils préfèrent économiser du temps et de l'énergie en surveillant uniquement les gros muscles et en laissant les petits grandir sans les emmerder.

Et même si je ne connais pas du tout l'écosystème tech coréen, force est de constater que leur vision a l'air sacrément plus pragmatique pour l’écosystème tech que la notre.

Source

Poison Fountain - La résistance s'organise pour empoisonner les IA

Par : Korben
23 janvier 2026 à 13:15

On croirait encore lire le scénario d'un nouveau Terminator, mais pour une fois, ce n'est pas de la science-fiction. Tenez vous bien, il y a actuellement ne résistance souterraine qui est réellement en train de s'organiser pour lutter contre les géants de l'IA.

Leur nom de code : "Poison Fountain".

Je suis tombé sur cet article de Craig Smith chez Forbes que je vous invite à lire et qui détaille ce mouvement d'un nouveau genre. Alors pour le moment, ça tient plus du manifeste un peu énervé que du logiciel de résistance clé en main, mais l'intention est claire. Ce que veut faire Poison Fountain c'est "miner" le web avec des données piégées pour que les prochaines générations d'IA s'intoxiquent en les ingérant.

Leur méthode repose sur des outils comme Nightshade , dont je vous ai déjà parlé, avec lequel vous prenez une image, disons une vache et l'outil modifie les pixels de façon invisible pour l'œil humain, de sorte que l'IA l'interprète ça comme... un camion. Alors que nous, avec nos petits yeux nous voyons toujours Marguerite.

Ainsi, si un modèle avale trop de ces données corrompues, il ne devient pas juste moins performant, mais commence également à faire des associations délirantes. C'est le principe du data poisoning et si Poison Fountain parvient à encourager massivement cette pratique, les crawlers d'OpenAI ou Google vont avoir des sueurs froides.

Bon, il ne faut pas s'emballer non plus car nettoyer un dataset contaminé est un enfer technique (il faut parfois tout réentraîner), mais les ingénieurs en face ont de la ressource. Ils finiront probablement par filtrer plus agressivement ou par se rabattre sur des données certifiées et sous licence. C'est plus cher, c'est moins frais, mais c'est la parade logique.

En tout cas, c'est le genre de dérive que craignait Geoffrey Hinton en quittant Google sauf que la perte de contrôle n'est pas accidentelle mais provoquée volontairement par des artistes et des activistes.

Alors est-ce du cyber-vandalisme comme l'a été le DDoS à une époque, ou est-ce de la légitime défense ?

Le débat est lancé, tout comme la guérilla de la data !

Qwen3-TTS Family is Now Open Sourced: Voice Design, Clone, and Generation!

22 janvier 2026 à 16:33

«Qwen3-TTS is a series of powerful speech generation capabilities developed by Qwen, offering comprehensive support for voice clone, voice design, ultra-high-quality human-like speech generation, and natural language-based voice control.»

Impressionnant 0_0
Permalink

Figy. Générer rapidement des flashcards à partir de ses contenus de cours

22 janvier 2026 à 16:08

Dernière mise à jour le 22 janvier 2026 Créer des flashcards efficaces prend du temps. Je viens de tester un outil simple et gratuit qui va vous faire gagner beaucoup de temps de ce...

L’article Figy. Générer rapidement des flashcards à partir de ses contenus de cours est apparu en premier sur Les Outils Tice.

ServiceNow et OpenAI embrayent sur le vocal… et le legacy

22 janvier 2026 à 12:33

Pour faire tomber la barrière de la langue, il y a OpenAI.

ServiceNow présente les choses ainsi. En toile de fond, un accord sur 3 ans qui le verra, entre autres, exploiter GPT-5.2 pour développer des technologies de compréhension et de synthèse vocales. Au bout, nous promet-on, il y aura des agents multilingues qui fonctionneront sans passer par la modalité texte.

Les modèles GPT seront également mis à contribution sur la partie computer use (« agent utilisateur d’ordinateur »). En ligne de mire, notamment, l’orchestration des outils bureautiques et l’automatisation des systèmes hérités (ServiceNow évoque les mainframes).

Les modèles OpenAI, déjà bien ancrés dans ServiceNow

Dans la pratique, ServiceNow a déjà établi de multiples passerelles avec OpenAI.

Sur sa plate-forme, les fonctionnalités conversationnelles, génératives et agentiques sont majoritairement regroupées sous la marque Now Assist.

Les produits Now Assist s’installent comme des plug-in. Ils donnent accès à trois types de composantes : des skills génératives, des agents et des flux agentiques. Ces briques ciblent généralement un usage au sein d’une application. Par exemple, pour les skills, la génération de documentation sur la partie gestion du travail collaboratif. Pour les workflows agentiques, l’obtention de conseils de gouvernance dans la CMDB.

Certains flux agentiques opèrent au niveau de la plate-forme : enquêter sur des incidents, créer des tâches à partir d’images, proposer des réponses à un sondage…

Par défaut, Now Assist repose sur un service interne, qui associe des modèles maison spécialisés* et des modèles ouverts « sélectionnés, configurés ou améliorés par ServiceNow, sa communauté ou ses partenaires ».

Pour certaines skills, il est possible de basculer sur des fournisseurs alternatifs : Google (Gemini 2.5 Flash et 2.5 Pro), Anthropic (Claude 3.7 Sonnet sur Amazon Bedrock)… ou OpenAI (GPT-4.1 et GPT-4.1-mini sur Azure OpenAI).

Avec toute application est installé un « contrôleur d’IA générative ». Il permet d’interfacer des LLM externes par API, au niveau des concepteurs de flux, d’agents et de scripts. En standard, cela donne quatre possibilités :

  • Générer du texte à propos d’un topic ServiceNow
  • Résumer un topic
  • Créer un use case et un prompt associé
  • Faire de l’analyse de sentiment

Ce contrôleur fait la passerelle avec OpenAI et Azure OpenAI. Ainsi qu’avec Google, Aleph Alpha, Amazon (Bedrock) et IBM (watsonx). Il inclut aussi un connecteur générique.

* En tête de liste, un modèle 12B à usage général (création de flux, modération, écriture de code…) fondé sur Mistral Nemo Instruct.

Illustration générée par IA

The post ServiceNow et OpenAI embrayent sur le vocal… et le legacy appeared first on Silicon.fr.

Comment Saint-Maclou accélère sa transformation data

22 janvier 2026 à 11:06

Avec 132 magasins en France et 1 400 collaborateurs, Saint-Maclou fait face à des enjeux data complexes. Entre la gestion des ventes, du service de pose, de la logistique et des stocks, l’enseigne basée à Lezennes devait jongler avec de multiples sources de données dispersées. Un casse-tête qui freinait considérablement ses ambitions analytiques.

Un système legacy qui bride l’innovation

Le constat de départ était sans appel : le système décisionnel historique de Saint-Maclou reposait sur des flux développés et maintenus manuellement. Chaque nouveau projet d’analyse impliquait d’identifier précisément les bases sources, tables et colonnes pertinentes, puis de développer spécifiquement les flux d’alimentation nécessaires.

Cette approche générait une charge de développement et de maintenance considérable, particulièrement lors des évolutions. Les data engineers passaient l’essentiel de leur temps sur la collecte de données, au détriment des activités à réelle valeur ajoutée comme la transformation et l’analyse. Les coûts de licences s’accumulaient, les délais de projets s’allongeaient, et l’expérimentation sur des cas d’usage avancés ou d’intelligence artificielle devenait quasiment impossible.

« Charge de développement, charge de maintenance, charge d’astreinte, coût de licence pour l’outil… Notre façon de travailler générait auparavant d’importants coûts  », explique Salmane Khamlichi, Responsable data chez Saint-Maclou.

Le virage vers le cloud et l’ELT

Pour sortir de cette impasse, Saint-Maclou a opté pour une refonte progressive de sa plateforme data, en basculant vers une architecture moderne sur le cloud. L’entreprise a d’abord déployé Snowflake comme base de données centrale, puis s’est posé la question cruciale de l’alimentation de cette nouvelle infrastructure.

Exit l’approche ETL (Extract Transform Load) classique. L’enseigne a retenu Fivetran pour sa compatibilité native avec Snowflake, sa robustesse validée lors d’un POC, et sa capacité à gérer de grandes bases SQL Server tout en connectant des sources critiques.

Aujourd’hui, Fivetran synchronise automatiquement les données d’une quinzaine de sources vers Snowflake, qu’elles soient hébergées on-premise ou dans le cloud : l’ERP Microsoft AX, les outils logistiques, les systèmes de vente et de gestion des stocks, ainsi que plusieurs sources marketing, dont le futur CRM Salesforce.

Avec cette approche ELT (Extract Load Transform), la phase de collecte ne constitue plus un goulot d’étranglement. Les données sont chargées brutes dans Snowflake, puis transformées selon les besoins métiers.

Des gains mesurables sur tous les plans

Les résultats sont spectaculaires. La collecte de nouvelles sources, qui prenait auparavant plusieurs jours voire plusieurs semaines, s’effectue désormais en quelques heures. Les projets restent dans un même sprint, évitant les allers-retours coûteux qui ralentissaient leur réalisation.

Côté ressources humaines, l’impact est tout aussi significatif. L’ingestion de données ne nécessite plus d’équivalent temps plein. Les data engineers se consacrent enfin aux opérations à forte valeur ajoutée : la transformation via DBT Core et l’exploitation intelligente des données. Les problématiques de maintenance sont devenues minimes.

La robustesse de la solution apporte également une tranquillité d’esprit appréciable. Les synchronisations sont stables et fiables, les évolutions des schémas sources n’entraînent pas d’interruption de service, et les équipes disposent de données actualisées et exploitables en toute confiance.

Autre bénéfice majeur : la centralisation. Là où les données étaient auparavant éparpillées dans de multiples applications métiers, elles sont désormais regroupées à 100% dans Snowflake. Cette vision unifiée permet d’envisager sereinement les futurs projets analytiques avancés et d’intelligence artificielle. L’équipe data travaille plus étroitement avec les équipes métiers (marketing, ventes, logistique) et gagne en réactivité.

Enfin, la plateforme Fivetran offre une maîtrise fine de la consommation et un monitoring précis des coûts liés aux projets data. « Cela nous permet notamment de travailler sur des sujets de prévision des ventes, d’intégrer rapidement de nouvelles sources pour enrichir les modèles et d’expérimenter à moindre coût de nouveaux cas d’usage data science », résume Salmane Khamlichi.

Photo : © DR

The post Comment Saint-Maclou accélère sa transformation data appeared first on Silicon.fr.

NVIDIA prête à freiner la production des RTX 5060

22 janvier 2026 à 10:22

GeForce RTX 5060 Ti Gaming OC 16 Go de GigabyteNVIDIA envisagerait de réduire la production des GeForce RTX 5060 pendant plusieurs mois. En cause, une demande massive liée à l’IA

Cet article NVIDIA prête à freiner la production des RTX 5060 a été publié en premier par GinjFo.

❌