NVIDIA aurait revu ses plans concernant les GeForce RTX 50 SUPER. Selon plusieurs sources, ce lancement serait en pause dans un contexte de coûts élevés et d’absence de concurrence
At CES 2026, Acer used the occasion to introduce the Predator Helios Neo 16S AI (PHN16S-I51), a thin, powerful laptop that can handle demanding workloads for both creative and gaming tasks. With an NVIDIA GeForce RTX 5070 laptop GPU and an Intel Core Ultra 9 386H processor, it has the processing and graphics power needed for contemporary games, content production software, and AI-accelerated tasks. These parts are incorporated into a […]
Dans les couloirs de l’industrie musicale, l’annonce fait du bruit. Universal Music Group (UMG), premier major mondial de la musique, et Nvidia, poids lourd des semi-conducteurs et de l’IA, ont noué une alliance de long terme pour développer des modèles d’intelligence artificielle appliqués au catalogue du label.
L’objectif affiché : transformer en profondeur la découverte musicale, l’engagement des fans et les processus de création, tout en garantissant la protection des droits d’auteur.
Un modèle qui « pense » comme un mélomane
Au cœur du dispositif, on trouve Music Flamingo, le modèle audio-langage développé par Nvidia fin 2025. Cette technologie se distingue par sa capacité à analyser des morceaux de près de 15 minutes dans leur intégralité.
Contrairement aux systèmes traditionnels qui se contentent d’étiqueter par genre ou style, Music Flamingo décortique structure harmonique, instrumentation, paroles et trajectoires émotionnelles. Le tout pour reproduire, selon ses concepteurs, la façon dont un auditeur humain appréhende une œuvre.
Cette approche ouvre des perspectives inédites : fini les recherches par simple mot-clé, place aux requêtes par ambiance, contexte narratif ou résonance culturelle. Les plateformes de streaming adossées au catalogue d’UMG pourraient ainsi proposer des recommandations fondées sur des similarités musicales profondes plutôt que sur des playlists thématiques conventionnelles.
Trois axes de développement
Le partenariat s’articule autour de trois piliers. D’abord, la découverte musicale : les algorithmes permettront d’explorer le catalogue selon des critères émotionnels et structurels sophistiqués. Ensuite, l’engagement des fans : artistes et auditeurs pourront interagir avec la musique dans un environnement « conversationnel et contextuel », loin du simple listing de titres.
Troisième volet, et non des moindres : la création. Un incubateur réunissant auteurs, compositeurs et producteurs verra le jour dans des studios prestigieux comme Abbey Road à Londres ou Capitol Studios à Los Angeles. Mission : co-concevoir de nouveaux outils alimentés par l’IA. UMG martèle toutefois que ces technologies resteront des aides à la création humaine, et non des machines à générer automatiquement de la musique.
La question brûlante des droits d’auteur
Derrière les promesses technologiques se cache un enjeu majeur : celui de la propriété intellectuelle. UMG et Nvidia promettent une IA « responsable », intégrant dès la conception la protection des œuvres, l’attribution et la rémunération des créateurs. Une posture qui tranche avec les pratiques de certaines start-up, accusées d’avoir entraîné leurs modèles sur des catalogues commerciaux sans autorisation.
Pour UMG, ce partenariat avec un mastodonte comme Nvidia représente une opportunité de dicter les standards du marché, en conciliant innovation technologique et respect du cadre légal. Le groupe entend proposer un « antidote » à la prolifération de contenus générés par des IA génériques, en misant sur un acteur capable d’intégrer nativement les contraintes de copyright dans ses outils.
Un coup stratégique pour les deux camps
Pour l’industrie musicale, l’accord peut faire jurisprudence et ouvrir la voie à d’autres alliances entre majors, plateformes et fournisseurs d’IA. Il valorise les catalogues musicaux comme ressources stratégiques pour entraîner des modèles spécialisés et pourrait creuser l’écart entre services premium dotés d’une découverte « intelligente » et offres standard aux algorithmes classiques.
Côté Nvidia, le deal marque une nouvelle étape dans la conquête des industries culturelles. Après le jeu vidéo et la vidéo, le groupe démontre que ses GPUs, ses plateformes de modélisation et ses modèles pré-entraînés comme Music Flamingo peuvent s’adapter aux exigences spécifiques de la musique. Un positionnement stratégique au moment où la régulation de l’IA se durcit dans de nombreux pays.
At CES 2026, AGIBOT makes a decisive move onto the global stage, marking its official U.S. market debut while presenting one of the most complete and operationally mature humanoid robot portfolios at the show. At a time when much of the humanoid robotics sector is still centered on prototypes and tightly controlled pilots, AGIBOT arrives with a different profile: more than 5,000 robots already manufactured and deployed in real-world environments, […]
NVIDIA has confirmed plans to release a native version of GeForce Now for Linux, marking a notable shift in the company’s platform strategy. Traditionally focused on Windows, the NVIDIA move aims to make things easier for Linux users who currently use either web browsers or third-party solutions to get to the cloud gaming service. A native application would provide improved stability and performance, as well as deeper system integration, compared […]
Jensen Huang annonce officiellement la disponibilité de Vera Rubin lors du CES. Le dirigeant du fabricant californien qualifie sa nouvelle architecture de pointe absolue en matière de matériel dédié à l’intelligence artificielle. Déjà en production, le système devrait monter en puissance durant le second semestre. Une accélération remarquable compte tenu des besoins exponentiels de puissance ... Lire plus
Le géant des processeurs graphiques déploie une offensive majeure dans la robotique généraliste au CES 2026. Son approche vise à reproduire le succès d’Android dans la téléphonie mobile en s’imposant comme plateforme incontournable pour les machines intelligentes. L’entreprise californienne dévoile simultanément des modèles fondamentaux, des environnements de simulation avancés et du matériel optimisé pour la ... Lire plus
NVIDIA a publié ce week-end le hotfix 591.67 des drivers GeForce pour corriger les problèmes critiques qui ne peuvent pas attendre la prochaine version WHQL du pilote.
Le géant des semi-conducteurs Nvidia vient de frapper un grand coup dans l’univers des puces dédiées à l’intelligence artificielle. L’entreprise a conclu un accord de licence non exclusif avec Groq, son concurrent direct dans le domaine des accélérateurs IA. Au-delà des aspects technologiques, cette opération inclut le recrutement de figures majeures de Groq : Jonathan ... Lire plus
Les drivers GeForce de NVIDIA sont disponibles à partir d'aujourd'hui en version 591.59 WHQL. C'est une mise à jour mineure qui corrige uniquement des bugs.
Le fabricant de semi-conducteurs Nvidia poursuit son expansion dans l’univers de l’IA open source par une double initiative stratégique. Lundi, l’entreprise a simultanément dévoilé l’acquisition d’une société spécialisée et le lancement d’une nouvelle gamme de modèles d’intelligence artificielle accessibles à tous. Ces mouvements confirment la volonté du géant technologique de s’imposer comme un acteur incontournable ... Lire plus
According to recent industry analyses, although smartphone manufacturers have been trying to keep stable prices for Android devices released in 2025, this trend is probably not going to happen next year, in 2026. Rising production costs driven by global demand for memory components are expected to have a huge impact, causing a significant price increases across the whole Android market. A major factor behind all the shift is the escalating […]
Les drivers GeForce de NVIDIA sont aujourd'hui proposés en version 591.44 WHQL. Les pilotes sont optimisés pour les jeux DLSS4 : Call of Duty: Black Ops 7 et Battlefield 6 : Winter Offensive.
Le rapport intitulé “The State of Generative AI 2025” édité par Palo Alto Networks le montre : les cas d’usage des IA génératives ont explosé en 2024. Le trafic vers ces services s’est accru de 890 % en 2024 et une grande organisation exploite 66 applications d’IA générative en moyenne, dont 10 % peuvent être qualifiées à haut risque.
Qu’il s’agisse de services de traduction, de synthèse de documents, mais aussi de chatbots, moteurs de recherche et outils dédiés aux développeurs, ces IA sont désormais adoptées dans tous les secteurs d’activité.
Pierre Jacob, DG de Magellan Sécurité.
Sécuriser ces infrastructures présente quelques spécificités. Les IA restent des workloads IT standards avec des conteneurs logiciels qu’il faut protéger, mais les LLM présentent des vulnérabilités intrinsèques à l’apprentissage machine. « Pour les entreprises qui souhaitent réaliser l’entraînement de leurs modèles, il est extrêmement important de sécuriser la chaîne d’alimentation des modèles » explique Pierre Jacob, DG de Magellan Sécurité.
Le consultant estime qu’il est relativement facile d’empoisonner un modèle et introduire des biais importants dans son comportement : « Il ne faut qu’un pourcentage finalement assez faible de données pour faire dérailler un modèle. Il est donc extrêmement important de sécuriser soigneusement les infrastructures d’entraînements. »
La Cyber s’invite dans les infrastructures NVidia
NVidia a pleinement pris conscience des risques pesant sur les IA entraînées et exécutées sur ses infrastructures. Le californien a implémenté des fonctions d’informatique confidentielle sur ses architectures Nvidia Hopper et Blackwell, avec la capacité d’entraîner les IA sur des données chiffrées de bout en bout. De même, les fournisseurs de solution de sécurité sont invités à déployer leurs briques de sécurité sur les infrastructures IA.
Au début de l’été, Crowdstrike annonçait l’intégration de sa plateforme Falcon Cloud Security avec les microservices LLM NIM de NVidia, ainsi qu’à NeMo, sa plateforme de développement d’IA. On retrouve cette même volonté de rapprochement avec Nvidia chez Check Point.
Adrien Merveille, CTO France de Check Point Software
« Nous avons signé un partenariat avec Nvidia pour venir directement dans les GPU qui vont assurer l’apprentissage des moteurs d’IA » explique Adrien Merveille, CTO France de Check Point Software. « Cela va permettre d’appliquer les règles de sécurité à la fois pour segmenter les données d’entraînement, contrôler l’accès par les administrateurs et les manipulations mémoire pour éviter les attaques de type Prompt Injection. »
De même, l’éditeur a intégré à son WAF les protections du Top 10 WASP LLM pour protéger les IA contre les types d’attaques connus. Ce classement référence les 10 types d’attaque les plus fréquents sur les LLM, depuis la Prompt Injection, le Data Poisoning, mais aussi le vol de modèle et les vulnérabilités sur la chaîne d’alimentation en données des modèles en phase d’apprentissage ou en production.
Éric Vedel, CISO de Cisco, rappelle que même des LLM téléchargés sur Hugging Face peuvent avoir été piégés et doivent être vérifiés avant d’être mis en production. Cisco pousse en avant sa solution Cisco AI Defence afin de détecter les vulnérabilités dans les modèles. Celle-ci a été officiellement lancée le 15 janvier 2025, mais elle est issue de l’acquisition de l’éditeur Robust Intelligence quelques mois plus tôt.
Éric Vedel, CISO de Cisco
« Cette éditeur avait déjà mis en place ses moyens de protection chez de très gros clients pour lutter contre le Shadow AI en accroissant la visibilités sur les usage de l’IA en interne, de la détection des vulnérabilités dans les modèles mis en œuvre et la mise en place de garde-fous et contremesures contre ces risques liés à l’IA. Chose unique sur le marché, nous avons embarqué cette offre au sein de notre offre SSE (Secure Access Security Edge). »
Cette solution s’inscrit dans la mouvance des solutions d’AI SPM apparues pour sécuriser les modèles et les données.
Palo Alto Networks a récemment pris position sur ce marché avec une plateforme complète entièrement dédiée aux IA et couvrir tous les risques recensés par l’OWASP : « Pour couvrir l’ensemble de ces risques, nous avons fait le choix de créer une nouvelle plateforme, Prisma AIRS » explique Eric Antibi, directeur technique de Palo Alto Networks. « Celle-ci amène tout un ensemble de solutions conçues pour la sécurité de ces architectures complexes et des risques spécifiques qui pèsent sur la GenAI. »
Eric Antibi, directeur technique de Palo Alto Networks.
La suite intègre un module de Model Scanning pour trouver des vulnérabilités dans les modèles, un module de Posture Management pour identifier tout problème de configuration dans l’architecture. Le module de Red Teaming teste en permanence les modèles pour s’assurer que de nouvelles vulnérabilités ne sont pas apparues à l’occasion de mises à jour, par exemple.
Enfin, des modules assurent la sécurité runtime des IA ainsi que celle des agents intelligents. « Prisma AIRS est une plateforme à part entière, néanmoins, la composante réseau est importante dans la sécurité de ces infrastructures, notamment pour surveiller les échanges entre les datasets et les moteurs de LLM. De ce fait, la console d’administration de notre plateforme Network Security est utilisée, mais cela reste des modules différents. »
Si les solutions d’AI SPM sont encore assez nouvelles et encore peu répandues, les équipes sécurité et IA doivent s’en emparer et commencer à monter en maturité et faire évoluer vers le haut leurs politiques de sécurité vis-à-vis des IA.
Pierre Jacob, DG de Magellan Sécurité : «Ne pas s’arc-bouter sur une position unique. »
« Il faut adapter ses choix de LLM aux usages et aux risques. Il est possible de déployer un LLM ou un SLM sur un poste de travail si le cas d’usage impose d’être en mode déconnecté. Les machines Apple se prêtent assez bien au déploiement de SLM en local par exemple. De même, il ne faut pas rejeter un LLM parce qu’il est dans le Cloud public. Il faut avoir une vision architecture et penser la sécurité by design et être capable de jongler avec les modèles, mettre en place des architectures applicatives à base de microservices capables de consommer ses modèles sans en être dépendantes. »
NVIDIA est en train de déployer une nouvelle mise à jour à destination de l'ensemble de ses boîtiers Shield TV et Shield TV Pro. La mise à niveau permet de basculer verrs Shield Experience 9.2.2.
Nvidia confirme un marché chinois ramené à 0 % pour ses puces d’IA, effet direct des contrôles d’exportation américains, avec des impacts sur l’offre mondiale.