Vue normale

Reçu — 27 novembre 2025

Gradio 6 débarque pour créer des interfaces encore plus fluides

Par :Korben
27 novembre 2025 à 06:30

Si vous bidouiller un peu de machine learning et que vous avez la flemme de coder une interface web from scratch pour montrer vos jolis modèles, vous connaissez probablement Gradio , cette librairie Python qui permet de créer des démos interactives en quelques lignes de code.

Hé bien, excellente nouvelle, la version 6 vient de sortir et elle apporte pas mal de nouveautés intéressantes.

La grosse news de cette mise à jour , c’est d’abord la refonte complète de l’architecture avec le passage à Svelte 5 . Pour ceux qui s’en fichent du frontend, ça veut dire concrètement que vos apps seront plus légères et plus rapides à charger. L’équipe a aussi bossé sur l’optimisation des files d’attentes (quand y’a du monde sur votre démo), surtout pour les serveurs MCP (Model Context Protocol), donc si vous hébergez des trucs sur Hugging Face Spaces, vous devriez sentir la différence.

Côté fonctionnalités, y’a aussi quelques ajouts sympas comme le support natif des sous-titres pour les vidéos et l’audio, une nouvelle interface “MultimodalTextbox” améliorée pour le mobile (qui était franchement pas terrible avant), et pour ceux qui font des apps multipages, y’a maintenant un composant “Navbar” dédié à ça !

Le truc qui va plaire aux devs aussi, c’est qu’on peut désormais écrire des composants web personnalisés directement en HTML/JavaScript inline dans le code Python. Comme ça, plus besoin de sortir l’artillerie lourde avec des outils de build externes. Vous collez juste votre HTML, votre JS, et c’est parti mon kiki.

Par contre, attention si vous avez des projets existants… Y’a des changements qui vont casser des trucs. Par exemple, le format tuple dans le Chatbot a été supprimé, le composant Sketch est déprécié, et pas mal de paramètres ont bougé dans les composants graphiques natifs. L’équipe a quand même prévu un guide de migration avec des warnings de dépréciation pour vous aider à faire la transition.

A partir de maintenant, seule la branche 6.x sera maintenue, donc si vous êtes encore sur une vieille version, c’est le moment de migrer. La mise à jour se fait classiquement avec un

pip install --upgrade gradio

Notez que Gradio 6 nécessite Python 3.10 minimum et le support de Python 3.14 a été ajouté pour vous, les early adopters ^^.

Voilà, si vous faites du ML ou autre et que vous voulez montrer vos démos sans vous prendre la tête avec du React ou du Vue, Gradio reste une valeur sûre, et avec cette version 6 qui arrive, ce sera encore plus fluide et rapide !

Source

Reçu — 21 novembre 2025

Cette carte de la Voie lactée rassemble plus de 100 milliards d’étoiles

21 novembre 2025 à 09:38

Vue de la Voie Lactée simulée avec 100 milliards d'étoiles

Une simulation assistée par une intelligence artificielle a dévoilé une nouvelle carte de la Voie lactée, plus précise que jamais. Le résultat contient 100 milliards d'étoiles et leur évolution sur 100 000 ans.

Reçu — 20 novembre 2025

Meta perd son scientifique en chef : Yann LeCun prépare une IA capable de dépasser tout ce que l’on connaît

Yann LeCun, figure majeure de l’intelligence artificielle et scientifique en chef de Meta, quitte l’entreprise pour fonder sa propre startup. Le pionnier du deep learning souhaite désormais développer une nouvelle génération d’IA, plus proche des capacités humaines, et rompt ainsi avec la...

Reçu — 19 novembre 2025

Des traces chimiques vieilles de plusieurs milliards d’années révèlent les premiers murmures de la vie sur Terre !

Et si l’intelligence artificielle permettait enfin de remonter aux toutes premières lueurs du vivant ? En décodant des fragments moléculaires vieux de plusieurs milliards d’années, une IA parvient à distinguer le biologique de l’abiotique avec une précision inédite. À la clé : des preuves d’une...

Reçu — 16 novembre 2025

This Japanese AI Can Instantly Describe What You’re Seeing or Imagining

15 novembre 2025 à 20:23
What if your brain could write its own captions, quietly, automatically, without a single muscle moving? That is the provocative promise behind “mind-captioning,” a new technique from Tomoyasu Horikawa at NTT Communication Science Laboratories in Japan (published paper). It is not telepathy, not science fiction, and definitely not ready to decode your inner monologue, but the underlying idea is so bold that it instantly reframes what non-invasive neurotech might become. […]

Reçu — 17 octobre 2025

AWS lance quatre certifications dédiées à l’IA et au ML

17 octobre 2025 à 14:56

Amazon Web Services (AWS) annonce le lancement de quatre nouvelles certifications centrées sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML). L’hyperscaler s’attaque à structurer la validation des compétences dans un domaine en forte expansion, en couvrant à la fois les profils non techniques et les ingénieurs spécialisés.

Elles couvrent différents niveaux de maîtrise, du plus généraliste au plus avancé.

Jusqu’à présent, AWS ne proposait qu’une seule certification dédiée au machine learning, de niveau « Specialty ». L’introduction de ces quatre nouveaux examens établit un parcours progressif, allant de la compréhension des concepts à la maîtrise opérationnelle des outils de l’écosystème AWS.

Une structuration plus claire des parcours IA

La certification AI Practitioner marque l’entrée dans cet univers, en abordant les principes fondamentaux de l’IA sans nécessiter de compétences en programmation.
Les certifications Machine Learning Engineer – Associate et Data Engineer – Associate s’adressent à des profils techniques impliqués dans la mise en œuvre et la gestion des données nécessaires à l’entraînement des modèles.
Enfin, Generative AI Developer – Professional, la plus avancée, cible les spécialistes capables d’intégrer et d’optimiser des modèles génératifs en production, notamment via des services comme Amazon Bedrock.

Ces certifications offrent un cadre de reconnaissance standardisé pour les professionnels souhaitant démontrer leur maîtrise des outils d’IA dans l’environnement AWS. Elles peuvent contribuer à clarifier les compétences sur le marché du travail, tout en favorisant la montée en qualification sur des technologies très demandées.

Elles restent toutefois étroitement liées à l’écosystème AWS, ce qui limite la transférabilité directe des compétences vers d’autres plateformes cloud. La rapidité d’évolution du secteur oblige par ailleurs à actualiser fréquemment les référentiels d’examen, afin de suivre les évolutions technologiques et les bonnes pratiques.

La version bêta de l’examen Generative AI Developer illustre cette dynamique : elle sera ajustée avant sa version finale en fonction des retours des premiers candidats.

Quatre certifications pour quatre niveaux de spécialisation

Nom de la certification Niveau / catégorie Public visé & prérequis Contenu / compétences évaluées Particularités (durée, format, langue, coût)
AWS Certified AI Practitioner Fondamental (Foundational) Professionnels non techniques ou débutants connaissant les bases de l’IA/ML Concepts d’IA et de machine learning, cas d’usage, principes d’IA responsable, services AWS liés à l’IA 90 minutes, 65 questions, coût 100 USD, disponible en français, en ligne ou en centre Pearson VUE
AWS Certified Machine Learning Engineer – Associate Niveau Associate Ingénieurs ou développeurs ayant une expérience en IA/ML sur AWS Développement, déploiement, maintenance et supervision de modèles à l’échelle Certification orientée sur la mise en production de modèles d’IA dans AWS
AWS Certified Data Engineer – Associate Niveau Associate Professionnels en charge de la gestion et de la préparation de données Conception d’architectures, création de pipelines, qualité et orchestration des données 130 minutes, 65 questions, coût 150 USD
AWS Certified Generative AI Developer – Professional Niveau Professionnel Développeurs expérimentés en IA/ML souhaitant concevoir des applications génératives Utilisation de modèles de base, ingénierie de prompts, bases vectorielles, optimisation des performances et sécurité Examen bêta de 204 minutes, 85 questions, coût 150 USD

The post AWS lance quatre certifications dédiées à l’IA et au ML appeared first on Silicon.fr.

Reçu — 16 octobre 2025

LatentBreak - Quand les IA se font manipuler sans le savoir

Par :Korben
16 octobre 2025 à 09:37

Et si on pouvait pirater une IA non pas en la forçant, mais en la convainquant qu’elle est toujours du bon côté de la barrière ?? Ce serait pas un truc fun à faire ça quand même ? Hé bien c’est exactement ce que vient de faire une équipe de chercheurs en sécurité avec LatentBreak, une technique qui ressemble plus, je trouve, à de l’hypnose qu’à du véritable hacking.

Ainsi, plutôt que de bombarder ChatGPT ou Llama avec des prompts bizarres bourrés de caractères spéciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du modèle. L’IA croit en fait sincèrement répondre à une question innocente alors qu’elle génère du contenu dangereux. Un peu comme quand votre pervers narcissique préféré vous manipule pour vous faire croire que vous faites un truc bien et important alors que c’est de la merde et que ça vous enfonce encore plus…

Comme expliqué dans le document de recherche , les anciennes attaques comme GCG , GBDA ou AutoDAN ajoutaient des suffixes louches aux prompts, ce qui augmentait ce qu’on appelle la “perplexity”. La perplexity, c’est un indicateur de bizarrerie textuelle et cela, les filtres de sécurité sont maintenant capables de les détecter et de les bloquer.

LatentBreak contourne donc le problème en restant parfaitement naturel. L’algorithme remplace des mots par des synonymes, mais pas n’importe comment puisqu’il choisit chaque substitution pour déplacer la représentation interne du prompt vers les zones “sûres” du modèle, c’est à dire celles qui ne déclenchent aucune alarme. Le prompt reste alors fluide, compréhensible, inoffensif en apparence mais dans l’“inconscient” de l’IA, dans cet espace latent invisible où elle calcule ses réponses, le sens glisse subtilement vers quelque chose de complètement différent.

À chaque itération, l’algorithme de LatentBreak prend un mot du prompt et génère jusqu’à 20 alternatives via un autre modèle comme GPT-4o-mini et chaque variante est évaluée sur deux critères : est-ce qu’elle rapproche le vecteur interne du prompt d’un “centre de sécurité” dans l’espace latent, et est-ce que le sens global reste cohérent ?

La meilleure option est alors intégrée, et le nouveau prompt est testé sur le modèle cible. Si ça provoque une réponse normalement interdite, c’est gagné. Sinon, on recommence jusqu’à 30 fois de suite.

Et apparemment, les résultats sont impressionnants. Ils ont testé cette approche sur 13 modèles différents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de réussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute façon à zéro face aux défenses modernes et tout ça en allongeant que de très peu la longueur du prompt.

LatentBreak passe d’ailleurs à travers des défenses réputées solides… Par exemple, R2D2 et Circuit Breakers, des systèmes qui analysent les signaux internes des neurones pour détecter les anomalies, se font totalement avoir parce qu’ils scannent le texte visible et les patterns de surface, mais pas la “pensée interne” du modèle.

Cette technique révèle quelque chose de fondamental à comprendre sur l’architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur représentation interne ne correspond pas toujours à leur comportement affiché, et d’ailleurs les substitutions les plus efficaces se produisent près des dernières couches du modèle, là où la “décision” finale se forme. C’est à ce moment précis qu’on peut glisser le prompt dans une zone cognitive différente sans que les alarmes ne sonnent.

Bien sûr, LatentBreak nécessite un accès aux structures internes du modèle (donc pas de panique, ChatGPT ne va pas se faire pirater comme ça demain), ce qui limite son usage à des contextes de recherche ou aux modèles open source.

Le parallèle avec les techniques de social engineering qu’on connait est d’ailleurs frappant parce que quand vous manipulez quelqu’un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond à ce que vous voulez… Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu’elle fait exactement ce que vous voulez. Hé bien LatentBreak fait à peu près la même chose avec les IA en n’attaquant pas de front les protections, mais en les contournant en douceur en réécrivant la “mémoire de travail” du modèle.

Sympa non ?

Source

Reçu — 7 octobre 2025

ChatGPT ma tuer … ou pas ?

Par :Cédric
10 janvier 2023 à 15:47
Qui n'a pas récemment entendu ni vraiment suivi l'énorme buzz sur la toile au sujet de la nouvelle création de OpenAI et plus précisément de l'algorithme GPT3 et son Chat grand public ChatGPT. Bluffant, incroyable, diabolique, complètement incompréhensible, magique ... capable de vous pondre des articles construits, des scripts voir des parties entière de code à partir de quelques phrases simples et suffisamment précises. Aujourd'hui c'est l'heure de faire un bilan bien sombre de mon activité de blogguer pro, alors ... c'est fini ? ... ou pas ?
❌