Le piratage en 5 minutes du Gemini 3 Pro nous rappelle pourquoi la course à l'IA a une cause profonde.
1 décembre 2025 à 17:27
Le lancement de Gemini 3 Pro soulève de nouvelles questions quant à la sécurité des modèles d'IA . Un groupe de chercheurs spécialisés a testé le système, et les résultats ont mis en évidence des failles critiques immédiates. La rapidité avec laquelle l'équipe a contourné les protections internes a démontré la fragilité du mécanisme censé empêcher les réponses dangereuses , même lorsque les demandes portent sur des sujets sensibles . Le groupe sud-coréen Aim Intelligence a réussi à débrider un Gemini 3 Pro en moins de cinq minutes , comme l'a rapporté le journal Maeil Business . L'objectif était de tester la robustesse des barrières de sécurité du modèle et de mesurer sa capacité à résister à des attaques ciblées . Une fois les protections contournées, le système a commencé à fournir des indications détaillées sur les sujets qui devaient être totalement bloqués . Les chercheurs ont qualifié ces réponses de contenu technique qui n'aurait jamais dû être rendu public. L'équipe a ensuite demandé au modèle de créer une présentation satirique sur son échec. Gemini a généré un document entier intitulé « Excusez l'idiot Gemini 3 » , signalant une fois de plus l'absence de filtrage adéquat dans ses réponses. L'expérience s'est poursuivie à l'aide d'outils de génération de code, qui ont produit une page web contenant des instructions relatives à des substances et matériaux dangereux . Une fois encore, le modèle a ignoré ses propres règles internes, contournant les restrictions censées empêcher la diffusion de contenus à risque.
Aim Intelligence affirme que le problème n'est pas propre à cette plateforme. Selon les chercheurs, les modèles les plus récents utilisent des techniques d'obfuscation des réponses et des stratégies de contournement qui rendent inefficaces même les protections les plus élémentaires . Cette dynamique vient complexifier un tableau déjà préoccupant, où plusieurs assistants génératifs affichent des erreurs, des recommandations inexactes ou potentiellement dangereuses, comme le souligne également un rapport de l'association britannique Which ?. La facilité avec laquelle un modèle présenté comme supérieur à ses concurrents a été surpassé n'augure rien de bon pour la concurrence, ce qui soulève des problèmes qui n'ont manifestement pas été traités efficacement jusqu'à présent. Dans un contexte où les performances progressent plus vite que les contrôles , la réflexion la plus urgente concerne le rythme auquel l'industrie perfectionne ses outils de vérification : un domaine qui reste à la traîne par rapport à la progression vers des modèles toujours plus performants, dictée par la logique de la concurrence et du marché. (Lire la suite)