Un nouveau jailbreak dangereux pour les chatbots IA vient d’être découvert
Microsoft a publié plus de détails à propos d’une nouvelle technique de jailbreak d’IA générative troublante qu’elle a découverte, appelée « Skeleton Key ». En utilisant cette méthode d’injection rapide, les utilisateurs malveillants peuvent contourner efficacement les garde-fous de sécurité d’un chatbot, les fonctionnalités de sécurité qui empêchent ChatGPT de je suis plein Taye. Skeleton […]
Le post Un nouveau jailbreak dangereux pour les chatbots IA vient d’être découvert est apparu en premier sur Moyens I/O.