Casser les protections de l’IA est trop facile, et ces chercheurs le prouvent

Une équipe de chercheurs en cybersécurité affirme avoir trouvé une méthode étonnamment simple pour contourner les protections censées empêcher les modèles d’IA de répondre à des demandes malveillantes. Leur outil prouve qu’un simple mot ou symbole peut parfois suffire à tromper les garde-fous les plus sophistiqués. Attention danger !





































