Cette simple faille transforme Google Traduction en un chatbot totalement jailbreaké
![]()
Une faille étonnante vient d’être trouvée dans la nouvelle version de Google Traduction, désormais dopée à Gemini. En manipulant finement le texte à traduire, des internautes sont parvenus à transformer le service en chatbot capable de répondre à des requêtes potentiellement illégales.
