Et l'IA apprit à hacker
La cybersécurité offensive sur le point de faire, elle aussi, sa petite révolution.
Annoncée depuis un certain temps, l'intégration de l'intelligence artificielle dans la cybersécurité offensive tardait à faire son apparition. Mais cette automne quelques signes sont apparus. Une étape est en train d'être franchie, les IA hackeuses sont en préparation.
Depuis 2024, on tâtonnait. La cellule de « Renseignement sur les cyber-menaces » de Microsoft avait donné le ton. Dans un rapport publié en janvier et intitulé « Garder de l'avance sur les cyber-menaces à l'âge de l'AI », l'entreprise affirmait que « les acteurs malveillants explorent et testent les différentes technologies d'IA afin d'évaluer leur valeur potentielle pour leurs opérations ». Des groupes étatiques russes affiliés au renseignement militaire sont observés en train d'essayer de comprendre les protocoles de communication des satellites. Des groupes iraniens explorent des techniques pour éviter les détections par les antivirus. Mais globalement Microsoft annonçait : « Il est important de noter que nos recherches avec OpenAI n'ont pas identifié d'attaques significatives utilisant les LLM que nous surveillons de près ».
À cette époque, c'est surtout le « Phishing » généré par IA qui est massivement adopté par les cyber-criminels. Plus de fautes d'orthographe dans vos spams !
En janvier 2025, c'est Google qui publie son rapport et les choses ne semblent pas avoir radicalement changé. « Les acteurs malveillants expérimentent Gemini pour faciliter leurs opérations, constatant des gains de productivité, mais sans encore développer de nouvelles capacités. À l'heure actuelle, ils utilisent principalement l'IA pour la recherche, le débogage de code, ainsi que...





