Mis à jour : 19 décembre 2025 Nous avons ajouté de nouveaux codes ! En tant que fan de Marvel, j’ai vraiment apprécié jouer à Marvel Strike Force. Le jeu offre une fantastique évasion dans un univers rempli de héros emblématiques se battant contre des méchants. Gagner des batailles vous récompense avec des matériaux d’upgrade […]
Le rapport intitulé “The State of Generative AI 2025” édité par Palo Alto Networks le montre : les cas d’usage des IA génératives ont explosé en 2024. Le trafic vers ces services s’est accru de 890 % en 2024 et une grande organisation exploite 66 applications d’IA générative en moyenne, dont 10 % peuvent être qualifiées à haut risque.
Qu’il s’agisse de services de traduction, de synthèse de documents, mais aussi de chatbots, moteurs de recherche et outils dédiés aux développeurs, ces IA sont désormais adoptées dans tous les secteurs d’activité.
Pierre Jacob, DG de Magellan Sécurité.
Sécuriser ces infrastructures présente quelques spécificités. Les IA restent des workloads IT standards avec des conteneurs logiciels qu’il faut protéger, mais les LLM présentent des vulnérabilités intrinsèques à l’apprentissage machine. « Pour les entreprises qui souhaitent réaliser l’entraînement de leurs modèles, il est extrêmement important de sécuriser la chaîne d’alimentation des modèles » explique Pierre Jacob, DG de Magellan Sécurité.
Le consultant estime qu’il est relativement facile d’empoisonner un modèle et introduire des biais importants dans son comportement : « Il ne faut qu’un pourcentage finalement assez faible de données pour faire dérailler un modèle. Il est donc extrêmement important de sécuriser soigneusement les infrastructures d’entraînements. »
La Cyber s’invite dans les infrastructures NVidia
NVidia a pleinement pris conscience des risques pesant sur les IA entraînées et exécutées sur ses infrastructures. Le californien a implémenté des fonctions d’informatique confidentielle sur ses architectures Nvidia Hopper et Blackwell, avec la capacité d’entraîner les IA sur des données chiffrées de bout en bout. De même, les fournisseurs de solution de sécurité sont invités à déployer leurs briques de sécurité sur les infrastructures IA.
Au début de l’été, Crowdstrike annonçait l’intégration de sa plateforme Falcon Cloud Security avec les microservices LLM NIM de NVidia, ainsi qu’à NeMo, sa plateforme de développement d’IA. On retrouve cette même volonté de rapprochement avec Nvidia chez Check Point.
Adrien Merveille, CTO France de Check Point Software
« Nous avons signé un partenariat avec Nvidia pour venir directement dans les GPU qui vont assurer l’apprentissage des moteurs d’IA » explique Adrien Merveille, CTO France de Check Point Software. « Cela va permettre d’appliquer les règles de sécurité à la fois pour segmenter les données d’entraînement, contrôler l’accès par les administrateurs et les manipulations mémoire pour éviter les attaques de type Prompt Injection. »
De même, l’éditeur a intégré à son WAF les protections du Top 10 WASP LLM pour protéger les IA contre les types d’attaques connus. Ce classement référence les 10 types d’attaque les plus fréquents sur les LLM, depuis la Prompt Injection, le Data Poisoning, mais aussi le vol de modèle et les vulnérabilités sur la chaîne d’alimentation en données des modèles en phase d’apprentissage ou en production.
Éric Vedel, CISO de Cisco, rappelle que même des LLM téléchargés sur Hugging Face peuvent avoir été piégés et doivent être vérifiés avant d’être mis en production. Cisco pousse en avant sa solution Cisco AI Defence afin de détecter les vulnérabilités dans les modèles. Celle-ci a été officiellement lancée le 15 janvier 2025, mais elle est issue de l’acquisition de l’éditeur Robust Intelligence quelques mois plus tôt.
Éric Vedel, CISO de Cisco
« Cette éditeur avait déjà mis en place ses moyens de protection chez de très gros clients pour lutter contre le Shadow AI en accroissant la visibilités sur les usage de l’IA en interne, de la détection des vulnérabilités dans les modèles mis en œuvre et la mise en place de garde-fous et contremesures contre ces risques liés à l’IA. Chose unique sur le marché, nous avons embarqué cette offre au sein de notre offre SSE (Secure Access Security Edge). »
Cette solution s’inscrit dans la mouvance des solutions d’AI SPM apparues pour sécuriser les modèles et les données.
Palo Alto Networks a récemment pris position sur ce marché avec une plateforme complète entièrement dédiée aux IA et couvrir tous les risques recensés par l’OWASP : « Pour couvrir l’ensemble de ces risques, nous avons fait le choix de créer une nouvelle plateforme, Prisma AIRS » explique Eric Antibi, directeur technique de Palo Alto Networks. « Celle-ci amène tout un ensemble de solutions conçues pour la sécurité de ces architectures complexes et des risques spécifiques qui pèsent sur la GenAI. »
Eric Antibi, directeur technique de Palo Alto Networks.
La suite intègre un module de Model Scanning pour trouver des vulnérabilités dans les modèles, un module de Posture Management pour identifier tout problème de configuration dans l’architecture. Le module de Red Teaming teste en permanence les modèles pour s’assurer que de nouvelles vulnérabilités ne sont pas apparues à l’occasion de mises à jour, par exemple.
Enfin, des modules assurent la sécurité runtime des IA ainsi que celle des agents intelligents. « Prisma AIRS est une plateforme à part entière, néanmoins, la composante réseau est importante dans la sécurité de ces infrastructures, notamment pour surveiller les échanges entre les datasets et les moteurs de LLM. De ce fait, la console d’administration de notre plateforme Network Security est utilisée, mais cela reste des modules différents. »
Si les solutions d’AI SPM sont encore assez nouvelles et encore peu répandues, les équipes sécurité et IA doivent s’en emparer et commencer à monter en maturité et faire évoluer vers le haut leurs politiques de sécurité vis-à-vis des IA.
Pierre Jacob, DG de Magellan Sécurité : «Ne pas s’arc-bouter sur une position unique. »
« Il faut adapter ses choix de LLM aux usages et aux risques. Il est possible de déployer un LLM ou un SLM sur un poste de travail si le cas d’usage impose d’être en mode déconnecté. Les machines Apple se prêtent assez bien au déploiement de SLM en local par exemple. De même, il ne faut pas rejeter un LLM parce qu’il est dans le Cloud public. Il faut avoir une vision architecture et penser la sécurité by design et être capable de jongler avec les modèles, mettre en place des architectures applicatives à base de microservices capables de consommer ses modèles sans en être dépendantes. »
L’IRC c’est un classique pour les anciens du net comme moi et même si ça n’a pas techniquement disparu, c’est quand même plus comme avant. Discord, Slack, et compagnie c’est rigolo mais quand même moins roots qu’un bon vieux
mIRC
par exemple, qui continue d’être maintenu encore aujourd’hui (une nouvelle version est même sortie y’a 2 jours).
Mais il existe également un autre client IRC plus récent, qui assume fièrement son look des années 90 et qui vient de sortir en version 0.9 en juillet dernier. Et il a été créé par Raphaël Mudge, le mec qui a développé Cobalt Strike, l’un des outils de pentest offensif les plus balèzes du marché.
jIRCii
est donc un client IRC écrit en Java pour MacOS X, Windows et Linux, développé par Raphael Mudge qui a décidé de snober volontairement Discord, Slack, et tous ces trucs avec des bulles colorées et des GIFs animés de chats. jIRCii tente ainsi de maintenir la culture IRC des années 90, avec un look de terminal Windows, sans fioritures, comme si, je cite : “mIRC et ircii avaient eu un enfant et que BitchX était le vrai père de cet enfant”. Tout un programme.
Et surtout, jIRCii est entièrement scriptable. Et pas avec du Python ou du JavaScript… Plutôt avec Sleep, un langage Perl-like que Mudge a créé lui-même. Y’a
même une lib de scripts communautaires dispo ici
pour ceux qui veulent. Cela vous permettra par exemple de chiffrer vos messages, d’afficher dans le canal le MP3 que vous êtes en train d’écouter, de jeter des dés pour votre partie de JdR, de faire des recherches Google, ou encore de pouvoir vous connecter automatiquement à différents serveurs avec différents nicknames.
L’IRC redevient ainsi une plateforme programmable comme à l’époque, notamment avec mIRC avec ses scripts .mrc (vous vous souvenez ?). Voilà, si ça vous chauffe parce que vous trainez encore sur IRC, sachez que jIRCii embarque toutes les fonctionnalités qu’on attend d’un client IRC moderne comme :
Liste de notification (savoir quand vos contacts se connectent)
Complétion automatique (auto-complétion des pseudonymes)
Transferts de fichiers DCC (envoi de fichiers direct de pair à pair)
Support CTCP (Client-to-Client Protocol pour les commandes étendues)
Connexions SSL aux serveurs (connexions chiffrées aux serveurs IRC)
Plus de 70 alias intégrés pour automatiser les commandes les plus courantes
Et en plus, 2 thèmes visuels sont proposés. Le thème par défaut avec son look de terminal classique et le thème Analog IRC qui est une variante visuelle du précédent. Et vous pouvez ajouter aussi ceux de la communauté (ou développer le votre)
Bref, vous l’aurez compris, IRC n’est pas mort. Il n’est juste plus dans le vent même si pas mal de communautés tournent encore dessus, et en 2025, jIRCii offre une alternative sympa à
WeeChat
(TUI pur),
HexChat
(GTK), ou
KVIrc
(Qt).