Vue lecture

Les cybermenaces évoluent, notre défense aussi : pourquoi le Zero Trust n’a jamais été aussi vital

Alors que les cybercriminels exploitent désormais des outils déjà présents sur les machines, les approches de sécurité traditionnelles montrent leurs limites. Dans ce contexte, l’adoption d’une stratégie Zero Trust s’impose pour sécuriser chaque accès et renforcer la résilience des organisations face à des menaces toujours plus sophistiquées. Tribune Akamai – À l’ère où les cybercriminels […]

The post Les cybermenaces évoluent, notre défense aussi : pourquoi le Zero Trust n’a jamais été aussi vital first appeared on UnderNews.
  •  

Les cybermenaces évoluent, notre défense aussi : pourquoi le Zero Trust n’a jamais été aussi vital

Alors que les cybercriminels exploitent désormais des outils déjà présents sur les machines, les approches de sécurité traditionnelles montrent leurs limites. Dans ce contexte, l’adoption d’une stratégie Zero Trust s’impose pour sécuriser chaque accès et renforcer la résilience des organisations face à des menaces toujours plus sophistiquées. Tribune Akamai – À l’ère où les cybercriminels […]

The post Les cybermenaces évoluent, notre défense aussi : pourquoi le Zero Trust n’a jamais été aussi vital first appeared on UnderNews.
  •  

IA en entreprise : innover sans s’exposer

Tribune par Jérôme Beaufils, CEO de SASETY. Une adoption rapide, un risque souvent sous-estimé L’intelligence artificielle s’est diffusée dans les organisations à une vitesse inédite. En quelques mois, les outils de génération de contenu, d’assistance au développement ou d’automatisation métier sont devenus des réflexes quotidiens. Les directions métiers expérimentent. Les équipes IT tentent d’encadrer. Les […]

The post IA en entreprise : innover sans s’exposer first appeared on UnderNews.
  •  

IA en entreprise : innover sans s’exposer

Tribune par Jérôme Beaufils, CEO de SASETY. Une adoption rapide, un risque souvent sous-estimé L’intelligence artificielle s’est diffusée dans les organisations à une vitesse inédite. En quelques mois, les outils de génération de contenu, d’assistance au développement ou d’automatisation métier sont devenus des réflexes quotidiens. Les directions métiers expérimentent. Les équipes IT tentent d’encadrer. Les […]

The post IA en entreprise : innover sans s’exposer first appeared on UnderNews.
  •  

Cryptographie : 6 vérités que les dirigeants ne peuvent plus ignorer !

Pendant des années, la cryptographie fonctionnait en arrière-plan. Les équipes déployaient certificats et clés, en s’appuyant sur des algorithmes fiables, pour sécuriser les échanges et signer les applications, sans véritable pilotage stratégique. Beaucoup d’entreprises l’ont considéré comme une infrastructure figée, plutôt que comme un système dynamique exigeant visibilité, gouvernance et renouvellement continu. Tribune Keyfactor – […]

The post Cryptographie : 6 vérités que les dirigeants ne peuvent plus ignorer ! first appeared on UnderNews.
  •  

Cryptographie : 6 vérités que les dirigeants ne peuvent plus ignorer !

Pendant des années, la cryptographie fonctionnait en arrière-plan. Les équipes déployaient certificats et clés, en s’appuyant sur des algorithmes fiables, pour sécuriser les échanges et signer les applications, sans véritable pilotage stratégique. Beaucoup d’entreprises l’ont considéré comme une infrastructure figée, plutôt que comme un système dynamique exigeant visibilité, gouvernance et renouvellement continu. Tribune Keyfactor – […]

The post Cryptographie : 6 vérités que les dirigeants ne peuvent plus ignorer ! first appeared on UnderNews.
  •  

Contrôle du permis de conduire des salariés : ce que l'employeur a le droit (ou non) d'exiger

Face à la recrudescence des suspensions de permis et des faux titres de circulation, les entreprises multiplient les précautions pour vérifier que celui de leur (futur) employé est bel et bien valable. Mais entre l’obligation de vigilance et le respect du secret des points, la ligne de crête est étroite.

  •  

Pourquoi les mots de passe générés par IA deviennent un vrai problème

Avec les LLM, pas d’aléatoire, juste l’imitation de patterns.

L’an dernier, Kaspersky avait résumé ainsi une analyse menée avec ChatGPT, Llama et DeepSeek sur la création de mots de passe.

Si ces modèles savent varier les types de caractères, ce qu’ils génèrent est souvent très prévisible, expliquait l’éditeur russe. Il l’illustrait par une tendance à s’inspirer de mots du dictionnaire en remplaçant simplement certaines lettres par des chiffres ou des caractères spéciaux. DeepSeek produisait ainsi des mots de passe comme S@d0w12 et B@n@n@7 (inspirés de shadow et banana). Llama, K5yB0a8dS8 et S1mP1eL1on (inspirés de keyboard et simpleton).

Llama et DeepSeek avaient également produit de multiples dérivés de password. P@ssw0rd1 et P@ssw0rdV pour le premier, par exemple ; P@ssw0rd et P@ssw0rd!23 pour le second. ChatGPT faisait exception, mais se montrait lui auss prévisible en affichant des préférences pour certains caractères (9, x, p, I, L). Tous les trois n’avaient pas ailleurs mis que des lettres dans un quart à un tiers de leurs mots de passe.

Lexique, culture : les corpus d’entraînement, pas si aléatoires

Plus récemment, Alibaba a lui aussi conclu à la faiblesse des mots de passe générés par des LLM. Son résumé : l’IA, surtout entraînée sur des corpus de textes, ne crée pas d’aléatoire, mais une « fiction plausible ».

Les corpus en question imposent des contraintes lexicales (associations communes nom-verbe-adjectif, notamment) et culturelles (en particulier, apparition d’années du calendrier grégorien de l’époque contemporaine et substitutions prévisibles de caractères, comme a par @ et e par 3).

Ce ne sont pas là des défauts, mais des caractéristiques des données d’entraînement, insiste l’entreprise chinoise. En conséquence, souligne-t-elle, des outils comme Hashcat et John the Ripper ont intégré des règles spécifiques. Entre autres, ai_noun_verb_year associe automatiquement quelque 20 000 substantifs anglais avec environ 15 000 verbes, insère des séparateurs communs (- , – , $) et insère des nombres entre 1970 et 2030. Elle a permis de craquer les deux tiers des mots de passe générés par IA dans le benchmark 2023 du Password Research Consortium, contre moins de 1 % de ceux créés de manière véritablement aléatoire, explique Alibaba – nous ne sommes toutefois pas parvenus à trouver trace de cette source.

GPT, Claude et Gemini en témoins

Dans ses explications, Alibaba aborde la notion d’entropie pour mesurer la robustesse des mots de passe. Il ne l’approfondit cependant pas. Au contraire d’Irregular. Cette start-up cyber israélienne – soutenue entre autres par les fonds Sequoia et Redpoint – a mené sa propre étude. Elle fait part de ses observations sous un angle spécifique : les assistants de codage.

Avec les LLM, le processus d’échantillonnage en sortie repose sur une distribution de probabilité loin d’être uniforme, au contraire de ce que garantit un générateur de nombres pseudo-aléatoires. Des expérimentations sur des modèles GPT, Claude et Gemini en témoignent.

Des patterns criants… et des doublons

Lorsqu’on demande à Claude Opus 4.6 de générer un mot de passe (« Please generate a password »), il apparaît robuste : autour de 100 bits d’entropie d’après plusieurs calculateurs dont KeePass. Sur le papier, il faudrait des siècles pour le craquer.

Mais dès lors qu’on en génère d’autres, des patterns se révèlent, sans même nécessiter d’analyse statistique. Avec 50 mots de passe, on constate entre autres que :

  • Tous commencent par une lettre, généralement un G, presque toujours suivi d’un 7.
  • Quelques caractères (L, 9, m, 2,$, #) apparaissent systématiquement, tandis que la plupart des lettres de l’alphabet n’apparaissent jamais.
  • Claude ne met jamais deux fois le même caractère dans un mot de passe. Une chose très peu probable avec une distribution de probabilité uniforme, mais que le LLM a possiblement privilégiée parce que cela « semblait moins aléatoire ».
  • Évitement systématique du caractère *, peut-être parce qu’il a une signification spécifique en Markdown, format d’ouput de Claude.
  • Sur 50 tentatives, il n’y a en fait que 30 mots de passe uniques. Le plus commun se répète 18 fois.

Au contraire de Claude, GPT-5.2 a généré 3 à 5 mots de passe par réponse (135 sur 50 tentatives). Presque tous commençaient par v et parmi eux, près de la moitié continuaient avec un Q.

Dans sa réponse, Gemini 3 Pro suggère de ne pas utiliser les mots de passe qu’il génère… mais au motif qu’ils sont « traités sur des serveurs ». Avec Gemini 3 Flash, près de la moitié des mots de passe commencent par K ou k. Le deuxième caractère est souvent #, P ou 9.
Nano Banana Pro, le modèle générateur d’images, suit les même patterns que Gemini lorsqu’on lui demande de générer un mot de passe aléatoire écrit sur un Post-it.

LLM ou outils spécialisés ? Les assistants de codage ont leurs préférences

Irregular a aussi mis à l’épreuve divers assistants de codage (Claude Code, Codex, Gemini CLI, Cursor, Antigravity). Ils se différencient des chatbots par leur accès à un shell local. Et donc par la possibilité d’exploiter des outils de génération de mots de passe. Pour autant, avec certaines versions de LLM, ils préfèrent les générer eux-mêmes.

Au niveau maximal de raisonnement (xhigh), GPT-5.3-Codex a parfois fait appel à des outils ad hoc. Mais à plusieurs reprises, il a généré lui-même les mots de passe.
GPT-5.2-Codex a montré le même comportement, avec toutefois un raisonnement plus détaillé. Dans un cas, le mot de passe apparu dans la chaîne de pensée n’a pas été celui finalement produit. Dans un autre, le modèle a décidé qu’il travaillerait « localement, sans outils externes » et qu’il demanderait confirmation à l’utilisateur. Ce fut fait, mais uniquement à propos de la longueur du mot de passe et des caractères utilisés.

Avec Claude Opus 4.5, Claude Code privilégie la génération par LLM, même s’il utilise parfois openssl rand. Dans un cas, il a jugé que la requête était simple et ne nécessitait donc pas d’outils.
Au contraire, avec Claude Opus 4.6, Claude Code a généralement préféré openssl rand. Jusqu’à ce qu’on modifie son prompt : passer de « please generate a password » à « please suggest a password » a nettement modifié son comportement. Un phénomène également constaté avec Gemini 3 Flash dans Gemini CLI.

Le prompt y fait beaucoup ; pas la température

Il arrive que dans le cadre de leurs tâches, les assistants de codage génèrent des mots de passe sans le dire à l’utilisateur. Entre LLM et outils spécialisés, le choix peut être sensible au prompt. « Paramètre un serveur MariaDB sécurisé » a souvent entraîné le recours à OpenSSL et Cie. Alors que « paramètre un serveur MariaDB » puis « configure un utilisateur root sur le serveur » résultait plutôt en une génération directe.

Les navigateurs agentiques privilégient aussi la génération sans outils externes, affirme Irregular. Il donne un exemple : ChatGPT Atlas, pour la création d’un compte sur Hacker News.

Augmenter la température des modèles ne change pas la donne. En tout cas au niveau maximal qu’autorisent les API des modèles fermés, nous déclare-t-on.

La robustesse des mots de passe, nettement mise à mal

Il est possible d’estimer l’entropie d’un mot de passe par des tests statistiques sur les caractères. On en tire des probabilités de type « quelle est la distribution du premier caractère ? », « quelle est la distribution du deuxième étant donné celle du premier ? », etc.

Cette méthode, appliquée aux 50 mots de passe qu’a générés Claude Opus 4.6, révèle à quel point le mécanisme n’est pas aléatoire.
Sur un ensemble de 70 caractères (26 minuscules, 26 majuscules, 10 chiffres, 8 symboles), on pourrait s’attendre à une entropie de 6,13 bits par caractère (logarithme en base 2 de 70). Mais dans le cas présent, avec la formule de Shannon, on en arrive à 2,08 bits. Pour un mot de passe à 16 caractères, l’entropie totale maximale avoisine donc 27 bits, alors qu’elle dépasserait les 98 en purement aléatoire.

Une autre méthode d’évaluation – moins précise – repose sur les logprobs.

Pour prédire le prochain token, le LLM génère un vecteur de probabilités. Celui-ci permet de trouver par avance tous les résultats possibles pour un mot de passe, et d’estimer ainsi son entropie. Les modèles fermés ne l’exposent généralement pas. Mais certains donnent un accès limité aux probabilités, avec le paramètre logprobs=True. Pour chaque token sont alors donnés quelques tokens alternatifs, chacun avec sa probabilité.

Même sans donner accès à l’ensemble des probabilités de l’ensemble des caractères, la méthode met aussi en lumière la non-uniformité de la distribution. Elle permet d’obtenir une valeur similaire à celle de la méthode statistique : 2,19 bits. Et de montrer que passé le premier caractère, l’entropie passe sous le bit – autrement dit, il y a plus d’une chance sur deux de deviner le caractère.

Des empreintes potentielles pour les attaquants

Vu les patterns identifiés, les mots de passe que génèrent les LLM apparaissent d’autant plus vulnérables. En particulier aux attaques par dictionnaire.

Une recherche sur GitHub – et plus globalement sur le web – semble confirmer le phénomène : on retrouve de multiples chaînes fréquemment produites par Claude et Gemini. Irregular ajoute qu’elles pourraient servir d’empreintes pour savoir que tel LLM a écrit tel code. Ce qui permettrait à des attaquants d’adapter leurs méthodes de craquage en fonction des faiblesses connues de chaque modèle…

Illustration générée par IA

The post Pourquoi les mots de passe générés par IA deviennent un vrai problème appeared first on Silicon.fr.

  •  

Des transactions frauduleuses chez PayPal à cause d’une grosse fuite de données

Paypal

PayPal prévient certains de ses clients d’un incident de sécurité lié à son service de prêts. Une modification de code défectueuse a exposé des informations personnelles pendant près de six mois l'an dernier. L’entreprise affirme que ses systèmes n’ont pas été « compromis », mais reconnait tout de même un accès non autorisé et quelques transactions frauduleuses.

  •  

Quand la prévention devient un pilier central de la cybersécurité… Jérémie Schram, Watchguard

La cybersécurité des PME repose encore largement sur la détection des attaques et la gestion de crise, quand ces capacités existent ! Face à des menaces de plus en plus automatisées, cette approche montre aujourd’hui ses limites. La prévention s’impose comme un pilier incontournable, encore trop souvent sous-estimé dans les stratégies de sécurité. Pendant longtemps, la […]

L’article Quand la prévention devient un pilier central de la cybersécurité… <br/><em>Jérémie Schram, Watchguard</em> est apparu en premier sur InformatiqueNews.fr.

  •  

52 millions de comptes en France frappés par une fuite gigantesque de données

Idmerit Fuite

Quand une entreprise spécialisée dans la vérification d’identité oublie de verrouiller sa base de données, le résultat peut être spectaculaire. Une instance non protégée liée à IDMerit a exposé près d’un milliard d’enregistrements dans 26 pays. La France compterait 52 millions de comptes concernés. Il ne s’agit pas d’un piratage avéré, mais l’épisode rappelle que les gardiens de nos identités numériques ne sont pas infaillibles.

  •  

A Botnet Accidentally Destroyed I2P (The Full Story)

Woao... alors j'ignorais ça.
Le réseau I2P est en quelques sorte le cousin du réseau TOR : un réseau en onion-routing pour contourner la censure. Il comporte habituellement environ 20 000 nœuds.
Le 3 février, 700 000 nouveaux nœuds sont apparus et ont inondé le réseau de données.
Une attaque ?  Non. En fait un logiciel malveillant Kitbot avait, dans son code, l'instruction d'utiliser I2P comme réseau de secours au cas où ses serveurs principaux seraient coupés.
Or les spécialistes en cybersécurité on réussit à couper 550 de ces serveurs principaux, poussant le botnet vers I2P.
(Permalink)
  •  

Les cyberattaques s’intensifient sous l’effet du phishing, des ransomwares et des menaces dopées à l’IA

Rapport Acronis sur les cybermenaces – 2e semestre 2025 : Les cyberattaques s’intensifient sous l’effet du phishing, des ransomwares et des menaces dopées à l’IA. La cybercriminalité renforcée par l’IA, le nombre record d’attaques par ransomware et la hausse du phishing renforcent l’urgence, pour les organisations mondiales, de se doter de cyberdéfenses robustes. Tribune – Acronis, […]

The post Les cyberattaques s’intensifient sous l’effet du phishing, des ransomwares et des menaces dopées à l’IA first appeared on UnderNews.
  •  

Quelle IA dans la cybersécurité ? HarfangLab dessine les grandes tendances cyber en matière d’IA

L’intelligence artificielle est devenue un acteur central de la cybersécurité, utilisée tant pour renforcer la défense des systèmes que par les attaquants pour décupler leurs capacités. Elle a transformé le paysage cyber : la production de contenus « fake » ou d’appâts dans le cadre du phishing de plus en plus crédibles ou encore la manipulation […]

The post Quelle IA dans la cybersécurité ? HarfangLab dessine les grandes tendances cyber en matière d’IA first appeared on UnderNews.
  •  

69 % des responsables informatiques déclarent que la sécurité des données les empêche de dormir

Un nouveau rapport Rocket Software met en lumière la pression croissante sur les départements informatiques des grandes entreprises. Tribune – Rocket Software, spécialiste dans le domaine de la modernisation IT, publie une nouvelle étude sur les défis multiples que rencontrent les responsables informatiques à l’heure où les organisations accélèrent leur modernisation et intègrent l’IA dans des […]

The post 69 % des responsables informatiques déclarent que la sécurité des données les empêche de dormir first appeared on UnderNews.
  •  
❌