« L’administration fiscale ne vous demande jamais vos identifiants ou votre numéro de carte bancaire par message. »
Le ministère de l’Économie et des Finances le rappelle après des accès indésirables au fichier national des comptes bancaires (FICOBA).
Un acteur malveillant a usurpé les identifiants d’un fonctionnaire qui disposait d’accès dans le cadre de l’échange d’informations entre ministères. À partir de fin janvier 2026, il a pu consulter une partie du FICOBA. Lequel contient des données personnelles : coordonnées bancaires, identité du titulaire et, dans certains cas, numéro fiscal.
Bercy annonce 1,2 million de comptes concernés. Il promet d’informer individuellement leurs titulaires « dans les prochains jours ».
La hausse du nombre de tués l’an passé - et encore en janvier - peut s’expliquer de bien des façons. Mais toutes renvoient à l’état de notre société et à l’évolution de ses mœurs.
Si les vols de voitures ont reculé de 6 % l’an dernier selon France Assureurs, la menace reste réelle avec plus de 120 disparitions quotidiennes. Des SUV hybrides aux citadines populaires, découvrez le classement des modèles qui attirent le plus les réseaux criminels et les nouvelles techniques de "mouse-jacking" dont il faut se méfier.
Selon le dernier baromètre publié par le CESIN, 81 % des entreprises interrogées estiment disposer d’une vision complète de leurs actifs, tandis que 92 % ont identifié ou sont en cours d’identification de leurs actifs critiques. Si la maturité cyber progresse au sein des entreprises françaises, la complexité des infrastructures hybrides continue toutefois d’ouvrir des […]
Le Parlement européen a décidé de désactiver les fonctionnalités d'intelligence artificielle intégrées aux appareils professionnels des députés et de leurs collaborateurs. Cette décision a été annoncée par courriel interne, invoquant des préoccupations liées à la cybersécurité et à la protection des données. Cela s'explique notamment par le fait que les assistants IA utilisent des services cloud pour effectuer des tâches qui, comme souligné précédemment, pourraient être traitées localement sur l'appareil. Selon l'administration du Parlement européen, l'étendue des données transférées à des prestataires externes reste encore mal connue. En attendant que ces questions soient clarifiées, il est plus prudent de désactiver les fonctions d'IA. De l'avis de l'administration du Parlement européen, l'étendue complète des données transférées à des fournisseurs externes n'est pas encore totalement connue. L'annonce recommandait aux parlementaires de prendre des précautions similaires concernant leurs appareils personnels utilisés à des fins professionnelles. Une attention particulière était portée au risque de numérisation de documents de travail et de correspondance privée par des outils d'intelligence artificielle, ainsi qu'à l'installation d'applications tierces disposant de droits d'accès étendus aux données.
Dans un entretien accordé à POLITICO, des représentants du Parlement ont assuré que leurs services de presse et leurs équipes informatiques surveillent en permanence les menaces et mettent en œuvre les mesures préventives appropriées. L'institution a toutefois refusé de préciser quelles fonctions d'IA avaient été désactivées ni quels systèmes étaient utilisés sur les appareils officiels, invoquant le caractère sensible de ces informations. Le blocage des outils d'IA au sein des gouvernements n'est pas un phénomène nouveau. L'année dernière, le modèle DeepSeek a été interdit sur les équipements gouvernementaux de plusieurs pays, dont les États-Unis, Taïwan et l'Australie, pour des raisons de sécurité nationale. L'affaire du mois dernier a également suscité une vive attention lorsque Madhu Gottumukkala, directeur par intérim de l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), a mis en ligne des documents sensibles sur la version publique de ChatGPT. Bien que non classifiés, ces documents portaient la mention « Usage officiel uniquement » et contenaient des informations relatives à des marchés publics. Les systèmes de sécurité automatisés ont détecté l'incident et le département de la Sécurité intérieure (DHS) a ouvert une enquête. La décision du Parlement européen montre que les administrations publiques privilégient la prudence. (Lire la suite)
Vous avez déjà remarqué comment le volume varie d'une vidéo à l'autre sur YouTube, ou pire, comment certaines pubs sont 10 fois plus fortes que le contenu ? Bah c'est parce que tout le monde n'utilise pas la même norme de volume. Et si vous produisez du contenu audio/vidéo, c'est le genre de détail qui fait la différence entre un truc amateur et un rendu pro.
La bonne nouvelle, c'est que FFmpeg intègre déjà un filtre qui s'appelle loudnorm et qui gère tout ça automatiquement. La norme utilisée, c'est le LUFS (Loudness Units Full Scale), qui est devenue le standard de l'industrie, et YouTube, Spotify, les TV... tout le monde utilise ça maintenant pour mesurer et normaliser le volume audio.
D'ailleurs, si vous débutez complètement avec cet outil, je vous conseille de jeter un œil à mon guide
FFmpeg pour les nuls
pour bien piger les bases de la ligne de commande.
Allez, c'est partiii ! Temps estimé : 2-5 minutes par fichier (selon la méthode choisie)
Mais, avant de se lancer dans les commandes, un petit point sur les paramètres qu'on va manipuler. Le filtre loudnorm utilise trois valeurs principales. D'abord I (Integrated loudness), c'est le volume moyen global mesuré en LUFS. La valeur standard pour le streaming, c'est -16 LUFS pour YouTube et Spotify, ou -23 LUFS pour la diffusion broadcast. Ensuite TP (True Peak), le niveau maximal que le signal ne doit jamais dépasser. On met généralement -1.5 dB pour avoir une marge de sécurité. Et enfin LRA (Loudness Range), qui définit la plage dynamique autorisée, généralement autour de 11 dB.
Méthode 1 : Normalisation simple (single-pass)
C'est la méthode la plus rapide, parfaite pour du traitement à la volée :
Pourquoi ces valeurs : -16 LUFS c'est le standard YouTube/Spotify, -1.5 dB de true peak évite le clipping, et 11 dB de range dynamique garde un son naturel.
Le truc c'est que cette méthode fait une analyse en temps réel et ajuste à la volée. C'est bien, mais pas parfait. Pour un résultat vraiment précis, y'a mieux.
Méthode 2 : Normalisation en deux passes (dual-pass)
Cette méthode analyse d'abord le fichier complet, puis applique les corrections exactes. C'est plus long mais beaucoup plus précis.
FFmpeg va vous sortir un bloc JSON avec les mesures du fichier (input_i, input_tp, input_lra, input_thresh). Notez-les bien, car vous allez les injecter dans la deuxième passe.
Deuxième passe, on applique avec les valeurs mesurées (remplacez les chiffres par ceux obtenus à l'étape précédente) :
Pourquoi cette méthode ? En fait, en passant les valeurs mesurées, FFmpeg sait exactement de combien ajuster. L'option linear=true force une normalisation linéaire plutôt que dynamique, ce qui préserve mieux la dynamique originale.
Pour les fichiers vidéo
Le principe est le même, on ajoute juste -c:v copy pour garder la vidéo intacte sans la ré-encoder :
D'ailleurs, pour ceux qui veulent automatiser ça à l'extrême, j'avais parlé de
FFmpegfs
, un système de fichiers qui transcode automatiquement ce que vous déposez dessus. C'est pratique si vous avez une grosse bibliothèque à gérer.
Traitement par lots avec ffmpeg-normalize
Si vous avez plein de fichiers à traiter, y'a un outil Python qui automatise la méthode dual-pass :
Cet outil fait automatiquement les deux passes et supporte le traitement parallèle. Pratique pour normaliser une bibliothèque entière.
Et en cas de problème ?
Erreur "No such filter: loudnorm" : Votre version de FFmpeg est trop ancienne (il faut la 3.1 minimum). Mettez à jour votre binaire.
Le son est distordu après normalisation : Le fichier source était probablement déjà saturé. Essayez de baisser le target (-18 LUFS au lieu de -16) ou augmentez le headroom du true peak (-2 dB au lieu de -1.5).
Voilà, maintenant vous n'avez plus d'excuse pour avoir des niveaux audio qui varient dans tous les sens. Le LUFS c'est le standard, FFmpeg gère ça nativement, et ça prend 30 secondes.
Le CNRS vient de confirmer un incident de cybersécurité qui a mené au téléchargement non autorisé de fichiers contenant des données personnelles d'anciens agents. Noms, adresses, numéros de sécurité sociale, RIB : la totale donc. L'organisme a déposé plainte et prévenu la CNIL.
Des données très sensibles
C'est ce lundi 16 février que le CNRS a informé ses agents d'une fuite de données sur un de ses serveurs. Des fichiers contenant des informations de ressources humaines ont été téléchargés sans autorisation. Et on ne parle pas de données anodines : noms, prénoms, dates de naissance, adresses postales, numéros de sécurité sociale et RIB. Le tout accompagné du statut de l'agent, du type de contrat et de la structure d'affectation. Le serveur a été isolé et arrêté dès la découverte de l'incident, et l'organisme assure que la fuite ne s'est pas propagée au reste de ses infrastructures.
Qui est concerné ?
Seuls les personnels recrutés avant le 1er janvier 2007 sont touchés, qu'ils aient été titulaires ou non. Si vous avez travaillé au CNRS après cette date, vous n'êtes pas concerné. Le nombre exact de victimes n'a pas été communiqué, mais vu la taille de l'organisme, on parle potentiellement de plusieurs milliers de personnes. Le CNRS recommande de prévenir sa banque, de surveiller ses comptes, de vérifier si ses données circulent sur haveibeenpwned.com, et de rester vigilant face aux tentatives de phishing ou d'usurpation d'identité. La CNIL et l'ANSSI ont été prévenues, et une plainte a été déposée auprès de la section cybercriminalité du parquet de Paris.
Les institutions françaises en ligne de mire
On n'est pas vraiment sur une première niveau cyberattaques sur des services de l'état. Le ministère de l'Intérieur, celui des Sports, et d'autres organismes avaient été visés. L'URSSAF a aussi confirmé une fuite touchant les données de 12 millions de salariés. Le CNRS lui-même avait été la cible d'un défacement de plusieurs de ses sous-domaines fin janvier. Deux incidents distincts, mais la tendance est claire, et c'est franchement moche.
On va quand même saluer le fait que le CNRS a communiqué rapidement, avec un communiqué officiel et une FAQ pour les personnes concernées. C'est loin d'être toujours le cas. Mais on va quand même se questionner sur le fait que des RIB et des numéros de sécu trainent sur un serveur, alors qu'on parle de données parfois veilles depuis presque 20 ans... Pourquoi ces informations étaient-elles encore accessibles ? La question du stockage prolongé de données sensibles revient sur la table, et visiblement, personne n'a encore de bonne réponse. En attendant, si vous avez porté la blouse du CNRS avant 2007, un petit tour sur votre relevé bancaire ne serait pas du luxe.
Les cyclistes ont bien le droit de rouler à deux côtes-à-côtes sur la route, mais uniquement lorsqu’il n’y a pas de véhicule derrière eux proche de les doubler. Et ils n’ont techniquement pas le droit de rouler de cette façon la nuit.
Les infrastructures critiques, électricité, eau, transports, communications, constituent le socle invisible de notre quotidien. Lorsqu’elles s’interrompent brutalement, les conséquences se font sentir immédiatement. L’intelligence artificielle (IA) occupe aujourd’hui une place centrale dans ces systèmes, elle améliore leur efficacité, renforce leurs capacités de prédiction et optimise les opérations. Mais cette intégration ouvre également la voie à […]
L’IA générative est désormais présente dans notre quotidien professionnel et personnel. Ces assistants répondent instantanément à nos questions, rédigent des textes, résument des documents, et font gagner un temps considérable. Mais ils sont aussi victimes “d’hallucinations” et peuvent présenter des failles de sécurité mettant à mal des informations confidentielles.
Comment profiter de ces outils tout en sécurisant leur usage ? Voici quelques risques et solutions possibles.
Les menaces cyber liées aux LLM
Prompt injection: manipulation des instructions pour contourner les règles et accéder à des informations sensibles. Un utilisateur malveillant peut formuler une question ou une instruction de manière à contourner les garde-fous intégrés au modèle et obtenir des informations confidentielles. Par exemple, un employé ou un tiers pourrait, par un enchaînement de phrases trompeuses, inciter l’assistant à divulguer des données internes sensibles ou des secrets commerciaux. Le plus souvent, cette manipulation ne nécessite pas d’accès direct aux systèmes critiques, rendant le risque particulièrement préoccupant.
Fuite de données:divulgation involontaire d’informations confidentielles ou stratégiques. Lorsqu’un assistant génère des réponses à partir de documents internes ou de bases de connaissances, il existe un risque que des informations confidentielles soient reformulées et partagées accidentellement avec des utilisateurs non autorisés. Cette vulnérabilité devient critique dans des secteurs régulés comme la finance, la santé ou la défense, où la moindre divulgation peut avoir des conséquences financières et légales lourdes.
Abus des API et systèmes connectés: détournement des capacités d’action du LLM sur des systèmes internes. Les assistants IA ne se contentent pas de répondre à des questions : ils peuvent interagir avec des systèmes via des API ou automatiser certaines tâches. Si ces accès ne sont pas correctement sécurisés, un acteur malveillant pourrait exploiter le modèle pour exécuter des actions non autorisées, comme modifier des configurations, supprimer des données ou déclencher des processus sensibles.
Hallucinations exploitables: diffusion de fausses informations pouvant induire en erreur les utilisateurs ou servir de vecteur de phishing. Les modèles de langage peuvent « halluciner », c’est-à-dire générer des informations fausses mais plausibles. Si celles-ci ne sont pas identifiées, elles peuvent induire en erreur les employés, fausser des décisions stratégiques ou servir de base à des attaques de phishing sophistiquées. Un e-mail généré automatiquement et contenant de fausses instructions financières pourrait convaincre un employé de transférer des fonds à un tiers frauduleux.
Empoisonnement des données: altération des modèles via des données malveillantes pour biaiser leurs réponses. En alimentant le modèle avec des informations malveillantes ou biaisées, un acteur externe peut altérer ses réponses et influencer ses comportements. À terme, cela peut conduire à une dégradation de la qualité des décisions, à des recommandations erronées ou à des vulnérabilités exploitées pour nuire à l’entreprise.
Comment sécuriser l’usage de l’IA générative
Isolation et contrôle des privilèges: restreindre strictement l’accès aux systèmes et données critiques. Les assistants IA doivent être isolés des systèmes sensibles et n’obtenir que les accès strictement nécessaires à leurs fonctions. Limiter leur portée réduit le risque d’abus et rend beaucoup plus difficile l’exploitation de failles pour accéder à des informations stratégiques.
Filtrage et validation des entrées et sorties: détecter et bloquer les instructions malveillantes et les réponses dangereuses. Pour prévenir les injections de prompt et les fuites accidentelles, il est essentiel de filtrer les requêtes adressées à l’IA et de vérifier la pertinence des réponses avant leur diffusion. Des mécanismes automatiques de contrôle et de validation, combinés à des règles métier, permettent de réduire les risques d’exécution d’instructions malveillantes.
Supervision humaine et garde-fous métier: validation des actions critiques et règles explicites sur l’usage autorisé. Une supervision humaine des actions critiques de l’IA et la définition de politiques d’usage explicites garantissent que l’IA reste un outil d’aide et non un acteur autonome pouvant générer des pertes ou des incidents. La combinaison de l’intelligence humaine et artificielle est un garde-fou essentiel.
Journalisation et monitoring:suivi des interactions pour identifier rapidement des usages anormaux ou des tentatives d’attaque. La traçabilité est cruciale. En enregistrant et en surveillant toutes les interactions avec l’IA, les entreprises détectent rapidement des comportements suspects, analysent des tentatives de fraude et réagissent avant que les incidents ne deviennent critiques. Le monitoring en temps réel permet également d’identifier des tendances d’usage qui pourraient indiquer des vulnérabilités.
Tests de sécurité dédiés: audits et simulations pour détecter les vulnérabilités avant qu’elles ne soient exploitées. Les simulations d’attaques et les évaluations de risques permettent d’identifier des failles avant que des acteurs malveillants ne les exploitent, garantissant que le déploiement de l’IA reste un levier de productivité plutôt qu’une source de pertes financières.
Comme Discord se merdifie et considère par défaut ses utilisateurs comme mineurs (sauf preuve du contraire), on pouvait légitimement craindre la prolifération des scans de cartes d'identité et faciaux. (Que Discord a déjà laissé fuiter ! https://sebsauvage.net/links/?E5TYdQ)
Discord se défend en avançant "oui mais ne le demandera pas toujours. On a des IA qui évaluent s'il faut la demander".
IA qui se trouve être liées à l'immonde Palantir.
Donc Discord va filer vos données à Palantir pour ne pas avoir à demander une copie de votre carte d'identité. La peste ou le choléra. (Permalink)
Peugeot invite certains propriétaires de SUV 3008 et 5008 à passer dans les ateliers. En cause, des écrous de roue pas suffisamment serrés qui pourraient conduire à la perte des roues. Heureusement, les exemplaires concernés sont très peu nombreux.